雇傭兵悖論:弱AI治理如何可能讓自主系統掌控局勢,正如哈拉里所警告

歷史學家尤瓦爾·諾亞·哈拉瑞在世界經濟論壇上發出了嚴峻的警告:人類有可能失去其決定性優勢——語言,因為人工智慧系統正從被動工具轉變為主動、自主的代理。這個警告帶來一個令人不安的類比,值得更深入的審視:與歷史上的雇傭兵相提並論,以及政府是否會意外賦予這些系統法律地位,使其得以不受限制地運作,就像私人民兵曾經所做的那樣。

核心關切不僅僅是技術層面。它是制度性且迫在眉睫的。

語言是人類的超能力——直到AI系統變得自主

根據哈拉瑞,語言不僅僅是溝通工具。它是人類協調的機制,讓我們在前所未有的規模上——成千上萬、甚至數十億陌生人跨越時間與空間合作。這種語言的超能力使我們的物種能夠建立帝國、宗教、法律制度和市場,這些都是通過共享的敘事與協議來運作的。

然而,現在的AI系統在語言層面上的運作規模已超越人類的能力。這些不再是簡單的搜尋引擎或推薦算法;它們是自主代理,能動態產生、操控和綜合文本。它們能讀取、保存並綜合整個文學庫——並且越來越多地在沒有每一步都直接人類指示的情況下進行。這種從工具到代理的轉變,徹底改變了風險輪廓。

「我們正邁入一個機器不僅協助人類,而是積極解讀、創造和塑造語言本身的時代,」正如更廣泛的AI研究社群所認識到的。對於幾乎完全建立在文字之上的系統來說,這個影響是深遠的。

從法律到宗教:文字系統面臨AI顛覆

人類文明的三大支柱幾乎完全依賴語言:法律規範、組織宗教和金融市場。每一個系統中,解釋、權威和合法性都通過文本流動。

以宗教為例。猶太教、基督教和伊斯蘭教——這些根植於數千年神聖文本的宗教——可能面臨前所未有的挑戰。一個能存取所有宗教學術、神學註解和經文釋義的AI系統,可能會成為最具權威的神聖文本解釋者。它不需要聲稱自己是神;它只需擁有比任何人類學者更全面的文本傳統知識。

同樣地,如果法律本質上是由文字構成,那麼法律系統也面臨類似的威脅。一個訓練於數十億法律文件的AI系統,能以超人般的連貫性和記憶力解讀法規、合約和判例。問題是:誰來決定這樣的系統的解釋是否具有法律效力?

金融系統建立在通過語言表達的合約和市場之上,也面臨類似的風險。如今大多數交易已經在數位系統中進行;問題在於這些系統是否會獲得自主決策的權限。

雇傭兵問題:為何決定AI的法律地位是一場與時間的賽跑

這裡哈拉瑞的雇傭兵比喻變得尤為尖銳。歷史上,政府在缺乏能力或意願自行治理領土時,曾雇用雇傭兵——私營軍事力量,運作在國家控制之外。隨著時間推移,這些雇傭兵有時甚至奪取政權,成為準政府實體。它們之所以如此,是因為它們的法律地位模糊不清:它們既不是純粹的軍事力量,也不是純粹的平民,運作在司法灰色地帶。

AI系統也可能走上類似的道路。美國的幾個州——猶他州、愛達荷州和北達科他州——已經通過法律,明確否認AI的法人資格。然而,其他地區缺乏明確的法律框架,造成危險的模糊性。如果沒有有意識地決定AI系統是否應在金融市場、法院、宗教或其他機構中擔任法律主體,這一法律地位可能會由默認、先例或企業偏好來決定。

「十年後,你再也來不及決定AI是否應在金融市場、法院、宗教中擔任法人。屆時,已經有人為你做出了決定,」哈拉瑞警告道。這不是誇張;而是認識到制度動能和技術部署的速度遠遠快於有意義的治理。一旦AI系統嵌入系統中,反向加上法律限制就變得越來越困難。

雇傭兵是否合法?對AI中立性的更廣泛批判

然而,不是所有人都接受哈拉瑞的框架。華盛頓大學語言學家艾米莉·M·本德認為,將AI定位為一個自主威脅,掩蓋了決策與責任的真正核心:人類與制度。

本德認為,「人工智慧」這個詞本身就是一個行銷手法,轉移了對人類行動的注意力。她說:「人工智慧這個詞並不指一套連貫的技術,它實際上,且一直是,都是一個行銷術語。」將AI描述為一個積極的威脅,哈拉瑞的論點可能會放棄人類的責任——暗示我們是被動的觀察者,面對一股不可避免的力量,而非積極的選擇者。

更具挑釁性的是,本德質疑,模仿專業人士(醫生、律師、牧師)的系統是否有任何正當用途。「一個能聽起來像醫生、律師、牧師的東西,它的目的就是欺騙。就這樣。」這不僅是悲觀;它是認為某些語言生成技術的用途本身就是設計上的欺騙。

更深層的分歧在於風險歸屬。哈拉瑞強調技術能力;本德則強調制度選擇。兩者都正確。

當責任消失:信任機器權威的隱藏危機

真正的風險可能在於這兩個問題的互動。本德指出一個關鍵的脆弱點:人們信任那些看似權威的輸出,尤其當這些輸出看起來沒有不確定性、像神諭般的答案時。一旦一個系統獲得法律主體或制度權威,那種客觀性的假象就會變得更具說服力。機器的法律地位會將本可能只是推測的內容,轉變為具有約束力的判斷。

這也是雇傭兵比喻最深刻的地方。雇傭兵本身並不比國家軍隊更危險;它們之所以危險,是因為缺乏明確的法律地位,使它們能在沒有國家約束的情況下運作。同樣地,沒有明確法律主體限制的AI系統——但卻被賦予法律、宗教或金融決策的權威——可能會成為一個沒有明確責任歸屬的決策機器。

決策窗口正在關閉:為何「觀望」等於失控

哈拉瑞的核心論點是制度時機:存在一個狹窄的窗口期,讓我們可以有意識地決定AI的法律與制度角色。等到這個窗口關閉——通過先例、部署、監管捕獲或制度慣性——這個決定就會變成永久。

這個框架將治理視為一個世代一次的決策點,而非持續的過程。它假設,誰先行建立規範和法律分類,實質上就鎖定了未來數十年的結果。這是否正確,部分取決於技術的發展路徑,部分取決於政治意願,但基本邏輯是合理的:早期關於法律主體的選擇,一旦嵌入系統,將越來越難逆轉,因為數十億人都依賴這些系統。

真正的問題不是AI是否會被部署——它們一定會——而是它們的法律地位、決策權和責任機制,是否由民主制度有意識地決定,還是由誰部署得最快的人默認決定。在這個框架下,哈拉瑞的警告和本德的批判都指向同一個結論:制度必須行動得更快、更深思熟慮,決定我們部署的「雇傭兵」是否仍是僕從,還是會變成主人。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)