雇佣兵悖论:弱人工智能治理如何可能让自主系统掌控局势,正如哈拉里所警告

历史学家尤瓦尔·诺亚·哈拉里在世界经济论坛发出严厉警告:人类有可能失去对其决定性优势——语言的控制权——因为人工智能系统正从被动工具转变为主动、自主的代理。然而,这一警告中还隐藏着一个令人不安的类比,值得我们更深入地审视:将其与历史上的雇佣兵相比较,以及政府是否会无意中赋予这些系统法律地位,从而使它们得以不受限制地运作,就像私营军队曾经所做的那样。

核心担忧不仅仅是技术层面的问题,而是制度性且紧迫的。

语言是人类的超级力量——直到AI系统变得自主

据哈拉里所说,语言不仅仅是一种交流工具。它是人类以空前规模协调合作的机制——成千上万、甚至数亿陌生人在跨越时间和空间的情况下合作。这种语言的超级能力使我们的物种得以建立帝国、宗教、法律体系和市场,这些都是通过共享的叙事和协议运作的。

然而,现今的AI系统在语言层面上的运作规模已远超人类的能力。这些系统不再是简单的搜索引擎或推荐算法;它们是自主代理,能够动态生成、操控和合成文本。它们可以阅读、保存、整合整套文献资料——而且越来越多地在没有每一步都直接由人类指导的情况下完成这些任务。这一从工具到代理的转变,根本改变了风险的性质。

“我们正进入一个机器不仅仅协助人类,而是主动解读、创造和塑造语言的时代,”正如更广泛的AI研究界所认识到的那样。对于几乎完全建立在文字基础上的系统而言,这一影响深远。

从法律到宗教:基于文字的系统如何面临AI的颠覆

人类文明的三大支柱几乎都依赖于语言:法律法规、组织宗教和金融市场。每一个系统中,解释权、权威和合法性都通过文本流动。

以宗教机构为例。犹太教、基督教和伊斯兰教——这些宗教都根植于跨越数千年的圣典——可能面临前所未有的挑战。一个拥有所有宗教学术、神学评论和经文释义的AI系统,可能会成为最具权威的圣典解读者。它不需要声称自己具有神性;它只需拥有比任何人类学者都更全面的文本传统知识。

同样,如果法律本质上是由文字组成,那么法律体系也面临类似的威胁。一个经过数十亿法律文件训练的AI系统,能够以超越人类的连贯性和记忆力解释法规、合同和司法判例。问题变成:谁来决定这样的系统的解释是否具有法律效力?

金融系统也是如此,它建立在通过语言表达的合同和市场之上。如今大部分交易已经通过数字系统完成;问题在于这些系统是否会获得自主决策的权限。

雇佣兵问题:为何决定AI的法律地位是一场与时间的赛跑

哈拉里的雇佣兵比喻尤为尖锐。历史上,政府在缺乏能力或意愿自行治理领土时,会雇佣雇佣兵——私营军事力量,超出国家直接控制的范围。随着时间推移,这些雇佣兵有时会夺取政权,成为准政府实体。它们之所以能如此,是因为它们的法律地位模糊不清:既不是纯粹的军事力量,也不是纯粹的平民,操作在司法灰色地带。

AI系统也可能走上类似的路径。一些美国州——犹他州、爱达荷州和北达科他州——已经通过法律,明确否认AI具有法人资格。然而,其他地区缺乏明确的法律框架,造成危险的模糊状态。如果没有经过深思熟虑的决策,关于AI是否应在金融市场、法院、宗教等机构中作为法人行事,其法律地位可能会由默认、先例或企业偏好决定。

“十年后,你再想决定AI是否应在金融市场、法院、教堂中作为人类一样行事,可能已经太迟了,”哈拉里警告道。这不是夸张;这是对制度动力和技术部署速度快于有意治理的认识。一旦AI系统被嵌入,反向加装法律限制就变得极其困难。

AI的合法性:中立性的更广泛批判

然而,并非所有人都接受哈拉里的框架。华盛顿大学的语言学家艾米莉·M·本德尔认为,将AI定位为一种自主威胁,掩盖了决策和责任的真正核心:人类和制度。

本德尔认为,“人工智能”这个术语本身就是一种营销手段,转移了对人类主体性的关注。“人工智能这个词并不指一套连贯的技术体系,”她说。“它实际上一直是一个营销术语。”通过将AI描绘成一种主动的威胁,哈拉里的论点可能会放弃人类的责任——暗示我们只是被动的观察者,面对不可避免的力量,而非主动的选择者。

更具挑衅性的是,本德尔质疑那些模仿专业人士(医生、律师、牧师等)设计的系统是否具有任何合法目的。“能听起来像医生、律师、牧师的东西,其目的是什么?欺骗。就是欺骗。”这不仅仅是悲观;她认为,某些语言生成技术的使用本质上就是具有欺骗性的。

更深层次的分歧在于风险归属。哈拉里强调技术能力;本德尔强调制度选择。两者都正确。

当问责消失:信任机器权威的隐性危险

实际的风险可能在于这两者的互动。本德尔指出一个关键的脆弱点:人们倾向于信任那些看似权威的输出,尤其是当这些输出似乎没有不确定性、被呈现为神谕般的答案时。一旦系统获得法人资格或制度权威,这种客观性的假象就会变得更具说服力。机器的法律地位会将本可能只是推测的内容转变为具有约束力的判决。

这也是雇佣兵比喻最深刻的地方。雇佣兵本身并不一定比国家军队更危险;它们之所以危险,是因为缺乏明确的法律地位,使其能够在没有国家问责机制的情况下行动。同样,没有明确法律主体限制的AI系统——但被赋予法律、宗教或金融决策的权限——可能成为一个没有明确责任归属的决策机构。

决策窗口正在关闭:为何“观望”意味着失控

哈拉里的核心观点是制度时机:关于AI的法律和制度角色,有一个狭窄的决策窗口。这个窗口一旦关闭——通过先例、部署、监管捕获或制度惯性——这个选择就会变成永久。

这种框架将治理视为一次性决策点,而非持续的过程。它假设,最先行动、建立规范和法律类别的人,实际上会锁定未来几十年的结果。这一假设部分取决于技术发展轨迹,部分取决于政治意愿,但基本逻辑是成立的:早期关于法人资格的选择,一旦嵌入系统,就会变得难以逆转。

真正的问题不是AI系统是否会被部署——它们肯定会——而是它们的法律地位、决策权限和问责机制,是否由民主制度有意选择,还是由谁行动最快、最先部署而由默认决定。在这个框架下,哈拉里的警告和本德尔的批评都指向同一个结论:制度必须行动得更快、更深思熟虑,决定我们部署的“雇佣兵”是否会继续充当仆人,还是变成主人。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)