我刚刚注意到一件相当有趣的事情。在过去五年中,AI 行业关于 AGI 存在威胁的强大叙事层出不穷,并不是因为有确凿的证据,而是因为它确实有现实用途。这个叙事帮助他们获得投资人的资金,吸引政府关注,并为整个行业营造出紧迫感。但问题在于:一旦叙事传到外面的世界,它就不再由叙事的创造者掌控。



它反过来又回来了,有时甚至会对你开火。看看今年四月第一周发生了什么:4 月 10 日凌晨 03:40,在旧金斯科(San Francisco),一名 20 岁的男子 Daniel Moreno-Gama 向 Sam Altman 的公寓门口投掷燃烧弹。火焰在门口燃起,然后他逃走了。大约一个小时后,同一个人出现在 OpenAI 附近,并威胁要再次点火,随后被捕。

两天后,4 月 12 日凌晨 01:40,一辆本田(Honda)车停在 Altman 位于山坡的另一处住宅旁。乘客把手伸出窗外向房子开火。执法人员逮捕了两名嫌疑人:Amanda Tom 和 Muhammad Tariq Hussen。两人都被指控过失射击及两项袭击罪——在 48 小时内。

第一次袭击中的角色 Daniel Moreno-Gama,在 AI 议题上是个相当悲观的人。在袭击之前,他在社交媒体上发布了一篇文章,并使用《沙丘》(Dune)的画面来论证:AI 对齐失败是对生存的风险;他还批评那些正把科技领袖推向为人类命运“追逐后人类主义(โพสต์ฮิวแมนนิสม์)”的冒险之中。

他的观点是:OpenAI 和其他 AI 领导者所说的,并不是真正的信仰——而是一种策略。通过制造“存在级别威胁”的故事,他们就能同时说三件事:“我们是最危险的科技领导者,我们是最负责任的,所以资金应该流向我们。”

但当这些话说出去之后,它们就不再只停留在投资者的会议室或大楼走廊。有人把这些叙事当真了;在某些情况下,它甚至变成了直接的行动指令。

看看去年年底发生的事情:2024 年 12 月,UnitedHealthcare 的 CEO Brian Thompson 被枪杀身亡。嫌疑人 Luigi Mangione 毕业于顶尖大学,还留下了批评医疗保险行业的留言。案件在社交媒体上引发了奇怪的反应:许多用户对肇事者表示同情,有人甚至把他赞扬为反抗的象征。

随后,大门被推开。高管安全从“福利”变成了“生存必需”。据《财富》(Fortune)报道,自 2023 年以来,对大型企业高管的身体攻击事件增加了 225%。在 S&P 500 的公司中,2025 年高管安保费用占比有 33.8%,而 2020 年是 23.3%。

安保服务公司的平均支出为 130,000 美元,比上一年增加 20%,并且在五年内翻了一倍。

但 AI 行业不一样——并不是因为安全风险变得更高,而是因为 AI 的创造者自己相信:这项技术可能会毁灭文明。“这些文字有分量。”

2024 年,10 家顶级科技公司的 CEO 的安保支出合计超过 45,000,000 美元。Mark Zuckerberg 的支出超过 27,000,000 美元——多于 Apple、Google 以及另外四家公司的 CEO 安保费用总和。Google 的 Sundar Pichai 的支出为 8.27 million 美元,比上一年增加 22%。NVIDIA 的黄仁勋(Huang Jen-hsun)在 2025 年的支出为 3.5 million 美元,比上一年增加 59%。这些最新数字显示出增长速度正在迅速加快。

Pew Research 在 2025 年的一项调查显示,28,333 名全球受访者中,只有 16% 的人对 AI 的发展感到兴奋,而 34% 表示担忧。更有意思的是:受教育程度更高、收入更高的人,反而对“AI 失控”更加担忧——理解得越多的人,反而越害怕。

我刚看到一则新闻:Ron Gibson,印第安纳波利斯(Indianapolis)市议员,他的家在夜间被连续射击 13 次。8 岁的儿子被枪声惊醒。门口贴着一张手写纸条,上面写着“不要建立数据中心”(ห้ามสร้างศูนย์ข้อมูล)。FBI 已经介入调查。

根据乔治华盛顿大学(George Washington University)的研究人员指出,数据中心正在成为反科技团体攻击的目标。业内人士的这种恐惧并不是什么秘密,但并没有被公开讨论。

我们再回到 2016 年。Sam Altman 在怀俄明州(ไวโอมิง)建造了地下掩体:占地 1,200 平方米、三层,里面有 500 公斤黄金、5,000 片 碘化钾(ย่าไอโอดีนโพแทสเซียม)、5 吨冷冻干粮,以及 100,000 发子弹。同一年 OpenAI 刚成立。他在舞台上说 AI 是人类最大的机会,但与此同时他又储备了足够对抗民用力量的武器。这是一种“两头下注”:公开押注 AI 会成功,同时私下准备 AI 可能会失控。

第一次袭击之后,Altman 发了博客。他上传了和孩子们的合照,并表示希望这张照片能阻止下一个人把燃烧弹投向他的家。他承认抗议者的道德立场,并呼吁进行“更少直白、更少指代的公共讨论”。

但最有意思的是,他写道:“我低估了媒体叙事的力量。”他知道那种叙事的力量会超出他的预期。他也知道它会如何反弹回来——反过来打到他自己身上。

在第一次袭击发生前的一周,《纽约客》(The New Yorker)由 Ronan Farrow 和 Andrew Marantz 发表了一篇对 Altman 的深度采访。两人采访了超过 100 位知情人士。主要争议只有两个字:“不可信”。文章引用了某位前 OpenAI 董事会成员的说法,称 Altman 是“反社会人格的人”,并且“受事实约束较少”。不少同事描述他在 AI 安全问题上反复调整立场。

在他的帖子里,Altman 承认自己有回避冲突的倾向。他打造了一个公共叙事:AI 是“存在级别的威胁”,用来筹集资金、推动监管。但最终,这个工具却脱离了他的掌控。

今年 2 月 27 日,OpenAI 与美国国防部签署协议,让美国军方能够在国家安全的秘密网络上使用 ChatGPT。同一天,Altman 也表达了对 Anthropic 限制军事用途 AI 的支持立场。

反对 QuitGPT 的行动据称已积累了超过 1.5 million(150 万)名参与者。3 月 21 日,约 200 名抗议者在旧金山(San Francisco)游行,穿过 Anthropic、OpenAI 和 xAI 的办公室,呼吁这三位 CEO 承诺暂停开发先进 AI。伦敦也举行了史上最大规模的反 AI 游行。

这就是所谓的“回旋镖”(boomerang)式叙事:Altman 在怀俄明州的掩体以及他雇用的安保人员,是为了应对两种不同的风险而设计的——一种来自外部,另一种来自他自己正在制造的东西。他私下里同样认真对待这两种风险,但在公开场合,他只承认其中一种。

被编造出来的叙事被放出去,然后又反弹,撞上了门口。
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论