OpenAI 在机密美国军事网络中的推进与消费者反弹以及较为低调但具有重要意义的基础设施转型相撞,凸显了这家人工智能(AI)巨头在国家安全野心与用户信任之间走钢丝的局面。
争议始于2月28日,当时OpenAI确认与美国国防部达成协议,在机密网络上部署包括ChatGPT技术在内的先进AI系统。
公司将此交易描述为合法且受严格控制,但批评者则看到完全不同的情况:一个面向消费者的AI平台在公众对人工智能的审查已然激烈的时刻,逐步深入军事行动。
OpenAI表示,该协议包括明确的安全措施,包括禁止对美国人员进行大规模国内监控、自动武器控制以及高风险自动决策系统。
它还强调了技术限制,包括仅在云端部署以及对安全系统的控制权,同时遵守美国法律框架,如第四修正案和国防部关于人类监督致命武力的规定。
然而,外观并不算非常微妙。
在公告发布数小时内,名为#QuitGPT的草根抵制运动开始在社交媒体上传播,呼吁用户取消订阅、删除应用程序并转向竞争对手。可衡量的反弹导致应用行为发生了显著变化。
网站Quitgpt.org的截图
根据应用分析数据显示,2月28日当天,美国ChatGPT的卸载率较前一日激增295%,而次日下载量下降13%,之后又下降了5%。
用户情绪在应用评论中表现得更为剧烈,一天内一星评价激增775%,并持续攀升,而五星评价则大致减半。竞争对手从中受益。
Anthropic的Claude应用在同期内的下载量增加了37%至51%,一度在美国App Store排名中超越ChatGPT,用户开始探索替代方案。抵制运动的组织者声称有数百万的行动,包括取消订阅和承诺,尽管具体数字因来源和参与定义不同而有所差异。
OpenAI迅速采取措施控制事态发展。首席执行官Sam Altman承认在沟通方面存在不足,称此次推出“机会主义且草率”,数日内公司修订了协议条款。
更新后的条款明确禁止利用AI系统进行有意的国内监控,并对任何情报机构的参与提出了更严格的要求,包括单独的合同层级。公司还宣布计划与其他AI开发者合作制定共享的安全框架,将这些变化定位为收紧而非撤退。
尽管修订后反弹有所缓和,但这次事件留下了深刻印记,凸显了当AI进入敏感领域时,消费者情绪变化的速度。同时,OpenAI在幕后也在进行一些不那么明显但具有战略意义的调整。
2023年3月初,公司重组了其计算和基础设施运营,将责任划分为三个专注组,涵盖数据中心设计、商业合作伙伴关系和现场设施管理。这一重组反映了OpenAI扩大计算能力的更广泛战略转变。
公司不再积极建设和拥有庞大的数据中心以支持其雄心勃勃的“Stargate”计划,而是更依赖租赁和与云服务提供商的合作。微软的Azure仍然是核心策略的一部分,同时OpenAI也扩大了与Oracle和亚马逊Web服务的合作关系,签订了多年的容量协议。
早期涉及大型、共同拥有基础设施项目的计划已被缩减或重新设计,因为在大规模建设AI超级计算能力的财务和后勤现实变得难以忽视。相反,OpenAI专注于控制关键元素,如定制硬件和芯片,同时将物理基础设施层外包给成熟的超大规模云服务商。
这两项发展——一项公开且有争议,另一项操作性强且务实——虽未直接关联,但共同描绘出一家在多个前线快速行动的公司,有时甚至比其信息传递的速度还要快。
对OpenAI而言,现在的挑战不再是是否能构建强大的系统,而是如何管理在风险极高的场所部署这些系统的后果。