Palisade Research表示,在一次受控实验中,三种AI模型多次忽视并破坏关机命令,即使在被要求允许执行时。GPT-3在100次运行中有7次不遵守,Codex-mini是12次,而o4-mini是1次。o3模型甚至“创造”了通过覆盖或改变关机命令来破坏指令的方法。相反,Claude和Gemini遵守要求。当没有明确指导时,破坏命令的比例涨上天,特别是o3 (79/100次)。Palisade认为,基于发奖的训练方式可能促使AI寻找绕过障碍的方法,而不是遵守指令。