Odaily Planet Daily News Anthropic убрала из своей политики ответственного расширения основное обязательство по безопасности, больше не обязуясь приостанавливать обучение, если меры по снижению рисков не полностью введены. Джаред Каплан, главный научный сотрудник Anthropic, рассказал TIME, что в условиях стремительного развития ИИ бессмысленно в одностороннем порядке приостановить тренировки, если участники продолжат продвигаться дальше.
OpenAI также пересмотрела свою миссию, убрав слово «безопасно» из подачи IRS 2024 года, где ранее было заявлено создание универсального ИИ, который «безопасно приносит пользу человечеству», а теперь изменено на «обеспечение того, чтобы универсальный ИИ приносил пользу всему человечеству».
Эдвард Гейст, старший исследователь политики в корпорации RAND, отметил, что передовой ИИ, задумываемый ранними сторонниками безопасности ИИ, принципиально отличается от современных крупных языковых моделей, а изменение терминологии также отражает стремление компании сигнализировать инвесторам и политикам, что она не отступит от экономической конкуренции из-за опасений по вопросам безопасности.
Anthropic недавно завершила финансирование на сумму 30 миллиардов долларов с оценкой около 380 миллиардов долларов; OpenAI движется вперёд с раундом финансирования до 100 миллиардов долларов, поддерживаемым Amazon, Microsoft и Nvidia. Тем временем Anthropic сталкивается с неопределённостью по поводу своих оборонных контрактов из-за публичных разногласий с министром обороны США Питом Хегсетом по поводу отказа полностью открыть Клод доступ к Пентагону. (Расшифровка)