#TrumpordersfederalbanonAnthropicAI


Анализ: Противостояние по поводу ИИ в вооружённых силах США

Крупный конфликт между администрацией Трампа и технологической индустрией завершился беспрецедентным запретом ведущей отечественной компании по разработке ИИ на участие в государственных проектах США. Этот конфликт, сосредоточенный на этическом использовании искусственного интеллекта в военных целях, привёл к тому, что президент Дональд Трамп приказал всем федеральным агентствам прекратить использование технологий компании Anthropic, создателя модели Claude AI .

Основной конфликт: неограниченный военный доступ

Спор начался, когда Министерство обороны под руководством министра Пита Хегсета потребовало от поставщиков ИИ убрать все ограничения на использование, чтобы ускорить развитие «ИИ-первой» армии. Anthropic, которая заключила контракт с Пентагоном с 2024 года, получила срок до согласия на «неограниченное использование» своих инструментов для любых законных военных целей .

Генеральный директор Anthropic, Дарио Амодей, отказался соблюдать требования, ссылаясь на конкретные этические красные линии. Компания выступает против использования своих технологий для массового наблюдения за гражданами США и для развертывания полностью автономных оружейных систем, которые могут функционировать без человеческого контроля. «Эти системы используются для массового наблюдения внутри страны», — заявил Амодей, утверждая, что такое использование противоречит демократическим ценностям .

Ответ администрации: федеральный запрет

В ответ на неповиновение Anthropic, президент Трамп издал яркую директиву на своей платформе Truth Social. «Я приказываю ВСЕМ федеральным агентствам в правительстве США немедленно прекратить использование технологий Anthropic», — написал он. «Нам это не нужно, мы этого не хотим и больше не будем с ними сотрудничать!» .

Запрет включает шестимесячный период постепенного прекращения работы для таких агентств, как Министерство обороны. Трамп также пригрозил компании, заявив, что если она не будет сотрудничать в этот переходный период, он использует «всю мощь президентства» для принуждения к выполнению требований, с «осложнениями гражданских и уголовных последствий» .

Беспрецедентная метка «Риск цепочки поставок»

Выходя за рамки простого расторжения контракта, министр обороны Пит Хегсетх усилил ситуацию, официально обозначив Anthropic как «риск цепочки поставок» для национальной безопасности. Эта классификация, которая исторически предназначена для иностранных противников, таких как китайские компании, фактически запрещает любому подрядчику или партнеру Пентагона вести бизнес с Anthropic. Хегсетх охарактеризовал позицию Anthropic как «мастер-класс по высокомерию и предательству», в то время как компания пообещала оспорить «незаконную» классификацию в суде.

Парадокс использования: Claude помогает в ударах по Ирану

Добавляя слой сложности в противостояние, появились сообщения о том, что вооружённые силы США использовали Claude AI компании Anthropic во время воздушных ударов по Ирану — всего через несколько часов после того, как Трамп приказал запрет. Согласно Wall Street Journal, Центральное командование использовало Claude для оценки разведданных, определения целей и моделирования боевых действий во время операции. Это подчеркивает глубокую интеграцию технологий Anthropic в засекреченные военные системы, что стало причиной для администрации разрешить шестимесячный период постепенного отключения, а не немедленного закрытия.

Реакция индустрии и действия конкурентов

Технологическое сообщество выразило значительную поддержку Anthropic. Более 700 000 работников технологических компаний, таких как Google, Amazon и Microsoft, подписали открытое письмо с призывом к своим работодателям отказаться от требований Пентагона. В неожиданном проявлении солидарности генеральный директор OpenAI Сэм Альтман публично поддержал конкурента Амодей, заявив, что сейчас речь идет о «всей индустрии» и её этических границах.

Однако, через несколько часов после запрета Anthropic, OpenAI объявила о подписании соглашения с Пентагоном о предоставлении своих ИИ-инструментов для засекреченных систем. Альтман настаивал, что соглашение включает те же ограничения, что и требования Anthropic, такие как запрет на массовое наблюдение и ответственность человека за использование силы. Этот шаг вызвал заметный разлом в индустрии, и онлайн-сообщества начали выступать за Claude вместо OpenAI.

Определяющий момент для управления ИИ

Аналитики считают, что это противостояние стало точкой кипения в дебатах о «милитаризации ИИ». Бывший чиновник Минобороны отметил, что правовая основа действий администрации против Anthropic кажется «крайне слабой», что может дать компании преимущество в восприятии общественности.

Центр демократии и технологий раскритиковал этот шаг как «опасный прецедент», который наказывает компанию за принципиальную позицию и может охладить будущие переговоры между частными компаниями и правительством. Пока Anthropic готовится к судебной битве, исход которой, вероятно, определит будущее отношений Кремниевой долины и национальной безопасности США, решая, смогут ли компании по разработке ИИ сохранять этические красные линии под давлением государства.
Посмотреть Оригинал
post-image
post-image
post-image
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Репост
  • Поделиться
комментарий
0/400
CryptoEyevip
· 1ч назад
GOGOGO 2026 👊
Посмотреть ОригиналОтветить0
MasterChuTheOldDemonMasterChuvip
· 4ч назад
2026冲冲冲 👊
Ответить0
MasterChuTheOldDemonMasterChuvip
· 4ч назад
Год Коня — большой доход 🐴
Посмотреть ОригиналОтветить0
MasterChuTheOldDemonMasterChuvip
· 4ч назад
Колебания — это возможность 📊
Посмотреть ОригиналОтветить0
MasterChuTheOldDemonMasterChuvip
· 4ч назад
Стойко HODL💎
Посмотреть ОригиналОтветить0
MasterChuTheOldDemonMasterChuvip
· 4ч назад
Пик 2026 года 👊
Посмотреть ОригиналОтветить0
  • Закрепить