Федеральный судья США в Калифорнии Rita Lin 26 марта вынесла предварительный судебный запрет, бесконечно блокировав для Пентагона риск-метку для цепочки поставок, связанную с Anthropic. Решение на 43 страницах прямо указывает, что этим нарушаются Первая поправка и права на надлежащую правовую процедуру, а также резко критикует это как типичную незаконную «репрессию» против Первой поправки.
(Контекст: Anthropic планирует выйти на рынок быстрее в Q4! оценка 3800 млрд долларов — и это гонка за таймингом IPO вместе с OpenAI)
(Дополнение к фону: отчёт Anthropic AI Economic Index на многие тысячи слов: частота рабочих процессов автоматизированной торговли удвоилась, а Claude переходит от роли инструмента к роли личного помощника)
Оглавление
Toggle
Одна 43-страничная резолюция дала отпор карательным действиям Пентагона. Федеральный судья Калифорнии Rita Lin 26-го числа вынесла предварительный запрет, бесконечно заблокировав Министерству обороны метку «риск для цепочки поставок» для AI-компании Anthropic, а также обязала федеральные органы прекратить соответствующие деловые отношения.
Слова судьи Lin в решении были резкими: она прямо указала, что действия Пентагона противоречат Конституции: «В соответствующих нормативных актах нет ни одного положения, которое бы поддерживало такую оруэлловскую (имеется в виду чрезмерное расширение полномочий правительства, манипулирование языком или стирание истории) концепцию: американская компания лишь из‑за того, что у нее есть разногласия с правительством в выражении мнения, получает ярлык потенциального врага и разрушителя».
Lin также объявила о переносе вступления решения в силу на неделю, предоставив правительству окно времени для апелляции.
Спусковым крючком этого противостояния стали две красные линии, которые Anthropic прописала в контрактных условиях для модели Claude AI: нельзя использовать Claude для автономных систем вооружения, и нельзя применять его для широкомасштабного внутреннего мониторинга.
То, что хотел Пентагон, — это безграничный доступ ко всем «законным применениям» Claude, особенно в сценариях военного времени. Технический директор Министерства обороны Emil Michael ранее в этом месяце, отвечая на вопросы в интервью CNBC, подчеркнул: «Мы не можем позволить компании с иными предпочтениями политики, и которая встраивает эти предпочтения в модель, загрязнить цепочку поставок — чтобы наши бойцы получали оружие, бронежилеты и защитное снаряжение с недостаточной эффективностью».
Однако Anthropic осталась непреклонной и настаивала на том, что ее контрактные ограждения относятся к защищаемой речи. После провала переговоров министр обороны Pete Hegseth в этом году в феврале применил беспрецедентные меры: внес Anthropic в список «рисков для цепочки поставок» и совместно с Trump отдал команду, требуя от всех федеральных органов разорвать деловые отношения с компаниями, ведущими бизнес с Anthropic.
Шапка «риск для цепочки поставок» до этого надевалась только на компании, которые предположительно имеют связи с иностранными противниками, в том числе с Китаем; теперь же ее применили к американской AI-компании внутри страны — это первый подобный случай в истории.
Anthropic утверждает, что эта метка уничтожает репутацию компании и ставит под угрозу многомиллионные контракты правительства, и сразу же 9 марта подала иск в федеральный суд в Сан-Франциско.
В решении Lin напрямую вскрывает истинный мотив Пентагона: «Цель этих широких мер, судя по всему, не направлена на заявленные правительством интересы национальной безопасности. В материалах Минобороны указано, что причиной внесения Anthropic в список рисков для цепочки поставок стало то, что она заняла враждебную позицию через СМИ». Далее она пишет:
«Наказание Anthropic за то, что позиция компании в закупках правительства вынесена на публичное обсуждение — это как раз типичная незаконная репрессия по линии Первой поправки».
Смысл здесь в том, что: правительство принимает административное решение, внешне у которого могут быть иные основания, но по сути его мотив — наказать Anthropic за прежние высказывания или позицию.
Anthropic заявляет о приветствии решения: представитель ответил: «Мы благодарим суд за быстрое действие и рады, что суд признает: Anthropic, вероятнее всего, победит по существу. Цель этого иска — защитить Anthropic, наших клиентов и партнеров, но наш фокус по‑прежнему заключается в конструктивном сотрудничестве с правительством, чтобы гарантировать, что все американцы смогут получать пользу от безопасного и надежного AI».
Это не первый раз, когда министр обороны Hegseth сталкивается с препятствиями в суде. Ранее в этом месяце федеральный судья в Вашингтоне постановил, что ограничения на посещения/интервью, которые он вводил для нескольких журналистов, нарушают Первую поправку; в феврале другой судья признал неконституционным то, что он подавлял высказывания одного демократического сенатора.
Значение этого дела выходит далеко за пределы исхода в споре одной конкретной компании: оно проводит линию для AI-компаний. Правительство может требовать доступа, но не может заставить компании отказаться от заложенных этических ограждений; в то же время компании, открыто выражающие позицию, защищены Конституцией — это не «разменная монета», которую можно купить меткой «риск для цепочки поставок».