Следующий бой искусственного интеллекта: имеют ли чатботы права Первой поправки?

Борьба между Anthropic и Пентагоном сначала кажется борьбой за безопасность ИИ — принципиальной технологической компанией, которая проводит этические границы. В этом есть доля правды. Но это также дело Первой поправки.

Это проверка того, сможет ли исполнительная власть без суда наказывать своих поставщиков за «несоблюдение». Это история о рисках для инвесторов, которые вложили сотни миллиардов в компании по развитию ИИ, предполагая, что правительство США будет их клиентом, а не корпоративным убийцей. И это репетиция для всех болезненных вопросов, на которые человечество еще не научилось отвечать о самой мощной информационной технологии, которую оно когда-либо создавало.

Каков юридический статус ИИ? Кто за него отвечает? Когда — а не если — что-то пойдет не так, кто несет ответственность?

Другими словами, эта борьба гораздо масштабнее, чем кажется. И она еще более странная, чем выглядит.

Наращивание конфликта, разрыв, судебный процесс

Конфликт начался, когда Anthropic отказалась убрать два защитных механизма из специализированной версии своей системы Claude AI, которую она предоставляет Пентагону по контракту стоимостью около 200 миллионов долларов: защиту от произвольного массового внутреннего наблюдения за американцами и от использования в полностью автономных оружейных системах. В конце прошлого месяца генеральный директор Даріо Амодей подробно описал реакцию Пентагона: угрозу признать Anthropic «риском в цепочке поставок», что ранее было прерогативой иностранных противников, таких как китайские телекоммуникационные компании — никогда не американской компании.

Пентагон последовал за этим в начале марта, фактически занеся Anthropic в черный список по контрактам с государством. Anthropic подала иск, предупреждая, что такое обозначение может обойтись ей в миллиарды долларов. Заседание по вопросу о временной защите для Anthropic запланировано на вторник.

Более конкретный инцидент, вызвавший широкий резонанс, произошел после январского рейда, в ходе которого был задержан венесуэльский лидер Николас Мадуро: исполнительный директор Anthropic связался с Palantir ($PLTR), через которое Claude интегрирован в системы Пентагона, и спросил, как использовался его ИИ. Palantir передала запрос в Пентагон, который воспринял его как неодобрение секретной операции, что запустило неудачные переговоры, предшествовавшие разрыву. CTO Пентагона Эмиль Майкл подтвердил многие детали в The Wall Street Journal. «Шансов нет», — сказал он. «Партнерства, которое можно было бы иметь, — нет».

Что Майкл не сказал публично, было раскрыто в судебном документе в прошлую пятницу: Майкл отправил Амодей письмо 4 марта — на следующий день после того, как Пентагон завершил обозначение цепочки поставок — в котором говорится, что стороны «очень близки» к согласованию по двум вопросам, которые теперь правительство использует как доказательство того, что Anthropic представляет угрозу национальной безопасности. Это письмо стало доказательством, указывающим, если не доказывающим, что обозначение как риск цепочки поставок было скорее рычагом для торга, чем простым указанием на риск. Если стороны были «очень близки», даже когда обозначение еще не было окончательным, насколько большой угрозой безопасности Пентагон действительно считает Anthropic?

ИИ и 1-я поправка

Дело развивается быстро, и оно достигает того, что многие воспринимают как особенно зловещий момент в истории США, при власти такой администрации, которая настолько явно демонстрирует свои намерения, что конституционная борьба, широко ожидаемая юристами, происходит даже раньше, чем они предполагали. В частности, один из исков Anthropic утверждает нарушение Первой поправки, аргументируя, что принуждение компании создавать инструменты, которые она считает неэтичными, — это принудительная речь.

Основу этого аргумента составляет вопрос о том, каким на самом деле является машина — модель ИИ, — объяснил Мэтью Селигман, основатель Grayhawk Law, преподаватель в Гарвардской юридической школе и бывший сотрудник Центра конституционного права Стэнфордской школы права.

«Что в основном утверждает Anthropic, — говорит Селигман, — так это то, что они отличаются от традиционного подрядчика по обороне, потому что то, что они предлагают правительству, — это машина для речи — машина, которая производит информацию, а не взрывы», — рассказал он Quartz. «Главный вопрос — насколько технология Anthropic более уместно сравнивать, для целей Первой поправки, с Lockheed Martin ($LMT) или с аналитиком обороны. И это действительно подчеркивает, что эти модели ИИ не укладываются удобно ни в одну из традиционных юридических категорий.

«Закон должен будет развить понимание того, как их анализировать», — добавил он, — «как это происходило много раз за века, когда закон должен был адаптироваться к новым технологиям, делавшим устаревшими старые категории».

‘Очень тревожное место’

Если правительство выиграет, последствия выйдут далеко за рамки этого дела.

«Если вы дадите правительству лицензию убивать компании, то компании всегда будут под угрозой казни, и поэтому они всегда будут чувствовать необходимость делать то, что говорит правительство», — сказал Селигман.

Беспокойство связано с такой властью и с использованием этой власти нынешней администрацией. «Если [Министерство обороны] подойдет к компании и скажет: “Мы хотим использовать вашу технологию, а если вы не позволите — мы убьем вашу компанию” — это очень тревожное место».

Последствия для инвесторов также очень серьезны. «Если вы инвестор и знаете, что любая из ваших компаний в портфеле может быть убита в любой момент, если она не выполнит требования Министерства обороны, — это создает огромный риск», — сказал Селигман, — «особенно если вы считаете, что нынешняя или будущая администрация не будет использовать эту власть сдержанно».

Более масштабная юридическая борьба

Дело Anthropic разворачивается на фоне более широкой и малоизученной правовой базы. Юридические ученые и комментаторы предупреждают о «растущем консенсусе» в области, что «выходы генеративного ИИ — это защищенная речь». Другие делают еще более широкие предупреждения о том, что ИИ вскоре может приобрести конституционные и другие юридические права, такие как право собственности и финансовые активы.

Этот контекст плохо понимается, потому что он действительно сложен и невероятно детализирован, — сеть прецедентов, интерпретаций, толкований и судебных решений по Первой поправке. Но эксперты указывают на общую тему: возможность появления конституционных защит, которые смогут оградить индустрию ИИ от регулирования.

Юристка Стефани Браун, преподающая бизнес-право и ИИ в Виргинском университете, ясно сказала Quartz, что защита по Первой поправке — «золотой стандарт» для избегания регулирования.

«Это не просто защита от одного иска», — сказала она. — «Она ограничивает крупные категории потенциального регулирования целиком. Надзор на уровне штатов становится конституционно сложным. Федеральные правила должны проходить гораздо более высокий барьер. Если защита предоставляется, она может быть очень обширной».

Хотя кажется дистопичным предположить, что ИИ может получить некоторые конституционные права, это менее фантастично, чем кажется. В интервью профессор интеллектуальной собственности, технологий и гражданских прав в Университете Джорджа Вашингтона Мэри Энн Фрэнкс проследила корпоративное захват доктрины Первой поправки, показав, как интерпретация расширялась, чтобы включить некоторые права корпораций.

Это, по ее словам, отчасти результат стратегического сдвига со стороны республиканцев. «В 80-х и 90-х годах республиканцы говорили: “Подождите, это на самом деле отлично для нас — потому что есть версия свободы слова, которая не связана с тем, чтобы позволить грязным хиппи говорить. Речь идет о том, чтобы позволить табачным компаниям говорить”». — Первую поправку, которая раньше ассоциировалась с профсоюзами и борцами за гражданские права, превратили в инструмент дерегуляции. Технологические компании, — говорит Фрэнкс, — это просто последние бенефициары. «Это очень привлекательная, запоминающаяся идея, когда вы можете замаскировать свою прибыль или эгоизм под “уважение к очень трансцендентному принципу свободы выражения”. Это действительно действует на людей».

Она утверждает, что в результате сейчас первая поправка перевернута, инвертирована в важнейших аспектах. «Если первая поправка должна была защищать людей от правительства, то сейчас она в основном защищает правительство от людей», — сказала Фрэнкс.

Состояние регулирования ИИ

Все это происходит на фоне регулирующей среды, которая менее зародыша, чем мертворожденная.

Администрация Трампа ясно выразила свою позицию, утверждая, что развитие ИИ должно идти быстро, а федеральное правительство — а не штаты, суды или безопасностные подрядчики — должно устанавливать правила.

В декабре Трамп издал указ, поручив Генеральному прокурору Пэм Бонди создать рабочую группу для юридической оспаривания штатовских законов об ИИ, признанных слишком ограничительными, и поручил Министерству торговли блокировать федеральное финансирование штатов, не соблюдающих требования. Этот указ явно отходит от фокуса администрации Байдена на безопасность и равенство, делая ставку на быстрое развитие. Вирджиния, которая может потерять почти 1,5 миллиарда долларов на финансирование широкополосного интернета, уже разрабатывает свой закон об ИИ, ориентируясь на Вашингтон. Но это лишь один из многих штатов, рассматривающих возможность потери федеральных средств.

Ирония в том, что, в то время как администрация Трампа активно блокирует формальное регулирование ИИ, она одновременно демонстрирует, через дело Anthropic, именно почему такое регулирование необходимо. То, что Трамп преследует, — это не свободное управление ИИ, а контроль над ИИ на исполнительном уровне, без ограничений Конгресса или судов.

Селигман, бывший преподаватель Гарвардской юридической школы, охарактеризовал борьбу Anthropic как продолжение более широкой борьбы за расширение исполнительной власти. «Это, безусловно, самая агрессивная администрация в современной и, вероятно, всей американской истории в отношении исполнительной власти», — сказал он. «Чем больше вызовов исполнительным действиям, тем больше признаков того, что исполнительная власть стала более агрессивной».

Он отметил, что компании, подавшие иски, в основном побеждают.

Между тем, даже внутри индустрии ИИ широко признается проблема отсутствия согласованной нормативной базы. Юрист компании Pearl Ник Тайгер заявил, что регулирование необходимо, и что инфраструктура для этого уже есть — просто она еще не задействована.

«Уже есть организации, которые могут этим заняться», — сказал он. «Бюро по защите прав потребителей в финансовой сфере могло бы участвовать и давать рекомендации и правила о том, что такое вводящий в заблуждение опыт взаимодействия с ИИ, когда нужно раскрывать информацию. Федеральная торговая комиссия регулирует все эти коммерческие транзакции». Но он не призывал создавать новое агентство. «Я не считаю, что нам нужно создавать департамент по ИИ или что-то в этом роде», — добавил он.

Главная проблема, по его словам, — это разрыв в знаниях с обеих сторон. «Есть регуляторы, которые не понимают технологических достижений, и много дезинформации, когда у них есть слушатели, рассказывающие неправду. Но и инженеры ИИ не понимают всех нюансов публичной политики». В результате, по его прогнозам, неизбежно возникнет некое равновесие. «Это будет постоянная борьба, пока мы не придем к чему-то среднему».

Сейчас закупки выполняют роль, которую, как ожидается, должны играть регуляторы, если бы они действовали как настоящие регуляторы. Министерство обороны остается крупнейшим покупателем технологий в федеральном правительстве, и его требования к контрактам фактически становятся отраслевыми стандартами — распространяясь за пределы военных систем в более широкий коммерческий рынок. Поэтому после обозначения «риска цепочки поставок» как минимум 100 клиентов Anthropic, от фармацевтики до финтеха, уже приостановили или отменили свои контракты.

Что будет дальше

Результат слушания во вторник определит, выживет ли новая практика Пентагона по использованию обозначения цепочки поставок в первом судебном испытании. Но Селигман предостерегает не делать слишком больших выводов из одного дела, в том числе и из дела Anthropic. «Общественность быстро делает вывод, что весь большой вопрос будет решен одним делом», — сказал он. «И это почти никогда не так».

Другими словами, спор между Anthropic и Пентагоном, несмотря на свою важность, не решит все или даже многие вопросы, связанные с Первой поправкой и ИИ, включая самые экзистенциальные.

«Есть понятное желание, чтобы эти крупные вопросы были решены рано и окончательно одним судебным делом», — сказал он. «Но этого не произойдет».

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$2.29KДержатели:0
    0.00%
  • РК:$2.29KДержатели:1
    0.00%
  • РК:$2.29KДержатели:1
    0.00%
  • РК:$2.29KДержатели:1
    0.00%
  • РК:$2.28KДержатели:1
    0.00%
  • Закрепить