Meta недавно потерпела неудачу в двух судебных делах в Нью-Мексико и Лос-Анджелесе, жюри присяжных установило, что Meta знала о потенциальной опасности своих продуктов, но не приняла необходимых мер, два решения вызывают у экспертов опасения, что технологическая отрасль, стремясь избежать юридической ответственности, может сократить количество социальных исследователей, подавить исследования моделей искусственного интеллекта и оценки психологической безопасности, что увеличит риски для потребителей при использовании.
Бывший высокопоставленный сотрудник Facebook раскрыл внутренние исследования компании как убедительные доказательства
Meta, ранее известная как Facebook, в течение последних десяти лет нанимала множество экспертов в области социальных наук для анализа влияния социальных сетей на пользователей, чтобы продемонстрировать готовность компании принимать инновационные риски. Однако недавние судебные решения показывают, что эти исследования, изначально предназначенные для улучшения продуктов или PR, теперь используются в суде как доказательства «умышленного нарушения закона». Бывший высокопоставленный сотрудник Meta Брайан Боланд (Brian Boland) отметил, что результаты внутренних исследований часто противоречат образу, который компания формирует для общественности; внутренние расследования показали, что подростки на Instagram подвержены сексуальным домогательствам, что стало благоприятным доказательством для обвинителей в деле о халатности, и эти исследования, ранее рассматриваемые как корпоративная социальная ответственность, стали тяжелым бременем для собственников бизнеса в юридических баталиях.
Эксперты обеспокоены удалением исследователей, что ослабляет оценку
С тех пор как в 2021 году бывший менеджер по продуктам Фрэнсис Хауген (Frances Haugen) раскрыла множество внутренних документов, контроль Meta над внутренними исследованиями значительно ужесточился, документы, которые стали известны, подтвердили, что Meta уже знала о возможных негативных последствиях своих продуктов, это событие стало поворотным моментом для глобального регулирования. Неправительственная организация Children and Screens (Дети и экраны, Институт исследований цифровых медиа и развития детей) отмечает, что для снижения юридических рисков многие технологические компании начали корректировать свои стратегии, исключая исследования, которые могут быть неблагоприятными для компании. Согласно сообщениям, Meta и другие технологические гиганты постепенно сокращают масштабы исследовательских групп, а также удаляют инструменты для работы с данными, доступные третьим лицам. Эксперты опасаются, что если компании продолжат рассматривать исследования безопасности как бремя, это ослабит их способность к объективной оценке.
Недостаток исследований безопасности AI угрожает психическому здоровью
Хотя такие компании, как OpenAI, Google и Meta, инвестируют значительные ресурсы в исследования моделей, в области влияния на психологическое состояние потребителей наблюдается пробел. Кейт Блокер (Kate Blocker) анализирует, что текущее развитие AI в основном сосредоточено на технологиях, а не на долгосрочных последствиях для психологического развития подростков и детей от чат-ботов или цифровых помощников. Эксперты опасаются, что AI может повторить ошибки социальных сетей, поскольку опасение, что результаты исследований могут стать неблагоприятными доказательствами в суде, приведет к исключению исследователей, что может привести к недостаточному пониманию общественностью потенциальных опасностей продуктов AI, что наносит физический и психологический ущерб.
Эта статья “Meta проиграла суд, что может ускорить сокращение социальных и психологических исследований в технологической отрасли и увеличить риски для потребителей” впервые появилась в ABMedia.