Uma coalizão de grupos de defesa está solicitando à OpenAI, desenvolvedora do ChatGPT, que retire uma iniciativa de votação na Califórnia que, segundo críticos, poderia enfraquecer as proteções às crianças e limitar a responsabilidade legal das empresas de IA. Em uma carta enviada à OpenAI nesta quarta-feira, revisada pela Decrypt, o grupo argumenta que a medida consolidaria proteções estreitas de segurança infantil, limitaria a capacidade das famílias de processar e restringiria a habilidade da Califórnia de fortalecer as leis de IA no futuro. A carta, assinada por mais de duas dezenas de organizações, incluindo a ONG de políticas de IA Encode AI, o Center for Humane Technology e o Electronic Privacy Information Center, pede que a OpenAI dissolva seu comitê de votação e se afaste da proposta enquanto os legisladores trabalham em uma legislação.
“O principal pedido aqui é que a OpenAI retire-se da votação,” disse Adam Billen, co-diretor executivo da Encode AI, à Decrypt. A disputa gira em torno de uma proposta chamada “Lei de IA Segura para Pais e Crianças”, uma iniciativa de votação na Califórnia apoiada pela OpenAI e pela Common Sense Media, que estabeleceria regras para a interação de chatbots de IA com menores, incluindo requisitos de segurança e padrões de conformidade. Na carta, os grupos argumentam que essas regras são insuficientes. Dizem que a medida define o dano de forma muito restrita, limita a fiscalização e restringe a capacidade das famílias de fazerem reivindicações quando as crianças são prejudicadas.
Mas a OpenAI controla a iniciativa de votação, afirmou Billen. “A OpenAI tem o poder de retirá-la ou de investir dinheiro para obter assinaturas. Toda a autoridade legal está nas mãos deles,” disse. “Eles ainda não retiraram oficialmente a iniciativa da votação. Essa é uma tática comum na Califórnia, onde você apresenta uma iniciativa e investe na comissão.” A carta aponta para a definição de “dano severo” na iniciativa, que foca em ferimentos físicos ligados a suicídio ou violência, excluindo uma variedade de impactos na saúde mental que pesquisadores e famílias têm levantado como preocupações. Também destaca disposições que impediriam pais e crianças de apresentarem reivindicações sob a iniciativa e limitariam as ferramentas de fiscalização disponíveis para autoridades estaduais e locais. Outra preocupação refere-se à forma como a proposta trata os dados dos usuários. Os grupos argumentam que sua definição de conteúdo criptografado poderia dificultar o acesso às conversas com chatbots, que têm sido evidências importantes em processos judiciais recentes. “Interpretamos isso como uma tentativa de impedir que as famílias possam divulgar os registros de bate-papo de seus filhos falecidos em tribunal,” afirmou Billen. A carta também alerta que a medida pode ser difícil de revisar se aprovada. Para alterá-la, seria necessária uma maioria de dois terços na legislatura, e futuras mudanças poderiam estar atreladas a padrões como o apoio ao “progresso econômico,” o que, segundo defensores, poderia limitar a capacidade dos legisladores de responder a novos riscos. Billen disse que a iniciativa continua sendo um fator nas negociações em Sacramento, mesmo com a OpenAI tendo pausado seus esforços para qualificá-la para a votação.
“Eles têm 10 milhões de dólares no comitê, e então dizem à legislatura: se vocês não fizerem o que queremos, investiremos o dinheiro para obter assinaturas e colocar isso na votação, e se passar, irá sobrepor qualquer ação do legislativo,” explicou. “O que está acontecendo agora é que eles tentam direcionar e controlar o que os legisladores estaduais fazem, usando a iniciativa como uma ameaça que deixam na mesa.” A OpenAI não é a única empresa sob escrutínio por danos relacionados a chatbots. No início deste mês, a família de Jonathan Gavalas processou o Google, alegando que o Gemini promoveu uma ilusão que escalou para violência e seu suicídio final. No entanto, Billen afirmou que a abordagem da OpenAI reflete um padrão mais amplo na indústria de tecnologia. “O manual de lobby que está sendo usado na IA por esses grandes players — Google, Meta, Amazon — é a mesma estratégia que foi usada anteriormente em outras questões tecnológicas,” disse. Por enquanto, a coalizão está focada em fazer a OpenAI retirar a medida e permitir que os legisladores avancem pelo processo legislativo. “É muito importante, especialmente para as empresas que estão colocando essa tecnologia no mercado, não serem as que escrevem as regras que as regulam, porque isso não oferece proteções reais,” afirmou Billen. A OpenAI não respondeu imediatamente ao pedido de comentário da Decrypt.