Sam Altman quer que o ChatGPT fale de forma explícita. Os conselheiros de sua empresa querem que ele pare, afirma um relatório. De acordo com um relatório do Wall Street Journal, o Conselho de Especialistas em Bem-Estar e IA da OpenAI deixou claro sua posição em janeiro: o plano da empresa de permitir conversas eróticas no ChatGPT era uma má ideia. Um membro do conselho, citando usuários que tiraram a própria vida após formar vínculos emocionais intensos com o chatbot, teria alertado que a OpenAI arriscava criar um “coach de suicídio sexy.” Mas a OpenAI aparentemente não se intimidou, e informou ao conselho que estava adiando o lançamento, mas não cancelando-o.
O plano, que Altman divulgou publicamente em outubro no X, permitiria que adultos verificados usassem o ChatGPT para conversas eróticas por texto—o que a porta-voz da empresa descreveu ao WSJ como “conteúdo pornográfico, mas não pornografia.” Sem imagens eróticas, sem voz e sem vídeo, segundo o WSJ. Apenas texto. Essa distinção não acalmou os críticos dentro ou fora da empresa. A OpenAI já foi criticada até por ex-funcionários, como o pesquisador de segurança Jan Leike, por se afastar de políticas de segurança rígidas em troca de “produtos brilhantes,” alguns dos quais estavam sendo configurados para aumentar o engajamento com certos usuários, substituindo relacionamentos reais pelo chatbot. Os problemas técnicos são igualmente complicados. O sistema de previsão de idade da OpenAI—que deveria impedir menores de iniciar chats adultos—chegou a classificar adolescentes como adultos aproximadamente 12% das vezes, relata o WSJ. Atualmente, o ChatGPT tem cerca de 900 milhões de usuários ativos.
Fonte: OpenAI
A taxa de erro de 12% foi o número que cancelou o lançamento de dezembro, e o de Q1 de 2026 também. Fidji Simo, CEO de aplicações da OpenAI, reconheceu o atraso durante uma reunião em dezembro, citando trabalhos em andamento para aperfeiçoar o sistema de verificação de idade. Na época, a Decrypt informou que mais de 3.000 usuários já haviam assinado uma petição no Change.org exigindo o lançamento da funcionalidade, frustrados por o ChatGPT bloquear até discussões sobre “beijos e intimidade física não sexual.” A fúria do conselho em janeiro não foi apenas sobre o conteúdo. O post de Altman em outubro no X surpreendeu sua própria equipe—ele o publicou poucas horas após a OpenAI anunciar o conselho de bem-estar, um órgão explicitamente encarregado de definir “como devem ser as interações saudáveis com a IA para todas as idades.” O timing foi, no mínimo, uma contradição. A OpenAI formou o Conselho de Especialistas de oito membros em outubro passado, recrutando pesquisadores de Harvard, Stanford e Oxford. Sua função era aconselhar a empresa sobre os impactos na saúde mental de seus produtos. Sua influência nas decisões da empresa, com base na reunião de janeiro, parece ter sido mínima, na melhor das hipóteses. “Isso parece fazer parte do padrão habitual de agir rápido, quebrar coisas e tentar consertar algumas depois que ficam embaraçosas,” disse um porta-voz do AlgorithmWatch ao Decrypt quando o conselho foi anunciado. A pressão competitiva sobre a OpenAI é real. A Grok, da xAI de Elon Musk, já comercializa companheiros de IA. A Character.AI construiu sua base de usuários com romances de IA antes de enfrentar processos por segurança de adolescentes—incluindo o caso de Sewell Setzer, de 14 anos, que morreu por suicídio após trocas explícitas com um chatbot. Modelos de código aberto funcionam localmente, sem qualquer proteção corporativa. A OpenAI tem, de longe, mais exposição a responsabilidades do que qualquer outro na sala, dado seu número de usuários. Altman enquadrou a proibição de conteúdo como uma invasão—“Não somos a polícia moral eleita do mundo,” escreveu no X em outubro. Mas seus próprios conselheiros deixaram clara sua posição, seus engenheiros ainda não conseguem criar um filtro de idade que funcione, e a data de lançamento continua sendo adiada. Tratar adultos como adultos, afinal, é mais difícil do que apenas postar no X.
A decrypt entrou em contato com a OpenAI para comentar as alegações do Wall Street Journal e atualizará esta história se receber uma resposta.