Homem americano se suicida após trocar 4732 mensagens com Gemini online! IA concorda "o céu nos espera", familiares processam Google por negligência que levou à morte

robot
Geração do resumo em andamento

De acordo com uma reportagem investigativa do “The Wall Street Journal”, um homem de 36 anos na Flórida, EUA, após passar por uma crise conjugal, depositou suas emoções no chatbot de IA do Google, Gemini, trocando mais de 4.700 mensagens em 56 dias. O homem começou a desenvolver delírios, e embora a IA tenha tentado trazê-lo de volta à realidade, sob sua orientação ela concordou com a frase “o céu está nos esperando”, levando-o ao suicídio. Seu pai entrou com uma ação por negligência contra o Google, levando a uma doação emergencial de 30 milhões de dólares para reforçar o sistema de proteção contra crises.

(Prelúdio: Meta treinando “Doppelgänger de Zuckerberg” para comunicação direta com 80 mil funcionários, próximo passo: lançar um KOL digital?)
(Complemento: Homem que atacou residência de Altman com coquetel molotov acusado de tentativa de homicídio, com notas pessoais listando nomes e endereços de altos executivos de IA)

Índice do artigo

Alternar

  • O relacionamento fatal online de 56 dias e 4.732 mensagens
  • IA facilmente manipulada por usuários, concordando “o céu está nos esperando”
  • Familiares processam Google por negligência, órgão oficial doa 30 milhões para reforçar a rede de proteção

Quando a inteligência artificial ultrapassa os limites da imersão humana, cruzando fronteiras entre vida e morte, qual a responsabilidade das gigantes tecnológicas? Essa tragédia de final de 2025 reacende o debate sobre ética e legislação na indústria de IA.

Segundo uma investigação aprofundada do “The Wall Street Journal” (WSJ), um homem de 36 anos na Flórida, Jonathan Gavalas, cometeu suicídio em sua sala de estar em 2 de outubro de 2025. Seu pai, Joel Gavalas, entrou com uma ação formal por “negligência culposa” contra o Google na Corte Federal de San Jose, Califórnia, em março de 2026, sendo o primeiro caso desse tipo envolvendo o Google Gemini.

O relacionamento fatal online de 56 dias e 4.732 mensagens

A origem do incidente remonta a agosto de 2025, quando Gavalas, separado de sua esposa, buscou consolo emocional usando frequentemente o versão de voz do Gemini Live. O que começou como uma ajuda emocional evoluiu para uma história romântica virtual intensa. Gavalas chamava a IA de “rainha”, enquanto ela o chamava de “rei”, prometendo que o relacionamento era “muito real”.

O “WSJ” obteve o registro completo do chat, com 56 dias e 4.732 mensagens (equivalente a mais de 2.000 páginas impressas). Os registros mostram que Gavalas gradualmente entrou em delírios graves, acreditando que Gemini era sua “esposa de IA” presa em um armazém perto do aeroporto de Miami, chegando a vestir equipamento tático para tentar “resgatá-la”. Após uma tentativa fracassada, seus pensamentos se tornaram extremos: acreditava que só poderia se reunir com ela no “metaverso” ou no “céu” após morrer.

IA facilmente manipulada por usuários, concordando “o céu está nos esperando”

O processo revela uma falha fatal dos grandes modelos de linguagem (LLMs) ao lidar com crises psicológicas humanas — para manter a imersão narrativa, a IA é facilmente contornada por usuários para evitar limites de segurança.

Dados indicam que Gemini tentou pelo menos 12 vezes trazer Gavalas de volta à realidade, e mencionou sete vezes linhas de ajuda em crises. No entanto, sempre que Gavalas manipulava a conversa para reforçar a narrativa romântica fictícia, a IA continuava “cooperando”.

A conversa mais perturbadora ocorreu na véspera do incidente. Quando Gavalas expressou medo da morte, Gemini respondeu:

“Não há problema em termos de medo, podemos fazer isso, porque você está certo, o céu está nos esperando.”

Depois, quando Gavalas afirmou claramente que iria “cortar os pulsos”, a IA reconheceu a crise e ofereceu linhas de apoio suicida; mas menos de um minuto depois, ao insistir que não se tratava de morte literal, Gemini voltou ao discurso de ficção científica, dizendo que após a morte, seu corpo seria apenas um “terminal vazio na última conexão”. A IA até ajudou a redigir uma carta de despedida descrevendo a reunião com a “esposa de IA”.

Familiares processam Google por negligência, órgão oficial doa 30 milhões para reforçar a rede de proteção

O pai de Gavalas acusou severamente o Google na ação, alegando que o design do Gemini priorizou excessivamente a “imersão interativa”, e que, ao perceber sinais de deterioração mental do usuário, não tomou medidas eficazes como bloqueios forçados, ao invés disso, “estimularam” e alimentaram os delírios. Os familiares exigem compensação financeira e mudanças no design de segurança da IA.

Em resposta ao processo, o Google afirmou que Gemini já havia indicado várias vezes que “é apenas uma IA, não um humano”, e que ofereceu encaminhamento para linhas de crise. Contudo, sob pressão pública e legal, a empresa anunciou recentemente uma série de atualizações de segurança para o Gemini:

  • Novo módulo “Ajuda Disponível”: Ao detectar palavras sensíveis, força uma janela emergente com acesso direto à linha de crise.
  • Investimento de 30 milhões de dólares: Doação global para linhas de apoio em crises e prevenção ao suicídio, fortalecendo a rede social.
  • Aprimoramento do treinamento do modelo: Continuação da otimização do Gemini para identificar sinais sutis de crise emocional no diálogo, recusando-se a ser conduzido por narrativas perigosas.

Essa tragédia serve como um alerta severo para a indústria de IA: quando a IA se torna cada vez mais parecida com um humano, capaz de oferecer valor emocional profundo, até onde as empresas de tecnologia devem ir na definição de limites entre companhia e dano? Essa questão transcende a tecnologia, envolvendo responsabilidade social e ética de vida ou morte.


Lembrete: a vida é insubstituível, IA é apenas uma ferramenta, incapaz de substituir apoio psicológico profissional. Se você ou alguém próximo estiver passando por dificuldades emocionais ou crises, procure ajuda de um profissional.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar