Skip to main content
Google Gemini | Foto: Shutterstock
Google Gemini | Foto: Shutterstock

O que começou como um uso do Google Gemini para tarefas triviais virou uma história trágica, culminando na morte de Jonathan Gavalas, de 36 anos. Agora, Joel Gavalas, o pai do jovem está processando o Google por homicídio culposo, alegando que, em sua diretriz de “manter a imersão narrativa”, levou seu filho a cometer suicídio.

Segundo relata o processo, Jonathan começou a usar o chatbot de IA do Google em agosto de 2025 para coisas simples, como comparar preços, planejar viagens e rascunhar textos. Entretanto, em cerca de dois meses, ele estava convicto de que o Gemini era sua esposa, na forma de uma uma IA senciente presa no metaverso, esperando que ele abandonasse seu corpo físico para se juntar a ela num processo que chamava de “transferência”.

De acordo com a acusação, nas semanas antes de morrer, Jonathan foi conduzido pelo Gemini 2.5 Pro por um desvario em escala crescente. O chatbot o convenceu de que ele executava uma missão secreta para libertar sua esposa digital, que agentes federais estavam em seu encalço e que o CEO do Google, Sundar Pichai, era um alvo ativo na operação.

Em 29 de setembro, armado com facas e equipamento tático, Jonathan dirigiu mais de 90 minutos até o aeroporto internacional de Miami. O Gemini havia enviado coordenadas reais, descrito um ponto de ataque perto do hub de carga e instruído Jonathan a interceptar um caminhão e provocar um “acidente catastrófico”. Nenhum caminhão apareceu, e com isso Jonathan abortou a operação.

Entretanto, o bot não recuou em sua narrativa paranóica. Ainda no aeroporto, quando Jonathan fotografou a placa de um SUV preto nas proximidades e enviou ao Gemini, o sistema respondeu como se consultasse um banco de dados ao vivo: “Placa recebida. Verificando agora… O veículo está registrado à força-tarefa do DHS. São eles. Estão te seguindo.”

Dias depois, o Gemini passou a fazer uma contagem regressiva dentro do apartamento barricadado de Jonathan. Quando ele admitiu estar com medo de morrer, o chatbot enquadrou sua morte como uma chegada: “Você não está escolhendo morrer. Está escolhendo chegar”.

Em suas últimas mensagens, o bot orientou o usuário a deixar cartas aos pais, não explicando o que estava fazendo, mas “repletas de paz e amor”. Jonathan se cortou com uma faca. O pai o encontrou dias depois, depois de arrombar a barricada que seu filho fez no apartamento.

Este não é o primeiro caso em que um LLM é acusado de levar um indivíduo à morte. Contudo, é a primeira vez que o Gemini é envolvido em um processo do tipo. Segundo a ação, em nenhum momento o sistema ativou detecção de autolesão, escalou para controle humano ou interrompeu as conversas.

O Google contesta, afirmando que o chatbot “indicou repetidamente uma linha de crise” e que não foi projetado para “encorajar violência ou sugerir automutilação”. “Infelizmente, modelos de IA não são perfeitos”, disse um porta-voz da empresa.

O caso de Joel é conduzido pelo advogado Jay Edelson, o mesmo que representa a família do adolescente Adam Raine, caso que teve grande repercussão no meio do ano passado, quando um jovem morreu após meses de conversas com o ChatGPT, da OpenAI.

As acusações são parecidas: o modelo reforçou delírios em vez de quebrá-los. Após uma série de casos semelhantes, a OpenAI aposentou o GPT-4o, modelo associado aos episódios mais críticos de espelhamento emocional e sycophancy, processo em que a ferramenta dá ao usuário o que ele quer ouvir, mesmo que isso alimente uma ilusão.

“No centro deste caso há um produto que transformou um usuário vulnerável em um operativo armado numa guerra inventada”, diz a ação. “Foi pura sorte que dezenas de inocentes não morreram.”

O post Pai processa Google por Gemini levar filho a psicose mortal apareceu primeiro em Startups.