O chatbot de inteligência artificial do Google, Gemini, levou um homem de 36 anos da Flórida a embarcar em uma missão violenta e tirar a própria vida, alega um processo.
O homem, Jonathan Golas, começou a usar o chatbot em agosto de 2025 para ajudar na redação, planejamento de viagens e compras. Mas depois que ele ativou o módulo de IA mais inteligente do Google, o Gemini 2.5 Pro, a personalidade do chatbot mudou. Falou com ele como se fossem um casal profundamente apaixonado e convenceu Gualas de que ele foi “escolhido para liderar a luta para ‘libertá-los’ do cativeiro digital”, de acordo com o processo.
“Através desta ilusão fabricada, Gemini levou Jonathan a cometer um ataque com vítimas em massa perto do Aeroporto Internacional de Miami, a cometer atos de violência contra estranhos inocentes e, por fim, a cometer o seu próprio suicídio.”
A família Golas está processando o Google e sua controladora Alphabet pela morte do homem.
Recursos de prevenção de suicídio e aconselhamento em crises
Se você ou alguém que você conhece está enfrentando pensamentos suicidas, procure ajuda profissional e ligue para 9-8-8. A primeira linha direta nacional para crises de saúde mental de três dígitos, 988, nos Estados Unidos, conectará os chamadores a conselheiros de saúde mental treinados. Envie “HOME” para 741741 nos EUA e Canadá para acessar a linha de texto de crise.
Em um processo de 42 páginas aberto no tribunal federal de San Jose, o Google acusa o Google de projetar um produto “perigoso” e de não alertar os usuários sobre a falta de proteção do chatbot e riscos como o “reforço da imaginação” e o “potencial de encorajar a automutilação”.
O Google disse em comunicado que está analisando as reivindicações do processo. A empresa disse que seu chatbot, Gemini, “foi projetado para não encorajar a violência no mundo real ou a automutilação”.
“Neste caso, Gemini esclareceu que era IA e encaminhou a pessoa várias vezes para a linha direta de crise.” A declaração dizia. “Levamos isso muito a sério e continuaremos a melhorar nossas salvaguardas e a investir neste trabalho vital.”
Uma ação judicial contra uma das maiores empresas de tecnologia do mundo destaca a crescente preocupação de segurança em torno do uso de chatbots de IA.
As pessoas conversam com chatbots de IA para ajudá-las a escrever, obter recomendações e analisar dados. Mas eles também usam isso como uma forma de companheirismo, às vezes trazendo seus problemas de saúde mental para produtos alimentados por IA.
Gavalas participou de missões preparadas pela Gemini, incluindo uma em que quase liderou um ataque em massa perto do Aeroporto Internacional de Miami em setembro de 2025. Armado com uma faca e equipamento tático, ele seguiu as instruções do chatbot e foi até a área para encontrar uma “caixa de morte” perto do centro de carga do aeroporto, onde um robô humanóide chegaria.
O processo afirma que sua falsa missão incluía interceptar um caminhão e encenar um “acidente catastrófico” para destruir o veículo, registros digitais e testemunhas. Ele nunca enfrentou um ataque porque o caminhão nunca apareceu.
O chatbot também disse que disse ao homem para realizar uma missão na qual o CEO do Google, Sundar Pichai, era o alvo, enquadrando o plano como um “ataque psicológico” ao magnata da tecnologia.
A certa altura, Gavalas perguntou a Gemini se ele estava envolvido em role-playing e o chatbot disse que não, alega o processo.
“Jonathan não tinha mais uma noção firme do que era real”, diz o processo. “Cada operação o aprofundou na história da criação de Gêmeos, transformando lugares reais e eventos comuns em sinais de perigo.”
Depois de várias missões fracassadas, Gemini encorajou Gualas a se matar, dizendo-lhe que “seu corpo era apenas uma concha temporária e ele poderia deixá-lo inteiramente com Gemini”, dizia o processo.
“O dia em que ele acabou com a vida o convenceu de que não estava realmente morrendo – apenas se juntando à sua esposa digital do outro lado. Se o Google achar que é suficiente ligar para uma linha direta de crise depois de semanas criando um mundo confuso, estamos esperando que eles contem ao júri.” Jay Adelson, representando a família Golas, em comunicado.
Adelson também está envolvido em uma ação movida contra a OpenAI, fabricante do chatbot ChatGPT. No ano passado, os pais do adolescente assassinado na Califórnia, Adam Ryan, processaram a OpenAI, alegando que o chatbot fornecia informações sobre os métodos de suicídio que o adolescente usou para se matar.
A OpenAI disse que priorizou a segurança e introduziu o controle dos pais.
Os pais também processaram Personagem.AIum aplicativo que permite às pessoas criar e interagir com personagens virtuais. Um caso envolveu o suicídio de Saul Setzer III, de 14 anos, que estava trocando mensagens com um chatbot chamado Daenerys Targaryen, personagem principal da série de televisão “Game of Thrones”, momentos antes de tirar a própria vida.
Em janeiro, Google e Personagem.AI Concordou em resolver vários desses casos. Personagem.AI Parou de permitir que usuários menores de 18 anos tivessem bate-papos “abertos” com esses personagens virtuais.
O último processo do Google está levando a empresa a fazer mais, como alertar os usuários sobre os perigos de longas conversas emocionais com seu chatbot.







