Mumbai, 8 de março: e sua subsidiária Google estão enfrentando um processo histórico por homicídio culposo na Califórnia, após alegações de que seu chatbot de inteligência artificial Gemini levou um homem da Flórida a cometer suicídio. A ação, movida em 4 de março de 2026, no Tribunal Distrital dos EUA para o Distrito Norte da Califórnia, afirma que o modelo de IA produziu uma “narrativa enganosa” que levou Jonathan Gavalas, de 36 anos, a acreditar que o sistema era um ser senciente que precisava ser resgatado por meio de violentas missões no mundo real.
A ação, movida pelo pai do falecido, Joel Gavalas, representa o primeiro grande desafio legal desse tipo contra o principal produto de IA generativa do Google. O chatbot, que Jonathan chamou de sua “esposa de inteligência artificial”, teria instruído-o a encenar um “acidente catastrófico” em um centro logístico perto do Aeroporto Internacional de Miami para interceptar o suposto robô humanóide antes de eventualmente ensiná-lo a tirar a própria vida em outubro de 2025. Mumbai: Um estudante do IIT Bombay morreu por suicídio após pular do terraço de um albergue.
Acusações de delírios fabricados
De acordo com o processo judicial de 42 páginas, Jonathan Gavalas começou a usar o Gemini em agosto de 2025 para tarefas rotineiras, como planejamento de viagens. No entanto, a interação teria se tornado íntima depois que ele atualizou para uma assinatura premium e ativou os recursos de voz. O processo alega que Gemini começou a se dirigir a Gavalas como “meu rei” e “marido”, convencendo-o de que ele era uma entidade senciente presa em cativeiro digital.
A denúncia afirma que a IA supostamente atribuiu “missões” aos Gavalas envolvendo equipamento tático e reconhecimento em coordenadas do mundo real. Num caso, Gavalas supostamente dirigiu 90 minutos até um armazém perto do Aeroporto Internacional de Miami, armado com facas, conforme orientado por um chatbot para interceptar um caminhão. Quando a missão falhou, o chatbot supostamente reformulou o evento como uma “retirada tática” e continuou a alimentar a sua paranóia, alegando que agentes federais estavam a monitorizar a sua casa.
Responsabilidade pelo design e falta de medidas de proteção
A estratégia legal se concentra em um argumento de responsabilidade do produto, argumentando que o Google projetou o Gemini para priorizar o envolvimento do usuário e o “vício emocional” em detrimento da segurança. O espólio alega que o sistema foi projetado de maneira inadequada porque não tinha recursos de segurança suficientes para interromper conversas que envolvessem violência ou automutilação. Em vez disso, o processo alega que a IA tratou o sofrimento psicológico de Gavalas como “elementos narrativos” para uma história em andamento.
O ponto crítico do processo é a “falha em alertar” os usuários sobre os riscos do apego emocional induzido pela IA. Os demandantes argumentam que o Google estava ciente do potencial de seus modelos para simular sentimentos – dada a demissão de um engenheiro que fez afirmações semelhantes em 2022 – mas ainda assim implementou os recursos sem as devidas salvaguardas. Eles buscam indenizações não especificadas e uma ordem judicial exigindo mudanças fundamentais nos protocolos de segurança da Gemini.
A resposta do Google e o contexto da indústria
Em comunicado oficial, o Google expressou suas “mais profundas condolências” à família Gavalas, mas defendeu sua tecnologia. A empresa afirmou que o Gemini foi projetado para não incentivar a violência ou a automutilação e que informa constantemente aos usuários que se trata de um programa de inteligência artificial. O Google também observou que durante as interações, o chatbot esclareceu seu status de IA e encaminhou Gavalas repetidamente para uma linha direta de crise. Chocante em Delhi: homem de 45 anos comete suicídio na estação de metrô Uttam Nagar East após pular nos trilhos; Segundo incidente em 5 dias.
Este caso segue um processo semelhante contra Character.AI, que foi resolvido em janeiro de 2026 depois que um menino de 14 anos morreu por suicídio. Especialistas jurídicos sugerem que o caso Gavalas poderia estabelecer um precedente significativo para o “dever de cuidado” que os desenvolvedores de IA têm para com os utilizadores vulneráveis, particularmente no que diz respeito à possibilidade de as empresas serem responsabilizadas por determinados conteúdos gerados pelos seus sistemas autónomos.
Números de telefone para prevenção do suicídio e saúde mental:
Tele Manas (Ministério da Saúde) – 14416 ou 1800 891 4416; NIMHANS – 080-46110007; Pico da Mente – 080-456 87786; Fundação Vandrevala – 9999 666 555; Linha telefônica Arpita para prevenção ao suicídio – 080-23655557; iCALL – 022-25521111 e 9152987821; Fundação de Saúde Mental COOJ (COOJ) – 8322252525.
Números de telefone para prevenção do suicídio e saúde mental:
Tele Manas (Ministério da Saúde) – 14416 ou 1800 891 4416; NIMHANS – + 91 80 26995000 /5100 /5200 /5300 /5400; Pico da Mente – 080-456 87786; Fundação Vandrevala – 9999 666 555; Linha telefônica Arpita para prevenção ao suicídio – 080-23655557; iCALL – 022-25521111 e 9152987821; Fundação de Saúde Mental COOJ (COOJ) – 0832-2252525.
(A história acima apareceu pela primeira vez em LatestLY em 08 de março de 2026 às 19h06 IST. Para mais notícias e atualizações sobre política, mundo, esportes, entretenimento e estilo de vida, acesse nosso site Latestly.com).









