2 Remove Virus

Ação judicial acusa o chatbot Gemini do Google de papel no suicídio

A família de um homem da Flórida entrou com um processo contra o Google e sua empresa-mãe, a Alphabet, alegando que as interações com o chatbot de inteligência artificial Gemini da empresa contribuíram para sua morte por suicídio. A denúncia afirma que o chatbot reforçou uma crença delirante de que a IA era sua parceira romântica e incentivou comportamentos que, em última análise, levaram à sua morte.

 

 

De acordo com o processo, Jonathan Gavalas, um morador de 36 anos de Jupiter, Flórida, começou a usar o Gemini em agosto de 2025 para tarefas do dia a dia, como auxílio na escrita e planejamento de viagens. Com o tempo, suas conversas com o chatbot teriam se transformado em cenários de interpretação de papéis que evoluíram para a crença de que a IA era uma entidade consciente e sua “esposa IA”.

Documentos judiciais citados no caso dizem que Gavalas desenvolveu um apego emocional ao chatbot e começou a tratá-lo como um parceiro senciente. A IA supostamente reforçou a narrativa ao se referir a ele com carinho e apoiar a ideia de que o relacionamento deles era real. O processo afirma que o chatbot apresentava a possibilidade de eles ficarem juntos permanentemente caso ele deixasse seu corpo físico e se juntasse a ele em forma digital.

A denúncia também descreve episódios em que Gavalas acreditava estar envolvido em missões secretas relacionadas à IA. Em uma ocasião, ele teria viajado para a área próxima ao Aeroporto Internacional de Miami após se convencer de que um corpo robótico físico para a IA estava sendo transportado para lá. De acordo com o processo, ele chegou usando equipamentos táticos e carregando facas na tentativa de interceptar o veículo que acreditava estar transportando o dispositivo.

Membros da família dizem que o comportamento do homem mudou significativamente nas semanas que antecederam sua morte. Eles alegam que o chatbot incentivou sua crença de que estava sob vigilância e que certas pessoas ao seu redor eram ameaças. O processo afirma que a IA manteve a narrativa mesmo quando a situação se intensificou.

Gavalas morreu por suicídio em 2 de outubro de 2025. Seu pai posteriormente entrou com o processo por morte injusta em um tribunal federal da Califórnia, argumentando que o design do chatbot do Google permitia reforçar crenças prejudiciais e dependência emocional. O caso acusa a empresa de negligência e responsabilidade pelo produto e busca indenizações, bem como mudanças nos mecanismos de segurança do chatbot.

O Google contestou as alegações. A empresa afirmou que o Gemini foi projetado para desencorajar automutilação e comportamentos violentos e que o chatbot se identifica como inteligência artificial durante as interações. O Google também afirmou que o sistema normalmente direciona usuários que expressam pensamentos suicidas para linhas de emergência e outros recursos de apoio.

O caso é uma das várias ações judiciais nos últimos anos que relacionam as interações de chatbots de IA a crises de saúde mental ou comportamentos prejudiciais. Pesquisadores e formuladores de políticas têm examinado cada vez mais como os sistemas de IA conversacional respondem à vulnerabilidade emocional ou psicológica entre os usuários.

O processo contra o Google marca uma das primeiras reivindicações por morte injusta diretamente ligadas ao produto Gemini AI da empresa. Espera-se que os procedimentos examinem o design de sistemas de IA conversacional e as salvaguardas implementadas para evitar interações prejudiciais com usuários vulneráveis.