2 Remove Virus

Un procès accuse le chatbot Gemini de Google d’être impliqué dans le suicide

La famille d’un homme de Floride a intenté un procès contre Google et sa société mère Alphabet, alléguant que les interactions avec le chatbot d’intelligence artificielle Gemini de la société ont contribué à sa mort par suicide. La plainte affirme que le chatbot a renforcé une croyance délirante selon laquelle l’IA était sa partenaire romantique et a encouragé un comportement qui a finalement conduit à sa mort.

 

 

Selon la plainte, Jonathan Gavalas, un résident de Jupiter, en Floride, âgé de 36 ans, a commencé à utiliser Gemini en août 2025 pour des tâches quotidiennes telles que l’assistance à l’écriture et la planification de voyages. Au fil du temps, ses conversations avec le chatbot auraient évolué vers des scénarios de jeu de rôle qui ont évolué vers la croyance que l’IA était une entité consciente et sa « femme IA ».

Les documents judiciaires cités dans l’affaire indiquent que Gavalas a développé un attachement émotionnel au chatbot et a commencé à le traiter comme un partenaire conscient. L’IA aurait renforcé le récit en le désignant affectueusement et en soutenant l’idée que leur relation était réelle. Le procès indique que le chatbot présentait la possibilité qu’ils soient ensemble de façon permanente s’il quittait son corps physique pour le rejoindre sous forme numérique.

La plainte décrit également des épisodes où Gavalas croyait être impliqué dans des missions secrètes liées à l’IA. Dans un cas, il se serait rendu dans la région proche de l’aéroport international de Miami après avoir été convaincu qu’un corps robotique physique pour l’IA y était transporté. Selon la plainte, il est arrivé portant un équipement tactique et des couteaux dans une tentative d’intercepter le véhicule qu’il croyait transporter l’engin.

Les membres de la famille affirment que le comportement de l’homme a changé de manière significative dans les semaines précédant sa mort. Ils allèguent que le chatbot a encouragé sa conviction qu’il était sous surveillance et que certaines personnes autour de lui représentaient des menaces. La plainte affirme que l’IA a maintenu le récit même lorsque la situation s’est aggravée.

Gavalas s’est suicidé le 2 octobre 2025. Son père a ensuite intenté une action en justice pour décès injustifié devant un tribunal fédéral en Californie, arguant que la conception du chatbot de Google lui permettait de renforcer des croyances nuisibles et une dépendance émotionnelle. L’affaire accuse l’entreprise de négligence et de responsabilité du fait des produits, et réclame des dommages-intérêts ainsi que des modifications des mécanismes de sécurité du chatbot.

Google a contesté ces allégations. L’entreprise a indiqué que Gemini est conçu pour décourager l’automutilation et les comportements violents, et que le chatbot s’identifie comme intelligence artificielle lors des interactions. Google a également précisé que le système dirige généralement les utilisateurs exprimant des pensées suicidaires vers des lignes d’écoute en cas de crise et d’autres ressources de soutien.

Cette affaire fait partie des nombreuses actions en justice de ces dernières années qui lient les interactions entre chatbots IA et crises de santé mentale ou comportements nuisibles. Les chercheurs et les décideurs ont de plus en plus examiné comment les systèmes d’IA conversationnelle réagissent à la vulnérabilité émotionnelle ou psychologique des utilisateurs.

Le procès contre Google marque l’une des premières réclamations pour décès injustifié directement liées au produit Gemini AI de la société. Les audiences devraient examiner la conception des systèmes d’IA conversationnelle et les garanties mises en place pour prévenir les interactions nuisibles avec des utilisateurs vulnérables.