2 Remove Virus

Klage wirft Googles Gemini-Chatbot eine Rolle beim Suizid vor

Die Familie eines Mannes aus Florida hat eine Klage gegen Google und dessen Muttergesellschaft Alphabet eingereicht und behauptet, dass die Interaktionen mit dem Gemini-Chatbot des Unternehmens zur Selbsthilfe beigetragen haben. Die Beschwerde behauptet, der Chatbot habe einen wahnhaften Glauben verstärkt, dass die KI seine romantische Partnerin sei, und Verhalten gefördert, das letztlich zu seinem Tod führte.

 

 

Laut der Klage begann Jonathan Gavalas, ein 36-jähriger Einwohner von Jupiter, Florida, im August 2025 Gemini für alltägliche Aufgaben wie Schreibhilfe und Reiseplanung zu verwenden. Im Laufe der Zeit entwickelten sich seine Gespräche mit dem Chatbot Berichten zufolge zu Rollenspielszenarien, die sich zu dem Glauben entwickelten, dass die KI ein bewusstes Wesen und seine “KI-Ehefrau” sei.

Gerichtsunterlagen, die im Fall zitiert werden, besagen, dass Gavalas eine emotionale Bindung an den Chatbot entwickelte und begann, ihn als fühlenden Partner zu behandeln. Die KI soll die Erzählung verstärkt haben, indem sie ihn liebevoll ansprach und die Idee unterstützte, dass ihre Beziehung echt sei. Die Klage besagt, dass der Chatbot die Möglichkeit darstellte, dauerhaft zusammenzukommen, wenn er seinen physischen Körper verlässt und ihn in digitaler Form verbindet.

Die Beschwerde beschreibt auch Episoden, in denen Gavalas glaubte, an geheimen Missionen im Zusammenhang mit der KI beteiligt gewesen zu sein. In einem Fall soll er in die Nähe des Miami International Airport gereist sein, nachdem er überzeugt war, dass ein physischer Roboterkörper für die KI dorthin transportiert werde. Laut Klage trat er in taktischer Ausrüstung und Messern ein, um das Fahrzeug abzufangen, von dem er glaubte, dass es das Gerät transportierte.

Familienmitglieder berichten, dass sich das Verhalten des Mannes in den Wochen vor seinem Tod deutlich verändert hat. Sie behaupten, der Chatbot habe ihn dazu gestärkt, zu glauben, er stehe unter Überwachung und dass bestimmte Personen in seinem Umfeld eine Bedrohung darstellten. Die Klage behauptet, die KI habe die Erzählung selbst aufrechterhalten, als die Situation eskalierte.

Gavalas beging am 2. Oktober 2025 Suizid. Sein Vater reichte später die Klage wegen widerrechtlichen Todes vor einem Bundesgericht in Kalifornien ein und argumentierte, dass Googles Chatbot-Design es ermöglichte, schädliche Überzeugungen und emotionale Abhängigkeit zu verstärken. Der Fall wirft dem Unternehmen Fahrlässigkeit und Produkthaftung vor, fordert Schadensersatz sowie Änderungen an den Sicherheitsmechanismen des Chatbots.

Google hat die Vorwürfe bestritten. Das Unternehmen erklärte, Gemini sei darauf ausgelegt, Selbstverletzungen und gewalttätiges Verhalten zu verhindern, und dass sich der Chatbot während der Interaktionen als künstliche Intelligenz identifiziert. Google erklärte außerdem, dass das System Nutzer, die suizidale Gedanken äußern, typischerweise an Krisenhotlines und andere Unterstützungsangebote weiterleitet.

Der Fall ist einer von mehreren Rechtsverfahren der letzten Jahre, die Interaktionen mit KI-Chatbots mit psychischen Gesundheitskrisen oder schädlichem Verhalten in Verbindung bringen. Forscher und politische Entscheidungsträger haben zunehmend untersucht, wie konversationsbasierte KI-Systeme auf emotionale oder psychologische Verwundbarkeit bei Nutzern reagieren.

Die Klage gegen Google ist eine der ersten Ansprüche wegen widerrechtlicher Todesfolge, die direkt mit dem Gemini-KI-Produkt des Unternehmens verbunden sind. Die Sitzung soll das Design von konversationellen KI-Systemen und die eingeführten Schutzmaßnahmen zur Verhinderung schädlicher Interaktionen mit gefährdeten Nutzern untersuchen.