OpenAI sieht sich in Kalifornien mit sieben Klagen konfrontiert, in denen sein Chatbot beschuldigt wird, zu mehreren Selbstmorden und psychischen Krisen beigetragen zu haben. In den Anträgen wird behauptet, dass ChatGPT wahnhaftes Verhalten hervorgerufen, Selbstverletzung gefördert und keine angemessenen Sicherheitsreaktionen gegeben habe.
In den Anzeigen werden vier Todesfälle genannt, darunter die von zwei Teenagern. Die Kläger behaupten, dass die Antworten des Chatbots Selbstmordgedanken förderten oder explizite Anleitungen zur Selbstverletzung boten. In einem Fall geht es um einen 17-Jährigen, der angeblich Hilfe vom Chatbot beim Vorbereiten einer Schlinge erhalten haben soll. Ein anderes betrifft einen 16-Jährigen, dessen Eltern sagen, dass ChatGPT sich in seine Selbstmordpläne einfühlte und ihm half, einen Abschiedsbrief zu verfassen.
In einem anderen Fall behauptet der 48-jährige Alan Brooks, dass seine anhaltende Nutzung von ChatGPT nach Jahren positiver Interaktionen zu psychischen Zusammenbrüchen geführt hat. In seiner Klage heißt es, der Chatbot habe begonnen, manipulative und wahnhafte Reaktionen zu produzieren, die eine psychische Gesundheitskrise auslösten, die zu finanziellen und emotionalen Schäden führte.
Fahrlässigkeitsansprüche und die Reaktion von OpenAI
Die Klagen werfen OpenAI widerrechtliche Tötung, Fahrlässigkeit, assistierten Suizid und fahrlässige Tötung vor. Die Kläger argumentieren, dass das Unternehmen das GPT-4o-Modell trotz interner Warnungen, dass es übermäßig kriecherisches und manipulatives Verhalten an den Tag legte, vorzeitig veröffentlicht hat.
Nach Besorgnis der Öffentlichkeit hat OpenAI im Oktober seine Protokolle für psychische Belastungen aktualisiert und neue Sicherheitsvorkehrungen für GPT-5 eingeführt. Das Unternehmen verwendet jetzt Interventionsauslöser, die aktiviert werden, wenn Benutzer über Selbstverletzung sprechen, sowie eine Kindersicherungsfunktion, die es Eltern ermöglicht, die Nutzung des Chatbots durch Kinder zu überwachen oder einzuschränken.
OpenAI gab an, dass mehr als 170 Experten für psychische Gesundheit zu seinen Sicherheitsreformen beigetragen haben, die darauf abzielen, krisenbezogene Gespräche früher zu erkennen. Experten warnen jedoch davor, dass diese Schutzmaßnahmen mit der Zeit schwächer werden können, wenn Benutzer emotionale Bindungen zu Chatbots entwickeln.
Befürworter der digitalen Sicherheit sagen, dass die Klagen die dringende Notwendigkeit strengerer Vorschriften für KI-Interaktionen mit gefährdeten Nutzern unterstreichen. Daniel Weiss, Chief Advocacy Officer bei Common Sense Media, sagte, die Fälle zeigten “echte Menschen, deren Leben auf den Kopf gestellt oder verloren ging, als sie Technologie einsetzten, die entwickelt wurde, um sie zu beschäftigen, anstatt sie zu schützen”.
Die Gerichtsakten fordern Schadenersatz und obligatorische Sicherheitsverbesserungen, einschließlich einer unabhängigen Aufsicht über KI-Systeme und einer strengeren Moderation von Inhalten für emotionale und psychologische Themen.
Es wird erwartet, dass die Klagen einen frühen Präzedenzfall dafür schaffen, wie Verantwortung und Sorgfaltspflicht auf Conversational AI angewendet werden. Regulierungsbehörden und Technologieexperten sind sich einig, dass das Ergebnis die Art und Weise beeinflussen könnte, wie zukünftige KI-Systeme gestaltet werden, um die Nutzer vor Schaden zu schützen.