OpenAI sieht sich einer vorgeschlagenen Sammelklage gegenüber, in der das Unternehmen beschuldigt wird, heimlich ChatGPT-Nutzergespräche und persönliche Informationen über Online-Tracking-Technologien, die auf seiner Website eingebettet sind, mit Meta und Google geteilt zu haben.
Die Klage, die vor einem Bundesgericht in Kalifornien eingereicht wurde, behauptet, dass OpenAI Tracking-Tools wie Meta Pixel und Google Analytics auf ChatGPT-Seiten genutzt hat, um Nutzeranfragen, E-Mail-Adressen, Benutzer-IDs und Browserinformationen ohne ordnungsgemäße Zustimmung an Drittanbieter-Werbeplattformen zu übertragen.
Laut der Beschwerde glaubten Nutzer, dass ihre Gespräche mit ChatGPT privat seien, insbesondere wenn es um sensible Themen wie Finanzen, Gesundheit, rechtliche Fragen oder persönliche Beziehungen ging. Die Kläger argumentieren, dass die Übermittlung dieser Daten an Werbe- und Analyseunternehmen gegen Datenschutzgesetze und gegen OpenAIs eigene Versprechen zur Vertraulichkeit verstoßen habe.
Die Klage behauptet, OpenAI habe Metas Facebook-Pixel-Tracking-Code und Google Analytics-Skripte in die gesamte ChatGPT-Infrastruktur eingebettet, sodass Daten über Nutzerinteraktionen automatisch an externe Systeme übertragen werden können. Die Kläger behaupten, dass der Datenaustausch Teile von Chatbot-Prompts, Kontokennungen, Sitzungsinformationen und Metadaten im Zusammenhang mit dem Nutzerverhalten umfasste.
Die Beschwerde argumentiert, dass viele Nutzer höchst persönliche Informationen nicht mit ChatGPT geteilt hätten, wenn sie gewusst hätten, dass Gespräche potenziell von Drittanbieter-Werbenetzwerken ausgesetzt werden könnten. Die Kläger fordern Schadensersatz sowie gerichtliche Anordnungen, die OpenAI daran hindern, die angeblichen Praktiken fortzusetzen.
Der Fall erhöht den zunehmenden rechtlichen Druck auf KI-Unternehmen in Bezug auf Datenschutz, Urheberrecht und Datenerhebungspraktiken. OpenAI sieht sich bereits mehreren Klagen gegenüber, die sich darauf beziehen, wie ChatGPT mit urheberrechtlich geschütztem Material, persönlichen Informationen und potenziell schädlichen Ausgaben umgeht.
Meta steht außerdem vor zunehmender rechtlicher Kontrolle im Zusammenhang mit Datenerhebung und KI-Trainingspraktiken. Anfang dieses Monats verklagten mehrere große Verlage Meta wegen der Behauptung, das Unternehmen habe illegale Bücher und urheberrechtlich geschützte Materialien verwendet, um seine Llama-KI-Modelle ohne Genehmigung zu trainieren.
Datenschutzforscher warnen zunehmend, dass KI-Chatbots zu wichtigen Datenplattformen werden könnten, da Nutzer während Gesprächen oft intime Details preisgeben. Im Gegensatz zu herkömmlichen Suchmaschinen fördern generative KI-Systeme langformige Interaktionen, bei denen Nutzer persönliche Gesundheitsinformationen, finanzielle Daten, rechtliche Bedenken, Passwörter oder Arbeitsplatzdaten preisgeben können.
