2 Remove Virus

Meta startet “Inkognito Chat” für private KI-Konversationen auf WhatsApp

Meta führt einen neuen “Inkognito-Chat”-Modus für Meta AI auf WhatsApp ein und verspricht den Nutzern vollständig private KI-Gespräche, auf die selbst Meta angeblich keinen Zugriff hat.

 

 

Die Funktion ist darauf ausgelegt, wachsende Datenschutzbedenken rund um KI-Chatbots zu adressieren, da Nutzer zunehmend sensible persönliche, finanzielle, gesundheitliche und arbeitsbezogene Informationen mit generativen KI-Systemen teilen.

Laut Meta nutzt Incognito Chat die “Private Processing”-Infrastruktur des Unternehmens, um temporäre KI-Konversationen zu erstellen, die verschlüsselt und in einer sicheren Umgebung verarbeitet werden, die isoliert von Metas eigenen Systemen ist. Das Unternehmen sagt, dass Gespräche standardmäßig nicht gespeichert werden und automatisch nach Ende der Sitzungen verschwinden.

Meta-CEO Mark Zuckerberg beschrieb die Funktion als das erste große KI-Chatsystem, bei dem Konversationsprotokolle nicht auf Servern gespeichert werden. Meta behauptet, die Architektur verhindere sowohl Mitarbeiter als auch externe Angreifer daran, Nachrichteninhalte einzusehen.

Der neue Modus wird in den kommenden Monaten schrittweise auf WhatsApp und der eigenständigen Meta AI App eingeführt. Anfangs unterstützt Inkognito Chat nur Textgespräche, wobei Bildhochladungen und Multimedia beim Start deaktiviert sind.

Meta sagt, dieser Schritt spiegele wider, wie Nutzer KI-Systeme zunehmend wie persönliche Berater oder Therapeuten behandeln und hochsensible Fragen stellen, die sie vielleicht nicht dauerhaft gespeichert haben wollen. WhatsApp-Chef Will Cathcart sagte, viele Nutzer fühlen sich unwohl dabei, sehr persönliche Informationen mit KI-Unternehmen zu teilen, nur um Antworten oder Unterstützung zu erhalten.

Das Unternehmen kündigte außerdem eine kommende Funktion namens “Side Chat” an, mit der Nutzer Meta AI privat Fragen zu laufenden WhatsApp-Gesprächen stellen können, ohne andere Teilnehmer im Chat zu alarmieren.

Trotz Metas Datenschutzansprüche sorgt die Ankündigung bereits für Skepsis unter Datenschutzbefürwortern und Sicherheitsforschern. Kritiker weisen darauf hin, dass Meta seit Jahren wiederholt wegen Datenerhebungspraktiken auf Facebook, Instagram und WhatsApp unter Beobachtung steht.

Einige Experten warnen außerdem, dass “private Verarbeitungs”-Systeme weiterhin auf Cloud-Infrastruktur angewiesen sind, die potenziell Ziel von Hackern oder zukünftigen rechtlichen Ansprüchen werden könnte. Ähnliche Bedenken sind auch bei anderen KI-Chatbots aufgekommen, darunter ChatGPT, Gemini und Claude, bei denen gespeicherte Gespräche in Gerichtsverfahren und Untersuchungen relevant geworden sind.

Meta argumentiert, dass sein System sich von den bestehenden “temporären Chat”- oder “Inkognito”-Modi der Konkurrenz unterscheidet, da Gespräche nicht nur aus der Nutzerhistorie verborgen sind, sondern auch für das Unternehmen selbst unzugänglich sind. Im Vergleich dazu führen OpenAI, Google und Anthropic temporäre Gespräche über unterschiedliche Zeiträume von Tagen bis Wochen.

Der Start erfolgt zu einer Zeit, in der KI-Unternehmen zunehmenden Druck haben, die Transparenz darüber zu verbessern, wie Chatbot-Gespräche gespeichert, verarbeitet und möglicherweise für das Training zukünftiger Modelle verwendet werden. Meta erklärt derzeit, dass gewöhnliche WhatsApp-Nachrichten weiterhin durch Ende-zu-Ende-Verschlüsselung geschützt sind und nicht zum Training von KI-Systemen verwendet werden, obwohl Interaktionen mit Meta AI je nach Einstellungen und verwendeten Funktionen unterschiedlich gehandhabt werden können.