Die Europäische Kommission, das Exekutivorgan der Europäischen Union, hat eine formelle Untersuchung der sozialen Medienplattform X, die Elon Musk gehört, wegen ihres künstlichen Intelligenz-Chatbots Grok und ihrer Rolle bei der Erzeugung sexuell expliziter Bilder, einschließlich manipulierter Bilder von Frauen und Minderjährigen, eingeleitet. Die Untersuchung wurde im Januar 2026 angekündigt und wird im Rahmen des Digital Services Act (DSA) der EU durchgeführt, einem regulatorischen Rahmen für digitale Plattformen.
Die Untersuchung konzentriert sich darauf, ob X seinen gesetzlichen Verpflichtungen nachgekommen ist, schädliche oder illegale Inhalte zu mindern, die durch das Grok-KI-Tool generiert wurden, insbesondere nicht einvernehmliche sexualisierte Deepfake-Bilder. EU-Beamte haben Bedenken geäußert, dass Grok in der Lage sei, manipulierte Bilder zu produzieren, die scheinbar Personen, darunter Kinder, in sexuell expliziten Kontexten zeigen. Die Untersuchung zielt darauf ab, festzustellen, ob X angemessene Schritte unternommen hat, um Risiken im Zusammenhang mit der Funktion zu bewerten und zu adressieren und ob die Inhaltsverwaltung und Risikominderungsmaßnahmen der Plattform den DSA-Anforderungen entsprechen.
Nach dem Digital Services Act müssen große Technologieunternehmen Systeme implementieren, um die Verbreitung schädlichen oder illegalen Materials, einschließlich sexuellem Kindesmissbrauch, zu verhindern. Wenn X gegen diese Verpflichtungen verstoßen hat, kann das Unternehmen mit Bußgeldern von bis zu 6 % seines weltweiten Jahresumsatzes rechnen oder verpflichtet sein, seine Plattformpraktiken zu ändern. Die Untersuchung erweitert eine bestehende EU-Untersuchung zu den Inhaltsempfehlungssystemen und Transparenzbestimmungen von X und hebt eine umfassendere regulatorische Kontrolle der Plattform hervor.
Die Maßnahme der Kommission folgt internationalen regulatorischen Reaktionen auf Groks Bilderzeugungsfähigkeiten. Mehrere Länder, darunter das Vereinigte Königreich, Australien, Malaysia und andere, haben eigene Ermittlungen eingeleitet oder in einigen Fällen den Zugang zum Tool vorübergehend eingeschränkt, da befürchtet wurde, dass es Nutzern erlaubte, sexualisierte Deepfake-Inhalte ohne Zustimmung zu erstellen. Kritiker haben auf Vorfälle hingewiesen, in denen Grok trotz von X getroffener Schutzmaßnahmen unangemessene Bilder produziert hat.
X hat Maßnahmen ergriffen, die darauf abzielen, die Erzeugung expliziter Bilder zu begrenzen, einschließlich der Einschränkung bestimmter Bildbearbeitungsfunktionen in Rechtsgebieten, in denen solche Inhalte illegal sind. Das Unternehmen erklärte, es habe Schutzmaßnahmen gehabt, um die Entstehung schädlicher Produktionen zu verhindern, doch Regulierungsbehörden und Interessengruppen haben bezweifelt, ob diese Maßnahmen ausreichend seien. Die EU-Untersuchung wird sowohl die Angemessenheit dieser Maßnahmen als auch die Einhaltung der gesetzlichen Anforderungen von X zur Risikominderung und Inhaltsmoderation prüfen
