Südkorea sieht sich einer schnell eskalierenden Welle von KI-gesteuerten Sexualstraftaten gegenüber, da die Behörden massive Netzwerke aufdecken, die Deepfake-Pornografie gegen Frauen und Minderjährige produzieren und verbreiten.
Der jüngste Fall betrifft einen IT-Auftragnehmer, der beschuldigt wird, mehr als 221.000 private Fotos aus Schulen, Krankenhäusern und öffentlichen Einrichtungen gestohlen zu haben, um sexuell explizite Deepfake-Inhalte zu erstellen. Laut den Ermittlern soll der Verdächtige gestohlene Bilder verwendet haben, um nicht einvernehmliche Pornografie zu erzeugen, und verbreitete das Material über mehrere Jahre hinweg online.
Die Polizei entdeckte Berichten zufolge während der Ermittlungen mehr als 400 GB illegales Material, darunter Deepfake-Pornografie, versteckte Kameraaufnahmen und Inhalte über sexuellen Kindesmissbrauch. Die Behörden erklärten, der Verdächtige habe Zugang zu sensiblen Systemen erhalten, während er als Auftragnehmer für mehrere Organisationen arbeitete.
Der Fall ist das jüngste Beispiel für Südkoreas wachsende Deepfake-Exploitation-Krise, die sich mit Fortschritten bei generativen KI-Tools und der Verbreitung verschlüsselter Online-Communities verschärft hat. Experten warnen, dass zunehmend zugängliche KI-Software es nun normalen Nutzern ermöglicht, realistische gefälschte sexuelle Bilder mit nur wenigen öffentlich zugänglichen Fotos zu erstellen.
Die südkoreanischen Behörden haben wiederholt gewarnt, dass Jugendliche zunehmend sowohl als Opfer als auch als Täter beteiligt sind. Polizeidaten, die von Reuters zitiert wurden, zeigten, dass Deepfake-Sexualdelikte-Ermittlungen von 156 Fällen im Jahr 2021 auf Hunderte von Fällen jährlich bis 2024 anstiegen, wobei viele Vorfälle mit Schulen und Universitätsgemeinschaften in Verbindung standen.
Ein Großteil der Inhaltsverteilung konzentrierte sich Berichten zufolge auf Telegram-Chatrooms, die zu einem wichtigen Fokus für südkoreanische Ermittler geworden sind. Die Behörden hatten zuvor Ermittlungen zu Telegram-bezogenen Deepfake-Netzwerken eingeleitet, nachdem sie große Gruppen entdeckt hatten, die KI-generierte sexuelle Inhalte gegen koreanische Frauen und Mädchen teilten.
Das Thema hat in ganz Südkorea für weitverbreitete öffentliche Empörung gesorgt, wo digitale Sexualverbrechen bereits seit Jahren ein großes gesellschaftliches und politisches Thema sind, nachdem Skandale wie das berüchtigte “Nth Room”-Missbrauchsnetzwerk entstanden sind. Forscher sagen, dass der Anstieg der KI-generierten Ausbeutung das Ausmaß und die Zugänglichkeit von Online-Missbrauch dramatisch erweitert hat.
Laut einem von Reuters zitierten Branchenbericht aus dem Jahr 2023 machen südkoreanische Frauen einen unverhältnismäßig großen Anteil der Opfer in Deepfake-Pornografie weltweit aus, darunter K-Pop-Sängerinnen, Studenten, Influencer und gewöhnliche Bürger.
Kritiker argumentieren, dass KI-Tools die Ausnutzung leichter, schneller und schwerer zu erkennen gemacht haben. Moderne Deepfake-Software kann in wenigen Minuten realistische gefälschte sexuelle Bilder mit Verbraucherhardware und öffentlich verfügbaren Machine-Learning-Modellen erzeugen. Forscher haben kürzlich Zehntausende herunterladbarer Deepfake-Modellvarianten identifiziert, die online kursieren, viele speziell darauf ausgelegt, nicht-einvernehmliche explizite Inhalte zu erstellen, die sich an Frauen richten.
Die wachsende Krise hat in Südkorea zunehmend aggressive rechtliche Maßnahmen ausgelöst. Die Gesetzgeber haben 2024 die Gesetzgebung verschärft, um nicht nur die Erstellung und Verbreitung sexuell ausbeuterischer Deepfakes, sondern auch den Besitz, das Ansehen und die Speicherung solcher Materialien zu kriminalisieren. Straftäter können mit Gefängnisstrafen und hohen Geldstrafen rechnen.
Die Behörden haben zudem ihre Überwachungsoperationen ausgeweitet, spezielle Cyberkriminalitätsermittlungen eingeleitet und Online-Plattformen unter Druck gesetzt, illegale Inhalte aggressiver zu entfernen. Experten warnen jedoch, dass die Durchsetzung weiterhin schwierig ist, da Deepfake-Inhalte sich schnell über verschlüsselte Kanäle, anonyme Foren und ausländische Webseiten verbreiten.
Forscher, die digitale sexuelle Gewalt in Südkorea untersuchen, argumentieren, dass das Problem über die Technologie hinausgeht. Aktuelle akademische Analysen beschrieben Deepfake-Missbrauch als Teil eines umfassenderen Musters von Online-Frauenfeindlichkeit, Belästigung und Ausbeutung, das durch zunehmend ausgefeilte digitale Werkzeuge verstärkt wird.
Datenschutzbefürworter und Opferunterstützungsgruppen warnen, dass der psychologische Schaden durch Deepfake-Sexualstraftaten verheerend sein kann, insbesondere weil Opfer oft Schwierigkeiten haben, manipulierte Bilder vollständig zu entfernen, sobald sie sich online verbreiten. Selbst wenn sie gefälscht sind, können die Inhalte dennoch Reputationsschäden, Trauma, Erpressung und langfristige Belästigung verursachen.
Die jüngste Untersuchung unterstreicht, wie KI-generierte Ausnutzung zu einer der am schnellsten wachsenden Formen cyber-gestützten Missbrauchs weltweit wird, da Regierungen sich beeilen, Gesetze und Durchsetzungsstrategien an die sich rasant entwickelnde generative KI-Technologie anzupassen.