Die südkoreanischen Behörden haben einen IT-Dienstleister festgenommen, dem vorgeworfen wird, mehr als 221.000 persönliche Fotos aus Schulen, Krankenhäusern und staatlichen Einrichtungen gestohlen und diese Bilder zur Erstellung von Deepfake-Pornografie und anderen illegalen sexuellen Inhalten verwendet zu haben.
Laut Ermittlern arbeitete der Verdächtige als ausgelagerter IT-Auftragnehmer mit Zugang zu Systemen mehrerer Organisationen. Die Polizei behauptet, er habe heimlich große Mengen gespeicherter Fotos und persönlichen Daten über mehrere Jahre hinweg kopiert, während er Wartungs- und technische Unterstützungsarbeiten durchführte.
Die Behörden sagen, die gestohlenen Bilder seien später zur Erstellung von nicht einvernehmlichen Deepfake-Pornografie gegen Frauen und Minderjährige verwendet worden. Ermittler sollen während des Falls etwa 405 GB illegales Material entdeckt haben, darunter manipulierte explizite Bilder, versteckte Kameraaufnahmen und Inhalte zum sexuellen Missbrauch von Kindern.
Die Ermittlungen begannen, nachdem der Verdächtige versehentlich ein USB-Speichergerät an einer Schule, an der er gearbeitet hatte, zurückgelassen hatte. Mitarbeiter entdeckten Berichten zufolge verdächtige Dateien auf dem Gerät und informierten die Behörden, woraufhin die Polizei eine umfassendere forensische Untersuchung der Aktivitäten des Auftragnehmers einleitete.
Die Polizei durchsuchte später das Wohnhaus und die elektronischen Geräte des Verdächtigen, wo angeblich weitere gestohlene Daten und KI-generierte sexuelle Inhalte gefunden wurden. Die Behörden gehen davon aus, dass die Operation möglicherweise jahrelang aktiv war, bevor sie aufgedeckt wurde.
Die Ermittler sagten, die gestohlenen Fotos stammen aus einer Vielzahl von Institutionen, darunter Bildungseinrichtungen, medizinische Organisationen und öffentliche Systeme, in denen der Auftragnehmer administrativen oder wartungsbezogenen Zugang hatte. Das Ausmaß des Verstoßes hat Bedenken hinsichtlich interner Sicherheitskontrollen und der Aufsicht durch Drittdienstleister innerhalb südkoreanischer Institutionen aufgeworfen.
Die Behörden haben die Gesamtzahl der möglicherweise von dem Vorfall betroffenen Opfer nicht öffentlich bekannt gegeben. Angesichts der Vielzahl an Bildern gehen die Behörden jedoch davon aus, dass Tausende von Personen möglicherweise persönliche Fotos ohne deren Wissen freigelegt oder manipuliert haben.
Der Fall hat die öffentliche Besorgnis in Südkorea über den zunehmenden Einsatz generativer KI-Tools zur Erstellung realistischer, nicht einvernehmlicher sexueller Inhalte verstärkt. Fortschritte in der Deepfake-Software haben es immer einfacher gemacht, explizite gefälschte Bilder mit gewöhnlichen Fotos aus Schulunterlagen, Social-Media-Konten oder internen Datenbanken zu erstellen.
Die Behörden analysieren weiterhin die beschlagnahmten Akten, um Opfer zu identifizieren und festzustellen, ob Material über Online-Communities oder verschlüsselte Nachrichtenplattformen verbreitet wurde.
Der Verdächtige sieht sich nun mehreren Anklagen gegenüber, die Datenschutzverletzungen, illegale Pornografieproduktion und Besitz von sexuellem Kindesmissbrauchsmaterial betreffen. Südkoreanische Ermittler sagen, dass weitere Anklagen folgen könnten, während die forensische Untersuchung andauert.
