Les autorités sud-coréennes ont arrêté un sous-traitant informatique accusé d’avoir volé plus de 221 000 photos personnelles dans des écoles, des hôpitaux et des institutions gouvernementales, ainsi que d’avoir utilisé ces images pour créer de la pornographie deepfake et d’autres contenus sexuels illégaux.

 

 

Selon les enquêteurs, le suspect travaillait comme sous-traitant informatique externalisé avec accès à des systèmes appartenant à plusieurs organisations. La police affirme qu’il a secrètement copié de grands volumes de photos et de données personnelles stockées pendant plusieurs années tout en effectuant des travaux de maintenance et de support technique.

Les autorités affirment que les images volées ont ensuite été utilisées pour générer de la pornographie deepfake non consentie ciblant les femmes et les mineurs. Les enquêteurs auraient découvert environ 405 Go de matériel illégal au cours de l’affaire, y compris des images explicites manipulées, des enregistrements de caméras cachées et du contenu d’abus sexuel sur enfants.

L’enquête a débuté après que le suspect a accidentellement laissé derrière lui un périphérique de stockage USB dans une école où il travaillait. Des membres du personnel auraient découvert des dossiers suspects sur l’appareil et alerté les autorités, ce qui a conduit la police à lancer une enquête médico-légale plus large sur les activités de l’entrepreneur.

La police a ensuite fouillé la résidence du suspect et ses appareils électroniques, où elle aurait trouvé d’autres données volées et du contenu sexuel généré par IA. Les autorités pensent que l’opération a pu être active pendant des années avant d’être découverte.

Les enquêteurs ont indiqué que les photos volées provenaient d’un large éventail d’institutions, notamment des établissements scolaires, des organisations médicales et des systèmes du secteur public où l’entrepreneur avait accès administratif ou lié à la maintenance. L’ampleur de la faille a suscité des inquiétudes concernant les contrôles de sécurité internes et la supervision des sous-traitants tiers au sein des institutions sud-coréennes.

Les autorités n’ont pas rendu public le nombre total de victimes potentiellement touchées par l’incident. Cependant, compte tenu du volume d’images impliquées, les autorités estiment que des milliers de personnes ont pu voir des photos personnelles exposées ou manipulées à leur insu.

Cette affaire a intensifié l’inquiétude du public en Corée du Sud face à l’utilisation croissante d’outils d’IA générative pour créer des contenus sexuels réalistes et non consentis. Les avancées dans les logiciels deepfake ont rendu de plus en plus facile la génération d’images fausses explicites à partir de photos ordinaires tirées de dossiers scolaires, de comptes de réseaux sociaux ou de bases de données internes.

Les autorités poursuivent d’analyser les fichiers saisis afin d’identifier les victimes et de déterminer si certains de ces documents ont été diffusés via des communautés en ligne ou des plateformes de messagerie cryptée.

Le suspect fait désormais face à plusieurs chefs d’accusation liés à des violations de la vie privée, à la production illégale de pornographie et à la possession de matériel d’abus sexuel sur mineur. Les enquêteurs sud-coréens indiquent que d’autres charges pourraient survenir au fur et à mesure que l’enquête médico-légale se poursuit.

Laisser un commentaire