La Corée du Sud fait face à une vague de crimes sexuels liés à l’IA qui s’intensifie rapidement, alors que les autorités découvrent d’immenses réseaux créant et distribuant de la pornographie deepfake ciblant les femmes et les mineurs.

 

 

La dernière affaire concerne un sous-traitant informatique accusé d’avoir volé plus de 221 000 photos privées d’écoles, d’hôpitaux et d’institutions publiques afin de créer du contenu deepfake à caractère sexuel explicite. Selon les enquêteurs, le suspect aurait utilisé des images volées pour générer de la pornographie non consentie et a diffusé ce matériel en ligne pendant plusieurs années.

La police aurait découvert plus de 400 Go de matériel illégal au cours de l’enquête, y compris de la pornographie deepfake, des enregistrements de caméras cachées et des contenus d’abus sexuels sur enfants. Les autorités ont indiqué que le suspect avait accédé à des systèmes sensibles alors qu’il travaillait comme sous-traitant pour plusieurs organisations.

Cette affaire est le dernier exemple en date de la crise croissante d’exploitation du deepfake en Corée du Sud, qui s’est intensifiée parallèlement aux avancées des outils d’IA générative et à la diffusion des communautés en ligne chiffrées. Les experts avertissent que les logiciels d’IA de plus en plus accessibles permettent désormais aux utilisateurs ordinaires de créer des images sexuelles réalistes à partir de seulement quelques photos accessibles au public.

Les autorités sud-coréennes ont à plusieurs reprises averti que les adolescents sont de plus en plus impliqués à la fois en tant que victimes et auteurs d’auteurs. Les données policières citées par Reuters ont montré que les enquêtes sur les crimes sexuels deepfake sont passées de 156 cas en 2021 à des centaines de cas annuels en 2024, de nombreux incidents étant liés à des écoles et des communautés universitaires.

Une grande partie de la distribution de contenu aurait été centrée autour des salons de discussion Telegram, qui sont devenus un point central pour les enquêteurs sud-coréens. Les autorités ont déjà lancé des enquêtes sur des réseaux deepfake liés à Telegram après avoir découvert de grands groupes partageant du contenu sexuel généré par IA ciblant les femmes et filles coréennes.

Cette affaire a suscité une indignation publique généralisée à travers la Corée du Sud, où les crimes sexuels numériques constituent déjà un enjeu social et politique majeur depuis des années, suite à des scandales tels que le tristement célèbre réseau d’abus « Nth Room ». Les chercheurs affirment que la montée de l’exploitation générée par l’IA a considérablement élargi l’ampleur et l’accessibilité des abus en ligne.

Selon un rapport industriel de 2023 cité par Reuters, les femmes sud-coréennes représentent une part disproportionnée des victimes présentes dans la pornographie deepfake à l’échelle mondiale, y compris des chanteuses de K-pop, des étudiantes, des influenceuses et des citoyens ordinaires.

Les critiques soutiennent que les outils d’IA ont rendu l’exploitation plus facile, plus rapide et plus difficile à détecter. Les logiciels modernes de deepfake peuvent générer des images sexuelles réalistes et fausses en quelques minutes grâce à du matériel grand public et des modèles d’apprentissage automatique accessibles au public. Des chercheurs ont récemment identifié des dizaines de milliers de variantes de modèles deepfake téléchargeables circulant en ligne, beaucoup étant spécifiquement conçues pour créer du contenu explicite non consenti ciblant les femmes.

La crise croissante a déclenché des réponses juridiques de plus en plus agressives en Corée du Sud. Les législateurs ont renforcé la législation en 2024 pour criminaliser non seulement la création et la distribution de deepfakes sexuellement exploitants, mais aussi la possession, la visualisation et le stockage de ces contenus. Les délinquants peuvent faire face à des peines de prison et à des amendes importantes.

Les autorités ont également élargi les opérations de surveillance, lancé des enquêtes spéciales sur la cybercriminalité et fait pression sur les plateformes en ligne pour qu’elles retirent plus agressivement les contenus illicites. Cependant, les experts avertissent que l’application reste difficile car le contenu deepfake se propage rapidement sur des canaux chiffrés, des forums anonymes et des sites web étrangers.

Les chercheurs étudiant la violence sexuelle numérique en Corée du Sud soutiennent que le problème va au-delà de la technologie elle-même. Des analyses académiques récentes ont décrit l’abus du deepfake comme faisant partie d’un schéma plus large de misogynie, de harcèlement et d’exploitation en ligne, amplifié par des outils numériques de plus en plus sophistiqués.

Les défenseurs de la vie privée et les groupes de soutien aux victimes avertissent que les dommages psychologiques causés par les crimes sexuels deepfake peuvent être dévastateurs, d’autant plus que les victimes ont souvent du mal à supprimer complètement les images manipulées une fois qu’elles se propagent en ligne. Même s’il est faux, le contenu peut nuire à la réputation, des traumatismes, du chantage et du harcèlement à long terme.

La dernière enquête souligne comment l’exploitation générée par l’IA devient l’une des formes d’abus cyber-activées à la croissance la plus rapide dans le monde, alors que les gouvernements s’efforcent d’adapter les lois et stratégies d’application à la technologie d’IA générative en rapide évolution.

Laisser un commentaire