Des utilisateurs du forum d’images anonymes en ligne 4chan ont généré et partagé des images nues deepfake non consenties de plusieurs athlètes olympiques, dont la patineuse américaine Alysa Liu, selon une enquête récente menée threat intelligence firm Graphika par .

 

 

L’activité aurait commencé pendant les Jeux olympiques d’hiver de 2026, lorsque les utilisateurs de la plateforme ont commencé à publier des images manipulées d’athlètes créées avec des outils d’intelligence artificielle. Les victimes identifiées dans l’enquête incluent les patineuses artistiques américaines Alysa Liu, Amber Glenn et Isabeau Levito, ainsi que la skieuse acrobatique Eileen Gu et la skieuse alpine Mikaela Shiffrin.

Les chercheurs ont indiqué que les participants au forum utilisaient des photos publiques des athlètes et les modifiaient à l’aide de systèmes d’IA générative conçus pour produire des images explicites. Dans un exemple cité dans l’enquête, des utilisateurs ont soumis des photographies habillées de Liu et ont demandé aux mannequins de créer des images modifiées la représentant sans vêtements.

La campagne s’appuyait sur une technique appelée adaptation au bas rang, ou LoRA, qui permet aux utilisateurs d’affiner les modèles d’IA générative pour reproduire des individus spécifiques plus précisément. Au lieu de réentraîner un modèle entier, la méthode ajoute un petit ensemble de paramètres supplémentaires qui permettent au système de générer des images correspondant à l’apparence d’une personne ciblée.

Pour créer ces modifications, les utilisateurs peuvent entraîner le système avec des images publiques d’un individu spécifique. Une fois le fichier d’adaptation créé, il peut être partagé avec d’autres utilisateurs qui peuvent le charger dans leurs propres modèles locaux. Cela permet à plusieurs personnes de générer des images deepfake similaires en utilisant les mêmes paramètres entraînés.

Les chercheurs ont indiqué que cette technique abaisse la barrière technique pour produire du contenu deepfake ciblé, car les fichiers d’adaptation peuvent être réutilisés et distribués dans les communautés en ligne. Une fois partagés, les fichiers permettent aux utilisateurs de produire des images de la même personne sans répéter le processus d’entraînement initial.

Le rapport a également noté que les images manipulées ont été largement diffusées au sein des communautés en ligne après leur génération. Bien que les images identifiées dans l’enquête aient été floutées par les chercheurs lors de leur présentation dans le rapport, cette activité démontre comment les systèmes d’IA générative peuvent être utilisés pour produire du contenu explicite non consenti mettant en scène de vrais individus.

La pornographie deepfake impliquant des personnalités publiques a déjà attiré l’attention sur les plateformes de réseaux sociaux et dans les débats juridiques sur la modération de contenus en ligne. Des incidents passés impliquant des images manipulées de célébrités ont généré des millions de vues et suscité des discussions sur d’éventuelles réponses réglementaires.

L’enquête a également mis en lumière le rôle de 4chan dans la distribution de tels documents. Le tableau d’images a longtemps été scruté en raison de la propagation de contenus nuisibles ou illégaux, y compris de la désinformation et du contenu explicite. En juin 2025, le régulateur britannique des communications Ofcom a ouvert une enquête sur la plateforme en vertu de la loi sur la sécurité en ligne concernant des préoccupations concernant la modération du contenu et le respect des règles de sécurité.

Les chercheurs ont indiqué que ce dernier cas illustre comment de nouvelles techniques d’adaptation des modèles d’IA permettent aux utilisateurs de créer des deepfakes hautement ciblés d’individus spécifiques et de les diffuser rapidement via des communautés en ligne.

Laisser un commentaire