Gebruikers op het anonieme online imageboard 4chan genereren en delen niet-consensuele deepfake naaktfoto’s van verschillende vrouwelijke olympische atleten, waaronder de Amerikaanse kunstschaatsster Alysa Liu, volgens een recent onderzoek van threat intelligence firm Graphika .
De activiteit begon naar verluidt tijdens de Olympische Winterspelen van 2026, toen gebruikers op het platform begonnen gemanipuleerde afbeeldingen van atleten te plaatsen die met kunstmatige intelligentie waren gemaakt. Slachtoffers die in het onderzoek zijn geïdentificeerd zijn onder andere de Amerikaanse kunstschaatsers Alysa Liu, Amber Glenn en Isabeau Levito, evenals freestyle skiër Eileen Gu en alpineskiër Mikaela Shiffrin.
Onderzoekers zeiden dat deelnemers aan het forum openbaar beschikbare foto’s van de atleten gebruikten en deze bewerkten met generatieve AI-systemen die expliciete beelden produceerden. In een voorbeeld dat in het onderzoek werd genoemd, stuurden gebruikers gekleedde foto’s van Liu in en vroegen de modellen om aangepaste afbeeldingen te maken waarop ze zonder kleding werd getoond.
De campagne maakte gebruik van een techniek die low rank adaptation, of LoRA, wordt genoemd, waarmee gebruikers generatieve AI-modellen kunnen fijn afstellen om specifieke individuen nauwkeuriger te reproduceren. In plaats van een volledig model opnieuw te trainen, voegt de methode een kleine set extra parameters toe die het systeem in staat stellen afbeeldingen te genereren die overeenkomen met het uiterlijk van een doelwit.
Om deze aanpassingen te maken, kunnen gebruikers het systeem trainen met publiek beschikbare afbeeldingen van een specifiek individu. Zodra het adaptatiebestand is aangemaakt, kan het gedeeld worden met andere gebruikers die het kunnen laden in hun eigen lokaal uitgevoerde modellen. Dit stelt meerdere mensen in staat om vergelijkbare deepfake-beelden te genereren met dezelfde getrainde parameters.
Onderzoekers zeiden dat de techniek de technische drempel voor het produceren van gerichte deepfake-inhoud verlaagt, omdat de adaptatiebestanden hergebruikt en verspreid kunnen worden over online gemeenschappen. Eenmaal gedeeld stellen de bestanden gebruikers in staat om afbeeldingen van dezelfde persoon te maken zonder het oorspronkelijke trainingsproces te herhalen.
Het rapport merkte ook op dat de gemanipuleerde beelden na het genereren van de online gemeenschappen breed werden verspreid. Hoewel de beelden die in het onderzoek werden geïdentificeerd door onderzoekers werden vervaagd toen ze in het rapport werden gepresenteerd, toont de activiteit aan hoe generatieve AI-systemen kunnen worden gebruikt om niet-consensuele expliciete inhoud te produceren met echte personen.
Deepfake-pornografie met publieke figuren heeft eerder aandacht getrokken op sociale mediaplatforms en in juridische debatten over online contentmoderatie. Eerdere incidenten met gemanipuleerde afbeeldingen van beroemdheden hebben miljoenen weergaven opgeleverd en discussies uitgelokt over mogelijke regelgevende reacties.
Het onderzoek benadrukte ook de rol van 4chan bij de verspreiding van dergelijk materiaal. Het imageboard staat al lange tijd onder de loep vanwege de verspreiding van schadelijke of illegale inhoud, waaronder desinformatie en expliciet materiaal. In juni 2025 startte de Britse communicatietoeziener Ofcom een onderzoek naar het platform onder de Online Safety Act vanwege zorgen over contentmoderatie en naleving van veiligheidsregels.
Onderzoekers zeiden dat het nieuwste geval illustreert hoe nieuwe technieken voor het aanpassen van AI-modellen gebruikers in staat stellen zeer gerichte deepfakes van specifieke individuen te maken en deze snel te verspreiden via online gemeenschappen.