Gli utenti del forum anonimo online 4chan hanno generato e condiviso immagini nude deepfake non consensuali di diverse atlete olimpiche, inclusa la pattinatrice statunitense Alysa Liu, secondo una recente indagine condotta threat intelligence firm Graphika da .
L’attività sarebbe iniziata durante le Olimpiadi invernali del 2026, quando gli utenti della piattaforma hanno iniziato a pubblicare immagini manipolate di atleti create con strumenti di intelligenza artificiale. Le vittime identificate nell’indagine includono le pattinatrici artistiche americane Alysa Liu, Amber Glenn e Isabeau Levito, oltre alla sciatrice freestyle Eileen Gu e alla sciatrice alpina Mikaela Shiffrin.
I ricercatori hanno detto che i partecipanti al forum hanno utilizzato foto pubbliche degli atleti e le hanno modificate utilizzando sistemi di IA generativa progettati per produrre immagini esplicite. In un esempio citato nell’indagine, gli utenti hanno inviato fotografie vestite di Liu e hanno chiesto ai modelli di creare immagini alterate che la raffigurassero senza vestiti.
La campagna si basava su una tecnica nota come adattamento a basso rango, o LoRA, che permette agli utenti di perfezionare i modelli di IA generativa per riprodurre individui specifici in modo più accurato. Invece di riaddestrare un intero modello, il metodo aggiunge un piccolo insieme di parametri aggiuntivi che permettono al sistema di generare immagini che corrispondono all’aspetto di una persona target.
Per creare queste modifiche, gli utenti possono addestrare il sistema con immagini pubbliche di un individuo specifico. Una volta creato il file di adattamento, può essere condiviso con altri utenti che possono caricarlo nei propri modelli eseguiti localmente. Questo permette a più persone di generare immagini deepfake simili usando gli stessi parametri addestrati.
I ricercatori hanno affermato che la tecnica abbassa la barriera tecnica per produrre contenuti deepfake mirati perché i file di adattamento possono essere riutilizzati e distribuiti nelle comunità online. Una volta condivisi, i file permettono agli utenti di produrre immagini della stessa persona senza ripetere il processo di addestramento originale.
Il rapporto ha inoltre sottolineato che le immagini manipolate sono state ampiamente diffuse all’interno delle comunità online dopo essere state generate. Sebbene le immagini identificate nell’indagine siano state sfocate dai ricercatori quando presentate nel rapporto, l’attività dimostra come i sistemi di IA generativa possano essere utilizzati per produrre contenuti espliciti non consensuali con la partecipazione di individui reali.
La pornografia deepfake che coinvolge personaggi pubblici ha in passato attirato l’attenzione sulle piattaforme social e nei dibattiti legali sulla moderazione dei contenuti online. Incidenti passati che hanno coinvolto immagini manipolate di celebrità hanno generato milioni di visualizzazioni e stimolato discussioni su possibili risposte regolatorie.
L’indagine ha inoltre evidenziato il ruolo di 4chan nella distribuzione di tali materiali. Il forum delle immagini è da tempo oggetto di attenzione per la diffusione di contenuti dannosi o illegali, inclusi disinformazione e materiale esplicito. Nel giugno 2025, l’ente regolatore britannico delle comunicazioni Ofcom ha aperto un’indagine sulla piattaforma ai sensi dell’Online Safety Act a causa di preoccupazioni riguardo alla moderazione dei contenuti e al rispetto delle norme di sicurezza.
I ricercatori hanno affermato che l’ultimo caso illustra come nuove tecniche per adattare i modelli di IA stiano permettendo agli utenti di creare deepfake altamente mirati di individui specifici e distribuirli rapidamente attraverso le comunità online.
