Usuários do quadro anônimo de imagens online 4chan têm gerado e compartilhado imagens nuas deepfake não consensuais de várias atletas olímpicas, incluindo a patinadora artística americana Alysa Liu, segundo uma investigação recente de threat intelligence firm Graphika .
A atividade teria começado durante as Olimpíadas de Inverno de 2026, quando usuários da plataforma começaram a postar imagens manipuladas de atletas criadas com ferramentas de inteligência artificial. As vítimas identificadas na investigação incluem as patinadoras artísticas americanas Alysa Liu, Amber Glenn e Isabeau Levito, além da esquiadora de estilo livre Eileen Gu e da esquiadora alpina Mikaela Shiffrin.
Pesquisadores disseram que os participantes do fórum usaram fotos públicas dos atletas e as modificaram usando sistemas de IA generativa projetados para produzir imagens explícitas. Em um exemplo citado na investigação, usuários enviaram fotografias vestidas de Liu e solicitaram que as modelos criassem imagens alteradas que a retratassem sem roupa.
A campanha baseava-se em uma técnica conhecida como adaptação de baixo rank, ou LoRA, que permite aos usuários ajustar modelos de IA generativa para reproduzir indivíduos específicos com mais precisão. Em vez de reeducar um modelo inteiro, o método adiciona um pequeno conjunto de parâmetros adicionais que permitem ao sistema gerar imagens que correspondem à aparência de uma pessoa alvo.
Para criar essas modificações, os usuários podem treinar o sistema com imagens publicamente disponíveis de um indivíduo específico. Uma vez criado o arquivo de adaptação, ele pode ser compartilhado com outros usuários que podem carregá-lo em seus próprios modelos rodados localmente. Isso permite que várias pessoas gerem imagens deepfake semelhantes usando os mesmos parâmetros treinados.
Pesquisadores disseram que a técnica reduz a barreira técnica para produzir conteúdo deepfake direcionado porque os arquivos de adaptação podem ser reutilizados e distribuídos entre comunidades online. Uma vez compartilhados, os arquivos permitem que os usuários produzam imagens da mesma pessoa sem repetir o processo de treinamento original.
O relatório também observou que as imagens manipuladas foram amplamente distribuídas dentro das comunidades online após serem geradas. Embora as imagens identificadas na investigação tenham sido borradas pelos pesquisadores quando apresentadas no relatório, a atividade demonstra como sistemas de IA generativa podem ser usados para produzir conteúdo explícito não consensual com pessoas reais.
Pornografia deepfake envolvendo figuras públicas já atraiu atenção em plataformas de redes sociais e em debates legais sobre moderação de conteúdo online. Incidentes passados envolvendo imagens manipuladas de celebridades geraram milhões de visualizações e geraram discussões sobre possíveis respostas regulatórias.
A investigação também destacou o papel do 4chan na distribuição desse tipo de material. O quadro de imagens há muito tempo enfrenta escrutínio devido à disseminação de conteúdo nocivo ou ilegal, incluindo desinformação e material explícito. Em junho de 2025, o órgão regulador de comunicações do Reino Unido, Ofcom, abriu uma investigação sobre a plataforma sob a Lei de Segurança Online devido a preocupações com moderação de conteúdo e conformidade com as regras de segurança.
Pesquisadores disseram que o caso mais recente ilustra como novas técnicas para adaptar modelos de IA estão permitindo que usuários criem deepfakes altamente direcionados de indivíduos específicos e os distribuam rapidamente por meio de comunidades online.
