2 Remove Virus

Los usuarios de 4chan generan imágenes deepfake desnudas de la patinadora olímpica Alysa Liu

Usuarios del foro anónimo de imágenes en línea 4chan han estado generando y compartiendo imágenes deepfake no consensuadas desnudas de varias atletas olímpicas, incluida la patinadora artística estadounidense Alysa Liu, según una investigación reciente de threat intelligence firm Graphika .

 

 

Se informa que la actividad comenzó durante los Juegos Olímpicos de Invierno de 2026, cuando los usuarios de la plataforma comenzaron a publicar imágenes manipuladas de atletas creadas con herramientas de inteligencia artificial. Las víctimas identificadas en la investigación incluyen a las patinadoras artísticas estadounidenses Alysa Liu, Amber Glenn e Isabeau Levito, así como a la esquiadora de estilo libre Eileen Gu y la esquiadora alpina Mikaela Shiffrin.

Los investigadores dijeron que los participantes en el foro usaron fotos públicas de los atletas y las modificaron utilizando sistemas de IA generativa diseñados para producir imágenes explícitas. En un ejemplo citado en la investigación, los usuarios enviaron fotografías vestidas de Liu y solicitaron a las modelos que crearan imágenes alteradas que la representaran sin ropa.

La campaña se basó en una técnica conocida como adaptación de bajo rango, o LoRA, que permite a los usuarios afinar modelos de IA generativa para reproducir individuos específicos con mayor precisión. En lugar de reentrenar un modelo completo, el método añade un pequeño conjunto de parámetros adicionales que permiten al sistema generar imágenes que coincidan con la apariencia de una persona objetivo.

Para crear estas modificaciones, los usuarios pueden entrenar el sistema con imágenes públicas de un individuo específico. Una vez creado el archivo de adaptación, puede compartirse con otros usuarios que pueden cargarlo en sus propios modelos locales. Esto permite que varias personas generen imágenes deepfake similares usando los mismos parámetros entrenados.

Los investigadores afirmaron que la técnica reduce la barrera técnica para producir contenido deepfake dirigido porque los archivos de adaptación pueden reutilizarse y distribuirse entre comunidades online. Una vez compartidos, los archivos permiten a los usuarios producir imágenes de la misma persona sin repetir el proceso de entrenamiento original.

El informe también señaló que las imágenes manipuladas se difundieron ampliamente dentro de comunidades en línea tras ser generadas. Aunque las imágenes identificadas en la investigación fueron difuminadas por los investigadores cuando se presentaron en el informe, la actividad demuestra cómo los sistemas de IA generativa pueden usarse para producir contenido explícito no consensuado con personas reales.

La pornografía deepfake que involucra a figuras públicas ha atraído anteriormente la atención en plataformas de redes sociales y en debates legales sobre la moderación de contenido en línea. Incidentes pasados que involucraron imágenes manipuladas de celebridades han generado millones de visualizaciones y han generado debates sobre posibles respuestas regulatorias.

La investigación también destacó el papel de 4chan en la distribución de dicho material. El tablero de imágenes ha sido objeto durante mucho tiempo de escrutinio por la difusión de contenido dañino o ilegal, incluyendo desinformación y material explícito. En junio de 2025, el regulador de comunicaciones del Reino Unido, Ofcom, abrió una investigación sobre la plataforma bajo la Ley de Seguridad en Línea debido a preocupaciones sobre la moderación de contenidos y el cumplimiento de las normas de seguridad.

Los investigadores afirmaron que el último caso ilustra cómo las nuevas técnicas para adaptar modelos de IA están permitiendo a los usuarios crear deepfakes altamente dirigidos de individuos específicos y distribuirlos rápidamente a través de comunidades en línea.