2 Remove Virus

La crisis de delitos sexuales deepfake en Corea del Sur empeora a medida que el abuso de IA se propaga por escuelas y grupos de Telegram

Corea del Sur se enfrenta a una oleada de delitos sexuales impulsados por IA en rápida escalada, ya que las autoridades descubren enormes redes que crean y distribuyen pornografía deepfake dirigida a mujeres y menores.

 

 

El último caso involucra a un contratista informático acusado de robar más de 221.000 fotos privadas de colegios, hospitales e instituciones públicas para crear contenido deepfake sexualmente explícito. Según los investigadores, el sospechoso presuntamente utilizó imágenes robadas para generar pornografía no consensuada y distribuyó el material en línea durante varios años.

La policía descubrió supuestamente más de 400GB de material ilegal durante la investigación, incluyendo pornografía deepfake, grabaciones con cámaras ocultas y contenido de abuso sexual infantil. Las autoridades dijeron que el sospechoso accedió a sistemas sensibles mientras trabajaba como contratista para varias organizaciones.

El caso es el último ejemplo de la creciente crisis de explotación de deepfake en Corea del Sur, que se ha intensificado junto con los avances en herramientas de IA generativa y la expansión de comunidades en línea cifradas. Los expertos advierten que el software de IA cada vez más accesible permite ahora a los usuarios comunes crear imágenes sexuales falsas realistas usando solo unas pocas fotos públicas.

Las autoridades surcoreanas han advertido repetidamente que los adolescentes están cada vez más implicados tanto como víctimas como perpetradores. Los datos policiales citados por Reuters mostraron que las investigaciones sobre delitos sexuales deepfake pasaron de 156 casos en 2021 a cientos anuales en 2024, con muchos incidentes vinculados a escuelas y comunidades universitarias.

Gran parte de la distribución del contenido se ha centrado supuestamente en las salas de chat de Telegram, que se han convertido en un foco principal para los investigadores surcoreanos. Las autoridades ya habían iniciado investigaciones sobre redes deepfake relacionadas con Telegram tras descubrir grandes grupos que compartían contenido sexual generado por IA dirigido a mujeres y niñas coreanas.

El asunto ha provocado una amplia indignación pública en toda Corea del Sur, donde los delitos sexuales digitales ya han sido un importante asunto social y político durante años tras escándalos como la infame red de abusos “Nth Room”. Los investigadores afirman que el auge de la explotación generada por IA ha ampliado drásticamente la escala y accesibilidad del abuso en línea.

Según un informe del sector de 2023 mencionado por Reuters, las mujeres surcoreanas representan una proporción desproporcionadamente grande de las víctimas que aparecen en pornografía deepfake a nivel mundial, incluyendo cantantes de K-pop, estudiantes, influencers y ciudadanos comunes.

Los críticos argumentan que las herramientas de IA han facilitado, acelerado y dificultado la detección de la explotación. El software moderno de deepfake puede generar imágenes sexuales falsas y realistas en minutos utilizando hardware de consumo y modelos de aprendizaje automático disponibles públicamente. Recientemente, los investigadores identificaron decenas de miles de variantes de modelos deepfake descargables que circulan en línea, muchas diseñadas específicamente para crear contenido explícito no consensuado dirigido a mujeres.

La creciente crisis ha provocado respuestas legales cada vez más agresivas en Corea del Sur. Los legisladores reforzaron la legislación en 2024 para criminalizar no solo la creación y distribución de deepfakes sexualmente explotadores, sino también la posesión, visualización y almacenamiento de dicho material. Los delincuentes pueden enfrentarse a penas de prisión y multas considerables.

Las autoridades también han ampliado las operaciones de vigilancia, han lanzado investigaciones especiales sobre ciberdelitos y han presionado a las plataformas online para que eliminen contenido ilegal de forma más agresiva. Sin embargo, los expertos advierten que la aplicación sigue siendo difícil porque el contenido deepfake se propaga rápidamente a través de canales cifrados, foros anónimos y sitios web extranjeros.

Investigadores que estudian la violencia sexual digital en Corea del Sur sostienen que el problema va más allá de la propia tecnología. Análisis académicos recientes describieron el abuso deepfake como parte de un patrón más amplio de misoginia, acoso y explotación en línea, amplificado por herramientas digitales cada vez más sofisticadas.

Los defensores de la privacidad y los grupos de apoyo a víctimas advierten que el daño psicológico causado por delitos sexuales deepfake puede ser devastador, especialmente porque a menudo les cuesta eliminar completamente las imágenes manipuladas una vez que se difunden en internet. Incluso cuando es falso, el contenido puede causar daño reputacional, trauma, chantaje y acoso a largo plazo.

La última investigación subraya cómo la explotación generada por IA se está convirtiendo en una de las formas de abuso cibernético de más rápido crecimiento a nivel mundial, mientras los gobiernos compiten por adaptar leyes y estrategias de aplicación a la tecnología de IA generativa que evoluciona rápidamente.