Las autoridades surcoreanas han arrestado a un contratista informático acusado de robar más de 221.000 fotos personales de escuelas, hospitales e instituciones gubernamentales y de utilizar dichas imágenes para crear pornografía deepfake y otros contenidos sexuales ilegales.
Según los investigadores, el sospechoso trabajaba como contratista de TI externalizado con acceso a sistemas pertenecientes a múltiples organizaciones. La policía alega que copió en secreto grandes volúmenes de fotos y datos personales almacenados durante varios años mientras realizaba trabajos de mantenimiento y soporte técnico.
Las autoridades afirman que las imágenes robadas se utilizaron posteriormente para generar pornografía deepfake no consensuada dirigida a mujeres y menores. Los investigadores descubrieron aproximadamente 405GB de material ilegal durante el caso, incluyendo imágenes explícitas manipuladas, grabaciones de cámaras ocultas y contenido de abuso sexual infantil.
La investigación comenzó después de que el sospechoso dejara accidentalmente un dispositivo de almacenamiento USB en un colegio donde había estado trabajando. Según se informa, los empleados descubrieron archivos sospechosos en el dispositivo y alertaron a las autoridades, lo que llevó a la policía a iniciar una investigación forense más amplia sobre las actividades del contratista.
Posteriormente, la policía registró la residencia y los dispositivos electrónicos del sospechoso, donde supuestamente encontraron datos robados adicionales y contenido sexual generado por IA. Las autoridades creen que la operación pudo haber estado activa durante años antes de ser descubierta.
Los investigadores dijeron que las fotos robadas procedían de una amplia variedad de instituciones, incluyendo centros educativos, organizaciones médicas y sistemas del sector público donde el contratista tenía acceso administrativo o relacionado con el mantenimiento. La magnitud de la brecha ha suscitado preocupaciones sobre los controles internos de seguridad y la supervisión de terceros en las instituciones surcoreanas.
Las autoridades no han hecho públicas el número total de víctimas potencialmente afectadas por el incidente. Sin embargo, dado el volumen de imágenes involucradas, las autoridades creen que miles de personas podrían haber visto fotos personales expuestas o manipuladas sin su conocimiento.
El caso ha intensificado la preocupación pública en Corea del Sur por el uso creciente de herramientas de IA generativa para crear contenido sexual realista y no consensuado. Los avances en el software de deepfake han hecho cada vez más fácil generar imágenes explícitas falsas utilizando fotos ordinarias extraídas de registros escolares, cuentas de redes sociales o bases de datos internas.
Las autoridades continúan analizando los archivos incautados para identificar a las víctimas y determinar si alguno de los materiales fue distribuido a través de comunidades en línea o plataformas de mensajería cifrada.
El sospechoso ahora se enfrenta a múltiples cargos relacionados con violaciones de la privacidad, producción ilegal de pornografía y posesión de material de abuso sexual infantil. Los investigadores surcoreanos afirman que podrían seguir cargos adicionales a medida que continúe la investigación forense.
