As autoridades sul-coreanas prenderam um contratado de TI acusado de roubar mais de 221.000 fotos pessoais de escolas, hospitais e instituições governamentais e de usar essas imagens para criar pornografia deepfake e outros conteúdos sexuais ilegais.

 

 

Segundo os investigadores, o suspeito trabalhava como um contratado de TI terceirizado, com acesso a sistemas pertencentes a várias organizações. A polícia alega que ele copiou secretamente grandes volumes de fotos e dados pessoais armazenados ao longo de vários anos enquanto realizava manutenção e suporte técnico.

As autoridades dizem que as imagens roubadas foram posteriormente usadas para gerar pornografia deepfake não consensual, direcionada a mulheres e menores. Os investigadores teriam descoberto aproximadamente 405GB de material ilegal durante o caso, incluindo imagens explícitas manipuladas, gravações de câmeras escondidas e conteúdo de abuso sexual infantil.

A investigação começou depois que o suspeito deixou acidentalmente um dispositivo de armazenamento USB em uma escola onde estava trabalhando. Funcionários teriam descoberto arquivos suspeitos no dispositivo e alertado as autoridades, levando a polícia a iniciar uma investigação forense mais ampla sobre as atividades do contratado.

Posteriormente, a polícia revistou a residência e os dispositivos eletrônicos do suspeito, onde supostamente encontraram dados roubados adicionais e conteúdo sexual gerado por IA. As autoridades acreditam que a operação pode estar ativa há anos antes de ser descoberta.

Investigadores disseram que as fotos roubadas vieram de uma ampla variedade de instituições, incluindo instituições educacionais, organizações médicas e sistemas do setor público onde o contratado tinha acesso administrativo ou relacionado à manutenção. A dimensão da violação levantou preocupações sobre controles internos de segurança e supervisão de terceiros contratados dentro das instituições sul-coreanas.

As autoridades não divulgaram publicamente o número total de vítimas potencialmente afetadas pelo incidente. No entanto, dado o volume de imagens envolvidas, as autoridades acreditam que milhares de pessoas podem ter tido fotos pessoais expostas ou manipuladas sem seu conhecimento.

O caso intensificou a preocupação pública na Coreia do Sul com o uso crescente de ferramentas de IA generativa para criar conteúdo sexual realista e não consensual. Os avanços no software de deepfake tornaram cada vez mais fácil gerar imagens falsas explícitas usando fotos comuns extraídas de registros escolares, redes sociais ou bancos de dados internos.

As autoridades continuam analisando os arquivos apreendidos para identificar as vítimas e determinar se algum material foi distribuído por meio de comunidades online ou plataformas de mensagens criptografadas.

O suspeito agora enfrenta múltiplas acusações relacionadas a violações de privacidade, produção ilegal de pornografia e posse de material de abuso sexual infantil. Investigadores sul-coreanos dizem que novas acusações podem ocorrer à medida que a investigação forense avança.

Deixar uma resposta