2 Remove Virus

Crise de crimes sexuais deepfake na Coreia do Sul piora à medida que o abuso de IA se espalha por escolas e grupos do Telegram

A Coreia do Sul enfrenta uma onda de crimes sexuais impulsionados por IA em rápida escalada, enquanto as autoridades descobrem grandes redes criando e distribuindo pornografia deepfake que tem como alvo mulheres e menores.

 

 

O caso mais recente envolve um contratado de TI acusado de roubar mais de 221.000 fotos privadas de escolas, hospitais e instituições públicas para criar conteúdo deepfake sexualmente explícito. Segundo os investigadores, o suspeito supostamente usou imagens roubadas para gerar pornografia não consensual e distribuiu o material online ao longo de vários anos.

A polícia teria descoberto mais de 400GB de material ilegal durante a investigação, incluindo pornografia deepfake, gravações de câmeras escondidas e conteúdo de abuso sexual infantil. As autoridades disseram que o suspeito teve acesso a sistemas sensíveis enquanto trabalhava como contratado para várias organizações.

O caso é o exemplo mais recente da crescente crise de exploração de deepfake na Coreia do Sul, que se intensificou junto com os avanços em ferramentas de IA generativa e a disseminação de comunidades online criptografadas. Especialistas alertam que softwares de IA cada vez mais acessíveis agora permitem que usuários comuns criem imagens sexuais falsas realistas usando apenas algumas fotos publicamente disponíveis.

As autoridades sul-coreanas alertaram repetidamente que adolescentes estão cada vez mais envolvidos, tanto como vítimas quanto como agressores. Dados policiais citados pela Reuters mostraram que investigações de crimes sexuais deepfake aumentaram de 156 casos em 2021 para centenas de casos anuais até 2024, com muitos incidentes ligados a escolas e comunidades universitárias.

Grande parte da distribuição de conteúdo teria se concentrado em salas de bate-papo do Telegram, que se tornaram um foco importante para investigadores sul-coreanos. As autoridades já iniciaram investigações sobre redes deepfake relacionadas ao Telegram após descobrirem grandes grupos compartilhando conteúdo sexual gerado por IA direcionado a mulheres e meninas coreanas.

A questão gerou ampla indignação pública em toda a Coreia do Sul, onde os crimes sexuais digitais já são uma grande questão social e política há anos, após escândalos como a notória rede de abusos “Nth Room”. Pesquisadores dizem que o aumento da exploração gerada por IA expandiu dramaticamente a escala e a acessibilidade do abuso online.

De acordo com um relatório da indústria de 2023 referenciado pela Reuters, as mulheres sul-coreanas representam uma parcela desproporcionalmente grande das vítimas apresentadas em pornografia deepfake globalmente, incluindo cantoras de K-pop, estudantes, influenciadoras e cidadãos comuns.

Críticos argumentam que as ferramentas de IA tornaram a exploração mais fácil, rápida e difícil de detectar. Softwares modernos de deepfake podem gerar imagens sexuais falsas e realistas em minutos usando hardware de nível consumidor e modelos de aprendizado de máquina disponíveis publicamente. Pesquisadores identificaram recentemente dezenas de milhares de variantes de modelos deepfake para download circulando online, muitas delas especificamente projetadas para criar conteúdo explícito e não consensual direcionado a mulheres.

A crise crescente desencadeou respostas legais cada vez mais agressivas na Coreia do Sul. Os legisladores fortaleceram a legislação em 2024 para criminalizar não apenas a criação e distribuição de deepfakes sexualmente exploratórios, mas também a posse, visualização e armazenamento desse material. Os infratores podem enfrentar penas de prisão e multas substanciais.

As autoridades também ampliaram as operações de monitoramento, lançaram investigações especiais de crimes cibernéticos e pressionaram plataformas online a remover conteúdos ilegais de forma mais agressiva. No entanto, especialistas alertam que a fiscalização continua difícil porque o conteúdo deepfake se espalha rapidamente por canais criptografados, fóruns anônimos e sites internacionais.

Pesquisadores que estudam a violência sexual digital na Coreia do Sul argumentam que o problema vai além da própria tecnologia. Análises acadêmicas recentes descreveram o abuso de deepfake como parte de um padrão mais amplo de misoginia, assédio e exploração online, amplificado por ferramentas digitais cada vez mais sofisticadas.

Defensores da privacidade e grupos de apoio às vítimas alertam que os danos psicológicos causados por crimes sexuais deepfake podem ser devastadores, especialmente porque as vítimas frequentemente têm dificuldade em remover completamente imagens manipuladas depois que elas se espalham online. Mesmo quando falso, o conteúdo ainda pode causar danos à reputação, traumas, chantagem e assédio de longo prazo.

A investigação mais recente destaca como a exploração gerada por IA está se tornando uma das formas de abuso cibernético que mais cresce no mundo, enquanto os governos correm para adaptar leis e estratégias de aplicação à tecnologia de IA generativa em rápida evolução.