Güney Kore, yetkililerin kadınları ve reşit olmayanları hedef alan deepfake pornografisi oluşturan ve dağıtan devasa ağları ortaya çıkarmasıyla hızla artan yapay zeka kaynaklı cinsel suç dalgasıyla karşı karşıya.
Son dava, okullardan, hastanelerden ve kamu kurumlarından 221.000’den fazla özel fotoğrafı çalarak cinsel açıdan açık derin sahte içerik oluşturmakla suçlanan bir BT yüklenicisini kapsıyor. Soruşturmacılara göre, şüphelinin çalınan görüntüleri rızasız pornografi üretmek için kullandığı ve materyali yıllar boyunca çevrimiçi yaydığı iddia ediliyor.
Polisin soruşturma sırasında derin sahte pornografi, gizli kamera kayıtları ve çocuk cinsel istismarı içeren içerikler dahil olmak üzere 400GB’dan fazla yasa dışı materyal keşfettiği bildirildi. Yetkililer, şüphelinin birden fazla kuruluşta yüklenici olarak çalışırken hassas sistemlere erişim sağladığını belirtti.
Bu dava, üretken yapay zeka araçlarındaki ilerlemeler ve şifreli çevrimiçi toplulukların yayılması ile birlikte yoğunlaşan Güney Kore’nin büyüyen deepfake istismar krizinin en son örneğidir. Uzmanlar, giderek daha erişilebilir olan yapay zeka yazılımlarının sıradan kullanıcıların yalnızca birkaç kamuya açık fotoğrafla gerçekçi sahte cinsel görüntüler oluşturmasına olanak tanıdığını söylüyor.
Güney Kore yetkilileri, gençlerin hem mağdur hem de fail olarak giderek daha fazla dahil olduğu konusunda defalarca uyarıda bulundu. Reuters’ın aktardığı polis verileri, derin sahte cinsel suç soruşturmalarının 2021’de 156 vakadan 2024’e kadar yıllık yüzlerce vakaya yükseldiğini ve birçok olayın okullar ve üniversite topluluklarıyla bağlantılı olduğunu gösterdi.
İçerik dağıtımının büyük bir kısmının Güney Koreli araştırmacılar için ana odak haline gelen Telegram sohbet odaları etrafında şekillendiği bildiriliyor. Yetkililer, Koreli kadınlar ve kızları hedef alan yapay zeka ile oluşturulan cinsel içerik paylaşan büyük grupları keşfettikten sonra Telegram ile ilgili deepfake ağlarına yönelik soruşturmalar başlatmıştı.
Bu konu, dijital cinsel suçların “Nth Room” istismar ağı gibi skandalların ardından yıllardır büyük bir sosyal ve siyasi konu olduğu Güney Kore’de yaygın kamuoyu öfkesine yol açtı. Araştırmacılar, yapay zeka kaynaklı sömürünün artmasının çevrimiçi istismarın ölçeğini ve erişilebilirliğini dramatik şekilde artırdığını söylüyor.
Reuters’ın referans verdiği 2023 sektör raporuna göre, Güney Koreli kadınlar dünya genelinde deepfake pornografisinde yer alan mağdurların orantısız büyük bir kısmını oluşturuyor; bunlar arasında K-pop şarkıcıları, öğrenciler, influencerlar ve sıradan vatandaşlar da var.
Eleştirmenler, yapay zeka araçlarının sömürüşü daha kolay, hızlı ve tespit edilmesi daha zor hale getirdiğini savunuyor. Modern deepfake yazılımları, tüketici sınıfı donanım ve halka açık makine öğrenimi modelleri kullanarak dakikalar içinde gerçekçi sahte cinsel görüntüler üretebiliyor. Araştırmacılar yakın zamanda çevrimiçi dolaşan on binlerce indirilebilir deepfake model varyantını tespit etti; bunların çoğu özellikle kadınları hedef alan rızasız açık içerik oluşturmak için tasarlandı.
Büyüyen kriz, Güney Kore’de giderek daha agresif hukuki tepkileri tetikledi. Yasama organları, 2024’te yalnızca cinsel sömürücü deepfake yapımlarını ve dağıtımını değil, aynı zamanda bu tür materyallerin bulundurulması, görüntülenmesi ve saklanmasını da suç sayan yasaları güçlendirdi. Suçlular hapis cezası ve önemli para cezalarıyla karşı karşıya kalabilirler.
Yetkililer ayrıca izleme operasyonlarını genişletti, özel siber suç soruşturmaları başlattı ve çevrimiçi platformlara yasa dışı içerikleri daha agresif şekilde kaldırmaları için baskı yaptı. Ancak uzmanlar, deepfake içeriğin şifreli kanallar, anonim forumlar ve yurtdışı web sitelerinde hızla yayıldığı için uygulamanın hâlâ zor olduğunu söylüyor.
Güney Kore’de dijital cinsel şiddeti inceleyen araştırmacılar, sorunun teknolojinin ötesine de uzandığını savunuyor. Son akademik analizler, deepfake istismarını, giderek daha gelişmiş dijital araçlarla güçlenen daha geniş bir çevrimiçi kadın düşmanlığı, taciz ve sömürü modelinin parçası olarak tanımladı.
Gizlilik savunucuları ve mağdur destek grupları, deepfake cinsel suçlarının neden olduğu psikolojik zararın yıkıcı olabileceği konusunda uyarıyor; özellikle de mağdurların manipüle edilmiş görüntüler çevrimiçi yayıldıktan sonra tamamen kaldırmakta zorlandığı için. Sahte olsa bile, içerik itibara zarar verebilir, travma, şantaj ve uzun süreli tacize yol açabilir.
En son soruşturma, yapay zeka tarafından oluşturulan sömürünün, hükümetlerin hızla gelişen üretken yapay zeka teknolojisine yasa ve uygulama stratejilerini uyarlamak için yarıştığı bir dönemde, dünya çapında en hızlı büyüyen siber istismar türlerinden biri haline geldiğini vurguluyor.