2 Remove Virus

Güney Koreli BT yüklenicisi, deepfake pornografisi yaratmak için 221.000 fotoğraf çalmakla suçlanıyor

Güney Kore yetkilileri, okullardan, hastanelerden ve devlet kurumlarından 221.000’den fazla kişisel fotoğraf çalmakla ve bu görüntüleri derin sahte pornografi ve diğer yasa dışı cinsel içerikler oluşturmak için kullanmakla suçlanan bir BT yüklenicisini tutukladı.

 

 

Soruşturmacılara göre, şüpheli birden fazla kuruluşa ait sistemlere erişimi olan dış kaynak IT yüklenicisi olarak çalışıyordu. Polis, bakım ve teknik destek işleri yaparken yıllar boyunca gizlice büyük miktarda saklanan fotoğraf ve kişisel veri kopyaladığını iddia ediyor.

Yetkililer, çalınan görüntülerin daha sonra kadınları ve reşit olmayanları hedef alan rızası olmayan deepfake pornografi üretmek için kullanıldığını söylüyor. Soruşturmacıların dava sırasında manipüle edilmiş açık görüntüler, gizli kamera kayıtları ve çocuk cinsel istismarı içeren içerikler dahil yaklaşık 405GB yasa dışı materyal ortaya çıkardığı bildirildi.

Soruşturma, şüphelinin çalıştığı bir okulda yanlışlıkla bir USB depolama cihazı bırakmasının ardından başladı. Personelin cihazda şüpheli dosyalar bulup yetkilileri bilgilendirdiği ve polisin yüklenicinin faaliyetlerine dair daha geniş bir adli soruşturma başlatmasına yol açtı.

Polis daha sonra şüphelinin evini ve elektronik cihazlarını aradı; iddiaya göre ek çalınmış veriler ve yapay zeka tarafından oluşturulan cinsel içerik bulundu. Yetkililer, operasyonun ortaya çıkmadan önce yıllarca aktif olabileceğine inanıyor.

Soruşturmacılar, çalınan fotoğrafların eğitim tesisleri, sağlık kuruluşları ve yüklenicinin idari veya bakım ile ilgili erişimi olan kamu sektörü sistemleri dahil olmak üzere çok çeşitli kurumlardan geldiğini söyledi. İhlalın boyutu, Güney Kore kurumlarındaki iç güvenlik kontrolleri ve üçüncü taraf yüklenici denetimi konusunda endişeleri artırdı.

Yetkililer, olaydan etkilenebilecek toplam mağdur sayısını kamuoyuna açıklamadı. Ancak, bu kadar çok görüntü göz önüne alındığında, yetkililer binlerce kişinin kişisel fotoğraflarının farkında olmadan ortaya çıkarılmış veya manipüle edilmiş olabileceğine inanıyor.

Bu dava, Güney Kore’de gerçekçi, rızasız cinsel içerik oluşturmak için üretken yapay zeka araçlarının giderek artan kullanımı konusunda kamuoyu endişesini artırdı. Deepfake yazılımlarındaki gelişmeler, okul kayıtlarından, sosyal medya hesaplarından veya dahili veritabanlarından alınan sıradan fotoğraflarla açık sahte görüntüler üretmeyi giderek kolaylaştırdı.

Yetkililer, el konulan dosyaları analiz etmeye devam ediyor; mağdurları tanımlamak ve materyallerin herhangi birinin çevrimiçi topluluklar veya şifreli mesajlaşma platformları aracılığıyla dağıtılıp dağıtılmadığını belirlemek için.

Şüpheli şimdi gizlilik ihlalleri, yasa dışı pornografi üretimi ve çocuk cinsel istismarı materyali bulundurma gibi birçok suçlamayla karşı karşıya. Güney Koreli soruşturmacılar, adli soruşturma devam ederken ek suçlamaların gelebileceğini söylüyor.