Anonim çevrimiçi görsel panosu 4chan’daki kullanıcılar, ABD’li artistik patenci Alysa Liu dahil olmak üzere birkaç kadın Olimpiyat sporcunun rızasız deepfake çıplak fotoğraflarını oluşturup paylaşıyorlar, yakın zamanda yapılan bir soruşturmaya threat intelligence firm Graphika göre.
Etkinliğin 2026 Kış Olimpiyatları sırasında başladığı bildirildi; platformdaki kullanıcılar yapay zeka araçlarıyla oluşturulan sporcuların manipüle edilmiş görüntülerini paylaşmaya başladı. Soruşturmada tespit edilen kurbanlar arasında Amerikalı artistik patenciler Alysa Liu, Amber Glenn ve Isabeau Levito ile serbest stil kayakçı Eileen Gu ve alp kayakçısı Mikaela Shiffrin bulunuyor.
Araştırmacılar, forumdaki katılımcıların sporcuların halka açık fotoğraflarını kullandığını ve bunları açık görüntüler üretmek için tasarlanmış üretken yapay zeka sistemleri kullanarak değiştirdiklerini söylediler. Soruşturmada gösterilen bir örnekte, kullanıcılar Liu’nun giyinmiş fotoğraflarını gönderdi ve modellerden onu giysisiz tasvir eden değiştirilmiş görüntüler yaratmalarını istedi.
Kampanya, kullanıcıların belirli bireyleri daha doğru şekilde yeniden üretecek üretken yapay zeka modellerini ince ayarlamasına olanak tanıyan düşük rütbe adaptasyonu (LoRA) adlı bir tekniğe dayanıyordu. Tüm modeli yeniden eğitmek yerine, yöntem hedef bir kişinin görünümüne uygun görüntüler üretmesini sağlayan küçük bir ek parametre seti ekler.
Bu değişiklikleri oluşturmak için kullanıcılar, belirli bir bireyin halka açık fotoğraflarıyla sistemi eğitebilirler. Uyarlama dosyası oluşturulduktan sonra, diğer kullanıcılarla paylaşılabilir ve onlar da kendi yerel çalıştırılan modellerine yükleyebilirler. Bu, birden fazla kişinin aynı eğitilmiş parametrelerle benzer deepfake görüntüler oluşturmasına olanak tanır.
Araştırmacılar, bu tekniğin, uyarlama dosyalarının tekrar kullanılıp çevrimiçi topluluklar arasında dağıtılabildiği için hedefe yönelik deepfake içerik üretme teknik engelini azalttığını söyledi. Paylaşıldıktan sonra, dosyalar kullanıcıların orijinal eğitim sürecini tekrarlamadan aynı kişinin görüntülerini üretmesini sağlar.
Rapor ayrıca, manipüle edilen görüntülerin oluşturulduktan sonra çevrimiçi topluluklarda geniş çapta dolaştığı belirtildi. Araştırmada tespit edilen görüntüler raporda sunulduğunda araştırmacılar tarafından bulanıklaştırılmış olsa da, bu faaliyet, üretken yapay zeka sistemlerinin gerçek bireyleri içeren rızasız açık içerik üretmek için nasıl kullanılabileceğini gösteriyor.
Kamu figürlerini içeren deepfake pornografi, daha önce sosyal medya platformlarında ve çevrimiçi içerik moderasyonu ile ilgili hukuki tartışmalarda dikkat çekti. Ünlülerin manipüle edilmiş fotoğraflarıyla ilgili geçmiş olaylar milyonlarca izlenme yaratmış ve olası düzenleyici tepkiler üzerine tartışmalara yol açmıştır.
Soruşturma ayrıca 4chan’ın bu tür materyallerin dağıtımındaki rolünü de vurguladı. Imageboard, zararlı veya yasa dışı içeriklerin, yanlış bilgi ve açık içerikler dahil olmak üzere, uzun süredir incelemeye maruz kalıyor. Haziran 2025’te, Birleşik Krallık’ın iletişim düzenleyicisi Ofcom, içerik moderasyonu ve güvenlik kurallarına uyum konusundaki endişeler nedeniyle Çevrimiçi Güvenlik Yasası kapsamında platforma yönelik bir soruşturma başlattı.
Araştırmacılar, son vakanın yapay zeka modellerini uyarlamak için yeni tekniklerin kullanıcıların belirli bireylerin yüksek hedefli deepfake içeriklerini oluşturup bunları çevrimiçi topluluklar aracılığıyla hızla dağıtmasını nasıl mümkün kıldığını gösterdiğini söyledi.
