Nutzer des anonymen Online-Imageboards 4chan generieren und teilen laut einer aktuellen Untersuchung von threat intelligence firm Graphika .

 

 

Die Aktivität begann Berichten zufolge während der Olympischen Winterspiele 2026, als Nutzer auf der Plattform begannen, manipulierte Bilder von Athleten zu posten, die mit künstlicher Intelligenz erstellt wurden. Zu den in den Ermittlungen identifizierten Opfern zählen die amerikanischen Eiskunstläuferinnen Alysa Liu, Amber Glenn und Isabeau Levito sowie die Freestyle-Skifahrerin Eileen Gu und die Alpinskifahrerin Mikaela Shiffrin.

Forscher sagten, die Teilnehmer des Forums hätten öffentlich zugängliche Fotos der Athleten verwendet und diese mit generativen KI-Systemen modifiziert, die explizite Bilder erzeugen sollen. In einem Beispiel, das in der Untersuchung genannt wurde, reichten Nutzer bekleidete Fotos von Liu ein und baten die Models, veränderte Bilder zu erstellen, die sie ohne Kleidung zeigen.

Die Kampagne basierte auf einer Technik namens Low Rank Adaptation, oder LoRA, die es Nutzern ermöglicht, generative KI-Modelle so zu optimieren, dass sie bestimmte Personen genauer reproduzieren können. Anstatt ein ganzes Modell neu zu trainieren, fügt die Methode eine kleine Menge zusätzlicher Parameter hinzu, die es dem System ermöglichen, Bilder zu erzeugen, die dem Aussehen einer Zielperson entsprechen.

Um diese Modifikationen zu erstellen, können Nutzer das System mit öffentlich verfügbaren Bildern einer bestimmten Person trainieren. Sobald die Anpassungsdatei erstellt ist, kann sie mit anderen Benutzern geteilt werden, die sie in ihre eigenen lokal ausgeführten Modelle laden können. Dies ermöglicht es mehreren Personen, ähnliche Deepfake-Bilder mit denselben trainierten Parametern zu erstellen.

Forscher erklärten, dass die Technik die technische Hürde für die Erstellung gezielter Deepfake-Inhalte senkt, da die Adaptionsdateien wiederverwendet und in Online-Communities verteilt werden können. Nach dem Teilen ermöglichen die Dateien den Nutzern, Bilder derselben Person zu erstellen, ohne den ursprünglichen Trainingsprozess wiederholen zu müssen.

Der Bericht wies außerdem darauf hin, dass die manipulierten Bilder nach der Erstellung innerhalb von Online-Communities weit verbreitet wurden. Obwohl die in der Untersuchung identifizierten Bilder von den Forschern im Bericht verwischt wurden, zeigt die Aktivität, wie generative KI-Systeme genutzt werden können, um nicht-einvernehmliche explizite Inhalte mit realen Personen zu erzeugen.

Deepfake-Pornografie mit öffentlichen Persönlichkeiten hat zuvor auf sozialen Medienplattformen und in juristischen Debatten über Online-Inhaltsmoderation Aufmerksamkeit erregt. Vergangene Vorfälle mit manipulierten Bildern von Prominenten haben Millionen von Aufrufen generiert und Diskussionen über mögliche regulatorische Maßnahmen ausgelöst.

Die Untersuchung hob auch die Rolle von 4chan bei der Verbreitung solcher Materialien hervor. Das Imageboard steht seit langem wegen der Verbreitung schädlicher oder illegaler Inhalte, einschließlich Fehlinformationen und explizitem Material, unter Beobachtung. Im Juni 2025 leitete die britische Kommunikationsaufsichtsbehörde Ofcom eine Untersuchung der Plattform gemäß dem Online Safety Act ein, da Bedenken hinsichtlich der Inhaltsmoderation und der Einhaltung von Sicherheitsvorschriften bezüglich der Moderation von Inhalten untersucht wurden.

Forscher sagten, der jüngste Fall zeigt, wie neue Techniken zur Anpassung von KI-Modellen es Nutzern ermöglichen, hochgezielte Deepfakes bestimmter Personen zu erstellen und diese schnell über Online-Communities zu verbreiten.

Hinterlasse eine Antwort