Der Empfehlungsalgorithmus von TikTok hat während des US-Präsidentschaftswahlzyklus 2024 systematisch mehr republikanisch ausgerichtete politische Inhalte verbreitet, so eine neue peer-reviewed study published in Nature .

 

 

Forscher der New York University Abu Dhabi führten eine der größten unabhängigen Prüfungen des TikTok-Empfehlungssystems “For You” durch und nutzten 323 automatisierte Konten, die Nutzer mit unterschiedlichen politischen Präferenzen simulieren sollten. Die Konten hatten ihren Sitz in New York, Texas und Georgia und analysierten gemeinsam mehr als 280.000 empfohlene Videos über einen Zeitraum von 27 Wochen während des Wahlkampfs.

Die Studie ergab, dass Konten, die mit republikanischen Inhalten trainiert sind, etwa 11,5 % mehr politisch ausgerichtete Empfehlungen erhielten als demokratisch orientierte Konten. Unterdessen waren demokratisch orientierte Konten etwa 7,5 % mehr republikanischen Inhalten ausgesetzt als republikanisch orientierte Konten von der Gegenseite.

Forscher sagten, das Ungleichgewicht hielt in allen drei untersuchten Bundesstaaten an und blieb auch nach Berücksichtigung von Engagement-Kennzahlen wie Likes, Kommentaren, Aufrufen und Shares sichtbar.

Das Papier fand auch Asymmetrien darin, wie politische Themen verteilt wurden. Demokratisch orientierte Accounts zeigten häufiger parteiübergreifende Inhalte zu Einwanderung und Kriminalität, während republikanisch orientierte Accounts mehr abtreibungsbezogene politische Inhalte zeigten. Forscher vermuteten, dass der Algorithmus Inhalte verstärkt haben könnte, die auf wahrgenommene Schwächen gegnerischer politischer Gruppen abzielen.

Im Gegensatz zu Plattformen, auf denen Nutzer hauptsächlich Feeds manuell durch das Folgen von Konten erstellen, setzt TikToks “For You”-Seite stark auf algorithmische Empfehlungen, die durch Beobachtungsverhalten und Engagement-Signale gesteuert werden. Forscher argumentierten, dass dies TikTok besonders nützlich macht, um algorithmischen Einfluss zu untersuchen, da Nutzer weniger direkte Kontrolle darüber haben, welche Inhalte in ihren Feeds erscheinen.

TikTok bestritt die Ergebnisse und erklärte, dass das Experiment mit automatisierten Konten nicht genau darstelle, wie echte Nutzer die Plattform erleben. Das Unternehmen erklärte, dass Nutzer Empfehlungen aktiv durch zahlreiche Kontrollen und Interaktionen gestalten, die im Studiendesign nicht vollständig widergespiegelt sind.

Die Forscher sagten, die Studie belege keine absichtliche politische Manipulation oder direkte Wahleinmischung. Stattdessen argumentieren sie, dass die Ergebnisse zeigen, wie Empfehlungssysteme unbeabsichtigt systematische politische Ungleichgewichte in großem Maßstab schaffen können.

Das Papier erscheint angesichts wachsender Kritik über den politischen Einfluss von Social-Media-Algorithmen, insbesondere auf Plattformen, die von jüngeren Wählern stark genutzt werden. TikTok dient heute als wichtige Nachrichten- und politische Informationsquelle für Millionen Amerikaner unter 30.

Forscher warnten, dass selbst relativ kleine Empfehlungsverschiebungen den öffentlichen Diskurs beeinflussen könnten, wenn sie bei hart umkämpften Wahlen auf große Zielgruppen angewendet werden.

Hinterlasse eine Antwort