2 Remove Virus

L’algorithme de TikTok favorisait le contenu républicain lors de l’élection de 2024, selon une étude de Nature

L’algorithme de recommandation de TikTok a systématiquement poussé davantage de contenus politiques alignés sur les républicains lors du cycle électoral présidentiel américain de 2024, selon un nouveau peer-reviewed study published in Nature .

 

 

Des chercheurs de l’Université de New York à Abu Dhabi ont mené l’un des plus grands audits indépendants du système de recommandation « For You » de TikTok, utilisant 323 comptes automatisés conçus pour simuler des utilisateurs ayant des préférences politiques différentes. Les comptes étaient basés à New York, au Texas et en Géorgie, et ont analysé collectivement plus de 280 000 vidéos recommandées sur une période de 27 semaines pendant la campagne électorale.

L’étude a révélé que les comptes formés à interagir avec du contenu républicain recevaient environ 11,5 % de recommandations politiquement plus élevées que les comptes à tendance démocrate. Pendant ce temps, les comptes à orientation démocrate ont été exposés à environ 7,5 % de contenu républicain en plus que ceux à tendance républicaine de la part opposée.

Les chercheurs ont indiqué que ce déséquilibre persistait dans les trois États examinés et restait visible même après avoir pris en compte les indicateurs d’engagement tels que les likes, les commentaires, les vues et les partages.

L’article a également constaté des asymétries dans la manière dont les sujets politiques étaient distribués. Les comptes à tendance démocrate ont plus souvent été diffusés sur des contenus transpartisans axés sur l’immigration et la criminalité, tandis que les comptes à tendance républicaine ont davantage présenté des contenus politiques liés à l’avortement. Les chercheurs ont suggéré que l’algorithme aurait pu amplifier le contenu ciblant les faiblesses perçues de groupes politiques opposés.

Contrairement aux plateformes où les utilisateurs créent principalement des flux en suivant manuellement des comptes, la page « Pour vous » de TikTok repose fortement sur des recommandations algorithmiques basées sur le comportement de la montre et les signaux d’engagement. Les chercheurs ont soutenu que cela rend TikTok particulièrement utile pour étudier l’influence algorithmique, car les utilisateurs ont moins de contrôle direct sur le contenu qui apparaît dans leur fil d’actualité.

TikTok a contesté ces conclusions, affirmant que l’expérience utilisant des comptes automatisés ne reflète pas fidèlement comment les utilisateurs réels perçoivent la plateforme. L’entreprise a indiqué que les utilisateurs façonnent activement les recommandations à travers de nombreux contrôles et interactions qui ne sont pas pleinement reflétés dans la conception de l’étude.

Les chercheurs ont déclaré que l’étude ne prouve pas de manipulation politique intentionnelle ni d’ingérence directe dans les élections. Au contraire, ils soutiennent que les résultats démontrent comment les systèmes de recommandation peuvent involontairement créer des déséquilibres politiques systématiques à grande échelle.

Le document paraît dans un contexte de critique croissant sur l’influence politique des algorithmes des réseaux sociaux, en particulier sur les plateformes largement utilisées par les jeunes électeurs. TikTok sert désormais de source majeure d’information et d’information politique pour des millions d’Américains de moins de 30 ans.

Les chercheurs ont averti que même des biais de recommandation relativement faibles pouvaient influencer le discours public lorsqu’ils étaient appliqués à de vastes publics lors d’élections très disputées.