El algoritmo de recomendaciones de TikTok impulsó sistemáticamente más contenido político alineado con los republicanos durante el ciclo electoral presidencial estadounidense de 2024, según un nuevo peer-reviewed study published in Nature .
Investigadores de la Universidad de Nueva York en Abu Dabi realizaron una de las auditorías independientes más grandes del sistema de recomendaciones “For You” de TikTok, utilizando 323 cuentas automatizadas diseñadas para simular usuarios con diferentes preferencias políticas. Las cuentas se basaron en Nueva York, Texas y Georgia, y analizaron colectivamente más de 280.000 vídeos recomendados durante un periodo de 27 semanas durante la campaña electoral.
El estudio encontró que las cuentas entrenadas para interactuar con contenido republicano recibieron aproximadamente un 11,5% más recomendaciones políticamente alineadas que las cuentas con inclinaciones demócratas. Mientras tanto, las cuentas orientadas a los demócratas estuvieron expuestas aproximadamente un 7,5% más de contenido republicano que las cuentas orientadas a los republicanos del lado contrario.
Los investigadores afirmaron que el desequilibrio persistía en los tres estados examinados y seguía siendo visible incluso teniendo en cuenta métricas de interacción como me gusta, comentarios, visualizaciones y compartidos.
El periódico también encontró asimetrías en la distribución de los temas políticos. Las cuentas con inclinación demócrata mostraron con mayor frecuencia contenido transpartidista centrado en inmigración y delincuencia, mientras que las de orientación republicana mostraron más contenido político relacionado con el aborto. Los investigadores sugirieron que el algoritmo podría haber amplificado el contenido dirigido a las debilidades percibidas de grupos políticos opuestos.
A diferencia de las plataformas, donde los usuarios crean principalmente feeds siguiendo cuentas manualmente, la página “Para ti” de TikTok se basa en gran medida en recomendaciones algorítmicas basadas en el comportamiento de los espectadores y las señales de interacción. Los investigadores argumentaron que esto hace que TikTok sea especialmente útil para estudiar la influencia algorítmica porque los usuarios tienen menos control directo sobre qué contenido aparece en sus feeds.
TikTok cuestionó los hallazgos, diciendo que el experimento con cuentas automatizadas no representa con precisión cómo los usuarios reales experimentan la plataforma. La empresa señaló que los usuarios moldean activamente las recomendaciones mediante numerosos controles e interacciones que no se reflejan completamente en el diseño del estudio.
Los investigadores afirmaron que el estudio no prueba manipulación política intencionada ni interferencia directa en elecciones. En cambio, argumentan que los hallazgos demuestran cómo los sistemas de recomendación pueden, de forma involuntaria, crear desequilibrios políticos sistemáticos a gran escala.
El artículo llega en medio de un creciente escrutinio sobre la influencia política de los algoritmos de las redes sociales, especialmente en plataformas muy utilizadas por votantes jóvenes. TikTok ahora sirve como una fuente importante de noticias e información política para millones de estadounidenses menores de 30 años.
Los investigadores advirtieron que incluso sesgos de recomendación relativamente pequeños podrían influir en el discurso público cuando se aplican a grandes audiencias durante elecciones muy disputadas.
