Cinco familias británicas han presentado una demanda por muerte injusta contra la plataforma de redes sociales TikTok, propiedad de la empresa tecnológica china ByteDance, en el Tribunal Superior del Estado de Delaware. Los padres alegan que los sistemas de recomendación de contenido de la plataforma promovieron vídeos peligrosos de “bromas y desafíos” a sus hijos, contribuyendo a su muerte tras intentar desafíos de estrangulamiento. El caso está programado para una audiencia inicial sobre una moción de desestimación.
La demanda se presentó en nombre de las herencias de cinco niños de entre 11 y 14 años que fallecieron en 2022. Las familias argumentan que los algoritmos de TikTok “seleccionaron y promovieron” material dañino para los feeds infantiles, incluyendo contenido relacionado con un llamado desafío de apagón. El desafío del apagón es una maniobra en internet vinculada en los medios a varias muertes infantiles e implica estrangulamientos intencionados para inducir la inconsciencia.
La denuncia sostiene que los sistemas de recomendación de la plataforma “atacaron” a menores y luego los “inundaron” con vídeos peligrosos en la página de Para Ti de la app, el feed de contenido personalizado de TikTok. Las familias afirman que esta exposición contribuyó a que los niños decidieran intentar el estrangularse. Han solicitado acceder a datos internos de la plataforma que puedan mostrar a qué contenido estuvo expuesto cada niño antes de su muerte, pero alegan que gran parte de estos datos han sido eliminados posteriormente bajo las prácticas de retención de datos de TikTok. TikTok ha dicho que el desafío de apagón fue prohibido en la plataforma en 2020 y que no ha encontrado pruebas de que esté en tendencia.
TikTok sostiene que prohíbe contenido que promueva o fomente conductas peligrosas y que elimina la mayoría de las violaciones antes de que sean denunciadas. La empresa busca desestimar la demanda por motivos jurisdiccionales y jurídicos. Si se deniega la moción de desestimación, el caso avanzará a una etapa conocida como descubrimiento, donde el tribunal puede obligar a TikTok a revelar registros internos e información relevante de las cuentas. Las familias afirman que no buscan principalmente una compensación económica, sino que quieren aclarar lo que sus hijos vieron en internet y exigir a la empresa responsabilidad por sus políticas de contenido.
La acción legal de los padres pone de relieve los debates en curso sobre las responsabilidades de las empresas de redes sociales en la moderación de contenido dañino que pueda llegar a menores. En el Reino Unido, algunos padres también han hecho campaña para que se modifiquen la ley que exigiría la preservación de los datos en línea de un niño fallecido, una propuesta que sus partidarios denominan “la ley de Jools”, llamada así por uno de los niños fallecidos. Sostienen que la preservación automática de los registros digitales podría ayudar a dar respuestas y prevenir casos similares en el futuro.
La demanda sigue a otros casos en Estados Unidos en los que los tribunales han considerado si los sistemas de recomendación de plataformas se encajan dentro de las protecciones legales que protegen a los servicios online de la responsabilidad por contenido de terceros. Una decisión de 2024 del Tribunal de Apelaciones de Estados Unidos para el Tercer Circuito sostuvo que las recomendaciones algorítmicas podían considerarse como actividad propia de la plataforma y no simplemente como contenido de terceros, afectando la aplicación de la inmunidad según la ley estadounidense.