Cinq familles britanniques ont intenté une action en justice pour décès injustifié contre la plateforme de réseau social TikTok, détenue par la société technologique chinoise ByteDance, devant la Cour supérieure de l’État du Delaware. Les parents allèguent que les systèmes de recommandation de contenu de la plateforme ont poussé des vidéos dangereuses de « farces et défis » à leurs enfants, contribuant à leur mort après qu’ils aient tenté des défis d’auto-étranglement. L’affaire est prévue pour une audience initiale sur une requête en rejet.
Le procès a été intenté au nom des successions de cinq enfants âgés de 11 à 14 ans décédés en 2022. Les familles soutiennent que les algorithmes de TikTok ont « sélectionné et diffusé » du contenu nuisible dans les fils d’actualité des enfants, y compris des contenus liés à un défi dit blackout. Le défi du blackout est un coup d’intérêt internet lié dans les médias à plusieurs décès d’enfants et implique un étranglement intentionnel pour provoquer une perte de conscience.
La plainte affirme que les systèmes de recommandation de la plateforme « ciblaient » les mineurs puis les « inondaient » de vidéos dangereuses sur la page Pour vous de l’application, le fil personnalisé de TikTok. Les familles affirment que cette exposition a contribué à la décision des enfants de tenter l’auto-étranglement. Ils ont cherché à accéder à des données internes de la plateforme pouvant montrer à quel contenu chaque enfant était exposé avant leur décès, mais affirment qu’une grande partie de ces données a depuis été supprimée dans le cadre des pratiques de conservation des données de TikTok. TikTok a déclaré que le défi de blackout avait été interdit sur la plateforme en 2020 et qu’il n’avait pas trouvé de preuve qu’il était en tendance.
TikTok soutient qu’il interdit les contenus qui promeuvent ou encouragent des comportements dangereux et qu’il supprime la majorité des infractions avant qu’elles ne soient signalées. La société cherche à rejeter la plainte pour des raisons juridictionnelles et autres motifs juridiques. Si la requête en rejet est rejetée, l’affaire passera à une étape appelée la découverte de documents, où le tribunal peut contraindre TikTok à divulguer des dossiers internes et des informations pertinentes sur les comptes. Les familles affirment ne pas chercher principalement une compensation financière mais souhaitent clarifier ce que leurs enfants ont vu en ligne et tenir l’entreprise responsable de ses politiques de contenu.
L’action en justice des parents met en lumière les débats en cours sur les responsabilités des entreprises de réseaux sociaux dans la modération des contenus nuisibles pouvant toucher des mineurs. Au Royaume-Uni, certains parents ont également milité pour des modifications législatives qui exigeraient la préservation des données en ligne d’un enfant décédé, une proposition que les partisans appellent la « loi Jools », nommée d’après l’un des enfants décédés. Ils soutiennent que la conservation automatique des documents numériques pourrait aider à fournir des réponses et prévenir des cas similaires à l’avenir.
La plainte fait suite à d’autres affaires aux États-Unis dans lesquelles les tribunaux ont examiné si les systèmes de recommandation de plateforme relèvent des protections juridiques protégeant les services en ligne de toute responsabilité pour le contenu tiers. Une décision de 2024 de la Cour d’appel des États-Unis pour le troisième circuit a statué que les recommandations algorithmiques pouvaient être considérées comme une activité propre à la plateforme plutôt que comme un simple contenu tiers, affectant ainsi l’application de l’immunité en vertu de la loi américaine.