L’organisme australien de réglementation de la sécurité en ligne, l’eSafety Commission, est preparing to enforce une règle pionnière qui oblige les plateformes de médias sociaux à restreindre l’accès aux comptes pour les utilisateurs de moins de 16 ans. Le nouveau règlement entre en vigueur le 10 décembre 2025 et introduit des obligations de conformité substantielles pour les entreprises qui hébergent des services de médias sociaux en Australie.
En vertu du nouveau cadre, les plateformes définies comme des « plateformes de médias sociaux soumises à des restrictions d’âge » doivent prendre des « mesures raisonnables » pour empêcher les Australiens n’ayant pas l’âge minimum de créer ou de maintenir des comptes.
Les services initialement identifiés comprennent Facebook (Meta), Instagram, Snapchat, Threads, TikTok, X (anciennement Twitter), YouTube, Kick et Reddit.
Le champ d’application de la loi est défini par des critères conçus pour englober les services dotés de fonctionnalités sociales interactives. Pour être considéré comme une plateforme soumise à une restriction d’âge, un service doit permettre une interaction sociale entre deux utilisateurs finaux ou plus, permettre aux utilisateurs de se connecter à d’autres utilisateurs ou d’interagir avec eux, et fournir aux utilisateurs la possibilité de publier du contenu.
Le régulateur souligne que la nouvelle règle n’est pas une interdiction directe pour les enfants de moins de 16 ans d’utiliser les médias sociaux. Au lieu de cela, il impose aux plateformes la responsabilité d’appliquer des mesures d’assurance de l’âge. Aucune sanction ne sera imposée aux moins de 16 ans ou à leurs parents pour l’utilisation de ces plateformes. Au lieu de cela, les plateformes s’exposent à des sanctions civiles pouvant aller jusqu’à 49,5 millions de dollars australiens (50 millions de dollars australiens) si elles ne se conforment pas.
La ministre des Communications, Anika Wells, et la commissaire à la sécurité en ligne, Julie Inman Grant, affirment que la politique vise à donner aux enfants « un temps précieux pour apprendre et grandir, à l’abri des forces puissantes et invisibles des caractéristiques de conception nuisibles et trompeuses telles que les algorithmes opaques et le défilement sans fin ».
En préparation de l’entrée en vigueur du règlement, eSafety a lancé une campagne de sensibilisation du public et mis des ressources à la disposition des parents, des soignants et des éducateurs. Il s’agit notamment de matériel pédagogique, de documents d’orientation et d’un centre dédié à l’initiative « Âge minimum des médias sociaux ».
Bien que la date d’admissibilité ait été fixée, certains détails de la mise en œuvre font encore l’objet de discussions. Un problème notable concerne la vérification de l’âge et la technologie d’assurance. Le régulateur a déclaré qu’il serait déraisonnable d’exiger des plateformes qu’elles revérifient l’âge de tous les utilisateurs, et attend plutôt des preuves de mesures proportionnées pour détecter les moins de 16 ans.
Les plateformes de jeux et les services de messagerie sont exemptés de la classification soumise à la restriction d’âge prévue par les règles, à condition qu’ils ne répondent pas aux critères clés décrits ci-dessus. Par exemple, les jeux en ligne ou les services uniquement axés sur la messagerie sont traités différemment.
Les experts notent que bien que la loi entre en vigueur en décembre, de nombreux enfants de moins de 16 ans accèdent déjà aux médias sociaux. Une enquête réalisée en 2024 par la Commission eSafety a révélé que 80 % des enfants de moins de 13 ans avaient contourné les restrictions d’âge existantes en utilisant les comptes de membres de leur famille ou de fausses informations d’identification.
Les plateformes seront tenues de démontrer leur conformité dans les années suivant le déploiement. Le ministre doit entreprendre un examen indépendant de l’efficacité de la loi dans les deux ans suivant son entrée en vigueur.
L’Australie est en train d’adopter un nouveau paradigme en matière de sécurité en ligne pour les jeunes en transférant officiellement la responsabilité de la gestion de l’accès des mineurs aux plateformes. Les plateformes et les organismes de réglementation doivent maintenant trouver un équilibre entre les objectifs de protection de l’enfance et les droits des utilisateurs et les fonctionnalités des plateformes.