2 Remove Virus

Meta étend les contrôles parentaux pour révéler les sujets de conversation IA des adolescents à travers les applications

Meta a introduit une nouvelle fonctionnalité de surveillance parentale qui permet aux tuteurs de consulter les sujets abordés par leurs adolescents avec son assistant IA sur plusieurs plateformes, notamment Facebook, Instagram et Messenger. Cette mise à jour reflète une surveillance croissante sur la manière dont les mineurs interagissent avec les systèmes d’IA et vise à offrir plus de transparence sans exposer de longues conversations.

 

 

La fonctionnalité est intégrée aux outils de supervision existants de Meta via une nouvelle section « Insights ». Les parents peuvent consulter un résumé des sujets que leur adolescent a posés à l’IA au cours des sept derniers jours, offrant une vue d’ensemble de l’activité plutôt qu’un accès direct aux transcriptions du chat.

Selon Meta, les sujets suivis couvrent un large éventail de catégories telles que l’éducation, le divertissement, le mode de vie, les voyages et la santé. Chaque catégorie peut être développée en sous-thèmes plus détaillés, fournissant un contexte supplémentaire sur la manière dont les adolescents interagissent avec les outils d’IA.

L’entreprise a souligné que le système est conçu pour équilibrer la visibilité parentale avec la confidentialité des utilisateurs. Bien que les parents puissent voir quels sujets généraux sont abordés, ils ne peuvent pas lire exactement les messages échangés entre l’adolescent et l’assistant IA. Cette approche positionne la fonctionnalité comme un outil de surveillance axé sur les modes d’utilisation plutôt que sur la surveillance directe.

Le déploiement est actuellement limité aux comptes d’adolescents supervisés dans certaines régions, notamment les États-Unis, le Royaume-Uni, le Canada, l’Australie et le Brésil, avec une expansion mondiale plus large prévue.
Meta a également lié cette fonctionnalité à des efforts plus larges liés à la sécurité liée à ses systèmes d’IA. L’entreprise indique que ses réponses IA pour les adolescents sont conçues pour suivre des directives adaptées à l’âge similaires à une norme « PG-13 », restreignant certaines interactions sensibles. Dans les cas où les adolescents tentent d’explorer des sujets tels que l’automutilation, le système peut limiter les réponses et orienter les utilisateurs vers des ressources de soutien, tout en enregistrant le sujet pour la visibilité parentale.

En plus du suivi des sujets, Meta introduit des outils destinés à aider les parents à engager des conversations sur l’utilisation de l’IA. Cela inclut des suggestions de sujets de discussion développés en collaboration avec des groupes de recherche externes, visant à encourager un dialogue non conflictuel entre parents et adolescents.
Cette mise à jour fait suite à une pression croissante sur les entreprises technologiques pour améliorer les protections pour les plus jeunes utilisateurs. À mesure que les chatbots IA deviennent plus largement utilisés parmi les adolescents, allant des devoirs scolaires aux questions personnelles, les plateformes font face à des attentes croissantes pour fournir des mécanismes de surveillance qui réduisent les risques potentiels tout en maintenant leur utilisabilité.

Les derniers changements de Meta annoncent une évolution vers une implication parentale plus structurée dans les interactions avec l’IA, l’entreprise positionnant les outils de transparence comme un élément clé de sa stratégie globale de sécurité des jeunes.