2 Remove Virus

Instagram pour informer les parents si les adolescents recherchent à plusieurs reprises du contenu sur le suicide ou l’automutilation

Instagram de Meta Platforms Inc a annoncé qu’il commencera à informer les parents ou tuteurs lorsque des utilisateurs adolescents recherchent à plusieurs reprises des termes liés au suicide ou à l’automutilation dans un court laps de temps. L’entreprise a indiqué que les alertes ne s’appliqueraient qu’aux parents inscrits aux outils optionnels de supervision parentale d’Instagram. Les messages seront envoyés par email, SMS, WhatsApp ou notification intégrée, selon les coordonnées fournies par les parents.

 

 

Instagram a indiqué que la fonctionnalité sera initialement disponible aux États-Unis, au Royaume-Uni, en Australie et au Canada, avec un déploiement plus large prévu dans d’autres pays plus tard en 2026. Instagram bloque déjà les contenus identifiés comme liés au suicide ou à l’automutilation pour les comptes désignés comme appartenant à des adolescents et oriente ces utilisateurs vers des ressources en ligne conçues pour le soutien en santé mentale.

Meta a indiqué que ces nouvelles alertes sont conçues pour informer les parents lorsqu’un adolescent effectue plusieurs recherches de ce type en succession rapide. L’entreprise a indiqué avoir choisi ce qu’elle a décrit comme un « seuil approprié » pour éviter d’informer les parents des fouilles isolées ou accidentelles, mais les informera lorsque des recherches répétées auront lieu sur un temps limité. Instagram a indiqué que les alertes incluront des liens vers des ressources de soutien, suggérant des moyens pour les parents de discuter de sujets sensibles liés au suicide et à l’automutilation avec leurs enfants.

L’entreprise a également indiqué qu’elle travaille sur des outils qui notifieraient les parents si les adolescents tentent d’utiliser ses outils d’intelligence artificielle pour poser des questions sur le suicide et l’automutilation. Meta n’a pas fourni de détails précis sur le nombre de recherches ni les critères exacts qui déclencheront une notification parentale.

Cette initiative s’inscrit dans les efforts plus larges d’Instagram pour traiter la manière dont les utilisateurs interagissent avec les contenus liés au suicide et à l’automutilation sur ses plateformes. Instagram a indiqué qu’il utilise déjà des systèmes automatisés pour bloquer les contenus de suicide ou d’automutilation dans les résultats de recherche et pour montrer des ressources de sécurité aux utilisateurs confrontés à ce type de contenu. L’entreprise a indiqué que ces systèmes fonctionnent indépendamment de l’utilisation ou non d’outils de supervision parentale, et que les nouvelles notifications visent à offrir une visibilité supplémentaire aux parents qui choisissent de les recevoir.

Instagram a indiqué que les ressources de soutien incluent des liens vers des organisations qui donnent des conseils sur la manière de parler de détresse émotionnelle et de situations de crise. L’entreprise a déclaré qu’elle continuerait à développer des mesures visant à assurer la sécurité des jeunes utilisateurs lors de l’utilisation de ses services.

L’annonce des alertes par Meta intervient alors que l’entreprise fait face à des contestations juridiques aux États-Unis concernant la gestion des contenus pour les jeunes et les contenus nuisibles. Les poursuites intentées contre Meta devant les tribunaux américains allèguent que les services de réseaux sociaux de l’entreprise, y compris Instagram, sont conçus de manière à nuire aux jeunes en favorisant la dépendance ou en ne protégeant pas les mineurs de contenus pouvant nuire à leur bien-être.

Meta a répondu dans des documents juridiques et des déclarations publiques en affirmant que les recherches n’établissent pas de liens concluants entre l’utilisation des réseaux sociaux et les dommages à la santé mentale des jeunes. L’entreprise a déclaré qu’elle reste concentrée sur l’application de la recherche et le développement d’outils qu’elle considère comme destinés à protéger les mineurs sur ses plateformes.

Instagram a indiqué qu’il prévoyait de mettre à jour ses politiques et outils en fonction des retours et des recherches en évolution, mais n’a pas fourni de calendriers précis pour le déploiement mondial plus large ni la publication de fonctionnalités d’alerte supplémentaires liées aux interactions avec l’intelligence artificielle. La société a indiqué qu’elle surveillera la performance de la fonction de notification parent sur les marchés initiaux et pourrait affiner les critères qui déclenchent les alertes. Meta a déclaré qu’elle continuerait à collaborer avec des experts externes pour développer des approches de sécurité des utilisateurs, en particulier pour les comptes adolescents