El Instagram de Meta Platforms Inc anunció que comenzará a notificar a padres o tutores cuando los usuarios adolescentes busquen repetidamente términos relacionados con el suicidio o la autolesión en un corto periodo de tiempo. La empresa indicó que las alertas solo se aplicarán a los padres que se hayan inscrito en las herramientas opcionales de supervisión parental de Instagram. Los mensajes se enviarán por correo electrónico, mensaje de texto, WhatsApp o notificación dentro de la aplicación, dependiendo de la información de contacto que proporcionen los padres.
Instagram ha señalado que la función estará disponible inicialmente en Estados Unidos, Reino Unido, Australia y Canadá, con un despliegue más amplio previsto para más adelante en 2026. Instagram ya bloquea contenido que identifica como relacionado con suicidio o autolesiones para que no aparezca en los resultados de búsqueda de cuentas designadas como pertenecientes a adolescentes y dirige a estos usuarios a recursos en línea diseñados para el apoyo en salud mental.
Meta afirmó que las nuevas alertas están diseñadas para informar a los padres cuando un adolescente realiza múltiples búsquedas de este tipo en rápida sucesión. La empresa dijo que eligió lo que describió como un “umbral adecuado” para evitar notificar a los padres sobre registros aislados o accidentales, pero les notificará cuando se realicen búsquedas repetidas durante un tiempo limitado. Instagram ha señalado que las alertas incluirán enlaces a recursos de apoyo, sugiriendo formas en que los padres puedan tratar temas delicados relacionados con el suicidio y la autolesión con sus hijos.
La empresa afirmó que también está trabajando en herramientas que notificarían a los padres si los adolescentes intentan usar sus herramientas de inteligencia artificial para hacer preguntas sobre suicidio y autolesiones. Meta no proporcionó detalles específicos sobre el número de búsquedas ni los criterios exactos que activarán una notificación a los padres.
La iniciativa forma parte de los esfuerzos más amplios de Instagram para abordar cómo los usuarios interactúan con contenido relacionado con el suicidio y la autolesión en sus plataformas. Instagram afirmó que ya utiliza sistemas automatizados para bloquear contenido sobre suicidio o autolesiones en los resultados de búsqueda y para mostrar recursos de seguridad a los usuarios que se encuentren con este tipo de material. La empresa afirmó que estos sistemas funcionan independientemente de si se utilizan herramientas de supervisión parental o no, y que las nuevas notificaciones están destinadas a proporcionar mayor visibilidad a los padres que decidan recibirlas.
Instagram indicó que los recursos de apoyo incluyen enlaces a organizaciones que ofrecen consejos sobre cómo hablar sobre el malestar emocional y las situaciones de crisis. La compañía afirmó que continuará desarrollando medidas que buscan mantener seguros a los usuarios jóvenes durante el uso de sus servicios.
El anuncio de las alertas por parte de Meta llega mientras la empresa enfrenta desafíos legales en Estados Unidos por su gestión de contenidos juveniles y dañinos. Las demandas contra Meta en tribunales estadounidenses alegan que los servicios de redes sociales de la empresa, incluido Instagram, están diseñados de manera que pueden perjudicar a los jóvenes al fomentar la adicción o no proteger a los menores de contenido que pueda afectar negativamente a su bienestar.
Meta ha respondido en documentos legales y declaraciones públicas afirmando que la investigación no establece vínculos concluyentes entre el uso de redes sociales y el daño a la salud mental juvenil. La empresa afirmó que sigue centrada en aplicar la investigación y desarrollar herramientas que, según ellas, están destinadas a proteger a los menores en sus plataformas.
Instagram dijo que planea actualizar sus políticas y herramientas basándose en los comentarios y la evolución de la investigación, pero no proporcionó plazos específicos para el despliegue global más amplio ni para el lanzamiento de funciones adicionales de alerta relacionadas con las interacciones con inteligencia artificial. La compañía afirmó que monitorizará cómo funciona la función de notificación principal en los mercados iniciales y podría refinar los criterios que activan las alertas. Meta afirmó que continuará colaborando con expertos externos para desarrollar enfoques de seguridad de los usuarios, especialmente para cuentas adolescentes
