2 Remove Virus

Instagram para avisar os pais caso adolescentes busquem repetidamente conteúdos sobre suicídio ou automutilação

O Instagram da Meta Platforms Inc informou que começará a notificar pais ou responsáveis quando usuários adolescentes buscarem repetidamente termos relacionados a suicídio ou automutilação em um curto período de tempo. A empresa afirmou que os alertas se aplicarão apenas aos pais que já se inscreveram nas ferramentas opcionais de supervisão parental do Instagram. As mensagens serão enviadas por e-mail, mensagem de texto, WhatsApp ou notificação no aplicativo, dependendo das informações de contato fornecidas pelos pais.

 

 

O Instagram informou que o recurso estará disponível inicialmente nos Estados Unidos, Reino Unido, Austrália e Canadá, com um lançamento mais amplo planejado para outros países ainda em 2026. O Instagram já bloqueia conteúdos identificados como relacionados a suicídio ou automutilação de aparecerem nos resultados de busca de contas designadas como pertencentes a adolescentes e direciona esses usuários para recursos online voltados para suporte à saúde mental.

Meta disse que os novos alertas são criados para informar os pais quando um adolescente faz várias buscas desse tipo em rápida sucessão. A empresa disse que escolheu o que descreveu como um “limiar apropriado” para evitar notificar os pais sobre buscas isoladas ou acidentais, mas os notificará quando buscas repetidas ocorrerem em um período limitado. O Instagram informou que os alertas incluirão links para recursos de apoio, sugerindo formas de os pais discutirem temas sensíveis relacionados ao suicídio e automutilação com seus filhos.

A empresa afirmou que também está desenvolvendo ferramentas que notificariam os pais caso adolescentes tentem usar suas ferramentas de inteligência artificial para fazer perguntas sobre suicídio e automutilação. A Meta não forneceu detalhes específicos sobre o número de buscas ou os critérios exatos que acionarão uma notificação dos pais.

A iniciativa faz parte dos esforços mais amplos do Instagram para abordar como os usuários interagem com conteúdos relacionados ao suicídio e automutilação em suas plataformas. O Instagram afirmou que já utiliza sistemas automatizados para bloquear conteúdos de suicídio ou automutilação nos resultados de busca e para mostrar recursos de segurança aos usuários que encontram esse tipo de material. A empresa afirmou que esses sistemas funcionam independentemente de estarem em uso ou não ferramentas de supervisão parental, e que as novas notificações têm como objetivo proporcionar visibilidade adicional aos pais que optarem por recebê-las.

O Instagram afirmou que os recursos de apoio incluem links para organizações que oferecem conselhos sobre como falar sobre sofrimento emocional e situações de crise. A empresa afirmou que continuará desenvolvendo medidas que visam manter os usuários mais jovens seguros durante o uso de seus serviços.

O anúncio da Meta sobre os alertas ocorre enquanto a empresa enfrenta desafios legais nos Estados Unidos devido ao tratamento com jovens e conteúdos prejudiciais. Processos contra a Meta nos tribunais dos EUA alegam que os serviços de mídia social da empresa, incluindo o Instagram, são projetados de maneiras que podem prejudicar jovens, fomentando o vício ou falhando em proteger menores de conteúdos que possam afetar negativamente seu bem-estar.

Meta respondeu em documentos legais e declarações públicas dizendo que pesquisas não estabelecem ligações conclusivas entre o uso das redes sociais e danos à saúde mental dos jovens. A empresa afirmou que continua focada em aplicar pesquisas e desenvolver ferramentas que, segundo ela, visam proteger menores em suas plataformas.

O Instagram afirmou que planeja atualizar suas políticas e ferramentas com base em feedback e pesquisas em evolução, mas não forneceu prazos específicos para o lançamento global mais amplo ou para o lançamento de recursos adicionais de alerta relacionados a interações com inteligência artificial. A empresa afirmou que irá monitorar como o recurso de notificação dos pais se comportará nos mercados iniciais e pode refinar os critérios que acionam os alertas. A Meta afirmou que continuará a se envolver com especialistas externos no desenvolvimento de abordagens para a segurança dos usuários, especialmente para contas adolescentes