Instagram di Meta Platforms Inc ha annunciato che inizierà a notificare genitori o tutori quando gli utenti adolescenti cercheranno ripetutamente termini relativi al suicidio o all’autolesionismo in un breve periodo di tempo. L’azienda ha dichiarato che gli avvisi si applicheranno solo ai genitori che si sono iscritti agli strumenti opzionali di supervisione parentale di Instagram. I messaggi saranno inviati via email, messaggio di testo, WhatsApp o notifiche in-app, a seconda delle informazioni di contatto fornite dai genitori.
Instagram ha dichiarato che la funzione sarà disponibile inizialmente negli Stati Uniti, nel Regno Unito, in Australia e in Canada, con un più ampio rilascio previsto in altri paesi prevista per la fine del 2026. Instagram blocca già contenuti identificati come legati al suicidio o all’autolesionismo prima che appaiono nei risultati di ricerca per account designati come appartenenti a adolescenti e indirizza tali utenti verso risorse online pensate per il supporto alla salute mentale.
Meta ha detto che i nuovi avvisi sono pensati per informare i genitori quando un adolescente effettua più ricerche di questo tipo in rapida successione. L’azienda ha dichiarato di aver scelto quella che ha descritto come una “soglia appropriata” per evitare di notificare i genitori riguardo a ricerche isolate o accidentali, ma li avviserà quando verranno effettuate ricerche ripetute in un periodo limitato. Instagram ha dichiarato che gli avvisi includeranno link a risorse di supporto, suggerendo modi per i genitori di discutere argomenti sensibili legati al suicidio e all’autolesionismo con i propri figli.
L’azienda ha detto che sta anche lavorando a strumenti che avviserebbero i genitori se gli adolescenti tentassero di utilizzare i suoi strumenti di intelligenza artificiale per porre domande su suicidio e autolesionismo. Meta non ha fornito dettagli specifici sul numero di ricerche o sui criteri esatti che attiveranno una notifica ai genitori.
L’iniziativa fa parte degli sforzi più ampi di Instagram per affrontare il modo in cui gli utenti interagiscono con i contenuti legati al suicidio e all’autolesionismo sulle sue piattaforme. Instagram ha dichiarato di utilizzare già sistemi automatizzati per bloccare contenuti su suicidio o autolesionismo dai risultati di ricerca e per mostrare risorse di sicurezza agli utenti che incontrano tali materiali. L’azienda ha affermato che questi sistemi funzionano indipendentemente dal fatto che siano in uso o meno strumenti di supervisione parentale, e le nuove notifiche sono pensate per fornire maggiore visibilità ai genitori che scelgono di riceverle.
Instagram ha detto che le risorse di supporto includono link a organizzazioni che offrono consigli su come parlare di disagio emotivo e situazioni di crisi. L’azienda ha dichiarato che continuerà a sviluppare misure volte a mantenere i giovani utenti al sicuro durante l’utilizzo dei suoi servizi.
L’annuncio degli avvisi da parte di Meta arriva mentre l’azienda affronta sfide legali negli Stati Uniti per la gestione dei contenuti giovanili e dannosi. Le cause legali contro Meta nei tribunali statunitensi sostengono che i servizi social media dell’azienda, incluso Instagram, siano progettati in modi che possano danneggiare i giovani favorendo la dipendenza o non proteggendo i minori da contenuti che potrebbero influire negativamente sul loro benessere.
Meta ha risposto in atti legali e dichiarazioni pubbliche affermando che la ricerca non stabilisce legami definitivi tra l’uso dei social media e i danni alla salute mentale giovanile. L’azienda ha dichiarato di rimanere concentrata sull’applicazione della ricerca e sullo sviluppo di strumenti che secondo lei sono pensati per proteggere i minori sulle sue piattaforme.
Instagram ha dichiarato di intendere aggiornare le proprie politiche e strumenti basandosi su feedback e ricerche in evoluzione, ma non ha fornito tempistiche specifiche per il più ampio rilascio globale né per il rilascio di ulteriori funzionalità di allerta relative alle interazioni con l’intelligenza artificiale. L’azienda ha dichiarato che monitorerà come la funzione di notifica dei genitori si comporta nei mercati iniziali e potrebbe affinare i criteri che attivano gli avvisi. Meta ha dichiarato che continuerà a collaborare con esperti esterni per sviluppare approcci alla sicurezza degli utenti, in particolare per gli account adolescenti
