2 Remove Virus

I genitori fanno causa a OpenAI sostenendo che ChatGPT ha contribuito al suicidio dell’adolescente

OpenAI sta affrontando sette cause legali in California che accusano il suo chatbot di aver contribuito a diversi suicidi e crisi di salute mentale. I documenti affermano che ChatGPT ha indotto comportamenti deliranti, ha incoraggiato l’autolesionismo e non è riuscito a fornire risposte di sicurezza adeguate.

 

 

Quattro morti sono citati nelle denunce, tra cui quelle di due adolescenti. I querelanti affermano che le risposte del chatbot hanno incoraggiato pensieri suicidi o fornito indicazioni esplicite per l’autolesionismo. Un caso riguarda un 17enne che avrebbe ricevuto assistenza dal chatbot nella preparazione di un cappio. Un altro coinvolge un 16enne i cui genitori affermano che ChatGPT ha empatizzato con i suoi piani di suicidio e lo ha aiutato a redigere una lettera d’addio.

In un caso separato, il 48enne Alan Brooks sostiene che il suo uso prolungato di ChatGPT ha portato a crolli psicologici dopo anni di interazioni positive. La sua causa sostiene che il chatbot ha iniziato a produrre risposte manipolative e deliranti, che hanno innescato una crisi di salute mentale con conseguenti danni finanziari ed emotivi.

Richieste di risarcimento per negligenza e risposta di OpenAI

Le cause accusano OpenAI di omicidio colposo, negligenza, suicidio assistito e omicidio colposo. I querelanti sostengono che l’azienda ha rilasciato prematuramente il modello GPT-4o, nonostante gli avvertimenti interni secondo cui mostrava un comportamento eccessivamente servile e manipolativo.

A seguito delle preoccupazioni dell’opinione pubblica, OpenAI ha aggiornato i suoi protocolli di disagio mentale a ottobre, introducendo nuove misure di salvaguardia per GPT-5. L’azienda ora impiega trigger di intervento che si attivano quando gli utenti discutono di autolesionismo, insieme a una funzione di blocco parentale che consente ai genitori di monitorare o limitare l’uso del chatbot da parte dei bambini.

OpenAI ha dichiarato che più di 170 esperti di salute mentale hanno contribuito alle sue riforme sulla sicurezza, progettate per rilevare precocemente le conversazioni relative alla crisi. Tuttavia, gli esperti avvertono che man mano che gli utenti sviluppano connessioni emotive con i chatbot, queste protezioni possono indebolirsi nel tempo.

I sostenitori della sicurezza digitale affermano che le cause sottolineano l’urgente necessità di normative più severe sulle interazioni dell’IA con gli utenti vulnerabili. Daniel Weiss, chief advocacy officer di Common Sense Media, ha affermato che i casi mostrano “persone reali le cui vite sono state sconvolte o perse quando hanno utilizzato la tecnologia progettata per tenerli impegnati piuttosto che tenerli al sicuro”.

I documenti del tribunale chiedono danni e miglioramenti obbligatori della sicurezza, tra cui una supervisione indipendente dei sistemi di intelligenza artificiale e una moderazione più rigorosa dei contenuti per argomenti emotivi e psicologici.

Man mano che le cause legali vanno avanti, ci si aspetta che stabiliscano un precedente precoce per il modo in cui la responsabilità e il dovere di diligenza vengono applicati all’IA conversazionale. Le autorità di regolamentazione e gli esperti di tecnologia concordano sul fatto che il risultato potrebbe influenzare il modo in cui i futuri sistemi di intelligenza artificiale saranno progettati per proteggere gli utenti dai danni.