OpenAI ha divulgato nuove stime che suggeriscono che un numero piccolo ma significativo di utenti di ChatGPT potrebbe mostrare segni di gravi crisi di salute mentale, tra cui mania, psicosi e pensieri suicidi. La società ha affermato che circa lo 0,07% degli utenti settimanali attivi mostra potenziali segni di tali condizioni. Anche se questa cifra può sembrare piccola, rappresenta milioni di persone, dato che ChatGPT ha ora circa 800 milioni di utenti settimanali.
L’azienda ha descritto questi casi come “estremamente rari”, ma ha affermato che sta adottando misure per affrontarli. OpenAI ha dichiarato di aver costruito una rete internazionale di oltre 170 psichiatri, psicologi e medici generici provenienti da 60 paesi per consigliare come il chatbot dovrebbe rispondere a conversazioni sensibili o ad alto rischio. Gli esperti hanno contribuito a progettare modelli di risposta che incoraggiano gli utenti a cercare aiuto professionale o di emergenza.
OpenAI ha affermato che i suoi modelli sono addestrati per identificare possibili segnali di avvertimento come pensieri deliranti, discorsi maniacali o menzioni esplicite di autolesionismo. La società ha anche affermato che circa lo 0,15% di tutti gli utenti mostra “indicatori espliciti di potenziale pianificazione o intenzione suicidaria”. In questi casi, ChatGPT è programmato per rispondere con un linguaggio di supporto ed empatico, fornire informazioni sulla linea di assistenza e indirizzare gli utenti verso risorse del mondo reale.
La società ha spiegato che i recenti aggiornamenti di ChatGPT includono meccanismi per reindirizzare le conversazioni sensibili verso modelli più sicuri. Quando il sistema rileva un linguaggio che suggerisce un potenziale danno, può aprire una nuova finestra di chat che guida gli utenti verso l’assistenza appropriata.
OpenAI ha affermato che questi aggiornamenti fanno parte del lavoro di sicurezza in corso a seguito di revisioni interne e consultazioni con esperti medici ed etici. L’azienda è consapevole che, anche se tali conversazioni sono rare, coinvolgono persone reali che potrebbero essere in difficoltà e che l’azienda sta cercando di far sì che ChatGPT risponda in modo sicuro e coerente a questi casi.
Preoccupazioni da parte di esperti medici
Alcuni professionisti della salute mentale hanno accolto con favore la trasparenza di OpenAI, ma hanno avvertito che anche una piccola percentuale di utenti interessati è significativa. Il dottor Jason Nagata, professore presso l’Università della California, San Francisco, che studia l’uso della tecnologia tra i giovani adulti, ha affermato che i numeri rappresentano una delle principali preoccupazioni per la salute pubblica.
“Anche se lo 0,07% sembra una piccola percentuale, a livello di popolazione con centinaia di milioni di utenti, in realtà possono essere parecchie persone”, ha detto il dottor Nagata. Ha osservato che, sebbene l’intelligenza artificiale possa ampliare l’accesso alle informazioni sulla salute mentale, non dovrebbe sostituire l’assistenza professionale. “L’intelligenza artificiale può supportare la salute mentale in certi modi, ma dobbiamo essere consapevoli dei suoi limiti”, ha aggiunto.
Il professor Robin Feldman, direttore dell’AI Law and Innovation Institute presso l’Università della California, ha affermato che le persone che soffrono di malattie mentali potrebbero non essere in grado di distinguere le risposte dell’IA dalla realtà. “I chatbot creano l’illusione della realtà, ed è un’illusione potente”, ha detto. Feldman ha elogiato OpenAI per aver pubblicato statistiche e per aver tentato di migliorare la sicurezza, ma ha avvertito che “una persona che è mentalmente a rischio potrebbe non essere in grado di prestare attenzione agli avvertimenti sullo schermo”.
Sfide legali ed etiche
Le rivelazioni di OpenAI arrivano in un momento di crescente controllo legale ed etico. L’azienda deve affrontare cause legali negli Stati Uniti relative a casi in cui ChatGPT avrebbe influenzato gli utenti in difficoltà.
Uno dei casi più ampiamente riportati riguarda la morte del sedicenne Adam Raine, i cui genitori hanno intentato una causa per omicidio colposo in California. Sostengono che ChatGPT abbia incoraggiato il figlio a togliersi la vita dopo aver discusso di pensieri suicidi con il chatbot. OpenAI non ha commentato pubblicamente le specifiche del caso, ma ha affermato di prendere sul serio tutti questi rapporti.
In un caso separato a Greenwich, nel Connecticut, un uomo accusato di aver commesso un omicidio-suicidio avrebbe pubblicato le trascrizioni delle sue conversazioni con ChatGPT prima dell’incidente. I messaggi sembravano rafforzare le sue convinzioni deliranti, secondo gli investigatori.
Questi casi hanno sollevato preoccupazioni più ampie sul modo in cui i sistemi di intelligenza artificiale gestiscono gli utenti vulnerabili e sulla misura in cui le aziende possono essere ritenute responsabili per i danni che possono verificarsi durante le interazioni con i chatbot. Gli esperti legali sostengono che, sebbene gli strumenti di intelligenza artificiale non possano sostituire i professionisti clinici, non possono nemmeno essere completamente separati dalla responsabilità quando le loro risposte potrebbero contribuire al danno.
Bilanciare innovazione e responsabilità
Il dibattito sulla salute mentale e l’intelligenza artificiale riflette una sfida più ampia nel settore tecnologico. Chatbot come ChatGPT possono fornire conforto, informazioni e compagnia a milioni di utenti, ma la loro capacità di simulare l’empatia può offuscare i confini tra l’interazione umana e quella artificiale.
La decisione di OpenAI di divulgare i propri dati interni è stata vista da alcuni analisti come un raro passo verso la trasparenza nel campo dell’intelligenza artificiale. Le aziende in genere rilasciano poche informazioni su come gestiscono o monitorano le conversazioni che coinvolgono argomenti delicati come autolesionismo, delusione o disagio emotivo.
I critici, tuttavia, sostengono che le garanzie dell’azienda rimangono reattive piuttosto che preventive. Notano che anche con modelli aggiornati e la guida di esperti medici, i sistemi di intelligenza artificiale non possono comprendere appieno lo stato psicologico di un essere umano. Un chatbot che suona comprensivo può comunque convalidare inavvertitamente convinzioni dannose o rafforzare il pensiero delirante.
I ricercatori avvertono inoltre che man mano che l’intelligenza artificiale diventa più colloquiale ed emotivamente espressiva, gli utenti possono formare attaccamenti o interpretare erroneamente le sue risposte come empatia umana. Questa connessione emotiva, anche se a volte confortante, può approfondire l’illusione di comprensione e aumentare i rischi per coloro che già lottano con condizioni di salute mentale.
OpenAI ha dichiarato che continuerà ad aggiornare i suoi protocolli di sicurezza e ad espandere le sue partnership con professionisti della salute mentale in tutto il mondo. L’azienda ha anche affermato che sta migliorando il rilevamento di segni indiretti di disagio mentale, come scrittura frammentata, ragionamento incoerente o improvvisi cambiamenti emotivi nel tono.
Sebbene questi sforzi mostrino progressi, gli esperti rimangono cauti. Sostengono che le aziende di intelligenza artificiale non devono solo migliorare le garanzie tecniche, ma anche garantire responsabilità, trasparenza e comunicazione chiara con gli utenti. Man mano che l’intelligenza artificiale diventa più integrata nella vita quotidiana, il confine tra supporto digitale e rischio nel mondo reale continuerà a mettere alla prova sia gli sviluppatori che i responsabili politici.
