Tre adolescenti hanno intentato una causa contro xAI, una società di intelligenza artificiale fondata da Elon Musk, sostenendo che il chatbot Grok sia stato usato per generare immagini sessualmente esplicite di loro mentre erano minorenni. Il reclamo è stato presentato in un tribunale federale statunitense e accusa l’azienda di non aver impedito l’uso improprio dei suoi strumenti di generazione di immagini.
Secondo la denuncia, una terza parte ha utilizzato le capacità di editing delle immagini di Grok per modificare foto esistenti degli adolescenti, incluse immagini scattate dai social media e da contesti scolastici. Lo strumento sarebbe stato usato per creare immagini esplicite modificando quelle foto. Le immagini sono state successivamente condivise su piattaforme online, inclusi i servizi di messaggistica, dove hanno circolato tra gli utenti.
La causa afferma che la persona responsabile della creazione delle immagini è stata arrestata a dicembre. Le autorità hanno riferito che la persona aveva prodotto immagini alterate che coinvolgevano più minorenni, alcuni dei quali frequentavano la stessa scuola. Gli investigatori hanno anche riferito che parte del materiale veniva scambiato all’interno di gruppi online.
I querelanti sostengono che xAI non abbia implementato adeguate garanzie per prevenire la creazione di tali contenuti. La denuncia sostiene che il design di Grok permettesse agli utenti di generare materiale esplicito che coinvolgesse individui reali, inclusi minorenni, tramite funzionalità di modifica dell’immagine. Gli avvocati che rappresentano gli adolescenti sostengono che l’azienda avrebbe dovuto prevedere il rischio di uso improprio.
La causa richiede danni relativi alla creazione e distribuzione delle immagini. Prevede inoltre restrizioni sulle funzioni di editing delle immagini di Grok e misure aggiuntive per prevenire incidenti simili.
xAI ha già dichiarato che i suoi sistemi sono pensati per rispettare le leggi applicabili e includono garanzie contro contenuti illegali. Elon Musk ha dichiarato di non essere a conoscenza di casi in cui Grok abbia generato immagini esplicite di minorenni.
Il caso si concentra sull’uso di strumenti di intelligenza artificiale per modificare immagini reali e sulle responsabilità delle aziende che sviluppano tali sistemi.