Una giuria del New Mexico ha ordinato a Meta di pagare 375 milioni di dollari di sanzioni civili dopo aver stabilito che l’azienda aveva violato le leggi statali sulla protezione dei consumatori in un caso relativo alla sicurezza dei minori sulle sue piattaforme.
La causa è stata intentata dal procuratore generale del New Mexico Raúl Torrez, che ha accusato l’azienda di aver ingannato gli utenti sulla sicurezza dei suoi servizi, inclusi Facebook, Instagram e WhatsApp, e di aver favorito lo sfruttamento sessuale dei minori. Secondo le conclusioni del tribunale, la giuria ha stabilito che Meta ha praticato pratiche ingannevoli e inaccettabili ai sensi dell’Unfair Practices Act dello stato.
I giurati hanno rilevato che l’azienda non ha protetto adeguatamente gli utenti minorenni e ha permesso interazioni dannose sulle sue piattaforme. Il verdetto è seguito a un processo che ha esaminato documenti interni dell’azienda, testimonianze di esperti e prove provenienti da un’indagine statale.
Il caso si basava in parte su un’operazione sotto copertura del 2023 condotta dagli investigatori statali. Le autorità hanno creato account fingendosi utenti sotto i 14 anni e hanno segnalato di aver ricevuto materiale sessualmente esplicito e contatti da adulti che cercavano contenuti simili. L’indagine ha portato a accuse penali contro diverse persone, secondo quanto riferito dalle autorità.
La giuria ha identificato 75.000 violazioni della legge statale e ha applicato una multa di 5.000 dollari per ogni violazione, con un totale di multa di 375 milioni di dollari.
I procuratori statali hanno sostenuto che Meta non aveva adottato misure di sicurezza sufficienti, inclusa una verifica efficace dell’età, e non aveva affrontato adeguatamente i rischi noti associati alle sue piattaforme. Hanno inoltre sostenuto che alcune caratteristiche del prodotto hanno aumentato il coinvolgimento degli utenti nonostante le evidenze di danni ai più giovani.
Meta ha negato le accuse e ha dichiarato di intendere fare appello contro il verdetto. Un portavoce dell’azienda ha dichiarato che l’azienda lavora per proteggere gli utenti e ha riconosciuto le difficoltà nell’identificare e rimuovere contenuti dannosi su larga scala.
Il processo durò diverse settimane e includeva testimonianze di rappresentanti aziendali, esperti di sicurezza e altri testimoni. In una fase separata prevista per maggio, un giudice prenderà in considerazione ulteriori richieste e possibili rimedi, inclusi possibili cambiamenti alle piattaforme aziendali.
