Gli attori delle minacce informatiche utilizzano sempre più strumenti di intelligenza artificiale per migliorare la portata e la complessità dei loro attacchi, secondo new research il Google Threat Intelligence Group. Il rapporto mostra che sia i gruppi sostenuti dallo Stato che quelli criminali stanno ora integrando l’intelligenza artificiale in quasi tutte le fasi di un attacco informatico, dalla ricognizione all’esfiltrazione dei dati.
Negli anni precedenti, gli attori delle minacce utilizzavano in genere l’intelligenza artificiale per svolgere attività di base come la scrittura di messaggi di phishing o la raccolta di informazioni pubbliche sugli obiettivi. L’ultima analisi di Google indica che queste attività si sono evolute. Gli aggressori stanno incorporando l’intelligenza artificiale direttamente nel malware, nell’infrastruttura e nelle operazioni di comando. Il rapporto definisce questo cambiamento “una nuova fase operativa dell’abuso dell’IA”.
Uno dei risultati chiave riguarda l’aumento del malware abilitato all’intelligenza artificiale che si basa su modelli linguistici di grandi dimensioni durante l’esecuzione. Google ha identificato una famiglia di malware chiamata PROMPTFLUX che si connette a un modello di intelligenza artificiale e riscrive il proprio codice a intervalli regolari. Questa costante modifica lo aiuta a evitare il rilevamento da parte degli strumenti antivirus tradizionali che dipendono da firme fisse. Un altro esempio, denominato PROMPTSTEAL, utilizza un modello di intelligenza artificiale per generare comandi per il furto di dati invece di affidarsi a script prescritti.
Ciò rappresenta un’importante escalation nel funzionamento delle operazioni informatiche. L’intelligenza artificiale non viene più utilizzata semplicemente per supportare gli aggressori, ma è diventata una componente attiva delle loro campagne. I ricercatori di Google notano che alcuni di questi strumenti sono in grado di generare nuovo codice o adattare il loro comportamento in tempo reale in base al feedback ambientale.
Anche il mercato sotterraneo degli strumenti informatici abilitati all’intelligenza artificiale è in espansione. Google ha trovato annunci pubblicitari su forum in lingua russa e inglese che offrono kit di phishing basati sull’intelligenza artificiale, programmi per la creazione di malware e strumenti di scansione automatizzati. Molti vengono promossi utilizzando un linguaggio di marketing professionale che promette velocità, efficienza e scalabilità. L’accessibilità di questi servizi consente ai criminali meno esperti di eseguire operazioni complesse che in precedenza erano limitate ai gruppi di hacker avanzati.
Gli attori sponsorizzati dallo Stato sono un altro punto focale del rapporto. Google ha identificato le campagne della Corea del Nord, dell’Iran e della Repubblica Popolare Cinese che si basano fortemente sui sistemi di intelligenza artificiale. Questi gruppi utilizzano l’intelligenza artificiale generativa per l’intero ciclo di vita dell’attacco, tra cui ricognizione, phishing, sfruttamento e furto di dati.
Ad esempio, il gruppo cinese APT41 ha utilizzato il modello Gemini di Google per scrivere codice in C++ e Go, creare framework di comando e controllo offuscati e sviluppare un’infrastruttura di attacco basata su cloud. Secondo quanto riferito, un attore con sede in Iran noto come APT42 ha utilizzato un modello di intelligenza artificiale per trasformare le query in linguaggio naturale in ricerche di database, consentendogli di collegare i numeri di telefono alle persone e monitorare i modelli di viaggio. Un gruppo nordcoreano identificato come UNC1069 ha utilizzato Gemini per creare allegati di phishing in lingua spagnola e per sviluppare strumenti per rubare criptovalute.
Il rapporto descrive anche in dettaglio come gli attori delle minacce manipolano le misure di sicurezza dell’intelligenza artificiale per ottenere informazioni riservate. Alcuni aggressori si spacciano per ricercatori, studenti o partecipanti a concorsi di sicurezza informatica per far sembrare le loro richieste innocue. In questo modo, aggirano i sistemi di sicurezza e ricevono istruzioni tecniche per la creazione di kit di phishing, script dannosi o web shell. Google osserva che queste tattiche sfruttano i punti deboli nel modo in cui i sistemi di intelligenza artificiale interpretano l’intento.
La crescita degli attacchi basati sull’intelligenza artificiale presenta serie sfide per i difensori. I metodi di rilevamento tradizionali basati su campioni di malware noti, firme statiche o modelli prevedibili sono inefficaci contro il codice che cambia costantemente o si basa su prompt in tempo reale provenienti da modelli di intelligenza artificiale esterni. Google avverte che questa evoluzione rende significativamente più difficile per i team di sicurezza rilevare e rispondere alle minacce attive.
Allo stesso tempo, la più ampia disponibilità di strumenti abilitati all’intelligenza artificiale sta abbassando la barriera all’ingresso per il crimine informatico. Le funzionalità sofisticate non sono più esclusive dei gruppi di minacce persistenti avanzate. I servizi basati su abbonamento e gli script di intelligenza artificiale predefiniti consentono ai criminali inesperti di lanciare attacchi credibili con conoscenze tecniche minime. Ciò ha aumentato sia la frequenza che la varietà degli attacchi rivolti a governi, aziende e individui.
Google consiglia diverse misure difensive per affrontare questi sviluppi. Le organizzazioni dovrebbero applicare l’autenticazione forte, adottare la verifica a più fattori e applicare il principio del privilegio minimo tra gli account utente. Dovrebbero correggere rapidamente le vulnerabilità note e rafforzare gli strumenti di monitoraggio per identificare comportamenti anomali. Google consiglia inoltre ai team di sicurezza di espandere i loro piani di risposta agli incidenti per includere le minacce abilitate all’intelligenza artificiale e di integrare feed di intelligence sulle minacce che tracciano l’attività relativa all’intelligenza artificiale nei mercati clandestini.
Il rapporto evidenzia che i difensori devono trattare le minacce abilitate all’intelligenza artificiale come un rischio immediato piuttosto che una preoccupazione futura. La combinazione di intelligenza artificiale generativa e operazioni informatiche consente agli aggressori di automatizzare la ricognizione, sfruttare le vulnerabilità più velocemente e produrre malware adattivo che cambia in tempo reale. Ciò richiede alle organizzazioni di adottare il rilevamento proattivo, l’apprendimento continuo e la collaborazione con fornitori di intelligence affidabili.
Sebbene alcuni malware abilitati all’intelligenza artificiale identificati da Google rimangano in fase di test, la tendenza è chiara. L’uso dell’intelligenza artificiale negli attacchi informatici sta accelerando e il divario tra uso legittimo e dannoso si sta riducendo. Il rapporto invita i difensori a dare priorità alla visibilità dei flussi di lavoro degli aggressori, a formare gli analisti a riconoscere gli indicatori relativi all’intelligenza artificiale e a progettare sistemi resilienti in grado di resistere alle minacce adattive.
L’intelligenza artificiale è ormai parte integrante del panorama globale delle minacce informatiche. Dal malware dinamico e automodificante alle operazioni di phishing automatizzate, gli aggressori stanno rimodellando il modo in cui si svolgono le intrusioni. I team di sicurezza che sensibilizzano sull’abuso dell’IA, rafforzano le difese operative e monitorano l’evoluzione degli strumenti abilitati all’IA saranno meglio preparati a rispondere a questo ambiente di minacce in rapida evoluzione.
