Cyberdreigingsactoren maken steeds vaker gebruik van kunstmatige-intelligentietools om de schaal en complexiteit van hun aanvallen te verbeteren, aldus new research de Google Threat Intelligence Group. Uit het rapport blijkt dat zowel door de staat gesteunde als criminele groepen AI nu integreren in bijna elke fase van een cyberaanval, van verkenning tot data-exfiltratie.

 

 

In eerdere jaren gebruikten bedreigingsactoren AI meestal om te helpen bij basistaken zoals het schrijven van phishing-berichten of het verzamelen van openbare informatie over doelen. De laatste analyse van Google geeft aan dat deze activiteiten zijn geëvolueerd. Aanvallers integreren AI rechtstreeks in malware, infrastructuur en commandobewerkingen. Het rapport noemt deze verschuiving “een nieuwe operationele fase van AI-misbruik”.

Een van de belangrijkste bevindingen betreft de opkomst van AI-malware die tijdens het uitvoeren vertrouwt op grote taalmodellen. Google identificeerde een malwarefamilie genaamd PROMPTFLUX die verbinding maakt met een AI-model en met regelmatige tussenpozen zijn eigen code herschrijft. Deze constante wijziging helpt het detectie te voorkomen door traditionele antivirusprogramma’s die afhankelijk zijn van vaste handtekeningen. Een ander voorbeeld, PROMPTSTEAL genaamd, gebruikt een AI-model om opdrachten te genereren voor het stelen van gegevens in plaats van te vertrouwen op vooraf geschreven scripts.

Dit betekent een grote escalatie in de manier waarop cyberoperaties functioneren. Kunstmatige intelligentie wordt niet langer alleen gebruikt om aanvallers te ondersteunen, maar is een actief onderdeel van hun campagnes geworden. De onderzoekers van Google merken op dat sommige van deze tools in staat zijn om nieuwe code te genereren of hun gedrag in realtime aan te passen op basis van feedback uit de omgeving.

De ondergrondse markt voor AI-gebaseerde cybertools breidt zich ook uit. Google vond advertenties op Russische en Engelstalige forums met AI-aangedreven phishingkits, programma’s voor het maken van malware en geautomatiseerde scantools. Velen worden gepromoot met behulp van professionele marketingtaal die snelheid, efficiëntie en schaal belooft. De toegankelijkheid van deze diensten stelt minder geschoolde criminelen in staat om complexe operaties uit te voeren die voorheen beperkt waren tot geavanceerde hackgroepen.

Door de staat gesponsorde actoren zijn een ander aandachtspunt van het rapport. Google identificeerde campagnes uit Noord-Korea, Iran en de Volksrepubliek China die sterk afhankelijk zijn van AI-systemen. Deze groepen gebruiken generatieve AI gedurende de volledige levenscyclus van aanvallen, inclusief verkenning, phishing, uitbuiting en gegevensdiefstal.

De aan China gelieerde groep APT41 heeft bijvoorbeeld het Gemini-model van Google gebruikt om code te schrijven in C++ en Go, versluierde command and control-frameworks te creëren en cloudgebaseerde aanvalsinfrastructuur te ontwikkelen. Een in Iran gevestigde actor die bekend staat als APT42 heeft naar verluidt een AI-model gebruikt om zoekopdrachten in natuurlijke taal om te zetten in databasezoekopdrachten, waardoor het telefoonnummers aan individuen kan koppelen en reispatronen kan volgen. Een Noord-Koreaanse groep geïdentificeerd als UNC1069 gebruikte Gemini om Spaanstalige phishing-bijlagen te maken en om tools te ontwikkelen voor het stelen van cryptocurrency.

Het rapport beschrijft ook hoe bedreigingsactoren AI-beveiligingen manipuleren om beperkte informatie te verkrijgen. Sommige aanvallers doen zich voor als onderzoekers, studenten of deelnemers aan cybersecurity-wedstrijden om hun verzoeken onschadelijk te laten lijken. Door dit te doen, omzeilen ze veiligheidssystemen en ontvangen ze technische instructies voor het maken van phishingkits, kwaadaardige scripts of webshells. Google merkt op dat deze tactieken profiteren van zwakke punten in de manier waarop AI-systemen intentie interpreteren.

De groei van AI-gestuurde aanvallen brengt ernstige uitdagingen met zich mee voor verdedigers. Traditionele detectiemethoden op basis van bekende malwaremonsters, statische handtekeningen of voorspelbare patronen zijn niet effectief tegen code die voortdurend verandert of afhankelijk is van realtime prompts van externe AI-modellen. Google waarschuwt dat deze evolutie het voor beveiligingsteams aanzienlijk moeilijker maakt om actieve bedreigingen te detecteren en erop te reageren.

Tegelijkertijd verlaagt de bredere beschikbaarheid van AI-tools de toetredingsdrempel voor cybercriminaliteit. Geavanceerde mogelijkheden zijn niet langer exclusief voor geavanceerde persistente bedreigingsgroepen. Op abonnementen gebaseerde services en vooraf gebouwde AI-scripts stellen onervaren criminelen in staat om geloofwaardige aanvallen uit te voeren met minimale technische kennis. Dit heeft zowel de frequentie als de verscheidenheid van aanvallen op overheden, bedrijven en individuen doen toenemen.

Google beveelt verschillende defensieve maatregelen aan om deze ontwikkelingen aan te pakken. Organisaties moeten sterke authenticatie afdwingen, multifactorverificatie invoeren en het principe van minimale privileges toepassen op gebruikersaccounts. Ze moeten bekende kwetsbaarheden snel patchen en monitoringtools versterken om abnormaal gedrag te identificeren. Google adviseert beveiligingsteams ook om hun incidentresponsplannen uit te breiden met AI-bedreigingen en om feeds met bedreigingsinformatie te integreren die AI-gerelateerde activiteiten in ondergrondse markten volgen.
Het rapport benadrukt dat verdedigers AI-bedreigingen moeten behandelen als een onmiddellijk risico in plaats van een toekomstig probleem. De combinatie van generatieve AI en cyberoperaties stelt aanvallers in staat om verkenning te automatiseren, kwetsbaarheden sneller uit te buiten en adaptieve malware te produceren die in realtime verandert. Dit vereist dat organisaties proactieve detectie, continu leren en samenwerken met betrouwbare inlichtingenverstrekkers invoeren.

Hoewel sommige AI-compatibele malware die door Google is geïdentificeerd, zich nog in de testfase bevindt, is de trend duidelijk. Het gebruik van kunstmatige intelligentie bij cyberaanvallen versnelt en de kloof tussen legitiem en kwaadwillig gebruik wordt kleiner. Het rapport roept verdedigers op om prioriteit te geven aan zichtbaarheid in de workflows van aanvallers, analisten te trainen om AI-gerelateerde indicatoren te herkennen en veerkrachtige systemen te ontwerpen die bestand zijn tegen adaptieve bedreigingen.

Kunstmatige intelligentie is nu een integraal onderdeel van het wereldwijde cyberdreigingslandschap. Van dynamische, zichzelf aanpassende malware tot geautomatiseerde phishing-operaties, aanvallers geven een nieuwe vorm aan de manier waarop inbraken zich ontvouwen. Beveiligingsteams die het bewustzijn van AI-misbruik vergroten, de operationele verdediging versterken en de evolutie van AI-tools volgen, zullen beter voorbereid zijn om te reageren op deze snel veranderende dreigingsomgeving.

Geef een reactie