3min Security

Google: AI hielp vermoedelijk bij ontwikkeling zero-day voor aanval

Google: AI hielp vermoedelijk bij ontwikkeling zero-day voor aanval

Google zegt vermoedelijk een cyberaanval te hebben voorkomen waarbij hackers AI gebruikten om een zero-day kwetsbaarheid te ontwikkelen. Volgens Google Threat Intelligence Group laat het incident zien hoe generatieve AI steeds verder opschuift van hulpmiddel naar actief onderdeel van cyberaanvallen.

De onderzoekers stellen dat zij voor het eerst een exploit hebben gezien waarvan vermoedelijk AI heeft geholpen bij de ontwikkeling. Het ging om een kwetsbaarheid in een populaire open-source webtool voor systeembeheer. Daarmee kon tweefactorauthenticatie worden omzeild, mits aanvallers al beschikten over geldige inloggegevens.

Volgens Google wilden cybercriminelen de kwetsbaarheid inzetten voor een grootschalige aanvalscampagne. Het bedrijf zegt samen met de leverancier te hebben ingegrepen voordat de exploit actief werd misbruikt. Welke groep achter de aanval zat, maakt Google niet bekend. Wel zegt het bedrijf geen aanwijzingen te hebben dat Gemini werd gebruikt.

Volgens Google gebruiken aanvallers AI steeds vaker voor kwetsbaarheidsonderzoek en exploitontwikkeling. Vooral groepen die gelinkt worden aan China en Noord-Korea zouden actief experimenteren met AI-modellen om softwarefouten op te sporen.

Aanvallers laten modellen zich volgens Google voordoen als securityonderzoeker of firmware-expert om analyses uit te voeren op embedded systemen en protocollen. Ook gebruiken zij datasets met historische kwetsbaarheden om modellen beter te laten redeneren over beveiligingsfouten.

Daarnaast ziet Google dat aanvallers agentic tools inzetten om onderzoek en exploitvalidatie deels te automatiseren. Daarmee verschuift AI van een passieve assistent naar een systeem dat zelfstandig onderdelen van offensieve workflows uitvoert.

Malware wordt autonomer

Het rapport beschrijft ook malware die AI gebruikt voor obfuscatie en autonome uitvoering van taken. Sommige malwarefamilies genereren extra code zonder directe functie om detectie te bemoeilijken. Andere varianten passen scripts of payloads dynamisch aan om beveiligingssoftware te ontwijken.

Een voorbeeld is PROMPTSPY, een Android-backdoor die gebruikmaakt van Gemini-functionaliteit. Volgens Google kan de malware de gebruikersinterface van een toestel uitlezen, informatie naar een model sturen en vervolgens instructies terugkrijgen om handelingen uit te voeren, zoals klikken of swipen op specifieke schermonderdelen.

Naast misbruik van AI ziet Google ook dat AI-ecosystemen vaker doelwit worden. Daarbij richten aanvallers zich op libraries, plug-ins, API-connectors en andere componenten rond AI-platformen.

Het rapport verwijst onder meer naar aanvallen op softwareprojecten zoals LiteLLM en BerriAI. Via supply-chainaanvallen probeerden criminelen toegang te krijgen tot cloudcredentials, GitHub-tokens en andere gevoelige gegevens. Volgens Google kunnen zulke aanvallen niet alleen leiden tot ransomware of datadiefstal, maar ook tot misbruik van interne AI-systemen.

De publicatie verschijnt op een moment waarop AI-bedrijven nadrukkelijker discussiëren over de risico’s van krachtige securitymodellen. Anthropic stelde onlangs de uitrol van zijn Mythos-model uit vanwege zorgen over misbruik door criminelen. Inmiddels is het model beschikbaar voor een beperkte groep testers.

Google benadrukt dat dezelfde AI-technologie ook defensief kan worden ingezet. Het bedrijf verwijst daarbij naar Big Sleep, een AI-agent van Google DeepMind en Project Zero die onbekende kwetsbaarheden zoekt, en naar CodeMender, een experimenteel systeem dat kwetsbaarheden automatisch moet helpen repareren.