Google lanceert een reeks oplossingen om de beveiliging van AI-systemen te versterken. En om kunstmatige intelligentie actief in te zetten als verdedigingsmiddel tegen cyberdreigingen.
In een aankondiging van 6 oktober presenteerde het bedrijf de AI-agent CodeMender. De agent is ontwikkeld door Google DeepMind en gebruikt de geavanceerde Gemini-modellen om automatisch beveiligingsproblemen in software op te sporen en te herstellen. Volgens Google kan de agent zelfstandig kwetsbaarheden analyseren, de onderliggende oorzaak identificeren en een correctievoorstel genereren.
De voorgestelde patches worden vervolgens gecontroleerd door afzonderlijke AI-systemen die functioneren als automatische reviewers. Pas daarna volgt een beoordeling door menselijke ontwikkelaars.
Uit aanvullend berichtgeving van SiliconANGLE blijkt dat CodeMender al 72 patches heeft ingediend bij open-sourceprojecten, goed voor meer dan 4,5 miljoen regels code. De technologie wordt ingezet om zowel bestaande fouten te verhelpen als om code te herstructureren zodat bepaalde categorieën kwetsbaarheden niet meer kunnen optreden. In een demonstratie werd de AI toegepast op de libwebp-bibliotheek. Hier voegde CodeMender extra veiligheidsannotaties toe om buffer-overflows te voorkomen. Die bibliotheek was eerder betrokken bij een zero-click aanval op iOS in 2023.
Extra controlelaag waarborgt betrouwbaarheid
De onderliggende aanpak combineert statische en dynamische analyse met technieken zoals fuzzing en symbolisch redeneren. Een aparte controlelaag, aangeduid als een LLM-judge, evalueert of de voorgestelde aanpassingen de functionaliteit van de software behouden. Wanneer er onregelmatigheden worden gevonden, kan CodeMender zijn eigen wijziging corrigeren voordat een patch wordt voorgelegd aan menselijke beoordelaars.
Naast CodeMender lanceerde Google het AI Vulnerability Reward Program. Dat programma centraliseert de regels en beloningen voor het melden van kwetsbaarheden in AI-systemen. AI-gerelateerde onderdelen van bestaande beloningsprogramma’s zijn hierin samengebracht om het rapporteren van relevante fouten te vereenvoudigen. Volgens Google is via eerdere AI-gerelateerde trajecten al meer dan 430.000 dollar aan beloningen uitgekeerd.
Het bedrijf heeft ook het Secure AI Framework uitgebreid naar versie 2.0. Deze versie richt zich op de beveiliging van autonome AI-agenten en introduceert een risicokaart waarmee beveiligingsteams dreigingen kunnen identificeren in de verschillende lagen van een AI-systeem.
De update benadrukt dat AI-agenten altijd onder menselijke controle moeten staan, dat hun mogelijkheden beperkt moeten zijn en dat hun handelen transparant en controleerbaar blijft. Google deelt de risicodata met de Coalition for Secure AI om samenwerking binnen de sector te bevorderen.
Volgens Google is het doel van deze initiatieven om de balans in de digitale veiligheid te verschuiven. Waar kunstmatige intelligentie door kwaadwillenden wordt gebruikt voor snellere en geavanceerdere aanvallen, wil het bedrijf de technologie inzetten om verdedigers structureel te versterken. Google werkt daarbij samen met publieke en private partners, waaronder het Amerikaanse onderzoeksbureau DARPA, en benadrukt dat het de komende jaren blijft investeren in de verdere ontwikkeling van veilige en betrouwbare AI-systemen.