Wiz: AI is infrastructuur, al heeft niet iedereen dat door

Wiz: AI is infrastructuur, al heeft niet iedereen dat door

Ondanks voortdurende twijfels over de precieze details van AI-adoptie is de technologie inmiddels een kernonderdeel van cloudinfrastructuur. Dat blijkt uit het Wiz Research-rapport State of AI in the Cloud 2026. AI-tooling verhelpt exploits, maar levert net zo goed een groter aanvalsoppervlak op.

AI is geen experiment meer in de cloud, zo blijkt uit het onderzoek, maar is regelmatig niet duidelijk in kaart gebracht. Minimaal 81 procent van de geanalyseerde cloudomgevingen maakt gebruik van managed AI-diensten, een stijging ten opzichte van de 74 procent die de onderzoekers van Wiz in vroeg 2025 meldden. Zeker 90 procent draait self-hosted AI-software. AI is daarmee diep verweven geraakt in ontwikkelworkflows, orkestratielagen en productiesystemen.

Opvallend genoeg zijn AI-gebruikers lang niet altijd bewuste eigenaars van de technologie. Van de organisaties die self-hosted AI-modellen draaien, doet 68 procent dat minstens gedeeltelijk via modellen die zijn meegeleverd in software van derden. Achttien procent vertrouwt zelfs uitsluitend op zulke ’transitieve’ componenten. Organisaties erven zo AI-functionaliteit via leveranciers en integraties, zonder dat dit bewust is ingericht. Wiz’s eigen Security Readiness Survey uit 2025 liet al zien dat 25 procent van de respondenten geen zicht had op welke AI-diensten er in hun omgeving draaiden. Dat gebrek aan zichtbaarheid is inmiddels een structureel governance-probleem, stelt Wiz.

Dit moet eigenlijk niemand verrassen, al zijn de precieze cijfers verhelderend om het probleem goed te duiden. Zo bleek uit eerder onderzoek dat ongecontroleerde AI-adoptie het risico op shadow IT vergroot, waarbij 29 procent van de AI-agents niet officieel is goedgekeurd.

AI stapelt zich op zonder zichtbaarheid

AI-gedreven ontwikkeling is inmiddels de norm. Minstens 80 procent van de organisaties gebruikt AI-IDE-extensies en 71 procent heeft één of meer AI-copilots in gebruik. Overigens verloopt copilot-adoptie doorgaans bottom-up, aangestuurd door individuele ontwikkelaars zonder centraal beleid. Daardoor ontstaan zogeheten ‘shadow AI’-pockets in ontwikkelomgevingen, die buiten het bereik van security-teams vallen. Gezien de veranderende prijsmodellen kan dit een kostbare fout zijn, afgezien van de securitygevaren.

Die gevaren zijn ondertussen net zo goed voelbaar als de AI-druk op de portemonnee. In september stelde Wiz Research al vast dat bij circa één op de vijf organisaties die AI-ondersteunde vibe-coding platforms gebruiken, applicaties aangetast waren door structurele securityproblemen. Die gebreken waren niet het gevolg van individuele fouten, maar van herhaalde patronen en standaardinstellingen waar AI-systemen op voortborduurden. Wiz heeft vervolgens samen met platforms zoals Lovable gewerkt om beveiligingsdrempels te verhogen. Dat AI-gegenereerde code vaker dezelfde onveilige patronen herhaalt, is tevens eerder gebleken, destijds in de context van open source en IP-controle.

Daarnaast groeien AI-agents en MCP-servers snel. Minstens 57 procent van de organisaties heeft minstens één self-hosted AI-agent-technologie uitgerold. MCP-servers zijn aanwezig in minimaal 80 procent van de cloudomgevingen. Van die groep heeft 5 procent minstens één MCP-server die direct bereikbaar is via internet. Het is een concreet gevaar dat alleen met extra securitylagen ingedamd kan worden.

Aanvallers profiteren van AI-assistentie

AI vergroot niet alleen het aanvalsoppervlak, het verlaagt ook de drempel voor aanvallers. Dat is inmiddels haast een cliché, maar net zo goed waar. Wiz documenteerde samen met Rubrik Zero Labs malware die AI-diensten inzet om de uitvoering aan te passen tijdens runtime. In de s1ngularity supply chain-aanval maakten kwaadaardige packages misbruik van geïnstalleerde AI-gedreven CLI’s, waaronder Claude, Gemini en Amazon Q, voor verkenning en het verzamelen van inloggegevens.

Ander onderzoek, namelijk vanuit het Censys-platform, vond duizenden openbaar toegankelijke Ollama-instances. Wiz Research zelf ontdekte eerder de kwetsbaarheid Probllama (CVE-2024-37032) in Ollama, een kritiek lek dat remote code execution mogelijk maakte. Google Threat Intelligence analyseerde een campagne waarbij aanvallers misbruik maakten van OAuth-tokens gekoppeld aan AI-integraties om toegang te krijgen tot Salesforce-omgevingen en data te exfiltreren.

Tegelijkertijd werkt Wiz zelf aan de verdediging. Wiz benadrukt de impact van AI op runtime-security, en recent werd een multi-cloud platform gebouwd bovenop de Wiz Security Graph om AI-gestuurde bedreigingen te detecteren, ongeacht de IT-omgeving. Ondertussen ziet 70 procent van de organisaties AI als het grootste datarisico, met slechte zichtbaarheid op datapaden als voornaamste zorg.

Wiz stelt dat het beveiligen van AI-componenten dezelfde prioriteit moet krijgen als elke andere cloud-workload. Dat betekent dat er een nadruk moet volgen op inventarisatie, configuratiebeheer, identity governance en exposure management. De vraag omtrent security verschuift volgens het rapport van ‘welke AI-provider gebruiken we’ naar ‘welke AI-componenten draaien er al in onze omgeving’. Het zal menig organisatie verbazen hoeveel shadow AI er nog verstopt is in alle systemen, zelfs van providers die al bekend zijn.