Het Nederlands cybersecuritybedrijf Eye Security heeft een securitylek ontdekt in Microsoft Copilot Enterprise, waarbij kwaadwillenden code konden uitvoeren op het achterliggende systeem. Microsoft heeft de kwetsbaarheid inmiddels verholpen.
Het probleem werd ontdekt tijden onderzoek in april naar de beveiliging van Microsofts AI-oplossingen. Eye Security toonde aan dat het mogelijk was om via een pgrep-commando met verhoogde rechten code uit te voeren op het onderliggende systeem. Ondanks dat dit het risico verhoogt op ongeautoriseerde toegang tot gevoelige gegevens en systemen, achtte Microsoft het lek als een ‘gemiddeld’ gevaar. Hierdoor ontving Eye Security geen bug bounty.
Jupyter Notebook als aanvalsvector
De onderzoekers stuitten op een probleem binnen de live Python sandbox van Copilot Enterprise. Via Jupyter Notebooks bleek het mogelijk om commando’s met verhoogde rechten uit te voeren. Ook speelde een ander probleem mee: ongeautoriseerde toegang tot het Responsible AI Operations-paneel van Microsoft.
AI-oplossingen brengen nieuwe uitdagingen met zich mee die organisaties nog leren kennen, merkt het onderzoeksteam op. Microsoft is in enorm hoog tempo AI-tooling aan het uitrollen, dat wellicht kan botsen met het zelfgestelde doel om de eigen security weer in orde te maken. Dat laatste was namelijk niet al te best gesteld na invallen vanuit zowel cyberaanvallers uit Rusland als China.
Lees ook: Microsoft herhaalt lessen die het zelf bij Russische hack niet had geleerd
BlackHat-presentatie gepland
Het volledige onderzoek van Eye Security wordt binnenkort gepresenteerd tijdens BlackHat USA 2025 in Las Vegas. Op donderdag 7 augustus om 13:30 uur plaatselijke tijd zal Eye Security hun bevindingen delen in een sessie getiteld “Consent & Compromise: Abusing Entra OAuth for Fun and Access to Internal Microsoft Applications”.