3min Security

Exabeam richt zich op beveiliging van autonome AI-agents

Exabeam richt zich op beveiliging van autonome AI-agents

Exabeam breidt zijn New-Scale-platform uit met beveiligingsfunctionaliteit die specifiek is gericht op AI-agents. Met de uitbreiding wil het bedrijf organisaties beter inzicht geven in de risico’s die ontstaan door het toenemende gebruik van autonome AI binnen bedrijfsprocessen.

Volgens SiliconANGLE combineert de nieuwe release verschillende onderdelen die tot nu toe vaak los van elkaar werden ingezet. Exabeam brengt gedragsanalyse van AI-agents, onderzoek op basis van een uniforme tijdlijn en zichtbaarheid van de beveiligingsstatus rond AI-gebruik samen binnen één securityworkflow. Daarmee positioneert het bedrijf de uitbreiding nadrukkelijk als een doorontwikkeling van zijn bestaande user and entity behavior analytics, die nu ook wordt toegepast op niet-menselijke gebruikers.

De inzet van AI-agents neemt snel toe. Deze agents functioneren steeds vaker als een digitale workforce met toegang tot gevoelige data en bedrijfskritische systemen. Daarbij ontbreekt het volgens Exabeam aan governance en continue monitoring. Dat vergroot het risico dat agents data delen buiten hun bedoelde context. En interne beleidsregels omzeilen of wijzigingen doorvoeren zonder dat duidelijk is wie daar opdracht toe gaf.

Nieuwe soort insider threats 

Die ontwikkeling verandert ook het klassieke beeld van insider threats. Waar beveiliging traditioneel was gericht op menselijke gebruikers, gaat het nu steeds vaker om autonome software-entiteiten die zelfstandig beslissingen nemen. Traditionele SIEM- en XDR-oplossingen zijn vooral gebaseerd op bekende dreigingspatronen en vaste regels. Dit leidt ertoe dat afwijkend gedrag van AI-agents moeilijk te herkennen is zolang het niet expliciet als dreiging is gedefinieerd.

De uitbreiding van het New-Scale-platform richt zich op gedragsanalyse als kernmechanisme. Door vast te leggen wat normaal gedrag is voor een AI-agent binnen een specifieke rol, kan het platform afwijkingen sneller signaleren. Dat geldt bijvoorbeeld wanneer een agent systemen benadert die niet bij zijn taak horen. Of wanneer het ongebruikelijke hoeveelheden gevoelige data verwerkt. Wanneer dergelijk gedrag wordt gedetecteerd, wordt automatisch een gedetailleerde tijdlijn opgebouwd om onderzoek te versnellen.

Daarnaast legt Exabeam meer nadruk op het veilig aansluiten van AI-agents op data en systemen. Agents hebben toegang nodig om effectief te functioneren, maar die toegang moet volgens het bedrijf strikt worden begrensd. Door onboarding en datatoegang te centraliseren, wil Exabeam voorkomen dat organisaties ad-hoc integraties opzetten die moeilijk te beveiligen en te controleren zijn.

Naast operationele detectie richt de uitbreiding zich ook op strategisch overzicht. Beveiligingsteams en bestuurders krijgen inzicht in hoeveel AI-activiteit daadwerkelijk wordt gemonitord en hoe volwassen de beveiligingsaanpak rond AI-agents is. Daarbij worden ook gerichte aanbevelingen gedaan om hiaten te verkleinen en de beveiligingspositie te verbeteren, onder meer in relatie tot bestaande compliancekaders zoals NIST en GDPR.

Exabeam stelt dat toezicht op AI-agents onvermijdelijk een structureel onderdeel wordt van het securitylandschap. Volgens het bedrijf en analisten zal beveiliging rond autonome AI zich ontwikkelen tot een volwaardige categorie binnen cybersecurity, naast identiteits-, cloud- en databescherming.