11 min Analytics

AI is een broodnodige innovatie, maar wees voorzichtig

AI is een broodnodige innovatie, maar wees voorzichtig

Binnen de securitywereld is er veel te doen over de impact van artificial intelligence. Maar wat doet AI aan de kant van de aanvallers? En hoe wordt het ingezet binnen securityproducten die bedrijven veiliger moeten maken? Is het ook mogelijk om de AI die binnen organisaties wordt gebruikt, te beveiligen? Techzine neemt het onder de loep.

Elke vraag hebben we behandeld in een afzonderlijk artikel, waarin experts uit het veld aan het woord komen. Zij namen eerder deel aan een rondetafelgesprek van Techzine. De deelnemers zijn: André Noordam van SentinelOne, Patrick de Jong van Palo Alto Networks, Daan Huybregts van Zscaler, Joost van Drenth van NetApp, Edwin Weijdema van Veeam, Pieter Molen van Trend Micro, Danlin Ou van Synology, Daniël Jansen van Tesorion en Younes Loumite van NinjaOne. In dit laatste artikel schenken we aandacht aan AI voor veilig gebruik binnen de organisatie. Wat kunnen bedrijven doen om AI veilig en effectief in te zetten zonder grote risico’s te lopen?

Lees ook ons eerste verhaal binnen de AI in/en cybersecurity-reeks dat een nauwkeurig beeld geeft over de staat van aanvallen en ons tweede verhaal over de invloed van AI op cyberbeveiliging.

Een tweesnijdend zwaard

Drie mensen zitten aan een houten vergadertafel in een kamer met oranje muren, verwikkeld in een gesprek. Er staan naambordjes, waterflessen en een gelaagde schaal met gebak op tafel.
V.l.n.r.: Daniël Jansen, Younes Loumite en Edwin Weijdema

Organisaties vinden AI maar wat interessant. Zeker nu verschillende bedrijven aantonen de vruchten ervan te plukken. Vaak worstelen ze nog wel met de vraag waar ze het kunnen inzetten, maar bijvoorbeeld in customer support of in simpele dagelijkse taken van business users kan het winst opleveren. Bovendien wordt verwacht dat de technologie in de toekomst nog waardevoller wordt. Menig bedrijf maakt dan ook de keuze om AI snel te implementeren om de boot niet te missen. Want negeren van de technologie – maar ook iets als het niet begrijpen – kan ervoor zorgen dat je achterloopt op de concurrentie. Je behaalt niet de nodige extra productiviteit en/of vereiste probleemoplossing. Op cybervlak kan het je bedrijf zelfs onveiliger maken, omdat je niet van de nieuwste techniek profiteert.

“De grootste fout die een organisatie kan maken, is AI negeren”, geeft Molen van Trend Micro aan. Tegelijkertijd zegt hij dat, hoe logisch het omarmen van AI ook lijkt, er net als bij andere innovaties risico’s en uitdagingen aan kleven. Molen vergelijk artificial intelligence dan ook figuurlijk met een tweesnijdend zwaard. Of om de metafoor verder te trekken: “Als je het mes correct gebruikt is het perfect voor het snijden van kaas, maar als je het foutief gebruikt kan het ernstige letsel aanrichten.” De vergelijking van Molen zou je breed kunnen trekken, ook in cybersecurity. Het op een correcte manier binnen de securitystrategie gebruiken van AI levert aanzienlijke voordelen op, maar aan artificial intelligence kleeft ook de potentie dat het aanvallers efficiënter maakt.

Vertrouwen in AI-tools

Wanneer je kijkt naar waar de huidige nood van het implementeren vandaan komt, dan wordt het grotendeels veroorzaakt door de nieuwe mogelijkheden. AI wordt al tientallen jaren toegepast binnen het hele IT-landschap. Feit is echter dat modellen meer kunnen door toegenomen complexiteit. De uitkomsten zijn veel beter dan voorheen vanwege het geavanceerde karakter. Zelfs de kleinere modellen bevatten miljarden regels code.

Weijdema van Veeam erkent de complexiteit, waar wat hem betreft ook weer een nieuwe aanpak voor nodig is. Hij vraagt zich namelijk af hoe mensen nog tot in de detail de modellen kunnen begrijpen. “Zelfs een klein AI-model bevat 6,4 miljard lijnen. We hebben echt AI nodig om AI te begrijpen”, aldus Weijdema. Door de complexiteit gebruiken bedrijven mogelijk AI-tools die ze niet volledig kunnen doorgronden, wat leidt tot een groter risico op fouten en misbruik. Een bijkomende uitdaging is het vertrouwen dat bedrijven moeten stellen in AI-systemen, zonder de mogelijkheid om te verifiëren hoe de tools werken. Weijdema pleit voor een gebalanceerde benadering: “Gebruik AI, maar wees voorzichtig. Vertrouw, maar verifieer.”

Realiseer de juiste digitale hygiëne

Het inbouwen van controlemechanismen en valideringsprocessen zal een technologisch vraagstuk zijn, maar er komt ook een menselijke factor bij kijken. Menselijke controle blijft essentieel. Hoe kan je ervoor zorgen dat de output van modellen correct wordt geïnterpreteerd en indien nodig aangepast? Dit geldt in het bijzonder voor securitytoepassingen, waar een foutieve output rampzalige gevolgen kan hebben. Technische vangrails helpen, maar medewerkers zijn het mogelijke laatste vangnet om een foutieve output eruit te filteren.

Vergaderruimte met meerdere mensen aan een tafel, een groot raam op de achtergrond en diverse papieren, kopjes en een karaf water op tafel.
V.l.n.r.: Daan Huybregts en Joost van Drenth

Aan tafel merkt André Noordam van SentinelOne dan ook op dat de mens op papier een zwakke schakel is. Als medewerkers onveilig gedrag vertonen, kan je betwijfelen of investeringen in AI-systemen zinvol zijn. Noordam: “Je kunt een zeer veilige AI hebben, maar als medewerkers thuis onbeveiligde AI-tools gebruiken, kunnen ze alle beveiliging omzeilen.” Met zijn opmerking illustreert Noordam de noodzaak voor bedrijven om niet alleen te investeren in technologie, maar ook in de training en bewustwording van personeel.

Digitale hygiëne vervult hier de sleutelrol. Medewerkers moeten weten welke risico’s ze lopen bij het delen van data en hoe ze AI-tools veilig kunnen gebruiken. Zonder de juiste training kan een medewerker per ongeluk gevoelige gegevens vrijgeven of een onbeveiligde AI-tool gebruiken, wat de organisatie blootstelt aan cyberaanvallen.

Het vangnet: mix van tech en mens

Voor Danlin Ou van Synology is het dan ook duidelijk dat we de juiste balans moeten vinden. Wat kan je doen met AI en waar kan technologie juist de grens bepalen? En welke verantwoordelijkheid ligt bij de medewerker? Ou wijst op de praktische toepassing in klantenondersteuning. Een chatbot kan veelgestelde vragen in level 1- en level 2-support beantwoorden. Op basis van keywords doorzoekt het snel kennisbanken. Meestal volgt een juiste output, maar het kan ook irrelevante informatie delen. Voorlopig is het aan de medewerker dat te filteren. Maar, zo ziet Ou, op technologisch vlak is er ook genoeg controle mogelijk. “Net als met MFA kunnen we bijvoorbeeld pop-ups toepassen. Zo’n pop-up toont dan dat de gebruiker gevoelige informatie deelt. In de pop-up verifieert hij dan of hij echt de data wil delen”, aldus Ou.

Ook Jansen van Tesorion ziet een belangrijke rol voor menselijke bewustwording bij het veilig toepassen van AI binnen organisaties. Technologie kan beschermende barrières creëren, maar zonder bewustzijn kunnen medewerkers onbedoeld data onveilig kopiëren of verkeerde keuzes maken. Hij merkt op dat er altijd medewerkers zullen zijn die onvoldoende kennis hebben over de risico’s van AI of die zich niet realiseren wat de gevolgen kunnen zijn van een kleine fout. “Als medewerkers niet weten wat ze veilig kunnen doen, blijft er een risico bestaan”, waarschuwt Jansen. Hij benadrukt dat voorlichting en training over AI-veiligheid essentieel zijn voordat technologische maatregelen effectief worden.

Organisaties kunnen hiervoor een cultuur van veiligheid creëren. AI wordt dan beschouwd als een tool die zorgvuldig gebruikt moet worden. Hiervoor kan je een stapsgewijze aanpak toepassen waarbij bedrijven beginnen met bewustwordingsprogramma’s voor medewerkers, gevolgd door de implementatie van technische vangrails. Zo krijgen organisaties een stevige basis om AI veilig te integreren, zonder dat medewerkers onbewust datarisico’s verhogen. Training en technologie moeten samenwerken om een veilige omgeving te waarborgen waarin AI een positieve bijdrage levert.

Sandboxing als oplossing

Het creëren van bewustwording mag wat dat betreft prioriteit krijgen. Tegelijkertijd dient op technologisch vlak progressie geboekt worden. Loumite van NinjaOne ziet wel wat in geïsoleerde, gecontroleerde sandboxing-omgevingen waarin data wordt gebruikt. Sandboxing voorkomt dat AI-modellen toegang krijgen tot gevoelige informatie of deze verspreiden naar ongeautoriseerde delen van de organisatie. “Voor confidentiële data heb je sandboxing nodig, en je moet er zeker van zijn dat data gebruikt wordt in een omgeving die zo min mogelijk impact heeft”, aldus Loumite.

Door de afgeschermde omgeving is data ook afgeschermd van mogelijke kwetsbaarheden. Dit type beveiliging kan helpen om AI snel en veilig te laten werken. Zo raak je als bedrijf niet achterop in de AI-race. “Want als je geen AI gebruikt, verlies je op efficiëntievlak van concurrenten die het wel goed gebruiken”, ziet Loumite.

Precisie door AI-ondersteuning

Vier mensen zitten aan een rechthoekige vergadertafel in een kamer met grote ramen en gordijnen, terwijl ze met elkaar in gesprek zijn.
V.l.n.r.: André Noordam, Patrick de Jong, Pieter Molen en Danlin Ou

Houd je rekening met de valkuilen, dan zijn veel deelnemers van de rondetafel het erover eens dat er genoeg voordelen te realiseren zijn. Zo ook Joost van Drenth van NetApp. Hij ziet dat AI bij uitstek geschikt is voor toepassingen waar tijdswinst direct de efficiëntie verhoogt, zoals in radiologie. “AI kan een radioloog niet vervangen, maar functioneert wel op het niveau van een goed opgeleide professional, wat hen tot 70 tot 80 procent van hun tijd bespaart”, legt Van Drenth uit. Hij ziet hierin niet alleen een efficiëntiewinst, maar ook een manier om gespecialiseerde beroepen te ondersteunen in hun taken. De inzet van AI zorgt ervoor dat professionals meer casussen kunnen behandelen zonder dat de kwaliteit van hun werk eronder lijdt.

Daarnaast ziet Van Drenth een vergelijkbare trend in security en datamanagement. Na een incident waarin data moet worden hersteld, kunnen IT-teams te maken krijgen met honderden herstelpunten die handmatig gecheckt en teruggezet moeten worden. Hier kan AI voor winst zorgen middels suggesties en een geautomatiseerd herstelproces. “In plaats van dat we uren of dagen bezig zijn met handmatige beslissingen, kan AI ons ondersteunen met automatische herstelopties die overeenkomen met wat we anders zelf zouden doen”, aldus Van Drenth. Dit toont de kracht van AI in sectoren waar snelheid en precisie cruciaal zijn. De mens wordt met AI ondersteund om alledaagse problemen efficiënter op te lossen, maar blijft wel zelf eindverantwoordelijk voor de beslissing.

Maar waar kunnen we het inzetten?

De inzet van AI voor beschermingsdoelen vraagt een hoog niveau van nauwkeurigheid en stabiliteit, vooral binnen de context van cybersecurity. De Jong van Palo Alto Networks deelt het Precision AI-systeem. Daarbij is er geen ruimte voor hallucinaties, doordat het model getraind is op basis van een rijke set securitydata. Het kan dreigingen detecteren en voorkomen en ervoor zorgen dat de foutmarge miniem is. Dit ten opzichte van gebruikelijke generatieve AI, waarbij de resultaten soms afwijken of zelfs onjuist zijn. Dat brengt risico’s met zich mee, vooral als de AI wordt ingezet voor cruciale beslissingen. “Precision AI moet zeer accuraat zijn en foutmarges zijn niet toelaatbaar”, zegt De Jong. Hij wijst erop dat voor bescherming tegen gerichte aanvallen geen enkele vorm van afwijkende output acceptabel is.

De Jong ziet echter wel potentieel voor generatieve AI in minder kritische, ondersteunende taken, mits organisaties zich bewust zijn van de beperkingen. “Bij generatieve AI-toepassingen kunnen er fouten optreden, maar dit is te beheersen zolang bedrijven het voornamelijk inzetten voor taken waar creativiteit en flexibiliteit gewenst zijn. Denk aan het genereren van rapporten of het ondersteunen van klantenservice”, concludeert De Jong. Wat hem betreft moet deze toepassing wel goed gescheiden blijven van kritieke bedrijfsprocessen. De kwaliteit en betrouwbaarheid van de output blijft cruciaal om in overweging te nemen.

Continuïteit en compliance

In de securitywereld lijkt dan ook genoeg mogelijk met AI. Het securitylandschap is constant in beweging en verandert vaak per minuut, wat vraagt om een nieuw soort monitoring. Huybregts van Zscaler wijst er dan ook op dat AI in staat is om doorlopend omgevingen te monitoren. “Waar voorheen iedere paar maanden een enkele check plaatsvond, kan AI doorlopend toetsen aan nieuwe standaarden en regelgeving”, zegt Huybregts. Zo blijft de beveiliging zoveel mogelijk up-to-date zonder handmatige tussenkomst. Dit wordt met name belangrijk wanneer bedrijven data uitwisselen tussen cloudomgevingen en fysieke netwerken, waar continuïteit cruciaal is.

AI kan dan ook de oplossing zijn om deze veranderingen bij te houden en meteen maatregelen te treffen wanneer afwijkingen worden gesignaleerd. Omdat bedrijven steeds vaker te maken krijgen met geautomatiseerde omgevingen en complexere aanvallen, kan artificial intelligence helpen om risico’s sneller te identificeren en organisaties compliant te houden. De continue monitoring biedt de zekerheid dat de organisatie voldoet aan nieuwe standaarden, ongeacht hoe snel de omgeving verandert.

Balans vinden

Al met al kunnen we dan ook stellen dat AI volop kansen biedt voor bedrijven, maar het eveneens nieuwe risico’s met zich meebrengt. Het veilig toepassen van AI vereist een gebalanceerde aanpak gericht op technologische innovatie, training en bewustwording. Zoals de experts tijdens het rondetafelgesprek duidelijk hebben gemaakt, moeten bedrijven AI met de nodige voorzichtigheid omarmen. Zonder duidelijke regels en richtlijnen kan de technologie meer kwaad dan goed doen.