7min Analytics

SAS-CTO Bryan Harris: AI vraagt om pragmatisme, niet om hype

SAS-CTO Bryan Harris: AI vraagt om pragmatisme, niet om hype

De drang om AI toe te passen is groot. Zowel bestuurders als technische teams voelen zich gestimuleerd om van de technologie een succes te maken. Maar is dat altijd de juiste instelling? Volgens Bryan Harris is een terugkeer naar pragmatisch denken over AI-inzet nodig. We spraken met de Chief Technology Officer van SAS tijdens zijn recente bezoek aan Nederland over waarom organisaties moeten beginnen met het probleem, niet de technologie.

Een gesprek met SAS staat eigenlijk zo goed als altijd in het teken van AI. Dat is in dit geval een goed teken, want het bedrijf richtte zich eigenlijk al ver voor de generatieve AI-hype op software voor het bouwen en beheren van modellen. En met het 50-jarig bestaan aanstaande juli wil dat zeggen dat SAS vele vormen en trends rond analytics en artificial intelligence voorbij heeft zien komen. Toch is de interesse in de technologie in al zijn vormen de afgelopen jaren in een recordtempo toegenomen.  

Veel organisaties hebben immers vol enthousiasme AI-projecten opgezet, vaak zonder duidelijke doelstelling. Volgens Harris leidt dit tot problemen. “Mensen zijn geobsedeerd door AI en niet door het probleem dat ze proberen op te lossen”, stelt hij. In zijn optiek moeten bedrijven eerst vaststellen welke problemen ze hebben, welke ze willen aanpakken en welke metric ze willen beïnvloeden. Pas daarna ga je kijken of AI daar een rol in kan spelen. Dat kan bij wijze van spreken betekenen dat je ‘slechts’ een AI-oplossing inzet voor één probleem binnen je organisatie. 

Hoewel dat logisch klinkt, werkt het in de praktijk echt anders. Harris ziet dat haast iedere medewerker van ieder bedrijf, van C-level tot data scientists, geprikkeld wordt om AI-succesverhalen te vertellen. Rolt een van de medewerkers succesvol een AI-project uit, dan is dat goed geweest voor de carrière van die persoon. Maar het heeft ook geleid tot afleiding. De meest krachtige vaardigheid is volgens hem weten wanneer je AI moet afwijzen omdat het voor bepaalde stappen simpelweg geen toegevoegde waarde heeft.

Deterministische systemen versus generatieve AI

Een kernuitdaging bij AI-implementatie ligt volgens Harris in het verschil tussen deterministische en niet-deterministische systemen. Traditionele software levert bij dezelfde input altijd dezelfde output. Daarbij kan je denken aan traditionele machine learning-modellen. Large language models (llm’s) leveren echter niet dezelfde output op dezelfde input. Die non-deterministische aard kan leiden tot kleine fouten die zich opstapelen tot grote problemen in workflows.

“Als je een niet-deterministisch systeem introduceert, moet je verificatie- en validatie-frameworks hebben”, legt Harris uit. Zonder die controles ga je ervan uit dat het systeem altijd correct werkt. Dat is echter niet het geval. Dit brengt het gevaar van een foutieve output met zich mee. SAS probeert zoveel mogelijk te ondersteunen bij het realiseren van de juiste AI-systemen. Het Viya-platform biedt bijvoorbeeld de Model Manager waarin zich governance-functies bevinden voor validatie, approvals en monitoring. Maar ook een tool als Model Risk Management kan in deze situaties ondersteunen, waarin vooral gereguleerde sectoren functies vinden voor het nemen van high-riskbeslissingen op basis van AI die 100 procent correct moeten zijn.

Harris geeft ook aan dat SAS zelf voortdurend kijkt hoe het intern llm’s in kan zetten om met niet-deterministische systemen resultaten te boeken. Een goed voorbeeld is het genereren van code, iets waar menig organisatie mee worstelt doordat de werklast voor ontwikkelaars simpelweg te groot is om alles handmatig te schrijven. Bij SAS draait codegeneratie dan ook op volle toeren. Het bedrijf heeft naar verwachting eind februari 2026 tussen de 11 en 15 miljoen regels code gegenereerd met behulp van AI. Dat gebeurt vooral met Anthropic Claude, dat volgens Harris uitblinkt in context-integratie voor codegeneratie. Ook Microsoft GitHub Copilot wordt gebruikt, maar voor bepaalde taken blijkt Anthropic nauwkeurigere code te leveren.

Tip: Met 50 jaar ervaring in analytics zet SAS de AI-koers uit

Agentic AI met menselijke controle

Het punt over deterministisch versus niet-deterministisch raakt ook de huidige trend agentic AI. Bij agentic AI worden in de basis llm’s gebruikt voor het kiezen van acties. Harris maakt bij dit type artificial intelligence onderscheid tussen gebruikstoepassingen voor ‘persoonlijke productiviteit met laag risico’ en ‘hoogrisicobesluiten’. SAS richt zich voor agentic AI enkel op die laatste categorie, omdat de klanten zich daar traditioneel bevinden. Denk aan fraude, life sciences en het bank- en verzekeringswezen.

Precies in dat soort sectoren is het zaak om agentic AI alleen in te zetten wanneer het helemaal waterdicht is. De llm’s toegepast voor agentic AI moeten expliciet niet zelf de beslissingen nemen. Ze dienen te fungeren als interface naar betrouwbare, deterministische systemen. “We vragen large language models niet om te infereren. We vragen ze om de resultaten samen te vatten van andere systemen die daadwerkelijk bepalingen maken.”

SAS kan zich vanuit dat perspectief niet veroorloven dat agentic AI ingezet wordt en af en toe zelfstandig een foutieve handeling doet. “Je kunt niet 90 procent van de tijd correct zijn. Je moet 100 procent correct zijn”, benadrukt Harris. In klantomgevingen draaien vaak al veel vertrouwde AI-systemen, vaak gebaseerd op machine learning. Door daar een generatieve laag overheen te leggen voor natuurlijke interactie, bouw je een betrouwbare agentic workflow.

Een persoon staat op het podium naast een groot scherm waarop "Generative AI" wordt weergegeven met een regenboog, hemelachtergrond en twee vliegende eenhoorns.

Softwareontwikkeling is een blauwdruk

Als we nog even terugrijpen naar waarom SAS zelf AI in softwareontwikkeling gebruikt, dan zien we die keuze sterk verband houden met het deterministische verhaal van Harris. Het proces bij softwareontwikkeling bestaat uit duidelijke stappen: design, build, verify, validate. AI kan testsuites genereren voor verificatie en validatie, waarna code iteratief wordt verbeterd totdat alle tests slagen. 

SAS wil diezelfde aanpak in principe toepassen op andere domeinen. “We gaan begrijpen waarom softwareontwikkeling zo’n sterke ROI laat zien en dat principe vertalen naar sectoren als life sciences, banking en verzekeringen”, voorspelt Harris. Voor een life sciences-organisatie kan dat betekenen: een klinisch protocol beschrijven (design), vervolgens samen met AI de statistieken controleren (build), verificatie uitvoeren tegen protocollen en standaarden en tot slot het complete rapport valideren.

De uitdaging is dat dit soort verificatie- en validatie-frameworks vaak niet bestaan in bedrijfsdomeinen. “In software heb je unit tests en functional tests. Die hebben we niet in business”, erkent Harris. Maar naarmate agentic AI vordert, moeten die testing-frameworks er wel komen om code en content te kunnen itereren op een manier die verifieerbaar en valideerbaar is.

Domeinspecifieke AI en synthetic data

SAS zet ook sterk in op domeinspecifieke AI. Het bedrijf introduceerde eerder nieuwe Viya-innovaties met Intelligent Decisioning, waarmee gebruikers gecontroleerde agentic workflows kunnen bouwen. Die tool wordt al ingezet in banking en healthcare, waar klanten strikte guardrails nodig hebben.

Een andere belangrijke pijler is synthetic data. Na de overname van Hazy in 2024 heeft SAS de mogelijkheden rond synthetic data fors uitgebouwd. Het bedrijf werkt met een grote techspeler aan batterij-detectiescenario’s. “Onze synthetic data is van wereldklasse. We laten klanten zien hoe gecorreleerd de synthetische data is aan real-world data”, zegt Harris.

Dat vertrouwen zorgt ervoor dat modellen gebouwd op synthetic data soms zelfs beter presteren dan op echte data, omdat de synthetische variant meer scenario’s en representaties kan bevatten. Bovendien lost het een groot probleem op in gereguleerde sectoren. Daar kan gevoelige data niet breed worden gebruikt voor AI-training. Door synthetische data te genereren zonder privacy-informatie, kunnen meer mensen met die data werken en doorbraken realiseren.

Digital twins als volgende stap

Tot slot noemt Harris digital twins als een belangrijke focus voor 2026. Het werk dat SAS deed met Georgia Pacific, Epic Games en Unreal Engine heeft enorme belangstelling gewekt. “Elke klant die onze digital twin-strategie ziet, begint onmiddellijk te fantaseren over een versie voor hun eigen bedrijf”, aldus Harris.

In de gezondheidszorg werkt SAS bijvoorbeeld aan computer vision-modellen voor sterk gereguleerde omgevingen, zoals sterilisatiefaciliteiten. Door complete faciliteiten te scannen en digital twins te bouwen, kunnen ze computer vision-modellen creëren die anders nooit tot stand zouden komen. Die modellen garanderen dat niets wordt overgeslagen in kritieke processen.

De boodschap van SAS voor 2026 is wat dat betreft helder. AI is geen doel op zich. Het is een categorie van mogelijkheden, waarvan generatieve AI en agentic AI slechts twee voorbeelden zijn. Succes vereist het juiste evenwicht: weten wanneer je AI wel inzet, wanneer je voor deterministische machine learning kiest en vooral wanneer je AI volledig links laat liggen.