Multi-agent systemen domineren IT-omgevingen anno 2026

Multi-agent systemen domineren IT-omgevingen anno 2026

Het beeld van trage of weifelende AI-adoptie is hardnekkig. Het inrichten van AI-systemen vergt een grootschalige aanpak, dus veel pilots in losse flarden overleven de stap naar productie niet. Maar op de achtergrond heeft een agent-doorbraak zich al voltrokken, zo laten de cijfers uit nieuw Databricks-onderzoek zien. Na GenAI en agentic AI in voorgaande jaren zou de modieuze term zomaar ‘multi-agentic’ kunnen zijn.

Het koppelen van AI-tools is een belangrijke stap in het opgroeiproces van de technologie gebleken. Het Model Context Protocol lijkt al jaren oud als je kijkt naar de vrijwel universele adoptie. Klachten over de veiligheid ervan daargelaten: de state-of-the-art is al voorbij de fundamentele protocollen en standaarden. In plaats daarvan mikken IT-vendoren op het beheer en overzicht van AI-agents, die steeds meer groepswerk verrichten.

Van chatbot naar workflow

Databricks ziet in het gebruik van het eigen Data Intelligence Platform dat organisaties in hoog tempo van aanpak veranderen. Hoewel het State of AI Agents-rapport informatie uit geheel 2025 meeneemt, geeft het bedrijf toe dat de ontwikkelingen later in 2025 niet eens detecteerbaar waren in november 2024, het begin van de onderzoeksperiode.

IT-omgevingen die nu worden herschikt, zullen voor complexe taken niet meer op enkele chatbots vertrouwen. Multi-agent workflows, waarbij meerdere AI-tools gezamenlijk taken automatiseren, zagen een groei van 327 procent in het Databricks-platform. Een financiële organisatie gebruikt bijvoorbeeld meerdere agents om de bedoeling achter een bericht of telefoongesprek te achterhalen, relevante documenten op te halen en compliance-checks uit te voeren. Vervolgens kan de output een chatbot-antwoord zijn, maar dat hoeft niet zo te zijn. Binnen Databricks is de Supervisor Agent het populairst, die de acties van andere agents dirigeert en controleert. Op nummer twee staat de Information Extraction-agent, dat uit bedrijfsgegevens relevante context opraapt.

Databases veroverd

We zijn misschien niet eens bij het belangrijkste punt aangekomen: de verovering van databases door deze (multi-)agentic systemen. 80 procent van alle databases worden tegenwoordig gebouwd door AI-agents, terwijl 97 procent (!) van al het testen van ontwikkelomgevingen geen mensenwerk meer is.

Dit roept de vraag op of databases en testprocedures nog wel de juiste architectuur hanteren. De mens, waar deze systemen voor ontworpen waren, is namelijk grotendeels verdwenen uit deze omgevingen. Databricks heeft al een antwoord klaar in de vorm van de ‘lakebase’. Dit is een Postgres-gebaseerde database die integraties kent met Databricks’ lakehouse-architectuur en specifiek voor agents bedoeld is. Het concept is een creatie van Neon, medio vorig jaar overgenomen door Databricks.

Opvallend gevarieerd

De use cases voor AI verbreden net zozeer als dat de AI-systemen dat doen. Als we er een trend uit kunnen opmaken, is het wel dat de door AI overgenomen taken bovenal routinematig zijn of een grote hoeveelheid data vereisen. Een mens heeft dus geen zin in deze taak of heeft er een tijdtekort voor. Denk aan marktonderzoek, voorspellend onderhoud en het rangschikken van klantenservice-cases, de top 3 uit het onderzoek. Die variatie laat al zien dat AI-adoptie niet aan sectoren gebonden is, ook al leunt het stevig op de processen die onder meer de retailsector, logistiek en financiële industrie kenmerken. Je kunt beargumenteren dat we niet echt sectorspecifiek hoeven te kijken, maar eerder taakspecifiek. Elke organisatie heeft een doelgroep, of ze nu klanten, burgers of patiënten zijn. De vraag vanuit die groep beantwoorden moet geschikt kunnen zijn voor AI, zo lijken Databricks-gebruikers te denken.

Databricks biedt een platform dat vanzelfsprekend handvatten levert voor AI-gebruik, maar de adoptie van de technologie is verre van plichtmatig. De reden dat we dit noemen, is dat het duidelijker is waarom organisaties AI willen gebruiken dan dat we al weten hoeveel de adoptie oplevert. Kostenbesparingen zijn een beweegreden, maar het bewijs dat eindgebruikers tevreden zijn met de verschuiving, blijft nog uit. Het is simpelweg te vroeg om te bepalen hoe multi-agent systemen het mensenwerk veranderen, behalve dat veel taken te automatiseren zijn. Wat valt niet te automatiseren? Hoe moeten IT-omgevingen veranderen om multi-agent workflows te optimaliseren? Die vragen zullen in toekomstige rapporten mogelijk een antwoord krijgen.

LLM’s voorbij

Een duidelijke conclusie is er al wel bij de technologie die deze AI-golf opstartte: het Large Language Model. Van mei tot juli 2025 gebruikten meer organisaties (39 procent) nog slechts één model dan drie of meer (36 procent), maar de verschuiving van augustus tot oktober 2025 was gigantisch. In die tijdspanne gebruikte nog maar 22 procent van alle organisaties een enkel model, tegenover een meerderheid (59 procent) die al drie of meer LLM’s in productie draaide.

Dit wijst erop dat de dagen van eenvoudige LLM-gebaseerde oplossingen geteld zijn. Om enterprise-ready AI te leveren, is enige complexiteit vereist. Dit komt door het simpele feit dat LLM’s niet oneindig schaalbaar blijken te zijn en we na de groeispurt van GPT-3 naar GPT-4 in 2022-23 slechts geleidelijke verbetering hebben gezien. De echte kracht achter de (nog altijd veel betere) AI-modellen van vandaag de dag van Google, Anthropic, OpenAI en meer, schuilt in de verbinding die deze modellen leggen met andere systemen. Overigens zijn de modellen zelf zoals we ze in API’s en chatbotvensters vinden, regelmatig al veel meer dan alleen een LLM. Die optelsom noemen we nu multi-agent systemen, en die moeten op hun beurt weer beheerd worden. Het temmen van de AI-wildgroei is tevens een nieuwe uitdaging, maar de tijd van ontelbare losse AI-tools is voorbij.

Lees ook: Airrived introduceert het ‘Agentic OS’, wat houdt het in?