De razendsnelle opmars van AI zet organisaties onder druk om hun infrastructuur en werkwijzen te herzien. Waar vroeger de focus lag op het faciliteren van traditionele IT-workloads, vereist AI volwassen keuzes op het gebied van schaalbaarheid, databeheer en governance. Deze nieuwe realiteit dwingt bedrijven om technologie aan te passen en hun strategie, processen en verantwoordelijkheden op een hoger niveau te brengen. Tijdens een rondetafelgesprek met experts van AWS, NetApp, Nutanix, Pure Storage, Red Hat en SUSE wordt hier meer over duidelijk.
Organisaties moeten keuzes maken die passen bij hun unieke situatie, waarbij compliance, veiligheid en flexibiliteit hand in hand gaan. Het is een proces waarin pragmatisme en visie samenkomen. AI vraagt om innovatie en volwassenheid in besluitvorming. Toch is deze nieuwe fase naast technisch uitdagend ook organisatorisch complex. AI brengt bedrijven in een positie waarin ze verantwoordelijkheid moeten nemen voor hun data, modellen en AI-agents, net zoals ze dat doen voor hun menselijke medewerkers.
De vraag naar schaalbare AI-infrastructuur
Tijdens het rondetafelgesprek onderstreept Marco Bal van Pure Storage dat organisaties bij AI-projecten steeds vaker op zoek zijn naar een service-achtige ervaring, ook voor on-premises infrastructuur. “Klanten willen een model waarbij on-prem infrastructuur dezelfde flexibiliteit biedt als de cloud. Dus schaalbaar, snel inzetbaar en zonder lange levertijden”, legt Bal uit. Deze aanpak helpt bedrijven om beter om te gaan met de onvoorspelbaarheid en snelle ontwikkelingen die AI met zich meebrengt.
Volgens Bal zijn factoren als performance, beschikbaarheid en energieverbruik cruciaal. Organisaties worstelen met de vraag hoe ze hun infrastructuur zo efficiënt mogelijk kunnen inrichten, terwijl ze tegelijkertijd de nodige flexibiliteit behouden om te kunnen inspelen op veranderende eisen in de komende maanden en jaren. Het afbouwen van risico’s wordt zo een belangrijk onderdeel van een volwassen AI-strategie.
Experimenteren vraagt om flexibele keuzes
Ricardo van Velzen van Nutanix benadrukt dat veel organisaties nog in een experimentele fase zitten met AI. Ze willen vooral eerst ontdekken en testen voordat ze grote investeringen doen, legt hij uit. Zo sprak hij recent met een Nederlandse universiteit die begon met een pilot in de cloud, maar vanwege de gevoeligheid van de data terug wil naar on-premises infrastructuur. Dit illustreert hoe dynamisch en onvoorspelbaar de reis naar volwassen AI-implementaties is.
De universiteit startte in de cloud waar ze makkelijk konden experimenteren, maar ontdekte al snel dat niet alle data veilig in de public cloud kon worden geplaatst. “Ze worstelen nu met de vraag welke data in de cloud kan blijven en welke on-premises moet worden gehouden”, vertelt Van Velzen. Dit vraagt om infrastructuur die schaalbaar is en naadloos kan wisselen tussen cloud en on-premises, zonder dat dit de innovatie belemmert.
Volgens Van Velzen laat dit voorbeeld zien dat organisaties bij AI niet meer kunnen kiezen tussen cloud of on-premises als uitersten, maar een hybride aanpak moeten omarmen. De sleutel hierin is flexibiliteit: zorgen dat je snel kunt schakelen, experimenteren en opschalen. Ondertussen moet je voldoen aan de strengste security- en compliance-eisen.
Elasticiteit voor een wendbare AI-infrastructuur
Elasticiteit is volgens Felipe Chies van AWS de sleutel voor een succesvolle AI-infrastructuur. “Als je kijkt naar hoe organisaties hun systemen opzetten, zie je dat de rekentijd tijdens het gebruik van een LLM sterk kan variëren. Het model moet namelijk de taak uitsplitsen en logisch beredeneren voordat het een antwoord geeft. Die rekentijd kun je van tevoren nauwelijks voorspellen”, aldus Chies. Dat vraagt om een infrastructuur die met die onvoorspelbaarheid om kan gaan: snel schaalbaar, flexibel en zonder lange wachttijden op nieuwe hardware. Je kunt het je vandaag de dag niet veroorloven om maanden te wachten op nieuwe GPU’s, stelt Chies.
Het gaat hierbij ook om het omgekeerde, het kunnen terugschalen. Organisaties willen graag een inschatting maken van toekomstige behoefte, bijvoorbeeld voor een nieuwe functionaliteit. Maar vaak weet niemand precies of zo’n feature daadwerkelijk aanslaat. Dan moet je kunnen experimenteren, opschalen, maar ook weer afbouwen zonder dat je onnodig hoge kapitaalkosten maakt. Die flexibiliteit, kunnen groeien, krimpen en snel schakelen, is essentieel voor het tempo en het succes van AI-projecten. Vooral bij AI-agents, die steeds vaker ingezet worden, is het vermogen om elastisch met infrastructuur om te gaan belangrijker dan ooit.
Anticiperen op verandering
Ook Ruud Zwakenberg van Red Hat benadrukt dat flexibiliteit essentieel is in een wereld die voortdurend verandert. “We kunnen de toekomst niet voorspellen”, zegt hij. “Wat we wél zeker weten, is dat de wereld over tien jaar compleet anders zal zijn. Tegelijkertijd verandert er ook niets wezenlijks, het is een paradox die we al honderd jaar zien.” Voor Zwakenberg draait het daarom vooral om het openhouden van opties en het vermogen om te anticiperen en tegelijkertijd te reageren op onverwachte ontwikkelingen.
Volgens Zwakenberg vraagt dat om een infrastructurele basis die niet star is, maar ruimte biedt voor nieuwsgierigheid en innovatie. Je moet niet bang zijn voor verrassingen. Omarm de verrassing juist, legt Zwakenberg uit. Als je naar de lange termijn kijkt, zie je patronen terugkeren die al decennia gelden. Daarom is het belangrijk om te bouwen op een architectuur die morgen net zo goed werkt als vandaag. Die flexibiliteit vertaalt zich in het kunnen schakelen tussen cloud- en on-premises omgevingen en hybride modellen, zodat bedrijven altijd de beste keuze kunnen maken.
Met zo’n toekomstbestendige aanpak, stelt Zwakenberg, zijn organisaties beter toegerust om te anticiperen op nieuwe uitdagingen en kansen. “Als je weet dat je vandaag in AWS zit, morgen on-premises kunt zijn en overmorgen hybride werkt, houd je alle opties open. Dat is de kracht van een goed doordachte AI-infrastructuur. Het biedt niet alleen ruimte voor groei en innovatie, maar ook voor veerkracht in een onvoorspelbare toekomst.”
Databewegingen over en weer
Pascal de Wild van NetApp onderstreept het belang van flexibiliteit in databewegingen binnen AI-infrastructuren. “De mogelijkheid om je data te verplaatsen naar waar je die nodig hebt, naar een cloudpartner of on-premises, geeft organisaties de vrijheid om snel in te spelen op nieuwe ontwikkelingen zoals agentic AI”, legt hij uit. Dit vermogen om te schakelen tussen verschillende infrastructuren zorgt ervoor dat bedrijven niet vastzitten aan één oplossing, maar kunnen kiezen voor wat het beste past bij hun specifieke behoeften en compliance-eisen.
Hierin benadrukt De Wild dat deze wendbaarheid cruciaal is om AI-initiatieven te kunnen opschalen en aanpassen aan de continu veranderende technologische omgeving. Ook hij geeft aan dat het lastig te voorspellen is wat er volgend jaar precies gaat gebeuren. Als je infrastructuur het dan toestaat om dynamisch te reageren, sta je sterker in je schoenen om nieuwe kansen te grijpen. Zo vormt de juiste strategie voor databeheer en infrastructuurkeuzes een fundament voor duurzame groei in de wereld van AI.
Het strategische risicopunt: soevereiniteit
Richting het eind van het rondetafelgesprek gooit Eric Lajoie van SUSE nog een ander discussiepunt op. Hij wijst op het belang van duidelijkheid rond datasoevereiniteit bij AI-implementaties. “Wanneer klanten het hebben over soevereiniteit, ga ik altijd eerst na wat dat precies voor hen betekent”, legt hij uit. “Voor sommige organisaties betekent het dat ze absolute controle willen hebben zonder een ‘kill switch’, een mogelijkheid voor een externe partij om op afstand de dienst te blokkeren of uit te schakelen. Is dat het geval, dan willen ze vaak een oplossing die volledig on-premises draait en buiten de invloedssfeer van derden blijft.”
Lajoie vervolgt dat het begrip soevereiniteit niet altijd eenvoudig is en per organisatie sterk kan verschillen. “Sommigen vinden het al voldoende als data binnen het eigen land blijft, anderen eisen volledige controle, zonder enige externe toegang of invloed. Dat heeft ook grote gevolgen voor de keuze tussen SaaS-oplossingen en on-premises infrastructuur.”
Een ander complex vraagstuk is volgens Lajoie het combineren van datasoevereiniteit met multi-tenancy, bijvoorbeeld bij publieke organisaties die niet willen dat hun data naast data van andere partijen staat. Hij noemt als voorbeeld een lokale politieafdeling. Die kan niet accepteren dat hun AI-platform gedeeld wordt met het publiek vanwege risico’s rond databeheer. Dit vraagt om maatwerk en infrastructuren die zorgvuldig aansluiten op de specifieke eisen van elk bedrijf.
Balanceren tussen innovatie en beheersbaarheid
De snelle ontwikkelingen in AI en de toenemende complexiteit van databeheer vragen om een nieuwe mindset bij organisaties. Flexibiliteit, schaalbaarheid en controle zijn geen luxe meer, maar cruciale randvoorwaarden om succesvol te kunnen inspelen op de veranderende technologische en zakelijke realiteit. Dit betekent dat bedrijven niet alleen moeten investeren in moderne infrastructuren, maar ook in de juiste strategieën en processen om AI verantwoord en effectief te implementeren.
Daarnaast is het duidelijk dat één uniforme aanpak niet bestaat. Iedere organisatie heeft zijn eigen unieke combinatie van compliance-eisen, veiligheidsvereisten en innovatiebehoeften. Het omarmen van hybride en flexibele oplossingen, waarbij cloud en on-premises infrastructuur elkaar aanvullen, blijkt een praktische en toekomstbestendige keuze. Door deze wendbaarheid kunnen bedrijven experimenteren, opschalen en tegelijk risico’s beheersen, ook in een tijdperk waarin de toekomst onzeker is en ontwikkelingen elkaar snel opvolgen.
Uiteindelijk draait het erom dat organisaties de juiste balans vinden tussen controle en innovatie, tussen stabiliteit en wendbaarheid. Door databewegingen strategisch te managen en de infrastructuur modulair en elastisch in te richten, zijn zij beter voorbereid om de kansen van AI te benutten zonder daarbij de risico’s uit het oog te verliezen. Zo wordt AI niet alleen een technologie van vandaag, maar een duurzaam fundament voor de organisatie van morgen.
Dit was het laatste verhaal binnen onze AI-infrastructuur-reeks. Lees ook eens ons eerste artikel en tweede artikel waarin de zes experts eveneens hun visie delen.