De stap van AI-pilots naar productie is een enorme kloof gebleken. Om dit aan te pakken, kan SUSE niet langer volstaan met goedbedoelde, maar vage concepten. Het nieuw gelanceerde AI Factory, aangekondigd tijdens SUSECON 2026 in Praag, is een welkome koerswijziging van vaagheid naar een uniforme softwarestack.
Een belangrijk probleem bij de uitrol van AI is de snel veranderende aard van de technologie zelf. Niet alleen de onderliggende modellen zijn veranderd en veranderlijk, maar ook de verwerking van bedrijfsdata, de tooling, de security-implicaties en natuurlijk het prijsmodel. Het is precies deze veranderlijke aard waar SUSE op inspeelt.
Een vendor-neutral basis
Allereerst moeten we onderscheid maken tussen twee nieuw aangekondigde oplossingen: SUSE AI Factory enerzijds en SUSE AI Factory met NVIDIA anderzijds. Eerstgenoemde vormt de basis voor het tweede product, dus laten we daar beginnen.
SUSE AI Factory is het kernproduct, dat direct bovenop SUSE Rancher Prime is gebouwd. Dit is het open-source Kubernetes-controlepaneel voor IT-workloads, inclusief AI. Als uitgangspunt voor nieuwe AI-implementaties zal het voor velen een vertrouwde basis zijn, en het bevat besturingselementen voor deployments, tests in sandbox-omgevingen en schaalbare productieworkloads. SUSE AI Factory voegt een speciale pijplijn toe voor de eigenaardigheden van de AI-lifecycle.
Rhys Oxenham, VP en General Manager van AI bij SUSE, geeft toe dat er hier een “cruciale ontbrekende schakel” in het SUSE-portfolio was. AI Factory is, in tegenstelling tot de eerder aangekondigde SUSE AI, een eenvoudige kant-en-klare oplossing die niet alleen bestaat uit een grabbelton aan open-sourceproducten samengesteld door SUSE. AI Factory is volgens Oxenham bedoeld om de zogenaamde “innovatiekloof” te overbruggen, het verschil tussen goed onderbouwde AI-plannen en daadwerkelijke implementaties.

De olifant in de kamer: lock-in
SUSE richt zich, zoals altijd, op de keuzevrijheid die gebruikers hier hebben. Ze kunnen ervoor kiezen om elk model te draaien, elke Kubernetes-versie te gebruiken, overal te implementeren en op elk type hardware te draaien. Het meest complete pakket dat wordt aangeboden is echter SUSE AI Factory with NVIDIA. Deze integratie, zoals je bij een dergelijke naam verwacht, brengt het aanbod van SUSE samen met NVIDIA NIM-microservices, open Nemotron-modellen, NVIDIA NeMo voor het beheer van AI-agents en de bijbehorende runtimes, Run:ai voor GPU-orkestratie en de enterprise-ready vorm van OpenClaw, NemoClaw.
SUSE AI Factory with NVIDIA is, zoals CTPO Thomas Di Giacomo het omschrijft, een “totaaloplossing voor end-to-end stabiliteit, beveiliging en soevereiniteit, terwijl men profiteert van de huidige en toekomstige AI-innovatie.” Desgevraagd naar het gesloten karakter van het aanbod van NVIDIA, zegt Di Giacomo dat de GPU-gigant in feite “een open-sourcebedrijf aan het worden is, geloof het of niet. Het heeft even geduurd, maar ze worden steeds opener.” En waar NVIDIA die open-sourcebelofte niet nakomt, “leveren we de onderdelen eigenlijk niet zelf”, zoals SUSE’s CTPO de samenwerking omschrijft. In plaats daarvan omvatten partners de go-to market-strategie voor SUSE.
De AI Factory-vloer
In de praktijk komt SUSE AI Factory op gang via een op Rancher gebaseerde interface of een geautomatiseerde GitOps-workflow. Blueprints bieden de mogelijkheid om snel te implementeren, vooral als een organisatie voldoet aan enkele van de gangbare use cases en workloads, en organisaties kunnen hierop voortbouwen. Bekende securityprincipes blijven van kracht, net zoals in Rancher Prime en SLES-runtimes.
Deze controlemethoden en IT-vangrails zijn in wezen niet nieuw, maar in de context van een AI-implementatie onderscheiden ze zich van op maat gemaakte public cloudprojecten die zijn gebouwd op propriëtaire stacks. SUSE benadrukt overigens ook de impact die hun open benadering van een AI Factory heeft op soevereine idealen.
We hebben eerder uitgebreid gesproken over soevereiniteit met Dirk-Peter van Leeuwen, CEO van SUSE. Als Europese speler op het gebied van IT-infrastructuur heeft het bedrijf een behoorlijk groot voordeel op zijn eigen continent. Astor Nummelin Carlberg, directeur Open Source Sovereignty bij SUSE, merkt op dat het onderwerp ook cruciaal is voor IT-beslissers in onder meer India, Japan en de VS. “De simpele conclusie is dat dit een wereldwijd fenomeen is.” Natuurlijk kan de terminologie verschillen (of het nu ‘controle’, ‘autonomie’ of ‘flexibiliteit’ is), maar de discussie over soevereiniteit wordt overal gevoerd.
Conclusie: geen snelkoppelingen naar een volledig AI-product
We hebben SUSE lang het voordeel van de twijfel gegeven wat betreft zijn AI-plannen. Natuurlijk was het nogal ongebruikelijk dat “SUSE AI” eerst een visie was en pas later een product. We hadden veel uitleg nodig om echt te begrijpen wat SUSE AI onderscheidde van een samengestelde lijst van open-sourcecomponenten, en zelfs na al die uitleg waren we er niet helemaal zeker van of organisaties in staat zouden zijn om er een AI-pilot omheen te bouwen (laat staan een volledige implementatie).
De waarheid is dat open-sourcecomponenten alomtegenwoordig zijn in de vele AI-referentiearchitecturen die door IT-leveranciers worden aangeboden. Ze bevatten echter allemaal een zekere mate van propriëtaire software. Dat geldt ook voor de volledig uitgeruste SUSE AI Factory met NVIDIA; Di Giacomo wijst er terecht op dat NVIDIA zich grofweg in een open-source-richting beweegt. In wezen houdt het echter een closed-source greep op belangrijke AI-technologieën.
SUSE laat het idealisme varen met het partnerschap met NVIDIA, en dat is prima. Het betekent uiteindelijk dat de AI-visie die op de SUSECON van dit jaar wordt aangeboden, goed gedefinieerd is, open waar mogelijk, en openstaat voor een veranderend technologisch landschap. Partners met genoeg expertise hebben nu meer middelen om AI op een open basis te bouwen zonder dat SUSE enkel een reeks aanbevelingen geeft. Nu is er echt sprake van een AI-stack, met bovenal de vraag in hoeverre organisaties afhankelijk willen zijn van NVIDIA.