VAST Data zet unieke marktpositie in om full-stack AI-infrastructuur te ontwikkelen

VAST wil Zwitserland zijn, maar ook diep integreren

VAST Data zet unieke marktpositie in om full-stack AI-infrastructuur te ontwikkelen

De belofte om het AI Operating System te bouwen is voor VAST Data meer dan leuke marketing. Het breidt het eigen aanbod gestaag uit om die belofte waar te maken. Tijdens de allereerste editie van VAST Forward zet het deze ambitie nog wat dikker in de verf.

VAST Data neemt een wat bijzondere positie in binnen de IT-stack. Het is namelijk lastig om het bedrijf in een hokje te stoppen. Natuurlijk is het een bedrijf dat zich bezighoudt met storage, maar het verkoopt geen hardware meer (daar is het al lang geleden mee gestopt). Toch concurreert het tot op zekere hoogte met de traditionele storage-leveranciers. Het heeft verder ook geen uitgesproken voorkeur voor de infrastructuur waarop de software draait. Die software is feitelijk een continue doorontwikkeling bovenop de DataStore waar het allemaal mee begonnen is.

In eerdere artikelen hebben we uitgebreid uit de doeken gedaan met welke componenten VAST het besturingssysteem voor het AI-tijdperk wil bouwen. Lees die artikelen vooral ook nog eens rustig terug als je wat meer achtergrondinformatie zoekt. We gaan in dit artikel niet nog een keer door dit hele verhaal heen. We richten ons vooral op wat de aankondigingen die VAST Data deze doet, zeggen over waar het bedrijf heengaat.

VAST wil de VMware-rol pakken

Volgens Renen Hallak, oprichter en CEO van VAST Data, wil het bedrijf het Zwitserland in de wereld van (AI-)data-infrastructuur zijn. Het wil dus in principe met iedereen werken en op om het even welke infrastructuur werken. Dat is doorgaans niet de eenvoudigste propositie, omdat het dermate veel mogelijkheden biedt dat het potentiële klanten ook best eens kan afschrikken. Aan de andere kant betekent het ook dat andere keuzes die klanten maken op het gebied van IT-infrastructuur eigenlijk niet uitmaken. Of ze nu voor servers van HPE, Cisco, Lenovo of Supermicro kiezen, diep in Azure, AWS, GCP of Oracle zitten, het maakt niet uit.

Als we goed nadenken over hoe we VAST Data nu zouden typeren, dan komt vooral de analogie met VMware bovendrijven. De rol die dat bedrijf ruim twintig jaar geleden pakte op het gebied van virtualisatie bovenop wat bedrijven ook maar hadden staan, kun je zien als de rol die VAST Data ook wil pakken. Dat is wederom zowel goed nieuws als slecht nieuws. Het goede nieuws is dat deze benadering potentieel tot enorme groei kan leiden. Het slechte is dat het ook tot enorme wildgroei kan leiden. Van dat laatste had VMware met name in de laatste vijf tot tien jaar voordat het overgenomen werd door Broadcom veel last. VAST is nog lang niet op dat niveau. Het zou dit wat ons betreft wel als een waarschuwing moeten zien.

Nieuwe engines voor meer controle in runtime

Kijken we naar de aankondigingen die VAST deze week doet tijdens VAST Forward, dan beginnen we met enkele nieuwe engines: VAST PolicyEngine en VAST TuningEngine. Dit zijn niet de eerste engines die VAST Data heeft. Er is al de DataEngine (de runtime van VAST Data), maar ook InsightEngine en AgentEngine. In het kort zorgt de InsightEngine voor context bij het ophalen en ingesten van data uit allerlei verschillende bronnen. De AgentEngine moet ervoor zorgen dat multi-agent workflows langere tijd goed draaien.

Met de PolicyEngine en TuningEngine voegt VAST nog twee belangrijke zaken toe aan wat nodig is om AI workloads langere tijd te laten draaien. De TuningEngine kun je zien als een extensie op de InsightEngine en de AgentEngine. Dat wil zeggen, deze engine gaat aan de slag met de uitkomsten van die andere twee. De TuningEngine krijgt die telemetrie binnen en gaat ermee aan de slag om de prestaties van de AI-modellen en -workloads steeds beter te maken.

Naast goede en betrouwbare prestaties van AI-modellen en -workloads die organisaties draaien, is het ook belangrijk dat ze zich ook goed gedragen. Er moet met andere woorden governance zijn. Dat is waar de VAST PolicyEngine om de hoek komt kijken. Dit kun je zien als een control plane waar alle interacties tussen AI-agents onderling en tussen AI-agents en data doorheen moeten. De PolicyEngine evalueert zaken zoals identiteit, context en specifiek beleid van een organisaties voordat de agents actie kunnen ondernemen.

Mocht je nu enthousiast zijn geworden over de PolicyEngine en de TuningEngine, zal je helaas nog wel wat geduld moeten hebben. Ze komen niet voor het vierde kwartaal van dit jaar beschikbaar. VAST is dus erg vroeg met het aankondigen ervan. Het wilde kennelijk op dit vlak per se iets aankondigen tijdens de conferentie.

Polaris als overkoepelende control plane

De VAST PolicyEngine waar we het hierboven over hadden fungeert als een control plane op een relatief laag, fijnmazig niveau in de data pipeline. VAST heeft echter ook ambitie op een wat meer overkoepelend vlak. Het wil ook graag een control plane voor de hele AI-infrastructuur bieden aan klanten. Dit is volgens het bedrijf nodig omdat AI-infrastructuur lang niet altijd meer beperkt is tot een enkele uitrol in een enkele locatie. Zodra je op meerdere locaties met AI aan de slag gaat (on-prem, in de public cloud, bij een neocloud), wordt het vanuit operationeel perspectief belangrijk om hier goed zicht op te hebben. Vandaar dat VAST vandaag Polaris aankondigt. Dat moet dit kunnen bieden aan klanten.

Polaris is een op Kubernetes gebaseerde control plane die geschikt is voor multi-tenant gebruik (en daarmee ook interessant is voor service providers en dergelijke). Het is een agentgebaseerde omgeving. Dat wil zeggen dat er op alle VAST-nodes die organisaties verspreid over meerdere locaties hebben staan een agent geïnstalleerd wordt. Polaris automatiseert vervolgens zaken zoals provisioning en integreert met market places in de cloud om inzicht te houden in hoeveel ruimte er nog is om op te schalen bijvoorbeeld. Het zorgt verder ook voor een centrale uitrol van upgrades, uitbreiding en vervanging van nodes.

Polaris gaat niet zomaar op eigen houtje aan de slag in omgevingen van klanten. Het is intent-based, zoals dat heet. Dat houdt in dat klanten zelf aangeven hoe ze willen dat hun infrastructuur eruit ziet. Op basis daarvan gaat Polaris aan de slag om op de gewenste staat uit te komen en die vast te houden. Je zou Polaris tot op zekere hoogte kunnen zien als een extensie op DataSpace, de global namespace van VAST. Daarmee zorgt het bedrijf voor een data fabric over alles heen. Dat is waar Polaris op inhaakt. Waar DataSpace zich richt op de data, houdt Polaris zich bezig met de infrastructuur.

Polaris is nu beschikbaar, al is het nog niet helemaal uitontwikkeld. Het is nu alleen nog maar beschikbaar voor cloudomgevingen. De uitbreidingen richting neocloud en on-prem komen later.

CNode-X brengt VAST naar de GPU (of andersom)

In de zoektocht om AI-infrastructuur nog verder te optimaliseren, breidt VAST de mogelijkheden van het zelfbenoemde OS voor AI steeds verder uit. Tot nu toe lag er echter een harde grens bij de GPU. Die viel niet binnen de VAST-stack. VAST richtte zich op het beschikbaar stellen van geavanceerde storage-diensten aan GPU’s, maar kon zelf verder niet veel bijzonders met die GPU’s doen. Met de aankondiging van CNode-X die VAST Data vandaag doet, moet dat veranderen.

VAST CNode-X is ontwikkeld samen met Nvidia. Je zou dit kunnen zien als een doorontwikkeling van de certificeringen die Nvidia lang heeft uitgedeeld aan producten van storage-leveranciers. Dat programma is voor zover wij weten gestopt. Met VAST CNode-X is er nu een volledige door Nvidia gecertificeerd systeem te koop bij HPE, Cisco, Lenovo en Supermicro. Nvidia en VAST hebben het proces als het ware omgedraaid.

VAST CNode-X is op het eerste gezicht dus een slimme manier vanuit Nvidia en VAST om wat meer sturing te geven aan hoe een goede AI-stack eruitziet. En uiteraard ook om de markt een extra duwtje te geven op het gebied van de verkoop ervan. Onder de motorkap betekenen de nieuwe systemen ook dat GPU’s nu het VAST-ecosysteem ingetrokken worden. De systemen kunnen nu op hetzelfde niveau beheerd, uitgelezen en ingezet worden als de rest van wat VAST te bieden heeft.

Specifiek betekent dit onder andere dat allerlei Nvidia libraries en API’s nu rechtstreeks in de VAST-diensten geïntegreerd kunnen worden. Denk aan cuVS voor vector search, Nemotron-modellen en NIM, maar ook het Context Memory Storage (CMS)-platform van Nvidia. De prestaties moeten hierdoor omhoog gaan en de latency omlaag. Het geheel moet er met andere woorden weer een stuk efficiënter op worden.

Strakkere stacks, maar toch meer mogelijkheden

De aankondigingen van vandaag zien we als een volgende stap in het volwassen worden van VAST Data. Zeker nu het zich meer en meer gaat richten op het uitrollen van AI in enterprise-omgevingen, zijn de in dit artikel beschreven zaken belangrijke ontwikkelingen.

In de samenwerking met grote AI-spelers zoals public clouds, Nvidia of neoclouds zoals CoreWeave, draait het vooral om het kunnen leveren van de juiste componenten. Om succesvol te zijn in de enterprise-wereld en bij system integrators en andere partners, moet er echter meer lijn in het aanbod zitten.

Vandaar dat VAST Data steeds meer zaken het eigen platform intrekt, veel focus legt op de ontwikkeling van control planes op meerdere niveaus en volledig geïntegreerde stacks samen met Nvidia en hardware-leveranciers ontwikkelt. Een OS voor AI (wat dat ook precies mag betekenen) ontwikkelen is zonder meer een goed streven, maar de beste ervaringen krijgen klanten doorgaans als OS en hardware optimaal op elkaar afgestemd zijn. Dat is waar VAST mee bezig is. Het is daar nog niet mee klaar overigens.

Er is nog genoeg verder te ontwikkelen. Denk bijvoorbeeld aan security. Daar heeft het nu een partnership met Crowdstrike voor aangekondigd, maar dat is iets waar het zelf ook ongetwijfeld nog stappen in wil zetten. Maar dat is iets voor een volgende keer.

Lees ook: Wie ontwikkelt het OS voor AI? VAST Data gaat er vol voor