CoreWeave is één van de rijzende AI-sterren, met een grote hoeveelheid GPU’s die klanten kunnen gebruiken voor hun intensieve AI-workloads. Nadat Cisco al interesse toonde in een investering, sluit Pure Storage een partnership met het bedrijf.
AI-compute en snelle opslag gaan hand in hand. GPU’s hebben continu toegang tot geheugen (en vooral bandbreedte) nodig om optimaal AI-workloads te draaien. Dit omdat het data gevoed moet worden voor het trainen, finetunen of inferencen van LLM’s. Vandaar dat de combinatie van Nvidia-hardware binnen CoreWeave-infrastructuur samen met een partij als Pure Storage voor de hand ligt. CTO bij Pure Storage Rob Lee spreekt over een “gedeelde toewijding aan AI-innovatie”. “De integratie van het Pure Storage-platform in de gespecialiseerde cloudomgevingen van CoreWeave, stelt klanten in staat om de infrastructuur naar eigen inzicht af te stemmen en prestaties te maximaliseren.”
Tip: Waarom Cisco geïnteresseerd is in AI-succesverhaal CoreWeave
Van crypto naar AI
Zoals uitgelicht in onze eerdere blog over CoreWeave is het bedrijf ontstaan tijdens de crypto-hype rond 2017. Sinds 2019 is het echter een operatie gericht op cloudinfrastructuur op basis van GPU’s, iets dat sinds de opkomst van generatieve AI enorm lucratief is. De eigen site spreekt eveneens over zaken als VFX-werk, maar AI zal zonder meer de meeste aandacht trekken momenteel. CoreWeave is op dat gebied verre van de enige speler: Crusoe en DataCrunch zijn slechts twee voorbeelden van soortgelijke GPU-gedreven concurrenten.
Toch heeft CoreWeave de wind mee, met mogelijk Cisco en nu zeker Pure Storage als geldschieters en bondgenoten. In het geval van Pure Storage gaat het om het aanbieden van het Pure Storage-platform binnen CoreWeave’s omgevingen. Beide partijen spreken over een “compromisloze oplossing”, verwijzend naar de Nvidia-apparatuur dat in combinatie gebracht wordt met de all flash oplossingen van Pure Storage, die snelheid met capaciteit combineren. Het is al hard aan het werk om HDD’s overbodig te maken met de eigen architectuur. Nieuwe oplossingen zijn veelal specifiek gericht op AI-workloads op meerdere manieren. Een overzicht van de recentere vernieuwingen is hier te vinden:
Lees verder: Pure biedt storage voor AI en AI voor storage
Kroonprins van AI?
Wie daadwerkelijk de uitverkoren AI-speler gaat worden, is nog niet duidelijk. En ook is onbekend hoeveel partijen van deze soort genoeg vraag op de langere termijn krijgen. Verschillende pijnpunten worden ook door een groot aantal vendoren opgelost; de waarde van deze differentiatie is net zo goed nog lastig in te schatten. Denk aan Google Kubernetes Engine, dat deze week in staat bleek te zijn om LLM’s met meer dan een biljoen parameters te trainen dankzij 65.000 gekoppelde nodes. Dat is tegenwoordig nog overkill voor eenieder die niet OpenAI heet, want van de modellen waarvan het aantal parameters gedeeld is, spant Llama 3’s grootste model de kroon met 405 miljard. GPT-4 zou 1,8 biljoen parameters kennen. OpenAI werkt overigens samen met Microsoft en bouwde samen met Azure een “AI-supercomputer” zelf.
Een partij als CoreWeave onderscheidt zich door de focus overduidelijk te maken: AI-compute, vooral via GPU’s, en partnerships met populaire vendoren op dit gebied, zonder een gehele public cloud te willen leveren. Of deze “AI-hyperscaler”-aanpak ook echt grote organisaties trekt die hun eigen modellen willen finetunen, valt nog te bezien. Cisco en Pure Storage lijken er in ieder geval in te geloven.
Beluister ook onze Techzine Talks-aflevering over de AI-stack: