Volgens onderzoek van Cast AI zijn de prijzen van AI-chips vlakbij een kantelmoment. Na meerdere jaren van gestage stijging zouden we in de komende kwartalen een stevige daling mogen verwachten. Maar: “GPU-prijzen volgen geen logica; GPU-beschikbaarheid en -beprijzing zijn een zooitje.”
Dat is de samenvatting van medeoprichter en president van Cast AI Laurent Gil. Hij legt uit in een commentaar bij het nieuw gepubliceerde onderzoek dat GPU’s al jaren van tevoren worden aangeschaft. Hierdoor moeten we volgens hem ons beeld bijschaven van de elastische cloud die uitbreidt en inkrimpt op basis van vraag. “Met zulke hoge investeringsrisico’s is de sector in feite teruggekeerd naar veredelde datacenters; cloudelasticiteit is grotendeels een illusie, tenzij je automation en agents kunt inzetten om uiterst flexibel te blijven in het lokaliseren en leveren van wat je nodig hebt.”
Kleine groep grote spelers
Het is al enige jaren zo dat individuele GPU’s veelal tienduizenden dollars waard zijn. Het prijsverschil tussen de beschikbare varianten wordt gedeeltelijk bepaald door de prestaties, hoewel praktisch elke AI-chip van Nvidia of AMD meteen een koper vindt. De prijzen variëren sterk per regio, merkt Cast AI op, wat tot een zeer onvoorspelbare situatie leidt. Nu zijn die prijsverschillen ook te verklaren uit het feit dat sommige regio’s nu eenmaal meer GPU-leveringen ontvangen. De grootste Nvidia-klanten bevinden zich overwegend op één continent: Noord-Amerika. AWS, Azure, GCP en ‘neoclouds’ als CoreWeave en Crusoe bouwen met name gigantische ‘exascale’ datacenters in de VS.
Deze grote spelers kopen dus GPU’s vooraf, soms tot wel drie jaar van tevoren. Die capaciteit verkoopt men vervolgens door nog voordat hun infrastructuur bestaat, stipt Cast AI aan. De gedachtegang, zo legt het bedrijf uit, is dat als je niet nu al capaciteit inkoopt, je later misschien niets weet te vinden. Het gevaarlijke aan dit scenario is dat nieuwe chipgeneraties oude producten snel uit de markt drukken. Hierdoor blijft de “hypecyclus” in de verwoording van Gil in leven.
Grote korting
Voor eindgebruikers nadert wellicht een lucratieve periode. Als ze nu al letten op de regio die men kiest, valt er bij AWS tot wel 80 procent te besparen aan GPU-huurkosten. Het onderzoek wijst uit dat dergelijke drastische prijsdalingen al hebben plaatsgevonden. Zo was een H100-instance in september van dit jaar 88 procent goedkoper dan het in januari 2024 kostte.
“Er zit een ongemakkelijke waarheid in: je moet je aanpassen of te veel betalen”, aldus Gil. Wie bijvoorbeeld uit overwegingen van soevereiniteit in de eigen regio blijft, riskeert aanzienlijk hogere prijzen voor het draaien van AI-workloads. Het benadrukt dat de GPU-markt momenteel gevormd is voor de allergrootste bedrijven die onderling deals ter waarde van tientallen miljarden dollars sluiten. De vraag is hoe lang dat standhoudt. OpenAI, na een Microsoft-deal van deze week eindelijk vrij om een for-profit bedrijf te worden, is hierin een cruciale factor. Als het er niet in slaagt elk jaar haar omzet met miljarden op miljarden te verhogen, dreigt een instorting van de beurswaardes van de grootste enterprise AI-bedrijven. Mocht men toch de AI-hype omzetten in een AI-realiteit, dan zijn de gouden bergen niet voor niets.
Beluister ook onze Techzine Talks-aflevering over de huidige staat van de AI-markt: