Meta vindt Nvidia-alternatief in Google, maar heeft geduld nodig

Meta vindt Nvidia-alternatief in Google, maar heeft geduld nodig

Meta voert gesprekken met Google over de inzet van TPU’s (Tensor Processing Units) vanaf 2027, met mogelijke lease-afspraken via Google Cloud al in 2026. De stap zou Google een serieus alternatief maken als leverancier van AI-hardware naast Nvidia. Laatstgenoemde zou daar weleens flink last van kunnen hebben door het beperkte aantal grote klanten.

Volgens Bloomberg, die The Information en ingewijden aanhaalt, zou Meta mogelijk TPU’s gaan inzetten in eigen datacenters. De plannen komen bovenop een bestaande deal tussen beide partijen. In augustus tekenden Meta en Google Cloud hun eerste cloud-infrastructuurovereenkomst. Die deal heeft een waarde van ruim 10 miljard dollar en loopt over zes jaar. Het gaat om het inhuren van Google-servers en opslagcapaciteit voor AI-modeltraining en -inferencing. Deze opzet was voornamelijk bedoeld om capaciteitstekorten op te vangen terwijl Meta’s eigen datacenters nog in aanbouw zijn.

De onderhandeling over TPU’s lijkt een logische volgende stap. Meta zoekt naar alternatieven voor Nvidia, waar grote AI-spelers momenteel niet omheen kunnen. Google’s TPU’s winnen echter terrein en lijken qua prestaties aantrekkelijk. Maker van AI-modellenreeks Claude Anthropic sloot al een deal met Google om tot een miljoen TPU’s te leasen op Google Cloud. Het is een ietwat aparte manier om de rekenkracht te verwoorden, maar het verwachte stroomverbruik op basis van die deal gaat tegen 2026 meer dan 1 gigawatt omvatten.

GPU’s versus TPU’s

GPU’s zijn oorspronkelijk ontworpen voor grafische verwerking en zijn eigenlijk vrij toevallig ook geschikt voor generatieve AI. Hun kracht voor massaal parallelle berekeningen maakt ze breed ingezet voor AI. TPU’s daarentegen zijn application-specific integrated circuits (ASIC’s), gebouwd voor specifieke AI-workloads. Google werkt nauw samen met DeepMind aan modellen als Gemini en gebruikt feedback om TPU-ontwerpen te verfijnen. De eerste TPU-ontwerpen hielden geen rekening met GenAI of agentic AI in het bijzonder, maar Googl heeft de verticale integratie om dit op den duur steeds beter te laten synchroniseren.

De interesse van Meta in TPU’s moet gezien worden in een breder speelveld. Apple gebruikte Google TPU’s al voor training van foundationmodellen achter Apple Intelligence. Het feit dat die modellen vooralsnog weinig indruk maken, doet niet af aan het feit dat de hardware van Google schijnbaar een zinnig alternatief is voor Nvidia. Apple traint zijn modellen op clusters van duizenden TPUv4 en TPUv5p chips via Google Cloud Platform.

Google lanceerde recent de zevende generatie TPU met codenaam Ironwood. Die chip focust op inferencing en schaalt op tot bijna 10.000 exemplaren in een enkele pod. Anthropic wordt een van de eerste gebruikers en zal gelijk gelden als de ultieme stresstester. De nieuwe generatie levert volgens Google vier keer betere prestaties dan voorganger Trillium.

Druk op Nvidia

Voor Nvidia zou een Meta-Google TPU-deal extra druk betekenen en een afwijking van de norm. Meta behoort tot de grootste afnemers van AI-chips ter wereld. Als Meta een substantieel deel van zijn toekomstige AI-infrastructuur op TPU’s laat draaien, verliest Nvidia omzet en marktaandeel. De verwachte 40 tot 50 miljard dollar aan inference-chipuitgaven in 2026 toont aan hoeveel er op het spel staat. Nvidia heeft slechts een klein aantal prominente klanten, dus elke afname in het aantal orders van één van die partijen heeft een significante impact.

Tegelijkertijd blijft Nvidia voorlopig marktleider en heeft op korte termijn weinig te vrezen. GPU’s zijn veelzijdiger inzetbaar dan TPU’s en domineren nog altijd de AI-training. De vraag is hoe lang die dominantie standhoudt bij toenemende concurrentie van gespecialiseerde chips zoals TPU’s.

Lees ook: Microsoft en Nvidia investeren 15 miljard in Anthropic