Nvidia heeft tijdens de CES het Rubin-platform gepresenteerd, een nieuwe generatie AI-infrastructuur die uit zes chips bestaat. Het platform moet AI-supercomputers leveren tegen lagere kosten en versnelt de adoptie van artificial intelligence. De eerste Rubin-systemen worden in de tweede helft van 2026 beschikbaar via AWS, Microsoft en Google.
Het Rubin-platform combineert zes chips in één geïntegreerd systeem: de Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU en Spectrum-6 Ethernet Switch. “Rubin komt op precies het juiste moment, nu de vraag naar AI-rekenkracht voor zowel training als inferencing enorm toeneemt”, aldus Nvidia-CEO Jensen Huang. Het platform is vernoemd naar de Amerikaanse astronoom Vera Florence Cooper Rubin.
De nieuwe architectuur belooft aanzienlijke prestatieverbeteringen. Volgens Nvidia levert Rubin tot 10 keer lagere kosten per token dan het Blackwell-platform bij inferencing van mixture-of-experts (MoE) modellen. Daarnaast kunnen MoE-modellen getraind worden met 4 keer minder GPU’s vergeleken met de voorganger.
Vijf belangrijke innovaties
Het platform introduceert vijf technologische doorbraken. De zesde generatie NVLink biedt 3,6TB/s bandbreedte per GPU, terwijl het volledige Vera Rubin NVL72 rack 260TB/s levert. Dat is meer bandbreedte dan het gehele internet, stelt Nvidia. De nieuwe Vera CPU is speciaal ontworpen voor agentic reasoning en beschikt over 88 aangepaste Olympus-cores met volledige Armv9.2-compatibiliteit.
De Rubin GPU bevat een third-generation Transformer Engine met hardware-versnelde adaptieve compressie en levert 50 petaflops aan NVFP4 compute voor AI-inferencing. Het Vera Rubin NVL72 rack-systeem is het eerste dat Nvidia Confidential Computing op rack-schaal biedt, waarmee data beveiligd blijft over CPU-, GPU- en NVLink-domeinen heen. De tweede generatie RAS Engine zorgt voor realtime health checks en proactief onderhoud, waarbij het modulaire ontwerp tot 18 keer snellere assemblage mogelijk maakt dan bij Blackwell.
Brede ecosysteemondersteuning
De adoptie van Rubin zal breed zijn. Cloud providers als AWS, Google Cloud, Microsoft en Oracle Cloud Infrastructure behoren tot de eerste partijen die Vera Rubin-gebaseerde instances in 2026 uitrollen. Microsoft integreert Nvidia Vera Rubin NVL72 rack-systemen in volgende generatie AI-datacenters, waaronder toekomstige Fairwater AI-fabrieken. Daarnaast leveren Dell Technologies, HPE, Lenovo en Supermicro servers gebaseerd op Rubin-producten.
OpenAI, Anthropic, Meta en xAI zeggen toe het Rubin-platform te omarmen om grotere modellen te trainen en long-context, multimodale systemen te draaien tegen lagere latentie en kosten. Nvidia bevindt zich in volledige productie en Rubin-gebaseerde producten worden in de tweede helft van 2026 via partners beschikbaar.