Het idee van onder meer Jeff Bezos en Elon Musk om datacenters in de ruimte te bouwen, is “ridicuul”. Dat vindt Sam Altman, CEO van OpenAI. In een interview verdedigde hij ook het energieverbruik van AI-diensten, dat volgens hem vanuit “volledig onjuiste” en “totaal krankzinnige” ideeën uit zou gaan.
Altman gaf in gesprek met The Indian Express toe dat het totale energieverbruik van AI wereldwijd zorgwekkend is. Hij stelde dat ChatGPT echter over de volledige levensduur niet meer middelen verbruikt dan de gemiddelde mens. Dit leidde al gauw tot kritiek over die vergelijking: de gemiddelde mens kan wat meer dan AI-tooling. Overigens is het brein van een mensenbrein met 20 watt in vergelijking met digitale workloads onvoorstelbaar efficiënt.
Altman wees kritiek op de vergelijking tussen AI-training en menselijke hersenactiviteit van de hand. Volgens hem moeten mensen AI-verbruik, inclusief training, vergelijken met de totale energieconsumptie die nodig is geweest om een mens decennia in leven te houden. Het moge duidelijk zijn dat er te twisten valt over wat ‘efficiëntie’ hier inhoudt, maar Altman laat enkel zien dat de meewegende factoren discutabel zijn.
Volgens onderzoek vorig jaar verbruikt een individuele ChatGPT-vraag ongeveer 0,3 wattuur bij gebruik van GPT-4o. Dat lijkt weinig, maar de cumulatieve impact is aanzienlijk: AI-servers zouden in 2025 minder dan 100 terawattuur hebben verbruikt, oplopend tot 432 terawattuur in 2030.
Waterverbruik “totaal krankzinnig”
Op de vraag of het klopt dat een enkele ChatGPT-query 17 gallon water verbruikt en het equivalent van 1,5 iPhone-batterijladingen, reageerde Altman stellig. Die claims zijn “volledig onjuist, totaal krankzinnig en hebben geen enkele connectie met de werkelijkheid”, aldus de topman.
Hij erkende dat waterverbruik ooit een legitieme zorg was bij oudere datacenters met traditionele luchtkoeling. Moderne datacenters gebruiken volgens hem veel efficiëntere methoden om servers te koelen, zoals direct-to-chip liquid cooling op hogere temperaturen. Toch blijft de energiekwestie spelen. OpenAI bouwt momenteel een megadatacenter in Abu Dhabi dat energie nodig heeft equivalent aan vijf kernreactoren.
Ruimtedatacenters “belachelijk”
Altman kreeg ook een vraag over Elon Musks ambities om datacenters in een lage aardbaan te plaatsen. Musk noemde dergelijke datacenters deze maand als een van de hoofdredenen voor het fuseren van zijn raketbedrijf SpaceX met AI-bedrijf xAI. Ook Google onderzocht het concept, zoals we eerder hebben omschreven:
Lees verder: Hebben datacenters een toekomst in de ruimte?
Altman wuifde het idee weg als “belachelijk” op dit moment. De lanceerkosten om een datacenter in een baan te krijgen zijn nog steeds extreem hoog vergeleken met aardse stroomopwekking. Ook noemde hij de bijna onmogelijke uitdaging om defecte processors of opslagsystemen te repareren. “Als je gewoon de ruwe wiskunde maakt van lanceerkosten ten opzichte van de stroomkosten die we op aarde kunnen realiseren, zijn we er nog niet”, aldus Altman.
Hij zei wel dat de ruimte ooit een nuttige omgeving kan zijn voor bepaalde AI-toepassingen. Maar hij benadrukte dat “datacenters in een baan om de aarde niet iets zijn dat op schaal van belang zal zijn dit decennium”. Nu belooft Musk dat deze IT-infrastructuur binnen enkele jaren mogelijk is, terwijl Bezos een periode van 20-30 jaar inschatte.