OpenAI-CEO Sam Altman ziet niets in datacenters in de ruimte

maandag, 23 februari 2026 (10:55) - Techzine

In dit artikel:

Sam Altman, CEO van OpenAI, noemt plannen van ondernemers als Jeff Bezos en Elon Musk om datacenters in de ruimte te plaatsen op dit moment onrealistisch en “belachelijk”. In een interview met The Indian Express erkende hij dat het wereldwijde energieverbruik van AI zorgelijk is, maar hij relativeert individuele ChatGPT-queries: onderzoek wijst uit dat een vraag met GPT‑4o rond 0,3 wattuur verbruikt, en Altman vergelijkt de levenslange energiekost van AI-toepassingen met de totale energie die nodig is geweest om een mens decennia lang in leven te houden — een vergelijking waar veel discussie over mogelijk is, onder meer omdat het menselijk brein met ongeveer 20 watt extreem efficiënt is.

Altman verwerpt beweringen dat een enkele query grote hoeveelheden water zou verbruiken (bijvoorbeeld 17 gallons) of vergelijkbaar is met meerdere iPhone-opladingen; zulke claims noemt hij “volledig onjuist” en “totaal krankzinnig”. Hij wijst erop dat oudere datacenters meer water nodig hadden voor luchtkoeling, maar dat moderne faciliteiten efficiëntere methoden gebruiken, zoals direct‑to‑chip liquid cooling. Tegelijkertijd benadrukt hij dat de cumulatieve impact niet te bagatelliseren is: schattingen laten zien dat AI‑servers tegen 2025 minder dan 100 terawattuur kunnen verbruiken, oplopend tot ongeveer 432 TWh in 2030.

Hoewel Altman niet uitsluit dat ruimte-omgeving in de toekomst nuttig kan zijn voor bepaalde AI-toepassingen, rekent hij voor dat lanceerkosten en de vrijwel onmogelijke reparatie van falende hardware in een baan rond de aarde de aanpak ongeschikt maken voor grootschalige inzet dit decennium. OpenAI bouwt intussen een groot datacenter in Abu Dhabi, waarvan het energieverbruik volgens Altman vergelijkbaar is met dat van vijf kernreactoren — wat onderstreept waarom energie en koeling centraal blijven staan in het debat over AI‑infrastructuur.