OpenAI gaat voor 38 miljard dollar aan Nvidia-gpu's in AWS EC2-clusters huren
In dit artikel:
OpenAI sluit een grote overeenkomst met Amazon Web Services om capaciteit in AWS-datacenters te huren voor het draaien en trainen van zijn AI-modellen. Het gaat om een investering van ongeveer 38 miljard dollar (ongeveer 33 miljard euro) in gebruik van Nvidia-gpu’s binnen AWS’ EC2 UltraServer-clusters, die meerdere clusters koppelen om latentie te verlagen en meer geheugen beschikbaar te maken. AWS levert geen eigen Trainium2-chips voor dit project; OpenAI gebruikt Nvidia GB200- en GB300-kaarten — met GB200 zou tot 72 Blackwell-gpu’s per configuratie kunnen draaien, goed voor circa 360 petaflops en tot 13,4 TB HBM3e-geheugen. OpenAI zegt ChatGPT deels op deze infrastructuur te willen hosten en nieuwe modellen te trainen, met schaalmogelijkheden die volgens het bedrijf tot honderdduizenden gpu’s en uiteindelijk veel grotere CPU-omvang kunnen reiken. De partijen mikken op afronding van de deal voor eind 2026, met mogelijke uitbreiding in 2027. Deze stap onderstreept de grote vraag naar gespecialiseerde gpu-infrastructuur voor grootschalige AI.