Nvidia onthult Spectrum-XGS Ethernet, 'scale-across' datacenters
In dit artikel:
Nvidia stelt dat de traditionele manieren om datacenters uit te breiden onvoldoende zijn voor de schaal die AI vereist en pleit voor een derde strategie: naast scale-up (meer vermogen per systeem) en scale-out (meer racks) is ook ‘scale-across’ nodig — het koppelen van meerdere locaties zodat hun AI‑chips samenwerken als één gezamenlijke rekenunit. De fysieke beperkingen van datacenters (ruimte, stroom, koeling) maken verdere groei binnen één site lastig; ook extra sites stuiten op synchronisatie- en latencyproblemen bij zware AI-workloads.
Om die grens te verleggen introduceert Nvidia Spectrum‑XGS Ethernet, een vervolg op het Spectrum‑X platform. Deze technologie moet inter-datacentercommunicatie optimaliseren door automatische congestion control, latencymanagement en end-to-end telemetrie, wat volgens Nvidia leidt tot ongeveer 1,9× betere prestaties bij een benchmark met de Collective Communications Library (NCCL). Daarmee wil Nvidia zogenoemde AI‑“superfabrieken” mogelijk maken: geografisch verspreide hardware die in praktijk als één superchip functioneert.
CoreWeave, een belangrijke Nvidia-partner, is een early adopter; CTO Peter Salanki zegt dat dit stap naar “giga-schaal” AI opent. Hoewel Nvidia binnen datacenters InfiniBand promoot, speelt Ethernet wereldwijd de hoofdrol; Spectrum‑X levert daarop vergelijkbare snelheid, schaal en latency om scale-across praktisch haalbaar te maken.