Amazon toont zijn eerste 3nm-chips voor AI, volgende versie krijgt Nvidia NVLink

dinsdag, 2 december 2025 (21:31) - Tweakers

In dit artikel:

Amazon heeft zijn Trainium3-AI-chips officieel gelanceerd en maakt ze direct beschikbaar via EC2 van cloudtak AWS. De nieuwelingen zijn het eerste door Amazon ontworpen ontwerp op een 3nm-procedé (fabrikant niet genoemd) en richten zich op het trainen van grote AI‑modellen. Per chip noemt Amazon tot 2,52 petaflops aan fp8-rekenkracht — ruim het dubbele van de Trainium2 uit 2023 — en elke chip heeft 144 GB HBM3E-geheugen met circa 4,9 TB/s geheugenbandbreedte.

Trainium3 wordt geleverd in UltraServers die maximaal 144 chips huisvesten, wat een gecombineerde fp8-prestatie tot ongeveer 362 petaflops oplevert; Amazon zegt dat die configuratie tot 4,4× sneller is dan de eerdere Trainium2 SuperServers. Tegelijk kondigde Amazon vooruitblik op Trainium4: die opvolger moet tot drie keer betere fp8-prestaties leveren en zal voor het eerst NVLink ondersteunen, Nvidia’s snelle chip‑tot‑chip interconnect.

NVLink is cruciaal voor het opschalen van datacenters omdat het veel hogere bandbreedtes biedt dan alternatieven zoals PCIe, en zo knelpunten voorkomt wanneer tientallen chips samenwerken. Tot voor kort had alleen Nvidia toegang tot NVLink, maar via het NVLink Fusion-initiatief stelt Nvidia IP-blokken beschikbaar zodat derden NVLink in hun eigen ontwerpen kunnen opnemen. Verschillende spelers — onder meer Qualcomm, Fujitsu, MediaTek, Marvell en ook gereedschapsleveranciers als Synopsys en Cadence — hebben al aangegeven NVLink Fusion te ondersteunen, wat de verwachting wekt dat hogere interconnect-snelheden breder toepasbaar worden in toekomstige AI‑systemen.