China probeert AI-opmars zonder Nvidia te redden, lukt dat?

dinsdag, 2 september 2025 (09:55) - Techzine

In dit artikel:

Nvidia staat vrijwel onaantastbaar aan de top van de markt voor AI-chips: de GPU’s van het bedrijf zijn het krachtigst voor het trainen van grote taalmodellen, het meest schaalbaar en ondersteund door een uitgebreid software- en partnerecosysteem. Dat gaf Nvidia een marktkapitalisatie van meer dan 4 biljoen dollar. Concurrenten als AMD bieden goedkopere alternatieven, en nieuwkomers zoals Groq en Cerebras richten zich op inferencing (het dagelijks draaien van AI-modellen), maar de combinatie van raw performance en softwarecompatibiliteit van Nvidia blijft dominant.

Die afhankelijkheid van Nvidia vormt een politiek-economisch knelpunt sinds de VS exportrestricties oplegden aan geavanceerde AI-hardware richting China. Sommige oudere of minder krachtige modellen (zoals varianten van de H100) bleven beschikbaar, maar de nieuwste Blackwell-generatie is niet voor China bestemd. In juli werden beperkingen op de H20 versoepeld, maar de Chinese overheid spoort binnenlandse bedrijven toch aan Nvidia-links te verbreken en te vertrouwen op eigen leveranciers zoals Alibaba, Huawei en gespecialiseerde ontwerpers als Cambricon en MetaX.

Een opvallende ontwikkeling is dat Alibaba volgens berichtgeving erin geslaagd zou zijn hun AI-chips compatibel te maken met Nvidia’s softwarestack. Dat is belangrijk omdat veel ontwikkelingswerk dan veel minder aanpassingen vereist en de overstap voor softwareteams gemakkelijker maakt. Voor inferencing is dit vooral waardevol: die workloads vragen minder rekenkracht en zijn minder afhankelijk van diepgaande kennis van Nvidia’s tooling dan training.

Training van grote modellen blijft echter het grootste struikelblok voor Chinese zelfredzaamheid. Hoog renderende training vergt niet alleen krachtige chips maar ook optimalisaties op het niveau van Nvidia’s laag onder CUDA (PTX). Het open-sourcebedrijf DeepSeek liet eerder zien hoe cruciaal zulke hardwaregerichte optimalisaties zijn: DeepSeek-R1 was extreem efficiënt doordat engineers diep op Nvidia-hardware programmeerden. Pogingen om training naar Chinese chips te verplaatsen leken vertragingen te veroorzaken — DeepSeek-R2 zou vertraging hebben opgelopen door afhankelijkheid van minder krachtige binnenlandse hardware.

Structurele belemmeringen werken in het nadeel van China. Nvidia schakelt in razendsnel tempo door naar nieuwe chipgeneraties (ongeveer jaarlijks), terwijl de klassieke chipindustrie gewend is aan cycli van 18–36 maanden. Om bij te blijven moet China ofwel een vergelijkbaar tempo halen of hopen dat Nvidia stagneert — iets wat historisch mogelijk is (denk Intel en AMD) maar momenteel onwaarschijnlijk gezien Nvidia’s kapitaalpositie en concurrentiedruk. Bovendien hebben Chinese fabrikanten geen toegang tot de meest geavanceerde lithografiemachines van ASML (High-NA EUV), cruciaal voor het maken van de kleinste, meest efficiënte chips bij partners als TSMC en Intel. Dat beperkt het plafond van wat binnenlandse chipmakers op korte termijn kunnen bereiken.

Kortom: China maakt strategische stappen richting minder afhankelijkheid van Nvidia, vooral op inferencinggebied en via compatibiliteitslagen zoals die van Alibaba. Voor het trainen van de nieuwste, grootste AI-modellen blijven technologische en materiaalbeperkingen echter grote obstakels. De ambities zijn reëel, maar de snelheid en omvang van mogelijke doorbraken moeten met de nodige terughoudendheid worden beoordeeld.