Nvidia werkt aan chip voor AI-inferencing met Groq-technologie

maandag, 2 maart 2026 (09:26) - Techzine

In dit artikel:

Nvidia werkt aan een nieuwe, speciaal voor inferencing bedoelde chip die niet zozeer AI-training verzorgt maar dagelijks draaiende AI-workloads efficiënter en zuiniger moet afhandelen. Het bedrijf bouwt hiervoor verder op technologie en mensen van startup Groq — Nvidia sloot in december een licentiedeal van circa 20 miljard dollar met Groq en nam onder anderen oprichter Jonathan Ross en president Sunny Madra over — en gebruikt Groq’s Language Processing Units als basis voor de lage-energie architectuur.

Volgens de Wall Street Journal heeft OpenAI al vroege toegang gekregen tot de nieuwe processor; Nvidia zou het product mogelijk tijdens GTC 2026 in San Jose (de conferentie begint op 16 maart) presenteren. Inferencing — het uitvoeren van getrainde modellen voor services zoals chat, vertaling of codegeneratie — kent veel spelers (AWS, Google Cloud, verschillende startups), waardoor een eigen, concurrerend platform voor Nvidia strategisch belangrijk is om marktaandeel te behouden.

De timing valt samen met dat OpenAI recent al andere inferencing-partners zoals Cerebras zocht vanwege kritiek op snelheid bij bepaalde taken (onder meer programmeren). Tegelijkertijd kreeg OpenAI vorige week 30 miljard dollar van Nvidia als deel van een grotere 110 miljard-dollar investering, wat duidt op een genormaliseerde relatie. Nvidia hoopt met de nieuwe chip klanten zoals OpenAI te helpen Codex-achtige codeerfeatures sneller en zuiniger te laten draaien en zo concurrenten zoals Anthropic’s Claude Code het hoofd te bieden. Exacte details over integratie en prestaties maakt Nvidia nog niet publiek.