OpenAI zoekt snellere alternatieven voor Nvidia-chips
In dit artikel:
OpenAI zoekt sinds vorig jaar naar alternatieven voor Nvidia’s AI-chips omdat die bij bepaalde inference-taken niet snel genoeg zouden zijn. Volgens Reuters heeft OpenAI gesprekken gevoerd met chipstartups zoals Cerebras en Groq om hardware te vinden met veel ingebouwd SRAM-geheugen op één chip, wat lagere latentie en snellere verwerking mogelijk maakt — vooral nuttig bij miljoenen gelijktijdige gebruikersvragen en bij toepassingen als softwareontwikkeling en AI-naar-AI-communicatie. Inference (het antwoorden van modellen zoals ChatGPT) vereist relatief meer geheugenbandbreedte dan training, waardoor on-chip SRAM grote voordelen kan bieden.
OpenAI wil dat zulke alternatieve chips uiteindelijk zo’n 10% van zijn toekomstige inference-rekenkracht leveren. De zoektocht versnelde toen zwakke prestaties bij Codex, OpenAI’s codegenerator, deels werden toegeschreven aan GPU-gebaseerde hardware van Nvidia. Onderhandelingen met Groq liepen af nadat Nvidia een licentiedeal van 20 miljard dollar met Groq sloot.
Nvidia ontkent spanningen en benadrukt zijn marktpositie en investeringsplannen; CEO Jensen Huang noemde berichtgeving hierover “nonsens”. OpenAI zegt voor het grootste deel nog steeds op Nvidia te vertrouwen en prijs-prestatie als leidend te zien. CEO Sam Altman prees later op X dat Nvidia “de beste AI-chips ter wereld” bouwt en dat OpenAI graag lange tijd een grote klant blijft.