Achtergrond - Bedrijven streven naar 'agi', maar de definitie verzinnen ze zelf

donderdag, 16 april 2026 (06:45) - Tweakers

In dit artikel:

Nvidia-topman Jensen Huang stelt dat we al bij artificial general intelligence (AGI) zijn aangekomen, maar die claim staat haaks op het gebrek aan eenduidige definitie en op stevige wetenschappelijke discussie. AGI wordt traditioneel gezien als een AI die op vrijwel alle cognitieve terreinen vergelijkbaar is met een mens, maar die omschrijving is vaag en veranderlijk: elke doorbraak zet de lat hoger. Historische mijlpalen – van Winograds robotarm die "pick up the red block" opvolgde tot Eliza en Deep Blue – lieten eerder hetzelfde patroon zien: initiële euforie gevolgd door teleurstelling buiten het beperkte testdomein.

Techbedrijven hanteren vaak eigen, pragmatische maatstaven om AGI meetbaar te maken. Zo koppelde OpenAI in een oud contract met Microsoft AGI aan een economische drempel (systemen die 100 miljard dollar genereren), en Nvidia's Huang zegt dat een AGI een zelfstandig techbedrijf van minstens een miljard dollar moet kunnen opzetten en leiden. Zulke economische definities maken de mijlpaal concreter — en aantrekkelijk voor investeerders — maar ze zijn niet hetzelfde als een wetenschappelijke standaard. OpenAI en Microsoft hebben hun contracten inmiddels aangepast: bevestiging van AGI moet nu door een onafhankelijk panel komen.

Tegelijkertijd zien sommige grote spelers AGI als onduidelijk of minder relevant en verschuiven ze de aandacht naar artificial superintelligence (ASI) — systemen die menselijke experts op álle cognitieve taken zouden overtreffen. OpenAI, Meta en anderen schetsen daarbij zowel grote voordelen (snellere medische en wetenschappelijke doorbraken, hogere productiviteit, nieuwe vormen van werk) als ernstige risico’s (massaal banenverlies, democratische misbruikmogelijkheden, bioveiligheidsbedreigingen). De precieze invulling van ASI blijft echter even onbepaald als die van AGI.

Onder onderzoekers bestaat flinke scepsis over of huidige grote taalmodellen ooit echte (super)intelligentie bereiken. Vanessa Evers (CWI) wijst erop dat mensen leren via sensorische, lichamelijke en sociale interacties; grote taalmodellen worden “gedwangvoederd” met teksten en missen een lichaam en ervaringswereld. Voor haar is embodiment cruciaal: een systeem moet in een fysieke of zintuiglijke context kunnen leren en die kennis generaliseren naar totaal andere taken. Dat roept vragen op of opschalen van bestaande modellen voldoende is, of dat een nieuw paradigma nodig is. Toch ziet ze ook dat opschaling onverwachte successen heeft opgeleverd — bijvoorbeeld bij genereren van video en beeldmodellen — waar onderzoekers eerder twijfels hadden.

Praktisch leidt de onduidelijkheid rond AGI ertoe dat bedrijven het begrip gebruiken als moonshot om talent en kapitaal aan te trekken, terwijl anderen het juist vermijden of vervangen door ASI-retoriek. De discussie is dus zowel technisch als socio-economisch: wat telt als bewijs, wie beslist dat AGI bestaat, welke risico’s en voordelen wegen zwaarder, en welke rol speelt embodiment in de ontwikkeling van echt algemene of superieure AI? Daarmee blijft het doelbeeld van “menselijke” of “super” intelligentie voorlopig meer horizon dan aangekomen bestemming.