Onderliggende infrastructuur cruciaal voor behalen AI-succes

dinsdag, 2 december 2025 (12:40) - Techzine

In dit artikel:

AI verandert bijna elke sector en leidt tot enorme investeringen wereldwijd: hyperscalers zouden tegen 2028 ongeveer 1 biljoen dollar in AI-geoptimaliseerde infrastructuur steken, de EU startte tijdens de AI Action Summit in Parijs het InvestAI-programma met €200 miljard en analisten verwachten dat Europese bedrijven in 2028 zo’n 144 miljard dollar aan AI uitgeven. Tegelijkertijd faalt volgens Gartner bijna een derde van de AI-initiatieven in het leveren van zakelijke waarde. Dit ingezonden stuk van Pure Storage bespreekt waarom een doordachte opslag- en energie-infrastructuur cruciaal is voor succes.

AI-workloads vallen grofweg in twee groepen: training (het model leren uit data) en inferentie (het gebruik van een getraind model voor nieuwe inzichten). Voor beide fasen is uitgebreide dataverzameling en -voorbereiding nodig, vaak uit uiteenlopende bronnen met uiteenlopende governance en eigenaarschap. Technieken zoals checkpoints tijdens training vergroten de behoefte aan opslag — ze ondersteunen herstel, rollback en compliance — en verhogen daarmee ook het energieverbruik. Retrieval Augmented Generation (RAG), waarbij relevante context eerst wordt opgehaald uit databases, kan de datasetgrootte flink opdrijven, soms tot tien keer groter, en vergroot daardoor de complexiteit van opslag en verwerking.

Energiegebruik is een andere kritieke factor. AI-berekeningen verbruiken veel meer stroom dan traditionele applicaties (sommige bronnen spreken van tot 30x), en de totale energiebehoefte van datacenters zou tegen 2030 meer dan verdubbelen. Racks vereisen nu vaak 100 kW of meer, waar dat vroeger onder de 10 kW lag. Omdat elke watt voor opslag een watt is die niet naar GPU’s kan gaan, moeten organisaties keuzes maken: energie-efficiënte opslag is nodig om GPU’s snel te voeden zonder de stroomvoorziening te overbelasten.

Praktische maatregelen zoals caching — het bufferen van veelgebruikte data, prompts en gesprekken — kunnen inferentie tot wel twintig keer versnellen, de GPU-efficiëntie verhogen en kosten en energiegebruik verlagen. Voor AI zijn hoge doorvoer, lage latency en enorme capaciteiten vereist; slechte opslagprestaties kunnen anders GPU’s tot bottlenecks maken.

De auteur concludeert dat schaalbare, energiezuinige en responsieve dataopslag net zo bepalend is voor grootschalig AI-succes als de GPU’s zelf. Technologieën zoals QLC-flash bieden volgens Pure Storage een combinatie van hoge capaciteit, snelheid en energie-efficiëntie tegen concurrerende kosten ten opzichte van HDD’s. Zonder dergelijke opslagstrategieën lopen zelfs goed gefinancierde AI-projecten het risico te mislukken door infrastructuurbeperkingen.