VAST Data zet unieke marktpositie in om full-stack AI-infrastructuur te ontwikkelen

woensdag, 25 februari 2026 (19:40) - Techzine

In dit artikel:

VAST Data presenteert tijdens de eerste editie van VAST Forward een reeks aankondigingen die duidelijk maken dat het bedrijf serieus werkt aan een “besturingssysteem” voor AI-infrastructuur. VAST positioneert zich niet enkel als storage-leverancier — het levert vooral software bovenop zijn DataStore en wil onafhankelijk van onderliggende hardware of cloudleverancier functioneren. Oprichter-CEO Renen Hallak geeft aan dat VAST met die open aanpak als een soort neutrale speler wil opereren, maar dat die strategie zowel groeikansen als risico’s (wildgroei) met zich meebrengt — vergelijkbaar met de rol die VMware ooit innam.

Nieuwe engines: governance en performance
VAST introduceert twee nieuwe software-engines: PolicyEngine en TuningEngine. De TuningEngine bouwt voort op bestaande componenten (zoals InsightEngine en AgentEngine) en gebruikt telemetrie om de prestaties van AI-modellen en workloads adaptief te verbeteren. De PolicyEngine fungeert als fijnmazige control plane: hij beoordeelt identiteit, context en organisatiebeleid voordat AI-agents acties uitvoeren, en biedt daarmee governance over agent-interacties en datatoegang. Beide engines zijn aangekondigd tijdens de conferentie, maar worden niet vóór het vierde kwartaal verwacht — VAST kondigt ze dus vroeg aan.

Polaris: een overkoepelende control plane voor multi-site AI
Naast detailcontrole richt VAST zich op hoger niveau beheer met Polaris, een op Kubernetes gebaseerde, agentgedreven control plane voor multi-tenant omgevingen. Polaris automatiseert provisioning, upgrades en capaciteitsoverzicht over meerdere locaties (on-prem, public cloud, neoclouds) door agents op VAST-nodes te plaatsen en intent-based declaraties van gewenste infrastructuurstatus uit te voeren. Polaris werkt nauw samen met DataSpace (VAST’s global namespace): waar DataSpace op data focust, regelt Polaris de infrastructuur eromheen. Polaris is nu beschikbaar, maar voorlopig alleen voor cloudomgevingen; on-prem en neocloud-ondersteuning volgen later.

GPU-integratie via CNode-X en samenwerking met Nvidia
Een belangrijke stap is het naar binnen halen van GPU’s in de VAST-stack met de introductie van CNode-X, in samenwerking met Nvidia. CNode-X is een door Nvidia gecertificeerd systeem dat bij hardwarepartners HPE, Cisco, Lenovo en Supermicro te koop is. Daarmee kunnen GPU’s op hetzelfde niveau beheerd en uitgelezen worden als de rest van VAST’s ecosystemen. Directe integratie van Nvidia-libraries en API’s (zoals cuVS, Nemotron, NIM en Context Memory Storage) moet latency verlagen en throughput verhogen, waarmee AI-workloads efficiënter draaien. In feite verandert dit de rol van VAST van puur storage-aanbieder naar bredere orchestrator van AI-hardware en -software.

Strategie en consequenties: strakkere stacks maar meer controle
De aangekondigde functies tonen dat VAST naar meer geïntegreerde, consistenter te beheren stacks wil bewegen — een keuze die aantrekkelijk is voor enterprise-klanten en system integrators die stabiliteit en voorspelbaarheid vragen. Tegelijk is er de ambitie om met veel partijen samen te werken (public clouds, Nvidia, neoclouds zoals CoreWeave), zodat klanten niet vastzitten aan één infrastructuur. VAST trekt steeds meer functionaliteit naar het eigen platform en bouwt control planes op meerdere niveaus: van fijnmazige agent-governance tot overkoepelend multi-site beheer.

Nog werk aan de winkel
VAST is nog niet klaar: sommige features zijn nog in ontwikkeling (Policy/Tuning engines later dit jaar), Polaris is nog niet op alle locaties inzetbaar en security vereist verdere verdieping — zo is er wel een partnership met CrowdStrike, maar eigen security-capaciteiten blijven belangrijk om uit te breiden. De recente aankondigingen markeren een belangrijke vervolgstap in richting volwassenheid, maar ook de overgang naar grotere verantwoordelijkheid en complexere orkestratie over verschillende omgevingen heen.

Kortom: VAST verstevigt zijn ambitie om hét beheersvlak voor gedistribueerde AI-infrastructuur te worden — met nieuwe control planes, prestatie- en governance-engines en nauwere integratie met GPU-hardware en Nvidia-technologieën — terwijl beschikbaarheid en verdere uitbouw gefaseerd verlopen.