HPE biedt AI op elke schaal voor Nvidia Vera Rubin-aanbod

maandag, 16 maart 2026 (21:40) - Techzine

In dit artikel:

HPE speelt in op het probleem dat veel AI-projecten stranden bij integratie met bestaande infrastructuur en belooft grotendeels plug-and-play AI-oplossingen, grotendeels aangedreven door Nvidia, met aandacht voor verschillende gebruikersprofielen. Voorafgaand aan Nvidia’s jaarlijkse GTC benoemt HPE drie doelgroepen: zware AI‑modelbouwers (extreme schaal en chip‑prestatie), AI‑dienstverleners (die geïntegreerde servers en netwerkoplossingen willen leveren) en zogenaamde “sovereigns” — overheden en sterk gereguleerde organisaties — waarvoor speciale, controleerbare opstellingen nodig zijn.

Nieuw in het portfolio is de HPE Cray Supercomputing GX240 blade, bedoeld voor grote labs en academische klanten. Eén blade ondersteunt tot 8 nodes met elk twee Nvidia Vera‑CPU’s en levert tot 1.408 ARM‑cores per blade en maximaal 24,5 TB LPDDR5‑geheugen. In een GX5000‑rack passen 40 blades (640 CPU’s, 56.320 ARM‑cores per rack). Voor cloud‑achtige aanbieders (neoclouds zoals CoreWeave en Nebius) benadrukt HPE de Vera Rubin NVL72‑architectuur die als één geïntegreerd systeem functioneert: vloeistofkoeling tot op chip‑niveau, minder bottlenecks en volgens HPE de mogelijkheid om een LLM van een biljoen parameters op één NVL72‑systeem te draaien, met tot tien keer lagere inference‑tokenkosten en tot vier keer minder benodigde GPU’s voor MoE‑training vergeleken met Blackwell‑systemen.

Voor organisaties die kleinere, eigen deployments willen, introduceert HPE ook de Compute XD700‑servers (HGX Rubin NVL8‑referentieontwerp) waarmee tot 128 Rubin‑GPU’s per rack mogelijk zijn — een verdubbeling ten opzichte van de vorige generatie. Deze systemen gebruiken Intel Xeon 6‑processors en schalen van twee racks tot honderden of duizenden met een OCP‑geïnspireerd ontwerp, met HPE Services voor dagelijkse ondersteuning.

De samenwerking met Nvidia omvat niet alleen hardware maar ook softwareintegratie en diensten; Run.ai wordt out‑of‑the‑box ondersteund om GPU‑benutting te maximaliseren. HPE stelt dat hun aanpak het aantal gespecialiseerde experts dat vereist is om een AI‑systeem van A tot Z te bouwen flink reduceert en een ‘cloud‑like’ ervaring wil bieden om implementatiecomplexiteit te verminderen.

Tot slot detailleert HPE het gebruik van HPE Private Cloud AI: 36% van klanten gebruikt het voor inferencing‑as‑a‑service, 20% voor RAG, 16% voor OCR, 8% voor research/healthcare, 8% voor IT‑ops en 4% voor computer vision. De private cloud is schaalbaarder gemaakt: baseracks tot 16 GPU’s, uitbreidbaar en air‑gapped oplossingen tot 128 GPU’s voor soevereine of gevoelige toepassingen zoals digitale tweelingen via Nvidia AI‑Q en Omniverse.