Red Hat lanceert AI Enterprise voor hybride AI-deployments

woensdag, 25 februari 2026 (09:09) - Techzine

In dit artikel:

Red Hat lanceert Red Hat AI Enterprise en maakt tegelijk versie 3.3 van Red Hat AI beschikbaar, gericht op het versnellen van enterprise‑AI-implementaties in hybride cloudomgevingen. Het nieuwe platform combineert modelinference, tuning en agent‑deployments met de bekende basis van Red Hat Enterprise Linux en OpenShift, zodat organisaties gemakkelijker van gefragmenteerde experimenten naar productie kunnen overstappen.

De stack ondersteunt geoptimaliseerde generatieve AI-workloads via de vLLM inference-engine en het llm-d distributed inference‑framework en draait op OpenShift voor schaalbaarheid en consistentie over verschillende hardware. Red Hat werkt nauw samen met Nvidia in het gezamenlijke Red Hat AI Factory with Nvidia‑aanbod, dat Red Hat AI Enterprise met Nvidia AI Enterprise integreert om productieklare, schaalbare AI voor bedrijven te bieden. Red Hat benadrukt dat het platform flexibiliteit biedt voor “elk model, elke hardware, elke omgeving”.

Versie 3.3 breidt het modelecosysteem uit met gevalideerde, productieklare, gecomprimeerde modellen (onder meer Mistral-Large-3, Nemotron-Nano en Apertus-8B-Instruct) via de OpenShift AI Catalog, en voegt ondersteuning toe voor modellen met sparse attention zoals Ministral 3 en DeepSeek‑V3.2. Multimodale prestaties zijn verbeterd — bijvoorbeeld Whisper‑verwerking tot drie keer sneller — en er is toegevoegd geospatial support en verfijnde EAGLE speculative decoding voor agent‑workflows. Een technology preview van Models‑as‑a‑Service (MaaS) biedt IT-teams selfservice voor privé‑gehoste modellen via een API‑gateway.

Op hardwaregebied komt er generatieve‑AI‑ondersteuning op CPU’s (startend met Intel) voor kosteneffectieve small‑model inference, plus certificeringen voor Nvidia Blackwell Ultra en AMD MI325X accelerators. De nieuwe Red Hat AI Python Index fungeert als trusted repository met hardened, enterprise‑grade tooling (zoals Docling, SDG Hub en Training Hub) om veilige, productiegerichte pipelines te faciliteren.

Verder bevat het platform uitgebreide observability en safety‑features: realtime telemetrie voor modelgezondheid en gebruik, een preview van geïntegreerde NeMo Guardrails voor operationele safety, on‑demand GPU‑toegang via intelligente orkestratie en automatische checkpointing van trainingsjobs om statusverlies en onvoorspelbare kosten te beperken. Al met al richt Red Hat zich op het wegnemen van infrastructuur‑ en toolfragmentatie om enterprises sneller en veiliger AI in productie te laten brengen.