SUSE hoopt 'doe-het-zelf' AI veilig te maken
In dit artikel:
SUSE introduceert nieuwe AI-functionaliteit in zijn cloud-native portfolio: ingebouwde observability en een inference‑engine in SUSE Rancher Prime en SUSE AI, gericht op het beheer van AI-workloads ongeacht of die on‑premises, in de cloud of hybride draaien. Volgens SUSE’s CPTO Thomas di Giacomo zullen containers ook in AI‑land de norm worden; zonder vergelijkbare inzichten in kosten en gebruik lopen veel projecten het risico te mislukken, iets waar IDC‑cijfers voor 2028 al voor waarschuwen.
Belangrijkste technische vernieuwingen zijn een geïntegreerde Model Context Protocol (MCP)‑proxy (nu in tech preview) om centrale koppelingen en kostenbeheer rond modellen te vereenvoudigen, en ondersteuning voor meerdere inference‑engines zoals vLLM voor snelle, schaalbare LLM‑inference. SUSE levert daarnaast kant‑en‑klare observability‑pijplijnen voor tools als Ollama, Open WebUI en Milvus, maar benadrukt dat bij het koppelen van modellen aan bedrijfsdata vaak nog handwerk nodig blijft.
Rancher Prime krijgt een contextbewuste AI‑agent genaamd Liz (tech preview) die proactief problemen detecteert en prestaties helpt optimaliseren. Ook kunnen organisaties virtuele clusters inzetten om GPU‑capaciteit efficiënter te benutten gedurende de AI‑levenscyclus. SUSE Virtualization (tech preview) voegt geavanceerde netwerkfuncties toe, waaronder microsegmentatie voor software‑defined networking. SUSE Observability krijgt een nieuwe dashboard‑editor en OpenTelemetry‑ondersteuning.
Voor implementatie en governance werkt SUSE samen met partners als ClearML, Katonic, AI & Partners, Avesha en Altair, waarmee het inzette op MLOps, GPU‑orchestratie, compliance en HPC. De stappen laten zien dat SUSE zich positioneert als beheerplatform dat kosten, veiligheid en operationele zichtbaarheid voor enterprise‑AI wil borgen.