IGEL OS kan nu AI-model lokaal op endpoint draaien

donderdag, 2 april 2026 (14:09) - Techzine

In dit artikel:

IGEL kondigde tijdens Now & Next 2026 in Miami Beach aan dat IGEL OS lokaal draaiende taalmodellen ondersteunt via het open source-platform Ollama. Deze toevoeging valt onder AI Armor, IGEL’s runtime-beveiliging voor endpoints, en werkt samen met een centrale policy engine in de Universal Management Suite (UMS) voor naleving van regels. Ollama maakt het mogelijk LLM’s (bijv. Google’s Gemma 3) op de pc te laten lopen, zodat medewerkers direct bijvoorbeeld e-mails kunnen laten beantwoorden zonder data naar de cloud te sturen of per-token te betalen.

Beheerders bepalen in UMS wie Ollama mag gebruiken en welke prompts toegestaan zijn; beoogde toepassingen zijn teksttransformatie, vertalen, samenvatten, code schrijven en zoekvragen. Verder monitort AI Armor voortaan welke processen NPU/GPU-bronnen aanspreken en kan dit gebruik worden geblokkeerd. Alleen via de App Portal goedgekeurde en gesigneerde apps mogen draaien, en UMS krijgt kant-en-klare compliance-templates zodat organisaties met één klik branchegerichte instellingen kunnen toepassen.