Exabeam richt zich op beveiliging van autonome AI-agents

woensdag, 7 januari 2026 (13:09) - Techzine

In dit artikel:

Cybersecuritybedrijf Exabeam heeft zijn New-Scale-platform recent uitgebreid met functionaliteit die specifiek gericht is op het beveiligen van autonome AI-agents. Volgens berichtgeving in SiliconANGLE brengt de update gedragsonderzoek van AI-agents, een eenduidige tijdlijn voor forensisch onderzoek en zichtbaarheid van de beveiligingsstatus rond AI-gebruik samen in één workflow. Daarmee past Exabeam zijn user-and-entity-behavior-analytics ook toe op niet-menselijke “gebruikers”.

De aanleiding is de snelle toename van AI-agents binnen bedrijfsprocessen: deze software-entiteiten krijgen steeds vaker toegang tot gevoelige data en kritische systemen, terwijl governance en continue monitoring vaak ontbreken. Dat creëert nieuwe vormen van insider threats, omdat traditionele SIEM- en XDR-oplossingen afwijkend gedrag van agents niet altijd herkennen. Exabeam adresseert dit door normaal gedrag per agentrol te modelleren, afwijkingen te detecteren en automatisch gedetailleerde tijdlijnen voor onderzoek op te bouwen.

Daarnaast centraliseert de uitbreiding onboarding en datatoegang om ad-hocintegraties en onbeperkte machtigingen te voorkomen. Voor management en beveiligingsteams levert het platform ook een strategisch overzicht van hoeveel AI-activiteit wordt bewaakt en hoe volwassen de beveiligingsmaatregelen zijn, inclusief aanbevelingen gekoppeld aan kaders als NIST en GDPR. Exabeam en analisten verwachten dat toezicht op AI-agents een blijvend, apart onderdeel van cybersecurity wordt, naast identiteits-, cloud- en databescherming.