Harness beveiligt AI-code en AI-apps met twee nieuwe modules
In dit artikel:
Harness breidt zijn DevSecOps-platform uit met twee producten gericht op de nieuwe risico’s van AI: AI Security en Secure AI Coding. De oplossing dekt de volledige keten, van AI-gegenereerde code in de IDE tot de modellen en LLM-aanroepen die in productie draaien.
AI Security bevat als kerncomponent AI Discovery, dat nu algemeen beschikbaar is. Deze module inventariseert in real time het AI-aanvalsoppervlak — denk aan LLM-oproepen, MCP-servers, AI-agents en externe diensten zoals OpenAI en Anthropic. Daarnaast zijn AI Testing en AI Firewall nu in bèta: AI Testing zoekt actief naar AI-specifieke kwetsbaarheden (zoals prompt injection, jailbreaks en mogelijke datalekken) die klassieke DAST-tools vaak missen; de AI Firewall filtert en blokkeert onveilige input/output van LLMs in real time en past zich automatisch aan nieuwe aanvalspatronen aan, in tegenstelling tot statische WAF-regels. Eerder dit jaar voegde Harness al een Artifact Registry toe met geïntegreerde AI-securitycontroles om problemen vroeg in CI/CD te onderscheppen.
Secure AI Coding richt zich op risico’s van door AI gegenereerde code: deze wordt vaak in grote, minder gereviewde commits gepusht. De module werkt direct in de IDE met tools als Cursor, Windsurf en Claude Code, toont inline waarschuwingen bij generatie en kan code terugsturen naar de AI-agent voor correctie. Technisch maakt het gebruik van Harness’ Code Property Graph om datastromen door de hele applicatie te volgen. AI Discovery is beschikbaar, de andere AI-securityfuncties zijn in bèta, en Secure AI Coding is onderdeel van Harness SAST.