Cisco maakt Foundry Security Spec open-source voor "CISO-ready" agents
In dit artikel:
Cisco heeft een open-source specificatie gepubliceerd — Foundry Security Spec — om het gebruik van grote taalmodellen (LLM’s) voor securityonderzoek te standaardiseren en betrouwbaarder te maken. In plaats van concrete tools of bedrijfs-specifieke code levert Cisco een raamwerk dat beschrijft welke rollen, processen en waarborgen nodig zijn om LLM’s op een verifieerbare manier kwetsbaarheden en misconfiguraties te vinden en te beheren. De specificatie staat op GitHub en is bedoeld als startpunt voor organisaties die vergelijkbare evaluaties willen opzetten.
De keuze voor een spec (geen kant-en-klare code) komt doordat Cisco’s interne tooling sterk verweven is met hun eigen cloud, issue tracker, LLM-gateway en taxonomie. Die interne implementatie zou weinig nut hebben voor anderen, stelt het bedrijf. In plaats daarvan beschrijft Foundry een orkestratielaag en een agent-gebaseerde workflow: detectie-agents analyseren systematisch code, triage- en validatie-agents filteren valse positieven en hallucinaties weg, een coverage-tracker bewaakt de dekking van de beoordeling en een reporter genereert controleerbare (auditable) output. Daarmee moeten de resultaten voor CISO’s, auditors en het management verdedigbaar worden.
Foundry bestaat uit twee hoofddocumenten: de ‘spec’ met onder meer acht kernrollen (Orchestrator, Indexer, Cartographer, Detector, Triager, Validator, Coverage-Guide en Reporter), vijf uitbreidingsrollen, een levenscyclus voor bevindingen en zo’n 130 functionele eisen met toelichting; en de ‘constitution’: elf principes die concrete productiefouten adresseren die Cisco eerder tegenkwam. De constitution is zowel leesbaar voor AI-agents (bijv. Claude Code of Codex) als voor ontwikkelaars, zodat teams de gevolgen van het verzwakken van regels kunnen inschatten.
Cisco benadrukt dat de garanties in de architectuur ingebouwd zijn — niet verstopt in prompts — wat betrouwbaarder moet zijn dan geïmproviseerde setups. De specificatie levert volgens Cisco vier kernresultaten: een afgebakende en verifieerbare set bevindingen, een helder ‘klaar’-signaal, een auditable herkomstlijn van detectie tot publicatie en ingebouwde vangrails voor modelfouten.
Foundry werkt het best samen met Project CodeGuard (dat Cisco eerder open-source maakte en aan CoSAI schonk): CodeGuard voegt beveiligingsregels toe aan AI-coderingsworkflows; samen creëren ze een feedbackloop waarin nieuwe, geverifieerde bevindingen leiden tot nieuwe regels die toekomstige scans en developers beschermen. Cisco ziet Foundry als aanzet — organisaties moeten de implementatie zelf invullen — en verwacht dat de rollen en controles relevant blijven naarmate LLM‑modellen verder evolueren.