Google versterkt inzet van AI voor cyberverdediging
In dit artikel:
Google introduceert een pakket maatregelen om AI-systemen veiliger te maken en om AI zelf in te zetten als verdedigingsmiddel tegen cyberaanvallen. Op 6 oktober presenteerde het bedrijf, via DeepMind, de AI-agent CodeMender: een door Gemini aangedreven systeem dat automatisch beveiligingsproblemen in software detecteert, de oorzaak analyseert en herstelvoorstellen genereert. Voorgestelde patches worden eerst beoordeeld door automatische reviewers (een zogeheten LLM-judge) die behoud van functionaliteit en eventuele fouten controleren; pas daarna volgt een menselijke eindbeoordeling.
CodeMender heeft volgens Google al 72 patches ingediend bij open-sourceprojecten, waarmee meer dan 4,5 miljoen regels code zijn geraakt. In een demonstratie maakte de agent beveiligingsannotaties in de libwebp-bibliotheek om buffer-overflows te voorkomen — die bibliotheek stond eerder in verband met een zero-click-aanval op iOS in 2023. De aanpak combineert statische en dynamische analyse met technieken zoals fuzzing en symbolisch redeneren; de extra controlelaag stelt de agent in staat zelf gemaakte wijzigingen te corrigeren voordat mensen erbij komen.
Daarnaast heeft Google het AI Vulnerability Reward Program opgezet om meldregels en beloningen voor AI-gerelateerde kwetsbaarheden te centraliseren (tot nu toe zou meer dan $430.000 zijn uitgekeerd). Ook is het Secure AI Framework geüpdatet naar versie 2.0, met aandacht voor risico’s van autonome AI-agenten, een risicokaart en eisen voor menselijke controle, beperking en transparantie. Google werkt samen met publieke en private partners, waaronder DARPA en de Coalition for Secure AI, met als doel de balans in digitale veiligheid te verschuiven: AI gebruiken om verdedigingscapaciteiten structureel te versterken tegen kwaadwillig gebruik.