Gebruikers gaan data afstaan voor AI-training met GitHub Copilot

donderdag, 26 maart 2026 (11:26) - Techzine

In dit artikel:

GitHub (onderdeel van Microsoft) past vanaf 24 april de manier aan waarop het gebruikersdata inzet voor Copilot: interacties van Copilot Free, Pro en Pro+ worden standaard gebruikt om AI-modellen te trainen en verbeteren, tenzij gebruikers zich expliciet afmelden. Copilot Business en Enterprise blijven buiten deze wijziging.

Het gaat vrijwel om alle interacties met Copilot: invoer en uitvoer, codefragmenten, cursorcontext, feedback op suggesties, bestandsstructuren en gebruik van chat- en inlinefuncties. GitHub maakt daarbij een onderscheid tussen data “in rust” en actieve interacties: inhoud uit private repositories wordt niet automatisch gebruikt, maar zodra Copilot actief wordt ingezet binnen een private repo kunnen die interacties wél in de trainingsset terechtkomen — tenzij de gebruiker zich heeft afgemeld.

Gebruikers die niet willen meewerken kunnen de instelling uitzetten in de privacy-instellingen; eerder gemaakte keuzes om geen data te delen worden gerespecteerd. Omdat de wijziging in de praktijk een opt-outregeling is, ligt de verantwoordelijkheid nu bij gebruikers om actief hun privacy te beheren, wat vragen kan oproepen over transparantie en geïnformeerde toestemming.

Microsoft zegt dat eerdere interne experimenten met medewerkerdata leidden tot betere acceptatie en prestaties van suggesties, en verwacht dat uitbreiding naar meer gebruikers vergelijkbare voordelen oplevert. De verzamelde gegevens kunnen binnen de Microsoft-groep worden gedeeld, maar niet met externe AI-modelproviders — een poging om zorgen over derdendeling te beperken.

Deze stap volgt een bredere trend in de AI-sector waarbij echte gebruikersdata een steeds grotere rol spelen bij het verbeteren van modellen. Voor ontwikkelaars betekent dit dat ze concreet moeten controleren welke gegevens GitHub mag gebruiken als ze hun code en workflow vertrouwelijk willen houden.