Op 12 augustus 2025 veranderde de Nederlandse overheid haar houding ten opzichte van Microsoft 365 Copilot — van een volledig verbod naar een voorzichtige toestemming. De Strategisch Leveranciersmanagement Rijk (SLM), verantwoordelijk voor de inkoop van clouddiensten voor de Rijksoverheid, en de SURF, de ICT-coöperatie voor onderwijs en onderzoek, publiceerden bijgewerkte analyses die aantonen: het risiconiveau van de AI-assistent is gedaald. Maar er blijft een belangrijke voorwaarde: geen gebruik zonder een goed AI-beleid. De overheid zet nu op oranje — niet op groen, niet op rood. En dat maakt het een historische keuze.
Van vier hoge risico’s naar twee middelgrote
Toen de eerste Data Protection Impact Assessment (DPIA) in december 2023 werd gepubliceerd, was het antwoord duidelijk: Microsoft Copilot was te gevaarlijk voor overheidsgebruik. Vier hoge risico’s, vooral rond ondoorzichtige gegevensverwerking, leidden tot het advies: ‘Gebruik niet’. Dat was de stand van zaken toen demissionair staatssecretaris Alexandra van Marum voor Digitalisering in een brief aan de vaste commissie Digitale Zaken waarschuwde dat de tool een bedreiging vormde voor de privacy van burgers. Nu, bijna een jaar later, is alles anders. De geactualiseerde DPIA, uitgebracht door de Nederlandse Informatiebeveiligingsdienst (IBD) op 12 augustus 2025, toont aan dat vier van de oorspronkelijke hoge risico’s zijn verdwenen. Ze zijn vervangen door twee middelgrote en acht lage risico’s. De overgebleven problemen? Eén: onnauwkeurigheden in persoonsgegevens — de AI kan bijvoorbeeld foutieve namen, adressen of dienstverleningsgegevens genereren. Twee: de duur van het bewaren van diagnostische data — Microsoft slaat informatie op over hoe vaak en hoe mensen Copilot gebruiken, en die data blijft langer opgeslagen dan sommigen graag zien.Microsoft heeft aangepast — maar is dat genoeg?
Microsoft beweert dat het essentiële verbeteringen heeft doorgevoerd. En de cijfers lijken te kloppen: meer dan 180 categorieën Required Service Data zijn nu gedocumenteerd, met precieze uitleg over wat er wordt verwerkt en waar. Er is een EU Data Boundary ingebouwd, wat betekent dat gegevens van Europese overheidsgebruikers niet meer naar de VS worden gestuurd. Daarnaast zijn tools als Data Loss Prevention (DLP), Microsoft Information Protection (MIP) en Microsoft Purview nu standaard actief. Dat zijn geen kleinigheden. Ze maken het technisch mogelijk om gevoelige informatie te blokkeren, te classificeren en te beheren. Maar hier komt de knoop. SLM Rijk waarschuwt: “De middelgrote risico’s kunnen weer hoge risico’s worden als Microsoft niet blijft meewerken.” En dat is precies waar SURF ongemakkelijk van wordt. De ICT-coöperatie, met hoofdkantoor in Utrecht, benadrukt dat de verbeteringen ‘niet overtuigend’ zijn. Zij zien geen volledige transparantie. Geen garantie dat de data in de toekomst niet toch wordt gebruikt voor training van AI-modellen. En dat is voor onderwijsinstellingen, die met gevoelige studentengegevens werken, geen klein punt.SLM ziet ruimte — SURF trekt de rem
Het verschil tussen SLM en SURF is subtiel, maar fundamenteel. SLM ziet een pad naar gebruik. Ze zeggen: “Als je een goed AI-beleid hebt, kun je het inzetten.” Dat beleid moet duidelijk zijn: welke use cases zijn toegestaan? Wie controleert de output? Hoe wordt met gevoelige gegevens omgegaan? Zonder dat — geen Copilot. SURF daarentegen zegt: “We raden niet af, maar we raden ook niet aan.” De coöperatie adviseert onderwijs- en onderzoeksinstellingen om ‘terughoudend’ om te gaan met de tool. Grootschalige implementatie? Nee. Testprojecten met beperkte scope? Misschien. Maar zelfs dan: met ogen open. SURF kondigt aan: over zes maanden wordt opnieuw geëvalueerd. Dan kijken ze of Microsoft zijn beloften daadwerkelijk heeft nagekomen. Dat is geen formele controle — het is een open brief aan Microsoft: “Laat zien dat je het serieus meent.”
Waarom dit voor Nederland belangrijk is
Deze stap is geen kleine gebeurtenis. Nederland is een van de eerste landen in Europa dat een duidelijke, gecodeerde aanpak ontwikkelt voor overheidsgebruik van AI-assistenten. Terwijl Duitsland nog steeds volledig verbiedt en Frankrijk slechts beperkt test, zet Nederland op oranje. Dat betekent: geen paniek, geen ongeduld. Maar ook geen onzekerheid. Het is een model van verantwoord innovatie: technologie niet verbieden, maar beheersen. Het is een balans tussen efficiëntie en bescherming. En het is een boodschap aan Microsoft: als je wilt werken met overheidsorganisaties, dan moet je de regels van de EU respecteren — niet alleen technisch, maar ook ethisch.Wat komt er nu?
Rijksoverheidsorganisaties moeten binnen de komende maanden een AI-beleid opstellen. Dat betekent: werkgroepen, consultaties, juridische reviews. Het is geen kwestie van een knop omzetten. Het is een proces. En SURF zegt: onderwijsinstellingen kunnen nu beginnen met kleine pilootprojecten — bijvoorbeeld voor het samenvatten van onderzoeksverslagen, maar niet voor het verwerken van studentenrapporten. De volgende versie van de DPIA, verwacht voor eind 2025, zal waarschijnlijk de conclusie van SURF’s herbeoordeling bevatten. Als Microsoft dan nog steeds onduidelijk is over de bewaring van diagnostische data, dan kan de status weer terug naar rood. Dat is geen dreiging — het is een mechanisme. Een levensvatbaar, dynamisch systeem.
De boodschap aan overheidsmedewerkers
Als je als ambtenaar nu overweegt Copilot te gebruiken: doe het niet zonder goedkeuring van je functionaris gegevensbescherming. Gebruik het niet voor persoonsgegevens van burgers, tenzij het expliciet is toegestaan. Controleer altijd de output. En denk erbij: een AI die een adres fout schrijft, kan een burger een brief met een boete sturen. Dat is geen technisch probleem. Dat is een maatschappelijk risico.Frequently Asked Questions
Mag ik Microsoft Copilot nu gebruiken als ambtenaar?
Niet zomaar. Rijksoverheidsorganisaties moeten eerst een volledig AI-gebruiksbeleid hebben, met duidelijke regels over welke gegevens je mag invoeren en welke use cases zijn toegestaan. Zonder dat beleid is gebruik niet toegestaan. SURF raadt onderwijsinstellingen aan om eerst kleine pilootprojecten te starten, bijvoorbeeld voor tekstsamenvattingen, maar niet voor gevoelige studentengegevens.
Wat zijn de twee belangrijkste risico’s die nog bestaan?
De eerste is onnauwkeurigheden in persoonsgegevens: Copilot kan bijvoorbeeld namen, adressen of dienstverleningsgegevens verkeerd genereren, wat leidt tot foute communicatie met burgers. De tweede is de duur van bewaring van diagnostische data — Microsoft slaat informatie op over hoe vaak en hoe de tool wordt gebruikt, en deze data blijft langer opgeslagen dan sommige privacy-experts vinden acceptabel.
Waarom is SURF voorzichtiger dan SLM Rijk?
SLM Rijk focust op technische verbeteringen en ziet ruimte voor gebruik als de randvoorwaarden worden nageleefd. SURF, als organisatie die werkt met gevoelige onderwijs- en onderzoeksdata, is sceptischer. Zij zien geen volledige transparantie over hoe Microsoft de data gebruikt, en vrezen dat verbeteringen in de toekomst weer kunnen worden teruggedraaid. Zij willen bewijs, niet beloften.
Wat gebeurt er als Microsoft zijn beloften niet nakomt?
SURF gaat over zes maanden opnieuw evalueren of Microsoft zijn toezeggingen heeft nagekomen. Als dat niet het geval is, kan de status van Copilot terug naar rood. SLM Rijk waarschuwt dat de twee middelgrote risico’s weer kunnen uitgroeien tot hoge risico’s als er geen continue verbeteringen plaatsvinden. Dat betekent: geen automatische goedkeuring — alles blijft onder toezicht.
Hoe zit het met de EU Data Boundary?
De EU Data Boundary zorgt ervoor dat gegevens van Europese gebruikers niet naar de VS worden verstuurd voor verwerking. Dat is een belangrijke stap, maar niet voldoende. De vraag blijft: wat gebeurt er binnen de EU? En hoe worden de data binnen Microsoft’s eigen systemen gebruikt? Dat blijft onduidelijk — en dat is precies waar SURF zijn zorgen over heeft.
Is dit een voorbeeld voor andere Europese landen?
Absoluut. Nederland toont hoe je een balans kunt vinden tussen innovatie en bescherming. In plaats van te verbieden of te overhaasten, kiest het voor een geleidelijke, gecontroleerde aanpak. Andere landen, zoals Duitsland en Italië, volgen deze ontwikkeling aandachtig. De Nederlandse methode — met een actieve rol voor de privacyfunctionaris en een terugkoppelingsmechanisme — wordt nu als een referentiepunt beschouwd.
Schrijf een reactie