Nederlandse Rekenkamer: ‘Burger moet beter inzicht krijgen hoe de overheid algoritmes inzet’

Isopix

De Nederlandse overheid heeft nog te weinig aandacht voor de ethische risico’s van het gebruik van algoritmes, blijkt uit onderzoek van de Algemene Rekenkamer, die de Rijksoverheid controleert. Er zou weliswaar veel oog zijn voor de bescherming van persoonlijke gegevens, maar er wordt nog te weinig opgelet dat algoritmes bijvoorbeeld niet discrimineren. Een algoritme is een reeks van regels en instructies die een computer geautomatiseerd volgt om tot een oplossing of een besluit te komen.

De Rekenkamer vindt dat burgers meer inzicht moeten krijgen in het gebruik van hun gegevens, en hoe algoritmes door de overheid worden ingezet. Er zou een centrale plek moeten komen waar mensen hun informatie kunnen opvragen en bezwaar kunnen maken tegen uitkomsten.

Het onderzoeksbureau doet die aanbeveling na een groot onderzoek naar het gebruik van verschillende categorieën van algoritmes en de risico’s daarvan. Algoritmes worden volgens de Rekenkamer nog niet voldoende op kwaliteit gecontroleerd, terwijl ze de komende jaren meer zullen worden ingezet en complexer zullen worden. Daarom ontwikkelde de Rekenkamer een manier om de gebruikte algoritmes te toetsen.

Afspraken maken

De controledienst adviseert het Nederlandse kabinet om afspraken te maken over het gebruik van algoritmes, en om te zorgen dat er regelmatig wordt gemonitord. Bij veel ministeries weten werknemers niet welke algoritmes worden gebruikt, schrijft het bureau. Voor de kwaliteitseisen zou bij ieder ministerie de Chief Information Officer, de directeur informatietechnologie, verantwoordelijk moeten zijn.

In de Nederlandse Tweede Kamer bestaan al enige tijd zorgen over discriminerende factoren in algoritmes die door de overheid worden gebruikt. GroenLinks-leider Jesse Klaver wil bijvoorbeeld dat gegevens over nationaliteit, etniciteit en geboorteplaats niet meer worden gebruikt om risico’s vast te stellen. De zorgen zijn toegenomen sinds de kinderopvangtoeslagenaffaire, naar aanleiding van het systeem SyRI. Dat systeem werd door de overheid gebruikt voor fraudeopsporing, wat mede leidde tot de affaire. Daarover oordeelde de rechter in 2020 dat het een te grote inbreuk vormde op de privacy van burgers.

Geen zelflerende algoritmes

De Rekenkamer stelt vast dat de overheid vooral eenvoudige algoritmes gebruikt die ambtenaren ondersteunen, en geen zelflerende. Dat betekent dat er altijd een mens is betrokken bij het leren van de algoritmes. Automatische besluiten worden alleen genomen over relatief onbelangrijke zaken, zoals het versturen van brieven. Bij ondersteunende algoritmes bestaat wel het risico dat ze adviezen genereren die een betrokken ambtenaar in diens beslissing beïnvloeden, schrijft het bureau.

Verantwoordelijk staatssecretaris Raymond Knops schrijft in een reactie dat naar aanleiding van het rapport verder gewerkt zal worden “aan verbeterde dienstverlening en beleidsuitvoering vanuit de rijksoverheid.”