Software, getraind op historische data, wijst mensen aan die vermoedelijk onterecht een uitkering krijgen, waarna sociaal rechercheurs deze gevallen onderzoeken. De regionale sociale dienst Lekstroom in Utrecht, de gemeenschappelijke sociale dienst van Vlissingen, Middelburg en Veere (Orionis), en het Zuid-Hollandse Nissewaard gebruiken dit algoritme al. Een vierde gemeente, in het oosten van Nederland, begint binnenkort.

Jaarlijks zijn gemeenten miljoenen euro’s kwijt aan bijstandsfraude en de opsporing is complex. Het gaat om mensen die onterecht een uitkering ontvangen omdat ze bijvoorbeeld samenwonen, nog bij hun ouders wonen of neveninkomsten hebben. Van de honderd fraudeurs die het algoritme aanwijst, kan bij de helft fraude worden aangetoond. Het is niet uitgesloten dat bij de andere helft ook fraudeurs zitten.

Data-analyse vergroot de pakkans en de effectiviteit van de sociale recherche. Deze aanpak ligt wel gevoelig. Vanaf volgende maand geldt een Europese privacywet die verbiedt dat mensen automatisch beoordeeld of geprofileerd worden door een computer, als dat ingrijpende (rechts-)gevolgen voor hen heeft. Er moet een menselijke beoordelaar tussen zitten - in dit geval doet een sociaal rechercheur onderzoek. De uitkeringen worden dus niet meteen stopgezet als het algoritme dat aangeeft.

Het algoritme kijkt naar geboortedata (niet naar namen), gezinssamenstelling, uitkeringsverleden en gegevens van Belastingdienst, kadaster en RDW. In totaal gaat het om twee- tot driehonderd variabelen over een periode van 25 jaar; data waarin een mens niet zo snel verdachte patronen ziet maar de computer wel.

Data voor profilering moeten speciaal voor dit doel zijn verzameld of de personen moeten er expliciet toestemming voor gegeven hebben. Andere gegevens, zoals waterverbruik, energierekening, bankafschriften of trein- en busritten, worden dus niet gebruikt door het algoritme.

Met bekende fraudegevallen – mensen die al eerder betrapt zijn - wordt het algoritme getraind. Het risico bestaat dat vooroordelen uit het verleden zo blijven voortleven in de formule; bijvoorbeeld omdat rechercheurs vaker in een bepaalde wijk zochten naar uitkeringsfraude, of meer controles uitvoerden bij mensen met een bepaalde afkomst. Daarom gebruiken de data-onderzoekers nog een tweede algoritme, dat afwijkend gedrag registreert. Volgens Jesse Luk van Totta Data Lab, het bureau dat de algoritmes ontwerpt, helpt deze aanpak juist vooroordelen voorkomen. De top-10 van verdachten zou wel veel mensen met één bepaalde afkomst kunnen bevatten. „Dat komt dan omdat ze aan andere kenmerken voldoen”, aldus Luk.

Finetuning

Uitkeringsinstantie Orionis Walcheren, een bovengemeentelijke samenwerkingsverband tussen Middelburg, Veere en Vlissingen, gebruikt deze methode sinds enkele maanden. Albert van der Giessen, directeur kredietbank van Orionis: „Het algoritme geeft nog niet aan hoe er vermoedelijk gefraudeerd wordt. Daardoor weten we niet zo specifiek in welke hoek we het moeten zoeken en is onderzoek alsnog tijdrovend.”

Op basis van de ervaring van andere testgemeenten zal het algoritme na verloop van tijd slimmer worden in het geven van aanwijzingen. „Een kwestie van finetuning”, aldus Van der Giessen.

De Autoriteit Persoonsgegevens (AP) kan nog geen uitspraak doen of de aanpak van de gemeenten voldoet aan de regels. Wel stelt AP dat mensen van wie persoonsgegevens worden verwerkt, hierover van tevoren moeten worden geïnformeerd. Bij Orionis Walcheren is de cliëntenraad op de hoogte van het experiment, bij de andere gemeenten is niet bekend of de methode is aangekondigd.

Deze week brengt NRC een serie artikelen over algoritmes en hoe ze het dagelijks leven beïnvloeden.

Aanvulling: in eerdere versie van dit artikel stond dat één gemeente niet genoemd wilde worden. Dat berust op een misverstand, laat de betreffende gemeente (Nissewaard) weten.

Een versie van dit artikel verscheen ook in NRC Handelsblad van 9 april 2018