078-2034021 [email protected]

In de toeslagenaffaire werden naar schatting 26.000 ouders in Nederland slachtoffer van onterechte fraudeverdenkingen met de kinderopvangtoeslag en/of slachtoffer van een harde fraudeaanpak door de Belastingdienst. Wat was de rol van Artificial Intelligence (AI) hierbij?

Geautomatiseerd risicoselectiesysteem

De Belastingdienst werkte in het geval van de toeslagenaffaire met een geautomatiseerd risicoselectiesysteem op basis van Artificial Intelligence (AI), dat bepaalde welke toeslagaanvragen extra gecontroleerd moesten worden. Hierbij was ‘dubbele nationaliteit’ bijvoorbeeld een van de selectiecriteria. Het resultaat was dat toeslagaanvragers met een tweede nationaliteit meer kans liepen om eruit gepikt te worden door het AI-algoritme.

Een gevaar van AI: data met bias

Overheidsinstanties verzamelen steeds meer gegevens van burgers, die ook steeds vaker worden geanalyseerd met behulp van Artificial Intelligence. Het gebruik van AI kent echter risico’s, zoals bias. Wanneer de data (waarmee het AI-systeem getraind wordt) biased is, bestaat de kans op discriminatie. Denk maar aan data die vooroordelen over geslacht of afkomst in zich draagt. Wanneer het AI-systeem met die data getraind wordt, dan zal het systeem die vooroordelen meewegen in zijn beslissingen.

Lees meer: Deze overwegingen tellen mee bij ethische Artificial Intelligence (AI)

Hoe werkt een AI-algoritme?

We leggen graag wat uitgebreider uit hoe dat werkt. AI omvat een breed scala van technologieën waarmee computers problemen kunnen oplossen op een manier die (op zijn minst oppervlakkig) lijkt op het menselijke denken. Maar waar komt deze intelligentie vandaan? Machine learning is zo’n technologie. Wanneer we AI-systemen de mogelijkheid te geven hun eigen kennis te vergaren door patronen uit data te halen, spreken we over machine learning.

Het machine learning-algoritme wordt getraind om de juiste antwoorden te geven. Dit gebeurt door het systeem te voeden met data, waarvan ook de gewenste output bekend. We noemen dit ook wel gelabelde voorbeelden. Denk aan historische gegevens over fraude. Het algoritme leert door zijn antwoorden steeds te vergelijken met de juiste output, waarbij het systeem zichzelf waar nodig aan kan passen.

Het doel van machine learning is dat het systeem zichzelf de regels leert die de gegeven input vertalen naar deze gewenste output. Het systeem leert dus verbanden te zien tussen de input en de output. Als het machine learning-proces goed wordt doorlopen, maakt het systeem steeds minder fouten en kan deze uiteindelijk op basis van nieuwe input de juiste output produceren.

De kanttekening bij dit type training is dat wanneer de data bias (of: vooroordelen) bevat het systeem die bias overneemt in zijn voorspellingen of andere conclusies.

Tekst gaat verder onder de afbeelding.

AI artificial intelligence machine learning

Een voorbeeld van AI bij de overheid

Laten we eens naar een tweede voorbeeld kijken van bias in AI-algoritmes van de overheid. Uit onderzoek van Amnesty International blijkt dat de politie in Roermond massasurveillance uitvoert. Dit zogenoemde Sensing-project is onderdeel van een politieproject om zakkenrollers aan te pakken in een winkelcentrum in Roermond. Iedere autobeweging wordt vastgelegd en bewaard. Op de data worden vervolgens AI-algoritmes losgelaten, die conclusies trekken uit gegevens.

Amnesty International (via NRC) noemt het project vanwege de gekozen cijfers en het gebruik van algoritme discriminerend. De politie stelt echter dat het systeem is gebaseerd op ‘objectieve’ criminaliteitscijfers. Ook hier is het probleem dat algoritmes wel objectief lijken, maar dat deze afhankelijk zijn van de gegevens die mensen erin stoppen. Aangezien de data kan berusten op vooroordelen kunnen de conclusies tot discriminatie leiden.

Bij het project in Roermond zien we dus ook een rol voor het gebruik van risicoprofielen, net als bij de toeslagenaffaire van de Belastingdienst gebeurde. In dit geval lijkt het algoritme bias te kennen ten opzichte van Oost-Europese kentekens. Het is hierbij goed om te onthouden dat bias in sommige gevallen ook nog eens versterkt kan worden door het algoritme. Bijvoorbeeld wanneer ‘false positives’ (mensen waarbij het AI-algoritme alarm sloeg, maar die achteraf onschuldig bleken) ook in de politiedatabase worden gezet. De profielen van deze mensen vormen nieuwe data, waarmee het algoritme verder getraind wordt. Op die manier gaan die profielen steeds zwaarder wegen in het bepalen of iemand een potentiële crimineel is.

Lees meer: Het ethische belang van uitlegbare Artificial Intelligence

Weet hoe je AI-systemen werken

Het is dus enorm belangrijk om onbevooroordeelde AI-systemen te bouwen. Net zo belangrijk is echter inzicht in de manier waarop je AI-systeem tot zijn conclusies en voorspellingen komt. Het probleem is echter dat dit vaak enorm troebel is. We spreken daarbij ook wel over een black box. Het is echter cruciaal om te kunnen uitleggen hoe je AI-model werkt. Welke variabelen er zijn meegenomen in de beslissing? Op die manier kunnen we hopelijk voorkomen dat we vooroordelen automatiseren.

Helaas blijft de groei in capaciteit bij de toezichthoudende instanties, zoals de Autoriteit Persoonsgegevens, achter. Dat betekent dat burgers het risico lopen onvoldoende beschermd te zijn tegen de risico’s van het gebruik AI-algoritmen door de overheid. Er wordt gelukkig steeds vaker opgeroepen om eerst te zorgen voor onder meer transparantie in de werking van de gebruikte algoritmes, bijvoorbeeld door een algoritmetoezichthouder. Pas nadat we dit soort bescherming hebben ingebouwd, kunnen we het gebruik van AI door de overheid verder uitbouwen.

Wil je meer weten over de slimme oplossingen van 3Bplus? We hebben ons in de afgelopen jaren gespecialiseerd in de toepassing van smart-technologie. 3Bplus is actief in het aanbieden van integrale slimme oplossingen voor smart cities, smart homes en smart citizens. Wij laten u graag de mogelijkheden en de voordelen zien. Neem gerust contact met ons op.

Meer lezen over dit onderwerp?

Misschien vind je deze artikelen ook interessant:

Hoe zorgen we voor verantwoordelijke Artificial Intelligence (AI)?
Veiligheidsdiensten VS: AI-gezichtsherkenning bij Capitool-bestormers
Dit is hoe slimme oplossingen werken: sensoren, IoT en AI
Vier methoden van machine learning

Mis nooit meer een artikel: volg ons op LinkedIn.

Share This