078-2034021 [email protected]

Er komt steeds meer aandacht voor de ethische kant van Artificial Intelligence (AI). In een artikel op Consultancy.nl worden een aantal belangrijke overwegingen besproken als het gaat om het bewerkstelligen van ethische AI.

De gevaren van Artificial Intelligence

We hebben regelmatig aandacht voor de kansen die AI biedt. Natuurlijk is het hartstikke leuk om te berichten over al die positieve toepassingen. Het is echter ook belangrijk om stil te staan bij de gevaren van AI, bijvoorbeeld op het gebied van bias in beslissingen. Er zijn de afgelopen jaren namelijk al meerdere keren situaties ontstaan, waarbij die risico’s pijnlijk duidelijk gemaakt zijn.

Bias in beslissingen

AI kan worden ingezet om beslissingen te nemen. Zo kunnen we bijvoorbeeld fraude en criminaliteit opsporen. Wanneer de data (waarmee het AI-systeem getraind wordt) echter biased is, bestaat echter de kans op discriminatie. Denk maar aan data die vooroordelen over geslacht of afkomst in zich draagt. Wanneer het AI-systeem met die data getraind wordt, dan zal het systeem die vooroordelen meewegen in zijn beslissingen.

Wanneer er verkeerde keuzes tijdens de ontwikkeling van een AI-systeem gemaakt worden, dan bestaat de kans dat het systeem zorgt voor oneerlijke interpretaties van de data en dus voor oneerlijke besluitvorming. Het is dus essentieel dat er al aan het begin van de ontwikkeling aandacht is voor ethiek.

Lees meer: Het ethische belang van uitlegbare Artificial Intelligence

Tekst gaat verder onder de afbeelding.

Ethiek vragen goed fout slecht keuzes

Zo zorgen we voor ethische AI

We zetten drie overwegingen in de ontwikkeling van ethische AI op een rijtje:

  • Om te beginnen moet worden bepaald met welke data het AI-systeem aan de slag gaat. Een systeem is immers nooit beter dan de data die erin wordt gestopt. Met andere woorden: wanneer data al bevooroordeeld is, zal het systeem dit vooroordeel alleen maar bevestigen.
  • De volgende stap in de ontwikkeling van ethische AI is de keuze voor een algoritme. Het probleem met technologie als machine learning is dat het niet altijd duidelijk is waar het AI-systeem zijn beslissingen op baseert. We noemen dat het black box-effect.
  • Ten slotte is het nog zaak om te bepalen wat er met de voorspellingen van het AI-systeem gebeurt. Zeker wanneer de consequenties erg groot zijn, is het zaak bij deze overweging stil te staan. Denk bijvoorbeeld aan voorspellingen die bepalen of de straf van een gevangene wordt verlengd.

Lees meer: Sensoren op de werkvloer: vragen over ethiek en privacy

Houd dit in je achterhoofd

Is er geen enkele manier deze data te herleiden naar een persoon? Kun je uitleggen op basis van welke beslissingen het algoritme een voorspelling maakt? Durf je de verantwoordelijkheid te nemen voor de voorspellingen die het model maakt? Worden er geen groepen benadeeld? Hoe groot is de impact op mensen die een verkeerde of oneerlijke voorspelling hebben gekregen?

Dit zijn allemaal vragen die men moet kunnen beantwoorden bij het ontwikkelen van een AI-systeem. Op die manier kunnen we ervoor zorgen dat we zo dicht mogelijk bij ethische AI in de buurt komen.

Meer lezen over dit onderwerp?

Misschien vind je deze artikelen ook interessant:

Een verbod op volledig autonome wapensystemen; killer robots?
Coronaproof met sensoren én oog voor onze privacy
Zo kan technologie de overheid ondersteunen
Dit waren de belangrijkste AI-ontwikkelingen van 2019

Share This