078-2034021 algemeen@3bplus.nl

Nu het einde van het jaar in zicht is, wordt veelal de balans opgemaakt. Wij kunnen natuurlijk niet achterblijven. Zodoende kijken we in dit artikel kijken naar een aantal positieve en negatieve ontwikkelingen rondom Artificial Intelligence (AI) in 2019.

Concrete AI-toepassingen zijn een feit

Emerce schrijft dat 2019 het jaar was waarin AI voor het eerst niet langer enkel die eeuwige belofte was. Met andere woorden: AI-systemen vinden eindelijk heel concrete toepassingen. Als voorbeeld noemt men een AI-systeem dat hotelreserveringen kan aannemen zonder dat een mens zich ermee bemoeit. Extra fijn voor het hotel in kwestie was dat het systeem een geweldige upseller bleek. Zodoende werden niet alleen kosten bespaard, maar ging de omzet ook nog omhoog.  Het is slechts een voorbeeld van allerlei AI-toepassingen waarmee bedrijven proberen om consumenten te doorgronden en trends te voorspellen. Denk hierbij ook aan aanbevelingen in webshops, de inkoop van voorraden en de productpresentaties in de etalage.

Drie kwetsbaarheden van AI

Helaas werkt nog niet elk AI-systeem in 2019 zoals het zou moeten. We lezen in een artikel van eos wetenschap over een zelfrijdende auto die een naderende ambulance niet herkende. Het AI-systeem in de auto zag de ambulance aan voor een gewone, witte bus, zoals een bestelwagen. Gelukkig ging het hier om een simulatie en konden de ingenieurs nog ingrijpen voor het algoritme echt op de markt kwam…

Uit dit voorbeeld komen drie duidelijke kwetsbaarheden naar voren waar AI op dit moment nog mee te kampen heeft: sensoren, training en bias. Om te beginnen is het vaak nog lastig om de input van de verschillende sensoren samen te voegen en het totaal vervolgens te interpreteren. In het voorbeeld hierboven gaat het dan bijvoorbeeld om het samenvoegen van beeld (zwaailichten) en geluid (sirene) tot een ambulance. Wat betreft training stelt AI-expert Mieke De Ketelaere dat de huidige AI-systemen blijven steken op het niveau van een peuter of kleuter, alhoewel het systeem zich qua inlevingsvermogen zelfs niet kan meten met een tweejarige. We zijn volgens De Ketelaere nog niet zo ver dat we AI verder kunnen laten ‘opgroeien’. Daarnaast schort het op het gebied van bias aan het lesmateriaal, oftewel de data. Om dit punt te illustreren haalt eos wetenschap een AI-systeem dat sollicitanten screent aan. Als de gegevens waarmee het algoritme getraind wordt niet vrij zijn van bias (zoals racisme en discriminatie) leidt dat automatisch tot bias in de beslissingen van het systeem.

Tekst gaat verder onder de afbeelding.

De menselijke bias van AI-systemen

Ook in een onderzoek van AI Now (via Technisch Weekblad) is aandacht voor die bias. AI Now vindt de mate waarin AI de machtsverschillen tussen groepen in de samenleving vergroot bijvoorbeeld zorgwekkend. Dat zie je bijvoorbeeld op terug op de werkvloer, waar AI de loonkloof tussen hoger- en lageropgeleiden vergroot. Ook bepaalt AI of iemand ontslagen wordt, puur op afwezigheid, zonder daarbij te kijken naar arbeidshistorie of persoonlijke omstandigheden.

In 2019 was er ook veel aandacht voor emotiedetectie door AI-systemen. Steeds meer oplossingen ‘claimen’ verschillende emoties vast te kunnen stellen, bijvoorbeeld bij bellers naar een klantenservice. In een column in NRC lezen we meer over deze emotiedetectie. De schrijver geeft aan dat het herkennen van emoties toch echt niet te vergelijken is met het opdelen van emoji’s in duidelijk afgebakende categorieën. Dat blijkt ook uit een recente metastudie naar emotieonderzoek. De conclusie daarvan was dat er geen objectieve, betrouwbare en repliceerbare manier is om op basis van foto’s of korte video’s ‘echte’ gevoelens te herkennen. Hoe zit dat? Om te beginnen wordt er in emotieonderzoek weinig rekening gehouden met culturele verschillen. De nadruk in deze onderzoeken ligt namelijk op westerse data. Wat wij (en onze algoritmes) als ‘angstig’ interpreteren, wordt in Papoea-Nieuw-Guinea als ‘bedreigend’ ervaren. Daarnaast ontbreekt ook de context. Mensen kunnen liegen en overdrijven, ook met hun gezichtspieren.

De roep om ethische en uitlegbare AI

Bovenstaande voorbeelden sluiten helaas perfect aan bij een artikel dat we eerder dit jaar publiceerden, waarin we stelden dat onze AI-systemen niet vrij zijn van onze eigen bias. Dus ondanks dat het geweldig is dat we dit jaar nog meer AI-toepassingen mochten verwelkomen, hopen we in 2020 ook meer te kunnen schrijven over ontwikkelingen in de richting van die ethische en uitlegbare AI.

Meer lezen over dit onderwerp?

Misschien vind je deze artikelen ook interessant:

Haal meer uit je IoT-toepassingen met Artificial Intelligence (AI)
De keten van slimme oplossingen: sensoren, IoT,  Big Data en AI
Wat zijn predictive en prescriptive analytics en wat is het verschil?

Share This