Uit een artikel in KIJK Magazine is te lezen dat het onderzoekers gelukt is om algoritmes te ontwikkelen die Artificial Intelligence-systemen trainen om bias (zoals gendervooroordelen) te voorkomen. De techniek zet hiervoor de bias om in concrete wiskundige criteria, waardoor de machine getraind kan worden om dit gedrag te voorkomen. Dat is bijvoorbeeld belangrijk bij automatische beslissystemen, die onder meer in worden gezet bij sollicitatiegesprekken. Daarbij wil je natuurlijk vooroordelen buiten de deur houden.
Dat het belangrijk is om ook aandacht te hebben voor de betrouwbaarheid van AI-systemen blijkt ook uit een column van Jasper van Kuijk. Hierin lezen we hoe een man en een vrouw een nieuwe credit card aanvragen. Zij heeft een hogere kredietscore dan hij, ze zijn getrouwd in gemeenschap van goederen en doen gezamenlijk belastingaangifte. Toch krijgt zij een twintig keer lagere kaartlimiet dan hij… Het bedrijf achter de credit card kon niet uitleggen hoe dit kon gebeuren.
Omdat we AI-systemen nooit volledig kunnen programmeren, maken we gebruik van machine learing. Daarmee creëren we zelflerende systemen, die worden getraind met voorbeelden, zodat ze steeds beter presteren. Het probleem daarmee is echter dat het uiteindelijk vaak enorm troebel is hoe het systeem tot zijn beslissingen komt. Er wordt daarbij ook wel gesproken over de black box.
We geven nog een voorbeeld van de bias en de black box van AI-systemen. In de Volkskrant lazen we dat er in China honderdduizenden onschuldige mensen in heropvoedingskampen belanden omdat een AI-systeem hen classificeert als verdacht. Het AI-systeem weet alles van deze mensen: welke websites ze bezoeken, met wie ze spreken en welke pakketjes ze ontvangen. Ook worden mensen op straat gevolgd door intelligente camera’s, die hun gezicht herkennen en bewegingen volgen.
Het systeem wordt op dit moment (nog vooral) gebruikt op de inwoners van de provincie Xinjiang, thuisland van de Oeigoeren, een islamitische minderheid in China. Zij protesteren al jaren tegen de regering, die terugslaat door alle Oeigoeren te neutraliseren van wie niet volledig kan worden uitgesloten dat ze een potentieel gevaar vormen. Om dat te bepalen, wordt dus (onder andere) dat AI-systeem gebruikt. De gebruikte algoritmen zijn (uiteraard) niet bekend. Er zijn bijvoorbeeld mensen opgepakt die een baard lieten staan of vaak de achterdeur van hun huis gebruikten.
Onderzoekster Bethanny Allen-Ebrahimian vertelt dat er in documenten over het systeem geen enkele discussie te vinden is over het bewijzen van de schuldvraag én de betrouwbaarheid van het algoritme. China promoot en verkoopt hun systeem al in het buitenland. In landen als Pakistan, Kenia, Oezbekistan en Kirgizië wordt het zelfs al gebruikt. Op den duur kan de technologie ons allemaal raken.
Tekst gaat verder onder de afbeelding.
In een interview met De Morgen pleit moraalfilosoof Katleen Gabriels voor ethische spelregels voor AI-systemen. Niet alleen voor zo’n systeem als in China gebruikt wordt; volgens haar is (zelfs onschuldige) technologie namelijk nooit neutraal. Ze toont dit aan met een voorbeeld. Siri wees je vlak na de lancering bijvoorbeeld moeiteloos naar een prostituee, maar niet naar een abortuskliniek, want die kende ze niet. Met andere woorden: in het ontwerp van technologie worden hoe dan ook (onbedoeld) meningen en voorkeuren meegenomen. Een bijkomend probleem is dat de gevolgen van deze (morele) keuzes niet altijd te overzien zijn. Je kunt namelijk bijvoorbeeld nooit al het gebruik voorspellen.
Eigenlijk moeten we dus een aantal ethische regels inbouwen in AI-systemen, zoals bijvoorbeeld dat het systeem nooit een mens mag verwonden. Gabriels denkt echter dat zo’n ethische code nooit volledig geautomatiseerd kan worden. Om die uitspraak te illustreren, gebruikt ze regels die we voor een zelfrijdende auto zouden kunnen gebruiken. Stel je voor dat je moet uitwijken, waarbij er links van je een kind speelt en rechts een bejaarde loopt. Naar welke richting wijk je uit? Veel Europeanen zouden voor de bejaarde kiezen, terwijl in Japan – wegens eerbied voor de oudere – eerder voor het kind gekozen wordt.
Er bestaat dus geen ‘morele blauwdruk’; moraliteit is bijvoorbeeld altijd afhankelijk van de context. Onderzoeker Bart Wernaart onderstreept het verhaal van Gabriels in een interview met het ED. Hij stelt dat we mensenrechten best kunnen programmeren. Deugdethiek – ieders eigen beleving van wat ‘goed’ is en wat ‘slecht’ is – is echter een ander verhaal.
Maar wat is dan de oplossing? Hoe zorgen we voor ethische AI-systemen? De in de eerste alinea genoemde algoritmes, waarmee we AI-systemen kunnen trainen om bias (zoals gendervooroordelen) te voorkomen, vormen natuurlijk een uitstekende stap in de juiste richting. Daarnaast is het echter ook belangrijk om burgers inzicht te geven in de beslissingen van AI-systemen. Er wordt in dat kader ook wel gesproken over uitlegbare kunstmatige intelligentie. Daarbij moet natuurlijk niet alleen de uitslag worden gecommuniceerd, maar ook welke variabelen er zijn meegenomen in de beslissing. Op die manier kunnen we hopelijk voorkomen dat we bestaande of nieuwe vooroordelen automatiseren.
Gelukkig lijkt Google een stap in de goede richting te zetten met hun Explainable AI. De tool geeft iedere factor in de data een score om aan te geven hoeveel invloed deze had bij de beslissing van het AI-systeem. Je kunt die score opvragen en daarmee dus ontdekken waarom een AI-algoritme tot een bepaalde beslissing is gekomen. Helaas is de tool op dit moment alleen nog (goed) te gebruiken door experts. Hopelijk brengt Google daar in de toekomst verandering in!
Meer lezen over dit onderwerp?
Misschien vind je deze artikelen ook interessant:
FAQ over Artificial Intelligence (AI)
Hybride intelligentie: wanneer mens en AI samenwerken
Artificial Intelligence (AI) en de ethische grondslag