Van autorijden tot het uitzoeken van je toekomstige partner tot het identificeren van tumoren op een medische scan. Er zijn steeds meer dingen die algoritmes beter kunnen dan mensen. Maar wat zijn algoritmes eigenlijk? En wat zijn de gevaren?
In 1997 won computer Deep Blue van Garri Kasparov, de beste schaker ter wereld. In 2011 won computer Watson de tv-quiz Jeopardy! en in 2016 won AlphaGo het bordspel Go van de wereldkampioen. De mens legt het in rap tempo af tegen de computer.
Algoritmes rukken op veel meer plekken op dan alleen in spelletjes. Ze controleren je belastingaangifte, bepalen wat je online ziet en regelen betalingen. Iedereen heeft daardoor – gemerkt of ongemerkt – te maken met algoritmes. Vaak heeft dat voordelen, maar het kan ook misgaan. Algoritmes kunnen discrimineren en fouten maken die geen enkel ander mens zou maken. Moet we de computer wel de macht over onze wereld gunnen? In deze Q&A leer je wat algoritmes zijn, wat ze wel en niet kunnen, en hoe dat tot discriminatie kan leiden.
1. Wat is een algoritme?
Een algoritme is een set van regels die je uitvoert om een bepaald resultaat te krijgen. Daar valt dus heel veel onder: een recept voor appeltaart, regels die vertellen hoe je getallen vermenigvuldigt of een computerprogramma van een stoplicht dat ervoor zorgt dat er maar uit een richting tegelijk verkeer een kruispunt oprijdt.
Meestal bedoelen we met algoritmes toepassingen in de technologie, zoals in apps of computerprogramma’s. Zo worden algoritmes ingezet om informatie te sorteren, categoriseren, associëren of filteren. Je vindt ze terug in bijvoorbeeld een zoekmachine die je de belangrijkste informatie over een bepaald onderwerp geeft of de computer van een zelfrijdende auto die onderscheid maakt tussen een fietser en een auto. Denk ook aan een datingapp die een match op basis van profielen zoekt of een spraakherkenningsalgoritme dat jouw stem isoleert van storende omgevingsgeluiden.
2. Waarvoor worden algoritmes gebruikt?
De artikelen die je online leest, de mensen met wie je in aanraking komt via sociale media, de aanbeveling van producten in webwinkels, de controle van je financiële administratie en het checken van je gezondheid: het is niet overdreven om te zeggen dat algoritmes tot in vrijwel alle aspecten van ons leven zijn doorgedrongen. NEMO Kennislink sprak verschillende mensen in wier leven algoritmes op zeer uiteenlopende manieren een rol spelen. We lichten er hier drie uit die baat hebben of hadden bij algoritmes.
Zo koopt Carlijn van der Kulk vrijwel alles online: van de wekelijkse boodschappen tot bikini’s en kaarsen. Algoritmes bestieren de webshops en doen aanbevelingen op basis van wat Van der Kulk eerder kocht. Bovendien volgen verschillende bedrijven het aankoopgedrag van Carlijn, zodat zij ook op andere websites reclame kan ontvangen van spullen die ze online bekeek. Ook bij de betalingen zijn algoritmes betrokken. Ze maken een veilige verbinding met de bank en controleren soms op voorhand de creditwaardigheid van de klant.
Gerita Groenbos heeft wekelijks contact met lotgenoten via een groep op Facebook. Haar dochtertje heeft het zeldzame syndroom van Snijders Blok-Campeau, veroorzaakt door een genmutatie dat wereldwijd maar bij hoogstens enkele honderden mensen voorkomt. In de afgeschermde omgeving van de Facebook-groep stellen de leden elkaar vragen en houden ze elkaar op de hoogte van hun persoonlijke ontwikkeling. Het maakt niet uit dat ze elkaars taal niet spreken, het algoritme van Facebook neemt de vertaling voor zijn rekening.
Jarenlang bracht Pieter Hoexum zijn dochters te voet naar school, maar toen ze naar de middelbare school gingen verdween deze bron van lichaamsbeweging. Zijn vrouw gaf hem een stappenteller die hem motiveert om ieder uur 250 stappen te zetten. Een simpele melding van de app is voldoende om hem in beweging te houden. “Al is het maar even de vuilnisbak wegzetten”, zegt hij. “Ik beweeg veel meer door mijn stappenteller.”
3. Wat kunnen algoritmes, en wat niet?
Van het aanbevelen van je toekomstige partner tot het identificeren van tumoren op een medische scan, van het precies op tijd sluiten van de waterkering tot het extreem snel verhandelen van aandelen op de beurs. Er lijken steeds minder dingen te zijn die algoritmes níet kunnen, en in wat ze inmiddels kunnen zijn ze in veel opzichten beter dan de mens.
Ben je al bang dat mensen straks nergens meer voor nodig zijn? Bij de bovenstaande voorbeelden kun je kanttekeningen plaatsen. Een algoritme is bijvoorbeeld vooralsnog alleen erg goed in die ene specifieke taak waarvoor het ontworpen is. Een algoritme dat een zelfrijdende auto aanstuurt zal enorme verliezen lijden op de beurs en je datingapp de stormvloedkering laten besturen is een recept voor rampspoed.
Een algoritme is zich niet bewust van de wereld. Het herkent moeiteloos een paard op een foto, maar heeft geen benul van wat een paard eigenlijk is. Het is goed in waar het voor getraind is: het herkennen van objecten op een foto. Als een computer van een mens wint in een kennisspelletje, zoals gebeurde in 2011 in de Amerikaanse tv-quiz Jeopardy!, dan kan dat omdat het algoritme in staat was om razendsnel een enorme hoeveelheid informatie te verwerken en in de vraag te herkennen naar welke informatie de quizmaster op zoek was. Het algoritme bezit geen ‘algemene intelligentie’ zoals die van een mens en die het mogelijk maakt om out of the box te denken. In dat laatste is een algoritme zelfs erg slecht. Het zal niet aan de bel trekken op het moment dat het iets vreemds tegenkomt, tenzij programmeurs die functie er expliciet hebben ingestopt.
4. Hoe kan een algoritme discrimineren?
Discriminerende algoritmes zijn al op verschillende plekken geconstateerd, zoals bij het doen van de belastingaangifte of bij het berekenen van de kans dat een veroordeelde van een misdrijf in herhaling valt. Maar hoe kan een algoritme zonder bewustzijn en zonder vooringenomenheid discrimineren? Een algoritme bekijkt doorgaans verschillende soorten informatie, combineert die op een van tevoren bepaalde manier en geeft een uitkomst. Discriminatie kan in dat proces terechtkomen via de manier waarop het beslissingen maakt en wanneer de informatie zelf een vooroordeel bevat.
Het eerstgenoemde euvel lag ten grondslag aan de toeslagenaffaire, waarvan ook Sarah Alarda-Hensen gedupeerde was. De belastingdienst bestempelde tussen 2004 en 2019 tienduizenden Nederlanders onterecht als fraudeur aan de hand van een algoritme dat fraude met kindertoeslagen moest opsporen. Uit onderzoek van de Autoriteit Persoonsgegevens bleek dat het algoritme zaken als afkomst en dubbele nationaliteit meewoog. Dat was onterecht en leidde tot discriminerende beslissingen. De afkomst van een persoon zou niet moeten meewegen in de bepaling of iemand een fraudeur is.
Maar de informatie waar een algoritme mee werkt kan ook al vooroordelen bevatten, zo laat de Britse wiskunde Hannah Fry zien in haar boek Algoritmes aan de macht. Het Compas-algoritme berekent in de Verenigde Staten de kans dat een veroordeelde in herhaling valt. Rechters gebruiken die informatie voor de strafmaat. Achteraf (dus nadat de recidive daadwerkelijk bekend was) bleek dat de zwarte bevolkingsgroep ten onrechte hoger werd ingeschat op recidiven. Een van de redenen daarvoor bleek het feit dat zwarte Amerikanen bij sommige overtredingen onevenredig vaak doelwit zijn van de politie. Het algoritme continueert zo de discriminatie die al in het systeem zit, zelfs wanneer zaken als ras niet worden meegewogen. Via factoren zoals de leefsituatie – die afhankelijk kunnen zijn van ras – sluipen vooroordelen alsnog het systeem in.
Het lijkt moeilijk om neutrale technologie te maken. Volgens Marleen Stikker, oprichter van onderzoeksinstituut Waag, bestaat dat zelfs helemaal niet. In het nog te verschijnen boek Down to Earth van Lianne Tijhaar zegt ze: “Er wordt vaak gezegd dat het afhangt van wat je met een technologie doet: je kunt met een hamer een huis bouwen, je kunt er ook iemands hoofd mee inslaan. Maar die hamer heeft eigenschappen die maken dat je er harde klappen mee kunt uitdelen. Er zit betekenis in. Het gebruik zit al grotendeels in het ontwerp. Dit is nog duidelijker bij software en algoritmen. Managers schakelen over op data-gestuurd beleid in de veronderstelling dat de data objectief zijn. De realiteit is dat data niet bestaan in de werkelijkheid. Je maakt altijd een selectie. Als je de veiligheid van een gemeente meet, heb je eerst een definitie van veiligheid nodig. Daarom is het belangrijk om te weten wie de database aanmaakt. Wie betaalt die persoon? Welke belangen zitten erachter?”