Algoritmes zijn overal en hebben grote invloed op ons leven. Vaak positief, maar lang niet altijd. Algoritmes kunnen er zelfs voor zorgen dat onze mensenrechten in gevaar komen. Hoe dat zit, leg ik uit in dit blog.
Post je wel eens een selfie op Facebook of Instagram, of een bericht met een stevige mening op Twitter? Dan zit het er dik in dat dit gecheckt wordt door een algoritme. Techgiganten willen zo voorkomen dat er haatdragende of feitelijk onjuiste content wordt geplaatst. Samen met menselijke moderatoren bepalen die algoritmes wat wel en niet gepost kan worden op sociale media. Dat gaat vaak goed, maar soms ook mis.
Zo schreef Nemo Kennislink onlangs over een journalist wiens (positieve) tweet over coronavaccins verwijderd werd, omdat deze ten onrechte als misleidend werd aangemerkt.
Beroemd is ook het voorbeeld van de foto van het Vietnamese ‘napalmmeisje’. Die iconische afbeelding werd meerdere keren van Facebook verwijderd, waarschijnlijk omdat deze in strijd was met de richtlijnen over naaktheid. Techreuzen houden hun algoritmes angstvallig geheim en hun interne processen zijn deels onbekend. Daardoor is lastig met zekerheid vast te stellen welke exacte rol algoritmes bij deze beslissingen spelen. Maar één ding is wel duidelijk: algoritmes zijn nodig om de miljoenen berichten te controleren die dagelijks op sociale media worden geplaatst. En algoritmes kunnen fouten maken.
Dat is meer dan een vervelende bijkomstigheid: onze mensenrechten zijn in het geding! Mensenrechten zijn de belangrijkste rechten die wij hebben. Ze zijn opgenomen in onze Grondwet en in belangrijke verdragen. Hier gaat het om ons recht op vrijheid van meningsuiting. In een digitale samenleving spelen sociale media een enorm belangrijke rol bij het mogelijk maken van vrije meningsuiting. Hun algoritmes fungeren als ‘poortwachters’ van onze informatiemaatschappij: de beslissingen die zij nemen over het toelaten van bepaalde berichten bepalen mede welke meningen wel en welke niet geuit kunnen worden. Juist bij controversiële, schurende opvattingen en meningen over beladen onderwerpen, leidt dat er soms toe dat meningen te snel worden verwijderd. En dat vormt maar één voorbeeld van hoe algoritmes mensenrechten beperken. Helaas is dat voor veel meer mensenrechten het geval.
Discriminatie en privacy
Denk aan de toeslagenaffaire bij de Belastingdienst. De gebruikte algoritmes droegen bij aan discriminatie. En ook daarmee werd een belangrijk grondrecht aangetast, namelijk het recht om niet-gediscrimineerd te worden, dat zelfs als eerste artikel in onze Grondwet is opgenomen. Ook een minder bekend voorbeeld laat dit goed zien. De overheid maakte een tijd lang gebruik van het zogeheten ‘Systeem Risico Indicatie’ (SyRI). Dat systeem gebruikte heel veel persoonlijke informatie over burgers. Denk aan gegevens over uitkeringen en schulden van mensen. Daarbij werden algoritmes gebruikt om met behulp van deze data fraude op te sporen.
Uiteindelijk moest zelfs de rechter er aan te pas komen om SyRI stop te zetten. De reden? Algoritmes waren een gevaar voor onze mensenrechten. Door het gebruik van algoritmes was de overheid in staat om heel veel te weten te komen over burgers. Daarmee kwam het mensenrecht op privacy in de knel. En omdat SyRI voornamelijk in achterstandswijken werd ingezet, ontstond ook hier een risico op discriminatie.
Oorzaken
Voorbeelden genoeg dus. Maar hoe komt het nou, dat algoritmes soms zo gevaarlijk zijn voor mensenrechten? De reden daarvoor is dat algoritmes niet feilloos zijn. Net als mensen kunnen zij fouten maken. Bovendien werken algoritmes het beste als er veel data beschikbaar is. Grote kans dat daar allerlei persoonlijke gegevens bij zitten. Bijvoorbeeld over je leeftijd of geslacht. Ook laten wij veel data achter op het internet, bijvoorbeeld door websites te bezoeken of door likes uit te delen op sociale media. Op basis van die data achterhalen algoritmes allerlei persoonlijke voorkeuren en privacygevoelige informatie. Zelfs seksuele voorkeur en verslavingsgevoeligheid zou voorspeld kunnen worden.
Ook zijn algoritmes per definitie niet-neutraal. Bij het programmeren van algoritmes worden allerlei keuzes gemaakt. En door algoritmes met verkeerde gegevens te trainen, kan discriminatie eenvoudig optreden. Stel je bijvoorbeeld voor dat de politie een algoritme gebruikt om misdaad op te sporen. Als je dat algoritme enkel voedt met data over bepaalde armere wijken in Nederland, dan ligt etnisch profileren op de loer. Maar het is te makkelijk om de techniek van alle gevaren de schuld te geven. Algoritmes worden immers geprogrammeerd door mensen en ingezet in door mensen bestuurde organisaties. De manier waarop wij algoritmes controleren en de waarde die wij hechten aan de uitkomsten ervan is van belang. Zowel techniek als mens spelen dus een belangrijke rol.
De weg vooruit
Ik kan me voorstellen dat de moed je bij het lezen van deze blog in de schoenen zakt. En inderdaad: de uitdagingen zijn groot. Want algoritmes zijn overal. Iedereen gebruikt ze. Van bedrijven tot overheden. Denk aan Netflix, banken of de overheid bij het opsporen van criminaliteit. En daarmee doemen ook de gevaren voor onze mensenrechten overal op.
Gelukkig is er ook een positieve kant. We moeten we niet vergeten dat algoritmes enorm nuttig zijn. Sterker nog: een wereld zonder algoritmes kunnen we ons niet meer voorstellen. Ook worden we ons steeds meer bewust van de risico’s die algoritmes opleveren. De vraag is nu vooral hoe we deze risico’s moeten verhelpen. Dat kan bijvoorbeeld door al bij het ontwikkelen van technologie aandacht te hebben voor de problemen die algoritmes mogelijk veroorzaken. Maar ook door nieuwe regels te maken die eisen stellen aan het gebruik van nieuwe technologieën. Dat deed de Europese Unie onlangs nog. We zijn dus bezig om op een verstandige manier met algoritmes om te springen. Dat is goed nieuws voor onze mensenrechten, maar ook voor de wetenschap: want op dit terrein moet nog heel veel onderzoek worden gedaan.
Wil je meer weten over de impact van algoritmes? Kijk dan op Nemo Kennislink (Thema: Je data en jij).