Naar de content

Gebrek aan vrouwelijke blik

Superkracht AI: Maaike Harbers

Gemaakt met Adobe generatieve AI

Veel organisaties worstelen om verantwoorde AI te maken, ziet lector Maaike Harbers. “Het is zorgelijk dat de groep die AI-systemen maakt, vrij homogeen is.”

1 november 2024

Uitlegbaarheid en transparantie van AI-systemen is nu een populair onderwerp, omdat er veel AI-producten op de markt zijn waarbij het nogal eens schort aan die transparantie. Van het populaire ChatGPT weten we bijvoorbeeld niet op basis van welke data het programma is getraind. Maar toen Maaike Harbers in het jaar 2000 kunstmatige intelligentie ging studeren, en ook tijdens haar promotieonderzoek dat daarna volgde, speelde die discussie nog nauwelijks. Terwijl haar onderzoek wel over explainable AI ging. “Ik wilde toen al dat mensen AI beter zouden kunnen begrijpen. Je zou dus kunnen zeggen dat ik mijn tijd ver vooruit was.”

Ethiek en AI bleven de rode draad vormen in haar carrière. Na haar promotieonderzoek vertrok Harbers naar de TU Delft, waar ze onder meer de ethische aspecten van autonome wapensystemen onderzocht. Nu is ze lector Artificial Intelligence & Society aan de Hogeschool Rotterdam. Daar werkt ze nauw samen met verschillende organisaties, die ze observeert om samen tot maatschappelijk verantwoorde AI-oplossingen te komen. AI is dus absoluut geen techno fix, een technische oplossing, benadrukt Harbers. “We brengen eerst een organisatie in kaart: wat speelt hier en waar is behoefte aan? Het is niet zo dat wij dan vervolgens met een oplossing komen en het daarmee klaar is. Ethiek moet je doorlopend blijven bespreken, want de technologie verandert steeds, en ook wat wij wel of niet acceptabel vinden. Het gaat er dus om dat je in een organisatie goede processen inricht, zodat je blijft bespreken of een ontwikkeld product nog wel goed functioneert.”

Maaike Harbers zittend op een trap.

Maaike Harbers.

Sjoerd Joosen

Soms merkt Harbers dat er in organisaties onduidelijkheid is over wie er verantwoordelijk is voor ethiek. “Als je je als onderzoeker bezighoudt met ethiek, word je er al gauw verantwoordelijk voor gemaakt. Zo van: we werken met jou samen, dus dan zit het wel goed. Of het management zegt: dit gaat over technologie, dus de softwareontwikkelaars zijn verantwoordelijk. Maar die zeggen dan: dit gaat over strategische keuzes die wij niet kunnen maken. Je komt tot betere oplossingen als je goed afspreekt wie voor welk deel verantwoordelijk is.”

Tv-kijkers

Harbers en de collega’s van haar lectoraat willen vooral ethische vraagstukken bespreekbaar maken. Dat doen ze aan de hand van workshops of prototypen, bijvoorbeeld voor de website en app van de Nederlandse Publieke Omroep (NPO), waarin het overzicht van tv-programma’s is te zien. Een deel van de programma’s die je ziet, wordt aanbevolen door een algoritme op basis van jouw persoonlijke voorkeuren. Maar hoe doe je die aanbevelingen op een doordachte manier, hoe informeer je mensen zo goed mogelijk en hoe houd je rekening met diversiteit? Daarvoor presenteerden de onderzoekers verschillende scenario’s, variërend van maximale personalisatie, zodat de kijker vooral te zien krijgt wat ie al leuk vindt, tot een ‘kritisch model’ dat maximale aandacht heeft voor content die gemarginaliseerde groepen een stem geeft. Zo’n prototype is dan aanleiding om het gesprek met de organisatie aan te gaan.

Een hand richt een afstandsbediening op een tv. Op het scherm is onscherp een streamingsdienst te zien, met plaatjes van verschillende films en series.

Ook streamingdiensten maken gebruik van een algoritme dat op basis van jouw persoonlijke voorkeuren programma’s aanbeveelt.

Freepik

En zo voeren Harbers en collega’s meer gesprekken met organisaties, bijvoorbeeld met gemeentes over hoe je ChatGPT-achtige taalmodellen kunt inzetten om de communicatie met inwoners te verbeteren, en met een ziekenhuis, over hoe je op een ethische manier algoritmes kunt ontwikkelen en inzetten om hart- en vaatziektes te voorspellen. In beide gevallen kleven er veel risico’s aan het gebruik van die algoritmes, bijvoorbeeld over datagebruik en privacy, dus hoe doe je dat verstandig?

In die gesprekken met organisaties merkt Harbers dat de mensen aan tafel soms strategieën hanteren om de keuzes voor zich uit te schuiven. “Ze zeggen bijvoorbeeld: we hebben te weinig tijd, geld of data om onze AI verantwoorder te maken. Of ze wijzen naar elkaar en durven geen verantwoordelijkheid te nemen, of ze benadrukken de complexiteit door steeds nieuwe problemen te benoemen.”

Minder welkom

Naast die vermijdingsstrategieën, waardoor het organisaties niet altijd lukt om AI op een verantwoorde manier in te zetten, speelt ook het gebrek aan diversiteit in organisaties een grote rol, meent Harbers. Onlangs interviewde ze met twee collega’s negentien vrouwen in de Nederlandse AI-sector. “Deze vrouwen voelen zich over het algemeen minder welkom in de sector en worden minder serieus genomen. Ze worden bijvoorbeeld aangezien voor een secretaresse. En op conferenties ervaren ze dat mensen minder snel op een vrouw dan op een man afstappen.” Harbers herkent dit. “Ik ben ook wel eens aangezien voor een promovendus, terwijl ik toen al tien jaar geleden gepromoveerd was.” Dat gebrek aan diversiteit is een groot probleem, meent ze. “Juist omdat de ethische consequenties in dit vakgebied zo groot zijn, en omdat je zo snel te maken krijgt met discriminatie, is het extra belangrijk om hier aandacht aan te besteden. En dan is het natuurlijk wel zorgelijk dat de groep die AI-systemen maakt, vrij homogeen is.”

Uit het onderzoek van Harbers blijkt ook dat vrouwen een iets andere aanpak hebben in het gesprek over verantwoorde AI. “Vrouwen kijken over het algemeen meer naar de context en stellen andere vragen dan hun mannelijke collega’s. Die kijken meer naar de technologie zelf, en vragen bijvoorbeeld: hoe kunnen we deze dataset representatief maken, zodat die minder discriminerend is? Zij zoeken de oplossingen vooral in de technologie zelf. Vrouwen vragen ook: is deze AI-toepassing überhaupt wel nodig? Waarom maken we dit eigenlijk? Zij brengen een ander perspectief in en lijken dus echt een toegevoegde waarde te hebben.”

Organisaties worstelen dus flink om AI verantwoord in te zetten, maar Harbers ziet dat vooral als een positieve ontwikkeling, want het onderwerp staat nu tenminste op de agenda. Waar ze zich nog wel zorgen om maakt, is de grote macht van ‘Big Tech’ en hoe afhankelijk wij daar allemaal van zijn. Ze noemt als voorbeeld het bedrijf Clearview AI, dat gezichtsherkenningssoftware maakt waarmee het bijna elke wereldburger kan identificeren. In 2021 kreeg het een investering van dertig miljoen dollar. “Als die software openbaar wordt, dan kun je nergens meer anoniem zijn.” Een lichtpuntje is wat Harbers betreft dat verantwoorde AI een vast onderdeel is geworden van de opleiding Applied Data Science & Artificial Intelligence van de Hogeschool Rotterdam. “Studenten worden opgeleid met kennis over hoe je verantwoord kunt omgaan met AI. Die kennis stroomt straks de arbeidsmarkt op en dat heeft een positieve impact.”

Generatieve AI, in dit geval Adobe Firefly, heeft de illustratie bij dit interview gemaakt. De opdracht luidde: ‘Geknipt en geplakt uit papier menigte van robots en in het midden één menselijke vrouw met mooie oranje kleding. Donkerblauwe achtergrond.’