Naar de content

Controle op conflicten

Superkracht AI: Marie Rosenkrantz Lindegaard

Gemaakt met Adobe generatieve AI

AI herkent conflicten steeds beter, maar willen we eigenlijk wel dat een computer dat kan? Criminoloog Marie Rosenkrantz Lindegaard maakt zich zorgen om AI-gestuurde videosurveillance.

18 oktober 2024

Hoe reageren omstanders als ze een conflict zien ontstaan op straat, en hoe kunnen ze voorkomen dat het escaleert? Dat is het vraagstuk waar Marie Rosenkrantz Lindegaard, bijzonder hoogleraar criminaliteit aan de Universiteit van Amsterdam, al jaren meer inzicht in probeert te krijgen.

Haar interesse in criminaliteit en conflict ontstond toen ze als jonge student antropologie een aantal jaar in het Zuid-Afrikaanse Kaapstad woonde, en op klaarlichte dag werd overvallen door een man met een groot mes in zijn hand. “Ik heb me eruit onderhandeld. Ik gaf hem geld en mijn ringen, maar pas toen hij mijn telefoon kreeg, was het genoeg voor hem en ging hij ervandoor.” Lindegaard was wekenlang van slag door het incident en vroeg zich af: heb ik juist gehandeld? Wat als ik was gaan schreeuwen, of iets anders had gedaan? “Ik dook in de literatuur over dit onderwerp en kwam erachter dat het eigenlijk onbekend is hoe je in zo’n situatie moet handelen.”

Omstandereffect

De misdaad liet Lindegaard niet meer los. Voor haar promotieonderzoek kwam ze weer in Kaapstad terecht, waar ze veertien maanden optrok met een groep jongeren, op straat, in nachtclubs en bij hun families thuis. Ze maakte zes geweldsincidenten van dichtbij mee. En wat deed ze? Ze greep in en bemoeide zich ermee. “Daarmee beïnvloedde ik natuurlijk de situatie. Dat was niet zo wenselijk voor mijn onderzoek.” Lindegaard dacht dan ook al snel: ik kan beter gebruikmaken van videobeelden. Ze mocht van de lokale autoriteiten camerabeelden van de openbare ruimtes in Kaapstad inzien. Ook van drie andere steden (Amsterdam, Kopenhagen en Lancaster) kreeg ze toestemming.

Een kleurenfoto van antropoloog Marie Rosenkrantz Lindegaard.

Marie Rosenkrantz Lindegaard.

Marie Rosenkrantz Lindegaard/NSCR

Uit de analyse van die camerabeelden bleek dat de rol van omstanders in een conflict heel belangrijk is. Ondanks dat er culturele verschillen tussen deze steden zijn, blijkt toch dat omstanders bijna altijd ingrijpen. Het bystander effect, de theorie dat omstanders passief toekijken als er anderen bij zijn, lijkt dus niet echt te bestaan. Lindegaard vertelt welk typisch gedrag omstanders vertonen bij een conflict. “Als er iets gebeurt dat afwijkt van de routine, dan zijn mensen direct alert. Ze kijken naar het conflict en naar de omstanders. Dan lopen ze ernaartoe. Je ziet dat vaak drie à vier mensen ingrijpen. Zonder te overleggen nemen ze allemaal een andere rol in. De ene richt zich op de ene persoon, en de andere op de andere persoon. Een derde belt de politie, een vierde haalt er een vriend bij. Ze proberen de mensen in het conflict af te leiden, en als dat niet lukt, proberen ze hen uit elkaar te halen. Daardoor weten ze heel vaak conflicten te de-escaleren.”

Bevooroordeeld

Het werken met videobeelden heeft echter ook beperkingen, ontdekte Lindegaard. Ze is afhankelijk van de meldkamer van de politie, waar operators de beelden 24/7 live bekijken. “Wij vroegen hen om voor ons bij te houden wanneer ze een conflict waarnamen. Wij kregen dan alleen de beelden te zien die zij hadden geselecteerd. Maar zij zijn super biased (bevooroordeeld, red.). Toen ik in Kaapstad in de meldkamer meekeek, zag ik bijvoorbeeld een opstootje tussen vrouwen ontstaan. Maar daar keken de operators niet naar. ‘Dat loopt toch nooit uit de hand’, zeiden ze. En in Amsterdam lijkt er focus op jongeren van kleur te zijn.”

Een wazige menigte op straat met op de voorgrond een surveillancecamera. Rond verschillende gezichten is een vierkant getekend.

Computers zijn goed in het detecteren van groepen mensen die dichtbij elkaar staan.

Freepik

Lindegaard kwam in contact met Cees Snoek, hoogleraar beeldherkenning aan de Universiteit van Amsterdam. Wat als een algoritme een conflict zou kunnen detecteren? Een computer heeft toch niet dezelfde bias als de meldkamer? Samen met Snoek onderzocht ze onder meer of een computer goed kan detecteren of mensen genoeg afstand tot elkaar houden, iets wat in coronatijd een nuttige tool was. Daar bleek de computer inderdaad best goed in: in negentig procent van de gevallen schatte de computer de afstand goed in. Maar voor conflictdetectie is dit problematisch, denkt Lindegaard. “Computers zijn goed in het detecteren van groepen mensen die dichtbij elkaar staan. En wie zijn nou typisch mensen die in groepen bij elkaar komen op straat? Jongeren. Zij hebben vaak thuis te weinig ruimte om elkaar te ontmoeten, en kunnen of willen soms geen clubs of kroegen in. Dus hangen ze op straat. Dan gaat zo’n computer dus vooral jongeren detecteren en krijgen we een overrepresentatie van hen in de statistieken.” Oftewel: de computer heeft vooral veel aandacht voor een groep die toch al onder een vergrootglas ligt, namelijk jongeren, terwijl dat niet de enige groep hoeft te zijn die voor conflict zorgt.

Andere weg

Bovendien begon Lindegaard zich af te vragen: wil ik eigenlijk wel bijdragen aan een technologie die zorgt voor meer controle en minder autonomie? “De openbare ruimte is nu veel veiliger dan twintig of vijftig jaar geleden. Dat komt deels door de mensen zelf, doordat wij ingrijpen als een opstootje uit de hand dreigt te lopen. Toch is het idee van onveiligheid momenteel heel sterk. Mensen denken dat ze technologie nodig hebben om zich veilig te voelen.” Er is een heel leger aan start-ups dat dit soort veiligheidstechnologie al aan overheden en politiekorpsen probeert te slijten, terwijl de werking nog onvoldoende is aangetoond, stelt Lindegaard.

Ze kiest ervoor om niet langer bij te dragen aan een technologie die conflict alleen maar scherper in beeld krijgt, en slaat een andere weg in. “In plaats van een focus op criminaliteit kun je ook proberen peace keeping behavior te detecteren. Zodat je weet welke handelingen je kunt uitvoeren om een conflict te de-escaleren, maar ook om te achterhalen welke plekken op welke momenten veilig zijn, omdat je weet dat je daar kunt rekenen op omstanders die ingrijpen.”

Wijsvinger

Maar of het nu gaat om het detecteren van het gedrag van geweldplegers of van omstanders, met beide situaties heeft een computer nog bijzonder veel moeite. “Gedragingen in een conflict zie je ook in andere situaties. Het gebruik van de wijsvinger is bijvoorbeeld typisch voor ruziemakend gedrag, maar die gebruiken we natuurlijk ook voor andere handelingen. Ik zie wel potentie in een sequentie van handelingen, bijvoorbeeld als je ziet dat omstanders om zich heen gaan kijken en dichterbij komen. Dat zou een computer op termijn wellicht kunnen gaan herkennen.”

Met een nieuw onderzoekslab wil Lindegaard eerst de ethische vragen stellen voordat er nieuwe beeldherkenningstechnologie wordt ontwikkeld. “Als een computer heel goed wordt in het herkennen van crimineel gedrag, welke consequenties heeft dat dan? Willen we dat eigenlijk wel? Want we willen geen China-achtige AI-staat worden. Peace keeping is maatschappelijk veel verantwoorder; daar hebben we met z’n allen iets aan.”

Generatieve AI, in dit geval Adobe Firefly, heeft de illustratie bij dit interview gemaakt. De opdracht luidde: ‘Geknipt en geplakt uit papier tientallen surveillancecamera’s gericht op een vrouw.’