Sociale media kampen met haatberichten en discussies die ontsporen. Een moderatiebot zou kunnen helpen om online conversaties in goede banen te leiden.
Hoewel sociale media enorm van elkaar verschillen, hebben ze één ding gemeen: er wordt heel wat gediscussieerd tussen de gebruikers. Soms blijft dat beschaafd, soms is het smakeloos en soms zelfs strafbaar, zoals bijvoorbeeld bij het plaatsen van gewelddadige beelden, kinderporno, haatberichten of oproepen tot geweld. Mediabedrijf RTL Nederland onderzocht onlangs de reacties op de eigen Instagram-kanalen. Van de ruim 210.000 berichten bleek bijna een op de tien haatdragend te zijn. Vooral mensen van kleur en queer vrouwen moeten het ontgelden. RTL gaat een campagne starten om het onderwerp te agenderen ‘met als doel dat haat nooit normaal wordt’.
“Toen socialmediakanalen opkwamen, in de jaren 2000, werden ze nog vooral gezien als een verrijking”, vertelt Maud Oostindie, die aan de Maastricht University onderzoek doet naar online communicatie, conflict en conflictmoderatie. Mensen met dezelfde interesses en achtergrond konden makkelijk met elkaar online contact hebben. Denk aan transpersonen of mensen met dezelfde hobby. De laatste jaren komt de negatieve kant meer naar boven.”
Harde kern
Door middel van digitaal etnografisch veldwerk onderzoekt Oostindie hoe het eraan toe gaat op verschillende online plekken. Ze volgt de discussies op de Nederlandse nieuwswebsite Foodlog, met een actief discussiegedeelte waar mensen praten over voedsel en landbouw. En ze kijkt naar de online activiteiten van Extinction Rebellion op Facebook en Instagram. Ze koos bewust voor de thema’s klimaat en duurzaamheid. “Dat zijn thema's die heel erg leven momenteel en waar veel meningsverschillen over zijn, maar die niet zo gepolariseerd zijn dat mensen niet meer met elkaar in gesprek raken.” Hoewel het onderzoek van Oostindie nog niet is afgerond, valt haar nu al op dat mensen op sociale media echt een gemeenschap met elkaar vormen, en dat er impliciete normen op de platforms lijken te gelden over hoe je met elkaar communiceert en wat voor soort argumenten wel of niet worden gewaardeerd.
Soms werpen de platforms daarmee wel drempels op voor nieuwkomers die ook willen meedoen in discussies. Dat zag Oostindie vooral bij Foodlog. “De harde kern van mensen die al langer actief zijn, veronderstellen wel een bepaalde basiskennis. Als je dan als nieuwkomer een vraag stelt of opmerking maakt, waarvan de harde kern vindt dat ze het daar al heel vaak over hebben gehad, dan kun je daar wel een beetje voor worden afgestraft – soms heel kortaf, soms wat uitgebreider en vriendelijker.” Bij Foodlog blijft het meestal redelijk netjes. Dat komt ook doordat je een account moet aanmaken om te kunnen reageren, en doordat het op Foodlog gebruikelijk is om je eigen naam te gebruiken. Het platform heeft een vrij breed spectrum aan gebruikers, vertelt Oostindie. “Er zijn boeren actief, maar ook beleidsmakers, journalisten en wetenschappers.” Bij Extinction Rebellion kunnen de berichten hatelijker zijn, maar blijven de discussies vaak beknopt. Als de groep op Instagram een bericht plaatst over het blokkeren van een cruiseschip, krijgen ze vooral steunbetuigingen en een enkeling die ze ‘mafkezen’ of ‘sukkels’ noemt.
Escalatie doet het goed
Over contentmoderatie op andere, grote platforms heerst veel geheimzinnigheid. Afgezien van het anarchistische platform 4chan kunnen onderzoekers geen toegang krijgen tot metadata om trends te onderzoeken. Hoe deze platforms hun contentmoderatie doen en hoe hun algoritmes staan ingesteld, is grotendeels in nevelen gehuld. “Verschillende wetenschappelijke onderzoeken hebben wel aangetoond dat escalatie het goed doet op grote platforms”, weet Oostindie. “De algoritmes duwen je in die richting. Het zijn kapitalistische systemen waardoor er bij meer kliks meer geld wordt verdiend.” Veel gewelddadige content wordt verwijderd (door mensen of algoritmes), maar de meer genuanceerde kwetsende of haatberichten zijn lastiger op te sporen. Bovendien kost menselijke moderatie veel tijd en het vraagt ook van de moderator dat hij of zij een beetje ingeburgerd is in de gebruiken op een forum. Bij Foodlog is de hoofdredacteur zelf ook actief als moderator en dat werkt niet altijd goed, aldus Oostindie. “Het is soms onduidelijk of de hoofdredacteur meedoet vanuit de rol van deelnemer of moderator.”
De studie van Oostindie maakt deel uit van het onderzoeksprogramma Deliberation Laboratory (DeLab). Onderdeel daarvan is ook het ontwikkelen van een chatbot die een deel van de contentmoderatie op zich kan nemen. “Deze bot richt zich niet op de inhoud, maar op de argumentatie. Die zou bijvoorbeeld kunnen zeggen: jij zegt nu dit over gebruiker B, maar volgens mij heb je hem verkeerd begrepen, want eigenlijk zei diegene dit en zitten jullie wel op een lijn. Of: je reageert nu op dit punt, maar eigenlijk zou je moet reageren op dat punt. Die bot is eerder een facilitator dan een moderator, met als doel om gesprekken proberen te depolariseren en om te zorgen dat discussies niet uit de hand lopen.” Conversationeel modereren, noemt Oostindie dat. “Ik ben geen voorstander van alleen maar dingen verwijderen of juist bijna niks doen, zoals op 4chan. In mijn ogen zou contentmoderatie een combinatie moeten zijn van de ergste dingen weghalen en gesprekken op een conversationele manier sturen.”
Even serieus
Het is nog wel de vraag of mensen een computergestuurde moderator
even serieus zullen nemen als een menselijke moderator. “Een andere
optie is om de bot het te laten signaleren als het uit de hand dreigt te
lopen en dat hij een reactie formuleert, maar dat er nog een
menselijke moderator naar kijkt voordat de reactie wordt geplaatst. Of
dat de bot signaleert dat iemand een heftige reactie wil plaatsen.
Voordat die online komt, krijgt de gebruiker dan de vraag: weet je
zeker dat je dit wilt publiceren? Zo zijn er verschillende mogelijkheden
om in te grijpen.”
Wellicht gaat het er in de toekomst dan weer wat beschaafder aan toe op social media. “Of we het nu leuk vinden of niet, online discussies vormen een groot deel van het publieke debat. Laten we kijken hoe we dat op zo’n manier kunnen inrichten dat we de platforms meer verantwoordelijk kunnen maken om die discussies in goede banen te leiden.”