Naar de content

Innovatie volgens de regels

Superkracht AI: Natali Helberger

Gemaakt met Adobe generatieve AI

AI is een supergave technologie, maar kan niet zomaar op de mensheid worden losgelaten, vindt jurist Natali Helberger. Regelgeving is hard nodig. De Europese AI act vormt een goed begin.

6 december 2024

Als hoogleraar Informatierecht aan de Universiteit van Amsterdam doet Natali Helberger onderzoek naar de regulering van digitale technologie. Wat zijn de effecten van technologie op de maatschappij en wat zijn goede manieren om technologie in goede banen te leiden? Want dat regulering nodig is, staat voor Helberger buiten kijf. “Het is nu populair om te roepen dat je innovatie belemmert door regelgeving, maar ik denk dat innovatie juist regels nodig heeft.” Als voorbeeld noemt ze de plotselinge doorbraak van het AI-taalmodel en chatprogramma ChatGPT in november 2022, dat in een paar weken tijd miljoenen gebruikers had. Helberger vond het onverantwoord dat OpenAI, het bedrijf achter ChatGPT, het programma zomaar kon lanceren, terwijl de risico’s toen nog onvoldoende duidelijk waren. “Het was een levensgroot experiment met de hele wereld als proefkonijn.”

Toch is Helberger niet tegen AI. Ze vindt generatieve AI, waarmee je in een handomdraai door een computer gegenereerde teksten, beelden of films kunt maken, juist “supergaaf”. Ze is geïnspireerd door kunstenaars die AI gebruiken, zoals de Amerikaan Christopher Meerdo, die een algoritme heeft getraind met het beeldmateriaal dat is buitgemaakt bij de schuilplaats van Osama Bin Laden in 2011, en daar het kunstwerk ‘Channeling’ van heeft gemaakt. Maar de implicaties van AI reiken verder dan alleen de kunstwereld. “Wat generatieve AI zo bijzonder maakt, is dat het zo ongelooflijk makkelijk is te gebruiken, door iedereen. Daardoor werkt het democratiserend. En je kunt er informatie toegankelijker mee maken, door teksten te vertalen, samen te vatten of te herschrijven voor laaggeletterden. Omdat de programma’s zo gebruiksvriendelijk zijn, verlaag je de drempels voor mensen om deel te nemen aan de digitale maatschappij.”

Moeilijk te bewijzen

Het was zeker niet zo dat OpenAI geheel vogelvrij was toen het ChatGPT lanceerde, en dat het een nieuwe technologie was waar nog geen wetten voor golden. “Auteursrecht en het databeschermingsrecht bestonden al. Om ChatGPT te trainen met data heeft OpenAI het hele internet afgezogen. Sommige van die data zijn persoonlijke data en sommige zijn auteursrechtelijk beschermd. Het grote probleem is echter dat het moeilijk te bewijzen is dat jouw eigen data zijn gebruikt, omdat het bedrijf daar niet transparant over is.”

Nog vóór die inmiddels legendarisch geworden lancering van ChatGPT, werd in Brussel al nagedacht over het in goede banen leiden van AI-toepassingen. De Europese AI Act, die afgelopen augustus in werking is getreden, was al in de maak. Maar de Europese Commissie werd nogal overvallen door de plotselinge doorbraak van generatieve AI, die volgde op de lancering van ChatGPT. Het paste namelijk niet bij de wet zoals die toen werd opgetuigd. Onder sterke politieke druk is er uiteindelijk voor gekozen om generatieve AI maar heel beperkt te reguleren, aldus Helberger. Daar ging een spannende laatste zitting aan vooraf. “Oorspronkelijk waren er voorstellen om generatieve AI veel strikter te reguleren, met bepalingen over risicomanagement, de kwaliteit van de output en transparantie over de ecologische impact. Maar onder druk van landen als Duitsland, Frankrijk en Italië was de wet bijna niet doorgegaan. Bij die laatste zitting zijn de bepalingen afgezwakt, waardoor de strikte regels nu alleen voor de allergrootste modellen gelden. De lidstaten waren bang dat veelbelovende Europese start-ups in de AI, zoals het Franse Mistral en het Duitse Aleph Alpha, door de nieuwe wet benadeeld zouden worden.”

Portretfoto van Natali Helberger. Ze leunt op een witte balustrade. Op de achtergrond is vaag de binnenkant van een gebouw te zien met witte pilaren.

Natali Helberger.

Kirsten van Santen

Er werd een compromis bereikt. Alle aanbieders van generatieve AI moeten transparant zijn over de gebruikte trainingsdata en testresultaten, maar alleen bedrijven vanaf een bepaalde grootte (bijvoorbeeld qua aantal gebruikers of rekenkracht) moeten hun modellen laten controleren op risico’s voor onder meer fundamentele rechten en democratische waarden. In de praktijk betekent dat dat alleen heel grote modellen, zoals die van OpenAI en Google, zich aan die strikte regels moeten houden. Volgens Helberger speelt de wet hiermee de grote bedrijven juist in de kaart en benadeelt het de kleinere Europese AI-bedrijven. “Gebruikers krijgen meer vertrouwen in AI waarvan ze weten dat het zich aan regulering moet houden en zullen zo minder snel uitwijken naar andere, kleinere toepassingen.”

Groot experiment

Toch is het momenteel populair om te roepen dat regelgeving innovatie zou hinderen, aldus Helberger. Europa zou achterlopen op het vlak van AI door te veel regelgeving, en ook in Californië is recent een AI-wet tegengehouden, omdat die innovatie in de kiem zou smoren. Daar geeft de staat het liefst juist veel ruimte aan nieuwe technologie, zoals zelfrijdende auto’s. Op nationaal niveau is er weliswaar een presidentieel decreet ingevoerd om verantwoorde AI te bevorderen, maar dat zal (nog) weinig juridische gevolgen hebben. “De VS kijken nu vooral naar Europa, hoe de ervaringen met de AI Act zullen zijn.” Begrijpelijk, vindt Helberger. “De AI Act is de eerste van zijn soort in de wereld en daarmee een groot experiment. Hoewel die nog verre van perfect is, is er in ieder geval een begin.”

Helberger volgt de AI Act en de implementatie ervan nauw, en draagt met haar onderzoek bij aan verschillende Europese expertcommissies om te helpen de wet- en regelgeving te verbeteren. Het gaat trouwens niet alleen om de wet zelf, maar ook om gedragscodes die nu voor verschillende sectoren opgesteld worden. Gedragscodes zijn een lichtere variant van regels waar bedrijven zich aan zouden moeten houden. In principe heeft het overtreden daarvan niet direct juridische consequenties, maar als een toezichthouder merkt dat bedrijven de codes consequent schenden, dan kan het alsnog ertoe leiden dat er strengere wetgeving wordt opgesteld waar bedrijven zich wel echt aan moeten houden.

Kleinere modellen

Wat Helberger betreft was de AI-sector dus gelijk wat strenger aangepakt. Niet om de bedrijven te pesten, maar juist om hen rechtszekerheid te bieden. “De AI Act beantwoordt nu niet de vraag: wat is verantwoorde AI? Dat moeten bedrijven zelf uitzoeken. Voor kleinere bedrijven biedt de wet ook minder duidelijkheid en richting om op een verantwoorde manier AI-toepassingen te ontwikkelen.” Terwijl kleinere taalmodellen, die minder trainingsdata nodig hebben, volgens Helberger wel de toekomst zijn. “Die grotere modellen gaan tegen hun grenzen aanlopen, omdat ze weliswaar veel, maar niet altijd de juiste data hebben, en omdat hun ecologische voetafdruk enorm is.”

Was het toch niet beter geweest als de AI Act er al voor de komst van ChatGPT was geweest? Daar gelooft Helberger niet in. “Men roept altijd dat regelgeving achter de feiten aanloopt, maar je kunt geen dingen reguleren die je nog niet begrijpt. Het laatste wat je wilt, is regelgeving die vooroploopt en dingen reguleert die nog geen issue zijn. Je moet eerst weten wat een nieuwe technologie precies inhoudt en wat de effecten op de maatschappij zijn voordat je ingrijpt.”

Generatieve AI, in dit geval Adobe Firefly, heeft de illustratie bij dit interview gemaakt. De opdracht luidde: ‘Robot gemaakt van papieren stroken en rolletjes die een zwaard en weegschaal vasthoudt. Daarnaast staat een vrouw in dezelfde grootte. Lichtblauw-grijze achtergrond met oranje elementen.’