Wetenschap
Kunstmatige intelligentie

Techniekfilosoof Buijsman: ‘Veel te weinig toezichthouders voor AI-wet’

Als enige technische universiteit had de TU Delft nog geen voetbalteam in de RoboCup. Tot nu. Tim Verburg, teammanager van de onlangs opgerichte Delft Mercurians vertelt.

Stefan Buijsman: "Techbedrijven bereiden zich al voor op de Europese AI-wetgeving." (Foto: Thijs van Reeuwijk)

De Europese Unie legt momenteel de laatste hand aan een wet op kunstmatige intelligentie. De zogenoemde AI Act is wereldwijd de eerste in zijn soort en onderscheidt drie risico-categorieën. Surveillancesystemen vormen een ‘onacceptabel risico’ en gebruik ervan wordt verboden. Beoordeling van cv’s en andere persoonlijke gegevens zijn een ‘hoog risico’ en wordt aan voorschriften gebonden. AI-toepassingen die hierbuiten vallen mogen vrij worden ontwikkeld en toegepast.

Dr. Stefan Buijsman (1995) ziet het als zijn missie om bij te dragen aan effectief en verantwoord gebruik van kunstmatige intelligentie en om deze breed begrijpelijk te maken. Voor wie hem nog niet kent: Buijsman studeerde al op z’n achttiende af als filosoof in Leiden. Twee jaar later promoveerde hij (als jongste ooit) aan de Universiteit van Stockholm. In 2020 publiceerde hij zijn boek Alsmaar Intelligenter, inderdaad over kunstmatige intelligentie. Sinds ruim twee jaar werkt Buijsman als AI-onderzoeker bij de faculteit Techniek, Bestuur en Management van de TU Delft. Hoe denkt hij over de AI Act?

Buijsman: “Het Europees Parlement werkt al een tijd aan de AI Act. In de afgelopen twee jaar keken ze vooral naar toepassingen. Nu hebben ze ook meer algemene modellen zoals ChatGPT meegenomen in de wetgeving. ChatGPT kun je voor van alles en nog wat gebruiken. Je kunt ermee coderen of het tentamens laten schrijven. Dat werd aanvankelijk niet gezien als hoog-risico technologie. Nu heeft het Europees Parlement toch een aantal eisen opgenomen.”

 

Is dat een goede ontwikkeling?

“Ja, zeker nu ChatGPT zo gebruiksvriendelijk is en de modellen van Google en Microsoft straks ook. Ze maken het heel simpel om nepnieuws te produceren dat er overtuigend uitziet of klinkt. AI maakt het gemakkelijk om het internet vol te zetten met zulke berichten. Doordat deze vervolgens terugkomen in de algoritmen die het internet scannen op gedeelde berichten ontstaat er een gevaarlijke en zichzelf versterkende feedbackloop.”

 

Het Europees Parlement eist nu dat AI-systemen onder menselijk toezicht staan, veilig zijn, transparant, herleidbaar, niet-discriminerend en milieuvriendelijk. Is dat haalbaar?

“In principe is dit het lijstje van gewenste eigenschappen. Of het haalbaar is, zal ook afhangen van wat de europarlementariërs precies bedoelen. Ze zeggen dat ze eerlijkheid verlangen en geen discriminatie. Maar we weten dat een algoritme minder nauwkeurig wordt als je het minder laat discrimineren, omdat het minder goed aansluit bij de niet heel eerlijke werkelijkheid.

Zo zijn er simulatiestudies van een bank die leningen helemaal eerlijk uitdeelt. Dat blijkt ze 30 tot 40 procent van hun winst te kosten, omdat ze meer leningen geven aan mensen die het uiteindelijk niet kunnen betalen en daardoor in de schulden belanden.

Er moeten dus keuzes gemaakt worden over de nauwkeurigheid van AI versus de hoeveelheid ongelijkheid die we als samenleving accepteren. Het wensenlijstje van het Europarlement wil alles tegelijk perfect krijgen, dat kan gewoon niet. Maar het is goed om te beseffen dat we als samenleving bewust afwegingen moeten maken of we de overwegingen van bedrijven acceptabel vinden.”

 

De voorbeelden in het wetsvoorstel gaan veel over identificatietechnologie. Zo worden biometrische identificatie en emotieherkenning verboden. Kan Europese regelgeving die technologische ontwikkeling stoppen?

“Een deel van de reden waarom ze deze toepassingen specifiek benoemen is omdat China die kant op lijkt te bewegen met massasurveillance. Het Europees Parlement zegt nu: dat willen wij niet. Europa staat voor democratische waarden en wijst een door de staat gecontroleerde samenleving af. De onderliggende technologie van herkenning van gezichten en emotie ontwikkelen we evengoed wel, maar dan voor andere doeleinden. Zo is het toegestaan om kunstmatige intelligentie in te zetten bij de beoordeling van emoties bij kandidaten in sollicitatiegesprekken, al moet je aan veel eisen voldoen. Het is een beetje twijfelachtig in hoeverre dat werkt maar in de VS gebeurt het al wel.”

 

Volgens het persbericht stemt het Europees Parlement in juni over de AI-wet. Welke aanbevelingen heb je?

“De wetgeving is mooi en ambitieus, maar denk ook aan de handhaving. Bij privacywetgeving AVG bijvoorbeeld is het toezicht nooit goed op gang gekomen. De Autoriteit Persoonsgegevens heeft te weinig mensen in dienst om effectief toezicht te houden op omgang met privacygevoelige gegevens. En nu lijkt de overheid diezelfde onderbemande Autoriteit Persoonsgegevens ook de taak op te willen leggen om alle algoritmen in Nederland in de gaten te houden.”

 

Is deze wetgeving bedoeld om op terug te vallen als je echt iets fout ziet gaan zonder de illusie dat je alle ongewenste ontwikkelingen kunt voorkomen?

“De EU kan natuurlijk sowieso niet alles aanpakken, maar het is wel de bedoeling dat toezichthouders effectief kunnen ingrijpen als er duidelijk iets misgaat. Zelfs dat is nu moeilijk omdat er veel te weinig personeel is. Dat mondt uit in eindeloos lange rechtszaken waar zeker de grote techbedrijven heel veel geld in kunnen gooien om te blijven procederen. Bedrijven klagen nu al dat ze het zo moeilijk hebben. In feite zijn ze zich al aan het voorbereiden.”

  • Meer weten? Raadpleeg de Europese website over de AI Act.
Wetenschapsredacteur Jos Wassink

Heb je een vraag of opmerking over dit artikel?

j.w.wassink@tudelft.nl

Comments are closed.