Europese regelgeving is geen AI-killer

Mark Bakker

28-07-2021

Europese regelgeving is geen AI-killer

De Europese Unie had de wereldwijde primeur met haar voorstel voor het eerste wetgevingskader voor artificial intelligence. Het voorstel voorziet in geharmoniseerde richtlijnen en moet volgens de EU een oplossing bieden voor de inherente risico’s van AI.

De ontwikkeling van dit wetgevingskader bevindt zich nog in een uiterst pril stadium. Maar de toon is gezet. Volgens Brussel moet de EU “als één man” optreden om mee te liften op de “vele kansen die AI biedt en obstakels daarmee op een toekomstbestendige manier op te lossen”. Dit vraagt om het bevorderen van de ontwikkeling van AI en het krijgen van grip op de “potentiële hoge risico’s” die dit oplevert voor de veiligheid en fundamentele rechten van burgers.

Ik ben een voorstander van het gebruik van AI. Ik help Europese organisaties in de publieke en private sector om deze technologie optimaal te benutten. Ik heb dan ook zo mijn mening over deze ontwikkeling. Ik kan het idee goed waarderen, maar tegelijkertijd begrijp ik het als sommige mensen deze voorgestelde wetgeving als obstakel voor vooruitgang zien. Want, laten we eerlijk zijn: de eerste regelgeving die organisaties niet een bepaalde mate van ongemak bezorgt, moet nog worden bedacht.

Een door de EU ontwikkeld regelgevingsstelsel voor AI kan volgens mij het beste worden gezien als een AI-variant van de General Data Protection Regulation (GDPR), in Nederland uitgevoerd als AVG. Deze algemene verordening is in korte tijd uitgegroeid tot de Europese en in veel opzichten ook wereldwijde benchmark voor databescherming. Eenzelfde ontwikkeling is niet ondenkbaar voor de regelgeving voor AI.

Het toenemende belang van ‘verantwoorde AI’

Het is cruciaal om nu al te investeren in wat we ‘responsible AI’ noemen. Bij AI draait het allemaal om vertrouwen. En dat vertrouwen ontbreekt bij de meeste mensen, omdat ze niet begrijpen wat de technologie precies doet. AI is voor hen een zwarte doos die mogelijk iets interessants doet. Dat is wat beangstigend voor mensen en ik zie het overal. Er zijn voorbeelden aan te wijzen waaruit blijkt dat AI een discriminerend effect kan hebben en mensen echt dupeert, bijvoorbeeld op het gebied van personeelswerving.

Vanuit de sector zullen we, om de acceptatie en het gebruik van AI te bevorderen, ook meer werk moeten maken van het uitleggen welke voorzorgs- en veiligheidsmaatregelen worden getroffen.

Organisaties daarentegen hebben wel degelijk oog voor het potentieel van AI. Ze zien in dat deze technologie hen kan helpen om hun klanten beter te begrijpen, kostenbesparingen te realiseren en nieuwe en innovatieve manieren van werken te ontwikkelen. Ze vertrouwen echter niet altijd op de aanwijzingen van hun data scientists, omdat er geen verplichting is om uit te leggen wat de AI precies doet.

Dit is precies datgene waarvoor regelgeving van de EU een oplossing zou kunnen bieden. En interessant genoeg draait het ook hier weer om data, net als bij de GPDR. Het gebruik van persoonsgegevens door conventionele bedrijfsapplicaties, zoals de marketingdatabase van een telecombedrijf die ten doel heeft om te voorkomen dat je op een andere aanbieder overstapt (preventie van klantenverloop), of een applicatie van een bank die je een beter product aanbiedt (upselling), loopt tegen weinig bezwaren aan. Dat wordt echter een heel ander verhaal als persoonsgegevens worden gebruikt door een AI-gedreven toepassing die gevoeliger ligt. Zoals een systeem dat bepaalt of iemand al dan niet in aanmerking komt voor een lening, een verzekeringspolis of medische zorg.

Dat is de grootste uitdaging die Europa nu heeft: waar worden je persoonsgegevens opgeslagen, wat gaan leveranciers van AI-oplossingen of aanbieders van clouddiensten daarmee in de toekomst doen en hoe kun je ervoor zorgen dat zij die data en de modellen waar die data is gebruikt wissen? In de kern gaat het om privacy, en het zou dus een bijzonder nuttige uitbreiding van de GDPR kunnen zijn. Met de GDPR proberen we om de vertrouwelijkheid van onze persoonsgegevens te waarborgen. In dit opzicht zijn we de Europese Commissie dus eigenlijk dank verschuldigd. Want als we nu overeenstemming kunnen bereiken over het juiste gebruik en beheer van persoonsgegevens in toekomstige AI-toepassingen, snijdt het de belangrijkste potentiële AI-killer de pas af: het vermoeden dat er misbruik wordt gemaakt van persoonsgegevens.

Het oppakken van het privacyvraagstuk op een verantwoorde manier kan de markt voor AI en machine learning juist een impuls geven. De AI-gemeenschap zou er bovendien ook erg gelukkig van worden dat er voorzieningen worden getroffen om te waarborgen dat AI bijdraagt aan een betere wereld, in plaats van het in stand houden van mogelijk de slechtste aspecten van AI. Hiervoor moeten organisaties en leveranciers wel samenwerken, bijvoorbeeld om minder betrouwbare modellen en datasets die aan discriminatie bijdragen te identificeren. Het uitlichten en elimineren daarvan kan het vertrouwen in de AI-sector ingrijpend verbeteren en een verantwoord gebruik van AI aanmoedigen. Uiteindelijk heeft iedereen daar baat bij.

De prijs die we graag voor vertrouwen over hebben

Dan nog de belangrijke vraag of een ‘GDPR voor AI’ innovatie in de weg staat. Bemoeilijkt een dergelijke regelgeving de ontwikkeling van AI-systemen, omdat er toezicht wordt gehouden op je AI-modellen en je data? Er zal immers aan de eisen van de regelgeving moeten worden voldaan. Hoeveel impact heeft dat en aan welke criteria moeten impactanalyses voldoen? Maar als dat de prijs is die organisaties moeten betalen om eenvoudiger en veiliger uiterst intelligente en nuttige systemen in te zetten, zal dat het vertrouwen alleen maar vergroten. AI zal in dat geval snel en op bredere schaal worden omarmd als een uiterst waardevol hulpmiddel voor het bedrijfsleven en de samenleving.

Ook voor H2O.ai is effectieve governance enorm belangrijk. We documenteren nauwgezet alles wat we doen en proberen de governance van onze datamodellen zo goed mogelijk toe te passen en uit te leggen. We hopen dat dit organisaties ertoe aanzet om te investeren in uitlegbare AI: transparante AI die op veilige wijze gebruikmaakt van klantengegevens en waarover organisaties eenvoudig verantwoording kunnen afleggen. Simpelweg omdat dat het juiste is om te doen. Voor hun klanten, voor de samenleving en voor henzelf.

Al met al is het initiatief van de EU dus eentje om met open armen te ontvangen, ook door de AI-sector. Het is belangrijk dat we nu al onze stem in de discussie laten horen en onze kennis bijdragen, en niet pas in een veel later stadium. Want ondanks de relatieve verwarring en het gebrek aan vertrouwen van dit moment zie ik toch ook het ontkiemen van werkelijk uitlegbare AI. Hoe cool is dat!

Door: Mark Bakker, AI Strategy Adviser EMEA bij H2O.ai, leverancier van AI-software

Terug naar nieuws overzicht