Wouter Hoeffnagel - 26 september 2019

Algoritmes bieden kansen voor toezichthouders

Automatische en zelflerende algoritmen rukken steeds verder op in de samenleving. De toepassing ervan gaat nog wel eens mis, getuige nieuwsberichten en politieke discussie over autonome overheidsbesluiten die door het gebruik van eenzijdige data tot discriminerende keuzes leiden. Vooral toezichthouders liggen onder vuur. Compleet vergeten wordt dat het gebruik van algoritmes kansen biedt voor het werk van toezichthouders. Een groep experts publiceert onder de vlag van ECP | Platform voor de InformatieSamenleving de essay ‘Toezicht met algoritmen'. Daarin is een praktijkanalyse opgenomen die toezichthouders helpt artificial intelligence (AI) verantwoord in te bedden in hun beroepspraktijk en daarbij nauwlettend de vinger aan de pols te houden.

AI heeft de afgelopen jaren een vlucht genomen door de combinatie van snelle technische ontwikkelingen en de beschikbaarheid van grote hoeveelheden digitale data. AI biedt onder andere nieuwe kansen voor het uitvoeren van toezicht. Daartegenover staat dat de inzet van technologie die meer doet dan het optimaliseren van goed beschreven processen, onbedoelde en onverwachte gevolgen kan hebben. Dat is het geval bij AI-technologie.

Werk aan de winkel

Het essay ‘Toezicht met algoritmen' biedt de helpende hand. De auteurs laten zien dat er werk aan de winkel is voor toezichthoudende instanties om AI op een verantwoorde manier te implementeren in de toezichtspraktijk. Daarbij geven zij aan dat het ook nodig is om de vinger aan de pols te houden, omdat de eigen organisatie en werkprocessen gaandeweg zullen veranderen. Ook worden bij de implementatie van nieuwe technologie fouten gemaakt die hersteld moeten worden en zal de integriteit van data en besluiten bewaakt moeten worden, om ongewenste neveneffecten te voorkomen.

Aan de hand van drie casussen geven de AI-experts in de essay concrete handvatten. Achtereenvolgens worden het opsporen en aanpakken van witwassen, het toezicht in het verkeersdomein aan de hand van toekennen en afhandelen van boetes, en de verhouding tussen burger en overheid door de experts praktisch uitgewerkt.

Implementatie van AI wordt onderschat

De expertgroep signaleert dat toezichthoudende instanties de implementatie van AI-systemen onderschatten. Zij stelt dat implementatie veel meer vergt dan alleen het ‘inpassen' van een nieuwe technologie in de organisatie. Zo brengt AI bijvoorbeeld veranderingen met zich mee in de organisatie en in de primaire processen. Het kennis hebben van wat AI-technologie kan en doet, en wat de sterke en zwakke kanten zijn is onmisbaar voor een verantwoorde toepassing en implementatie van AI-systemen, aldus de experts. "Dat geldt ook voor het delen van ervaringen en het voeren van gesprekken over achterliggende ethische en juridische waarden tussen toezichthoudende instanties onderling", aldus Daniël Frijters, programmamanager bij ECP – een publiek-privaat platform voor de informatiesamenleving.

Probleem is echter dat wet- en regelgeving rondom de inzet van nieuwe technologie als AI niet voldoende kaders biedt. Dat brengt onzekerheid met zich mee voor de partij die AI wil gaan inzetten, maar ook voor de toezichthouder zelf. In zo'n situatie stellen de experts voor om eenzelfde aanpak te kiezen als de Belastingdienst doet met de ‘compliance' benadering. "In dergelijke situaties is het belangrijk om gezamenlijk verkennend te zoeken naar wat techniek wel en niet mag en wat wenselijk is. Samen met bedrijven ontdekt de toezichthouder waar de ethische en juridische grenzen liggen en hoe wet- en regelgeving kan worden toegepast in nieuwe en specifieke situaties."

Vinger aan de pols

De experts schrijven dat een blind geloof in AI-technologie niet zaligmakend is. Aan de hand van het praktijkvoorbeeld 'Opsporen en aanpakken van witwassen' laten zij zien dat burgers onevenredig getroffen kunnen worden. Zo zet de roep van toezichthouders om steeds meer informatiebronnen te mogen koppelen de privacy van burgers onder druk. Ook blijkt een blind geloof te leiden tot automatische besluiten die niet te herleiden en moeilijk aan te passen zijn, zoals zichtbaar wordt in de casus ‘Toezicht in het verkeersdomein'.

Vaak wordt met de beste bedoelingen gestreefd naar efficiency. De AI-experts laten zien dat dit ook zijn keerzijden heeft. De rol van de toezichthouder ten opzichte van de partij waarop toezicht wordt uitgeoefend, verandert. Vaak gebeurt dat onderhuids, onbewust en onverwacht. Een voorbeeld van de Kafkabrigade laat pijnlijk duidelijk zien wat dat betekent voor de burger. Frijters: "De toepassing van AI biedt veel kansen voor toezicht, maar daarvoor is maatschappelijk draagvlak nodig. Dat vraagt om transparantie en een goede doordenking van het toepassing van AI. Er is dan ook werk aan de winkel voor toezichthouders. Ons essay helpt hen daarbij."

Impact Assessment

Het vandaag gepubliceerde essay is geschreven door dezelfde expertgroep die eind 2018 het AI Impact Assessment heeft gepubliceerd, omdat zij toen al maatschappelijke en politieke onrust signaleerde. Het impact assessment is speciaal ontwikkeld voor organisaties die hun verantwoordelijkheid willen nemen en AI verantwoord en transparant willen toepassen.

In het kader van de Haagse week van het Algoritme neemt Saskia Bruines, wethouder kenniseconomie en innovatiebeleid, het essay in ontvangst. Tijdens deze week, van 24 september tot en met 5 oktober, bespreken inwoners, ondernemers, studenten en ambtenaren wat algoritmen zijn en wat de voor- en nadelen van algoritmen en AI kunnen zijn. Specifiek is er aandacht voor transparantie en ethische en juridische afspraken rondom de toepassing en inzet van AI door de overheid. De gemeente organiseert de Haagse Week van het Algoritme om de kennis en het bewustzijn over het gebruik van algoritmes te vergroten bij inwoners, bedrijven en medewerkers. Het vergaren van nieuwe kennis over dit onderwerp is daarom van belang.

Trend Micro BW BN week 10-11-13-14-2024 Copaco | BW 25 maart tm 31 maart 2024
Trend Micro BW BN week 10-11-13-14-2024