Scott Robbins: Koester realistische verwachtingen over AI

'AI moet saai zijn’

Scott Robbins
18-05-2021
Deel dit artikel:

Scott Robbins: Koester realistische verwachtingen over AI

‘AI moet saai zijn’, zegt Dr Scott Robbins over een technologie waar juist enorm veel hooggespannen verwachtingen, gebaseerd op fantasierijke voorstellingen, van bestaan. De potentie is groot, met name die van machine learning (ML), maar om er optimaal gebruik van te kunnen maken is het zaak er op een realistische manier naar te kijken. Dan kan bijvoorbeeld ML bruikbaar zijn in toepassingen als terrorismebestrijding.

“Artificial Intelligence (AI) spreekt al heel lang tot onze verbeelding”, zegt dr. Scott Robbins, Research Fellow, CASSIS, University of Bonn. “Wanneer we aan AI denken, denken veel mensen aan robots die alles kunnen wat wij ook kunnen. En uiteindelijk zullen zij partners worden, en op den duur zelfs slimmer zijn dan wij. Tenminste, dat moet de hype eromheen doen geloven. Maar als je je echt in AI gaat verdiepen dan zijn de dingen die het goed doet behoorlijk saai."

Hij wijst erop dat AI bijvoorbeeld erg goed kan zijn in het categoriseren van afbeeldingen, zoals zoeken of er een kat op een foto staat. Of AI kan tekstanalyse uitvoeren om bepaalde woorden te vinden, of die tekst vertalen. “Ik wil niet zeggen dat vertalen saai is, het is eigenlijk heel spannend. Maar vergeleken met de verwachtingen over universele AI en ‘robots die de wereld overnemen’ is het nogal saai."

Deur openen
“We moeten niet vergeten dat robots pas heel recent hebben geleerd hoe ze een deur moeten openen. En dan kun je de robot nog steeds misleiden door de deurknop te veranderen. Het is niet zo spannend als in een science fiction-film. Overigens vind ik het ook belangrijk dat AI juist saai is. We kunnen het veel effectiever gebruiken om bedrijven te helpen, of het onderwijs, of het gebruiken bij terrorismebestrijding.”

"Dan bedoel ik niet AI-terroristen opsporen, voordat ze zelf weten dat ze terroristen zijn, om ze vervolgens uit te schakelen. AI kan bij uitstek de saaiere taken uitvoeren die nodig zijn om erachter te komen of iemand een tekst heeft geschreven waarin staat dat hij iets slechts gaat doen. Dat is niet echt spannend werk voor mensen, en AI kan het ook nog eens veel sneller."

Machine learning
“AI die echt veelbelovend is, is machine learning. Wat voor mij nieuw is aan deze variant van AI dat we voor het eerst de machine niet alleen vertellen iets te doen om een foto te labelen of een tekst te vertalen, maar dat we die machine laten kiezen. Ik gebruik ‘kiezen’ onder voorbehoud, ik denk niet dat machines daadwerkelijk kiezen, maar ze bepalen wèl welke overwegingen tot een bepaalde output leiden. Dus in plaats van de machine te vertellen dat we alle dieren met twee oren en snorharen op foto’s ‘katten’ noemen, zeggen we: vertel me maar op welke foto's katten staan.”

Hij benadrukt dat het hiermee niet zijn bedoeling is om AI te antropomorphiseren. “Maar welke overwegingen er ook worden gebruikt, uiteindelijk resulteert dit in output. Wij weten niet hoe dit resultaat tot stand komt. Alleen de machine is daarvoor verantwoordelijk. Dus dat is voor mij het nieuwe aspect aan machine learning. En daarom is er veel opwinding maar ook angst over de potentie van deze technologie.”

Terrorismebestrijding
In zijn recent verdedigde proefschrift gaat hij dieper in op het gebruik van AI in terrorismebestrijding. “Ik heb dit voorbeeld gebruikt om een aantal ethische kwesties met betrekking tot AI, en dan vooral machine learning, naar voren te brengen bij inzet ervan door de staat. Terrorismebestrijding is dan een goed voorbeeld, omdat we dan te maken hebben met een context waarin niemand wil dat terrorisme plaatsvindt. We hebben er dus allemaal veel voor over om een terroristische aanslag te voorkomen. En het is een terrein waar machine learning op zijn minst intuïtief lijkt te kunnen helpen.”

“In het kader van dit voorbeeld stel ik de vraag wat de ethische richtlijnen zouden moeten zijn, en hopelijk vertaalt dat zich in de wettelijke vereisten voor het gebruik van deze technologie. En nog belangrijker, waar komen alle gegevens vandaan om deze algoritmen te trainen? En hoe wordt dit verzameld, en gebeurt dat verantwoord? Een probleem met toezicht op het gebruik van machine learning door de staat zal er altijd zijn. Dus ik behandel in mijn onderzoek het hele spectrum, van de data om het algoritme te trainen tot en met het daadwerkelijke gebruik van het algoritme, en de context waarin we AI zouden moeten gebruiken. "

Wapenwedloop
“Machine learning bij terrorismebestrijding is een soort wapenwedloop, maar dan in het herkennen van potentiële terroristen. Want hoe identificeer je mensen? Hoe doe je dat op een ethische manier? Je wilt kunnen beoordelen of het algoritme effectief is of niet. Wanneer je begint te voorspellen wie een terrorist wordt lopen we tegen een aantal serieuze problemen aan. Want het zou ook een self-fulfilling prophecy kunnen zijn - door iemand aan te pakken op basis van een algoritme dat aangeeft dat het een potentiële terrorist is."

“Ik begrijp heel goed dat we informatie moeten verzamelen om te weten waar we onze surveillance-activiteiten op moeten richten. Maar als we het hebben over het daadwerkelijk aanwijzen van mensen, vooral op het gebied van terrorismebestrijding, zou het uiteindelijk als gerechtvaardigd kunnen worden beschouwd om deze mensen te doden als we echt geloven dat ze een terroristische aanslag gaan plegen. Maar als iemand dood zou gaan alleen omdat een algoritme ze een bepaald label geeft, en dat was de enige rechtvaardiging, dan is dat duidelijk in strijd met onze liberale democratische principes."

Tekstuele intelligentie
“Maar op het gebied van terrorismebestrijding wil ik niet te negatief klinken. Er is namelijk veel tekstuele intelligentie nodig om onderzoek te doen in zaken als e-mails en internetzoekgeschiedenis. En er zijn veel telefoontjes die in verschillende talen worden gevoerd. Er is veel propaganda online. Er staan veel posts op sociale media. Je kunt niet 100.000 analisten fulltime aan het werk zetten omdat allemaal te lezen. Er zijn dus zeker gebieden waar machine learning ons kan helpen, zodat we onze beperkte middelen effectiever kunnen inzetten."

“Een probleem is wel dat er niet veel gegevens zijn over de bestrijding van terroristische aanslagen. De gegevens die we hebben zijn al oud. ISIS was interessant omdat ze digitale technologie gebruikten zoals terroristen dat nooit eerder hadden gedaan. Maar bij de bestrijding gebruikten we informatie die we nog hadden over het Rode Leger en de IRA uit de jaren 60 en 70. Dat was gewoon niet de juiste dataset. Voor dergelijke doeleinden moeten we AI kunnen trainen."

Zinvolle menselijke controle
Zijn huidige onderzoek richt zich op het concept van zinvolle menselijke controle, meaningful human control. “Dit heeft te maken met zaken als controleverlies, bijvoorbeeld wanneer jou een lening wordt geweigerd door AI. Wie heeft de controle als een bedrijf zich verdedigt met ‘het algoritme zegt nee’? Je hebt zelf niet het gevoel dat je daar controle over hebt, omdat je het niet kunt veranderen. Zelf hebben ze evenmin controle omdat ze het niet kunnen omdraaien, want ze weten niet eens waarom de beslissing überhaupt gemaakt is. Dit wordt soms de responsibility gap genoemd. Daarom is zinvolle menselijke controle belangrijk. Ik wil eraan bijdragen dat we allemaal mens kunnen zijn in deze steeds meer geautomatiseerde wereld."

Door: Scott Robbins

Terug naar nieuws overzicht

Tags

ai