Ethisch omgaan met AI

Thales Group

10-04-2019 | door: Redactie

Ethisch omgaan met AI

Vorig jaar was de Canadese computerwetenschapper Yoshua Bengio nog te gast in het VPRO-programma The Mind of the Universe, waar hij sprak over de werking van de menselijke hersenen en de opkomst van intelligente computers. Afgelopen maand sprak hij tijdens een bijeenkomst over AI in Montreal met Patrice Caine, CEO van de Thales Group, over de ethische aspecten van kunstmatige intelligentie toepassingen.

Thales is een van ’s werelds grootste specialisten op het gebied van technische oplossingen voor lucht- en ruimtevaart, transport, defensie en beveiliging. De toepassing van AI is cruciaal om in al deze sectoren sneller en beter onderbouwd beslissingen te kunnen nemen, meent Caine. “Maar als we onze beslissingen baseren op geautomatiseerde analyses en processen, moeten we er wel voor zorgen dat deze systemen hun werk kunnen verklaren en verantwoorden.”

“We moeten er rekening mee houden dat wat we nu AI noemen in feite nog heel dom is. Het heeft maar een heel erg oppervlakkig begrip van de wereld om ons heen”, zegt Bengio. Naarmate AI complexer wordt en meer data en databronnen gaat gebruiken om beslissingen op te baseren, wordt het belangrijker dat AI zich kan verantwoorden. Zeker als het gaat om beslissingen die ingrijpende gevolgen kunnen hebben, moeten we erop kunnen vertrouwen dat AI ethisch verantwoorde beslissingen neemt, vindt Caine. Hij noemt dat ‘a priori trust’: “Artificial Intelligence is afhankelijk van data. Als die data bevooroordeeld of onzuiver is, kunnen de resultaten ook gekleurd of zelfs gevaarlijk zijn.”

Actuele toepassingen
Een goed voorbeeld zijn toepassingen die gebruikmaken van Thales Martello, een oplossing waarmee Thales heel gericht toegang kan geven (en afnemen) tot gevoelige informatie van allerlei diensten en instanties. “Data die gewoonlijk volgens de wet moet worden afgeschermd, mag onder bijzondere omstandigheden alsnog worden gedeeld”, vertelt Mike Balm, directeur New Business bij Thales Nederland. Bij levensbedreigende situaties, misdrijven of terroristische dreigingen kan AI met behulp van deze data snel onmisbare hulp bieden. Daarbij is het wel cruciaal rekening te houden met de betrouwbaarheid van de data waarmee de AI wordt gevoed.

Gerben Edelijn, CEO Thales Nederland, beschouwt dit als een grote verantwoordelijkheid voor zijn organisatie: “Als de kunstmatige intelligentie van Spotify mij een keer verkeerde muziek aanraadt, is dat hooguit irritant. Maar als het gaat om leven en dood, moeten we heel goed weten hoe de algoritmes van dit soort systemen in elkaar zitten en op welke basis ze ons helpen in onze besluitvorming.”

Ook vervoersoplossingen op basis van MaaS (Mobility as a Service), waarbij AI gegevens van diverse vervoersdiensten gebruikt om mensen sneller en efficiënter van A naar B te krijgen, zijn gebaat bij transparantie. Thales Marketing Manager Mathijs Voorend gelooft dat MaaS-toepassingen op termijn het gebruik van auto’s in stedelijke gebieden sterk kan terugdringen. “Hoe meer reizigersinformatie we dankzij AI kunnen koppelen, hoe beter we in staat zullen zijn vervoersstromen te managen, zodat we de openbare ruimte veel effectiever kunnen benutten.” Vervuiling, congestie en zelfs criminaliteit worden veel beter beheersbaar als verkeer actief kan worden gestuurd, maar voor het vertrouwen in dergelijke oplossingen is het wel goed dat openheid wordt gegeven over de werking van de achterliggende algoritmes.

Een Charter voor AI
Onder meer op Europees niveau wordt momenteel gewerkt aan richtlijnen voor het gebruik van AI, maar Thales CEO Patrice Caine vindt dat zijn organisatie daar niet op mag wachten. Nog dit jaar komt Thales daarom met een charter over ethiek en digitale transformatie: een document waarin de ethische en morele grenzen zijn vastgelegd waarbinnen het gebruik van AI zich kan ontwikkelen. Het charter draait volgens Caine om “vertrouwen in wat AI doet en hoe het werkt, waakzaamheid rond de ethische impact van AI op de toepassingen die wij leveren, en beleid waarmee we ethische overwegingen een centrale plaats geven in al onze beslissingen.”

Yoshua Bengio denkt dat het belangrijker is te discussiëren over ethisch verantwoorde toepassingen van AI, dan te proberen de ontwikkeling af te remmen. Zijn angst is dat mensen (of regimes) met minder goede bedoelingen, toepassingen voor AI gaan bedenken waar we ons niet goed tegen kunnen verweren, zoals drones die met behulp van gezichtsherkenning gericht aanslagen plegen op specifieke personen. Hij is dan ook blij met elk initiatief dat internationale samenwerking en coördinatie bevordert: “Als we zorgen dat we snel meer kennis en ervaring opbouwen, kunnen we ons beter beschermen tegen de negatieve kanten van AI en tegelijk met een gerust hart gebruik gaan maken van de voordelen.”

Door: Redactie 

Terug naar nieuws overzicht