Redactie - 25 februari 2018

'Ontsporende AI-algoritmes leveren risico's op'

In nieuw rapport wijzen 26 onderzoekers van 14 verschillende organisaties op de gevaren van AI-algoritmes, als die in verkeerde handen terecht zouden komen. Ze geven ook een reeks aanbevelingen die de risico's op ontsporing moeten beperken.

Een eerste gevaar dat de wetenschappers behandelen is het fenomeen van de 'deepfakes'. Een machinelearning-methode waarmee de gezichten van Hollywood-actrices op een geloofwaardige manier op de lichamen van pornoactrices worden geplaatst. De toepassing kwam tot stand op basis van open-source-materiaal dat afkomstig is van Google's AI-ontwikkelaars.

Fake Trump

Volgens het rapport kunnen criminelen dergelijke methodes toepassen voor nog veel zorgwekkendere doeleinden. Denk bijvoorbeeld aan nepfilmpjes over wereldleiders. Als er morgen zo'n video zou opduiken waarin president Trump de oorlog verklaart aan Noord-korea, zouden de gevolgen immens kunnen zijn.

Maar het kan ook omgekeerd, want ook autoriteiten zouden AI kunnen inzetten om een ongeziene vorm van controle, onderdrukking en propaganda uit te oefenen op hun bevolking. Want zodra slimme algoritmes aan de slag kunnen met uitgebreide persoonsgegevens van mensen, zijn de mogelijkheden eindeloos.

Killerbots en IoT

Cybercriminaliteit is ook een enorme potentiƫle dreiging in combinatie met AI. Slimme software kan namelijk op enorme grotere schaal schade aanrichten met georganiseerde hacking-aanvallen. Op het Wereld Economisch Forum (WEF) begin dit jaar werd onlangs diezelfde mening gedeeld.

Daarnaast zien de onderzoekers vooral gevaren wat betreft Internet of Things-apparaten (IoT). Ze benadrukken dat slimme huizen die boordevol apparaten staan die verbonden zijn met het internet, een belangrijk doelwit vormen voor aanvallen. Als criminelen toegang kunnen krijgen tot slimme koelkasten of camera's, betekent dat bijvoorbeeld een schat aan informatie om te misbruiken. Het rapport vernoemt ook specifiek zelfrijdende wagens.

Verder waarschuwen de wetenschappers ook voor AI-intelligente wapens en drone-invasies. Vorig jaar uitten verschillende CEO's en experts van robots ook al hun bezorgdheid omtrent zogenaamde slimme 'killer robots'.

'Enkel licenties voor betrouwbare AI-ontwikkelaars'

Ten slotte geven de wetenschappers een reeks aanbevelingen die ons beter moeten leren omgaan met AI. Zij stellen voor om het gebruik van AI-technologie te laten monitoren door een onafhankelijk orgaan, zodat alle informatie gecentraliseerd wordt. Vervolgens zouden er dan alleen licenties uitgedeeld worden aan betrouwbare ontwikkelaars.

Daarnaast overweegt het 100 pagina's tellend rapport ook de implementatie van verschillende niveaus van openheid omtrent AI-software. Niet elke instantie zou dezelfde mate van toegang moeten krijgen op informatie en materiaal dat met AI te maken heeft.

De wetenschappers verwachten binnen de vijf jaar een grote verhoging van de risico's, als de technologie nog verder geƫvolueerd is. Volgens hen is het nu aan de politiek om ons voor te bereiden, en de nodige limieten op te stellen. "Er zijn maatregelen nodig op zowel internationaal, nationaal, als lokaal niveau", luidt de conclusie.

In samenwerking met Datanews

Copaco | BW 25 maart tm 31 maart 2024 Trend Micro BW BN week 10-11-13-14-2024
Copaco | BW 25 maart tm 31 maart 2024