‘Responsible AI’ is nodig voor vertrouwen in AI gedreven autonome systemen
23-02-2018 | door: Blog
Deel dit artikel:

‘Responsible AI’ is nodig voor vertrouwen in AI gedreven autonome systemen

De sterke groei van Artificial Intelligence en slimme algoritmes maken dat technologie - in bijvoorbeeld de robotica - steeds beter in staat is zelfstandig te leren en daarmee ook meer autonoom gaat opereren. Zelflerende AI roept veel vragen op en vraagt om goede randvoorwaarden, ook wel ‘Responsible AI’ genoemd.

Bovenstaande stelling vormde de aftrap voor de discussie die ik samen met Colin Nugteren van Notilyze leidde tijdens RoboCafé, met als thema Robots meets data science. Het RoboCafé is een initiatief van RoboValley. Het doel is om robotic-wetenschappers samen te brengen met experts, ondernemers en beslissers uit het bedrijfsleven en de publieke sector die zich bezighouden met data science, data analytics en bots.

Praktische toepasbaarheid

Veel mensen hebben nog weinig vertrouwen in AI en de bijbehorende geautomatiseerde besluitvorming. Als bijvoorbeeld AI wordt gebruikt om aanvragen voor credit checks te evalueren op basis van tekstherkenning en/of image recognition, hoe kunnen aanvragers dan verzekerd zijn van een eerlijke en onpartijdige beoordeling? Hoe kunnen we erop vertrouwen dat  AI niet gevoelig is voor fouten in de data, fouten in de geautomatiseerde beoordeling of voor foutief getrainde algoritmes? Ze kunnen worden aangepakt door de juiste implementatie van ‘responsible’ AI, zonder dat dit een belemmering vormt voor de verdere ontwikkeling of innovatie van AI.

Vertrouwen

Willen data scientists, eindgebruikers en regelgevers zich prettig voelen bij de nieuwste AI en robotica, dan moeten statistische modellen en beslissingen zo betrouwbaar mogelijk zijn. Data scientists maken modellen met een hoge nauwkeurigheid en willen ook de werking van het model begrijpen zodat ze de bevindingen met de doelgroep kunnen communiceren. Zo willen eindgebruikers graag weten waarop beslissingen uiteindelijk zijn gebaseerd en of deze betrouwbaar zijn. En regelgevers willen eindgebruikers zoveel mogelijk beschermen door te eisen dat beslissingen en modellen eerlijk en transparant zijn. 

AI by-design

De uitdaging is dus om uit te zoeken wat de beste manier is om te innoveren en tegelijkertijd oplossingen en producten te ontwikkelen die betrouwbaar en transparant zijn. 

Tijdens de discussie In het RoboCafe kwam hoofdzakelijk naar voren dat juist de ontwikkelomgeving van AI-technologie zo betrouwbaar mogelijk moet zijn. Dat wil zeggen dat AI-technologie ‘by-design’ veilig moet zijn en privacy zou moeten waarborgen. Daarbij zou de technologie makkelijk hanteerbaar moeten zijn om te kunnen experimenteren en tegelijkertijd de mogelijkheid moeten bieden om het te introduceren en gebruiken in de praktijk. Als ieder AI-systeem gebruikmaakt van transparant databeheer, transparante modellen en heldere implementaties van analytics kunnen we ons leven echt verbeteren door middel van AI.

Door: Mark Bakker (foto), Data Strategist bij SAS

Terug naar nieuws overzicht