Floris Hulshoff Pol - 28 januari 2023

Hoe hou je controle op je data in het AI-tijdperk?

Hoe hou je controle op je data in het AI-tijdperk? image

Zaterdag 28 januari is het Data Protection Day. Met de snelle opkomst van en aandacht voor AI-tools als ChatGPT is het extra belangrijk dat rekening wordt gehouden met data privacy en -protectie. Artificial Intelligence is alleen maar artificial - of intelligent - omdat het leert van de gegevens die wij erin stoppen. Dus wat leren we AI zodat het intelligent genoeg is om ons te helpen, maar niet intelligent genoeg dat het meer problemen creëert dan het oplost?

ChatGPT is inspirerend, maar er zijn ook grote zorgen over wat het leert. Het is nog maar zes jaar geleden dat Microsoft’s Tay-chatbot na 16 uur werd stilgelegd vanwege het napraten van opruiende en aanstootgevende inhoud van Twitter-gebruikers. Waarom deed Tay dat? Omdat zijn dataset vervuild was en de context ontbrak. Als we willen dat ChatGPT anders is, moet rekening worden gehouden met data privacy.

Nathan Howe, Vice President of Emerging Tech and 5G bij Zscaler, deelt hoe belangrijke gegevens veilig gehouden kunnen worden ten tijde van oprukkende AI-tools.

Howe: “Met het niveau van automatisering van tegenwoordig, kun je de controle over jouw eigen gegevens verliezen zodra je iets op internet plaatst. Of het nu gaat om een Instagram-post of het bewaren van assets in de cloud. Iemand kan het kopiëren, een ChatGPT-programma kan het leren, en dat is het. Om dit te vermijden is het essentieel om onze gegevens beter te categoriseren en om controles rond onze gevoelige data te plaatsen.”

“Een AI-tool zoals ChatGPT moet verteld worden wat privé informatie is en wat niet - of dat nu gaat om een naam, een telefoonnummer, persoonlijke documenten of zelfs afbeeldingen. We staan op een keerpunt waar organisaties niet langer hun data allemaal op dezelfde manier kunnen blijven classificeren. Om de kracht van AI op een juiste en veilige manier in te zetten moet data verder worden gecategoriseerd dan alleen privé versus openbaar. Het moet een diepere segmentering krijgen - zijn de gegevens openbaar, privé, persoonlijk, identificeerbaar, vertrouwelijk? Zonder dit onderscheid kunnen de tools die we gebruiken dit niet begrijpen en wordt het risico op het verkeerd gebruiken van informatie, naarmate tools intelligenter worden, alleen maar groter”, aldus Howe.

Laten we niet vergeten dat ChatGPT slechts één voorbeeld is. Er zijn niet alleen concurrenten, maar ook veel andere modellen die vergelijkbare datasets verzamelen voor duisterder gebruik. Deze enorme focus op ChatGPT kan eng zijn, maar als het betekent dat meer mensen heroverwegen hoe ze omgaan met privacy als het om hun gegevens gaat, dan is dat alleen maar goed.