Artificial Intelligence en ChatGPT - de kansen en de risico's

NARIM is de Nederlandse beroepsorganisatie voor Risk en Insurance Managers. Belangrijke taken zijn belangenbehartiging, een plek om te netwerken en kennisdeling. Zo heeft de brancheorganisatie een aantal kenniscentra die op regelmatige basis kennissessies organiseren voor de leden. Eind oktober kwamen de leden bijeen voor de Algemene Ledenvergadering die gevolgd werd door twee lezingen over onderwerpen die werkelijk alle leden raken.

 

De VNAB praatte de leden bij over Contract Zekerheid en de Co-polis, waarna Mark Snel, Chief Information Security Officer bij Signify, inging op de kansen en risico's van Artificial Intelligence (AI) in het algemeen en ChatGPT in het bijzonder. De middag werd afgesloten met een gezamenlijke borrel waar alle gelegenheid was om te netwerken.

 

Mark Snel is Chief Information Security Officer bij Signify (© Cindy van der Helm)

 

Mark is cybersecurity-expert en startte zijn betoog met de vraag wie van de aanwezigen gebruikmaakt van AI. Daarop liet hij zien dat niet een handvol leden, maar alle leden dagelijks met AI te maken hebben. Iedereen gebruikt immers Google search en Netflix.

“AI is niet nieuw. AI bestaat al sinds 1955 en is niet meer weg te denken uit ons leven. De opmars van AI brengt absoluut risico’s met zich mee, maar biedt mensen en organisaties zeker ook kansen”, zo stelt hij. Het werk wordt volgens Mark namelijk zoveel gemakkelijker als je gebruikmaakt van generatieve AI zoals machine learning. En hij kan het weten, want dat is wat Signify volgens hem al geruime tijd doet.

 

Machine learning

Mark liet zien wat generatieve AI is en hoe het werkt. Als voorbeeld haalde hij ChatGPT aan. ChatGPT is een sophisticated chatbot dat gebruikmaakt van machine learning. De chatbot analyseert miljoenen data en gebruikt die data om vragen te beantwoorden. In tegenstelling tot artificial intelligence die antwoorden begrijpt, begrijpt ChatGPT volgens Mark de antwoorden niet. De bot weet daarentegen wel wat naar alle waarschijnlijkheid het juiste antwoord is. Het is lerend en zal wellicht ooit de vraag, het antwoord en de context begrijpen, maar nu nog niet.

“ChatGPT wil echter, net zoals artificial intelligence, graag antwoord geven op vragen en daarom is het risicovol”, aldus Mark. Hij staaft zijn bewering met een beroemde rechtszaak waarbij een advocaat gebruikmaakte van ChatGPT door de chatbot drie rechtszaken te vragen, die als referentie kunnen dienen om zijn pleidooi te onderbouwen. “Er waren echter nog maar twee eerdere zaken die in het kader van de precedentwerking konden worden aangevoerd. Als een klein hondje dat een bot wil, verzon ChatGPT een derde rechtszaak die zo geloofwaardig klonk dat de zaak als precedent door de advocaat werd ingebracht. Dit liep natuurlijk niet zo best af.”

 

Kansen en risico’s

Als je zelf niet heel goed na blijft denken kan artificial intelligence dus best risicovol zijn, aldus Mark. Maar aan de andere kant kan het ook heel kansrijk zijn, wat toegelicht werd aan de hand van de werking van Netflix. Netflix maakt gebruik van machine learning, waarbij de machine leert van zijn eigen fouten. Als kijker krijg je een aantal films en series voorgesteld, gebaseerd op jouw eerdere kijkgedrag. Hoe vaker je kijkt, des te beter de suggesties. De machine weet na verloop van tijd bijvoorbeeld op welke momenten je doorgaans naar Netflix kijkt en in welke stemming je dan bent. Sinds begin dit jaar veranderen op basis van het kijkgedrag de thumbnails zelfs per kijker. Met de vragen ‘Vind je dit beangstigend? Of vind je het mooi dat je goede suggesties voorgeschoteld krijgt?’ zette hij de zaal aan het denken.

ChatGPT is een vorm van generatieve AI en baseert alle antwoorden op data van vóór 2021. Generatieve AI wil zeggen dat deze vorm van AI databronnen kan combineren. Als voorbeeld nam hij de LinkedInprofielen van alle aanwezigen. “Stel dat ik ChatGPT vraag om een profiel te geven van een risk & insurance manager, dan neemt hij alle data die jullie in LinkedIn hebben gezet en maakt er een geweldig profiel van.”

Op de vraag vanuit de zaal hoe je de bias uit het systeem krijgt, gaf hij aan dat wij met elkaar het systeem voeden met informatie die wij beschikbaar stellen. En daar zit een goede en een slechte kant aan. Goed zijn al die antwoorden die je gemakkelijk vanuit ChatGPT kan krijgen. Slecht is bijvoorbeeld deep fake. Je kan nu namelijk foto’s laten maken die niet van echt te onderscheiden zijn. En met een paar seconden van iemands stem kan je hele gesprekken nabootsen die niet van echt te onderscheiden zijn. Ga jij dan maar eens na of degene die jou belt daadwerkelijk is wie hij zegt te zijn. Daarom adviseert Mark om binnen afzienbare tijd een soort van codewoord met familieleden en bekenden af te spreken, om elkaar te kunnen identificeren.

 

Signify en ChatGPT

Ten slotte vertelde Mark over de aanpak van Signify met betrekking tot ChatGPT. Toen Signify ontdekte dat er wereldwijd door tal van bedrijven data gelekt wordt via ChatGPT, werd het gebruik van de bot voor de zekerheid door Signify verboden. Totdat het duidelijk werd dat Signify ingevoerde data publiekelijk gebruikt en dat je dat als bedrijf kunt omzeilen. Om daar te komen werd er een taskforce opgericht om te kijken naar risico's en veilige oplossingen. Een van de belangrijkste topics was de juridische kant van de discussie. Bij Signify, wereldleider in connected LED-verlichtingssystemen, software en services, kan je als consument zelf online lampen ontwerpen en met een 3D-printer laten printen. “Als we met behulp van ChatGPT iets laten creëren, wie is dan de patenthouder? Is dat Signify of ChatGPT? Dat was onze discussie. Want ook al hebben we richtlijnen, niet iedereen houdt zich daaraan. En wij zagen een risico in het lekken van vertrouwelijke data. We hadden immers geen controle over ChatGPT.”

 

De oplossing

ChatGPT is – net als het Google-zusje Bard – een gratis te gebruiken, online chatbot. Alles wat ChatGPT produceert is gebaseerd op data die anderen er ooit in hebben gestopt. Al die data worden openbaar, dus met de gehele wereld, gedeeld. Op het moment dat iemand een vraag stelt aan ChatGPT, of ChatGPT voedt met informatie om een beter antwoord te krijgen, dan wordt die nieuwe informatie ook opgeslagen én gebruikt voor alles en iedereen. Wat betekent dat informatie die eigenlijk vertrouwelijk is, ook beschikbaar komt voor de gehele wereld. Tenzij… je een bedrijfsaccount neemt. Of een ChatGPT-engine laat draaien binnen je eigen cloud-omgeving. En dat is wat Signify heeft gedaan.

“Zo’n bedrijfsaccount is niet gratis, maar daarmee bescherm je wel de door jou ingevoerde informatie. Er worden namelijk technische maatregelen genomen en daarnaast wordt contractueel vastgelegd dat alle vragen en antwoorden in die omgeving blijven. Die data zijn en blijven dus van ons. En zo zie je een tweewegaanpak: wij voeden ons AI-model waar we ChatGPT voor gebruiken met data, ons model leert van alle input en gegeven antwoorden en wij leren op onze beurt weer van het model.”

 

Voor het goede en het kwade

Mark besloot zijn betoog met de vraag wat ieders zorgen zijn als het gaat om AI. “Werden we met z’n allen paniekerig toen we een mobiele telefoon kregen met e-mail- en opslagmogelijkheden, waardoor bedrijfsgevoelige informatie letterlijk het gebouw kon verlaten? Dit is hetzelfde.

Let wel, aanvallers gebruiken AI. Een goed ding is: als aanvallers AI gebruiken om nepdingen te doen, dan kunnen wij AI gebruiken om dat te ontdekken. Je kan AI dus voor het goede en voor het kwade gebruiken.”

 

Het gaat volgens Mark om het balanceren van de potentiële risico’s enerzijds en de kansen anderzijds. Als we AI goed opvoeden, kan het volgens hem wereldproblemen oplossen, want AI acteert op feiten. Niet op macht of terrein. Samenwerken met AI om er een betere wereld van te maken, daar gelooft Mark in. En we staan volgens hem pas aan het begin.

 

Kennis is macht

“Kennis is macht. Als je nu nog geen ChatGPT gebruikt, dan wordt het tijd dat je het gaat gebruiken. Met zorg, uiteraard, door geen vertrouwelijke data te delen. Je hoeft de chatbot echt niet dagelijks te gebruiken, maar het zou je werk wel vergemakkelijken en het zou je veel tijd besparen, want je kan bijvoorbeeld snel e-mails en presentaties maken. Maar het allerbelangrijkste is wel dat je nog steeds goed je hersens moet gebruiken. Want het is een krachtige tool, maar we zijn er nog niet helemaal. Want ook ChatGPT kan fouten maken, mede door foute input van anderen. Maar als je je gezonde verstand blijft gebruiken, dan kan je er veel baat bij hebben. Zeker als je – zoals wij gedaan hebben – je eigen omgeving aanschaft.”

 

Helaas, op de vraag wat NARIM is, daar weet ChatGPT geen antwoord op. Nog niet. Want als NARIM maar hard genoeg aan zijn eigen zichtbaarheid blijft werken en als ChatGPT voldoende heeft geleerd, dan komt er een dag dat ChatGPT dat antwoord op die o zo belangrijke vraag wél weet.

 

De presentatie van Mark Snel is voor leden te downloaden (via het ledendeel van de NARIM-site).


« vorige pagina         meer nieuws »