Gisteren heb ik bij Bronkhorst een presentatie verzorgd over AI en ethiek. Welke risico’s kleven er aan (generatieve) AI en hoe kun je daar verstandig mee omgaan?
Geraldine Voost, Global Learning & Development Manager bij Bronkhorst, had mij gevraagd om over dit onderwerp een bijdrage te leveren tijdens een interne bijeenkomst van Bronkhorst over AI.
Ik heb gesteld dat (generatieve) AI kan fungeren als persoonlijk assistent van werknemers, en kan helpen hun werk cognitief te versoepelen door het ondersteunen bij tal van taken. Tegelijkertijd kleven er ook risico’s aan. Ethiek (zie Wikipedia) heb ik benaderd als kritische bezinning over het juiste handelen. Daarbij kun je onder meer kijken naar motieven, intenties, doelen en consequenties. Als je vanuit dit perspectief naar (generatieve) AI kijkt, verpest je dan het AI-feestje? Dat is de vraag.
Het is in elk geval wel belangrijk te erkennen dat AI niet neutraal is. Ik heb daarbij verwezen naar de opvatting van Luciano Floridi die het ontwerpen van elke technologie als een een morele daad beschrijft. Ontwerpers hebben volgens hem (op zijn minst enige) controle over de waarden die uiteindelijk bepalen (of net zo belangrijk: niet bepalen) wat voor soort dubbelgeladen technologie gebruikt zal worden en hoe. Daarmee bedoelt hij dat technologieën zowel positieve als negatieve mogelijkheden hebben. Sommige technologieën zijn echter primair bedoeld om kwaad te doen (denk aan een bajonet), anderen zijn primair bedoeld om goed te doen (zoals een broodmes). Je kunt met een bajonet echter ook positieve dingen doen (jezelf verdedigen), terwijl je met een broodmes ook iemand kwaad kunt doen. Belangrijk is echter het primaire uitgangspunt.
Maar hoe zit het dan met generatieve AI? AI heeft positieve en negatieve mogelijkheden. Zijn generatieve AI-toepassingen primair ontwikkeld om het goede te doen? Wat is de intentie van ontwerpers van generatieve AI? Wat mij betreft is daar geen helderheid over.
Vervolgens ben ik ingegaan op een aantal aspecten van generatieve AIO die juist om een kritische benadering vragen:
- De output van generatieve AI is niet altijd correct of zelfs onzin. Je weet ook niet zeker wat er met de data gebeurd die je er instopt. Verder hebben ontwikkelaars zonder toestemming gebruik gemaakt van content van derden zoals schrijvers, en bevatten de taalmodellen veel bias. Je moet dus de output van generatieve AI nog kritischer beschouwen en meer beschouwen als een ‘halfproduct’ dat niet zonder meer kan worden gebruikt.
- Generatieve AI kan ook worden gebruikt voor phishing en andere vormen van fraude (bijvoorbeeld via deepfake). Ook dat vraagt om een kritische houding ten aanzien van wat je leest, hoort en ziet.
- Het gebruik van generatieve AI vergt ook veel energie. Wees daarom terughoudend met het intensief en niet-functioneel gebruiken van generatieve AI. Gebruik een zoekmachine en Wikipedia als je een vraag hebt.
- Bij de ontwikkeling van ChatGPT heeft OpenAI gebruik gemaakt van Keniaanse arbeiders die onder slechte omstandigheden de input, waar ChatGPT gebruik van maakt, hebben opgeschoond. De tech industrie staat sowieso niet bekend als een industrie die heel maatschappelijk verantwoord opereert (denk aan Amazon, de enorme afvalberg, etc). Als individu kun je daar weinig mee, behalve door als consument druk uit te oefenen en bepaalde keuzes te maken.
- Betaalde applicaties bieden meer mogelijkheden dan gratis applicaties. Krachtige technologie is dus niet gelijk toegankelijk. Dit is echter een vraagstuk dat van alle tijden is (denk aan Squla binnen het onderwijs).
- Verder zijn er twijfels of het acceptabel is om een revolutionaire technologie los te laten op de mensheid, zonder deze getest te hebben, en zonder dat je een beeld hebt van de consequenties.
En hoe zit het met de gevolgen voor werk van medewerkers? Generatieve AI zal vooral gevolgen hebben voor theoretisch geschoold werk, inclusief creatief werk. Divers onderzoeken laten zien dat de impact per branche verschilt. Er zullen banen verdwijnen, maar ook banen bij komen. Bovendien zal het werk van theoretisch geschoolden veranderen. Onderzoek van CBS en TNO laat overigens nu al zien dat meer dan de helft van de werknemers van mening zijn dat technologie het werk gemakkelijker maakt. Dit is vooral het geval bij de doelgroep tot 25 jaar. Ik heb ook de uitspraak van hoogleraar Karim Makhani aangehaald:
AI Won’t Replace Humans — But Humans With AI Will Replace Humans, Without AI
Tot slot ben ik ingegaan op de relatie tussen AI en vertrouwen. Als mensen niet-correcte informatie gebruiken, als taalmodellen niet-correcte output hergebruiken, als mensen AI gebruiken om anderen woorden in de mond te leggen, enzovoorts dan kunnen we te maken krijgen met een situatie waarin we veel van wat we lezen, horen en zien niet meer kunnen vertrouwen. Het wordt dan ook nog belangrijker dat we desinformatie en ‘deepfake’ leren herkennen en ook weten hoe dit type teksten, geluidsbestanden en video’s worden gemaakt. Leren, opleiden en onderwijs hebben hier een belangrijke taak in.
Hier vind je mijn slides:
Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.
This content is published under the Attribution 3.0 Unported license.
Geef een reactie