De gevolgen van generatieve AI-toepassingen voor onze bekwaamheden

De opkomst van generatieve AI-toepassingen leidt tot tal van vragen, ook tot vragen over de bekwaamheden waarover werknemers moeten beschikken en daarmee over de gevolgen voor een leven lang ontwikkelen. In deze bijdrage verken ik de gevolgen van AI-toepassingen die in staat zijn teksten te produceren, zoals Google Bard en ChatGPT, voor bekwaamheden van professionals.

assistive computingAutomatisering had tot voor kort vooral gevolgen voor meer praktisch opgeleide werknemers. Robots hebben bijvoorbeeld assemblagetaken in autofabrieken van arbeiders deels overgenomen en de personal computer heeft typistes nagenoeg overbodig gemaakt (zie bijvoorbeeld VTV, 2018). Technologieën zoals ChatGPT begeven zich echter op het terrein van meer theoretisch opgeleide werknemers, zoals journalisten, consultants, docenten en juristen. Generatieve AI-toepassingen die tekst genereren, zijn in staat bepaalde taken over te nemen, zoals het opstellen van een concept-persbericht, of om te ondersteunen bij de uitvoering van taken (zoals het ontwikkelen van een lesplan). Als een technologie als ChatGPT in staat is om op basis van een prompt oftewel opdracht uitgebreide, coherente teksten te genereren, wat betekent dat dan voor de bekwaamheden van ‘kenniswerkers’?

Vakinhoudelijke kennis

Al vele jaren lees en hoor je dat vakinhoudelijke kennis dankzij internet met z’n zoekmachines minder relevant wordt. Applicaties als ChatGPT zouden het het leren van vakinhoudelijke kennis verder overbodig maken. Waarom feiten onthouden als een machine ze onmiddellijk kan opleveren? Dit is echter een ernstige misvatting (zie bijvoorbeeld Kirschner, 2021). Het vermogen om informatie kritisch te beoordelen, de context te begrijpen en professioneel te handelen vereist dat je over vakinhoudelijke kennis beschikt. Bovendien is het continu opzoeken van kennis of genereren van kennis bepaald niet efficiënt, en in een aantal gevallen zelfs risicovol (denk aan een verpleegkundige op de spoedeisende hulp). Vakinhoudelijke kennis stelt professionals ook in staat om de door AI gegenereerde informatie te evalueren en in de juiste context te plaatsen. Dat is hard nodig omdat de tekst die wordt geproduceerd lang niet altijd correct is, of van een behoorlijk oppervlakkig niveau. Bovendien: om effectief met een AI-toepassing te communiceren, is het essentieel dat je begrijpt waarover je interacteert. Dat betekent dat werknemers die veel met informatie werken via leertrajecten nog steeds veel vakinhoudelijke kennis moeten verwerven.

Informatievaardigheden in het AI-tijdperk

Een van de grootste uitdagingen in het huidige AI-tijdperk is het vermogen om informatie te beoordelen. Generatieve AI-applicaties presenteren informatie vaak zonder directe bronvermelding. Het risico dat een AI-systeem nepnieuws of onjuiste informatie opneemt en reproduceert is reëel. De trainingsdata voor deze systemen komt uit een enorme hoeveelheid online content, en niet alles wat online staat is correct of waarheidsgetrouw. Bovendien kunnen toepassingen als ChatGPT ook onjuiste informatie genereren en weer toevoegen aan de eigen database, die daarmee vervuilt. Het is daardoor lastig voor gebruikers om de betrouwbaarheid van de verstrekte informatie te beoordelen. Het vermogen om kritisch te denken, bronnen te evalueren en nepnieuws te onderscheiden wordt daarom nog meer essentieel dan het al was. Daarom moeten kenniswerkers niet alleen over vakinhoudelijke kennis beschikken om gegenereerde informatie te beoordelen, maar ook een dieper begrip hebben van hoe informatie wordt gegenereerd en welke beperkingen en biases AI-systemen kunnen hebben. Kijk bijvoorbeeld naar wie degene is die de output van ChatGPT en consorten gebruikt? Hoe transparant is degene over het gebruik van generatieve AI? Verwijst degene naar bronnen bij het gebruik van feiten? Kun je de gepresenteerde informatie verifiëren met meerdere betrouwbare bronnen?

Nieuwe vaardigheden

Als je generatieve AI-toepassingen effectief wilt gebruiken, dan zul je ook in staat moeten zijn om goede opdrachten oftewel ‘prompts’ te formuleren. Een goede prompt is een duidelijke, gerichte vraag of instructie die bedoeld is om een specifieke reactie of actie uit te lokken. Kenmerken en richtlijnen voor het formuleren van een goede prompt zijn onder meer (zie bijvoorbeeld Szuchan, 2023):

  • Laat de applicatie een bepaalde rol aannemen. Bijvoorbeeld: jij bent journalist van De Volkskrant.
  • De prompt moet helder en ondubbelzinnig zijn. De prompt moet specifiek genoeg zijn om verwarring of te brede antwoorden te voorkomen. Bijvoorbeeld: maak een samenvatting in het Nederlands van de tekst die ik zo meteen presenteer. Besteed aandacht aan alle vijf de factoren die de auteur onderscheidt
  • De prompt moet beknopt zijn. Overbodige informatie kan leiden tot onduidelijke antwoorden.
  • De prompt moet doelgericht zijn: weet wat je wilt bereiken met de prompt.
  • De prompt bevat informatie over de context van de vraag.

Daarnaast is het vermogen om effectief een dialoog te voeren met generatieve AI-toepassingen van belang. Dit is niet hetzelfde als een gesprek met een mens. Deze toepassingen hebben geen emoties, kunnen niet omgaan met nuances, interpreteren prompts vaak letterlijk en missen persoonlijke ervaringen of opvattingen. Een toepassing als ChatGPT onthoudt ook geen eerdere interacties, tenzij je terug gaat naar een eerder ‘gesprek’ en dat vervolgens voortzet. Je kunt een toepassing als ChatGPT ook gemakkelijk op een verkeerd spoor zetten door diens output te bekritiseren. ChatGPT geeft jou dan -vaak onterecht- gelijk. Terwijl het voeren van een dialoog met mensen een complex samenspel is van taal, emotie, cultuur en context, is een gesprek met ChatGPT meer gericht op duidelijkheid en precisie. Daarbij is begrip van de capaciteiten en beperkingen van de applicatie essentieel.

Professionals die veel met informatie werken zullen deze vaardigheden moeten ontwikkelen, omdat ze dit waarschijnlijk nooit geleerd hebben.

Gevolgen voor bepaalde bekwaamheden

Het gebruik van generatieve AI roept ook vragen op over bepaalde menselijke bekwaamheden zoals redeneren, creatief en empathisch zijn. Worden deze belangrijker, of juist niet?

Generatieve AI kan patronen herkennen, voorspellingen doen en logische verbanden leggen op basis van de gegevens waarmee het is getraind. Het kan zelfs complexe problemen oplossen en argumenten formuleren. Echter, het ‘redeneren’ van AI is fundamenteel anders dan menselijk redeneren. Mensen redeneren vanuit een combinatie van kennis, ervaring, intuïtie en soms zelfs emotie. Generatieve AI werkt alleen op basis van data en algoritmen. De diepte en nuance van menselijke overwegingen ontbreekt. Generatieve AI ondersteunt professionals bij redeneren, maar neemt deze taak niet over.

Hetzelfde geldt voor creatief zijn. Generatieve AI kan originele content produceren zoals ideeën of een gedicht. Deze content is echter gebaseerd op het combineren en variëren van bestaande patronen en informatie. Een AI-toepassing als Google Bard komt niet echt met iets ‘nieuws’ in de zin van een unieke, onvoorziene creatie. Menselijke creativiteit komt voort uit onze emoties, ervaringen, cultuur en persoonlijke interpretaties. Dit leidt tot een diepere en rijkere kwaliteit van de output van onze creatieve processen. Dankzij associaties met de output van generatieve AI kunnen bijvoorbeeld wel creatieve ideeën ontstaan. Ik heb ChatGPT bijvoorbeeld kritiek laten leveren op een artikel. Toen ik de kritiek las, kwam ik op een heel ander idee dan ChatGPT beschreef.

Empathie is het vermogen om de emoties van anderen te voelen, te begrijpen en te delen. Hoewel AI-systemen ‘empathische’ reacties kunnen simuleren, missen ze het inherente begrip en de emotionele connectie die echte empathie kenmerkt. Bijvoorbeeld, een chatbot kan reageren met een troostend bericht als het detecteert dat een gebruiker verdrietig is, maar het ‘voelt’ die emotie niet echt. Als mensen vermoeden of weten dat een chatbot een reactie heeft geschreven dan kan dit irritatie opwekken en averechts werken. Onderzoekers van de Ohio State University hebben bijvoorbeeld ontdekt dat ontvangers van een mail minder tevreden zijn met de relatie met een persoon en minder zeker zijn over hun positie als zij weten dat die mail geschreven is door AI. Dergelijke mails worden als minder persoonlijk ervaren (Liu, Kang en Wei, 2023). Het is de vraag of AI-systemen zoals ChatGPT ooit het punt zullen bereiken waarop ze niet te onderscheiden zijn van menselijke interacties en dus het punt van menselijke empathie zullen bereiken. Zullen mensen deze toepassingen als zo ‘rijk’, ‘nuttig’ en ‘gemakkelijk’ ervaren, dan men accepteert dat men niet met mensen van vlees en bloed interacteert (Rubens, 2023)?

Tot slot

Tools als ChatGPT en Google Bard kunnen cognitieve taken deels overnemen -‘cognitive offloading’ (Sparrow, 2022)- of werknemers ondersteunen bij het uitvoeren van deze taken, bijvoorbeeld door ‘halfproducten’ te maken die de werknemer op basis van de eigen expertise kan bewerken tot een eindproduct. Dit vraagt om vakinhoudelijke expertise, om nog meer informatievaardigheden, en om het formuleren van effectieve prompts en het vermogen tot het voeren van een dialoog met generatieve AI-toepassingen. Tenslotte kunnen deze toepassingen bekwaamheden als redeneren, creatief en empathisch zijn niet echt kan repliceren, maar wel professionals ondersteunen bij de toepassing ervan. Het is in elk geval niet voldoende om simpelweg te leren hoe je een tool zoals ChatGPT gebruikt; we moeten een dieper begrip ontwikkelen van hoe en waarom het werkt, en welke implicaties dat heeft voor ons als mens en maatschappij.

Nota bene: deze bijdrage heb ik geschreven mede op basis van een dialoog met ChatGPT. https://chat.openai.com/share/c0ea4d94-3610-4bbe-9be0-727b970007ad

Bronnen

Kirschner, P. (2021). Why Knowledge Matters – E.D. Hirsch, https://www.kirschnered.nl/2021/08/02/why-knowledge-matters-e-d-hirsch/

Liu, B., Kang, J., & Wei, L. (2023). Artificial intelligence and perceived effort in relationship maintenance: Effects on relationship satisfaction and uncertainty. Journal of Social and Personal Relationships, 0(0). https://doi.org/10.1177/02654075231189899

Rubens, W. (2023). Zijn er grenzen aan de mate waarin mensen geholpen willen door of willen interacteren met computers?

Sparrow, J. (2022). ‘Full-on robot writing’: The artificial intelligence challenge facing universities. https://www.theguardian.com/australia-news/2022/nov/19/full-on-robot-writing-the-artificial-intelligence-challenge-facing-universities

Szuchan, S. (2023). How to (actually) use ChatGPT. https://www.linkedin.com/posts/samuel-szuchan_how-to-actually-use-chatgpt-to-its-full-activity-7020012343728189440-fav4?utm_source=share&utm_medium=member_desktop

VTV (2018). Robotisering. https://www.vtv2018.nl/robotisering

Mijn eerdere bijdragen over ChatGPT (en aanverwante technologieën)

This content is published under the Attribution 3.0 Unported license.

Delen

Een reactie

  1. hoe gaan we als L en D AI en leren uitdragen?
    Ik dacht aan stereotypen als Ambassadeur, Piraat, Rockstar of Ninja.

    Maar is dat logisch. Ik zocht een aanvulling bij ChatGPT:
    Het gebruik van AI in leren en ontwikkelen kan inderdaad worden gevisualiseerd door boeiende stereotypen zoals ambassadeurs, piraten, rocksterren en ninja’s. Elk vertegenwoordigt een unieke benadering van het integreren van AI in L&D-strategieën.

    Ambassadeur: Richt zich op diplomatie en samenwerking. Zij pleiten voor AI, bevorderen begrip en acceptatie onder belanghebbenden. Ze zijn als diplomaten, met nadruk op communicatie en partnerschappen.

    Piraat: Belichaamt een gedurfde, avontuurlijke aanpak. Ze zijn niet bang om de status quo uit te dagen en te experimenteren met nieuwe AI-tools en -methodologieën. Beschouw ze als innovators en risiconemers.

    Rockstar: Vertegenwoordigt charisma en invloed. Ze gebruiken AI om opvallende, boeiende leerervaringen te creëren. Ze zijn de charismatische voorlopers, altijd in de schijnwerpers met geavanceerde toepassingen.

    Ninja: Symboliseert heimelijkheid en efficiëntie. Ze integreren AI vakkundig in L&D-processen zonder verstoringen te veroorzaken. Ze zijn de experts achter de schermen, die subtiel aanzienlijke impact maken.

    Een 2×2-matrix om deze stijlen te differentiëren kan zijn: Zichtbaarheid vs Conformiteit

    Verticale As: Zichtbaarheid (Hoge Zichtbaarheid bovenaan – bijv. AI Rockstar, en Lage Zichtbaarheid onderaan – bijv. AI Ninja). Deze as vertegenwoordigt hoe prominent de rol betrokken is bij de bredere organisatie in hun gebruik van AI.

    Horizontale As: Conformiteit (Hoge Conformiteit links – bijv. Ambassadeur van AI, en Lage Conformiteit rechts – bijv. AI Piraat). Dit meet de mate waarin de rol zich houdt aan of uitdaagt bestaande normen en praktijken in de organisatie.

    Dit raamwerk kan helpen bij het identificeren van de meest geschikte aanpak voor verschillende L&D-scenario’s en het afstemmen van AI-strategieën met de organisatiecultuur en -doelen.

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *