Gisteren mocht ik weer eens een sessie verzorgen over generatieve AI en onderwijs. Dit keer bij een team van het Gezondheidszorgcollege van ROC Midden-Nederland in Amersfoort.
Ik ben begonnen met wat kennismakingsvragen, waarmee ik een beeld wilde krijgen van de ervaring van de aanwezigen met generatieve AI. Een grote deel van de deelnemers had al eens gewerkt met applicaties zoals ChatGPT. Een minderheid had deze toepassingen meer dan 25 keer gebruikt.
Daarna ben ik kort ingegaan op wat generatieve AI is. De focus van de sessie lag echter op:
- De computer als collega: vier typen taken (veel voorbeelden)
- Wat betekent dit voor het werk van een docent/ontwikkelaar?
Ik heb veel voorbeelden gegeven en met de groep een aantal opdrachten uitgevoerd.
De vier typen taken zijn:
- Taalgerelateerde taken (zoals emails schrijven, samenvattingen maken, memo’s schrijven).
- Data analyse, patroonherkenning, voorspellingen (Excel-bestanden en grafieken interpreteren, etc).
- Interactie met gebruikers (feedback, gesprekken voeren, vragen beantwoorden, interview met een historisch figuur, enzovoorts).
- Creatieve taken (bijvoorbeeld brainstormen, en afbeeldingen maken).
Als het gaat om de gevolgen voor het werk van een docent, betekent dit m.i. dat je als docent er een collega bij krijgt. Het werk zal veranderen. Eenvoudige taken worden uitbesteed, en bepaalde taken (zoals feedback geven) voer je samen uit. Hopelijk neemt generatieve AI administratief werk uit handen. Ook zul je de manier van beoordelen kritisch tegen het licht moeten houden.
Aan de hand van een aantal bouwstenen voor didactiek, ben ik ingegaan op gevolgen voor bepaalde werkzaamheden. Bijvoorbeeld het maken van een advance organizer van een hoofdstuk uit een boek door ChatGPT, om voorkennis te activeren. Of het ontwikkelen van uitgewerkte voorbeelden door ChatGPT.
Ik kreeg ook de vraag of je van lerenden mag verlangen dat ze een account aanmaken bij generatieve AI-applicaties. Dit mag je inderdaad niet verlangen omdat je als organisaties (vooralsnog?) geen verwerkersovereenkomst hebt met leveranciers als OpenAI. Met Microsoft is dat meestal wel het geval. Dat betekent dat Co-pilot wel gebruikt kan worden. Ik heb wel begrepen dat de data in dat geval buiten de EU wordt verwerkt. Dat is momenteel nog een belemmering bij het gebruik van deze tool.
De deelnemers hebben bij opdrachten output over vrij specifieke onderwerpen gevraagd (zoals i-tjing of toetsvragen formuleren over een opdracht rond een spuitpomp). ChatGPT kon daar goed mee overweg.
Ik ben ook geëindigd met aandachtspunten (die ik overigens ook door de sessie heen heb verweven).
Hieronder vind je mijn slides:
This content is published under the Attribution 3.0 Unported license.
Wat een fijn overzicht weer Wilfred! Ik ga ‘m delen met collega’s.
Graag gedaan Annemiek