Op 18 november 2024 vond in Utrecht de tweede editie van AI-deas for learning and education plaats. Ik heb deze dag voor een groot deel bijgewoond. Philippa Hardman verzorgde een keynote over de vraag of het gebruik van AI leidt tot meer effectief leren, opleiden en onderwijs. Verder waren er tal van sessies, waaronder mijn sessie over de AI Advisory Board.
Tijdens haar openingskeynote “From Delivery to Design: How to Drive a Real Change with AI” schetste Philippa Hardman een kritische en genuanceerde visie over de rol van AI voor leren, opleiden en onderwijs. Ze benadrukte dat de technologie zowel positieve als negatieve uitkomsten kan hebben, afhankelijk van hoe we deze inzetten.
Hardman begon met een terugblik op waar we nu staan. AI is al diep doorgedrongen in verschillende sectoren, zoals muziek, retail en mobiliteit. Diensten als Spotify en Uber hebben niet alleen producten veranderd, maar ook de manier waarop we ze ontwerpen en gebruiken. Als het gaat om onderwijs, leren en opleiden is die transformatie echter vooralsnog uitgebleven. Technologieën, zoals interactieve whiteboards en LMS-en, hebben het bestaande onderwijssysteem vooral opgeschaald in plaats van fundamenteel veranderd. Terwijl er -eufemistisch gesproken- wel ruimte is voor verbetering als het gaat om leren, opleiden en onderwijs (denk aan de toegankelijkheid van het onderwijs of aan het verbeteren van de kwaliteit van trainingen).
Ze wees daarbij op het volgende fenomeen: hoewel AI processen efficiënter maakt – van het ontwikkelen van e-learning content (bijvoorbeeld met tools als Articulate AI) tot het goedkoop produceren van video’s met Synthesia – leidt dit zelden tot beter leren. Zoals hoogleraar Dan Schwartz het stelt: we worden steeds effectiever als het gaat om ineffectieve praktijken.
Toch schetste Hardman ook wel goede voorbeelden, die wijzen op potentie voor innovaties. Ze gaf voorbeelden van AI-gebaseerde toepassingen die een meer directe impact hebben op leerprestaties. Zo gebruikt Arizona State University een AI-tutor, “Sam”, ten behoeve van medische communicatie, en zet de Universiteit van Michigan een AI-assistent in die menselijke adviseurs wijst op lerenden die dreigen uit te vallen. Bedrijven zoals Johnson & Johnson en Bayer zetten AI in om ‘skills gaps’ te identificeren en performance support te faciliteren. Deze toepassingen laten zien dat AI verder kan gaan dan efficiëntie en daadwerkelijk kan bijdragen aan effectiviteit. Toepassingen waarbij de nadruk ligt op conversatie met AI leiden daarbij dan eerder tot meer innovatie (en beter leren) dan toepassingen die de nadruk leggen op contentcreatie.
Belangrijk daarbij, aldus Hardman, is het ontwikkelen van een strategische AI-mindset. Docenten en onderwijsinstellingen moeten AI niet alleen zien als middel om tijd en kosten te besparen, maar ook als kans om fundamenteel betere leerervaringen te ontwerpen. Daarbij moet je kijken naar hoe hoog (of laag) AI-toepassingen ‘scoren’ op efficiëntie en effectiviteit.
Zij stelde ook dat AI in toenemende mate wordt gebruikt door lerenden en werknemers. Dat verhoogt de urgentie om te kijken naar hoe we het gebruik van AI meer kunnen sturen naar gebruik voor verbeteringen.
AI Advisory board
Tijdens de eerste workshopronde heb ik een groep van ongeveer 40 mensen kennis laten maken met de aanpak die we bij Roercollege/Schöndeln hebben gekozen met betrekking tot de AI Advisory Board. Ik heb toegelicht wat een AI Advisory board is, wat de werkwijze is, en over welke onderwerpen de AI Advisory board zich heeft gebogen. Ik heb dit ook geïllustreerd met een voorbeeld.
Vervolgens heb ik met de aanwezigen een deel van een sessie van deze board na gespeeld. De AI Advisory Board van Roercollege/Schöndeln heeft zich onlangs bijvoorbeeld gebogen over het ontwerp van een AI-lab voor leerlingen en medewerkers. Dit is een fysieke, maar digitaal ondersteunde, ruimte met de volgende doelen:
- Docenten verkennen hoe zij (generatieve) AI in de onderwijspraktijk verantwoord kunnen inzetten.
- Leerlingen doen ervaring op met (generatieve) AI ter versterking van hun leren, op een veilige en verantwoorde manier
Hieronder vind je mijn slides:
The Feedback Companion
Pascal Mariany van OnderwijsOrakel.nl gaf een korte stoomcursus over de Feedback Companion.
Hij ging eerst in op het belang van feedback en feedforward, op de feedback cyclus en ook op goede en minder goede voorbeelden.
De kern van effectieve feedback ligt volgens Hattie en Timperley (2007) in een cyclisch model:
1. Feed Up. Waar werk je naartoe en wat is de beginsituatie?
2. Feedback: Reflectie op de huidige prestatie en de verschillen met de gewenste uitkomst (tips en tops).
3. Feedforward: Concrete stappen om de kloof te overbruggen en verdere ontwikkeling mogelijk te maken.
Patrick gaf zowel minder goede als goede voorbeelden hiervan. Zo wordt een voorbeeld genoemd waarin feedback vaag blijft, zoals “Je hebt het netjes gedaan.” Dit soort opmerkingen zijn nietszeggend en helpen studenten niet verder. Een goed voorbeeld daarentegen koppelt positieve punten aan concrete tips en geeft duidelijke suggesties voor verbetering. Denk aan: “Je start was sterk met een pakkende quote, maar probeer actiever naar het publiek te kijken.”
De Feedback Companion is een GPT binnen ChatGPT die docenten en studentenondersteund bij de vormgeving van deze feedbackcyclus. Deze GPT werkt met vier stappen:
- Upload rubrics en competenties
- Upload werk van de student
- Genereer feedback
- Start dialoog
Het heeft als doel:
– Meer consistentie in de aard van de feedback. Studenten begrijpen daardoor beter wat van hen wordt verwacht.
– Feedbackgeletterdheid. Het vermogen om feedback te interpreteren en toe te passen.
– Constructieve communicatie. Feedback die niet alleen informeert, maar ook motiveert.
Daarna gaf hij een demonstratie van de Feedback Companion en gingen we er zelf mee aan de slag (voor zover je een rubric en een geanonimiseerde uitwerking had. Daarbij viel op dat de Feedback Companion beoogt echt feedback te geven en niet beoogt de de juiste antwoorden te formuleren. We spraken verder ook over de EU AI act en privacy. Je mag namelijk onder andere persoonsgegevens niet naar ChatGPT uploaden. Je mag wel geanonimseerde data uploaden. Feedback geven is namelijk vooral gericht op het verbeteren van menselijke activiteiten, en kent daarom geen hoog risico (bij hoog risico moet je overigens vooral transparant zijn en output checken en bewerken). Feedback Companion geeft ook op taak, proces en zelfregulatie.
Pascal pleitte tenslotte er ook voor om AI lokaal toe te passen (op een eigen laptop). Hij noemde dat een olifantenpaadje langs de AI act. De upload namelijk geen data naar servers buiten de EU, terwijl je toch kunt interacteren met een groot taalmodel. Pascal ging in op de techniek en heeft ons daar ook mee laten experimenteren.
Bronnen:
- Hier vind je zijn presentatie.
- Op https://onderwijsorakel.nl/leren-met-ai/ vind je meer informatie over Feedback Companion plus de ‘custom instruction’ waarmee je ook zelf een GPT kunt maken.
This content is published under the Attribution 3.0 Unported license.
Geef een reactie