Wat moet je doen als je AI gebruikt voor leren, opleiden en onderwijs nu de AI Act in werking is getreden?

Sinds 1 augustus jongstleden is de Europese AI Act in werking getreden. Op Frankwatching las ik een bijdrage over wat je als organisatie nu moet doen. In onderstaande bijdrage maak ik de vertaalslag naar leren, opleiden en onderwijs.

an image of the EU AI Act (legislation for responsible and safe use of AI). Use the colors purple, red, green, orange and black
DALL-E: an image of the EU AI Act (legislation for responsible and safe use of AI). Use the colors purple, red, green, orange and black

Ik heb daartoe dit artikel geupload naar Claude en Claude 3.5 Sonnet de volgende prompt gegeven:

Je bent journalist van een tijdschrift voor docenten en L&D-professionals. Je staat bekend om je vermogen om het meest gedetailleerde inzicht te presenteren aan een breed publiek dat door iedereen begrepen kan worden. In de bijlage vind je een artikel over wat je moet doen als organisatie om te voldoen aan de Europese AI-act. Schrijf een artikel van tussen de 450 en 500 woorden voor dit tijdschrift, waarin je de belangrijkste bevindingen toepast op een onderwijsinstelling die gebruik maakt van generatieve AI-technologieën zoals Co-pilot of ChatGPT. Schrijf in het Nederlands, niveau B2. bijdrage. Zorg ervoor dat de bijdrage logisch, informatief eenvoudig en goed gestructureerd is en vermijd oppervlakkig schrijven, en algemeenheden. Houd rekening met culturele en taalkundige eigenheden van Nederland zoals directheid, en een pragmatische, nuchtere en realistische toon.

Vervolgens heb ik de output gecheckt en bewerkt. Hier is het resultaat.

Sinds 1 augustus 2024 is de Europese AI Act van kracht. Deze wet reguleert het gebruik van AI om burgers te beschermen tegen mogelijke nadelen. Wat moet je als onderwijsinstelling of L&D-afdeling doen als je (generatieve) AI-toepassingen zoals Microsoft Co-pilot, ChatGPT of Claude wilt gebruiken.

De AI Act deelt AI-toepassingen in vier risicocategorieën in:

1. Onacceptabel risico (verboden)
2. Hoog risico
3. Beperkt risico
4. Minimaal risico

Generatieve AI zoals ChatGPT valt onder ‘hoog risico’. Er is namelijk geen sprake van een eenduidig doel. Dit betekent dat het gebruik ervan aan strenge voorwaarden is gebonden. Dus ongeacht het doel waarvoor je deze toepassingen inzet. Of je generatieve AI gebruikt om feedback te geven of om de grammatica van instructieteksten te verbeteren: het gebruik valt onder ‘hoog risico’. Je kunt daar van alles van vinden. Maar wet is wet. Ik sluit overigens niet uit dat op een gegeven moment met meer nuance wordt gekeken naar het gebruik. Daarnaast moet je ook auteursrecht respecteren, bijvoorbeeld door te vermelden dat je bijvoorbeeld ChatGPT hebt gebruikt (of door nooit klakkeloos teksten over te nemen en te verwijzen naar de oorspronkelijke bron).

Stappenplan

1. Inventariseer AI-gebruik
Maak een overzicht van alle AI-toepassingen binnen de organisatie instelling. Denk aan:
– Chatbots voor studenten
– AI-tools voor nakijken
– Plagiaatdetectie
– Generatieve AI voor het maken van lesmateriaal

In toenemende mate zal AI ook binnen leertechnologieën, zoals leermanagement systemen, geïntegreerd worden. Dit valt dan ook onder de AI Act.

2. Bepaal per toepassing de risicocategorie
Raadpleeg hiervoor de Europese database met hoog-risico AI. Bij twijfel, vraag de leverancier om advies. Veel educatieve toepassingen vallen overigens onder hoog risico (denk aan feedback geven, beoordelen, proctoring, plagiaatdetectie en dus generatieve AI).

3. Documenteer gebruik en voorzorgsmaatregelen
Leg voor elke AI-toepassing vast:
– Doel van gebruik
– Risicocategorie
– Genomen voorzorgsmaatregelen
– Verantwoordelijke personen

Deze documentatie wordt bijvoorbeeld gebruikt bij audits die plaats kunnen vinden.

4. Pas gebruik aan volgens richtlijnen
Voor hoog-risico AI zoals ChatGPT betekent dit:
– Menselijk toezicht op output
– Transparantie naar gebruikers
– Respecteren auteursrecht
– Labelen van AI-gegenereerde content

Stel dat docenten generatieve AI gebruiken om opdrachten mee te ontwikkelen. Dan moet je:

  • Beschrijven hoe je dit doet.
  • Aangeven dat de docent de output altijd controleert (en wat mij betreft bewerkt).
  • Richting lerenden aangeven dat AI gebruikt om opgaven te genereren (en hoe).

Verder is het van belang dat bijvoorbeeld degene die zich bezighoudt met privacy en security, ook expliciet aandacht besteedt aan deze AI Act, en monitort of deze wet ook wordt nageleefd. Daarnaast is het belangrijk om te investeren in bewustwording van medewerkers op dit terrein, duidelijke afspraken en regels te maken en te investeren in deskundigheidsbevordering. Ook is het zaak om up to date te blijven ten aanzien van deze ontwikkelingen.

Tijdlijn voor implementatie

– Vóór 1 februari 2025: Verboden AI uitfaseren (zoals het categoriseren van lerenden op basis van persoonlijke kenmerken; als het goed is eigenlijk niet relevant voor de meeste onderwijsinstellingen en L&D-afdelingen)
– Vóór 1 augustus 2025: Voldoen aan eisen voor AI met beperkt risico
– Vóór 1 augustus 2026: Voldoen aan eisen voor AI met hoog risico

Mijn bronnen over (generatieve) artificiële intelligentie

Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.

This content is published under the Attribution 3.0 Unported license.

Delen

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *