Het Hechinger Report besteedt aandacht aan -wat zij noemen- de infiltratie van artificiële intelligentie (AI) in het (hoger) onderwijs. Deze bijdrage beschrijft toepassingen en enkele belangrijke kanttekeningen.
De beschreven toepassingen zijn:
- AI zorgt voor het automatisch versturen van notificaties via mail andere tekstberichten aan lerenden. Deze notificaties zijn vriendelijk en informatief, en hebben betrekking op financiën, deadlines en campusvoorzieningen zoals restaurants.
- Chatbots beantwoorden allerlei vragen van lerenden over onderwijsgerelateerde zaken. Medewerkers hoeven daardoor veel vragen niet meer te beantwoorden.
- Dankzij het beantwoorden van vragen heeft de Georgia State University het fenomeen ‘summer melt‘ met 20% kunnen reduceren (een grote groep studenten schrijft zich voor de zomervakantie in, maar komt na de zomervakantie toch niet naar college).
- AI kan lerenden bronnen aanbevelen, en hen in contact brengen met tutoren.
- AI weet of lerenden die vragen stellen, meer of minder actief zijn geweest met leren.
- AI speelt een rol bij plagiaatdetectie en het controleren van spelling en grammatica.
- AI wordt toegepast bij toepassingen die onderwijsinhoudelijke vragen beantwoorden, opdrachten beoordelen, cursussen aanbevelen en instructies verzorgen. AI is sneller en beter in staat om lerenden te beoordelen, en maakt minder fouten.
- AI kan bij het beoordelen rekening houden met de mate waarin lerenden actief bezig zijn geweest met de online leeractiviteiten en leerstof.
- AI wordt gebruikt om beoordelingen voor te bereiden. De docent controleert deze beoordeling en bevestigt of wijzigt het oordeel.
- Op basis van leergedrag bepaalt AI welke leerstof -zoals oefeningen- lerenden vervolgens aangeboden krijgen.
- Met behulp van AI kunnen onderwijsinstellingen persoonlijkheidskenmerken en waargenomen motivatie van lerenden evalueren en beoordelen. Onderwijsinstellingen gebruiken deze applicaties voor het nemen van beslissingen ten aanzien van toelating en het geven van financiële steun.
Je ziet in de praktijk dus vrij onschuldige, handige, toepassingen van AI, maar ook toepassingen met potentieel verstrekkende gevolgen.
Met name bij deze laatste categorie toepassingen worden kanttekeningen geplaatst:
- Algoritmen die worden gebruikt bij het beoordelen zijn gebaseerd op historische ervaringen, waardoor sprake is van ‘bias’ (vooroordelen).
- AI wordt gebruikt voor het doen van voorspellingen en het nemen van beslissingen op basis van die voorspellingen. Hoe betrouwbaar zijn deze voorspellingen als sprake kan zijn van ‘bias’?
- AI-toepassingen beantwoorden vaak zo’n 10% van de vragen fout. Bovendien kun je AI ook voor de gek houden. Onderzoekers van MIT hebben bijvoorbeeld een betekenisloos essay gemaakt dat wel alle onderdelen bevatte waar de applicatie op lette. Het essay werd daardoor als ‘voldoende’ beoordeeld.
- AI is niet goed in het beoordelen van menselijke gedrag of intenties. Dit zie je bijvoorbeeld bij online proctoring. Bepaald gedrag wordt dan als ‘valsspelen’ beoordeeld. Dit zie je vooral bij het gebruik van gezichtsherkenning. Gezichtsuitdrukkingen worden vaak niet correct door AI geïnterpreteerd.
- Kun je een computer beslissingen laten nemen met verstrekkende gevolgen? Bijvoorbeeld als het gaat om toelating tot een cursus of opleiding.
- Onderwijsinstellingen gebruiken platforms van commerciële bedrijven. De data van lerenden wordt door deze partijen opgeslagen en gebruikt. Deze data kan ook betrekking hebben op persoonsgegevens zoals persoonlijkheidskenmerken (denk aan mate van openheid en motivatie). Deze commerciële bedrijven gebruiken deze data ook om lerenden rechtstreeks te benaderen, bijvoorbeeld met commercële mails.
- Ik voeg hier graag aan toe: bedrijven zijn lang niet altijd transparant als het gaat om de werking van de algoritmen.
- Het gebruik van geautomatiseerde beslissingen ontslaat onderwijsinstellingen niet van hun ethische en wettelijke verplichtingen.
De belangrijkste strekking van deze bijdrage is wat mij betreft:
Gebruik AI als ondersteuning van professionals. Laat AI professionals bepaald werk uit handen nemen, maar niet de verantwoordelijkheid. Maak goede afspraken over eigenaarschap en het gebruik van data. Wees transparant in hoe je AI toepast.
De beschreven kanttekeningen maken volgens mij ook wettelijke regulering noodzakelijk. Onlangs heeft de Europese Commissie de eerste versie van een wettelijke kader met betrekking tot AI gepresenteerd. Zij onderscheiden daarin volgens het artikel The EU path towards regulation on artificial intelligence onder meer een onaanvaardbaar risico, een hoog risico, of een laag risico.
AI mag geen onacceptabel risico opleveren. Hoge risico’s mogen onder strikte voorwaarden worden genomen. Het gebruik van AI voor het beoordelen van lerenden valt onder die categorie. Bij een laag risico moet vooral sprake zijn van transparantie. De auteurs van dit artikel noemen dit kader ‘innovatievriendelijk’. Volgens Bits of Freedom biedt deze Europese poging tot regulering echter nog onvoldoende bescherming. Zij pleiten voor meer verboden van bepaalde AI-toepassingen. Ook zou beter geregeld moeten worden dat mensen kunnen controleren of een besluit rechtmatig tot stand is gekomen.
This content is published under the Attribution 3.0 Unported license.
Geef een reactie