De invloed van artificiële intelligentie en robotisering zal de komende jaren alleen maar toenemen. In welke mate zullen deze technologische ontwikkelingen onderwijs en opleiden beïnvloeden? Krijgen we te maken met een robot docent? En in welke mate krijgen opleidingen en onderwijs te maken met ‘bias’?
Melissa Jun Rowley stelt in The rise of robot teachers dat docenten nooit vervangen zullen worden door robots, maar dat robots wel gebruikt zullen worden ter ondersteuning van het leren. Een voorbeeld hiervan is Amy. Dit is een applicatie die op het gebied van wiskunde in staat is te begrijpen welke fouten lerenden maken, om op basis daarvan gerichte instructies te geven.
“If you make a mistake, while doing an integration exercise Amy will know why you made the mistake, which is probably some error in your algebra,” (…) “Then she’ll teach you this specific thing before she goes back and checks that you can now solve this sort of problem.”
Amy is nog in ontwikkeling. Er wordt wel getest met een eerste versie.
In het artikel wordt gesteld dat artificiële intelligentie een symbiotische relatie met mensen zal krijgen, die versterkend zal werken. Mensen zijn goed op het gebied van empathie, motivatie en inspiratie. Robots kunnen lerenden individueel benaderen en arbeidsintensieve taken zoals beoordelen en rapporteren over nemen. Docenten kunnen zich daardoor meer richten op het overzien van de voortgang van lerenden en het behalen van lange termijn doelen.
Jun Rowley geeft ook het voorbeeld van Milo die gebruikt wordt om kinderen met een autisme spectrum stoornis te helpen om te gaan met emoties en sociale situaties. Deze robot is ook in staat enige mate van empathie te tonen en de motivatie van deze kinderen te verbeteren. De robot Milo wordt vooral gebruikt bij kinderen die weinig baat hebben bij traditionele interventies. Verbeteringen zijn bijvoorbeeld verbeterde sociale interacties, minder confrontaties tussen lerenden, meer zelfregulering en verbeterde leerprestaties. Meer onderzoek is overigens nodig naar de effecten.
In Amazon’s Alexa: Your Next Teacher schrijft Cait Etherington dat de ontwikkelaars van de digitale leeromgeving Canvas bezig zijn met de implementatie van Amazon’s Alexa, het apparaat waarmee je via stemherkenning met applicaties zoals je mailprogramma kunt interacteren. Hierdoor kunnen lerenden, docenten, adviseurs en ouders met behulp van Alexa vragen stellen, eenvoudige taken binnen Canvas uitvoeren en informatie verkrijgen uit deze digitale leeromgeving. Bijvoorbeeld: wat is het huiswerk voor morgen?
Canvas wil via stemherkenning een efficiënt gebruik van de digitale leeromgeving bevorderen en de toegankelijkheid ervan voor visueel beperkte lerenden en lerenden die moeite hebben met schrijven bevorderen. Canvas speelt hiermee in op een belangrijke ontwikkeling, al kun je je afvragen of men op dit moment hier al prioriteit aan moet geven. Cait Etherington schrijft namelijk dat er wel zorgen zijn over de privacy. Onderwijsdata wordt onderdeel van de grote dataset waar Amazon over beschikt. Om die reden zal deze toepassing in ons land niet gebruikt mogen worden.
Artificiële intelligentie en robotisering zullen de komende jaren ongetwijfeld meer impact krijgen voor opleiden en onderwijs. De kansen voor versterking en verbetering van het leren zijn zeker aanwezig.
Er zijn echter ook risico’s. The Guardian wijst bijvoorbeeld op een ‘racistische bias’ binnen algoritmes die de Amerikaanse justitie gebruikt waardoor zwarte gevangenen vaker ten onrechte het label ‘recidivist’ krijent. Menselijke vooroordelen worden erdoor verstrekt, schrijft The Guardian. Het zijn immers mensen die voeden met informatie:
When the data we feed the machines reflects the history of our own unequal society, we are, in effect, asking the program to learn our own biases.
Analoog aan ‘garbage in, garbage out’ spreekt The Guardian van ‘racism in, racism out’.
Deze Britse krant geeft nog meer voorbeelden van racistische, seksistische en antisemitische bias. Men stelt dat het op korte termijn moeilijk kan worden om precies te achterhalen hoe de complexe interactie van algoritmen leidt problematisch resultaten. Dat wordt versterkt doordat commerciële partijen niet open zijn over de manier waarop hun algoritmes werken. De genoemde algoritmes van de Amerikaanse justitie zijn daar een voorbeeld van.
The Guardian schrijf ook dat mensen met een bevoorrechte positie en een hoog inkomen vaak een individuele behandeling krijgen als zij bijvoorbeeld een lening wensen. Artificiële intelligentie wordt dan gebruikt om aanvragen voor leningen van de massa te beoordelen. Zij krijgen dus vooral te maken met bias van algoritmes. De krant concludeert:
computer scientists face an unfamiliar challenge: their work necessarily looks to the future, but in embracing machines that learn, they find themselves tied to our age-old problems of the past.
Deze waarschuwing geldt m.i. ook het onderwijs en opleidingen, als men gebruik maakt van artificiële intelligentie. Is de informatie die we gebruiken om educatieve algoritmes te voeden vrij van ‘bias’?
This content is published under the Attribution 3.0 Unported license.
Geef een reactie