Dit is de zevenendertigste maar mogelijk ook de laatste bloemlezing over generatieve AI-toepassingen zoals ChatGPT. Je kunt nog een week aangeven wat jouw voorkeur is ten aanzien van mijn blogposts over dit onderwerp. In deze blogpost besteed ik in elk geval onder meer aandacht aan een recent onderzoek over de invloed van generatieve AI op studeergedrag, aan een raamwerk voor het gebruik van generatieve AI in het onderwijs en aan een artikel over de zogenaamde ‘x-risk’-beweging.
Het gevaar van AI: Gaan studenten er te veel op leunen in plaats van ervan te leren?
Dit recente onderzoek betreft de impact van AI-ondersteunde leertechnologieën op de ‘agency’ van studenten, specifiek in de context van peer feedback. 1625 studenten van 10 cursussen maakten gebruik van een adaptief onderwijssysteem waarbij AI de kwaliteit van peer feedback moest helpen verbeteren.
In het begin van het experiment ontvingen alle studenten gedurende vier weken AI-prompts die suggesties boden voor verbetering van hun feedback. Hierna werden de studenten willekeurig ingedeeld in vier groepen: een controlegroep die AI-prompts bleef ontvangen, een groep zonder prompts, een groep die zelfcontrole checklists kreeg, en een groep die zowel AI-prompts als checklists kreeg.
Het onderzoek liet zien dat studenten neigden tot afhankelijkheid van AI-hulp, in plaats van hiervan te leren. Wanneer de AI-ondersteuning wegviel, nam de kwaliteit van hun feedback significant af. Studenten ontwikkelden dus geen zelfstandige effectieve feedbackvaardigheden. De zelfcontrole checklists boden enige hulp, maar waren niet zo effectief als de AI-prompts. De combinatie van AI-prompts en checklists leverde ook geen betere resultaten op dan alleen AI-prompts.
De onderzoeker stellen dat nuttig kan zijn, maar dat AI ook de ontwikkeling van zelfregulatie en de agency van studenten kan beperken. Je moet dus goed nadenken hoe AI effectief kan worden geïntegreerd zonder dat de zelfstandigheid van studenten wordt ondergraven.
Australian Framework for Generative Artificial Intelligence (AI) in Schools
Het document “Australian Framework for Generative AI in Schools” richt zich op het gebruik en de integratie van generatieve AI-technologieën in het Australische onderwijssysteem. De kern van het raamwerk is het aanbieden van richtlijnen voor verantwoordelijk en ethisch gebruik van deze technologieën in een onderwijsomgeving.
Het raamwerk is ontworpen om het onderwijs te ondersteunen, veilig en verantwoordelijk gebruik van AI-tools te bevorderen, en om eerlijkheid, toegankelijkheid en inclusie te garanderen binnen de Australische schoolgemeenschappen. Deze doelstellingen vormen de basis van de zes principes en 25 richtlijnverklaringen van het raamwerk.
Lucinda McKnight en Leon Furze stellen dat dit raamwerk al deels achterhaald is en dat beleid al moet worden bijgewerkt en verbeterd om beter aan te sluiten bij nieuwe inzichten in de bedreigingen en beperkingen van generatieve AI. Zij stellen onder meer dat het raamwerk verwachtingen heeft van scholen en docenten die onmogelijk waar te maken zijn. Het raamwerk suggereert dat scholen en docenten instrumenten kunnen gebruiken die inherent gebrekkig, bevooroordeeld, mysterieus en onveilig zijn, op manieren die degelijk, onbevooroordeeld, transparant en ethisch zijn.
SNEAK PREVIEW: A Blueprint for an AI Bill of Rights for Education
Deze bijdrage heeft -net als de vorige bijdrage- ook betrekking op het verantwoord gebruiken van generatieve AI door docenten en lerenden. Kathryn Conrad schrijft hoe de komst van ChatGPT en aanverwante tools heeft geleid tot zorgen over plagiaat en de authenticiteit van het werk van lerenden. Daardoor moeten docenten leerdoelen en academisch integriteitsbeleid onder de loep nemen. Deze uitdagingen komen bovenop de druk van technologiebedrijven die het onderwijs zien als een winstgevende markt. Deze bedrijven negeren volgens Conrad onderwijsdoelen en professionals bij het ontwerpen van hun producten.
De auteurs gaat ook in op ethische problemen rond AI, zoals het zonder toestemming ‘scrapen’ van menselijk creatief werk, het versterken van vooroordelen, surveillance, uitbuiting van arbeiders, milieuschade, en de machtsconcentratie bij enkele grote bedrijven. De Europese Unie heeft AI-systemen voor onderwijsbeoordelingen met een hoog risico geclassificeerd, wat volgens Conrad de ernst van deze zorgen benadrukt.
Zij pleit voor onderwijs op het gebied van kritische AI-geletterdheid, inclusief bewustzijn van deze bredere context. AI is ook meer dan alleen technologie; het vertegenwoordigt ook machtsverhoudingen en vraagt om adequate regelgeving. Toepassingen zouden ontwikkeld moeten worden die ethisch verantwoord zijn. De toepassingen zouden in samenwerking met onderwijsprofessionals ontwikkeld moeten worden, en aandacht hebben voor toegankelijkheid en leerdoelen.
Kathryn Conrad heeft zich ook laten inspireren door de “Blueprint for an AI Bill of Rights” van de regering-Biden, en heeft een opzet gemaakt voor rechten voor zowel docenten en studenten. Deze rechten omvatten onder meer inspraak in de aanschaf en implementatie van AI-systemen, professionele ontwikkeling op het gebied van kritische AI-geletterdheid, autonomie in het gebruik van AI in het onderwijs, en bescherming van juridische rechten. Voor studenten omvatten deze rechten duidelijke richtlijnen over het gebruik van AI in opdrachten, respect voor privacy, en de mogelijkheid om beroep aan te tekenen tegen onterechte beschuldigingen van misbruik van AI-technologie.
Losgeslagen superintelligentie
De zogenaamde ‘x-risk’-beweging lijkt steeds meer invloed uit te oefenen op het Britse en Amerikaanse AI-beleid. Deze beweging benadrukt de risico’s van AI, vooral het gevaar dat AI de mensheid kan doen uitsterven. De auteur gaat daarbij in op de vraag of deze focus Big Tech niet ten goede komt omdat de kritiek afleidt van korte termijn problemen met AI, en regelgeving uitstelt.
De Nederlandse activist Joep Meindertsma en computerwetenschapper Roel Dobbe van TU Delft belichten verschillende kanten van de discussie. Meindertsma, via zijn website Pause AI, wil aandacht voor AI-gevaren, terwijl Dobbe kritisch is over het x-risk-verhaal, dat hij ziet als een afleidingsmanoeuvre van Big Tech om huidige problemen en regulering te ontwijken.
In het artikel wordt ook ingegaan op de rol van techbedrijven en filantropische bewegingen in het vormen van AI-beleid en -veiligheid. Open Philanthropy, een stichting van Facebook-medeoprichter Dustin Moskovitz, investeert bijvoorbeeld in onderzoek naar x-risk. Deze investeringen trekken studenten en onderzoekers aan.
Kritiek komt er ook van het AI Now Institute en andere ngo’s die vinden dat de focus op x-risk de aandacht afleidt van huidige AI-risico’s, zoals vooroordelen, desinformatie en privacygevaren.
Het artikel onderstreept dat, hoewel er aanzienlijke investeringen en aandacht zijn voor de lange-termijnrisico’s van AI, er een evenwicht moet zijn met de focus op huidige risico’s en ethische vraagstukken.
Philippa Hardman heeft onlangs een keynote verzorgd bij de Universiteit van Kopenhagen over risico’s en kansen van AI in het formele onderwijs. Hardman ging onder meer in op de “identiteitscrisis in het onderwijs”, die veroorzaakt is door de opkomst van generatieve AI-technologieën zoals ChatGPT met uitdagingen voor academische integriteit en de manier van beoordelen tot gevolg. Hardman bekritiseerde de reactie van meer intensieve monitoring en surveillance van studenten, onder meer door middel van AI-detectietools die echter allesbehalve goed werken. Ook gebruiken studenten weer zogenaamde anti-detectietechnologieën, waarmee studenten AI-output kunnen “humaniseren” om detectoren te omzeilen.
Hardman stelde ook de fundamentele vraag: wat is het ware doel van onderwijs? Volgens UNESCO en de Deense regering heeft het onderwijs twee hoofddoelen: het ontwikkelen van kennis en vaardigheden die economische, sociale en culturele groei bevorderen, en het garanderen van de best mogelijke onderwijservaringen voor alle studenten. AI kan volgens haar een belangrijke rol spelen bij het realiseren van deze doelen. Hardman concludeerde dat het formele onderwijs op een kruispunt staat: het kan vasthouden aan bestaande methoden of de kracht van opkomende technologieën zoals AI benutten om relevantie, waarde en uitmuntendheid te versterken. De impact van AI op het onderwijs wordt volgens haar uiteindelijk bepaald door de bereidheid tot verandering en uitvoeringsvermogen van onderwijsinstellingen en -professionals.
He Was Falsely Accused of Using AI. Here’s What He Wishes His Professor Did Instead
Erik Ofgang doet verslag van de casus van William Quarterman, een ouderejaarsstudent aan de Universiteit van Californië. Quarterman werd valselijk beschuldigd van het gebruik van AI, met name ChatGPT, om te frauderen bij een ’thuis examen’ bij een geschiedeniscursus. Quarterman, die nog nooit ChatGPT had gebruikt, voelde zich machteloos en als een personage uit een verhaal van Kafka.
Zijn docent had zijn essay door een AI-detectietool gehaald, die een ‘false positive’ aangaf. Om zijn onschuld te bewijzen, gebruikte Quarterman het versiebeheer van Google Docs om aan te tonen hoe hij het essay in een paar uur had geschreven. Zijn familie, waaronder juridisch onderlegde ouders en een zus die in de technologie werkt, hielpen ook aan te tonen dat de gebruikte AI-detectietool vaak ten onrechte beroemde werken als door AI-gegenereerd markeert, waaronder Martin Luther King’s “I Have A Dream Speech” en passages uit het Boek Genesis. Uiteindelijk werd Quarterman vrijgesproken van de beschuldiging en studeerde hij op tijd af.
Quarterman stelt voor dat docenten die studenten verdenken van AI-gebruik beter kunnen praten met de student en hen vragen bewijs te leveren van hun auteurschap, in plaats van direct te beschuldigen. Dit zou minder stressvol zijn voor studenten en het onderwijsproces ten goede komen. Hij benadrukt dat het belangrijk is dat docenten studenten de kans geven zichzelf te verdedigen, aangezien het niet geven van het voordeel van de twijfel aan een student aanzienlijke mentale angst kan veroorzaken. Bovendien kunnen AI-detectoren fouten maken.
William Quarterman heeft nog geluk gehad dat hij terug kunnen vallen op een thuisfront met juridische en technologische expertise. Wat zou het gevolg zijn bij studenten die niet over een dergelijk thuisfront kunnen beschikken?
Andere bronnen over ChatGPT (geen tijd om kort te beschrijven of Nederlandstalig)
- Wist je dat ChatGPT ook video kan bekijken en analyseren?
- Effect ondersteuning door een taalmodel bij wiskunde
- AI en het onderwijs van de toekomst
- GenAI Will Change How We Design Jobs. Here’s How.
- Generative AI Will Transform Virtual Meetings
- Generative AI May Be the Biggest Thing Since the Internet for Teaching and Learning
- Wat denkt ChatGPT eigenlijk over al die ophef?
- AI in Learning and Development
- ChatGPT: A Year of Living Generatively
- Groep onderzoekers achterhaalt trainingsdata ChatGPT
- Sam Altman’s Second Coming Sparks New Fears of AI Apocalypse
- The Rising Demand for AI Leadership in Jobs
- De richtingenstrijd bij OpenAI: winstbejag gekozen boven verantwoord uitrollen
- Making an Image with Generative AI Uses as Much Energy as Charging Your Phone
- 40-Year-Old Former Teacher Retraining in AI
- 5 Things AI Can and Cannot Do for Students
- Art Institutes Getting Creative with AI
- Generative AI and Copyright Concerns
- OpenAI Signals Potential to Destroy Startups Using Its Tech
- Can ChatGPT Predict the Future?
- EU AI Legislation Is Firming Up
- Humane AI: A New Wearable Tech Alternative
- AI in Higher Education
- Is AI a Pathway to Better Teaching and Learning?
- AI in EdTech: How It Breaks in Subtle Ways
- GAIA Policy at Boston University
- Embracing Change with an AI Language Tutor
- Generative AI in Education: UK Government Report
Mijn bronnen over (generatieve) artificiële intelligentie
Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.
This content is published under the Attribution 3.0 Unported license.
Geef een reactie