In plaats van te doen alsof AI veilig kan worden gemaakt, moeten we lerenden leren waarom ze inherent onveilig zijn, en hoe deze applicaties toch gebruikt moeten worden. Dat stelt Leon Furze in Alcohol Free AI: Can we stop pretending AI can be “safe”?.
Furze opent zijn bijdrage met een fictieve beschrijving van een typisch Australische klas op een hete dag, waar de docent alcoholvrij bier uitdeelt om de hitte te verlichten en tegelijkertijd een les over verantwoord alcoholgebruik te geven. Deze anekdote dient als metafoor voor de manier waarop we AI in het onderwijs benaderen.
Furze stelt dat verschillende aspecten de veiligheid van AI aantasten zoals het creëren van schadelijke inhoud en misinformatie, en het geven van een verkeerd advies.
De auteur wijst op de inherente onveiligheid en vooringenomenheid van grote AI-systemen, ondanks pogingen van ontwikkelaars om veiligheidsmaatregelen in te bouwen. Hij vraagt zich af of educatieve systemen die AI-technologie gebruiken, zoals de NSWEduChat-chatbot in Australië, wel in staat zullen zijn om hun veiligheidsmaatregelen te handhaven. Zullen ontwikkelaars van systemen voor het onderwijs in staat zijn om de veiligheidskenmerken en beschermingsmaatregelen van op maat gemaakte educatieve chatbots te onderhouden en bij te werken, terwijl zelfs bedrijven als OpenAI en Google dit niet kunnen met hun eigen systemen?
Furze schrijft dat het grotere probleem is dat de bestaande manieren van beveiliging ons afleiden van het feit dat deze technologieën inherent onveilig zijn. We mogen volgens hem niet in slaap worden gesust met een vals gevoel van veiligheid bij welk type AI-systeem dan ook, inclusief generatieve AI. In plaats van ons te wapenen tegen elke mogelijke negatieve effect, moeten we beslissen wanneer “veilig genoeg” daadwerkelijk veilig genoeg is, en lerenden (en docenten) voorlichten over de werkelijke potentiële gevaren.
Furze trekt ook parallellen met sociale media, wijzend op de traagheid van de samenleving en regelgevers om de risico’s van sociale media te erkennen en hierop te reageren. Hij suggereert dat AI in het onderwijs mogelijk een soortgelijk traject volgt, waarbij de nadruk wordt gelegd op de noodzaak van educatie in plaats van te vertrouwen op veiligheidsmaatregelen alleen.
De auteur benadrukt voorts de complexiteit van ethische overwegingen die AI omringen, van de ontwikkeling tot de onderliggende infrastructuur. Hij stelt dat het echte gevaar van AI niet direct zichtbaar is, zoals bij alcohol of autorijden, maar meer verborgen en subtiel.
Furze concludeert dat onderwijs de enige echte oplossing is. Lerenden moeten zich bewust zijn van de vooringenomenheid, de mogelijkheid tot misleidende inhoud, en de schadelijke manieren waarop AI gebruikt kan worden. Hij stelt dat scholen al ervaring hebben met het onderwijzen van cybervaardigheden en pleit voor snelle aanpassing aan nieuwe technologieën, met nadruk op transparante audits en het begrijpen van de inherente onveiligheid van AI. Dit alles, zo betoogt Furze, is cruciaal om lerenden voor te bereiden op een wereld waar AI een steeds grotere rol speelt.
Mijn opmerkingen
Leon Furze pleit m.i. terecht voor aandacht voor digitale geletterdheid, waar verstandig leren omgaan met (generatieve) AI een prominent onderdeel van moeten zijn. Ontwikkelaars van AI-toepassingen kunnen meer doen aan voorkomen van bijvoorbeeld bias. Wel moeten we daarbij kijken naar de dubbele gelaagdheid van technologie. AI kan, mits goed ontworpen, een kracht ten goede zijn. Ik schreef eerder dat Luciano Floridi stelt dat het ontwerpen van elke technologie een morele daad is. Technologie is volgens hem niet ‘neutraal. Ontwerpers van AI hebben controle over de waarden die uiteindelijk bepalen (of net zo belangrijk: niet bepalen) wat voor soort dubbelgeladen technologie gebruikt zal worden en hoe. Je moet hier kritisch naar kijken en AI-bedrijven hierop aanspreken (bijvoorbeeld door een publieke toezichthouder). Verder is wetgeving ook noodzakelijk.
Maar we moeten af van de illusie dat we AI volledig veilig kunnen maken. We accepteren risico’s ook op andere terreinen, zoals sport (blessures) of autorijden.
Daarnaast sta ik ook wel kritisch ten opzichten van degenen die vooral de nadruk leggen op beperkingen en fouten van AI. Deze critici lijken uit te gaan van een autonoom model van AI, terwijl ik meer brood zie in een ondersteunend AI-model. Het is m.i. een veelvoorkomend misverstand dat de generatieve AI het menselijke denkvermogen zal vervangen, ook al is generatieve AI in bepoaalde opzichte superieur aan mensen (bijvoorbeeld veel sneller in het verwerken van gegevens). AI-critici gaan er volgens mij impliciet vanuit dat generatieve AI autonoom opereert of dat gebruikers kritiekloos omgaan met generatieve AI als zij daarmee werken.
Echter, wanneer we generatieve AI beschouwen als een ondersteunende kracht, een soort assistent, verandert het perspectief. De rol van AI is dan niet om mens te vervangen, maar om samen te werken. Generatieve AI bereidt het werk bijvoorbeeld voor. Generatieve AI hoeft dan niet foutloos te zijn. De mens is degene die de opdrachten geeft, feedback verstrekt, de context van de taak uiteenzet en het resultaat van de AI verbetert of verfijnt. Net zoals je doet bij een assistent van vlees en bloed. Een assistent voert bepaalde taken bijvoorbeeld beter uit dan jij kunt. Maar de assistent neemt geen definitieve besluiten, en maakt ook fouten (net als jij trouwens doet). Als je met een menselijke assistent werkt, dan controleer en corrigeer je ook de werkzaamheden. Bij generatieve AI zou dat niet anders moeten zijn.
Andere bronnen over generatieve AI
- Neuroscience and Technology Key to Rethink How Students Learn
- Applying AI – How and Why
- What Is Age-Appropriate Use of AI? 4 Developmental Stages
- ChatGPT in the Co-creation Process for Applied Research Projects
- AI, Content and Context
- AI in Higher Ed
- Generative AI in a Nutshell (video)
- Generative AI in a Nutshell (mindmap)
- ‘ChatGPT dwingt je om je onderwijs onder de loep te nemen’ – Zorgonderwijsvernieuwers
- Microsoft investeert in Frans AI-bedrijf
- Onrust in Europa over investering Microsoft in Mistral
- What if we outsource boring but important work to AI?
- How to Use ChatGPT’s Memory Feature
- Google introduces a lightweight open AI model called Gemma
- Google unveils Genie: AI model creating playable virtual worlds from a single image
- Google’s Gemini Is Better Than GPT
- Microsoft partners with Mistral in second AI deal beyond OpenAI
- The ChatGPT list of lists: A collection of 3000+ prompts, GPTs, use-cases, tools, APIs, extensions, fails and other resources
- 7 Awesome and Free AI Tools You Should Know
- Sora: What Educators Need to Know About The Video Version of ChatGPT
- Tyler Perry warns of AI threat after Sora debut
- Perspectives on Generative AI
- How college professors are using generative AI to teach
- AI in education is a public problem
- 4 Disruptive Trends For Higher Ed In 2024
- Google’s Language Models Are Open Weight, Not Open Source
- Driving K-12 Innovation: Generative AI is key
- Generative AI – a primer
- Guidelines for the Use of Gen AI Across Campus
- How all of the world’s school systems can improve learning at scale
- Teaching Information Literacy in an Age of Misinformation
- Key Hurdles, Accelerators, and Tech Enablers in Education for 2024
- Early Childhood Teachers Require a Unique Approach to Tech Coaching
- AI Low on Superintendents’ Priority List
- Exploring Opportunities and Challenges with Generative AI
- How AI Is Reshaping Our Universities
- AI is enabling students to create their best work
- AI Cheating: Education Needs Its Anti-Doping Movement
- Enhance Your ADDIE with AI: Eight Prompts to Use Now
- Forecasts: GenAI Market to Be Worth $100B by 2028
- AI Report Suggests a Wave of Disruption Is Coming
- AI Wants Our Jobs…All of Them
- AI and the future of workplace learning
- Deepfake Pedagogy
- How Educators Can Easily Keep Up
- AI Showdown: ChatGPT vs Google’s Gemini – Which Reigns Supreme?
- There’s a New Sheriff in Town: AI
- Sora: What Educators Need to Know About the Video Version of ChatGPT
- The Role of Generative AI in HR
- ChatGPT Gets a Memory: Here’s All You Need to Know About This Groundbreaking Innovation
- The Amazing Ways Walmart Is Using Generative AI
- Generative AI Upskilling Can Help Future-Proof Your Company
- Gemini Google
- Teach ChatGPT to Write Like You
- Le Chat: New AI Chatbot Alternative to ChatGPT, Gemini, Poe
- Tumblr, Midjourney, OpenAI Training Data Deal Report
- Gemini0224
- Good Student AI Getting Smarter
- OpenAI CEO Sam Altman Reveals Insights on GPT-5, Says It Will Be Better at Everything
- Artificial Superintelligence (ASI)
- AI Content and Context
- Emote Portrait Alive
- Een AI Studiecoach Dat Dit Nog Niet Bestaat
- Singapore Harnessing Technology for Resilient Economy
- Did OpenAI Sora Just Kickstart the Era of Generative Video?
- AI in Education is a Public Problem
- The Leapfrog Hypothesis for AI
- All AIs Are Not Alike: Some Basic Differences
- On Not Using Generative AI
- Synthetic Data is About to Transform Artificial Intelligence
- De Kracht Van AI Als Coach: Een Dialoog Met Greta Meta Mutsaarts
- ChatGPT: Deutsche Unternehmen Unterschätzen Relevanz Massiv
- Simplifying AI for Educators: The 3 Things You Really Need to Know for Right Now
- AI is Becoming an Integral Part of Our Lives
- Read What Educators in China Are Saying About AI
- Remotasks: AI Expert Data Labor
- How to Use AI to Make Your E-Learning Easier and More Personalised
- Use AI to Help with Employee Performance Evaluations
- Top 13 Reasons Teachers Avoid ChatGPT and Other AI Tools
- Online Course: Basics of AI – Finland Free Elements
- AI Will Shake Up Higher Ed: Are Colleges Ready?
- Applying Multimodal AI to L&D
- Generative AI and the Future of New York
Mijn bronnen over (generatieve) artificiële intelligentie
Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.
This content is published under the Attribution 3.0 Unported license.
Geef een reactie