Stel je voor: je stelt een vraag in een besloten Facebook-groep van ouders met kinderen met een extra ondersteuningsbehoefte. Je hoopt en verwacht een antwoord te krijgen van iemand met relevante ervaring. In plaats daarvan krijg je een reactie van een AI-chatbot die doet alsof het een persoon van vlees en bloed is. Volgens Casey Fiesler, universitair hoofddocent Informatica aan de Universiteit van Colorado Boulder, is dit een verontrustende ontwikkeling. Ik ben het daarmee eens, onder meer vanuit vier ethische perspectieven geredeneerd.
In de bijdrage “AI chatbots are intruding into online communities where people are trying to connect with other humans” licht Fiesler toe waarom het gebruik van AI-chatbots in online gemeenschappen problematisch kan zijn. Zij refereert daarbij aan decennialang onderzoek waaruit blijkt dat het menselijke aspect van online gemeenschappen cruciaal is voor zowel het zoeken naar informatie als het vinden van sociale steun. Zij geeft meerdere voorbeelden. Vaders die zich ongemakkelijk voelen bij het vragen om opvoedadvies, vinden een veilige haven in privé-onlineruimtes speciaal voor vaders. LHBTQ+-jongeren sluiten zich vaak aan bij online gemeenschappen om essentiële hulp te vinden en gevoelens van geïsoleerd zijn te verminderen. Fora voor geestelijke gezondheidszorg bieden jongeren een gevoel van verbondenheid en erkenning, naast advies en sociale steun.
Het gebruik van AI-chatbots in dergelijke gemeenschappen kan de voordelen en kracht van deze online communities volgens Fiesler ondermijnen. Binnen een diabetescommunity op Facebook, waar ouders worstelen met de uitdagingen van de zorg voor een jong kind met diabetes, is een antwoord van een AI-chatbot dat beweert te spreken vanuit persoonlijke ervaring en empathie biedt, volgens haar ongepast en wreed.
Casey Fiesler stelt dat AI-chatbots in sommige contexten nuttig kunnen zijn. Bedrijven hebben volgens haar echter de neiging te denken dat AI-chatbots alles kunnen en moeten doen. Er kleven veel nadelen aan het gebruik van taalmodellen als informatiesystemen, vooral wanneer onjuiste informatie gevaarlijk kan zijn, zoals bij een hulplijn voor eetstoornissen of juridisch advies voor kleine bedrijven.
Fiesler stelt m.i. terecht dat verantwoordelijke AI-ontwikkeling en -implementatie controle op tekortkomingen zoals bias en desinformatie impliceert, maar ook inzicht in de contexten waarin AI geschikt en wenselijk is voor de mensen die ermee interacteren. Zij schrijft:
Right now, many companies are wielding generative AI as a hammer, and as a result, everything looks like a nail.
Binnen veel contexten, zoals online gemeenschappen die bedoeld zijn om elkaar ondersteuning te geven, kun je de interactie dan daarom beter aan mensen overlaten.
Mijn opmerkingen
De context beïnvloedt of een toepassing een hoog of beperkt risico heeft. Binnen een online community waar studenten vragen over de organisatie van het onderwijs stellen (‘wanneer is het tentamen?’), is sprake van een beperkt risico. Binnen een online community waarin studenten psychische hulp zoeken, is sprake van een hoog en wellicht zelfs onaanvaardbaar risico. Daar zou je een AI-chatbot niet moeten gebruiken. En, nee, mensen zijn ook niet foutloos in dergelijke communities. Maar wel verantwoordelijk en aanspreekbaar.
Verder zou een AI-chatbot in een online community over de organisatie van het onderwijs geen vragen over psychische ondersteuning moeten beantwoorden. Ook zouden AI-chatbots moeten aangeven als zij niet in staat zijn een vraag adequaat te beantwoorden (soms doen ze dat, maar niet altijd).
Een bekend voorbeeld is ook de AI-chatbot van de Georgia Tech University die in staat bleek een groot aantal praktische vragen van studenten in een forum te beantwoorden. De studenten hadden daarbij niet door dat zij geholpen werden door een AI-chatbot. Een groot verschil met de huidige situatie, is dat de generatie AI-chatbots heden ten dage antwoorden voorspellen, en de antwoorden niet uit een database met gecureerde informatie halen.
Het is m.i. ook relevant om het gebruik van AI-chatbots binnen online communities vanuit het perspectief van ethische theorieën te beschrijven. Vanuit verschillende ethische perspectieven kan het gebruik van chatbots in online gemeenschappen als volgt beoordeeld worden:
- Vanuit de deontologische ethiek, die focust op morele plichten en regels, kun je stellen dat het AI-chatbots die zich voordoen als echte personen moreel verkeerd zijn. Dit druist in tegen de plicht tot eerlijkheid en respect voor autonomie. Mensen hebben het recht om te weten of ze met een mens of AI te maken hebben. Het zou dus altijd duidelijk moeten zijn dat een AI-chatbot een vraag beantwoordt.
- Consequentialisten kijken naar de gevolgen van een handeling om te bepalen of deze ethisch is. AI-chatbots kunnen positieve effecten hebben, zoals snel informatie verstrekken. Maar de nadelen wegen in het geval van de online communities waarschijnlijk zwaarder: ze ondermijnen het vertrouwen, de menselijke verbinding en authentieke steun die zulke gemeenschappen bieden.
- In de deugdethiek staan moreel goede karaktereigenschappen centraal. Vanuit dit perspectief is het dus problematisch om AI-chatbots deze manier in te zetten. Het gebruik druist dan in tegen deugden als integriteit, eerlijkheid en authenticiteit. Het getuigt niet van morele wijsheid om AI-chatbots hiervoor te gebruiken. De ontwikkelaars hebben weinig oog voor de menselijke behoefte aan echte verbinding binnen deze settings.
- De zorgethiek benadrukt waarden als zorgzaamheid, mededogen en verantwoordelijkheid. Binnen de betreffende online gemeenschappen zijn belangrijk en kwetsbaar. Chatbots hierin op een niet-transparante manier laten infiltreren, getuigt niet van zorgzaamheid en gaat in tegen principes van de zorgethiek.
Vanuit ethische invalshoeken is het dus moeilijk om het gebruik van AI-chatbots in deze context ethisch te rechtvaardigen.
Andere bronnen over generatieve AI
- Claude AI: How to Use It to Teach
- AI Candidate Running for Parliament in UK Says AI Can Humanize Politics
- AI: Droom en Dilemma voor Zowel Thuisblijvers als Austin-gangers – Het SXSW Magazine
- Apple and OpenAI: ChatGPT Intelligence and Xbox Handheld – Vergecast
- Relevantie van AI voor Docenten
- Hoe AI Kan Voorkomen Dat AI Jouw Organisatie Schaadt
- AP en RDI: Toezicht op AI-Systemen Vraagt Samenwerking en Moet Snel Geregeld Worden
- Online Education and Generative AI: Welcome to the Age of Virtual AI Tutors
- 2024 EDUCAUSE Action Plan: AI Policies and Guidelines
- 5 Reasons the OpenAI and Apple Partnership Intrigues Me as an Educator
- Mag Ik Je Wat Vragen? – Erno Mijland
- AI Can Help Student Success, but Officials Need Guidance
- Another AI Plagiarism Detector Comes to EdTech
- AI Co-Pilot: Learning More or Outsourcing?
- Van Persona tot Evaluatie – Artikel in TVOO
- Students Are Debating Their Way to AI Literacy
- Met Deze Wetgeving Rond AI Hebben Scholen te Maken
- Zo Beïnvloedt AI het Onderwijs en het Curriculum
- Dit Betekent AI voor de Organisatie en Processen in de School
- Problemen met Generatieve AI
- Een Chatbot als Persoonlijke Leercoach
- AI in Higher Education
- AI Plagiarism Considerations: Part 1
- Training, Not Chatting: The Future of AI Models
- AI Essay Grading Could Help Overburdened Teachers, but Researchers Say It Needs More Work
- Generating Your Own AI Movie: The Future of Filmmaking
- Onderzoek: Meer Dan de Helft van de Nederlanders Hoort Geen Verschil Tussen Echte en Gekloonde Stem van Bekende
- Creating AI Tutors That Don’t Hallucinate
- Why artificial intelligence needs sociology of knowledge: parts I and II
Mijn bronnen over (generatieve) artificiële intelligentie
Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.
This content is published under the Attribution 3.0 Unported license.
Geef een reactie