Ik heb gisteren tijdens AI-deas for learning van SBO een sessie verzorgd over het maken van afspraken, regels en richtlijnen binnen organisaties om op een verantwoorde manier gebruik te maken van generatieve AI-toepassingen zoals ChatGPT, Google Bard en MidJourney.
(Generatieve) AI-toepassingen kunnen fungeren als persoonlijk assistent van professionals en kan hen helpen het werk cognitief te versoepelen door het ondersteunen bij tal van taken (er zijn voorbeelden te over). Tegelijkertijd kleven er ook risico’s aan. Volgens mij moet je met elkaar afspraken maken, en regels en richtlijnen afspreken om die risico’s hanteerbaar te maken en de potentie te benutten.
Ik heb deelnemers gevraagd: Heeft jullie organisatie afspraken/richtlijnen over het gebruik van generatieve AI? Dit was de uitkomst:
Vervolgens ben ik stil blijven staan bij de volgende risico’s (er zijn meer risico’s en beperkingen):
- De output van generatieve AI is niet altijd correct of zelfs onzin. Je weet ook niet zeker wat er met de data gebeurd die je er instopt. Verder hebben ontwikkelaars zonder toestemming gebruik gemaakt van content van derden zoals schrijvers, en bevatten de taalmodellen veel bias. Je moet dus de output van generatieve AI nog kritischer beschouwen en meer beschouwen als een ‘halfproduct’ dat niet zonder meer kan worden gebruikt.
- Het gebruik van generatieve AI vergt veel energie. Wees daarom terughoudend met het intensief en niet-functioneel gebruiken van generatieve AI.
Ik ben ook ingegaan op de relatie tussen AI en vertrouwen. Veel Nederlanders hebben betrekkelijk weinig vertrouwen in AI. Als mensen niet-correcte informatie gebruiken, als taalmodellen niet-correcte output hergebruiken, als mensen AI gebruiken om anderen woorden in de mond te leggen, enzovoorts dan kunnen we zelfs te maken krijgen met een situatie waarin we veel van wat we lezen, horen en zien niet meer kunnen vertrouwen.
Het maken van interne afspraken, richtlijnen en regels met betrekking tot:
- De input (o.a. privacy, bedrijfsgevoelige informatie, prompts).
- Het beschouwen van de output als ‘half product’.
- Het checken van de inhoud (op basis van ‘vakkennis’).
- Het transparant zijn over het gebruik.
- Het laten beoordelen door mensen.
- Het beperken van energieverbruik.
is volgens mij daarom van belang.
Ik heb verschillende voorbeelden van dergelijke afspraken laten zien, en heb de aanwezigen volgens eigen afspraken/regels/richtlijnen laten formuleren en bediscussiëren.
Dit zijn de afspraken/regels/richtlijnen die de deelnemers hebben geformuleerd: https://www.te-learning.nl/blog/wp-content/uploads/2023/10/Afspraken-regels-en-richtlijnen-gebruik-Generatieve-AI.pdf
Hier vind je mijn slides: https://www.te-learning.nl/blog/wp-content/uploads/2023/11/AfsprakenmakenovergebruikChatGPT.pdf
Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.
This content is published under the Attribution 3.0 Unported license.
Geef een reactie