Kunnen we nog vertrouwen op digitale publicaties? Hoe weten we dat de inhoud niet verzonnen is door een toepassing als ChatGPT? Normaal gesproken let je dan onder meer op de auteur van de bijdrage. Is deze vertrouwenwekkend en deskundig? In tijden van generatieve AI blijft dit m.i. een belangrijk criterium. Maar dit betekent wel dat de auteur transparant moet zijn over hoe die generatieve AI-toepassingen gebruikt.
In deze bijdrage wil ik daarom aangeven welke richtlijnen ik gebruik bij een verantwoord gebruik van generatieve AI-toepassingen.
Welke generatieve AI-toepassingen gebruik ik met welk doel?
- ChatGPT (versie GPT-4) en Claude (betaalde versie). Ik gebruik deze tools voor het genereren van allerlei teksten, door middel van het geven van opdrachten of het stellen van vragen. Ik laat ChatGPT centrale boodschappen formuleren op basis van teksten, samenvattingen maken, ideeën formuleren, informatie genereren, reacties formuleren, concept-artikelen op basis van mijn teksten schrijven, teksten herschrijven, enzovoorts. Onderstaande regels en richtlijnen zijn onder meer geschreven met behulp van ChatGPT.
- Perplexity. Voor zoekopdrachten.
- DALL-E. Ik gebruik deze tool om afbeeldingen te genereren die ik gebruik ter illustratie van bijdragen zoals blogposts en presentaties. Ik gebruik DALL-E ook in combinatie met ChatGPT.
- Vertaaltools. Met name Deepl.
- Andere tools voor het genereren van teksten (bijvoorbeeld Google Gemini), beelden en video. Met name om te experimenteren.
Welke richtlijnen hanteer ik?
- Transparantie. Ik ben open en eerlijk over het gebruik van generatieve AI-toepassingen. Heel veel producten die ik produceer, zijn met behulp van ChatGPT of Claude gegenereerd of bewerkt. Ik gebruik de output van applicaties als ChatGPT, Claude en vertaaltools nooit klakkeloos.
- Menselijke beoordeling. Ik ben me ervan bewust dat generatieve AI-toepassingen als ChatGPT nuttig en krachtig zijn, maar dat deze toepassingen ook fouten kunnen maken, bevooroordeeld kunnen zijn of informatie kunnen genereren die verkeerd geïnterpreteerd kan worden. Daarom zal ik alle output die gegenereerd wordt door generatieve AI-toepassingen als ChatGPT handmatig beoordelen, waar nodig verbeteren en verwerken voordat ik deze met anderen deel. Ik gebruik daarnaast altijd andere bronnen dan ChatGPT of Claude.
- Bronvermelding. Als ik generatieve AI-toepassingen gebruik, zal ik daar waar relevant en passend is, altijd op zoek gaan naar de bron van een gepresenteerd concept, feit, bewering, theorie, etc. Ik vermeld de gevonden bron(nen) dan in mijn bijdrage. Ik wil auteursrecht en intellectueel eigendom van anderen respecteren.
- Privacy en vertrouwelijkheid. Ik gebruik generatieve AI-toepassingen nooit om vertrouwelijke informatie van klanten en andere relaties te verwerken of te genereren. Daaronder vallen uiteraard ook persoonsgegevens. Ik kan generatieve AI-toepassingen wel gebruiken voor het formuleren van feedback op uitwerkingen van opdrachten van lerenden of voor het formuleren van reacties op mails. Ik zorg er dan voor dat de input geen vertrouwelijke informatie bevat en niet herleidbaar is naar personen of organisaties. Ik ben me ervan bewust dat generatieve AI-toepassingen op dit moment ingevoerde informatie kunnen opslaan of delen.
- Gebruik voor passende taken. Generatieve AI-toepassingen hebben sterke kanten en beperkingen, en moeten dienovereenkomstig worden gebruikt. Ik gebruik deze applicaties alleen voor toepassingen waar deze sterk in zijn. Maar ook dan geldt de richtlijn van menselijke beoordeling.
- Continue leren en verbetering. Ik gebruik generatieve AI-toepassingen als assistent om mijn werk efficiënter te maken. Ook gebruik ik generatieve AI-toepassingen om op nieuwe ideeën te komen. Het gebruik van generatieve AI-toepassingen komt echter niet in de plaats van leeractiviteiten ten behoeve van mijn voortdurende professionele ontwikkeling.
- Ethisch gebruik. Ik gebruik generatieve AI-toepassingen op een ethische manier. Dit betekent dat ik deze toepassingen niet gebruik om misleidende, onjuiste of schadelijke informatie te creëren. Ik gebruik generatieve AI-toepassingen in lijn met de professionele en ethische normen en waarden die ik in mijn werk toepas.
- Zuinig met energie. Ik ben me ervan bewust dat generatieve AI-toepassingen veel energie verbruiken. Ik gebruik generatieve AI daarom niet als ik ook via zoekmachines of online bronnen zoals Wikipedia hetzelfde resultaat kan bereiken, zelfs als dat wat minder efficiënt is. Ik gebruik generatieve AI-toepassingen ook functioneel. Het kan wel gebeuren dat ik tijdens workshops minder serieuze prompts gebruik, ter illustratie van de werking van generatieve AI.
- Verantwoording. Ik neem ten alle tijde de verantwoording voor de uitkomsten van het gebruik van generatieve AI-toepassingen, ook als de AI-toepassing onverwachte of onbedoelde resultaten produceert.
- Regelmatige evaluatie. Tenslotte ik evalueer regelmatig de impact en effectiviteit van het gebruik van AI in mijn werk, om te zorgen dat het blijft voldoen aan mijn doelen en waarden.
Deze regels en richtlijnen kunnen periodiek worden herzien en bijgewerkt naarmate ik meer leer over de beste manieren om generatieve AI-toepassingen in mijn werk te integreren. Ik sta open voor voor ervaringen en inzichten van anderen bij het voortdurende proces van het ontwikkelen van deze richtlijnen.
Deze richtlijnen zijn tot stand gekomen met behulp van ChatGPT. Ik heb ChatGPT eerst de opdracht gegeven:
Jij bent werkzaam bij een adviesbureau waar tien consultants werken. Jij ziet veel mogelijkheden in het gebruik van ChatGPT binnen je werk (voor het schrijven van memo’s, het reageren op mails enzovoorts). Je vindt echter dat je richting je klanten transparant moet zijn in hoe je ChatGPT gebruikt. Formuleer daarom regels en richtlijnen ten behoeve van een verantwoord gebruik van ChatGPT door de consultants van jouw adviesbureau.
Vervolgens heb ik de output bewerkt, herschreven, toegespitst op mijn context en aangevuld. Daarna heb ik ik ChatGPT gevraagd:
Ik ben werkzaam als zelfstandig adviseur, projectleider, docent en blogger. Ik maak veel gebruik van generatieve AI-toepassingen zoals ChatGPT. Ik wil hierover naar mijn klanten en relaties transparant zijn. Daarom heb ik een aantal richtlijnen geformuleerd, ook met behulp van ChatGPT. Hieronder vind je deze richtlijnen. Heb jij nog belangrijke aanvullingen?
Bronnen over een verantwoord gebruik van generatieve AI
- The Need for Guidance
- 8 Questions About Using AI Responsibly, Answered
- Responsible use of Generative Artificial Intelligence (2022-2023 academic year)
Zie ook: Mijn bronnen over (generatieve) artificiële intelligentie
Ook op deze bijdrage is de Creative Commons-licentie CC-By 3.0 van toepassing.
Versie: 24 augustus 2024
This content is published under the Attribution 3.0 Unported license.
Een erg interessante en nuttige bijdrage in de soms opgewonden discussie rond kunstmatige intelligentie. Dank je, Wilfred!
Graag gedaan!
Ik volg al jaren met veel belangstelling je posts, Wilred. Ik ben je daar ook dankbaar voor. Door het gebruik van AI verandert er iets in de ’toon’ van wat je schrijft. Ook al is het inhoudelijk zeer interessant, de ’toon’ waarop het geschreven is, is anders dan voordien.
Ik vind het moeilijk om uit te drukken wat ik wil zeggen, ik doe een poging.
De tekst zit op eenzelfde ’toonhoogte’, de variaties zijn er uit. Dit maakt het ‘minder Wilfred’ en meer Chatgpt, meer ‘egaal’ zonder variatie.
Het zal wennen worden. Inhoudelijk blijft het zeer waardevol.
Dank voor je reactie. Opvallend. Ik bewerk de teksten namelijk altijd.Ik maak er mijn eigen tekst van. Mmmm…
Het kan ook aan mij liggen en de bias die het artikel veroorzaakte.