Als je leest over (generatieve) AI, dan kom je de term ‘AI-guardrail’ regelmatig tegen. McKinsey heeft een informatief artikel geschreven over wat deze vangrails zijn (inclusief voordelen, typen, de werking, de waarde en de toepassing ervan).
AI-guardrails zijn richtlijnen en technische maatregelen die organisaties helpen om AI, met name generatieve AI (gen AI) en large language models (LLM’s), verantwoord te gebruiken. Deze vangrails zorgen ervoor dat AIsystemen consistent voldoen aan de normen, beleidsregels en waarden van een organisatie.
Generatieve AI heeft volgens McKinsey veel voordelen zoals efficiëntie en innovatie, maar brengt ook risico’s met zich mee zoals verkeerde informatie verstrekken, beveiligingslekken en ethische problemen. AI-guardrails dienen als beschermmechanisme om deze risico’s te beperken. Ze ondersteunen:
- Privacy en Beveiliging. Bescherming tegen aanvallen die AI-systemen willen manipuleren.
- Regelgeving. Naleving van wet- en regelgeving waardoor juridische risico’s meer beperkt worden.
- Vertrouwen. Waarborging van correcte en ethische verantwoorde output. Dit kan reputatieschade voorkomen.
Soorten Guardrails
McKinsey onderscheidt diverse soorten AI-guardrails:
- Geschiktheid (appropriateness). Filtert inhoud die schadelijk, bevooroordeeld of stereotyperend is.
- ‘Hallucineren’ (hallucination). Voorkomt feitelijke onjuistheden in de gegenereerde output.
- Naleven van regelgeving (regulatory compliance). Verifieert naleving van regelgeving.
- Afstemming (alignment). Zorgt dat output overeenkomt met gebruikersverwachtingen en bedrijfswaarden.
- Valideren (validation). Controleert of output aan specifieke criteria voldoet, met een correctieproces voor afwijkingen.
Guardrails maken daarbij gebruik van diverse technologieën zoals:
- Open-source bibliotheken zoals Nvidia’s NeMo Guardrails en OpenAI’s Moderation.
- Modulaire systemen, zoals LangChain, waarmee organisaties guardrails kunnen integreren in bestaande workflows.
Guardrails werken vaak deterministisch, met vier kerncomponenten:
- Checker: detecteert fouten.
- Corrector: corrigeert inhoud.
- Rail: Coördineert controle en correctie.
- Guard: Beheert alle processen en levert veilige output.
MicKinsey geeft onder meer het voorbeeld van ING. Deze financiële instelling past AI-guardrails toe bij de ontwikkeling van een chatbot. Deze guardrails zorgeen voor naleving van regelgeving en veilige interacties met klanten. Door dergelijke maatregelen kunnen bedrijven vertrouwen winnen, juridische risico’s vermijden, met als neveneffect het aantrekken van talent.
De bijdrage van McKinsey gaat ook in op hoe je dergelijke vangrails op grotere schaal toepast. Ten eerste is het van belang om een divers team samen te stellen dat de veiligheidsmaatregelen ontwerpt. Dit team moet bestaan uit verschillende experts, waaronder juridische specialisten, die mogelijke risico’s kunnen identificeren en beoordelen. Vervolgens is het belangrijk om duidelijke kwaliteitscriteria vast te stellen die aansluiten bij de organisatiedoelen en geldende regelgeving. Deze criteria moeten onder andere vooroordelen en ongepaste inhoud kunnen herkennen en beoordelen of de output past bij de interne richtlijnen. De veiligheidsmaatregelen moeten flexibel zijn en aangepast kunnen worden aan verschillende AI-toepassingen. Omdat AI-systemen zich aanpassen op basis van gebruikersinput, is het essentieel om dynamische controlesystemen in te bouwen die de output kunnen monitoren en bijsturen. Tenslotte moet een organisatie investeren in het ontwikkelen van nieuwe vaardigheden en functies. Er zijn volgens McKinsey specialisten nodig die verantwoordelijk zijn voor de resultaten van de AI-systemen en die kunnen zorgen voor transparantie, goed bestuur en eerlijkheid in het gebruik van AI.
Mijn opmerkingen
Zoals ik in de inleiding al schreef, heeft McKinsey een nuttige inleiding geschreven over AI-guardrails. Zij richten zich daarbij op vangrails die een organisatie, die (generatieve) AI toepast, kan ontwikkelen en gebruiken. Ontwikkelaars van generatieve AI-toepassingen zelf zouden dergelijke vangrails echter ook moeten inbouwen in hun systemen. Een overheid zou daar op moeten sturen en toezien. Helaas hebben we ook wat dat betreft weinig te verwachten van de nieuwe Amerikaanse overheid. Zoals de NOS gisteren schreef: de belangen van Silicon Valley gaan de komende vier jaar een grote rol spelen met een groot geloof in technologie, veel vrijheid, weinig regels en overheidsbemoeienis. We moeten wat dat betreft meer vertrouwen op de EU.
Andere bronnen over generatieve AI
- Personas met ChatGPT: Snel je doelgroep in beeld
- Friday Finds: Custom GPT for Instructional Design, Good Enough Prompting, AI Video for Learning
- Getting Started with AI: Good Enough Prompting
- AI Act Factsheet Resources
- SURF test volwassenheidsmodel voor AI-ethiek
- Wat is er fout aan deze video over AI in de klas?
- Getting started with AI: Good enough prompting
- The next massive upgrade to ChatGPT is coming in January
- Conversational AI vs. Generative AI : Best Guide
- How to use Claude AI
- Addressing Gaps in Practice with Artificial Intelligence
- How AI Can Help Support Administrative Processes for Educators
- How Google’s LearnLM generative AI models support teachers and learners
- Charm your chatbot: Magic words that boost AI responsiveness
- The Edtech Insiders Generative AI Map
- AI can now create a replica of your personality
- AI and megaplatforms take over, hyperlinks may face extinction
- ChatGPT Search und die Zukunft der Websuche
- ChatGPT’s Windows desktop app is available to free users too
- ChatGPT FREE for Windows Desktop users, first impressions
- Is My Role Going To Change?
- Top seven AI tools transforming digital content creation
- ChatGPT is transforming peer review
- Best AI Tools for students
- Can AI review the scientific literature
- Brisk Teaching – Free AI for Teachers
- Humanize AI Text – Free AI Humanizer & AI-to-Human Converter
- AI: Your Co-Teacher for the Project-Based Learning Journey
- Lessons From An AI Grading Tool Already Assessing Millions of Students
- Is Generative AI and ChatGPT healthy for Students?
- New AI Tools Promoted as Study Aids for Students. Doing More Harm Than Good?
- Has Technology Been Bad for Reading and Learning?
- Despite privacy concerns, higher ed’s AI adoption surges
- Fewer books and more educational software
- Should Students Chat With AI Versions of Historical Figures?
- How AI can unleash student curiosity, creativity, and critical thinking
- How chatbots are helping university students stay on track
- China, US and Britain lead rapid rise in papers on AI in HE
- The Proliferation of AI Literacy Frameworks
- The Future of Instructional Design in the AI Era
- How Do Students and Teachers Perceive Quality in Online Education?
- The Evolving Role of Educators in the Age of AI
- Evidence in Ed Tech: A matter of importance
- [eBook] Artificial Intelligence and Education
- [PDF] Education Hazards of Generative AI
- (PDF) A Cognitive Revolution: Generative Artificial Intelligence in Higher Education
- Integrating generative AI in knowledge building
- Cheating Has Become Normal
- What to Know About AI Misinformation
- AI-generated images threaten science
- Scientists predict AI to generate millions of tons of e-waste
- Federal toolkit targets safe, ethical AI use in classrooms
- AI Content Detector
- Eleven most reliable AI content detectors
- The ‘Bias Machine’: How Google Tells You What You Want to Hear
- The Dark Side of Artificial Intelligence
- The Declining Brand Value of Twitter/X [Infographic]
- Bluesky Is Turning Into a Strong X Alternative
- How To Introduce Your Kids To AI
- 7 Pillars For Safely Adopting GenAI In The Enterprise
- Leveraging Conversational AI Role-Play In L&D
- What bosses miss about AI
- Is AI Adoption Heading for a Plateau?
- Why Agentic AI Will Transform The Way We Work
- Building Your AI Strategy Alone: Is It The Right Move?
- Building Trust In AI: Overcoming Bias, Privacy And Transparency Challenges
- How AI Is Reshaping Industries And Creating Tomorrow’s Job Market
Mijn bronnen over (generatieve) artificiële intelligentie
Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.
This content is published under the Attribution 3.0 Unported license.
Geef een reactie