Wat zijn ‘AI-guardrails’?

Als je leest over (generatieve) AI, dan kom je de term ‘AI-guardrail’ regelmatig tegen. McKinsey heeft een informatief artikel geschreven over wat deze vangrails zijn (inclusief voordelen, typen, de werking, de waarde en de toepassing ervan).

Hier is de afbeelding die een AI-toepassing voorstelt met een fles bier tussen vangrails.
DALL-E: Hier is de afbeelding die een AI-toepassing voorstelt met een fles bier tussen vangrails.

AI-guardrails zijn richtlijnen en technische maatregelen die organisaties helpen om AI, met name generatieve AI (gen AI) en large language models (LLM’s), verantwoord te gebruiken. Deze vangrails zorgen ervoor dat AIsystemen consistent voldoen aan de normen, beleidsregels en waarden van een organisatie.

Generatieve AI heeft volgens McKinsey veel voordelen zoals efficiëntie en innovatie, maar brengt ook risico’s met zich mee zoals verkeerde informatie verstrekken, beveiligingslekken en ethische problemen. AI-guardrails dienen als beschermmechanisme om deze risico’s te beperken. Ze ondersteunen:

  • Privacy en Beveiliging. Bescherming tegen aanvallen die AI-systemen willen manipuleren.
  • Regelgeving. Naleving van wet- en regelgeving waardoor juridische risico’s meer beperkt worden.
  • Vertrouwen. Waarborging van correcte en ethische verantwoorde output. Dit kan reputatieschade voorkomen.

Soorten Guardrails

McKinsey onderscheidt diverse soorten AI-guardrails:

  1. Geschiktheid (appropriateness). Filtert inhoud die schadelijk, bevooroordeeld of stereotyperend is.
  2. ‘Hallucineren’ (hallucination). Voorkomt feitelijke onjuistheden in de gegenereerde output.
  3. Naleven van regelgeving (regulatory compliance). Verifieert naleving van regelgeving.
  4. Afstemming (alignment). Zorgt dat output overeenkomt met gebruikersverwachtingen en bedrijfswaarden.
  5. Valideren (validation). Controleert of output aan specifieke criteria voldoet, met een correctieproces voor afwijkingen.

Guardrails maken daarbij gebruik van diverse technologieën zoals:

  • Open-source bibliotheken zoals Nvidia’s NeMo Guardrails en OpenAI’s Moderation.
  • Modulaire systemen, zoals LangChain, waarmee organisaties guardrails kunnen integreren in bestaande workflows.

Guardrails werken vaak deterministisch, met vier kerncomponenten:

  • Checker: detecteert fouten.
  • Corrector: corrigeert inhoud.
  • Rail: Coördineert controle en correctie.
  • Guard: Beheert alle processen en levert veilige output.

MicKinsey geeft onder meer het voorbeeld van ING. Deze financiële instelling past AI-guardrails toe bij de ontwikkeling van een chatbot. Deze guardrails zorgeen voor naleving van regelgeving en veilige interacties met klanten. Door dergelijke maatregelen kunnen bedrijven vertrouwen winnen, juridische risico’s vermijden, met als neveneffect het aantrekken van talent.

De bijdrage van McKinsey gaat ook in op hoe je dergelijke vangrails op grotere schaal toepast. Ten eerste is het van belang om een divers team samen te stellen dat de veiligheidsmaatregelen ontwerpt. Dit team moet bestaan uit verschillende experts, waaronder juridische specialisten, die mogelijke risico’s kunnen identificeren en beoordelen. Vervolgens is het belangrijk om duidelijke kwaliteitscriteria vast te stellen die aansluiten bij de organisatiedoelen en geldende regelgeving. Deze criteria moeten onder andere vooroordelen en ongepaste inhoud kunnen herkennen en beoordelen of de output past bij de interne richtlijnen. De veiligheidsmaatregelen moeten flexibel zijn en aangepast kunnen worden aan verschillende AI-toepassingen. Omdat AI-systemen zich aanpassen op basis van gebruikersinput, is het essentieel om dynamische controlesystemen in te bouwen die de output kunnen monitoren en bijsturen. Tenslotte moet een organisatie investeren in het ontwikkelen van nieuwe vaardigheden en functies. Er zijn volgens McKinsey specialisten nodig die verantwoordelijk zijn voor de resultaten van de AI-systemen en die kunnen zorgen voor transparantie, goed bestuur en eerlijkheid in het gebruik van AI.

Mijn opmerkingen

Zoals ik in de inleiding al schreef, heeft McKinsey een nuttige inleiding geschreven over AI-guardrails. Zij richten zich daarbij op vangrails die een organisatie, die (generatieve) AI toepast, kan ontwikkelen en gebruiken. Ontwikkelaars van generatieve AI-toepassingen zelf zouden dergelijke vangrails echter ook moeten inbouwen in hun systemen. Een overheid zou daar op moeten sturen en toezien. Helaas hebben we ook wat dat betreft weinig te verwachten van de nieuwe Amerikaanse overheid. Zoals de NOS gisteren schreef: de belangen van Silicon Valley gaan de komende vier jaar een grote rol spelen met een groot geloof in technologie, veel vrijheid, weinig regels en overheidsbemoeienis. We moeten wat dat betreft meer vertrouwen op de EU.

Andere bronnen over generatieve AI

  1. Personas met ChatGPT: Snel je doelgroep in beeld
  2. Friday Finds: Custom GPT for Instructional Design, Good Enough Prompting, AI Video for Learning
  3. Getting Started with AI: Good Enough Prompting
  4. AI Act Factsheet Resources
  5. SURF test volwassenheidsmodel voor AI-ethiek
  6. Wat is er fout aan deze video over AI in de klas?
  7. Getting started with AI: Good enough prompting
  8. The next massive upgrade to ChatGPT is coming in January
  9. Conversational AI vs. Generative AI : Best Guide
  10. How to use Claude AI
  11. Addressing Gaps in Practice with Artificial Intelligence
  12. How AI Can Help Support Administrative Processes for Educators
  13. How Google’s LearnLM generative AI models support teachers and learners
  14. Charm your chatbot: Magic words that boost AI responsiveness
  15. The Edtech Insiders Generative AI Map
  16. AI can now create a replica of your personality
  17. AI and megaplatforms take over, hyperlinks may face extinction
  18. ChatGPT Search und die Zukunft der Websuche
  19. ChatGPT’s Windows desktop app is available to free users too
  20. ChatGPT FREE for Windows Desktop users, first impressions
  21. Is My Role Going To Change?
  22. Top seven AI tools transforming digital content creation
  23. ChatGPT is transforming peer review
  24. Best AI Tools for students
  25. Can AI review the scientific literature
  26. Brisk Teaching – Free AI for Teachers
  27. Humanize AI Text – Free AI Humanizer & AI-to-Human Converter
  28. AI: Your Co-Teacher for the Project-Based Learning Journey
  29. Lessons From An AI Grading Tool Already Assessing Millions of Students
  30. Is Generative AI and ChatGPT healthy for Students?
  31. New AI Tools Promoted as Study Aids for Students. Doing More Harm Than Good?
  32. Has Technology Been Bad for Reading and Learning?
  33. Despite privacy concerns, higher ed’s AI adoption surges
  34. Fewer books and more educational software
  35. Should Students Chat With AI Versions of Historical Figures?
  36. How AI can unleash student curiosity, creativity, and critical thinking
  37. How chatbots are helping university students stay on track
  38. China, US and Britain lead rapid rise in papers on AI in HE
  39. The Proliferation of AI Literacy Frameworks
  40. The Future of Instructional Design in the AI Era
  41. How Do Students and Teachers Perceive Quality in Online Education?
  42. The Evolving Role of Educators in the Age of AI
  43. Evidence in Ed Tech: A matter of importance
  44. [eBook] Artificial Intelligence and Education
  45. [PDF] Education Hazards of Generative AI
  46. (PDF) A Cognitive Revolution: Generative Artificial Intelligence in Higher Education
  47. Integrating generative AI in knowledge building
  48. Cheating Has Become Normal
  49. What to Know About AI Misinformation
  50. AI-generated images threaten science
  51. Scientists predict AI to generate millions of tons of e-waste
  52. Federal toolkit targets safe, ethical AI use in classrooms
  53. AI Content Detector
  54. Eleven most reliable AI content detectors
  55. The ‘Bias Machine’: How Google Tells You What You Want to Hear
  56. The Dark Side of Artificial Intelligence
  57. The Declining Brand Value of Twitter/X [Infographic]
  58. Bluesky Is Turning Into a Strong X Alternative
  59. How To Introduce Your Kids To AI
  60. 7 Pillars For Safely Adopting GenAI In The Enterprise
  61. Leveraging Conversational AI Role-Play In L&D
  62. What bosses miss about AI
  63. Is AI Adoption Heading for a Plateau?
  64. Why Agentic AI Will Transform The Way We Work
  65. Building Your AI Strategy Alone: Is It The Right Move?
  66. Building Trust In AI: Overcoming Bias, Privacy And Transparency Challenges
  67. How AI Is Reshaping Industries And Creating Tomorrow’s Job Market

Mijn bronnen over (generatieve) artificiële intelligentie

Deze pagina bevat al mijn bijdragen over (generatieve) artificiële intelligentie, zoals ChatGPT.

This content is published under the Attribution 3.0 Unported license.

Delen

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *