Expertise

Dutch

Plan Gesprek

Dutch

Expertise

Dutch

Plan Gesprek

Blog banner MSTR over RAG (retrievel augmented generation) binnen generative AI

Wat is Retrieval Augmented Generation, ook wel RAG?

Wat is Retrieval Augmented Generation, ook wel RAG?

Wat is Retrieval Augmented Generation, ook wel RAG?

Retrieval Augmented Generation (RAG) is een innovatieve techniek waarmee generatieve AI-modellen, zoals large language models (LLM’s), hun antwoorden kunnen aanvullen met actuele informatie uit externe bronnen. Dit verhoogt de nauwkeurigheid, betrouwbaarheid én transparantie van AI-systemen. RAG wordt steeds populairder bij Nederlandse bedrijven vanwege de hoge eisen op het gebied van dataveiligheid en bronvermelding.

Uitleg aan de hand van een illustratie:

Zie RAG als een Nederlandse rechtbank. Een rechter gebruikt zijn algemene begrip van de wet, maar vraagt soms de griffier om recente jurisprudentie of specifieke gevallen uit te zoeken. Net zo schakelen AI-modellen met RAG externe hulpmiddelen in om hun advies te staven met relevante bronnen. Zo heb je altijd een onderbouwd en controleerbaar besluit, op maat van de casus.

In de AI-wereld is deze assistent een proces genaamd retrieval-augmented generation, oftewel RAG.

Wat is RAG in generative AI?

Generative AI-modellen, zoals GPT-4 of Llama 3 zijn getraind op grote hoeveelheden tekst en kunnen daardoor veel vragen beantwoorden. Maar up-to-date en bedrijfsspecifieke vragen stellen hoge eisen. RAG combineert de brede taalvaardigheid van LLM’s met de actuele kennis uit externe bronnen, waardoor de AI:

  • specifiekere antwoorden kan geven;

  • altijd bronnen kan tonen;

  • minder snel ‘hallicuneert’;

  • beter voldoet aan AVG- en audit-eisen in Nederland.

Het combineren van interne en externe kennis

RAG maakt het mogelijk voor AI-modellen om bronnen te vermelden, net zoals voetnoten in een onderzoeksrapport. Dit geeft gebruikers vertrouwen, omdat ze de beweringen van het model kunnen controleren. Deze techniek helpt ook om onduidelijkheden in vragen van gebruikers op te helderen en verkleint de kans dat een model een verkeerde output geeft, wat 'hallucinatie' wordt genoemd.

Met RAG hoef je een model niet opnieuw te trainen met extra datasets, wat het een relatief voordelige oplossing maakt. Bovendien kunnen gebruikers hiermee snel en eenvoudig schakelen tussen verschillende bronnen.

De geschiedenis van RAG

De geschiedenis van retrieval-augmented generation (RAG) gaat terug tot de vroege jaren '70. Toen ontwikkelden onderzoekers in informatie-opvraging de eerste vraag-antwoord systemen, applicaties die natural language processing (NLP) gebruikten om toegang te krijgen tot tekst. 

Door de jaren heen bleven de concepten achter deze vorm van tekstmining vrij constant, maar de machine learning engines die ze aandrijven zijn aanzienlijk gegroeid, wat hun bruikbaarheid en populariteit verhoogde.

Halverwege de jaren negentig maakte de Ask Jeeves-service (in de VS), nu Ask.com, het beantwoorden van vragen populair met de mascotte van een goedgeklede bediende. Vandaag de dag tillen LLM's deze systemen naar een geheel nieuw niveau.


Ask Jeeves, een vroege RAG-achtige webservice

Afbeelding van Ask Jeeves, een vroege RAG-achtige webservice

Hoe werkt Retrieval Augmented Generation? (drie stappen)

RAG is een complex proces waar veel over gesproken wordt binnen het spectrum van generative AI. Maar hoe werkt het eigenlijk en waarvoor is het precies bedoeld? RAG werkt volgens drie duidelijke stappen:


Simpele uitleg RAG (Retrieval Augmented Generation)


  1. Identificeren: Alle externe documenten (wetboeken, klantdossiers, producthandleidingen, interne kennisbanken) worden geïndexeerd en vindbaar gemaakt voor het AI-model.

  2. Ophalen: Op basis van de vraag haalt het model de meeste relevante informatie (bijvoorbeeld wetten, klantdossiers, productinformatie) uit deze bronnen op.

  3. Genereren: Het AI-model combineert de externe informatie met zijn eigen kennis tot een accuraat, controleerbaar antwoord, inclusief bronvermelding.

Voorbeeld:
Een medewerker vraagt: “Wat zijn de AVG-vereisten voor klantgegevenopslag bij zorgverzekeraars in Nederland?”
Met RAG krijgt hij direct het actuele artikel uit de AVG én de toelichting uit de interne compliance-documentatie, mét bronvermelding.

Wanneer gebruikers een vraag stellen aan een AI-model, wordt de vraag eerst omgezet in een numerieke vorm, ook wel een 'embedding' of 'vector' genoemd. Dit is vergelijkbaar met het vertalen van de vraag in een taal die machines kunnen begrijpen.

Vervolgens zoekt het model in een grote verzameling informatie (een database) naar stukjes tekst die lijken op de numerieke vorm van de vraag. Deze database is ook omgezet in numerieke waarden, zodat het model snel en efficiënt kan zoeken naar relevante informatie.

Als het model een of meerdere relevante stukjes tekst vindt, haalt het deze op en combineert dit met zijn eigen kennis om een passend antwoord te formuleren. Het resultaat is een antwoord op de vraag van de gebruiker, mogelijk aangevuld met verwijzingen naar de gevonden informatie in de database.

Praktische toepassingen van RAG in Nederland

RAG is breed inzetbaar, bijvoorbeeld:

  • In de financiële sector voor compliance-antwoorden (Wft, AML);

  • Binnen de zorg voor AVG- en dossierbeantwoording;

  • In e-commerce voor actuele productinformatie richting klanten;

  • In juridische omgevingen voor jurisprudentieën case-based advies.

Nederlandse bedrijven zoals verzekeraars, gemeenten en advocatenkantoren, halen zo sneller, veiliger en betrouwbaarder de juiste antwoorden én kunnen klanten of auditors direct naar de bron leiden.

Hoe kan je data veilig RAG implementeren?

Dataveiligheid is cruciaal. Microsoft Azure biedt hoge standaarden op het gebied van authenticatie, dataversleuteling en auditlogs, net zoals je je gewend bent van Outlook of Word. Voor flexibelere toepassingen kun je Pinecone of PG Vector overwegen als vector database; dit biedt schaalbaarheid, maar vereist meer aandacht voor privacy en governance.

Met open-source bibliotheken zoals LangChain bouw je eenvoudig je eigen RAG-workflow, geïntegreerd LLM's, embedding-modellen en je bestaande kennisbanken. De LangChain-gemeenschap biedt een eigen beschrijving van een RAG-proces

Let op: deze zijn vaak gebruiksvriendelijk, maar voldoen qua veiligheid meestal niet aan dezelfde Nederlandse bedrijfs- en privacy-standaarden als Azure.

Voordelen van Retrieval Augmented Generation voor jouw organisatie

  • Hogere nauwkeurigheid: Minder gokwerk, antwoorden zijn onderbouwd met actuele en relevante bronnen.

  • Transparantie en controle: Mogelijkheid tot bronvermelding bij antwoorden (ideaal voor audits of onderbouwing in rapporten).

  • Snelle implementatie: Externe kennis direct toevoegen, zonder het model opnieuw te trainen.

  • AVG-proof: Eenvoudiger afstemmen op Nederlandse privacy-eisen.

FAQ: Veelgestelde vragen over RAG

1. Hoe werkt RAG in de praktijk?

RAG zoekt relevante informatie op uit beveiligde databases en voegt deze toe aan het AI-antwoord en toon altijd de gebruikte bron.

2. Welke Nederlandse bedrijven gebruiken RAG?

Vooral financiële instellingen, advocatenkantoren, gemeenten en zorgaanbieders zetten RAG in voor compliance, auditing en klantenservice.

3. Hoe veilig is RAG met Microsoft Azure?

Microsoft Azure garandeert end-to-end beveiliging en is uitvoerig gecertificeerd voor AVG-compliant werken in Nederland.

4. Kan ik RAG ook combineren met open-source tools?

Ja, dat kan bijvoorbeeld met LangChain in combinatie met Pinecone of PG Vector als vector-database.


Direct starten met RAG?

RAG biedt enorme kansen voor bedrijven om hun klantenservice, interne kennisdeling en besluitvorming te verbeteren. Door het combineren van krachtige taalmodellen met bedrijfsspecifieke informatie, kunnen organisaties 'Assistants' creëren die in staat zijn om diepgaande, accurate antwoorden te geven op complexe vragen. 

Wil je als organisatie zelf profiteren van RAG? Start eenvoudig:

  1. Bepaal je kennisbronnen.

  2. Kies voor een veilige en betrouwbare infrastructuur (zoals Microsoft Azure).

  3. Test en experimenteer met kleine use cases om de beste resultaten te behalen voor jouw specifieke use case.

De mogelijkheden van RAG zijn eindeloos en we staan nog maar aan het begin van dit spannende tijdperk van AI-gedreven ontwikkelingen. Bedrijven die nu de stap zetten en RAG omarmen, zullen een belangrijke voorsprong hebben op hun concurrenten en beter in staat zijn om te voldoen aan de steeds hogere verwachtingen van klanten en medewerkers.

Vragen of advies nodig? Neem contact op en ontdek wat RAG voor jouw bedrijf kan betekenen.

Author Silas Muiderman
Silas Muiderman

Co-founder