Wat is retrieval-augmented generation (RAG)?

Retrieval-Augmented Generation (RAG) verrijkt grote taalmodellen door gegevens uit externe kennisbanken te integreren om de nauwkeurigheid en relevantie van uitvoer te verbeteren zonder hertraining. Dit maakt RAG efficiënt en aanpasbaar voor specifieke domeinen.

Demo AI
Wat je moet weten over Generative Adversarial Networks
Waarom is RAG belangrijk? Wat zijn enkele use cases voor retrieval-augmented generation? Wat is het verschil tussen RAG en semantisch zoeken? Wat zijn de componenten die RAG mogelijk maken? Wat zijn uitdagingen voor RAG? Wat zijn de voordelen van RAG? Hoe werkt retrieval-augmented generation? Hoe implementeer je een RAG-systeem? Wat zijn enkele manieren om RAG-prestaties te verbeteren? Wat is de toekomst van retrieval-augmented generation? ServiceNow voor retrieval-augmented generation

De term 'retrieval-augmented generation' komt uit een artikel van Patrick Lewis uit 2020. In dit artikel introduceerde Lewis een methode die de mogelijkheden van generatieve AI-modellen aanzienlijk vergroot door de integratie van externe kennisbronnen. Deze integratie had als doel de nauwkeurigheid en toepasbaarheid van de modellen in verschillende contexten te verbeteren. Hiermee werd RAG gelanceerd als een snel groeiend gebied van onderzoek en toepassing.

De term 'retrieval-augmented generation' beschrijft precies de kernfunctie van de methodologie: het generatieve proces van AI-modellen verrijken door externe gegevens op te halen. Het concept won al snel aan populariteit, wat leidde tot een brede acceptatie in academische en commerciële sectoren. Tegenwoordig ondersteunt RAG talloze AI-systemen in zowel onderzoeksomgevingen als praktische toepassingen, wat een cruciale evolutie betekent in de manier waarop generatieve modellen worden gebruikt en ontwikkeld.

De eerste stap van RAG is het verzamelen van gegevens uit verschillende bronnen, zoals websites, databases of documenten. Deze gegevens worden vervolgens geconverteerd naar een indeling die het model kan doorzoeken en gebruiken. Dit resulteert in een soort externe kennisbibliotheek.

 

Alles uitvouwen Alles samenvouwen Waarom is RAG belangrijk?

Grote taalmodellen (large language models, LLM's) spelen een centrale rol bij ontwikkelingen op het gebied van artificial intelligence, in het bijzonder bij toepassingen voor natuurlijke taalverwerking zoals intelligente chatbots. Deze modellen zijn ontworpen om menselijke tekst te begrijpen en te genereren, met als doel nauwkeurige antwoorden te geven in verschillende contexten. LLM's kennen echter een aantal inherente uitdagingen, die de betrouwbaarheid ervan beïnvloeden.

Een belangrijk probleem met LLM's is dat ze reacties kunnen geven die onnauwkeurig, verouderd of gebaseerd zijn op niet-officiële bronnen. Aangezien LLM's werken op basis van vaste gegevenssets, wordt hun kennis 'bevroren' op het moment dat de training voor het laatst wordt bijgewerkt.

RAG pakt deze uitdagingen aan door een ophaalmechanisme te integreren dat gebruikmaakt van gezaghebbende, up-to-date externe kennisbronnen voordat reacties worden gegenereerd. Deze aanpak verbetert de nauwkeurigheid en relevantie van de door LLM's verstrekte informatie en zorgt ervoor dat de reacties op geverifieerde gegevens berusten. Hierdoor verbetert RAG het vertrouwen bij gebruikers en de controle over de uitvoer van AI-toepassingen.

Maak kennis met Now Intelligence Ontdek hoe ServiceNow AI en analyses uit de laboratoria haalt om de manier waarop bedrijven werken te transformeren en de digitale transformatie te versnellen. Download het e-book
Wat zijn enkele use cases voor retrieval-augmented generation?

Retrieval-augmented generation zorgt voor een revolutie in uiteenlopende bedrijfsfuncties door de nauwkeurigheid en personalisatie van AI-gestuurde taken te verbeteren. Hier volgen enkele belangrijke use cases waarbij RAG een aanzienlijke impact heeft.

De klantenondersteuning verbeteren

RAG-technologie transformeert de klantenservice met geavanceerde chatbots en virtuele assistenten die nauwkeurigere en contextueel relevante reacties bieden. Door de meest recente informatie en gegevens op te zoeken in gezaghebbende bronnen, kunnen deze AI-systemen snelle en gepersonaliseerde oplossingen bieden voor vragen van klanten. Deze mogelijkheid verbetert de reactiesnelheid en verhoogt de klanttevredenheid en operationele efficiëntie.

Content genereren

RAG helpt bedrijven ook bij het maken van hoogwaardige en relevante content, zoals blogposts, artikelen en productbeschrijvingen. Door gebruik te maken van de mogelijkheid om gegevens uit verschillende externe en interne bronnen te verzamelen en te integreren, zorgt RAG ervoor dat de content zowel boeiend als rijk is aan geverifieerde informatie. Dit bespaart veel tijd en resources bij het ontwikkelen van content.

Marktonderzoek uitvoeren

RAG is van onschatbare waarde voor het uitvoeren van grondig marktonderzoek. Er kan uit een breed scala aan online bronnen, waaronder nieuwskanalen, rapporten uit de branche en sociale media, informatie worden verzameld en geanalyseerd. Dit stelt bedrijven in staat markttrends voor te blijven en op gegevens gebaseerde beslissingen te nemen die aansluiten bij de marktdynamiek en huidig consumentengedrag.

De verkoop ondersteunen

Het gebruik van RAG kan het verkoopproces aanzienlijk verbeteren door virtuele ondersteuning te bieden waarbij informatie over producten, inclusief specificaties en voorraadniveaus, wordt opgehaald. Klanten kunnen in real time antwoorden krijgen en persoonlijke aanbevelingen ontvangen op basis van voorkeuren en eerdere interacties. RAG kan zelfs beoordelingen en feedback van verschillende kanalen ophalen om consumenten te helpen bij het nemen van weloverwogen aankoopbeslissingen.

De werknemersbeleving verbeteren

RAG kan de werknemersbeleving verbeteren door een makkelijk toegankelijke centrale kennishub te creëren. Als RAG wordt geïntegreerd met interne databases, kunnen werknemers nauwkeurige, actuele informatie krijgen over alles van bedrijfsrichtlijnen tot operationele procedures. Hierdoor zijn werknemers beter geïnformeerd en worden interne processen gestroomlijnd omdat er minder tijd wordt besteed aan het zoeken naar informatie.

Wat is het verschil tussen RAG en semantisch zoeken?

RAG en semantisch zoeken verbeteren LLM's, maar ze hebben afzonderlijke functies. RAG verbetert LLM's door ze te integreren met externe kennisbronnen, waardoor nauwkeurige en relevante reacties kunnen worden gegenereerd. Het komt bijzonder tot zijn recht in toepassingen waarvoor nauwkeurige en actuele informatie nodig is, zoals klantenondersteuning of het genereren van content.

Semantisch zoeken is daarentegen gericht op het begrijpen van de intentie en de contextuele betekenis achter query's. Hierbij wordt natuurlijke taalkennis gebruikt om door grote databases te navigeren en informatie op te halen die semantisch is afgestemd op de vragen van gebruikers.

RAG gebruikt externe gegevens om LLM-uitvoer te verrijken, terwijl semantisch zoeken het proces voor het ophalen van gegevens automatiseert en complexe aspecten verwerkt, zoals het insluiten van woorden en het opsplitsen van documenten. Dit vermindert de handmatige inspanningen bij het voorbereiden van gegevens en garandeert dat de informatie die LLM's gebruiken relevant en van goede kwaliteit is.

De combinatie van RAG en semantisch zoeken verrijkt de functionaliteit en nauwkeurigheid van AI-toepassingen door zowel het ophalen als het genereren van gegevens te verbeteren.

Wat zijn de componenten die RAG mogelijk maken?

RAG vertrouwt op een aantal essentiële componenten binnen de architectuur om de functionaliteit van LLM's te verbeteren.

  • De orkestratielaag
    Deze component fungeert als de centrale coördinator binnen het RAG-systeem. De invoer van de gebruiker wordt verwerkt, samen met eventuele bijbehorende metagegevens zoals gespreksgeschiedenis. De orkestratielaag stuurt query's door naar het LLM en levert de gegenereerde reactie. Deze laag integreert meestal verschillende tools en aangepaste scripts, vaak geschreven in Python, om een naadloze werking in het hele systeem te garanderen.
  • Ophaaltools
    Deze zijn van essentieel belang om de context te bepalen die de basis biedt voor de reacties van het LLM. Onder ophaaltools vallen onder meer databases die als kennisbank dienen en API-gebaseerde systemen die relevante informatie ophalen. Deze tools bieden de feitelijke basis voor de reacties en zorgen dat ze accuraat en contextueel relevant zijn.
  • LLM
    Het LLM is de kerncomponent die reacties genereert op basis van de prompts en opgehaalde informatie. Of deze nu wordt gehost door een externe provider zoals OpenAI of in eigen beheer is, het LLM maakt gebruik van uitgebreide op gegevens getrainde parameters om genuanceerde en contextueel passende uitvoer te genereren.
Wat zijn uitdagingen voor RAG?

De implementatie van retrieval-augmented generation brengt een aantal uitdagingen met zich mee die organisaties moeten oplossen. Hier volgen enkele van de belangrijkste dingen die je moet weten.

Nieuwheid van het concept

Als relatief nieuwe technologie vereist RAG een diepgaand begrip en vakbekwaam personeel om tot een effectieve implementatie te komen. Deze nieuwigheid kan leiden tot onzekerheden bij de implementatie en integratie met bestaande systemen.

Hogere initiële kosten

De integratie van RAG in bestaande infrastructuur vergt vaak voorafgaande investeringen in technologie en opleiding. Organisaties kunnen te maken krijgen met aanzienlijke initiële kosten bij het verwerven van specifieke resources en expertise.

Juiste modellering van gegevens

Een cruciale stap is het bepalen van de meest effectieve manieren om gegevens te modelleren en te structureren voor gebruik in een RAG-systeem. Hierbij moeten de gegevensbronnen en -indelingen worden geselecteerd die aansluiten bij de behoeften van de organisatie en de mogelijkheden van het LLM.

Procesvereisten ontwikkelen

Het is van groot belang om duidelijke vereisten vast te stellen voor processen waarin RAG wordt toegepast. Denk onder meer aan het definiëren van de doelstellingen en resultaten die worden verwacht van de implementatie van RAG-gestuurde toepassingen.

Omgaan met onnauwkeurigheden

Het is van cruciaal belang om processen te ontwikkelen voor de aanpak van mogelijke onnauwkeurigheden in de uitvoer die RAG-systemen genereren. Dit betekent dat er mechanismen moeten worden ontwikkeld om fouten te identificeren, te corrigeren en van fouten te leren om de betrouwbaarheid van reacties te verbeteren.

Wat zijn de voordelen van RAG?

RAG biedt diverse aantrekkelijke voordelen die de mogelijkheden van AI-systemen aanzienlijk kunnen verbeteren.

  • Efficiënte en kosteneffectieve implementatie
    RAG stelt organisaties in staat bestaande databases en kennisbronnen te benutten zonder dat uitgebreide hertraining van modellen nodig is. Dit betekent dat de implementatie zowel snel als kostenefficiënt is.
  • Nauwkeurige en actuele informatie
    Door informatie op te halen uit realtime, gezaghebbende bronnen, zorgt RAG ervoor dat de gegevens die worden gebruikt bij het genereren van reacties accuraat en actueel zijn, wat de kwaliteit van de uitvoer verbetert.
  • Meer vertrouwen bij gebruikers
    De nauwkeurigheid en relevantie van informatie die RAG-systemen bieden, verhogen het vertrouwen bij gebruikers, aangezien reacties betrouwbaarder zijn en gebaseerd zijn op geverifieerde gegevens.
  • Meer controle voor ontwikkelaars
    Ontwikkelaars hebben meer controle over de reacties die worden gegenereerd door AI-systemen met RAG. Ze kunnen de bronnen specificeren waaruit informatie wordt opgehaald en uitvoer aanpassen aan specifieke behoeften en contexten.
  • Vermindering van onnauwkeurige reacties en hallucinaties
    Door reacties te baseren op feitelijke gegevens, vermindert RAG de kans op onjuiste of gefabriceerde reacties (in AI-termen ook wel "hallucinaties" genoemd) aanzienlijk.
  • Domeinspecifieke, relevante antwoorden geven
    RAG blinkt ook uit in het leveren van antwoorden die rekening houden met specifieke branchekennis of gespecialiseerde domeinen. Hierdoor is RAG bijzonder geschikt voor gerichte toepassingen.
  • Makkelijker te trainen
    RAG-modellen zijn eenvoudiger te trainen omdat ze gebruikmaken van bestaande kennisbases en gegevens, waardoor het trainingsproces minder complex en arbeidsintensief is.
Hoe werkt retrieval-augmented generation?

Hier wordt stapsgewijs uitgelegd hoe RAG werkt.

1. Externe gegevens maken

De eerste stap van RAG is het verzamelen van gegevens uit verschillende bronnen, zoals websites, databases of documenten. Deze gegevens worden vervolgens geconverteerd naar een indeling die het model kan doorzoeken en gebruiken. Dit resulteert in een soort externe kennisbibliotheek.

2. Relevante informatie ophalen

Wanneer een gebruiker een vraag stelt, zet RAG deze vraag om in een zoekbare vorm en wordt de meest relevante informatie uit de kennisbibliotheek opgezocht. Als werknemers bijvoorbeeld willen weten hoeveel vakantiedagen ze nog hebben, raadpleegt en gebruikt RAG het verlofbeleid van het bedrijf en de verlofinformatie van de persoon.

3. De LLM-prompt verrijken

Vervolgens combineert RAG de oorspronkelijke vraag van de gebruiker met de zojuist gevonden informatie. De gecombineerde informatie wordt vervolgens doorgestuurd aan het LLM, dat deze gebruikt om een nauwkeuriger en beter onderbouwd antwoord te geven.

4. Externe gegevens bijwerken

Om de antwoorden relevant te houden, werkt RAG de externe gegevensbronnen regelmatig bij. Dit kan automatisch of op geplande tijden worden gedaan, zodat de gebruikte informatie altijd actueel is.

Hoe implementeer je een RAG-systeem?

De implementatie van een RAG-systeem bestaat uit verschillende belangrijke stappen. Aan de hand van deze stappen verbetert een RAG-systeem effectief het vermogen van een LLM om reacties te genereren die niet alleen gebaseerd zijn op interne kennis, maar ook op actuele externe gegevens.

1. Gegevens voorbereiden

De eerste stap is het verzamelen en voorbereiden van de gegevens die het RAG-systeem gaat gebruiken. De gegevens moeten vervolgens worden opgeschoond en op de juiste manier worden gestructureerd om de consistentie en nauwkeurigheid te garanderen. In deze fase moeten dubbele items worden verwijderd en eventuele problemen met de gegevenskwaliteit worden aangepakt.

2. Relevante gegevens indexeren

Na het voorbereiden moeten de gegevens worden geïndexeerd om ze doorzoekbaar te maken. Dit houdt in dat er een gestructureerde indeling wordt gemaakt, vaak in een database of zoekindex, waarbij elk gegevensitem wordt gelabeld met specifieke trefwoorden of wordt omgezet in een numerieke weergave. Dit indexeringsproces bepaalt hoe efficiënt het systeem de relevante informatie later kan ophalen.

3. Relevante gegevens ophalen

Nu de gegevens geïndexeerd zijn, kan het RAG-systeem relevante informatie ophalen op basis van gebruikersvragen. Bij deze stap moet de query of bepaalde trefwoorden van de query worden gekoppeld aan de geïndexeerde gegevens. Met behulp van geavanceerde algoritmen wordt ervoor gezorgd dat de meest relevante en nauwkeurige gegevens worden opgehaald voor gebruik bij het genereren van reacties.

4. LLM-toepassingen bouwen

In de laatste stap worden de opgehaalde gegevens geïntegreerd in de workflow van het LLM. Hierbij moet het LLM zodanig worden geconfigureerd dat de gebruikersinvoer samen met de opgehaalde gegevens als onderdeel van de invoerprompt wordt geaccepteerd. Het LLM gebruikt vervolgens zowel de voorgetrainde kennis als de nieuw opgehaalde externe gegevens om nauwkeurigere reacties te genereren.

Wat zijn enkele manieren om RAG-prestaties te verbeteren?

Om de prestaties van een RAG-systeem te verbeteren, kun je de volgende strategieën toepassen:

  • Zorg voor gegevens van hoge kwaliteit
    Met opgeschoonde en nauwkeurige gegevens voorkom je het aloude probleem van 'rubbish in, rubbish out'. Dit houdt onder andere in dat irrelevante opmaak moet worden verwijderd en dat moet worden gecontroleerd of de gegevens actueel zijn. Daarnaast moet de integriteit worden gewaarborgd (zoals het behouden van belangrijke spreadsheet-headers). Hoogwaardige gegevens verbeteren het begrip van het LLM en het vermogen om relevante reacties te genereren.

  • Experimenteer met de grootte van tekstblokken
    De manier waarop gegevens in blokken worden gesplitst, kan aanzienlijke invloed hebben op de prestaties van je RAG-systeem. Bij kleinere blokken ontbreekt misschien context, terwijl grotere blokken voor het model moeilijk kunnen zijn om efficiënt te verwerken. Door verschillende blokgroottes te testen, kun je de optimale balans vinden waarbij je de context behoudt zonder het systeem te overbelasten.

  • Werk de prompt voor het systeem bij
    De prompt die je gebruikt om het LLM te activeren, kan invloed hebben op de uitvoer. Als je niet tevreden bent met de resultaten, kun je overwegen om de prompt aan te passen om beter aan te geven hoe het model de verstrekte gegevens moet interpreteren en gebruiken. Dit kan inhouden dat je de context verduidelijkt of de formulering aanpast om de focus van het model te sturen.

  • Filter de resultaten van je vectoropslag
    Door de resultaten te filteren die uit de vectoropslag worden opgehaald, kun je de relevantie en nauwkeurigheid verhogen. Je kunt bijvoorbeeld filters instellen om bepaalde typen documenten uit te sluiten of voorrang te geven op basis van metagegevens, zoals documenttype of publicatiedatum. Zo zorg je dat de opgehaalde informatie het meest relevant is voor de query.

  • Probeer verschillende integratiemodellen
    Integratiemodellen kunnen verschillen in de manier waarop ze gegevens verwerken en vertegenwoordigen. Experimenteer met verschillende modellen om te bepalen welke modellen het beste bij jouw specifieke behoeften passen. Daarnaast kun je overwegen je eigen integratiemodellen te verfijnen met behulp van je gegevensset, zodat het model beter wordt afgestemd op de specifieke terminologie en nuances van het domein.

Als je deze strategieën zorgvuldig toepast, kun je de effectiviteit en nauwkeurigheid van je RAG-systeem aanzienlijk verbeteren voor betere prestaties en betrouwbaardere resultaten. 

Wat is de toekomst van retrieval-augmented generation?

Met Retrieval-Augmented Generation wordt momenteel aanzienlijke vooruitgang geboekt bij het verbeteren van de mogelijkheden van conversationele AI-toepassingen doordat meer contextueel relevante antwoorden worden geleverd. De potentiële toekomstige toepassingen van RAG gaan echter veel verder dan de huidige toepassingen.

In de toekomst zouden ontwikkelingen in RAG-technologie generatieve AI in staat kunnen stellen om niet alleen informatie te verstrekken, maar ook passende maatregelen te nemen op basis van gebruikersinvoer en externe gegevens. Zo zou een met RAG verrijkte AI verschillende opties kunnen analyseren om de beste vakantiewoning te vinden, automatisch accommodaties te boeken bij specifieke gebeurtenissen en zelfs gerelateerde reisplannen te maken, allemaal als reactie op een verzoek van een gebruiker.

RAG zou zelfs ook diepere interacties in complexere informatiedomeinen kunnen bevorderen. Bijvoorbeeld door een werknemer niet alleen te informeren over het beleid voor vergoeding van collegegeld, maar tegelijk ook gedetailleerd, persoonlijk advies te bieden over geschikte leerprogramma's die aansluiten bij de carrièredoelstellingen en eerdere trainingen van een werknemer. RAG zou ook het aanvraagproces voor deze programma's kunnen vergemakkelijken en latere administratieve taken kunnen beheren, zoals het indienen van vergoedingsverzoeken.

Naarmate de RAG-technologie zich verder ontwikkelt, zou de integratie ervan met AI de grenzen van geautomatiseerde assistentie en besluitvorming kunnen herdefiniëren. 

Prijzen van ServiceNow ServiceNow biedt concurrerende productpakketten die met je meegroeien naarmate je bedrijf groeit en je behoeften veranderen. Bekijk prijzen
ServiceNow voor retrieval-augmented generation

RAG zal de mogelijkheden van AI in een breed scala van branches verbeteren. Het Now Platform® van ServiceNow integreert AI-technologieën, zoals machine learning en natuurlijk taalbegrip, om activiteiten te stroomlijnen, taken te automatiseren en de besluitvorming te verbeteren. Met RAG-systemen kan ServiceNow nog nauwkeurigere en contextbewuste AI-oplossingen bieden, waardoor de productiviteit en efficiëntie van uiteenlopende workflows worden verhoogd.

Probeer de demo van ServiceNow vandaag nog om meer te weten te komen over hoe ServiceNow je bedrijfsactiviteiten kan transformeren met geavanceerde AI-technologieën. 

Duik dieper in generatieve AI Verhoog de productiviteit met Now Assist: generatieve AI die rechtstreeks in het Now Platform is ingebouwd. Ontdek AI Contact
Resources Artikelen Wat is AI? Wat is generatieve AI? Wat is een LLM? Onderzoeksrapporten IDC-infobrief: Maximaliseer AI-waarde met een digitaal platform Generatieve AI in IT-activiteiten Implementatie van GenAI in de telecommunicatiebranche Datasheets AI-zoeken Voorspel en voorkom onderbrekingen met ServiceNow® Voorspellende AIOps E-books Moderniseer IT-services en -activiteiten met AI GenAI: Is het echt zo belangrijk? Ontketen bedrijfsproductiviteit met GenAI Whitepapers AI Maturity Index voor ondernemingen GenAI voor Telco