Een klant vraagt je chatbot naar de retourprocedure. De AI antwoordt: "Je kunt elk product binnen 60 dagen retourneren voor een volledige terugbetaling." Klinkt professioneel. Maar jouw retourbeleid is 14 dagen, niet 60. De AI heeft het antwoord verzonnen.
Dit heet een hallucinatie. De AI genereert tekst die overtuigend klinkt maar feitelijk niet klopt. In klantenservice is dat een probleem met directe gevolgen: verkeerde verwachtingen, klachten en vertrouwensverlies.
Wat zijn AI-hallucinaties precies?
Een AI-hallucinatie is een antwoord dat de AI genereert zonder feitelijke basis. Het model voorspelt welke woorden waarschijnlijk na elkaar komen. Het controleert niet of die woorden kloppen.
Drie vormen komen voor in klantenservice:
- Verzonnen feiten. De AI noemt prijzen, percentages of termijnen die niet bestaan. Voorbeeld: "Ons Enterprise-plan kost €199/maand" terwijl dat plan niet bestaat.
- Verouderde informatie. De AI geeft een antwoord dat eerder klopte maar niet meer actueel is. Denk aan een oude kortingscode of een verouderd retourbeleid.
- Logisch klinkend maar fout. De AI combineert correcte elementen tot een verkeerde conclusie. "Je kunt je abonnement upgraden via Instellingen > Facturering > Wijzig plan." Die menustructuur bestaat niet, maar klinkt logisch.
Volgens onderzoek van Stanford HAI (2024) hallucineert GPT-4 in 3 tot 5% van de antwoorden, afhankelijk van het domein. In klantenservice, waar specifieke productinformatie nodig is, ligt dat percentage hoger. De AI heeft minder context over jouw specifieke product dan over algemene kennis.
Waarom hallucineert AI in klantenservice?
De hoofdoorzaak is dat AI-modellen getraind zijn op het internet, niet op jouw documentatie. Ze kennen geen interne processen, specifieke prijzen of actuele beleidsregels.
Drie factoren versterken het probleem:
1. Geen eigen kennisbron. Als de AI geen toegang heeft tot jouw kennisbank, valt het terug op algemene trainingsdata. Die data bevat informatie over duizenden bedrijven. Het model mixt die informatie en genereert een antwoord dat "gemiddeld" klinkt maar niet klopt voor jouw situatie.
2. Te brede instructies. Als je de AI vraagt "beantwoord alle klantvragen," probeert het model altijd een antwoord te geven. Zelfs als het dat antwoord niet heeft. Het model is getraind om behulpzaam te zijn, niet om "ik weet het niet" te zeggen.
3. Geen escalatiemechanisme. Zonder een duidelijk moment waarop de AI doorschakelt naar een mens, blijft het antwoorden genereren. Zelfs bij vragen waar het onzeker over is.
Hoe voorkom je hallucinaties? 5 methoden
Methode 1: RAG-gebaseerde AI gebruiken
RAG staat voor Retrieval-Augmented Generation. In plaats van antwoorden te genereren uit trainingsdata, zoekt de AI eerst in jouw eigen documenten. Daarna formuleert het een antwoord op basis van wat het gevonden heeft.
Het verschil is fundamenteel:
- Zonder RAG: De AI genereert een antwoord op basis van patronen uit internetdata.
- Met RAG: De AI doorzoekt jouw kennisbank, vindt het relevante artikel en formuleert een antwoord op basis van die bron.
Helpable's AI-chatbot Calli werkt met RAG. Calli leest alleen uit gepubliceerde artikelen in jouw kennisbank. Als er geen relevant artikel is, geeft Calli aan dat het het antwoord niet weet en schakelt door naar een mens.
Dit elimineert 90%+ van de hallucinaties. De AI kan niet verzinnen wat niet in de bron staat. Het beperkt het antwoord tot wat jij hebt geschreven en goedgekeurd.
Methode 2: Menselijke handoff instellen
Geen AI beantwoordt 100% van de vragen correct. Je hebt een escalatiemechanisme nodig. De AI moet herkennen wanneer het geen goed antwoord kan geven en het gesprek overdragen aan een mens.
Drie triggers voor handoff:
- Confidence threshold: Als de AI minder dan 70% zeker is over het antwoord, schakelt het door.
- Keyword triggers: Woorden als "klacht", "factuur", "opzeggen" of "juridisch" gaan altijd naar een mens.
- Expliciet verzoek: De klant klikt op "Spreek een medewerker" of typt "ik wil een mens spreken."
Methode 3: Regelmatige controle van AI-antwoorden
Plan een wekelijkse controle van 30 minuten. Bekijk welke vragen de AI beantwoordde en controleer of de antwoorden klopten.
Drie dingen om te checken:
- Vragen zonder match. Welke vragen kon de AI niet beantwoorden? Schrijf daar artikelen voor.
- Lage confidence scores. Bij welke antwoorden was de AI onzeker? Controleer of die antwoorden klopten.
- Klantreacties. Reageerden klanten negatief na een AI-antwoord? Dat is een signaal dat het antwoord niet hielp.
Methode 4: Beperk het bereik van de AI
Laat de AI niet alles beantwoorden. Bepaal welke categorieën de AI mag afhandelen en welke altijd naar een mens gaan.
AI mag beantwoorden:
- Veelgestelde vragen (retourbeleid, levertijden, prijzen)
- Hoe-werkt-het-vragen (account aanmaken, wachtwoord resetten)
- Openingstijden en contactgegevens
Altijd naar een mens:
- Klachten en ontevredenheid
- Factuurproblemen en betalingsgeschillen
- Technisch complexe vragen die per situatie verschillen
- Juridische vragen (AVG-verzoeken, contractwijzigingen)
Methode 5: Houd je kennisbank actueel
RAG werkt alleen als de brondata klopt. Een verouderd artikel in je kennisbank leidt tot een verouderd AI-antwoord. Dat is geen hallucinatie, maar het effect is hetzelfde: de klant krijgt verkeerde informatie.
Plan maandelijks een review van je artikelen. Controleer prijzen, beleidswijzigingen en procedureveranderingen. Markeer artikelen met een "laatst gecontroleerd"-datum zodat je team weet welke artikelen aandacht nodig hebben.
De aanpak van specifieke tools
Helpable (Calli): RAG-gebaseerd. Leest alleen uit gepubliceerde kennisbankartikelen. Automatische handoff naar team inbox als er geen passend artikel is. Confidence-indicatie per antwoord.
Intercom (Fin): Geavanceerde AI die context over meerdere berichten begrijpt, maar rekent $0,99 per antwoord. Gebruikt je help center als bron. Configuratie beschikbaar maar complexer in te stellen.
Crisp: Basis-AI met chatbot-bouwer. Minder geavanceerd qua RAG. Geschikt voor eenvoudige flows maar minder betrouwbaar bij complexe vragen.
Wat als het toch misgaat?
Hallucinaties zijn niet 100% te voorkomen. Bereid je voor op incidenten:
- Excuus + correctie. Als een klant een fout AI-antwoord ontving, bied je excuses aan en geef je het juiste antwoord. Verwijs naar het correcte artikel.
- Artikel bijwerken. Schrijf of pas het artikel aan zodat de AI de volgende keer het juiste antwoord geeft.
- Feedback-loop. Gebruik de fout als input voor je wekelijkse AI-controle. Documenteer welke vragen problematisch zijn.
De ROI van AI in klantenservice is positief als 80%+ van de antwoorden correct is. Bij 95%+ correctheid is de klantervaring vergelijkbaar met menselijke support, tegen een fractie van de kosten.
Met RAG-gebaseerde AI, menselijke handoff en regelmatige controle bereik je die 95%. Zonder die maatregelen zit je op 70 tot 80%, en dat is niet genoeg voor professionele klantenservice.
Veelgestelde vragen
Hoe herken ik een AI-hallucinatie?
Let op specifieke details die de AI noemt: prijzen, percentages, termijnen en procedurestappen. Controleer of die overeenkomen met je eigen documentatie. Als de AI iets specifieks beweert dat niet in je kennisbank staat, is het waarschijnlijk een hallucinatie.
Kan ik hallucinaties helemaal voorkomen?
Nee, maar je kunt ze minimaliseren tot onder 5% met RAG-gebaseerde AI. De resterende gevallen vang je op met menselijke handoff. Het doel is niet perfectie, maar een betrouwbaar systeem met een vangnet.
Hoe snel kan ik RAG-gebaseerde AI instellen?
Bij RAG-gebaseerde tools publiceer je artikelen in je kennisbank en de AI gebruikt ze direct. Geen training of configuratie nodig. De setup duurt 30 minuten tot 1 uur, plus de tijd voor het schrijven van artikelen.
Is RAG beter dan een chatbot die je zelf traint?
Ja, voor klantenservice. Zelfgetrainde chatbots vereisen weken aan training en breken bij onverwachte vragen. RAG-gebaseerde AI is flexibeler: publiceer een nieuw artikel en de AI kent het antwoord direct.
Wat kost het om AI-hallucinaties te voorkomen?
De technische maatregelen zitten in de toolkosten. Helpable begint bij ~€45/maand met RAG-gebaseerde AI inbegrepen. De investering in tijd is 30 minuten per week voor controle en 2 uur per maand voor kennisbank-updates.