Terug naar Woordenboek
beginnerBasis Concepten
15 min leestijd

Hallucination

Simpele Uitleg

Hallucination is wanneer AI met 100% vertrouwen complete onzin vertelt alsof het feiten zijn. Het verzint bronnen die niet bestaan, cijfers die nergens op slaan, of "feiten" die gewoon gelogen zijn. Denk aan: je vraagt ChatGPT om een wetenschappelijk artikel over een onderwerp, en het verzint een compleet artikel met auteurs, jaartal, en journal naam - maar als je het opzoekt bestaat het niet. Het klinkt super overtuigend, maar het is 100% verzonnen. Dit is HET grootste risico van AI.

Technische Definitie

Hallucination treedt op wanneer een taalmodel output genereert die klinkt als waarheid maar feitelijk incorrect, onzinnig, of volledig verzonnen is. Technische oorzaak: LLMs zijn getraind op next-token prediction (voorspellen welk woord het meest waarschijnlijk volgt), niet op truth verification (checken of iets waar is). Het model modelleert taalpatronen en statistische waarschijnlijkheden, niet feiten of realiteit. Wanneer het model geen kennis heeft over een onderwerp, maar wél herkent dat het patroon "vraag → antwoord met bron" moet volgen, verzint het plausibel klinkende informatie die het patroon matcht. Het heeft geen concept van "dit weet ik niet" of "dit is onzeker" - het genereert altijd het statistisch meest waarschijnlijke vervolg, ook als dat betekent feiten verzinnen.

Waarom Dit Belangrijk Is

Hallucinations zijn het #1 gevaar van AI in bedrijven. Real examples van schade: 1. LEGAL: Advocaten gebruikten ChatGPT voor case research. AI verzon 6 niet-bestaande rechtszaken met fake citaten. Ze dienden dit in bij de rechter. Gevolg: sancties, reputatieschade, bijna gedisbarred. 2. MEDICAL: Gezondheidschatbot gaf verkeerde dosering voor medicijn (hallucinated cijfers). Patient volgde advies, belandde in ziekenhuis. 3. CUSTOMER SERVICE: Support bot vertelde klant dat refund policy 90 dagen was (hallucination - echt policy was 30 dagen). Bedrijf moest €10K+ refunds uitbetalen aan klanten die dit screenshot hadden. 4. FINANCIAL: AI financial advisor gaf investment advice gebaseerd op verzonnen markdata. Client verloor geld, dreigde met rechtszaak. Het probleem: hallucinations klinken super overtuigend. AI gebruikt jargon, specifieke details, confident tone - alles wat mensen signalen van "dit is betrouwbaar" vinden. Mensen vertrouwen AI te veel. Voor bedrijven: als je AI gebruikt voor kritische beslissingen zonder fact-checking, speel je Russisch roulette. Één hallucination kan je miljoenen kosten in reputatie, legal issues, of directe schade.

Hoe Het Werkt

Waarom hallucineert AI? Fundamenteel misverstand van hoe LLMs werken: WAT MENSEN DENKEN: "AI weet feiten en checkt of iets waar is voordat het antwoordt" WAT AI ECHT DOET: "AI voorspelt welke woorden statistisch waarschijnlijk zijn, based on patterns het heeft gezien" CONCREET VOORBEELD: Je vraagt: "Wie won de Nobel Prize voor Fysica in 2023?" AI denkt NIET: 1. Check mijn kennis database voor 2023 Nobel Prize 2. Vind winnaar: Anne L'Huillier, Pierre Agostini, Ferenc Krausz 3. Return antwoord AI denkt WEL: 1. Patroon herkend: "[Jaar] Nobel Prize Physics winner" 2. In training data: vaak gevolgd door "[Naam wetenschapper] for [achievement]" 3. Genereer statistisch plausibel vervolg: "The 2023 Nobel Prize in Physics was awarded to Dr. James Henderson for his groundbreaking work on quantum entanglement" 4. Klinkt goed? → Output Probleem: "Dr. James Henderson" bestaat niet, het achievement is verzonnen, maar het PATROON klopt. WANNEER HALLUCINEERT AI MEER? 1. OBSCURE INFO: "Wat is de populatie van dorp X in 1987?" → AI heeft dit nooit gezien → verzint plausibel cijfer 2. RECENTE EVENTS: Training data stopt ergens (GPT-4 = april 2023). Vraag over events daarna → AI verzint 3. SPECIFIC DETAILS: "Geef me de exacte quote van Obama op pagina 47 van zijn boek" → AI verzint quote die "klinkt als Obama" 4. COMBINING INFO: "Welk percentage Nederlandse bedrijven gebruikt AI voor HR, specifiek in de food sector?" → super niche → AI combineert losse stats tot nieuwe verzonnen stat HOE HERKEN JE HALLUCINATIONS? Red flags: - Specifieke cijfers zonder bron (32.7% van bedrijven...) - Specifieke namen die je niet kent (Prof. Dr. X beweerde...) - Exacte quotes zonder bron - Obscure feiten die "too good to be true" zijn - Details die super convenient zijn voor het argument

Praktische Toepassingen

GEVAAR: Legal Research Zonder Verificatie

Advocatenkantoor gebruikt ChatGPT om precedenten te vinden voor een case. Associate vraagt "Geef me rechtszaken over employment discrimination in tech sector, 2020-2023". ChatGPT geeft: "Davis v. TechCorp (2021), Smith v. InnovateLabs (2022), Johnson v. CodeBase Inc. (2023)" Elk case heeft plausibele details: rechtbank, judge naam, outcome, relevante citaten. Probleem: GEEN VAN DEZE CASES BESTAAT. Real case: Dit gebeurde echt, advocaten dienden dit in, rechter ontdekte het, sancties volgden. Lesson: ALLE legal research moet geverifieerd worden in officiële databases. AI is geen replacement voor Westlaw/LexisNexis.

GEVAAR: Medical Advice Hallucinations

Patient gebruikt AI health chatbot: "Welke dosering paracetamol is veilig voor kind van 6 jaar?" AI: "Voor kinderen van 6 jaar is de aanbevolen dosering 500mg, max 4x per dag." Probleem: INCORRECT. Echte dosering voor 6-jarige = 250mg max, depending on weight. 500mg kan gevaarlijk zijn. Waarom het gebeurde: AI zag patroon van "adult dosering = 500mg" en paste dit toe zonder age adjustment. Lesson: NOOIT medical advice zonder disclaimer + verification. Liability is enorm.

GEVAAR: Verzonnen Product Specs

E-commerce chatbot voor tech products. Klant: "Heeft de XPS 15 laptop Thunderbolt 4?" AI: "Ja, de Dell XPS 15 heeft 2 Thunderbolt 4 poorten aan de linkerzijde." Probleem: Die specifieke generatie heeft alleen Thunderbolt 3, of geen Thunderbolt (depends op model year). Klant koopt laptop expecting Thunderbolt 4 → ontdekt dat het niet klopt → refund + angry review. Lesson: Product specs moeten uit database komen (RAG), niet AI knowledge. AI verzint details.

SAFE: Hallucination-Resistant Setup (RAG)

Support chatbot met RAG implementatie: 1. User vraagt: "What's your refund policy?" 2. System zoekt in knowledge base: "refund policy" → vindt official policy document 3. Geeft die document chunks aan AI as context 4. AI antwoordt: "Based on our policy document, refunds are accepted within 30 days..." 5. Voegt link toe naar source document Waarom dit werkt: - AI heeft de echte informatie in context (niet uit memory) - Source is verifiable - Als info niet in knowledge base = AI zegt "I don't have that info" Resultaat: Near-zero hallucinations op factual questions.

Voorbeelden

Real Hallucination: Wetenschappelijke Papers

VRAAG: "Geef me 5 recente studies over AI impact op productiviteit" AI ANTWOORD: 1. "Jensen, M. & Williams, K. (2023). AI-Driven Productivity Gains in Knowledge Work. Journal of Business Technology, 45(3), 234-256." 2. "Liu, X., et al. (2023). Measuring the Impact of Large Language Models on Software Engineering Efficiency. ACM Transactions, 18(2), 89-103." 3. [3 more verzonnen papers] Waarom dit gevaarlijk is: - Names klinken plausibel (generic names) - Journal names bestaan (maar het issue nummer niet) - Page numbers en years zijn realistisch - Als je niet checkt: je citeert non-existent research in je eigen paper/rapport Realiteit: Misschien 1 van de 5 bestaat echt (luck), de rest is verzonnen. How to check: Google Scholar, PubMed, direct naar journal website. Als je het niet kunt vinden = hallucination.

Real Hallucination: Fake Statistics

VRAAG: "Hoeveel procent van Nederlandse MKB bedrijven gebruikt AI in 2024?" AI ANTWOORD: "Volgens een studie van het CBS uit maart 2024, gebruikt 47.3% van Nederlandse MKB bedrijven AI-tools, een stijging van 23% ten opzichte van 2023." Waarom dit overtuigend klinkt: - Specifiek percentage (47.3% - niet afgerond = lijkt precies) - Geloofwaardige bron (CBS = official stats) - Specifieke datum (maart 2024) - Vergelijking met vorig jaar Realiteit: Check CBS website → die studie bestaat niet. AI verzint het hele ding. Waarom AI dit deed: Het herkende het patroon "[statistic] from [authority] about [topic]" en genereerde plausibele output. Lesson: ALTIJD check official stats at the source. Link naar de actual report, niet de AI samenvatting.

Subtle Hallucination: Detail Verzinsel

VRAAG: "Vat dit artikel samen" [je geeft een link] AI ANTWOORD: "Het artikel bespreekt drie case studies van bedrijven die AI implementeerden: TechCorp (50% cost reduction), FinanceHub (3x faster processing), en RetailChain (40% customer satisfaction improvement). De auteur concludeert dat..." Probleem: Het artikel noemt WEL die drie bedrijven, MAAR: - TechCorp = 30% cost reduction (AI zegt 50%) - FinanceHub case wordt niet genoemd in artikel - RetailChain percentage klopt Dit is gevaarlijk: Het artikel bestaat, sommige info klopt, maar AI heeft details verzinnen "to fill in the gaps". Waarom moeilijk te detecteren: Je leest de samenvatting, het klinkt plausibel, je checkt het niet. Later gebruik je die verzonnen cijfers in je eigen presentatie. Lesson: Samenvattingen zijn alleen startpunt. Check de originele source voor specifieke claims/cijfers.

Veelgemaakte Fouten

Fout:

AI vertrouwen voor critical facts zonder te checken

Realiteit:

NOOIT AI vertrouwen op: legal info, medical info, financial advice, academic citations, statistical claims, policy details. ALTIJD verify tegen primary source. Non-negotiable.

Fout:

Denken dat "confident tone" betekent "betrouwbaar"

Realiteit:

AI is ALTIJD confident, ook als het liegt. Het heeft geen concept van onzekerheid. "I'm not sure" zie je zelden. Confident tone ≠ accurate info.

Fout:

Hallucinations negeren omdat "AI meestal wel klopt"

Realiteit:

Eén hallucination is genoeg voor disaster. Legal case, medical incident, customer trust breach. "Meestal goed" is niet goed genoeg voor critical applications.

Fout:

Geen bronvermelding eisen van AI

Realiteit:

Als AI een claim maakt, vraag ALTIJD: "Waar komt die info vandaan? Geef me de bron." Als het niet kan = red flag. Gebruik RAG voor source attribution.

Tools Die Dit Gebruiken

Alle LLMs hallucineren: ChatGPT, Claude, Gemini, GPT-4, etc.

Veelgestelde Vragen

Hallucineren sommige AI models minder dan anderen?

Ja, maar allemaal doen het nog steeds: - GPT-4: ~3-5% hallucination rate (best in class) - Claude: ~4-6% (goed, vooral op long context) - GPT-3.5: ~10-15% (older, less reliable) - Gemini: ~5-8% (variabel) MAAR: zelfs 3% is te veel voor critical applications. 3 van de 100 facts zijn verzonnen = unacceptable voor legal, medical, financial. Best models: Claude en GPT-4 voor factual accuracy. Maar ALTIJD verify voor important stuff.

Hoe voorkom je hallucinations? Praktische tips?

TACTICAL MITIGATIONS: 1. RAG (Retrieval Augmented Generation): Geef AI toegang tot je docs, force het om informatie uit docs te halen ipv uit "memory". Reduceert hallucinations 80-95%. 2. LOWER TEMPERATURE: Temperature=0 = meer deterministic, minder creative bullshit. Voor factual tasks: altijd temp=0 of 0.1. 3. PROMPT "BE HONEST": Add to prompt: "If you don't know, say 'I don't know'. Don't make up information." Helpt, maar niet 100%. 4. SOURCE ATTRIBUTION: Forceer AI om bronnen te geven: "Answer with citations. Every fact must have a source." Check die sources. 5. HUMAN VERIFICATION: Voor critical info: human checks everything. Build review process. 6. CONFIDENCE SCORES: Sommige systemen geven confidence score. <80%? → requires verification. GOUDEN REGEL: Gebruik AI voor draft/suggestion, mens doet verification.

Wat doe je als je ontdekt dat AI hallucinated in je output?

DAMAGE CONTROL: 1. IMMEDIATE: Stop distribution van die informatie. Als het al out is → correction publiceren. 2. ASSESS IMPACT: Wie heeft die info gezien/gebruikt? Is er schade? Legal exposure? 3. ROOT CAUSE: Waarom gebeurde het? Slecht prompt? Geen RAG? Wrong model? Fix die shit. 4. IMPLEMENT CHECKS: Build verification step in je process. Never again. 5. COMMUNICATE: Als public-facing → transparant zijn. "We discovered an error in AI-generated content, here's the correction." REAL EXAMPLE: News site gebruikte AI voor article summaries. Hallucination = verkeerde cijfers. Ze publiceerden correction, updaten process, implemented human review. Damage = reputatie hit maar recoverable. WORST CASE: Zeg niets, hope niemand merkt het → someone merkt het → trust destroyed forever.

Zijn er situaties waar hallucinations niet erg zijn?

Ja! Context matters: ✅ ACCEPTABLE (low stakes): - Creative writing (fiction, brainstorming) - Idea generation - Conversational practice - Entertainment chatbots - Art/image generation ❌ UNACCEPTABLE (high stakes): - Legal advice/research - Medical information - Financial advice - Product specs voor sales - Company policies - Anything compliance-related - Academic research - News/journalism Regel: Als iemand beslissingen maakt based on de info, of als er legal/safety implications zijn → hallucinations are unacceptable → implement heavy verification.

Gerelateerde Termen

LLM

Een LLM (Large Language Model) is een AI systeem dat getraind is op enorme hoeveelheden tekst en daardoor menselijke taal kan begrijpen en genereren. Denk aan ChatGPT, Claude, of Gemini.

RAG

RAG is de techniek waarmee je AI toegang geeft tot jouw eigen documenten en data. In plaats van dat ChatGPT alleen maar "gokt" op basis van wat het geleerd heeft, kan het met RAG eerst jouw bedrijfsdocumenten doorzoeken en dan antwoorden met échte informatie uit jouw bestanden. Het is als een super-slimme medewerker die instant alle bedrijfsdocumenten kan raadplegen voordat hij antwoordt.

Prompt Engineering

Prompt Engineering is de kunst van het schrijven van effectieve instructies (prompts) voor AI modellen zoals ChatGPT. Goede prompts leveren betere, relevantere antwoorden op.

Temperature

Temperature is de "creativiteitsknop" van AI. Het is een getal tussen 0 en 2 dat bepaalt of AI voorspelbaar of verrassend antwoordt. Temperature 0 = AI kiest altijd de meest voor de hand liggende woorden (perfect voor code, data extractie). Temperature 1 = AI kiest soms verrassende woorden (goed voor creative content, brainstorming). Hoog = creatief maar soms raar, laag = saai maar betrouwbaar. Het is letterlijk de schakelaar tussen "robo-consistent" en "menselijk-verrassend".

AI Agent

Een AI Agent is kunstmatige intelligentie die zelfstandig taken uitvoert, zonder dat jij iedere stap hoeft te vertellen. Je geeft een doel ("sorteer mijn inbox en beantwoord urgente emails"), en de agent pakt dit stap-voor-stap aan: emails lezen, belangrijkheid bepalen, antwoorden schrijven, eventueel extra info opzoeken. Het verschil met normale AI? Een chatbot beantwoordt vragen, een agent doet het werk.

Leer Hallucination in de Praktijk

Wil je Hallucination echt beheersen? Volg onze hands-on training en leer het in 4 uur.

Bekijk Trainingen