Terug naar Woordenboek
beginnerBasis Concepten
8 min leestijd

LLM

Large Language Model

Simpele Uitleg

Een LLM (Large Language Model) is een AI systeem dat getraind is op enorme hoeveelheden tekst en daardoor menselijke taal kan begrijpen en genereren. Denk aan ChatGPT, Claude, of Gemini.

Technische Definitie

Een Large Language Model is een deep learning model gebaseerd op transformer architectuur, getraind op miljarden parameters en terabytes aan tekstdata. Het gebruikt self-attention mechanismen om contextuele relaties tussen woorden te begrijpen en kan taken uitvoeren zoals tekstgeneratie, vertaling, samenvatting, en vraag-beantwoording zonder task-specific training.

Waarom Dit Belangrijk Is

LLMs zijn de fundamentele technologie achter de AI revolutie van 2022-2025. Ze maken complexe taalverwerking toegankelijk voor iedereen, van content creators tot developers. Bedrijven gebruiken LLMs voor klantenservice, contentcreatie, code generation, data-analyse en meer. Het begrijpen van LLMs is essentieel voor iedereen die met moderne AI wil werken.

Hoe Het Werkt

Een LLM werkt door tekst te voorspellen op basis van context. Het model is getraind op miljarden voorbeelden van menselijke taal en heeft geleerd welke woorden waarschijnlijk op elkaar volgen. Wanneer je een prompt invoert, analyseert het model de context en genereert woord-voor-woord een antwoord dat statistisch het meest waarschijnlijk is gegeven de input. Door deze fundamentele mechaniek kan het model complexe taken uitvoeren zoals redeneren, vertalen, en code schrijven.

Praktische Toepassingen

Content Creatie

Marketing teams gebruiken LLMs voor blogs, social media posts, en productbeschrijvingen

Klantenservice

Chatbots powered by LLMs beantwoorden klantenvragen 24/7 met natuurlijke conversaties

Code Generation

Developers gebruiken LLMs zoals GitHub Copilot om sneller te coderen

Data Analyse

Business teams vragen LLMs om data te analyseren en insights te geven

Voorbeelden

ChatGPT voor Customer Support

Een webshop gebruikt ChatGPT om automatisch retourvragen te beantwoorden, bestelstatus op te vragen, en productaanbevelingen te doen. Resultaat: 70% minder support tickets.

Claude voor Legal Research

Een advocatenkantoor gebruikt Claude om jurisprudentie te doorzoeken en samenvattingen te maken van 100+ pagina contracten in enkele minuten.

Gemini voor Marketing

Een marketing agency gebruikt Gemini om in bulk social media posts te genereren voor 50+ klanten, elk met hun eigen tone of voice.

Veelgemaakte Fouten

Fout:

LLMs zijn perfect en maken geen fouten

Realiteit:

LLMs kunnen hallucineren (verzonnen informatie presenteren als feit). Altijd fact-checking doen voor belangrijke informatie.

Fout:

Alle LLMs zijn hetzelfde

Realiteit:

ChatGPT, Claude, Gemini hebben elk hun eigen sterke punten. Claude is beter in lange documenten, ChatGPT in creative tasks, Gemini in multimodal taken.

Fout:

Je hoeft LLMs niets te leren, ze weten alles

Realiteit:

LLMs werken beter met goede prompts, context, en voorbeelden. Prompt engineering is een skill die je moet leren.

Tools Die Dit Gebruiken

ChatGPTClaudeGeminiPerplexityGitHub CopilotCursor

Veelgestelde Vragen

Wat is het verschil tussen een LLM en AI?

AI is de overkoepelende term voor alle "slimme" computersystemen. Een LLM is een specifiek type AI dat gespecialiseerd is in taalverwerking. Andere AI types zijn bijvoorbeeld computer vision, speech recognition, of robotica.

Hoeveel kost het om een LLM te gebruiken?

De meeste LLMs werken op basis van API calls en tokens. ChatGPT kost ongeveer $0.002 per 1000 tokens (±750 woorden). Claude is vergelijkbaar. Voor de meeste bedrijven is dit €50-500 per maand afhankelijk van gebruik.

Kan ik mijn eigen LLM trainen?

Technisch wel, maar het kost miljoenen euros en maanden rekentijd. Voor 99% van de use cases is het beter om bestaande LLMs te gebruiken en te fine-tunen of RAG te implementeren voor custom data.

Gerelateerde Termen

Prompt Engineering

Prompt Engineering is de kunst van het schrijven van effectieve instructies (prompts) voor AI modellen zoals ChatGPT. Goede prompts leveren betere, relevantere antwoorden op.

Token

Een token is het kleinste stukje tekst dat AI begrijpt - denk aan het als "woord-achtige stukjes". Ongeveer 1 woord = 1.3 tokens. Waarom belangrijk? Tokens bepalen wat je BETAALT en hoeveel tekst AI kan lezen. ChatGPT API rekent per token: 1000 tokens input + 500 tokens output = €0.01. Als je dagelijks 100.000 tokens gebruikt, ben je €1/dag = €30/maand kwijt. Tokens zijn letterlijk je AI budget.

Context Window

De context window is hoeveel tekst een AI model tegelijk kan "onthouden". Groter = meer context, maar ook langzamer en duurder.

Temperature

Temperature is de "creativiteitsknop" van AI. Het is een getal tussen 0 en 2 dat bepaalt of AI voorspelbaar of verrassend antwoordt. Temperature 0 = AI kiest altijd de meest voor de hand liggende woorden (perfect voor code, data extractie). Temperature 1 = AI kiest soms verrassende woorden (goed voor creative content, brainstorming). Hoog = creatief maar soms raar, laag = saai maar betrouwbaar. Het is letterlijk de schakelaar tussen "robo-consistent" en "menselijk-verrassend".

Hallucination

Hallucination is wanneer AI met 100% vertrouwen complete onzin vertelt alsof het feiten zijn. Het verzint bronnen die niet bestaan, cijfers die nergens op slaan, of "feiten" die gewoon gelogen zijn. Denk aan: je vraagt ChatGPT om een wetenschappelijk artikel over een onderwerp, en het verzint een compleet artikel met auteurs, jaartal, en journal naam - maar als je het opzoekt bestaat het niet. Het klinkt super overtuigend, maar het is 100% verzonnen. Dit is HET grootste risico van AI.

Leer LLM in de Praktijk

Wil je LLM echt beheersen? Volg onze hands-on training en leer het in 4 uur.

Bekijk Trainingen