Terug naar Woordenboek
beginnerBasis Concepten
4 min leestijd

Context Window

Simpele Uitleg

De context window is hoeveel tekst een AI model tegelijk kan "onthouden". Groter = meer context, maar ook langzamer en duurder.

Technische Definitie

De context window is de maximum aantal tokens dat een LLM kan verwerken in één inference call, inclusief zowel input prompt als output. Dit is een hardware en architectural constraint bepaald door de self-attention mechanism van transformers die quadratisch schaalt met sequence length. Moderne modellen hebben 32K-200K token windows.

Waarom Dit Belangrijk Is

Context window bepaalt hoeveel informatie je aan een AI kunt geven. Wil je een heel boek analyseren? Je hebt een grote context window nodig. Groter is niet altijd beter: het kost meer, is langzamer, en modellen presteren soms slechter met te veel irrelevante context.

Praktische Toepassingen

Document Analyse

Claude heeft 200K tokens = 500 pagina's in één keer analyseren

Code Review

Hele codebase in context laden voor debugging

Tools Die Dit Gebruiken

ChatGPT (128K)Claude (200K)Gemini (2M)

Leer Context Window in de Praktijk

Wil je Context Window echt beheersen? Volg onze hands-on training en leer het in 4 uur.

Bekijk Trainingen