AI Woordenboek
De belangrijkste AI termen uitgelegd in helder Nederlands. Geen jargon, geen marketing-taal, gewoon wat dingen écht betekenen. 29 termen, regelmatig bijgewerkt.
AGI (Artificial General Intelligence)
Hypothetische AI met menselijk cognitief vermogen op alle taken.
AGI verwijst naar een AI-systeem dat elk intellectueel werk kan doen dat een mens kan doen. In 2026 bestaat AGI nog niet, al claimen sommige onderzoekers dat geavanceerde modellen zoals GPT-5 of Claude Opus dichtbij komen op specifieke benchmarks. Het verschil met huidige LLMs: AGI zou autonoom kunnen leren, plannen over jaren, en zonder herinnering verlies tussen sessies werken.
AI Agent
AI-systeem dat zelfstandig meerstaps taken kan uitvoeren.
Een AI agent neemt een doel ('boek een vlucht naar Berlijn voor maandag, onder €200'), maakt een plan, voert stappen uit (web zoeken, vergelijken, boeken), en herstelt bij obstakels. In 2026 zijn agents nog onbetrouwbaar voor kritische taken maar verbeteren snel. Voorbeelden: Claude Code, OpenAI Operator, AutoGPT.
AI Alignment
Onderzoeksgebied dat zorgt dat AI doet wat mensen willen.
Alignment is de uitdaging om AI-systemen te laten handelen volgens menselijke waarden en intenties. Anthropic (Claude) is gefocust op alignment-onderzoek, evenals OpenAI's superalignment team. Praktisch betekent het: AI weigert schadelijke verzoeken, herkent context, en handelt voorzichtig bij onzekerheid.
ASI (Artificial Super Intelligence)
Theoretische AI die menselijk vermogen overstijgt op alle gebieden.
ASI is een hypothetische volgende stap na AGI: een AI die slimmer is dan elk mens op elke taak, inclusief wetenschappelijk onderzoek, creativiteit, en strategie. Discussies over ASI zijn meestal speculatief en gaan over existentiële risico's en alignment.
Constitutional AI
Anthropic's alternatief voor RLHF, gebruikt principes om AI te trainen.
Constitutional AI (CAI) is hoe Claude wordt getraind. In plaats van mensen elke output laten beoordelen, krijgt het model een set principes ('grondwet') zoals 'wees behulpzaam', 'vermijd schade', 'wees eerlijk'. Het model evalueert dan zijn eigen output tegen deze principes. Schaalt beter dan pure RLHF en is transparanter.
Context Window
De maximale hoeveelheid tekst die een LLM tegelijk kan verwerken.
De context window bepaalt hoeveel tekst je in één gesprek met een AI kunt stoppen. Claude Opus 4.7 heeft 1M tokens (≈ 750.000 woorden), GPT-5 heeft 256k tokens, Gemini 2.5 Pro heeft 2M tokens. Voor lange documenten (contracten, papers) is een grote context window cruciaal.
Diffusion Model
AI-architectuur achter Stable Diffusion, Midjourney, en DALL-E.
Diffusion modellen leren door 'ruis' aan beelden toe te voegen tot ze pure ruis zijn, en daarna leren ze die stap omkeren. Bij generatie starten ze met ruis en 'denoizen' stap voor stap naar een beeld. Dit is de techniek achter alle moderne AI image generators.
Embedding
Numerieke representatie van tekst (of beeld) als een vector.
Een embedding is een lijst getallen (vector) die de betekenis van tekst representeert. Twee teksten met vergelijkbare betekenis hebben vergelijkbare embeddings. Dit maakt semantische zoekopdrachten mogelijk: zoek niet op exacte woorden maar op betekenis. Embeddings zijn de fundering van RAG, vector search, en moderne recommender systems.
Fine-tuning
Een bestaand AI-model trainen op specifieke data voor een specifieke use case.
Fine-tuning neemt een general-purpose model (zoals Llama 3) en traint het verder op jouw eigen data. Resultaat: een model dat beter is in jouw specifieke domein (juridisch Nederlands, medische rapporten, code voor jouw bedrijf). Vereist GPU resources en gelabelde data, maar levert vaak betere resultaten dan prompting alleen.
GPU (Graphics Processing Unit)
Hardware die AI-trainings en -inference versnelt door massieve parallelle berekening.
GPUs (vooral NVIDIA's H100, B200) zijn de motoren van AI. Een ChatGPT antwoord vereist gigantische matrix-berekeningen die GPUs duizenden keren sneller doen dan CPUs. De wereldwijde GPU-tekort in 2023-2024 was een belangrijk bottleneck voor AI-groei.
Grounding
AI-output verbinden met geverifieerde bronnen om hallucinatie te beperken.
Grounding zorgt dat een AI-antwoord is gebaseerd op echte, verifieerbare bronnen. NotebookLM is volledig grounded (alleen jouw bronnen). Perplexity is web-grounded (gebruikt Google-search). Claude en ChatGPT zonder web-search zijn niet grounded en kunnen hallucineren. Grounding is essentieel voor zakelijke AI-toepassingen.
Hallucinatie
Wanneer AI verzonnen feiten met overtuiging presenteert als waarheid.
Hallucinatie is een fundamenteel probleem van LLMs: ze kunnen niet altijd onderscheiden tussen wat ze weten en wat ze 'plausibel klinkend' produceren. AI verzint citaten, namen, datums, of zelfs juridische precedenten die nooit bestaan hebben. Verminderen via: RAG (data context geven), grounding (Perplexity-stijl bronvermelding), of expliciet vragen om onzekerheid aan te geven.
Inference
Het draaien van een getraind AI-model om voorspellingen te maken.
Inference is wat je doet als je ChatGPT een vraag stelt: het model 'infereert' het volgende token. Inference is veel goedkoper dan training, maar bij grote schaal nog steeds duur. Bedrijven zoals Groq specialiseren in snelle, goedkope inference.
Latent Space
De abstracte numerieke ruimte waarin AI-modellen concepten representeren.
Latent space is de wiskundige ruimte waarin een AI begrippen organiseert. In Stable Diffusion's latent space ligt 'rode auto' dichtbij 'rode truck' maar ver van 'blauwe lucht'. Het bewerken van latent space (via tools als ControlNet) geeft fijnmazige controle over generatie.
LLM (Large Language Model)
AI-model getraind op enorme tekstcorpora om taal te genereren en te begrijpen.
LLMs zijn de kerntechnologie achter ChatGPT, Claude, Gemini en alle moderne tekst-AI. Ze werken door volgende-token voorspelling: gegeven een input voorspellen ze het meest waarschijnlijke volgende woord, herhaaldelijk. Modellen variëren in grootte (parameters) en trainingsdata. Voorbeelden in 2026: GPT-5, Claude Opus 4.7, Gemini 2.5, Mistral Large, Llama 4.
LoRA (Low-Rank Adaptation)
Techniek om grote modellen efficiënt te fine-tunen voor specifieke stijlen.
LoRAs zijn kleine 'adapters' die op een bestaand model worden getraind. Voor Stable Diffusion bestaan duizenden LoRAs (op Civitai), elk gespecialiseerd in een specifieke stijl, persoon, of object. LoRAs vereisen veel minder compute dan volledige fine-tuning.
MCP (Model Context Protocol)
Open standaard voor AI om met externe tools en data te communiceren.
MCP is een open standaard die Anthropic in 2024 introduceerde. Het laat elke AI (Claude, ChatGPT, anderen) op een uniforme manier praten met tools, databases en services. Vergelijkbaar met USB voor AI integraties. Groeit snel in 2026.
Multimodaal
AI die meerdere data-types tegelijk verwerkt: tekst, beeld, audio, video.
Multimodale AI kan een afbeelding bekijken, een audioclip beluisteren, en een video begrijpen, allemaal in dezelfde context. GPT-5, Claude Opus, en Gemini zijn allemaal multimodaal. Voor accessibility (alt-text genereren), education (uitleg via beeld + tekst), en data-analyse (grafieken interpreteren) is dit krachtig.
Open-Source AI
AI-modellen waarvan de gewichten publiek beschikbaar zijn voor download.
Open-source AI (Llama, Mistral, Qwen, DeepSeek) kun je downloaden en zelf draaien. Voordelen: privacy (geen data naar derden), aanpasbaarheid (fine-tunen op eigen data), kosten (geen per-token fees). Nadelen: vereist GPU's of gespecialiseerde infrastructuur. Hugging Face is de centrale hub.
Prompt
De instructie of vraag die je aan een AI geeft.
Een prompt is alles wat je in een AI tool typt. Een goede prompt bevat context, een specifieke vraag, en eventueel een gewenste output-formaat. 'Schrijf een blogpost' is een slechte prompt. 'Schrijf een 500-woord blogpost over AI in de zorg, doelgroep: managers in Nederlandse ziekenhuizen, toon: informatief maar niet jargon-zwaar' is een goede prompt.
Prompt Engineering
Discipline om effectieve prompts te schrijven voor AI-systemen.
Prompt engineering is het ambacht van prompts schrijven die consistent goede output produceren. Technieken: few-shot examples, chain-of-thought, role assignment, output format spec. In 2026 is dit deels geautomatiseerd door betere modellen, maar voor production AI-applicaties blijft het cruciaal.
RAG (Retrieval Augmented Generation)
AI-techniek die antwoorden baseert op opgehaalde documenten in plaats van puur op getrainde kennis.
RAG werkt zo: je vraag wordt vergeleken met een database van jouw documenten (vector search), de meest relevante passages worden teruggehaald, en die context wordt aan de LLM gegeven samen met je vraag. Het resultaat: antwoorden gebaseerd op jouw eigen data, niet op generieke training. NotebookLM, Perplexity en bedrijfs-chatbots gebruiken RAG.
RLHF (Reinforcement Learning from Human Feedback)
Trainingsmethode waarbij menselijke voorkeuren AI-gedrag sturen.
RLHF was de doorbraak die ChatGPT mogelijk maakte. Mensen rangschikken AI-output van best naar slechtst, en het model wordt getraind om antwoorden te produceren die deze voorkeuren matchen. Het resultaat: AI dat behulpzaam, eerlijk en niet-schadelijk klinkt, omdat dat is wat menselijke beoordelaars belonen.
System Prompt
Instructies die persistent gelden over alle gesprekken met een AI.
Een system prompt is wat een AI 'altijd weet' over zijn rol, context, en regels. Bijvoorbeeld: 'Je bent een Nederlandse juridisch assistent. Antwoord altijd in formele Nederlands. Verwijs nooit naar Amerikaans recht.' De gebruiker ziet de system prompt niet, maar het stuurt al het gedrag.
Tokens
De fundamentele eenheid waarin LLMs tekst verwerken (deelwoorden of hele woorden).
Tokens zijn hoe LLMs tekst zien. 1 token is ongeveer 4 karakters of 0.75 woorden in het Engels (Nederlands is meestal iets minder efficiënt). Bij API gebruik betaal je per token (input + output). Een typisch ChatGPT antwoord is 100-500 tokens. Context windows worden gemeten in tokens (bijv. Claude's 200k = ongeveer 150k woorden).
Tool Use (Function Calling)
AI's vermogen om externe tools en APIs aan te roepen tijdens een gesprek.
Tool use laat AI buiten de chat acties ondernemen: een API aanroepen, een database doorzoeken, code uitvoeren, een e-mail versturen. Modellen worden hierop expliciet getraind. Dit is wat AI van 'chatbot' naar 'agent' tilt. ChatGPT plugins en Claude's MCP zijn voorbeelden.
Training
Het proces waarmee een AI-model leert van data.
Training is waarom GPT-5 honderden miljoenen dollars kostte om te bouwen. Het model leest enorme tekstcorpora (internet, boeken, code) en past zijn miljarden parameters aan om patronen te leren. Pretraining = brede taalkennis. Fine-tuning = specifieke skills.
Transformer
Neurale netwerk architectuur die de basis vormt voor moderne LLMs.
Transformers werden in 2017 geïntroduceerd in het paper 'Attention is All You Need' van Google. De kerntechniek (self-attention) liet modellen lange-afstand relaties in tekst leren, wat eerdere architecturen niet konden. Vrijwel elke moderne AI (GPT, Claude, Gemini, Llama) bouwt op transformer architectuur.
Vector Database
Database die embeddings opslaat en snel kan doorzoeken.
Vector databases zoals Pinecone, Weaviate, en pgvector zijn geoptimaliseerd voor vector similarity search. Ze maken het mogelijk om miljoenen of miljarden documenten in milliseconden te doorzoeken op basis van betekenis (niet keywords). Essentieel voor RAG-applicaties.
Term ontbreekt?
Mail ons via onze contactpagina met de term, dan voegen we het toe.