top of page

Waarom AI soms dingen verzint: hallucinaties uitgelegd

  • Foto van schrijver: Silvester Zwaneveld
    Silvester Zwaneveld
  • 14 aug
  • 4 minuten om te lezen

Stel je voor: je vraagt aan een vriend “Wie heeft de telefoon uitgevonden?” en hij zegt bloedserieus:“Ja, dat was Leonardo DiCaprio, in 1987.”Je denkt: “Huh?!”Precies dat gevoel krijg je soms bij AI. Alleen heet het daar hallucineren.

Nee, AI ziet geen roze olifanten rondvliegen. Maar het kan wél met een stalen gezicht dingen beweren die simpelweg niet waar zijn. En dat kan verwarrend, grappig en soms zelfs gevaarlijk zijn.


Wat is een AI-hallucinatie?

Een AI-hallucinatie is een antwoord van een AI-model dat onjuist, verzonnen of volledig uit de lucht gegrepen is, maar wel wordt gebracht alsof het klopt. Denk aan:

  • Een niet-bestaand boek met een overtuigende titel en auteur.

  • Een wetenschappelijk feit dat nooit onderzocht is.

  • Een biografie van jou waarin je plots in 2015 een gouden medaille judo hebt gewonnen (terwijl je nog nooit op de tatami hebt gestaan).

AI-modellen zoals ChatGPT, Claude of Gemini maken hun antwoorden op basis van patronen in gigantische hoeveelheden tekst. Ze snappen geen waarheid zoals wij dat doen. Ze voorspellen het volgende woord dat waarschijnlijk komt, niet of dat woord klopt.

Waarom gebeurt dit?

Het heeft niks te maken met “liegen” in de menselijke zin van het woord. AI heeft geen intenties, geen emoties, geen agenda. Er zijn een paar hoofdredenen waarom het toch gebeurt:

  1. Gebrek aan echte kennisAI’s geheugen is niet zoals Google. Ze hebben geen live toegang tot alle feiten (tenzij ze daar speciaal voor verbonden zijn met internet). Alles wat ze weten, komt uit hun trainingsdata. Als daar gaten in zitten, vult het model die zelf in.

  2. Patroon boven waarheidAls jij schrijft:“Het was in 1969 dat...”is de kans groot dat het volgende woord “de eerste mens op de maan” wordt, ook al vroeg je eigenlijk naar een ander onderwerp. AI kiest woorden op basis van waarschijnlijkheid, niet op basis van ‘waarheidstoetsen’.

  3. Overdreven zelfvertrouwenAI’s tonen geen twijfel tenzij je ze daar expliciet om vraagt. Dus zelfs als de kans op fout antwoord groot is, zeggen ze het alsof het 100% klopt.

  4. Gebrek aan contextSoms begrijpt AI je vraag verkeerd, of denkt het dat je iets in een creatieve, fictieve context vraagt. En dan gaat het lekker invullen.


Een voorbeeld: de fictieve professor

Vraag aan een AI:

“Welke professor aan de Universiteit van Utrecht deed in 2008 onderzoek naar de migratie van vleermuizen in Friesland?”

Als zo’n onderzoek nooit heeft bestaan, zou een AI kunnen antwoorden:

“Dat was professor Marianne van der Steen, die in 2008 het project ‘Frisian Bat Migration Patterns’ leidde, gefinancierd door het Ministerie van Natuur en Milieu.”

Klinkt super geloofwaardig, toch? Tot je ontdekt dat er helemaal geen professor Marianne van der Steen bestaat.


Waarom is dat een probleem?

Hallucinaties zijn niet altijd een ramp. Als je een verhaal aan het schrijven bent, kan een beetje creatieve onzin zelfs nuttig zijn. Maar in veel situaties is het riskant:

  • Journalistiek: foutieve feiten ondermijnen je geloofwaardigheid.

  • Onderwijs: studenten leren verkeerde informatie.

  • Bedrijfsbeslissingen: een AI die verkeerde cijfers verzint, kan geld kosten.

  • Medische context: potentieel levensgevaarlijk.

En het meest verraderlijke: hoe overtuigender de AI klinkt, hoe makkelijker mensen het geloven.


Kun je hallucinaties voorkomen?

Helemaal voorkomen? Nee. Minimaliseren? Ja. Hier zijn een paar tips:

  1. Vraag om bronnenAls je AI iets laat opzoeken, vraag meteen: “Kun je de bron erbij geven?” of “Geef me alleen feiten die je kunt verifiëren.” Let wel: soms verzint AI óók bronnen. Check ze dus zelf.

  2. Dubbelcheck belangrijke infoZie AI als een slimme stagiair: hij kan razendsnel werken, maar je moet z’n werk altijd nakijken.

  3. Wees specifiek in je vraagHoe duidelijker en concreter je vraag, hoe minder de AI zelf hoeft in te vullen.

  4. Gebruik AI met live-dataSommige AI-tools hebben internettoegang en kunnen actuele feiten checken. Dat verkleint de kans op hallucinaties.


Hoe AI-ontwikkelaars ermee omgaan

Bedrijven als OpenAI, Google en Anthropic steken veel energie in het verminderen van hallucinaties.Ze doen dat o.a. met:

  • Verbeterde trainingsdata – meer en betere voorbeelden in de dataset.

  • Instructiefinetuning – het model leren om te zeggen “Ik weet het niet” als er te weinig zekerheid is.

  • Chain-of-thought prompting – het model eerst intern laten redeneren voordat het antwoord geeft.

  • Fact-check pipelines – een extra stap die informatie verifieert voordat het naar de gebruiker gaat.

Maar de strijd is nog lang niet gestreden. Het blijft een balans tussen creativiteit en feitelijkheid.


Een stukje filosofie: wat is waarheid voor een AI?

Voor ons is waarheid iets dat overeenkomt met de werkelijkheid. Voor een AI is “waarheid” een hoge waarschijnlijkheid dat een reeks woorden bij elkaar past. Als in z’n trainingsdata vaak stond:

“De hoofdstad van Australië is Sydney”dan zal de AI dat ook zo herhalen, zelfs al klopt het niet (het is Canberra).

Het laat zien dat AI niet denkt zoals wij. Het begrijpt geen concepten, het simuleert begrip. Daarom is het zo belangrijk dat wij als mens de laatste check blijven doen.

De hilarische kant van hallucinaties

Niet alle AI-hallucinaties zijn rampzalig. Soms zijn ze gewoon té mooi om niet te delen.Voorbeeld: iemand vroeg een AI om een recept voor lasagne, maar zonder pasta, kaas of tomatensaus.Het antwoord begon met:

“Neem een vel lasagnebladen...”

Of het moment dat een AI vroeg werd naar “een kort gedicht over een giraffe die in Parijs woont” en het doodleuk een verhaal gaf waarin de giraffe een flat huurde in de Eiffeltoren.

Die fouten maken AI soms aandoenlijk — en ook een beetje menselijk.


Wat dit betekent voor de toekomst

Hallucinaties zullen waarschijnlijk nooit helemaal verdwijnen. Maar we leren er steeds beter mee omgaan.Misschien komt er een tijd dat AI automatisch aangeeft hoe zeker het is van een antwoord, of dat het standaard een bronlijst meestuurt. Misschien wordt het standaard gekoppeld aan betrouwbare kennisbanken.

Tot die tijd geldt: gebruik AI slim, maar blijf zelf nadenken.

Kortom:AI-hallucinaties zijn geen foutjes in de zin van “het werkt niet”, maar eerder een gevolg van hoe AI in de kern werkt: taal voorspellen op basis van patronen. Dat is soms briljant, soms lachwekkend, en soms ronduit gevaarlijk. Jij als gebruiker bent de filter tussen AI’s output en de werkelijkheid.

Dus de volgende keer dat een AI met volle overtuiging zegt dat DiCaprio de telefoon heeft uitgevonden?Gewoon even Googelen.

 
 
 

Recente blogposts

Alles weergeven

Opmerkingen


bottom of page