Wat AI ons leert over eerlijkheid: 4 regels om vertrouwen te winnen
Inhoud van deze pagina
- Wat een Zero Hallucination Policy is
- Welke 4 regels centraal staan
- Wat jij als communicator, copywriter of expert daarvan kunt leren
Wil je dit soort principes toepassen in je eigen content, copy of AI-gedreven flows? Dan kan je samenwerken met een gespecialiseerde content designer bij Copybar.
Video: Zero Hallucination Policy — 4 kernregels voor AI-eerlijkheid
Wat is een Zero Hallucination Policy?
Een Zero Hallucination Policy is een set regels die voorkomt dat AI dingen verzint. De kern is eenvoudig:
- Geen speculatie
- Geen verzonnen feiten
- Altijd bronvermelding
- Twijfel en onwetendheid duidelijk benoemen
Deze aanpak sluit aan bij hoe grote spelers naar kwaliteit kijken, zoals de Google Search Quality Rater Guidelines. Google gebruikt het E-E-A-T-raamwerk om content te beoordelen: Experience (ervaring), Expertise (deskundigheid), Authoritativeness (autoriteit) en Trustworthiness (betrouwbaarheid).
Ook AI-ontwikkelaars zoals OpenAI en Microsoft Azure werken met strikte richtlijnen voor verantwoord AI-gebruik. Ze implementeren technische maatregelen zoals reinforcement learning from human feedback (RLHF) en moderatie-tools om misleidende of schadelijke output te voorkomen.
Een Zero Hallucination Policy is dus niet alleen een technische keuze. Het is ook een ethische keuze: je kiest bewust voor helderheid, verifieerbare bronnen en respect voor je gebruiker.
Waarom AI-hallucinaties een probleem zijn
Onderzoekers tonen aan dat AI-hallucinaties inherent zijn aan de manier waarop taalmodellen werken. Ze ontstaan doordat:
- Modellen zijn getraind op grote datasets met inconsistenties
- Het systeem waarschijnlijkheidsprincipes gebruikt om tekst te genereren, niet waarheidswaarden
- AI wordt gestimuleerd om een antwoord te geven, zelfs als het de informatie niet heeft
Het probleem is dat AI-hallucinaties moeilijk te onderscheiden zijn van correcte informatie. AI presenteert verzonnen feiten even overtuigend als echte feiten. Dat maakt het gevaarlijk, vooral in educatie, gezondheidszorg, juridische sectoren en zakelijke besluitvorming.
Onderzoek gepubliceerd in PMC bevestigt: hallucinaties zijn onvermijdelijk bij large language models die als algemene probleemoplossers worden ingezet. Maar ze kunnen wel worden beperkt door strikte beleidsregels, externe verificatie en menselijke controle.
Wikipedia beschrijft het probleem uitgebreid en legt uit dat hallucinaties kunnen variëren van kleine feitelijke onjuistheden tot volledig verzonnen informatie.
De 4 kernregels van radicale eerlijkheid in AI
1. Durf zeggen: “Ik weet het niet”
De eerste en misschien wel belangrijkste regel:
Als informatie ontbreekt of niet zeker is, zegt de AI dat gewoon.
In plaats van:
- een gok
- een vaag antwoord
- een “mooie” maar foutieve uitleg
krijgt de gebruiker een duidelijke boodschap: “Dit kan niet geverifieerd worden op basis van de beschikbare bronnen.”
Dat lijkt misschien zwak, maar het tegenovergestelde is waar. Het:
- bouwt vertrouwen op
- toont integriteit
- maakt duidelijk wat wél en niet bekend is
Google benadrukt in zijn Quality Rater Guidelines dat trustworthiness (betrouwbaarheid) het belangrijkste onderdeel is van E-E-A-T. Content die onbetrouwbaar is, krijgt een lage kwaliteitsscore, ongeacht expertise of autoriteit.
De regel gaat vaak nog verder:
- Onzekere claims moeten expliciet gemarkeerd worden
- De gebruiker wordt uitgenodigd om zelf te controleren of extra context te geven
Zo wordt AI een partner in factchecking, niet een bron van ruis.
2. Extreme focus op bronvermelding
Een tweede belangrijke regel: geen bewering zonder duidelijke bron.
Dat betekent:
- Altijd de exacte pagina vermelden, niet alleen een domein
- Bij interne documenten: bestandsnaam én sectie of paginanummer
- Bij rapporten of onderzoeken: duidelijke referentie naar de specifieke sectie of tabel
Dit sluit aan bij hoe wetenschappers en journalisten werken, en ook bij hoe Wikipedia en betrouwbare kennisbanken omgaan met bronnen: elke claim moet verifieerbaar zijn.
Google waardeert content met duidelijke bronnen en citaties. Het helpt om autoriteit en expertise aan te tonen, twee belangrijke factoren van E-E-A-T.
Waarom is dit zo krachtig?
- De gebruiker kan zelf checken
- AI wordt gedwongen om terug te gaan naar de bron
- Fouten of misinterpretaties worden sneller ontdekt
Voor contentmakers en organisaties betekent dit:
- Werk met duidelijke bronlijsten
- Link naar officiële richtlijnen (bijv. Google Search Central voor SEO, OpenAI-documentatie voor AI-richtlijnen)
- Vermijd “meningen zonder bron” wanneer je feitelijke claims maakt
3. Precisie boven een mooie schrijfstijl
Een derde regel klinkt vreemd voor een taalmodel:
Liever exact dan mooi.
Concreet:
- Als parafraseren (herformuleren) een risico op betekenisverlies geeft, moet AI letterlijk citeren
- Een minder vlot lopende zin is beter dan een 99% juiste, maar iets verdraaide samenvatting
Dit principe sluit aan bij hoe juristen, onderzoekers en technische writers werken:
- Bij kritische definities, voorwaarden of cijfers citeer je exact
- Bij disclaimers, richtlijnen en policies wil je geen interpretatierisico
Voor jou als schrijver of expert betekent dit:
- Samenvatten is handig voor leesbaarheid
- Maar bij kernbegrippen, cijfers en definities is letterlijk citeren veiliger
- Een korte toelichting naast een citaat geeft én context én precisie
Google beoordeelt content ook op basis van accuraatheid en detail. Content die belangrijke nuances verliest door te veel vereenvoudiging, scoort lager op expertise.
4. Geen speculatie: werk alleen met wat er echt is
De vierde regel is de kern van het Zero Hallucination-beleid:
- Gebruik alleen informatie uit de beschikbare bronnen of input van de gebruiker
- Verzin niets. Vul geen gaten op. Maak geen aannames.
Veel AI-fouten ontstaan omdat het model:
- Logische sprongen maakt
- Op basis van patronen “aanvult”
- Denkt te weten wat de gebruiker bedoelt
Een strikt beleid breekt dat patroon:
- Geen nieuwe feiten worden “bijgefantaseerd”
- Geen conclusies zonder dat ze in de bronnen terug te vinden zijn
Dit sluit aan bij Retrieval-Augmented Generation (RAG)-systemen, waarbij AI-modellen zijn gekoppeld aan externe, geverifieerde kennisbronnen. DataCamp legt uit hoe RAG hallucinaties vermindert door antwoorden te verankeren in actuele, betrouwbare data.
Voor organisaties betekent dit:
- Duidelijke, betrouwbare kennisbronnen aanleveren
- Goede documentatie, stijl- en redactierichtlijnen opstellen
- AI gebruiken als precisie-instrument, niet als “magische ideeënmachine” wanneer het om feiten gaat
Wat jij van deze AI-regels kunt leren als communicator
Deze vier regels zijn gemaakt om machines te temmen, maar ze zijn minstens zo waardevol voor mensen die communiceren:
- Erken onwetendheid
Zeg eerlijk wat je niet weet. Dat vergroot je geloofwaardigheid. - Verantwoordelijkheid voor elke claim
Onderbouw je beweringen. Link naar bronnen, richtlijnen of onderzoeken. - Precisie boven show
Kies bij belangrijke informatie voor exactheid, niet alleen voor een vlotte toon. - Niet speculeren met feiten
Maak duidelijk wat feit is, wat interpretatie is en wat mening is.
Ze sluiten naadloos aan bij hoe Google kijkt naar kwaliteit via E-E-A-T, maar ook bij hoe AI-systemen zoals Perplexity, ChatGPT, Gemini en Copilot informatie evalueren:
- Is de bron duidelijk?
- Is de claim verifieerbaar?
- Is de toon eerlijk en transparant?
Hoe Copybar je helpt met eerlijke, vindbare en AI-proof content
Wil je dat jouw webteksten, blogartikels of AI-ondersteunde flows:
- betrouwbaar zijn voor je bezoekers
- vindbaar zijn in Google (ook in answer boxes/featured snippets)
- bruikbaar zijn voor AI-systemen die je merk kunnen citeren als bron
Dan heb je baat bij een contentpartner die én de taal én de technologie begrijpt.
Bij Copybar krijg je:
- Teksten op B1-niveau in duidelijke, menselijke taal
- Content die rekening houdt met SEO, GSEO, E-E-A-T en UX
- Structuur en koppen die goed werken voor Google answer boxes
- Heldere bronvermelding en framing die ook in AI-zoekmachines makkelijk te citeren is
Wil je je content toekomstbestendig maken, met meer vertrouwen én betere zichtbaarheid?
Plan een gesprek via onze contactpagina en ontdek wat we samen kunnen doen voor jouw content en AI-strategie.
Veelgestelde vragen over AI-eerlijkheid en Zero Hallucination
▼
AI-hallucinaties zijn antwoorden die een AI-systeem genereert die niet kloppen of niet verifieerbaar zijn. Het model presenteert deze informatie vol overtuiging, alsof het feiten zijn. Hallucinaties ontstaan door de manier waarop AI-modellen zijn getraind: ze voorspellen de meest waarschijnlijke tekst op basis van patronen, niet op basis van waarheid.
▼
AI-modellen hallucineren omdat ze werken op basis van waarschijnlijkheidspatronen, niet op basis van feitelijke kennis. Ze zijn getraind op grote datasets met inconsistenties en worden gestimuleerd om altijd een antwoord te geven, zelfs als ze de informatie niet hebben. Wikipedia legt uit dat zwaktes in het taalmodel zelf ook kunnen leiden tot fouten.
▼
Volledig voorkomen is waarschijnlijk onmogelijk. Onderzoek gepubliceerd op arXiv toont aan dat hallucinaties inherent zijn aan de werking van large language models. Maar ze kunnen wel sterk worden beperkt door strikte beleidsregels, externe verificatie via RAG-systemen, menselijke controle en duidelijke richtlijnen voor AI-gebruik.
▼
Een Zero Hallucination Policy is een set strikte regels die AI-systemen verplicht om alleen te werken met verifieerbare informatie. De kern: geen speculatie, altijd bronvermelding, twijfel expliciet benoemen en geen informatie verzinnen. Dit verhoogt de betrouwbaarheid en transparantie van AI-gegenereerde content.
▼
E-E-A-T staat voor Experience, Expertise, Authoritativeness en Trustworthiness. Het is een raamwerk dat Google gebruikt om de kwaliteit van content te beoordelen. Content moet laten zien dat de auteur ervaring heeft met het onderwerp, deskundig is, autoriteit heeft en betrouwbaar is.
▼
Je verbetert E-E-A-T door:
- Auteursinformatie en referenties toe te voegen
- Directe ervaring of casestudies te delen
- Naar betrouwbare bronnen te linken
- Duidelijke bronvermelding te gebruiken
- Transparant te zijn over beperkingen of onzekerheden
- Je content regelmatig bij te werken met actuele informatie
Semrush biedt een uitgebreide gids over hoe je E-E-A-T kunt verbeteren voor SEO.
▼
Bronvermelding verhoogt de betrouwbaarheid en verificeerbaarheid van je content. Voor Google is het een E-E-A-T-signaal: het toont autoriteit en expertise. Voor AI-zoekmachines maakt het je content makkelijker citeerbaar. Gebruikers kunnen zelf checken of de informatie klopt, wat vertrouwen opbouwt.
▼
Parafraseren betekent informatie in je eigen woorden uitleggen. Citeren betekent letterlijk overnemen wat in de bron staat. Bij kritieke informatie (cijfers, definities, juridische teksten) is citeren veiliger, omdat het geen interpretatierisico geeft. Bij algemene uitleg kan parafraseren de leesbaarheid verbeteren.
▼
Moderne AI-modellen gebruiken technieken zoals reinforcement learning from human feedback (RLHF) om te leren welke antwoorden veilig en accuraat zijn. Ze worden getraind om onzekere claims te vermijden en bronnen te citeren. Microsoft Azure beschrijft hoe systemen zoals RAG AI koppelen aan externe kennisbronnen om hallucinaties te verminderen. Toch blijven hallucinaties mogelijk, daarom is menselijke controle nodig.
▼
Volg deze stappen:
- Stel duidelijke richtlijnen op voor AI-gebruik
- Implementeer verificatiemechanismen (menselijke review, broncontrole)
- Gebruik RAG-systemen om AI te koppelen aan betrouwbare kennisbronnen
- Train je team om AI-output kritisch te evalueren
- Documenteer risico’s en stel een incidentplan op
- Werk met transparante communicatie naar gebruikers over AI-gebruik
OpenAI’s commitment to responsible AI development biedt een goed uitgangspunt.
Conclusie: Eerlijkheid als competitief voordeel
Deze vier regels van het Zero Hallucination-beleid zijn niet zomaar technische richtlijnen. Ze zijn een raamwerk voor echte betrouwbaarheid.
In een tijd waarin AI steeds meer onderdeel wordt van hoe we communiceren, informatie delen en besluiten nemen, zijn deze principes vitaal:
- Erkenning van onwetendheid is sterker dan valse zekerheid
- Duidelijke bronnen maken informatie verifieerbaar en waardevol
- Precisie boven elegantie voorkomt kostbare misverstanden
- Geen speculatie bouwt langdurig vertrouwen op
Voor bedrijven, communicators en content creators is de boodschap duidelijk: betrouwbaarheid is een competitief voordeel. Wanneer je content voldoet aan E-E-A-T-criteria, goed wordt gebruikt door AI-systemen, en duidelijk gebouwd is op verificatie en transparantie, win je aan autoriteit, zichtbaarheid én klantenloyaliteit.
Je hoeft niet te kiezen tussen eerlijkheid en effectiviteit. Ze gaan samen.
Klaar om je content te transformeren?
Neem contact op met Copybar en ontdek hoe we je helpen met content die werkelijk verschil maakt.
Externe bronnen en referenties
Deze blogpost is gebaseerd op officiële richtlijnen en wetenschappelijk onderzoek:
- Google Search Quality Rater Guidelines (E-E-A-T)
- Google Quality Rater Guidelines Overview
- E-E-A-T and major updates to Google’s quality rater guidelines – Search Engine Land
- Google E-E-A-T: What It Is & How It Affects SEO – Semrush
- Google’s E-E-A-T: The Complete Guide – Impression Digital
- Google E-A-T – Moz
- Is Artificial Intelligence Hallucinating? – PMC/NIH
- Hallucination is Inevitable: An Innate Limitation of Large Language Models – arXiv
- Hallucination (artificial intelligence) – Wikipedia
- The Problem of AI Hallucination and How to Solve It – Academic Conferences
- AI Hallucinations: A Guide With Examples – DataCamp
- How does OpenAI ensure ethical AI usage? – Milvus
- Beyond the Algorithm: OpenAI’s Commitment to Responsible AI Development – Quantilus
- The Ethical AI Imperative: How OpenAI is Leading the Way – RTInsights
- Overview of responsible AI practices for Azure OpenAI models – Microsoft
- OpenAI Platform Documentation – Model Optimization
- Google Search Central
