
Het is niet alleen een afgewezen aanvraag. Het is reputatieschade, mogelijke juridische aansprakelijkheid, en een ethische schending. Allemaal omdat je niet kon bewijzen dat je hallucinaties hebt voorkomen.
RVO heeft duidelijke richtlijnen (en niemand leest ze)
In januari 2024 publiceerde RVO officiële richtlijnen voor AI-gebruik bij subsidieaanvragen. De meeste consultants denken dat het een verbod is. Dat is het niet.
Het is een aansprakelijkheidskader.
De kernboodschap van RVO is simpel: je mag AI gebruiken, maar je bent "volledig verantwoordelijk voor delen die door een AI-tool zijn geproduceerd".
Lees die zin nog een keer.
Volledig verantwoordelijk. Niet de AI. Niet OpenAI. Jij. Je bureau. Je naam op de aanvraag.
Het probleem dat niemand wil benoemen
Voor individuele consultants die 5 aanvragen per maand doen, is dit beheersbaar. Je leest alles drie keer, je controleert elke claim, je bent paranoïde over details.
Maar voor adviesbureaus die 50+ aanvragen per maand verwerken?
Je kunt niet vertrouwen op individuele waakzaamheid. Eén junior consultant die een hallucinatie mist, en je hele bureau staat onder vuur.
De reputatieschade verspreidt zich snel in subsidiekringen. RVO markeert je bureau. Toekomstige aanvragen krijgen extra controle. Klanten horen erover. Je pipeline droogt op.
En dan zijn er de juridische implicaties:
- Onjuiste informatie indienen bij overheidsinstanties
- Klanten die je aanklagen als aanvragen falen
- Professional liability claims
- Schending van zorgplicht jegens klanten
Als gelicentieerd professional staat jouw naam persoonlijk borg voor nauwkeurigheid. Ongecontroleerde AI gebruiken is professionele nalatigheid.
Waarom andere tools je blootstellen aan risico
Hier is het ongemakkelijke feit over ChatGPT, Claude, Gemini, en ja, ook CustomGPTs:
Ze hebben geen hallucinatiepreventie.
Hun workflow is altijd hetzelfde:
- Genereer output
- Hoop dat het accuraat is
- Controleer handmatig alles
- Mis de subtiele hallucinatie die perfect geformuleerd klinkt
- Dien in
- Wacht op RVO's reactie
Dit is output-controle. En zoals we al weten: op het moment dat je output controleert, is het kwaad al geschied.
Maar het wordt erger voor bureaus.
Met generieke AI-tools heb je geen enkele manier om te bewijzen dat je hallucinaties hebt voorkomen. Je kunt alleen hopen dat je ze allemaal hebt gevangen tijdens handmatige review.
Wanneer RVO vraagt: "Hoe heeft je bureau kwaliteitscontroles afgedwongen voor AI-gebruik?" - wat is je antwoord?
"We vertrouwen erop dat onze consultants alles controleren"?
Dat is geen due diligence. Dat is hopen.
Wat RVO eigenlijk vereist van bureaus
Laten we de officiële RVO-richtlijnen ontleden vanuit een bureau-perspectief:
Transparantie-eis:
"Openbaarmaken van alle gebruikte AI-tools"
Voor bureaus betekent dit: je hebt een gedocumenteerde, consistente aanpak nodig voor AI-gebruik bij alle consultants. Niet iedereen die zijn eigen tools gebruikt op zijn eigen manier.
Aansprakelijkheidseis:
"Volledige verantwoordelijkheid voor AI-gegenereerde delen"
Voor bureaus betekent dit: je moet kunnen bewijzen dat je organisatorische controles hebt op AI-kwaliteit. Individuele waakzaamheid schaalt niet.
Documentatie-eis:
"Documentatie van bronnen voor gegenereerde/herschreven content"
Voor bureaus betekent dit: audit trails. Je moet kunnen aantonen waar informatie vandaan kwam en hoe je accuracy verificeerde.
De onderliggende vraag van RVO is:
"Kun je bewijzen dat je hallucinaties hebt voorkomen, niet alleen gedetecteerd?"
Met generieke AI-tools is het antwoord nee.
Input controle: hallucinaties voorkomen bij de bron
Twin Docs werkt fundamenteel anders.
Wij controleren de input voordat er überhaupt geschreven wordt. Als de data onvolledig, inconsistent of onverifieerbaar is, schrijft de AI geen tekst.
Het drie-agent systeem
Wat dit betekent voor compliance
Meetbare hallucinatiepreventie:
Omdat de Input Agent data valideert vóór het schrijven, kun je exact meten hoeveel issues werden gevangen voordat ze hallucinaties werden.
Geautomatiseerde audit trails:
Elk beslispunt is gedocumenteerd. Wanneer RVO vraagt "Hoe weet je dat deze technische claim accuraat is?", heb je een trail die laat zien:
- Welke input de consultant aanleverde
- Welke checks de Input Agent uitvoerde
- Welke feedback de consultant kreeg
- Hoe de consultant reageerde
- Wanneer groen licht werd gegeven om te schrijven
Bureau-brede consistentie:
Niet afhankelijk van individuele consultants die "eraan denken" om te controleren. Het systeem dwingt kwaliteitscontrole af bij elke aanvraag.
Compliance by design, niet by effort
Hier is waar Twin Docs fundamenteel verschilt van andere tools:
Met ChatGPT/CustomGPTs:
- Consultants moeten eraan denken om voorzichtig te zijn
- Handmatige documentatie voor compliance
- Hoop dat niemand een hallucinatie mist
- Geen bewijs van bureau-brede controles
Met Twin Docs:
- Compliance is ingebouwd in de workflow
- Audit trails zijn automatisch
- Hallucinatiepreventie is afgedwongen, niet optioneel
- Organisatorische due diligence is bewijsbaar
Je hoeft medewerkers niet te trainen om "verantwoord met AI om te gaan". Het systeem is verantwoord by design.
De vraag die je jezelf moet stellen
Stel RVO belt morgen je bureau.
Ze hebben vragen over een aanvraag die 3 maanden geleden is ingediend. Er is een inconsistentie ontdekt. Ze vermoeden AI-gebruik.
Hun vraag: "Kunt u aantonen welke kwaliteitscontroles jullie hebben uitgevoerd om hallucinaties te voorkomen bij AI-gegenereerde content?"
Als je ChatGPT gebruikt, is je antwoord: "Onze consultant heeft het gecontroleerd."
Als je Twin Docs gebruikt, is je antwoord: "Hier is de volledige audit trail die laat zien welke input-validaties werden uitgevoerd, welke feedback de consultant kreeg, en hoe we hebben geverifieerd dat de data accuraat was voordat er geschreven werd."
Welk antwoord beschermt je bureau?
Van hopen naar weten
De subsidiesector staat op een keerpunt.
RVO heeft duidelijk gemaakt: AI mag, maar aansprakelijkheid blijft bij jou. Voor bureaus betekent dit dat "we controleren handmatig" geen acceptabel risicobeheer meer is.
Je hebt twee opties:
Optie 1: Blijf generieke AI-tools gebruiken. Vertrouw op individuele waakzaamheid. Hoop dat niemand een hallucinatie mist. Kruist je vingers bij elke RVO-beoordeling.
Optie 2: Gebruik AI waarbij hallucinatiepreventie is ingebouwd. Krijg geautomatiseerde audit trails. Bewijs organisatorische due diligence. Slaap rustig.
Compliance is geen feature. Het is de fundering.