Het zijn de woorden van een rechter in de Amsterdamse Ondernemingskamer, gericht aan een advocaat met dertig jaar ervaring. Haar verzoekschrift in een ruzie tussen twee aandeelhouders van een kleine Scheveningse rederij verwees naar jurisprudentie die niet bestond. Toen dat werd opgemerkt, probeerde ze het te repareren. Met drie nieuwe verwijzingen, die ook niet bestonden. Drie hallucinaties, één
AI, één zaak die uiteindelijk eindigde in een schikking. Een schikking, overigens, waarbij een aandelenpakket van twintig procent dat ooit voor driehonderd euro was gekocht, voor honderdvijfenzeventigduizend euro werd verkocht. Wat een dure les had kunnen zijn, werd een zeer dure deal.
Geen incident
Dit verhaal staat niet op zichzelf. De Nederlandse dekens houden sinds dit jaar bij hoe vaak advocaten zaken met AI-fouten erin voor de rechter brengen. Drie van hen zijn al gewaarschuwd, twee zijn op AI-cursus gestuurd.. Dit gebeurt niet alleen in Nederland. In New York bood Sullivan & Cromwell, een van de duurste advocatenkantoren ter wereld, waar partners makkelijk meer dan tweeduizend dollar per uur rekenen, recent
publiekelijk excuses aan omdat ze in een opvallende rechtszaak een document had ingediend met verzonnen citaten uit de Amerikaanse faillissementswetgeving. De fout was ontdekt door de tegenpartij, die alle bronnen had nagelopen. Het kantoor had eigen interne AI-protocollen waarin stond dat alles moet worden geverifieerd, maar die protocollen waren niet gevolgd.
Wat hier eigenlijk gebeurt
Een hallucinatie is geen leugen met opzet. Het is een systeemfout. Generieke AI-modellen zijn getraind om te plezieren: als je iets vraagt, krijg je een antwoord, ook als het model het niet weet. Liever een zelfverzekerd verzinsel dan een eerlijk "ik weet het niet". En precies daar zit het probleem: een AI-hallucinatie ziet er zelden uit als een hallucinatie. De ECLI-nummers ogen kloppend, citaten zijn grammaticaal in orde, de toon is zelfverzekerd. Een professional die te druk is om elke bron na te lopen leest het en denkt: klinkt goed. Pas in de zittingszaal, bij de review, bij de Belastingdienst, of bij de cliënt die zijn eigen dossier kent, valt het kaartenhuis. Dan is het te laat en is het in één klap een verhaal in de krant.
Niet alleen advocaten
In elk vak waar bronnen, getallen en regels exact moeten kloppen, ligt deze valkuil. In de fiscale of financiële context waar ik in zit werken zulke fouten door naar latere jaren, naar reviews, naar audits, naar de Belastingdienst. Maar in elke sector kunnen dergelijke hallucinaties nog lange sporen achterlaten. De oplossing is natuurlijk niet om AI in de ban te doen maar hoe je ermee werkt. Generieke AI-modellen zijn handig voor brainstormen, samenvatten en doodgewone tekstklusjes. Voor werk waar bronnen kloppend moeten zijn, hoort AI te draaien op afgebakende en gecontroleerde bronnen waarnaar elke verwijzing herleidbaar is. Geen black box, wel een glazen kast. Je moet kunnen zien waar het antwoord vandaan komt, op welke versie het is gebaseerd, en in welke context. En los van de tool: de professional blijft eindverantwoordelijk. Een AI ontslaat niemand van de plicht om na te kijken wat eruit komt. Zo simpel is het, zo lastig blijkt het in de praktijk.
Wat blijft er over van de Scheveningse rederij? Een schikking, een rechter wiens quote nog jaren zal rondzingen, en een advocate die de rest van haar carrière haar AI-uitvoer twee keer controleert. Voor de rest van ons is er een veel goedkopere les: een hallucinatie is geen domheid van de gebruiker, het is een eigenschap van de techniek. Wie dat begrijpt, gebruikt AI met de juiste mate van wantrouwen dan wel de juiste AI tool. De beste aanpak is nog altijd, in een zittingszaal of waar dan ook, om het gewoon bij de feiten te houden.