Uw kantoor gebruikt AI. Uw tuchtrechter ook.

Waarom de advocatuur een governance-probleem heeft dat aanbevelingen niet gaan oplossen

Eind 2025 publiceerde de NOvA haar ‘Aanbevelingen AI in de advocatuur’. Eind 2025 berispte de Rechtbank Rotterdam een advocaat die niet-bestaande jurisprudentie had aangedragen — vermoedelijk gegenereerd door ChatGPT. Begin 2026 kregen drie advocaten een waarschuwing van de toezichthouder voor hetzelfde vergrijp. Eén van hen kwam vervolgens bij dezelfde rechtbank opnieuw met verzonnen uitspraken aanzetten.

Die reeks is geen anekdotisch incident. Het is het eerste zichtbare symptoom van een structureel probleem: de Nederlandse advocatuur adopteert AI in hoog tempo, zonder een operationeel kader dat voorkomt dat dit soort fouten zich herhaalt.

De cijfers zijn helder, de consequenties niet

Uit het Wolters Kluwer Benchmark Rapport 2026, gebaseerd op een enquête onder 633 juridische professionals, blijkt dat 59,6% van de Nederlandse juridische professionals AI-tools gebruikt. Meer dan 84% plant extra investeringen. De adoptie is niet experimenteel meer — het is operationeel.

Maar kijk naar wat die adoptie niet bevat. Vraag een willekeurige managing partner van een kantoor met 30 advocaten: welke van jullie AI-toepassingen valt onder de hoog-risico categorie van de EU AI Act? Bij welke toepassingen zijn jullie ‘gebruiksverantwoordelijke’ in de zin van artikel 26? Welke use cases vereisen een conformiteitsbeoordeling?

De eerlijke antwoorden op die vragen zijn, bij het overgrote deel van de kantoren: we weten het niet, we hebben er niet over nagedacht, we wisten niet dat die vragen bestonden.

De NOvA-aanbevelingen: richting zonder route

De aanbevelingen van de NOvA zijn vakkundig opgesteld. Ze vertalen de kernwaarden — onafhankelijkheid, partijdigheid, deskundigheid, integriteit, vertrouwelijkheid — naar een context waarin generatieve AI een dagelijks hulpmiddel is. De advocaat blijft eindverantwoordelijk. Controleer je bronnen. Voer een DPIA uit. Documenteer je afwegingen.

Het zijn verstandige principes. Het probleem is dat principes geen processen zijn.

Een kantoor dat de aanbevelingen leest, weet wat het zou moeten doen. Het weet niet hoe. Welke tool valt in welke risicocategorie? Hoe classificeer je een AI-toepassing die je gebruikt voor jurisprudentieonderzoek in een asieldossier versus een handelsnaamgeschil? Waar leg je die classificatie vast? Wie controleert of een medewerker ChatGPT gebruikt voor een concept-pleitnota in een strafzaak?

De aanbevelingen zijn een kompas. Maar een kompas zonder kaart leidt tot dezelfde bestemming als geen kompas: je loopt in de richting die op dat moment logisch voelt.

Toezicht in aanbouw, normen nog in de steigers

Het College van Toezicht Advocatuur heeft in het Werkplan 2026 aangekondigd dat AI-gebruik onderdeel wordt van de gesprekken met lokale dekens. Dat is een stap. Maar het werkplan bevat geen inhoudelijke normstelling. Het College wil vernemen hoe dekens omgaan met AI-gebruik — het zegt niet hoe ze dat zouden moeten doen.

De dekens zelf kampen met capaciteitsproblemen. Uit hetzelfde werkplan blijkt dat de 10%-norm voor preventieve kantooronderzoeken structureel niet gehaald wordt. Capaciteitstekort is een belangrijke belemmering. Voeg daar een nieuw, complex toezichtdomein aan toe — AI-gebruik door advocaten — en het wordt duidelijk dat effectief toezicht op dit terrein niet morgen realiteit is.

Ondertussen versnelt het gebruik.

De EU AI Act: niet iemand anders’ probleem

Er leeft een breed misverstand dat de EU AI Act vooral relevant is voor techbedrijven die AI bouwen. Dat misverstand is gevaarlijk. De Verordening legt expliciete verplichtingen op aan gebruikers van AI-systemen — de ‘deployers’ of ‘gebruiksverantwoordelijken’ in de Nederlandse vertaling.

Artikel 26 van de AI Act verplicht elke organisatie die een AI-systeem inzet om, onder meer, technisch toezicht te regelen, een risicoanalyse uit te voeren, data-input te monitoren, en registratieverplichtingen na te komen. Dit geldt voor hoog-risico systemen, maar de definitie van ‘hoog risico’ is breder dan de meeste kantoren vermoeden.

Een advocatenkantoor dat AI structureel inzet voor het analyseren van asieldossiers, het beoordelen van bewijsmateriaal in strafzaken, of het adviseren over arbeidsrechtelijke geschillen, opereert mogelijk in het domein van Annex III. Niet omdat de tool zelf hoog-risico is, maar omdat de toepassing dat is.

Een artikel in Advocatie van maart 2026 formuleert het scherp: veel kantoren beschouwen AI primair als een ondersteunende tool — voor jurisprudentieonderzoek, samenvatting, tekstvoorstellen — en leggen de koppeling naar de risicocategorieën niet. Maar zodra AI-output structureel wordt gebruikt in advisering of besluitvorming, stijgt het risicoprofiel. De grens tussen een slimme tekstverwerker en een beslissingsondersteunend systeem is in de praktijk dunner dan hij lijkt.

Persoonlijke aansprakelijkheid maakt dit anders

In de financiële sector is AI-governance een organisatorisch risico. In de advocatuur is het een persoonlijk risico. De advocaat die niet-bestaande jurisprudentie indient, wordt niet als kantoor berispt — hij of zij wordt persoonlijk tuchtrechtelijk aangesproken.

Dat maakt het pijnpunt concreter dan in welke andere sector ook. Een partner die een medewerker niet adequaat heeft geïnstrueerd over AI-gebruik, draagt medeverantwoordelijkheid. Een kantoor dat geen AI-beleid heeft maar wel tien advocaten die dagelijks ChatGPT gebruiken, heeft een latent tuchtrechtelijk risico bij elke pleitnota die de deur uit gaat.

De drie waarschuwingen van begin 2026 zijn geen eindpunt. Ze zijn het begin van een patroon dat alleen maar frequenter zal worden naarmate het gebruik toeneemt en de tuchtrechter alerter wordt.

De blinde vlek

Het eigenlijke probleem is niet dat kantoren AI gebruiken. Dat is onvermijdelijk en in veel gevallen wenselijk. Het probleem is dat er een structureel gat zit tussen de snelheid waarmee AI wordt geadopteerd en de snelheid waarmee kantoren de governance daaromheen organiseren.

Dat gat wordt niet gedicht door aanbevelingen te lezen. Het wordt niet gedicht door een cursus AI voor de balie te volgen. Het wordt niet gedicht door LegalPA aan te schaffen met ingebouwde anonimisering — hoe nuttig dat als tool ook is.

Het gat wordt gedicht door drie vragen operationeel te beantwoorden, voor elke AI-toepassing die het kantoor gebruikt:

  1. Wie is de eigenaar? Niet op papier, maar in de praktijk. Wie bewaakt dat deze toepassing wordt gebruikt waarvoor hij bedoeld is?
  2. Welk risicoprofiel heeft deze toepassing? Niet de tool, maar het gebruik. Jurisprudentieonderzoek in een handelszaak is iets anders dan case-analyse in een strafzaak.
  3. Wat gebeurt er als de output fout is? Niet als theoretische exercitie, maar als concreet protocol. Wie controleert? Hoe? Wanneer?

Elk kantoor dat die drie vragen niet per toepassing kan beantwoorden, heeft een governance-gat. Niet op papier. In de praktijk.

Wat nu?

De advocatuur staat op een kruispunt dat de meeste kantoren nog niet als zodanig herkennen. De technologie versnelt. De regulering verhardt. Het toezicht intensiveert. En de persoonlijke aansprakelijkheid maakt elke dag zonder operationele governance een dag waarop het risico groeit.

De vraag is niet of kantoren hun AI-gebruik gaan structureren. De vraag is of ze dat doen voordat de volgende berisping de hunne is.

Jan-Willem Rodenhuis is managing partner van Ductus B.V. en schrijft op miliarium.nl over de effecten van AI-adoptie in gereguleerde sectoren.

Bronnen

  • Wolters Kluwer, Benchmark Rapport 2026: Innovatie en Groei in Kleine Advocatenkantoren (n=633)
  • NOvA, Aanbevelingen AI in de advocatuur, 2025
  • College van Toezicht Advocatuur, Werkplan 2026
  • Advocatie, ‘AI Act-risicocategorieën blijven onderbelicht’, maart 2026
  • Advocatie, ‘Advocaten gewaarschuwd na misbruik van AI in processtukken’, februari 2026
  • Mr. Online, ‘Nederlandse advocaat valt door AI-mand’, oktober 2025
  • EU AI Act, Verordening (EU) 2024/1689