Nederlandse advocaten worden 'bullshitcheckers' door foutieve chatbot-adviezen van cliënten
Nederland, maandag, 16 februari 2026.
Advocaten besteden steeds meer tijd aan het corrigeren van onjuiste juridische informatie die cliënten van AI-chatbots krijgen. Sommige mensen nemen zelfs drastische stappen zoals ontslag op basis van chatbot-advies, voordat ze professionele hulp zoeken. Advocatenkantoren moeten nu meer dan de helft van AI-gegenereerde documenten wegstrepen omdat deze juridisch onjuist zijn.
Van tijdbesparing naar tijdverspilling
Cliënten denken slim te zijn door vooraf advies te vragen aan chatbots. Het tegendeel blijkt waar. “Je wordt eigenlijk een bullshitchecker, naast het complexere juridische werk”, zegt Laura Smit, arbeidsrechtadvocaat bij NexxtGen Legal [1]. Sommige mensen sturen zelfs volledige processtukken die ze met AI hebben opgesteld [2]. Ze hopen kosten te besparen en verwachten dat advocaten deze documenten een-op-een indienen [2]. Danny Vesters van advocatenkantoor Boontje moet regelmatig ‘met een stofkam’ door AI-stukken [3]. “Vaak moet meer dan de helft eruit, omdat het te wollig en juridisch onjuist is” [3]. De Vereniging Sociale Advocatuur Nederland en de Vereniging voor Arbeidsrecht Advocaten herkennen dit probleem bij hun achterban [2].
Ontslagen op basis van chatbot-advies
Sommige mensen nemen drastische stappen zonder advocaat te raadplegen. “Dan hebben ze al iemand ontslagen, terwijl dat niet handig was. Dat maakt de zaak lastiger op te lossen”, aldus een advocaat [4]. AI-chatbots halluchineren regelmatig - ze verzinnen rechtszaken die nooit hebben plaatsgevonden [5]. Tegelijkertijd klinken ze heel zeker van hun zaak [5]. Mensen vertrouwen de AI blind omdat het advies plausibel lijkt [6]. “Je kunt chatbots fantastisch manipuleren tot je bij het advies uitkomt dat je het liefst wilt hebben” [4]. Pascal Besselink van juridisch adviesorganisatie DAS waarschuwt dat het “vaak leidt tot extra overleg en dus soms juist meer tijd en kosten” [5].
AI als hulpmiddel, niet als vervanger
ChatGPT geeft zelf toe dat AI-tools “soms verzinnen ze zelfs uitspraken of verwijzen ze naar niet-bestaande wetsartikelen” [7]. Het systeem adviseert om AI alleen ondersteunend te gebruiken, niet leidend [7]. Advocaten kunnen AI-gegenereerde teksten herkennen aan de typische bulletpoints die chatbots gebruiken [4]. “Er worden allerlei punten aangevoerd die niet echt om de zaak gaan” [4]. Besselink benadrukt dat AI nuttig kan zijn voor juristen, maar het “staat of valt met hoe goed je je vraag formuleert en of je het laat controleren” [5]. Zijn advies: “Zie het als een hulpmiddel en laat uiteindelijk een jurist of advocaat uitleggen hoe het echt zit” [5].
Bronnen
- www.nrc.nl
- voorburgsdagblad.nl
- tweakers.net
- nl.linkedin.com
- www.bright.nl
- tweakers.net
- www.powned.tv