Nederlandse advocaten zijn extra tijd kwijt aan AI doordat cliënten AI gebruiken voor advies dat onjuist blijkt. Advocaten krijgen de taak om hun AI-geïnformeerde klanten te corrigeren. Het gaat om mensen die bij AI-chatbots informatie inwinnen en plausibel lijkende antwoorden krijgen.
Advocaten lopen tegen verkeerd geïnformeerde klanten aan door fouten van AI-chatbots. Dit ongewenste werk kost de juridische experts extra tijd, schrijft het FD. Het probleem is dat AI-chatbots antwoorden geven die onjuist kunnen zijn. Dit zogeheten hallucineren is soms overduidelijk, maar soms niet.
Juridische adviezen van zo'n chatbot bijvoorbeeld lijken plausibel en noemen 'feiten', gerelateerde rechtszaken en gerechtelijke uitspraken die onjuist zijn of zelfs geheel niet bestaan. Advocaten moeten AI-geïnformeerde cliënten niet alleen adviseren over de eigen procedure, maar eerst fouten in AI-gegenereerde informatie corrigeren en dat uitleggen. Volgens de Nederlandse orde van advocaten blijven zij altijd zelf verantwoordelijk voor hun adviezen en de bescherming van de belangen van hun cliënten.
De afgelopen jaren liepen advocaten en rechters meerdere keren tegen dit probleem aan. Daarbij gingen ze soms ook zelf de fout in. In een aantal gevallen gebruikten advocaten AI om hun werk te verlichten of te doen, maar bleek door AI geproduceerde informatie onjuist of volledig verzonnen. Dit leidde al tot sancties voor advocaten.
'AI-hallucinaties zijn onvermijdelijk'
Wetenschappers van ChatGPT-aanbieder OpenAI stelden vorig jaar in een onderzoeksrapport dat hallucinaties wiskundig inherent zijn aan de huidige aanpak voor AI. De training, opzet en evaluatie van generatieve-AI-modellen is volgens hun onderzoek te veel gericht op het geven van antwoorden. Dat 'beloont' giswerk in plaats van het erkennen van onzekerheid of ontbreken van informatie. Deze fundamentele opzet moet volgens de wetenschappers op de schop om de onvermijdelijkheid van verzinsels weg te nemen.