
Photo by Saúl Bucio on Unsplash
Door AI gegenereerde fouten in rechtsdocumenten leiden tot juridische problemen voor advocaten
Een rapport dat gisteren werd gedeeld door Reuters onthult dat de hallucinaties van AI – fouten en verzonnen informatie gecreëerd door generatieve AI-modellen – juridische problemen veroorzaken in rechtbanken in de Verenigde Staten.
Haast? Hier zijn de snelle feiten!
- Morgan & Morgan stuurde een e-mail naar 1.000 advocaten met een waarschuwing over de risico’s van AI.
- De recente zaak waarin de advocaten van Walmart toegaven AI te gebruiken voor hun zaken, heeft alarm geslagen in de juridische gemeenschap.
- Het gebruik van chatbot-hallucinaties in rechtsverklaringen is de afgelopen jaren een terugkerend probleem geworden.
Deze maand stuurde het advocatenkantoor Morgan & Morgan een email naar meer dan 1.000 advocaten met een waarschuwing over de risico’s van het gebruik van chatbots en nepzaken gegenereerd door kunstmatige intelligentie.
Een paar dagen geleden gaven twee advocaten in Wyoming toe dat ze valse zaken, gegenereerd door AI, in een rechtszaak tegen Walmart hadden opgenomen en een federale rechter dreigde hen te bestraffen.
In december werd Stanford professor en desinformatie expert Jeff Hancock beschuldigd van het gebruik van AI om citaten van rechtbankverklaringen te vervalsen als onderdeel van zijn verdediging van de wet van de staat uit 2023 die het gebruik van deepfakes om verkiezingen te beïnvloeden, criminaliseert.
Meerdere gevallen zoals deze hebben de afgelopen jaren juridische wrijving veroorzaakt en problemen toegevoegd aan rechters en procespartijen. Morgan & Morgan en Walmart wilden geen commentaar geven op deze kwestie.
Generatieve AI helpt advocaten hun onderzoekstijd te verminderen, maar de hallucinaties ervan kunnen aanzienlijke kosten met zich meebrengen. Uit een enquête van Thomson Reuters vorig jaar bleek dat 63% van de advocaten AI voor hun werk gebruikte en 12% deed dit regelmatig.
Vorig jaar herinnerde de American Bar Association haar 400.000 leden aan de ethische regels voor advocaten, die onder andere inhouden dat advocaten achter alle informatie in hun rechtszaken moeten staan, en merkte op dat dit ook AI-gegenereerde informatie omvat, zelfs als het onbedoeld was – zoals in het geval van Hancock.
“Wanneer advocaten betrapt worden op het gebruik van ChatGPT of een ander generatief AI-hulpmiddel om citaties te creëren zonder deze te controleren, dan is dat incompetentie, gewoon puur en eenvoudig,” zei Andrew Perlman, decaan van de rechtenfaculteit van Suffolk University tegen Reuters.
Een paar dagen geleden deelde de BBC ook een rapport met een waarschuwing over valse citaten gegenereerd door AI en de problemen met AI-hulpmiddelen in de journalistiek.
Laat een reactie achter
Annuleer