ChatGPT in de rechtszaal en rechtspraktijk: wat is verantwoord gebruik van een taalmodel?

Gepubliceerd op: 29 november 2024
Bijgewerkt op: 29 november 2024
Chatgpt Binnen E Commerce 800X400

Bron: ICTrecht

"De kantonrechter schat, mede met behulp van ChatGPT ..." Deze zinsnede kon in slechts een paar dagen tijd op een storm van kritiek rekenen. Een rechter die ChatGPT gebruikt om een schatting te doen, dat kan toch niet? 

Wij zien het anders: de vraag is in de meeste gevallen niet óf je ChatGPT of vergelijkbare tools mag gebruiken, maar hoé je ze op verantwoorde wijze gebruikt. Dat geldt niet alleen voor rechters, maar voor alle juristen en wetenschappers. Bij verantwoord gebruik blijven dit soort taalmodellen immers hulpmiddelen. Net als bij een online zoekmachine of een offline bibliotheek geldt dat dit soort hulpmiddelen enorm waardevol kunnen zijn, mits ze op de juiste wijze worden ingezet. In dit blog vertellen wij welke best practices we aanbevelen bij het gebruik van ChatGPT en vergelijkbare modellen als verwijssysteem in de juridische en wetenschappelijke praktijk.

Waarom gebruikte deze rechter ChatGPT?

In dit geval gebruikte de rechter ChatGPT onder meer om te schatten hoeveel schade een partij had geleden. De rechtszaak speelde tussen twee buren: buur A had zonnepanelen, maar leed hierop tijdelijk rendementsverlies omdat buur B een opbouw op zijn dak liet plaatsen. In de rechtbank eiste buur A daarom een schadevergoeding. De rechter moest beoordelen of deze schadevergoeding redelijk is, maar helaas had buur A "... een voor de kantonrechter moeilijk volgbare eigen berekening in de dagvaarding opgenomen". Daarom had de kantonrechter, mede met behulp van ChatGPT, zelf een schatting van de schade gedaan. Die viel een stuk lager uit dan de eis van buurman A en zorgde ervoor dat deze zelfs helemaal geen recht meer had op een schadevergoeding.

Mocht de rechter ChatGPT gebruiken om schade te schatten?

Kort door de bocht: ja, dit mag. Volgens de wet mag de rechter de omvang van schade schatten als deze niet nauwkeurig kan worden vastgesteld. In dit geval vond de kantonrechter dat de schade niet nauwkeurig kon worden vastgesteld op basis van de berekening van buur A. Dan mag je dus zelf een schatting doen. En als je als rechter onder andere ChatGPT wilt gebruiken om zo'n schatting te doen, dan is er niets wat daaraan in de weg staat. Toch raden wij niet aan naar ChatGPT te verwijzen zoals in deze zaak is gedaan. Maar waarom niet?

Wat ging er mis?

De rechter in bovenstaande zaak leek (mede) ChatGPT te gebruiken als bron. Dat is vergelijkbaar met het noemen van Google als bron: het zegt weinig. Als je ChatGPT of een vergelijkbare tool gebruikt voor onderzoek moet je altijd in het achterhoofd houden wat je hier nou precies van mag verwachten. Het zijn namelijk geen gesprekken met bijvoorbeeld een zonnepanelen-expert, maar met een (groot) taalmodel. Als je een vraag stelt, berekent zo'n model het meest waarschijnlijke antwoord op basis van jouw vraag en alle informatie die het ooit heeft gezien. Maar hoe dat antwoord tot stand is gekomen, kun je niet meer zien. Hierdoor is het niet geschikt als bron, maar wij vinden dat het juristen of onderzoekers wel op een andere manier kan helpen: als verwijssysteem!

Wat bevelen wij aan bij het gebruik van ChatGPT?

ChatGPT en andere taalmodellen zijn getraind op grote hoeveelheden data. En tussen deze data kan goed informatie staan die voor jou nuttig is. Door taalmodellen als verwijssysteem te gebruiken, vind je de bronnen achter het antwoord. Zo kun je de informatie beter beoordelen en ook controleerbaar maken voor anderen.

Voor iedereen die een taalmodel wil gebruiken om onderzoek te doen, is het daarom belangrijk op een aantal dingen te letten. Door de volgende best practices te hanteren, kun je taalmodellen op een zorgvuldige manier als verwijssysteem gebruiken.

  1. Denk aan vertrouwelijkheid: Wat je invoert in een taalmodel wordt in veel gevallen door het bedrijf achter dit programma gebruikt voor hun eigen doeleinden. Noem dus geen privacy- of bedrijfsgevoelige informatie of kijk of je dit in de instellingen kunt uitschakelen.
  2. Vraag om bronnen: Zorg ervoor dat je in je prompt (je vraag of opdracht aan het taalmodel) ook vraagt om bronvermelding.
  3. Controleer de informatie: Bestaat de bron echt en heeft de tool de informatie juist weergegeven? In Amerika is vorig jaar een advocaat op het matje geroepen omdat hij door ChatGPT verzonnen bronnen aanvoerde. Dat wil je voorkomen!
  4. Controleer de legitimiteit: Is de bron betrouwbaar genoeg? Taalmodellen hebben héél veel informatie tot diens beschikking. Een recent wetenschappelijk artikel is een mooie vondst, een forumberichtje van tien jaar geleden wat minder.
  5. Verwijs naar de bron: Zorg ervoor dat de informatie ook voor anderen te controleren is door naar de bron te verwijzen in plaats van naar ChatGPT of een ander model. Je verwijst immers ook niet naar Google als bron.

Met deze vijf best practices kun je ChatGPT en andere taalmodellen prima gebruiken als verwijssysteem. Voor meer algemene best practices over het gebruik van taalmodellen kun je ook naar onze ChatGPT-richtlijnen kijken. In de "ChatGPT-zaak" zouden bovenstaande tips er in elk geval toe hebben geleid dat niet ChatGPT, maar de onderliggende bronnen in de uitspraak werden genoemd. Zo kunnen alle lezers deze achtergrondinformatie controleren.

Conclusie

De "ChatGPT-zaak" heeft de discussie rondom het gebruik van ChatGPT weer aangewakkerd. En dat is maar goed ook, want het is belangrijk dat zulke tools bewust worden gebruikt. Maar dat we de grenzen goed moeten bewaken, betekent niet dat we niet naar de mogelijkheden mogen kijken. Onze best practices geven goede handvatten om een taalmodel als verwijssysteem te gebruiken.

Onderwerpen

Deel dit kennisartikel

Recente artikelen over dit onderwerp