Voor het eerst refereert Nederlandse rechter in uitspraak aan gebruik ChatGPT

Voor het eerst lijkt een Nederlandse rechter informatie van ChatGPT te hebben gebruikt in een uitspraak. Een kantonrechter vroeg de AI naar onder andere de gemiddelde levensduur van zonnepanelen en baseerde de uitspraak deels op dat antwoord.

De uitspraak staat inmiddels op rechtspraak.nl. Op die site komt ChatGPT twee keer eerder voor in een uitspraak, maar daarbij gaat het om een inhoudelijke vraag. Het is de eerste keer dat er een uitspraak wordt gepubliceerd waarin een rechter aangeeft ChatGPT te gebruiken om advies in te winnen.

De zaak draait om een geschil tussen twee huiseigenaren. Een van hen liet een opbouw op een huis bouwen, waardoor de buurman minder rendement verwacht te halen op zijn zonnepanelen. De kantonrechter in Gelderland deed in juni uitspraak in die zaak en verwijst daarin naar ChatGPT om de gemiddelde levensduur van zonnepanelen vast te stellen. "De kantonrechter schat, mede met behulp van ChatGPT, de gemiddelde levensduur van zonnepanelen uit 2009 op 25 à 30 jaar; die levensduur wordt daarom hier op 27,5 jaar gesteld."

Daarnaast vroeg de rechter ChatGPT om de huidige gemiddelde prijs per kilowattuur voor elektriciteit vast te stellen. "Uitgaande, wederom mede aan de hand van ChatGPT, van een huidige gemiddelde kWh-prijs van € 0,30 (€ 0,29 tot € 0,34, afhankelijk van het soort contract), bedraagt het rendementsverlies, met een min of meer gelijkblijvende kWh-prijs, daarmee ongeveer € 2250."

Het is niet bekend welke versie van ChatGPT de rechter heeft gebruikt, maar alleen ChatGPT-4o heeft de mogelijkheid realtimedata te verzamelen over energieprijzen. De rechter zegt ook niet welke prompt is ingegeven voor de zoekopdracht.

Het is, in ieder geval voor zover bekend, de eerste keer dat een Nederlandse rechter gebruikmaakt van kunstmatige intelligentie om een uitspraak op te baseren. Dat betekent niet automatisch dat het echt de eerste keer is, zegt ook een woordvoerder van de rechtbank. "Het is zeker de eerste keer dat het transparant in een uitspraak staat." Het kan dus zijn dat ChatGPT ook voor eerdere uitspraken is ingezet, maar dat een rechter dat niet zo in een vonnis benoemt. Ook verschijnen niet alle gerechtelijke uitspraken op rechtspraak.nl.

Door Tijs Hofmans

Nieuwscoördinator

02-08-2024 • 13:34

179

Submitter: eprillios

Reacties (179)

179
176
118
10
1
42

Sorteer op:

Weergave:

"De kantonrechter schat, mede met behulp van ChatGPT, de gemiddelde levensduur van zonnepanelen uit 2009 op 25 à 30 jaar; die levensduur wordt daarom hier op 27,5 jaar gesteld."

Daarnaast vroeg de rechter ChatGPT vroeg om de huidige gemiddelde prijs per kilowattuur voor elektriciteit vast te stellen. "Uitgaande, wederom mede aan de hand van ChatGPT, van een huidige gemiddelde kWh-prijs van € 0,30 (€ 0,29 tot € 0,34, afhankelijk van het soort contract), bedraagt het rendementsverlies, met een min of meer gelijkblijvende kWh-prijs, daarmee ongeveer € 2250.
Een schoolvoorbeeld van hoe je GPT niet moet gebruiken. Je mag het best aan GPT vragen maar je zal het antwoord wel moeten controleren. GPT geeft tegenwoordig aan welke bronnen er gebruikt zijn om tot een bepaald antwoord te komen. Noem die, niet GPT. Dat is precies hetzelfde als Wikipedia of Google als bron gebruiken. Dat zijn geen bronnen maar verwijssystemen.

Overigens hoeft het geen probleem te zijn. Als beide partijen in deze rechtzaak vinden dat die schatting goed is dan doet het er niet zo veel toe hoe die schatting tot stand is gekomen. Het gaat me er vooral om dat je GPT niet als bron zou moeten gebruiken.

[Reactie gewijzigd door CAPSLOCK2000 op 2 augustus 2024 13:48]

Inderdaad, ik schrik er eigenlijk wel van dat deze tool op deze manier gebruikt wordt.

Een tijdje geleden heb ik bij een discussie onder dit artikel meerdere keren iets aan ChatGPT gevraagd en elke keer kwam het met een ander antwoord.

Samenvatting (langere versie):
Vraagstelling - "Hoeveel meer stroom verbruikt een Bing zoekopdracht met ChatGPT, dan een normale zoekopdracht in Bing?"
  • Poging 1: 0.3 Wh vs 3 Wh per query
  • Poging 2: 0,3 Wh vs tussen de 6,9 en 8,9 Wh
  • Poging 3: 0.3 Wh vs gemiddeld 50 Wh (middenwaarde tussen 20-100 Wh) om daarna in de volgende vraag tussen de 7,5 Wh en 18 Wh te noemen.
Al met al een behoorlijk verschil in het antwoord. De 0.3 Wh van Google is prima en kan, als je ernaar vraagt, goed nagekeken worden met de bron. Maar het antwoord over het verbruik van ChatGPT varieert in deze drie gesprekken vier keer en met een flinke range van 3 Wh tot maximaal 100 Wh (wat toch wel een flinke factor meer is).

Dit voorbeeld toont aan hoe belangrijk het is om de antwoorden van ChatGPT te controleren en te verifiëren met betrouwbare bronnen. Het blindelings vertrouwen op deze tool kan leiden tot grote verschillen en onnauwkeurigheden, wat vooral in juridische contexten zoals in de besproken rechtszaak zeer problematisch zijn. Ik ben het deels met je eens dat beide partijen hier controles op moeten uitvoeren, maar de kans op een 'computer says no'-situatie wordt in deze situaties wel groter doordat AI informatie verkeerd interpreteert of verkeerd presenteert door de beperkte interpretatieve capaciteiten die ChatGPT heeft. Zeker als je zelf (of je advocaat) niet voldoende kennis hebt op dit gebied en/of als bepaalde zaken dermate complex zijn en elk nauwkeurig detail telt.

ChatGPT heeft amper tot (bijna) geen echte begrip van de context (zie derde alinea). Ze genereren gewoon antwoorden op basis van patronen, waarschijnlijkheden en statistieken in data waarop ze zijn getraind, niet op een diepgaande interpretatie van feiten en regels. En vrees dat dit kan leiden tot fouten of onnauwkeurigheden in complexe juridische kwesties en je kunt je ook afvragen of dit ten goede komt op het gebied van eerlijkheid, transparantie en verantwoording. Het mist vaak de capaciteit om de nuances en de interpretatie om zowel de vraag als het antwoord goed te begrijpen.

Wat verder gezocht, maar er is zeker een risico in de toekomst, mocht dit veel vaker gebruikt gaan worden, dat AI gemanipuleerd wordt om positiever (of negatiever) antwoord te geven op vragen (in x gebied, y IP adressen van rechtbanken e.d.) zoals Musk nu al Twitter manipuleert om zijn mening en berichten beter zichtbaar te maken. (Dit risico is er bij een search actie ook, maar het netto en te verifiëren resultaat is vele malen transparanter.)

En dan heb ik het nog niet eens gehad over de vertrouwelijkheid, privacy gevaren en risico op vooroordelen. En ook is er het probleem dat ChatGPT een cutoff date heeft, en dus de kennis waarop het is getraind slechts actueel is tot een bepaald punt in het verleden. Dit is problematisch in de juridische context, waar wetten en regelgeving voortdurend veranderen maar ook kunnen bepaalde feiten/statistieken snel veranderen waardoor het gegeven antwoord reeds niet meer (actueel) correct is. Dat wordt nu steeds meer goedgemaakt door de toevoeging van een zoekfunctie binnen ChatGPT. Maar zelfs als ChatGPT over de mogelijkheid zou beschikken om real-time informatie op te halen, zijn de zoekvaardigheden van het model beperkt en kan het niet zelfstandig en transparant voor de rechter beoordelen welke bronnen betrouwbaar en relevant zijn en zonder de mogelijkheid om de validiteit en actualiteit van die bronnen te verifiëren. Wat leidt tot het gebruik van verouderde of onbetrouwbare bronnen en dus leidt tot onnauwkeurige of misleidende informatie in de antwoorden.

Daarbij voelt het een beetje alsof je Wikipedia of Google Search noemt in je bronvermelding, terwijl dat alleen tools zijn om de informatie (en dus de bron) die je nodig hebt te vinden. ChatGPT biedt echter niet dezelfde mate van bronverificatie en transparantie als deze twee. Wikipedia en Google Search zijn voor veel zake goede startpunten voor het zoeken naar informatie, maar ze zouden niet als primaire bronnen beschouwd moeten worden en zeker ChatGPT niet. Maar het raadplegen van menselijke experts die aantoonbare expertise hebben over dit onderwerp en goed kunnen onderbouwen en uitleggen waarom iets zo lang/kort mee gaat lijkt mij vele malen beter.

Edit: nog een simpel voorbeeld van een verificatievraag over hoe dit stukje code nummers sorteert. Drie van de vijf slagen voor dit testje maar ze geven wel allemaal vol zekerheid antwoord.
Gemini, Co-pilot, ChatGPT, Claude en Mistral.

[Reactie gewijzigd door jdh009 op 2 augustus 2024 15:54]

De rechter heeft een schadebedrag voorliggen wat door de eiser niet wordt onderbouwd. De rechter besluit niet het geheel van tafel te vegen (want hoger beroep is ook weer een belasting) maar maakt in plaats daarvan een inschatting. De resultaten die daaruit komen zijn niet wereldschokkend en kunnen daarom best als maatstaf gebruikt worden. Als het anders had gemoeten had eiser maar moeten onderbouwen.

Want waar ging dit om: buurman 1 zetten met vergunning een dakopbouw en bood buurman 2 €3300 aan compensatie voor gemiste opbrengst. Dat was fors.
Desondanks bleef buurman 2 moeilijk doen (ladderrecht weigeren, isolatie wegtrekken, werk aan het dak belemmeren.
De rechter maakt hier nog best een strenge selectie in wat is toegestaan (en in mijn ogen wordt buurman 1 behoorlijk tekort gedaan), maar wat er overblijft is wel boven alle twijfel verheven.
Het gebruik van ChatGPT om te normeren wat door eiser niet aangevoerd is, vind ik zeer zeker acceptabel. De rechter is niet verantwoordelijk voor het aangevoerde materiaal maar heeft wel een grote mate van vrijheid om te zorgen dat er een zo goed mogelijke uitspraak ligt.
Het was anders geweest als de eiser een stroom prijs van €0,45kWh en een levensduur van 40 jaar had geclaimd en onderbouwd, maar dat was hier niet het geval.
Als een eiser iets niet oplevert (aanvoeren klinkt alsof noodzakelijke informatie optioneel is). Dan houdt het op en verliest de eiser. De rechter heeft een plicht om de regie te nemen en een advocaat of OM de plicht om een zo volledig en effectief zaak neer te leggen. Maar niet de plicht om de zaak te bouwen voor de eiser.

En wat als de eiser met opzet informatie niet oplevert?

Nee rechters hebben al tijd te kort. Ze dienen regie te nemen, experts via advocaten op te vragen en een oordeel te maken.

Of de rechter informatie met chatgtp wil toetsen? Dat zou al een grijs gebied zijn waar we al lerend doorheen moeten zien te komen.

En is er een RechtenCo-pilot geen slecht idee.

Een toetser met aanbevelingen zonder conclusies om twijfel weg te halen van opgeleverde inhoud van zaken. Informatie uit gesloten en lopende zaken of van eerder opgeleverde bronnen afkomstig van betrouwbare experts.

De grote broek draag je immers als rechter. Oordelen en door.
Ik schrik niet om eerlijk te zijn. Met elke technologische... "vooruitgang" verlaagt hoeveel waarde mensen hechten aan de echtheid van informatie; hoe meer gemakzucht in het spel komt, hoe meer de drang verplaatst naar snelheid in plaats van waarheid. De publieke beschikbaarheid van het internet was de eerste grote stap terug. Voor die tijd moest je echt sterk in je schoenen staan om iemand te overtuigen van iets, sindsdien is men al vrij snel gepassiveerd door het presenteren van een linkje. Een enkel linkje. Dan gaat de "het zal wel" modus aan.

En nu hebben we ChatGPT, een tool die hallucinaties enorm geloofwaardig verpakt, nog meer geloofdwaardig dan de gemiddelde website want het weet zaken echt heel stellig te brengen. En dat... is blijkbaar genoeg. Het hoeft niet waar bewezen te zijn, zolang het maar geloofwaardig klinkt. Eigenlijk is ChatGPT een tool om leugens te verpakken.
En nu hebben we ChatGPT, een tool die hallucinaties enorm geloofwaardig verpakt,
Het is erger dan dat: voor een LLM is er geen verschil tussen hallucinatie en niet-hallucinatie.
Het enige wat een LLM 'weet' is gramatica/syntax, als ie waarheid verteld is dat omdat het trainingsmateriaal waarheden bevat, verder is het in feite toeval.

Ontwikkelaars van LLM noemen door LLM verkondigde onwaarheden hallucinatie, om te impliceren die onwaarheden schoonheidsfoutjes zijn ipv een inherente eigenschap van LLM. En met succes want nu blijkt weer eens dat mensen impliciet aannemen dat een LLM een betrouwbare bron van correcte informatie is.
Ik merk dat de antwoorden die ik krijg vaak vaag zijn, omdat mijn taalgebruik onvoldoende precies is.

Voor een goede prompt, voelt het soms als een soort herprogrammeren van mn vraag.
Hoe is dat anders dan in communicatie tussen mensen onderling. Daarin zit ook veel interpretatie, kleuring etc. dus ook daar moet je in de praktijk vaak precies zijn met je vraagstelling. En de ervaring leert dat zelfs dat niet altijd even makkelijk is.

Ik zie herformuleren/aanscherpen van vraagstelling/prompt niet als iets slechts.
Ik ook niet.

Maar als ik soms hoor waar mensen over klagen qua hallucinatie, is het negen van de tien keer meer een kwestie van onprecies vragen.

Aan mijn kant, ik vind het soms grappig om zo'n ai hele domme dingen te laten zeggen, aan de hand van een heel slim ogende prompt.

Dat maakt dan alleen die AI niet gevaarlijk of slecht oid.
Het is helemaal niet erg dat dit wordt gebruikt. Zolang het maar wordt vermeld. Dat geeft de advocaten materiaal om al dan niet in beroep te gaan tegen de uitspraak. Als ChatGPT niet was gebruikt waren expert gevraagd. En ook daar kan je vraagtekens bij zetten. Zoveel mensen, zoveel meningen. Dus dan ben je nog geen stap verder.
Zoveel mensen, zoveel meningen.
Experts zijn experts in iets door bepaalde expertise en kennis. Een expert hoort met feiten te komen, niet met meningen. Autoriteiten op een bepaald gebied zijn niet voor niets als zodanig erkend..... ze hebben jarenlange ervaring, diepgaande studie en/of een grondig begrip van hun vakgebied. De adviezen en analyses die zij geven horen gebaseerd te zijn op bewijs, praktijkervaring en een gedetailleerde kennis van de context en nuances. Dat zijn niet zomaar meningen van een willekeurig persoon op straat. ze hebben jarenlange ervaring, diepgaande studie en/of een grondig begrip van hun vakgebied. De adviezen en analyses die zij geven, zijn gebaseerd op bewijs, praktijkervaring en een gedetailleerde kennis van de context en nuances. Dat zijn niet zomaar meningen van een willekeurig persoon op straat. Een AI-chatbot kan echt niet de diepgaande kennis en het inzicht van menselijke experts evenaren, dat is pas iets dat misschien mogelijk is in verre toekomst. En je kunt ChatGPT al helemaal geen erkende autoriteit noemen.
Kijk eens naar de expert (psycholoog) bij Amber Heard. Die zit daar aan één stuk door shit te verzinnen. Dan random artsen in mijn omgeving. Zelfs oogartsen die rustig beweren of opschrijven dat 30 beelden de limiet is voor mensen, totdat je ze achter een pc zet met een frame limiter van 240 tot 120, 60 en 30 fps.

Zoveel experts, zoveel bullshit.

Je moet niets vragen aan experts, je moet onderzoeken refereren en valideren. Data daaruit kun je dan meestal gebruiken.

Dus gewoon bij CBS dit soort data opvragen bijvoorbeeld.

[Reactie gewijzigd door OriginalFlyingdutchman op 3 augustus 2024 09:04]

Een expert weet ook waar de eigen kennis ophoudt en weet ook wat algemene onzekerheden zijn. En niet alleen maar een "guardrail" die zegt "ik geef geen medisch advies".
"Het verlies is moeilijk te bepalen, gezien de ontwikkelingen in stroomprijs, afbouw van salderen, maar uitgaand van de huidige bedragen kan je een schatting maken van ... gebaseerd op de huidige situatie."
Zoveel mensen, zoveel meningen.
En waar denk je dat ChatGPT z'n verhalen op baseert? Juist, op verhalen van mensen. De info over zonnepanelen die ChatGPT heeft kan zomaar vervuild zijn met incorrecte informatie.
En het is in dit geval ook niet eens feitelijk te onderbouwen, dus eigenlijk per definitie incorrecte, of in ieder geval wel weinig betrouwbare info. Er is niemand die kan bewijzen dat zonnepanelen uit 2009 gemiddeld 25 tot 30 jaar meegaan. Pure aannames.
De afname van rendement van zonnepanelen is gebaseerd op metingen - de verwachtingen mbt levensduur zijn dus niet puur aannames.
Een rechter moet die aan waarheidsvinding. Het is daarom wel erg; een rechter baseert zijn uitspraak op bronnen waarvan niet verifieerbaar is waar deze zijn gegevens op baseert. Waardoor er meer redenen zijn voor partijen om in beroep te (moeten) gaan. Waardoor het vertrouwen in de rechtspraak kan erroderen.
Een mens is nog altijd veel beter in staat om context te begrijpen. AI zit er wat dat betreft vaak nog naast.
Ik schrik meer van alle reactie dat het wel fot moet zijn omdat een computer chatgpt is gebruikt.
Alsof de luddietenbeweging opnieuw tot leven is gebracht.
Gelukkig mag dit niet meer over een paar maanden met dank aan de nieuwe EU AI regelgeving. Rechtspraak valt in de high risk categorie en daar worden nogal wat eisen gesteld aan een AI:
  • adequate risk assessment and mitigation systems
  • high quality of the datasets feeding the system to minimise risks and discriminatory outcomes
  • logging of activity to ensure traceability of results
  • detailed documentation providing all information necessary on the system and its purpose for authorities to assess its compliance
  • clear and adequate information to the deployer
  • appropriate human oversight measures to minimise risk
  • high level of robustness, security and accuracy
ChatGPT voldoet hier zeker niet aan, en mag dus niet gebruikt worden door de rechter.
Nergens wordt het helaas verboden maar burgers moeten een klacht kunnen indienen tegen AI gebruit staat er, zie: https://www.europarl.euro...artificiele-intelligentie
Alle AI-systemen met een hoog risico krijgen een beoordeling voor zij in de handel worden gebracht en worden tijdens de volledige levensduur van het systeem gevolgd. Burgers krijgen het recht om klachten in te dienen over AI-systemen bij aangewezen nationale autoriteiten.


Transparantie-eisen

Generatieve AI, zoals ChatGPT, wordt niet als hoogrisico geclassificeerd, maar moet wel voldoen aan transparantievereisten en het auteursrecht van de EU:


de toepassingen moeten de vermelding bevatten dat de inhoud is gegenereerd door AI;

het model moet zodanig worden ontworpen dat er geen illegale inhoud kan worden gegenereerd;

er moet een overzicht worden gegeven van auteursrechtelijk beschermde gegevens die voor het trainen van het systeem zijn gebruikt.

AI-modellen met een grote impact die een systeemrisico kunnen vormen, zoals het meer geavanceerde AI-model GPT-4, zouden grondig moeten worden geëvalueerd en alle ernstige incidenten aan de Commissie moeten rapporteren.

Inhoud die met behulp van AI tot stand komt, of dat nu gaat om afbeeldingen, audio of video's (denk aan deepfakes), moet duidelijk als door AI gecreëerd worden aangeduid. Zo weten gebruikers dat ze met dergelijke content te maken hebben.
Edit: Ik vind eigenlijk wanneer AI zoals Chat wordt gebruikt dat de prompt erbij vermeld moet worden en dat de bronnen die Chat gebruitk ook vermeld moeten worden.

[Reactie gewijzigd door Remzi1993 op 2 augustus 2024 15:49]

De EU stelt gewoon informatie in het Nederlands beschikbaar. Typisch Nederlands om dan de Engelstalige informatie te gaan citeren.
Het nazoeken van relevante gegevens scharen onder AI is een wel heel bijzondere uitleg.
Je verklaard zo meteen alle vormen van vervoer als verboden technologie
Je laat wel het belangrijkste zinnetje weg, namelijk de regel die er precies na komt.
Waarom niet wordt aangesloten bij het door [eisende partij in conventie] genoemde bedrag van € 13.963,20 is met het bovenstaande en de noten 4 t/m 7 afdoende gemotiveerd.
In voetnoot 5 wordt aangegeven dat de eiser uitging van 20 jaar resterende levensduur zonder onderbouwing en in voetnoot 6 dat de eiser een gemiddelde van 0,444 eur/kWh zonder enige notie in de aangeleverde documenten, kon de rechter dat niet klakkeloos volgen.

Doordat het werkelijke bedrag (met behulp van ChatGPT) veel lager ligt dan de eiser, en dat de gedaagde al een compensatiebod had gedaan van 3.300 euro die dus realistisch was, heeft de eiser ongelijk gekregen (en geen recht meer op de 3.300 euro omdat deze afgeslagen is).

Lijkt mij dat in deze context ChatGPT prima past. Overigens staat er "mede met behulp van ChatGPT". In deze uitspraak is nergens nodig dat er komma-geneukt wordt.

De eiser moest overigens voor het vernielen van materialen van de dakopbouw en niet toelaten van de aannemer nog wel even een paar honderd euro schade vergoeden.

@TijsZonderH Die uitspraak had je wat mij betreft ook wel mogen publiceren, want die vind ik interessanter dan het gebruik ChatGPT. Namelijk dat als je buurman schaduw maakt, je recht hebt op een realistische schadevergoeding voor het lagere rendement van je panelen. Alleen jammer voor de eiser in deze zaak dat hij dat recht heeft verkwanseld.
Doordat het werkelijke bedrag (met behulp van ChatGPT) veel lager ligt dan de eiser
Alleen is het bedrag dat ChatGPT teruggeeft in het meest gunstige geval alsnog enkele maanden oud en van een Nederlandse bron, maar de kans is (veel) groter dat het om oudere gegevens gaat uit een niet-Nederlands(talig)e bron.

Als de eiser de schade-eis niet onderbouwt lijkt het mij toch aan een rechter om dat of alsnog te eisen, of om dit door een derde partij op te laten stellen? De eiser heeft het over een totaalbedrag van € 13.963,20, maar het zou ook zomaar kunnen zijn dat er sprake was van een tikfout en men eigenlijk € 1.396,32 eist (wat in mijn ogen wél redelijk in lijn ligt met het mogelijke rendementsverlies. Of de eiser daarmee de zaak zou hebben gewonnen of niet weet ik niet, maar er zijn meerdere manieren waarop hier in mijn ogen niet goed met technologie om is gegaan.
Nee, de eis is afgewezen. De gedaagde had al 2200 euro en later 3300 euro geboden en dat is afgewezen door de eisende partij, waarmee de zaak klaar is.

Als je de uitspraak had gelezen dan zie je dat de (belachelijke) onderbouwing van het bedrag van zo'n 14000 euro wel degelijk in de eis staat. Dus hier ben je eigenlijk zelf onwerkelijke informatie toe aan het voegen. Dat heet bij een AI hallucineren...
Als de eiser de schade-eis niet onderbouwt lijkt het mij toch aan een rechter om dat of alsnog te eisen, of om dit door een derde partij op te laten stellen?
Nee, het is aan de eiser om een fatsoenlijke eis neer te zetten. Het is niet de bedoeling dat de rechter op de stoel van de eisers gaat zitten. Je moet gewoon goed beslagen ten ijs komen, als je dat niet doet dan snij je jezelf in de vingers.
Je laat wel het belangrijkste zinnetje weg, namelijk de regel die er precies na komt.
Excuses en bedankt. Ik heb de uitspraak nog niet gelezen, alleen de samenvatting van Tweakers. Dat zinnetje en die voetnoot had ik dus nog niet gezien.

Ik blijf er bij dat het niet handig is om GPT te noemen zonder er bij te noemen welke bronnen GPT dan heeft gebruikt. Die bronnen kun je later nog eens terugkijken, wat GPT er van denkt kan morgen weer anders zijn.
Het is niet heel belangrijk in deze zaak, maar in het algemeen is het geen goed idee.

[Reactie gewijzigd door CAPSLOCK2000 op 2 augustus 2024 14:11]

ChatGPT niet noemen is geen optie; je moet als rechter natuurlijk transparant zijn met de gebruikte middelen. Anders verliezen we het vertrouwen in de rechtstaat. Nu kan de buurman - als hij echt heel dom is - hiervoor in beroep gaan.

ChatGPT kan je ook niet echt vertrouwen als hij bronnen probeert te noemen waardoor het onwaarschijnlijk is dat dat helpt. De gegevens worden zonder bronvermelding in het model opgenomen, dus het enige was ChatGPT nog kan doen is een internet search om te kijken of de data wel klopt. Dat is dus onderdeel van de controverse.

Bing's versie zoekt volgens mij op het internet met behulp van het taalmodel, interpreteert de uitkomsten daar van. Dat is een andere methode waardoor het makkelijker is om bronnen aan te geven.
(...)
@TijsZonderH Die uitspraak had je wat mij betreft ook wel mogen publiceren, want die vind ik interessanter dan het gebruik ChatGPT. Namelijk dat als je buurman schaduw maakt, je recht hebt op een realistische schadevergoeding voor het lagere rendement van je panelen. Alleen jammer voor de eiser in deze zaak dat hij dat recht heeft verkwanseld.
Vooral dit is interessant. Eerder werd een bezwaar voor een vergunning voor een dakopbouw/ dakkapel door een gemeente ongegrond verklaard. In dit bezwaar maakte bezwaarmakers bezwaar vanwege verlies van rendement op zonnepanelen. Dat vond de gemeente geen bezwaargrond. Ik weet even niet in welke gemeente dit speelde maar meen mij te herinneren dat ik dit via VEH heb gelezen.
Dat is waar het om gaat in dit geval. IS de eis onderbouwd proportioneel en rationeel.
Chtgpt is niet gebruikt om een uitspraak over de zaak te doen maar of een te maken berekening op juiste grondslagen gedaan is. Het afgeslagen bod van de vergoeding is nu tevens de hoogte wat als vergoeding gegeven kan worden. Die keus van accepteren is er nog.

De uitspraak valt in zijn geheel te lezen.
Alle ophef die er over rond gaat dat het misbruik technologie zou zijn is zo te zien volkomen misplaatst.
Maar als je dit doet, wat heb je dan nog aan het gebruik van ChatGPT? De juiste manier om dit te doen is om de daadwerkelijke data er bij te halen, voor de energieprijs kun je die gewoon vinden op de website van een energieleverancier. Of eigenlijk nog beter, je kunt de eisende partij gewoon vragen om een factuur. Dit is echt luiheid ten top, wat een afgang.
Maar als je dit doet, wat heb je dan nog aan het gebruik van ChatGPT? De juiste manier om dit te doen is om de daadwerkelijke data er bij te halen, voor de energieprijs kun je die gewoon vinden op de website van een energieleverancier.
Je zal de website van de leverancier moet opzoeken en bekijken. Dat kan GPT prima voor je doen, je moet alleen even controleren of GPT dat ook correct heeft gedaan. Dat scheelt een keertje zoeken met Google.
Of eigenlijk nog beter, je kunt de eisende partij gewoon vragen om een factuur. Dit is echt luiheid ten top, wat een afgang.
Daar til ik niet zo aan, ik geloof dat de rechter z'n best zal doen om de zaak soepel te laten verlopen. Als de partijen waar het over gaat geen problemen hebben met de conclusie dan is het een redelijke oplossing. Niet alles hoeft perfect te zijn, soms is een grove schatting goed genoeg en heeft die verder geen invloed op de uitkomst van de zaak.
Je zal de website van de leverancier moet opzoeken en bekijken. Dat kan GPT prima voor je doen, je moet alleen even controleren of GPT dat ook correct heeft gedaan. Dat scheelt een keertje zoeken met Google.
Maar dat is dus niet gebeurd, want dan kom je niet op een 'huidige gemiddelde kWh-prijs' wat helemaal niet relevant is, maar op een effective kWh prijs welke voor de eisende partij geldt. Dus zowel de data als de methode is gewoon fout.
Niet alles hoeft perfect te zijn, soms is een grove schatting goed genoeg en heeft die verder geen invloed op de uitkomst van de zaak.
Wat een bizarre gedachtengang. In dit geval heeft het direct invloed op de hoogte van de claim van de eisende partij, wat om duizende euro's gaat. Dus heeft wel degelijk veel invloed.
Maar dat is dus niet gebeurd, want dan kom je niet op een 'huidige gemiddelde kWh-prijs' wat helemaal niet relevant is, maar op een effective kWh prijs welke voor de eisende partij geldt. Dus zowel de data als de methode is gewoon fout.
Ik wil niet ingaan op de discussie wat de juiste prijs of procedure wel is. GPT vragen en als enige bron noemen is níet de juiste aanpak.
Wat een bizarre gedachtengang. In dit geval heeft het direct invloed op de hoogte van de claim van de eisende partij, wat om duizende euro's gaat. Dus heeft wel degelijk veel invloed.
In dit geval misschien wel, maar niet áltijd. Ik sprak in het algemeen toen ik schreef dat "niet alles perfect hoeft te zijn".
Het moet wel perfect zijn als het kan. Rechtspraak moet zuiver zijn en niet gebaseerd op schattingen van closed source AI modellen zonder bronvermelding.
Inderdaad, ik vind dit een enige ontwikkeling dat de rechtspraak dit gebruikt zonder de prompt te noemen en de achterliggende bronnen die Chat gebruikt.
Zo werkt het dus niet in de rechtspraak. Jij als eiser moet de rechter overtuigen. De eiser heeft nagelaten de berekening van het schadebedrag van ruimt 14.000 euro te onderbouwen.

Wat over was was een toetsing van de rechter of het aangeboden schadevergoeding door de gedaagde realistisch was en de gedaagde dus naar eer en geweten handelde. Daarvoor had de rechter alsnog een indicatie nodig.
Wat over was was een toetsing van de rechter of het aangeboden schadevergoeding door de gedaagde realistisch was en de gedaagde dus naar eer en geweten handelde. Daarvoor had de rechter alsnog een indicatie nodig.
En er was zeker geen tijd om degelijk onderzoek te doen, dus dan maar op deze
halfbakken manier? Wellicht had de rechter beter kunnen zeggen 'geen onderbouwing hoogte claimbedrag, dus afgewezen' ?
Kan me zo voorstellen dat de rechter (voor de grap) tijdens de zitting heeft gezegd: ik zal het eens aan chatgpt vragen. Daar kwam blijkbaar een antwoord uit waarin beide partijen zich konden vinden
Inderdaad, ik denk dat deze uitspraak dan ook verkeerd is, zonnepanelen kunnen misschien 30 jaar mee, maar de installatie zelf (inverters, onderliggend dak etc) misschien niet. Daarnaast zijn rendementsverliezen niet lineair, deels afhankelijk van het paneel, maar in sommige systemen moet je maar 1 cel bedekken/in de schaduw zetten om het hele paneel uit te schakelen of tenminste een grote vermindering.

Dit is letterlijk een berekening dat een leek doet, hier moeten techniekers, ingenieurs en experts van pas komen, ChatGPT heeft de kennis van een gemiddelde Redditer, ofwel een "arm chair expert". En als dit nu in beroep komt, wie gaat er getuigen voor de level van expertise van ChatGPT?

[Reactie gewijzigd door Guru Evi op 2 augustus 2024 14:29]

De eis was 14k. Die is afgewezen omdat dit niet in lijn ligt met het werkelijke verlies, zo'n 3400 euro, waarvoor de gedaagde ook nog eens voor de helft verantwoordelijk is. Dus die experts zouden op een bedrag moeten uitkomen dat minstens 8 x hoger ligt dan wat door ChatGPT is aangegeven.

Verder had de eiser het verlies met 77% te hoog ingeschat (het was meer 33%) en had hij ook nog eens de aanschafprijs van de panelen meegerekend, wat natuurlijk idioot is. Dus ook zonder de extra berekening was de eis ongetwijfeld afgewezen.
Opnieuw, dat is een "armchair" berekening dat ChatGPT gedaan heeft. Zonnepanelen in de schaduw geven niet lineair minder.

Daarnaast als je panelen "vandaag" 3400 euro minder opbrengen, wil je misschien meer panelen aanleggen of de panelen verplaatsen en het dak herstellen waar de panelen lagen, dat kost meer dan 3400 euro, meer richting de 14,000 euro, voor 3400 euro springt er niemand op je dak.

De kosten van energie liggen niet vast, binnen 30 jaar zijn ze wel stukken hoger als we de huidige regeringsplannen voor meer zon/wind gaan volgen, kijk naar Duitsland met 50c/kWh om te zien waar we binnen enkele jaren gaan zitten, er moet dus rekening gehouden worden dat 30 jaar geleden energie 5c/kWh kostte (mijn schatting) en vandaag 25c/kWh, dus binnen 30 jaar misschien 2 euro/kWh, dat zijn nummers en scenarios die ik uit mijn duim zuig en de volledige berekening veranderen.

Ik toon maar aan dat dit een schadevergoeding is en die mag volstrekt hoger liggen dan wat ChatGPT "schat". De rechter zuigt hier gewoon een prompt uit zijn duim adhv zijn eigen expertise, expertise die hij niet heeft.

Als ik een gelijkaardig scenario stel aan ChatGPT wat mijn kosten over 30 jaar zijn gebaseerd op de kosten 30 jaar geleden (wat de jaren 90 is, oef, ik word oud). Na een hele pagina tekst over de geschiedenis van Nederlandse energie, CAGR en Compound Interest en ik stel dan twee mogelijke scenarios - energiekosten gaan jaarlijks omhoog (een aanneming dat ChatGPT doet is 2% zonder aan te geven waar die data vandaan komt) en energiekosten gaan jaarlijks met 6% omhoog (gesteld adhv wat ChatGPT "denkt" dat Duitsland in de laatste paar jaren gedaan heeft - geen nucleair, olie/kool importeren, alles op zon/wind):
Future Loss≈6140.4
Future Loss≈19456

Ik heb de volledige conversatie met ChatGPT gedaan in deze post, dus het hangt er sterk af welke vragen je stelt. En dat is enkel maar de feiten die ik weet en ik weet ook een beetje over investeringen en energie (geen expert). Ik denk dat 14k dus een relatief goede vraag is. ChatGPT geeft me bovenstaand antwoord adhv MIJN prompts. Als ik andere prompts stel (zoals, stel je voor dat ik de duurste provider vs de goedkoopste provider in Nederland heb), dan zullen die nummers ook wijzigen.

[Reactie gewijzigd door Guru Evi op 2 augustus 2024 18:16]

14k is absoluut gestoord. Hier wordt er vanuit gegaan dat er 77% procent verlies is, dat de aanleg van de panelen ook meetelde en dat het hele bedrag gewoon even bij de buren kan worden geclaimed. Die man had gewoon vergunning om een etage erop te plaatsen. En als het bedrag om het aan te leggen hoger is dan het aanlegbedrag + alle inkomsten eruit dan moet je het lekker laten liggen. Als ik een schutting aanleg krijg je ook meer schaduw in je tuin, maar dat mag ook gewoon.

En ja, een armchair berekening. Net alsof de echte experts zo goed kunnen rekenen naar de toekomst toe. En als de oorlog wel stopt kan de prijs ook best snel zakken. Oftewel, dit soort berekeningen zal je het mee moeten doen. Als er fundamentele fouten in zitten is het nog wat anders, nu lijkt het best redelijk allemaal.

[Reactie gewijzigd door uiltje op 2 augustus 2024 20:24]

Kijk hierboven naar de aannames van mijn berekening, ik denk dat 14k te laag is, ik denk dat het eerder in de 15-30k ligt qua verliezen over de volgende 30j.

De oorlog (in Oekraine) heeft weinig te maken met de huidige kosten van energie, de kosten liepen al sterk op voor de oorlog en adhv de laatste 20 jaar aan kosten die oplopen vanwege domme zetten van de regering(en) gaan die nog sterker oplopen na "een" oorlog.

Je hebt inderdaad gelijk, is het rechtmatig dat je enig verlies boekt op je buurman, het is een risico dat je neemt met een grote investering, maar hierin heeft de rechter beslist dat het rechtmatig was (voor wat voor reden dan ook, misschien haalt ie dat antwoord ook uit ChatGPT), dus de vraag is dan, hoeveel. Als de buurman de schutting niet MOCHT aanleggen (geen vergunning verkregen etc) dan denk ik dat niet alleen het volledig verlies maar dan ook een boete erbij mag komen. Als hij wel degelijk een vergunning gekregen, dan misschien niet, maar als de rechter nu bepaalt dat het wel mag, dan zou hij de uitgever van de vergunning moeten aangaan (gemeente, provincie?), want die hebben uiteindelijk de plannen van beide partijen gezien en alsnog de vergunning gegeven. In principe zouden beide buren niets mogen verliezen behalve de persoon/instelling die wist dat er problemen konden ontstaan in dit geval met beide gebouwen en verzuimd hebben hun werk te doen (alhoewel ze inderdaad elkaar eerst moeten aangaan procedureel gezien om de straf te meten).

[Reactie gewijzigd door Guru Evi op 2 augustus 2024 20:50]

Je kan vinden wat je vind. Lekker belangrijk. Ik vind jouw aannames een stuk slechter geargumenteerd dan die van ChatGPT, en uiteindelijk gaat het daarom. Geeft maar weer aan waarom een "expert" ook geen panacea is.

De oorlog heeft wel degelijk grote invloed gehad op de prijs van bijvoorbeeld benzine maar ook de aan de olie gerelateerde prijzen, kijk bijvoorbeeld eens hier: https://www.unitedconsume...andstofprijs-historie.asp Natuurlijk zit daar ook iets in van de energietransitie, maar de bump lijkt me onmogelijk te negeren.

Voor een schutting heb je geen vergunning nodig. Je moet alleen met je buren overleggen als je boven een bepaald maximum gaat. En je mag bijna altijd wel zonne-cellen aanleggen. Maar ja, je mag meestal ook wel een verdieping toevoegen op een plat dak, dus ja dat kan gebeuren. Misschien had deze man beter even met zijn buren kunnen overleggen en zelf ook een extra laagje laten aanleggen. Heb je meteen weer goede plek voor je celletjes.

"In principe zouden beide buren niets mogen verliezen". Nee, zo zit het niet in elkaar. Je hebt woongenot en daarbij kan je wel degelijk je buren benadelen. Mijn buren hebben net een hond en een hele grote auto gekocht. Daar heb ik wel last van, maar ik krijg er echt geen vergoeding voor. Sterker nog, ik moet nu hun katten verzorgen :P

[Reactie gewijzigd door uiltje op 2 augustus 2024 21:16]

Mijn antwoorden zijn evenredig gebaseerd op ChatGPT, gewoon met verschillende prompts, daarmee dat je ziet dat een antwoord in ChatGPT afhankelijk is van wie erom vraagt en de context die je geeft.

Ik bedoel dat als een vergunning verleend was (in beide gevallen van het zonnepaneel en de extra aanbouw waarschijnlijk nodig) en niemand een waarschuwing gekregen heeft dat "als je panelen hier legt, je buren mogen opbouwen" of "als je opbouwt, je buren mogen je aangaan voor het verlies van de panelen" dat de last van het verlies op de persoon die de vergunning gegeven heeft aan een of beide partijen. De rechter heeft hier duidelijk aangegeven dat er verlies geleden is en dat het verlies gewaardeerd wordt door de wet, waarom of hoeveel maakt niet echt uit, maar ik denk niet dat het enig van de beide buren's schuld is.

Net zoals als een van de bouwvakkers een hamer laat vallen op je panelen, je evengoed schadevergoeding aan je buurman moet verhalen die het dan op de bouwvakkers verhaalt.

[Reactie gewijzigd door Guru Evi op 2 augustus 2024 22:03]

Ja maar jouw context klopt voor geen kant. Als je ChatGPT of een expert de verkeerde context mee geeft dan krijg je niet de correcte antwoorden. Garbage in garbage out noem je dat als je aan het programmeren bent.

Voor zonnepanelen heb je meestal geen vergunning nodig: https://www.rijksoverheid...n-op-mijn-dak-te-plaatsen . Ik heb nu al een paar keer dat je dingen aan haalt die ik echt meteen kan ontkrachten. Zoek het zelf eerst even op!

Niemand heeft hier schuld, daar gaat het ook niet over. Nou ja, behalve dat de eiser de bouw van de opbouw dwars heeft gezeten, maar da's een zijdelingse kwestie. En nee, als je al dan niet moedwillig iets beschadigd dan is dat niet hetzelfde; als iemand last heeft van jou terwijl je je bezit gebruikt of op waardeert dan is dat wel degelijk wat anders dan dat je iets stuk maakt.

En die vergunningen maken al helemaal niets uit. Het is natuurlijk idioot dat je bijvoorbeeld kan voorkomen dat je buurman zijn huis uit breidt omdat jij panelen heeft gelegd. Ik bedoel, dan leg je 3 paneeltjes neer en daarmee ontneem je de buren alle kans op uitbreiding.
Volgens de rechter tenminste heeft iemand de schuld hier. Ik wijs maar aan dat de rechter evengoed prompts kan sturen in gelijk welke richting, want hij is uiteindelijk geen zonnepanelen noch bouwexpert noch is ChatGPT.
Helemaal mee eens.

ChatGPT is een taalmodel, geen kennisbank. Natuurlijk is het mogelijk dat rechters zich op bronnen beroepen voor hun uitspraak, maar dit loopt het risco van "gebruik lijm om je kaas op de pizza te laten plakken" of "eet minstens 1 steen per dag".

Dat is een risico voor goede rechtsspraak.
Vraag GPT4+ om bronvermelding, lees de bronnen erbij na, en je hebt een redelijk beeld over of het een reëele samenvatting is of niet. Op basis van dit artikel alleen kan je niet concluderen dat dat niet is gebeurd.
ChatGTP geeft alleen ‘goede’ bronvermeldingen als die zoekt met zijn zoekfunctie. De kennis uit het model is niet met naam, toenaam en bron opgenomen en wat ie niet heeft kan die ook niet reproduceren. Het is geen kennisdatabase, maar zoals vele hier ook al aangeven en als je mijn andere post leest, een taalmodel met voor- en achteraf wat prompt engineering. Het legt bepaalde statistische verbanden om taal en tekst te genereren maar dat betekent niet dat het inhoudelijk klopt ook al klopt het taalkundig.

Waarbij de bronvermeldingen regelmatig niet kloppen omdat ie een conclusie trekt op basis van kennis uit het model (black box, zonder weet van afkomst of correctheid) en dat koppelt aan een url wat semi over dat onderwerp gaat maar feitelijk niet bevestigd of het gevraagde en geantwoorde echt correct is.

[Reactie gewijzigd door jdh009 op 2 augustus 2024 17:54]

En wanneer je als kundig gebruiker de URLs zelf checkt en leest, kan je dat prima filteren, en is het wel makkelijker dan Googlen. Het zou zomaar kunnen dat een rechter dat gedaan heeft, dus laten we geen snelle conclusies trekken.
Het is een civiele zaak, dus de klager moet zelf al een claim hebben neergelegd. Het is dan aan de rechter om die claim te beoordelen op redelijkheid. De input van ChatGPT hangt dus niet compleet in het luchtledige. Als ChatGPT een bedrag had genoemd wat boven die van de klacht had gelegen, dan had de rechter het lagere bedrag van de klager moeten gebruiken. En als de verdediging een hoger bedrag had aangevoerd dan ChatGPT, idem. Hier is het dus blijkbaar gebruikt om een punt in het midden van klager en verdediging te vinden.
Je hebt aan de ene kant gelijk maar het ligt iets anders:
- de rechter vond het logisch dat de gedaagde de helft van de verloren rendement moest betalen
- het verlies van rendement was net boven het bedrag van 3300 euro geboden door de gedaagde
- maar dat betekend dat het bod veel hoger was dan wat de gedaagde logischerwijs zou moeten betalen
- de eis zelf was zo'n 5-6 keer hoger dan het verloren rendement

Dus de eis was sowieso afgewezen geweest omdat die tenminste 10x te hoog was.

Dus ja het bedrag was net wat hoger dan de 3300 euro, maar dat had op zich geen direct effect op de beslissing van de rechter. Het rendement zou bijna 2 x zo hoog moeten zijn om de uitspraak mogelijk te veranderen, want dan was het geboden bedrag te laag geweest. Dan was de eis alsnog afgewezen, maar dan zou de uitspraak misschien wel eisen dat de buurman alsnog opdraaide voor de helft van het rendementsverlies.

[Reactie gewijzigd door uiltje op 2 augustus 2024 15:58]

Helemaal mee eens, ik hoef verder er niets op te zeggen.
Enige, het is wachten op het water, want de kraan staat open.
Een rechter die geen bewijs toetst, team wat niet controleert? Oef, ik zie dadelijk de andere rechtszaken al komen, rl tegen AI
Precies dit inderdaad. Veel mensen leggen de focus op 'ChatGPT kan fouten maken'. Klopt, een mens ook. Beide kunnen ook correcte antwoorden geven. Maar goed, bij de critici kun je 10x een juist antwoord krijgen, er hoeft maar 1 fout gemaakt te worden voor ze om het volledig af te branden.

Zoals je aangeeft kan ChatGPT bronnen melden. Op basis van de uitspraak kunnen we echter niet met zekerheid zeggen of de rechter daarnaar gevraagd heeft en die gecontroleerd heeft, enkel dat daar niet over gesproken wordt in de uitspraak.

Vwb de versie: Op basis van het verloop zal de uitspraak zelf geschreven zijn tussen 15 maart en 7 juni. In die tussentijd kwam ChatGPT 4o uit voor gratis en betaalde versies. 4 was daarvoor betaald beschikbaar. Welke versie gebruikt is, is niet op te halen uit de uitspraak. Er kan dus wel enigszins een educated guess worden gedaan, maar ook hier ontbreekt enig bewijs.
Jezus ... gevaarlijk!

ChatGPT is een tekstbedenker. Het is getraind om een tekstje te genereren dat zo goed mogelijk past bij de vraagstelling. Het is geen naslagwerk, noch een zoekmachine. De info die eruit komt is niet actueel, maar vooral ook nog eens verzonnen. Weliswaar op basis van trainingsdata dus juiste data zit er wel ergens in, maar is niet gegarandeerd.

Laat een goede advocaat dit maar reduceren tot brandhout, zodat er een precedent is dat dit niet meer mag gebeuren in de toekomst.
Dus jij denkt dat zonnepanelen veel langer of korter dan 27,5 jaar mee gaan, of dat de gemiddelde kilowattuur prijs hoger of lager is dan €0,30? Als de gegevens redelijk overeenkomen met de werkelijkheid maakt het niet zoveel uit hoe je daar aan komt. Zolang de rechter het niet klakkeloos overneemt zonder erover na te denken lijkt mij dit geen enkel probleem.

Mijn kilowattuur prijs is €0,385, maar dat komt doordat ik een 3 jarig contract heb dat nu veel te duur is. Moderne zonnepanelen hebben nog nergens 30 jaar kunnen liggen, dus we moeten het doen met verwachtingen. Die 30 jaar lijkt redelijk, alles wat ze daarna nog opleveren is mooi meegenomen, maar waarschijnlijk tegen die tijd te weinig voor de energiehongerige consument.
Als de gegevens redelijk overeenkomen met de werkelijkheid maakt het niet zoveel uit hoe je daar aan komt.
Je moet dan wel zeker zijn dat die gegevens kloppen.

Het gaat er nu net om dat ChatGPT onbetrouwbaar is: het doel van ChatGPT is om teksten te genereren, en niet om feiten te geven. Je kan als rechter niet zomaar de uitvoer als waar aannemen, ookal geeft het vaak correcte informatie. Als je het dan nog zelf moet controleren, bij betrouwbare bronnen, dan moet je je afvragen of het gebruik van ChatGPT nuttig was. En ook: waarom zou je in dat geval zelfs ChatGPT vermelden als je je andere bronnen al niet vermeld?

Nu geeft het misschien correcte informatie op een relatief eenvoudig vraagstuk. Maar wat als er in een volgende zaak naar complexere materie gevraagd wordt?

Bijkomend: als we dit nu zouden accepteren, waarom dan ChatGPT niet gewoon als rechter laten dienst doen? (Er zijn genoeg argumenten hier tegen te bedenken. O.a. dat het in beheer is van een bedrijf. En ook dat het bedrijf buitenlands is.)
Dit accepteren betekent toch niet dat je accepteert dat een rechter een heel vonnis schrijft? Deze redenering slaat kant noch wal.
Nee, tuurlijk niet. Wat ik wil zeggen is dat je voorzichtig moet zijn.

Nu wordt het voor een eenvoudig iets gebruikt. Maar wat houdt de rechter tegen om het later voor een complexer iets te gebruiken? En uiteindelijk wel voor een vonnis?

ChatGPT is geen kennisdatabase, maar een taalmodel. Maar als we het nu al foutief inzetten voor kennis of berekeningen, wat houdt ons dan tegen om verder af te glijden naar een wereld waarin we ook een AI een vonnis laten maken?
Misschien reageer ik kort door de bocht omdat ik zelf jurist ben. Maar een rechter mag eenvoudigweg geen vonnis laten schrijven door AI. Wat wel mag is met behulp van ChatGPT een schade schatten afhankelijk van hoe goed die gemotiveerd en betwist is, en afhankelijk van de hoogte daarvan.
Ik heb de rest van de uitspraak niet gelezen, maar nogmaals: als de gegevens correct zijn, waarom dan niet gebruik maken van de beschikbare tools? Ik denk dat niemand kan beweren dat 30 jaar of €0,30 per kWh onrealistisch is. Als er onrealistische gegevens uit kwamen en die klakkeloos over werden genomen, dan had deze uitspraak geen schijn van kans in hoger beroep. De rechter heeft duidelijk een beeld gehad van de verwachting, dat getoetst en vermeld hoe hij dat gedaan heeft. ChatGPT geeft als het goed is zelfs bronnen van zijn informatie aan, dan hoeft hij niet eens zelf op zoek te gaan naar bronnen.

Ik ben geen jurist, maar in hoger beroep gaan puur omdat ChatGPT gebruikt is lijkt mij bij voorbaat kansloos. Ik kan mij zelfs voorstellen dat het hoger beroep dan niet eens in behandeling genomen wordt.
" als de gegevens correct zijn, waarom dan niet gebruik maken van de beschikbare tools?"

Omdat nergens onderbouwd wordt wie heeft bepaald dat de gegevens correct zijn, althans, als ik het Tweakers artikel zo lees.

Even gechargeerd voorbeeld: als GPT had gezegd dat panelen 90 jaar mee hadden moeten kunnen gaan, of €200 per kWh had gegeven en de rechter had dat klakkeloos overgenomen, denk je dat ze het dan hadden geaccepteerd? Uiteindelijk gaat het natuurlijk om due diligence, als een rechter zo'n tool gebruikt zou die voordat hij obv die data uitspraak doet deze data eerst moeten (laten) verifiëren. Als dat niet gebeurd zou ik persoonlijk altijd geneigd zijn in hoger beroep te gaan, al is het maar om juridisch precedent te scheppen voor toekomstige zaken waar ik dan dus er op stuur dat bovenstaande altijd moet gebeuren.

Hoger beroep kan trouwens niet afgewezen worden, wel kan bij je bij veroordeling van een overtreding bij een (totae) boete lager dan €50 gewoonweg niet in hoger beroep.
Omdat je weet dat die tool willekeurige resultaten kan geven, en dus eigenlijk niet bruikbaar is hiervoor.

Waarom niet random.org gebruiken als je een vraag hebt? De eerste keer geeft het je misschien een correct resultaat, dus wat is dan het probleem?

Nu in hoger beroep gaan is mogelijk kansloos. En daar gaat het mij ook niet om.

Het gaat er om dat je een tool gebruikt op een manier waar het niet voor bedoeld is, maar die - zeker in het geval van rechtspraak - verstrekkende gevolgen kan hebben.

ChatGPT zal ook een voorkeur hebben aan populaire meningen of opvattingen, want die komen meer voor in de trainingsdata. Maar we weten ook dat populaire meningen of opvattingen niet altijd correcte info bevatten. Als een rechter al op voorhand een idee/mening heeft over een onderwerp - want hij heeft dat ooit ergens gelezen - en ChatGPT bevestigd dat (want het komt meer voor in de dataset.) dan heeft de rechter wel een bevestiging, maar deze is niet noodzakelijk correct.
Als de gegevens redelijk overeenkomen met de werkelijkheid maakt het niet zoveel uit hoe je daar aan komt.
We hebben het hier over een juridische uitspraak! Weet je hoe gevaarlijk deze stelling is en hoe het kan leiden tot een enorm glijdende schaal... Het idee dat het niet uitmaakt hoe je aan gegevens komt, zolang ze redelijk overeenkomen met de werkelijkheid, ondermijnt iedere fundamentele principes van statistiek, de rechtspraak en verantwoorde besluitvorming.

Een bekend en wat uitvergroot voorbeeld hiervan is de correlatie tussen het aantal ijsjes dat wordt verkocht en het aantal verdrinkingen. Beide stijgen in de zomermaanden, maar dit betekent niet dat het eten van ijsjes leidt tot verdrinkingen. Het lijkt misschien logisch, maar zonder dieper inzicht in de oorzaak-gevolgrelatie kan dit soort misinterpretaties tot verkeerde conclusies en beslissingen leiden. Idem met de correlatie tussen het aantal films waarin Nicolas Cage speelt en het aantal verdrinkingen in zwembaden.

Juist binnen de rechtspraak is nauwkeurigheid en betrouwbaarheid van informatie super belangrijk. Zonder verificatie van bronnen kan niet worden gegarandeerd dat de gegevens daadwerkelijk kloppen. Bovendien vereist het rechtssysteem transparantie en verantwoording waardoor "Als de gegevens redelijk overeenkomen met de werkelijkheid" verre van correct en wenselijk is. Gegevens en beslissingen moeten kunnen worden gecontroleerd en gerechtvaardigd op basis van betrouwbare en verifieerbare bronnen. Ls de herkomst van de gegevens onbekend of onduidelijk is, wordt dit onmogelijk.

Gegevens die niet goed gecontroleerd zijn, kunnen ook gemanipuleerd zijn of vooroordelen of andere cognitive biases bevatten. Maarja, wat zal het als het maar 'redelijk overeenkomen met de werkelijkheid', toch? Dit kan alleen maar leiden tot oneerlijke en onrechtvaardige beslissingen, wat de integriteit van het rechtssysteem echt niet ten goede komt en zeker niet ethisch verantwoord.

Als het geaccepteerd wordt om onbetrouwbare gegevens, of zoals jij het noemt 'gegevens redelijk overeenkomen met de werkelijkheid' te gebruiken, kan dit een gevaarlijk precedent scheppen. Wat kan leiden tot een verminderde zorgvuldigheid in toekomstige zaken en een afname van de kwaliteit van juridische beslissingen. Daarmee schop je elke vorm van vertrouwen op een consistent betrouwbaar rechtssysteem de deur uit. dat er een verband is tussen twee factoren (correlatie) betekent niet automatisch dat de ene factor de oorzaak is van de andere (causaliteit). Maarja als het allemaal maar logisch klinkt/lijkt en 'redelijk overeenkomen met de werkelijkheid' dan is er natuurlijk niets mis mee... /s

@BRAINLESS01 moet ik dan ook melden dat ik voor sommige punten in bovenstaande tekst mede met behulp van Google Search is opgesteld?

[Reactie gewijzigd door jdh009 op 2 augustus 2024 16:27]

Je hebt gezien dat hij het "mede met behulp van ChatGPT" heeft gedaan? Met andere woorden: niet alleen met ChatGPT. Het is echt een storm in een glas water, de rechter staat volledig in zijn gelijk.
Echt ja. Iedereen doet alsof de rechter het hele vonnis heeft laten schrijven door ChatGPT. Hij heeft het alleen mede gebruikt voor het schatten van een vrij kleine schadevergoeding, waarbij de uitkomsten vrij redelijk lijken.
Het "mede met behulp van ChatGPT" is leuk en mijn eerste gedachte was ook "er zijn nog andere bronnen geraadpleegd".

Alleen vraag ik me wel af waarom er wel een onbetrouwbare bron, nl. ChatGPT, vermeld wordt, maar geen betrouwbare bronnen?
Ik weet niet in hoeverre er 'betrouwbare' bronnen zijn waarin je objectieve informatie vindt over de levensduur van zonnepanelen uit 2009. Het gaat hier gewoonweg over een redelijke schatting.
Maar een redelijke schatting van een systeem dat geen schatting kan maken is toch geen schatting?

ChatGPT is in essentie een wiskundige formule bedoelt om taalproblemen op te lossen. Niet om vraagstukken op te lossen.

Als je aan ChatGPT deze vraag stelt kan je het net zo goed op Reddit vragen: misschien krijg je een goed antwoord, misschien ook niet. Het is eigenlijk een muntje werpen.

ChatGPT is dus, zoals @SeenD aangeeft, niet geschikt voor dit soort vragen in deze context.

Ik heb het niet nagekeken, maar ik gok dat je via Google Scholar al een reeks betrouwbare bronnen krijgt, die overigens peer-reviewed zijn. Zijn die te complex om te begrijpen? Neem contact op met een van de vele onderzoeksgroepen die ermee bezig zijn met zonnepanelen in de Benelux. Ik kan er zo al een paar bedenken, en ben niet eens thuis in deze materie. Als het geen complexe vraag is waar ze een dag mee kwijt zijn zulken ze daar ook niks voor aanrekenen. (Althans, dat doen ik en mijn collegas toch niet.)
Het kost misschien iets meer tijd - en gerechtelijke resources zijn mogelijk al beperkt - maar dat mag toch geen excuus zijn?

Zelf wordt mijn groep regelmatig gevraagd om te helpen bij gerechtelijk onderzoek. Dat gaat dan vaak over meerdere dagen werken op camerabeelden. Wij moeten onze methodes die we gebruiken om tot een antwoord te komen wetenschappelijk kunnen onderbouwen. Zo voorkom je dat iemand iets uit zijn duim zuigt om er snel vanaf te zijn, of voor dit soort toepassingen met waardeloze oplossingen afkomt (of als ze er echt op staan om dit toch te doen, geef je aan dat de betrouwbaarheid laag is).
Ik denk niet dat de inspecteurs of de onderzoeksrechter waarmee wij contact hebben gehad ons nog zullen contacteren als we zeggen dat iets "volgens, dankzij of mede door ChatGPT bepaald is." Ik zie niet in waarom dit voor een rechter anders zou moeten zijn?

Kanttekening: het gerechtelijk onderzoek waarbij wij betrokken worden is in België en dus niet in Nederland waar het in dit artikel over gaat. Verder gaat het - tussen mijn situatie en dit artikel - uiteraard ook over twee totaal verschillende categorieën van rechtspraak met een andere grootorde van impact op de betrokkenen. Desondanks blijf ik ervan overtuigd dat ChatGPT, zoals het nu is, geen plaats heeft in de rechtbank.
Een rechter moet in de eerste plaats vaststellen of een partij aansprakelijk is. Die vraag is soms heel complex. In het civiele recht kunnen partijen daartoe deskundigen aandragen. De rechter kan ook een deskundige aanwijzen. Als eenmaal wordt geoordeeld dat een partij aansprakelijk is, dan moet de rechter vaststellen hoe hoog de schade is. In beginsel kijk je dan wat de eiser heeft gevorderd en hoe goed die vordering is gemotiveerd. Vervolgens beoordeel je het verweer hiertegen van de gedaagde. Als de vordering de rechter niet redelijk voorkomt, dan kan hij die matigen. Hij mag dan zelf de omvang van de schade schatten. Die schatting hoeft, afhankelijk van de soort schade en de hoogte ervan, niet heel uitgebreid gemotiveerd te worden. In dit geval had de rechter ook kunnen volstaan met: de rechter acht het redelijk uit te gaan van een levensduur van 27,5 jaar en ... aan gemiste energie opbrengsten. De rechter had geen verplichting om dit te onderzoeken in wetenschappelijk onderbouwde bronnen. Dat kost ook teveel tijd en geld, gelet op de omvang van de vordering.

Dat het slechts een schatting is zie je ook terug in dat de schade eenvoudig is berekend. De rechter had nog veel meer factoren kunnen meenemen. Dat noemt hij zelf ook in een voetnoot.

Overigens had de rechter in het geheel niet hoeven noemen dat hij ChatGPT had geraadpleegd. Ik ben zelf advocaat en vermoed dat de rechter dit juist heeft gedaan om in een vonnis waar de belangen klein waren, de maatschappelijke discussie een beetje op gang te brengen.
Ja, alleen chatgpt is totaal niet geschikt voor die vraag. Dat is het probleem waar veel over vallen.
ChatGPT is prima geschikt voor die vraag.
Maar waarom moet dit met behulp van ChatGPT terwijl er legio bronnen zijn die wel betrouwbaar zijn en niet meer dan 2 minuten kosten om te vinden, zoals, ik noem maar wat, het Centraal Bureau Statistiek (CBS)?
Omdat zonnepanelen uit 2009 nog geen 30 jaar bestaan, dus het beste wat je kunt doen is schatten hoe lang die mee gaan?
Waarom begin je nou puberaal met een paar drogredeneringen? Het gaat niet of de informatie in deze casus correct is of niet, het gaat om een rechter die een tool niet gebruikt waarvoor ze ontworpen is; een taalmodel dat volstrekt geen benul heeft van context. Lees wat @jdh009 hierboven schrijft.
Jij hebt duidelijk het hele vonnis gelezen. Vertel, hoe heeft de rechter het gebruikt en waarom is de tool daar niet voor ontworpen?

ChatGPT geeft je netjes de bron. Als de bron ongeloofwaardig was, of de gegevens onrealistisch waren, of de rechter het op een verkeerde manier gebruikt had, dan was de verdediging er wel mee aan de slag gegaan. Totdat er een hoger beroep is en dit gebruik onderuit gehaald wordt is dit een prima manier om snel toegang te krijgen tot de juiste gegevens. Dat de gegevens ook nog eens realistisch zijn geeft wel aardig aan dat de rechter wist waar hij mee bezig was, hij heeft daarbij vermeld hoe hij zijn conclusie snel en efficiënt heeft kunnen trekken.
Een language learning machine is níet een encyclopedie. Een LLM is níet een database met feiten of kennis, het is een model dat getraind is met Joost-mag-het-weten. Met een schroevendraaier kan je ook spijkers in de muur slaan, maar je bent toch écht beter af met een hamer. En deze analogie werkt prima voor precies deze casus. Wat is -voor een rechter- de meerwaarde als de uitkomsten van een LLM (waarbij de prompt niet eens bekend gemaakt is) alsnog getoetst moeten worden op plausibiliteit? Waarom betrekt de rechjter er een "bron" bij die per definitie niet betrouwbaar is en waar je alsnog toetsing op moet loslaten?

En nogmaals; het stoort mij enorm dat je opent met een paar drogredeneringen (te herkennen aan: "dus je vindt dat..").
Dus omdat de gok in de buurt kwam, is het OK? Zou je dezelfde mening hebben als die kilowattuur-prijs er totaal naast zat?
Dan heb je toch een compleet andere discussie? Maar goed, ik heb het vonnis er maar eens bij gepakt, het is immers niet zo groot. De rechter geeft overal aan dat hij dingen "mede met hulp van ChatGPT" heeft gedaan. Het is dus niet zo dat de rechter niets anders gebruikt heeft, maar hij heeft ChatGPT ook gebruikt. Ik zie geen enkele reden om een rechter of vonnis hiervoor af te branden.
Er zijn al mensen die hier reageren die zeggen dat zonnepanelen ouder dan 30 jaar kunnen worden en dat meestal bepaalde onderdelen eerder kapot gaan. Het hangt dus ook aan de kwaliteit van je zonnepanelen.
Je hebt toch toegang to ChatGPT, stel zelf maar eens de vragen adhv je huidige en mogelijk toekomstige kosten en ChatGPT kan de berekening doen voor je.

De rechter zuigt een prompt uit zijn duim en stelt dat het de waarheid is:
Mijn energiekosten zijn de afgelopen 30 jaar gestegen van 5 cent/kWh naar 38 cent/kWh. Bereken de energiekosten over de volgende 30 jaar en bereken het verlies van 15% in energieproductie van zonnepanelen voor een gemiddeld huis.

Stap 1: Bereken de Stijgingsvoet van de Energiekosten
Het samengesteld jaarlijks groeipercentage (CAGR) voor de stijging van de energiekosten van 5 cent naar 38 cent per kWh over de afgelopen 30 jaar is ongeveer 6,99%.

Stap 2: Projecteer Energiekosten voor de Volgende 30 Jaar
Met dit CAGR zijn de geprojecteerde energiekosten voor de volgende 30 jaar als volgt (geselecteerde jaren voor de duidelijkheid):

Jaar 1: €0,41 per kWh
Jaar 5: €0,53 per kWh
Jaar 10: €0,75 per kWh
Jaar 20: €1,47 per kWh
Jaar 30: €2,89 per kWh
Stap 3: Schat de Energieproductie en het Verlies van de Zonnepanelen
Uitgaande van een gemiddelde jaarlijkse energieproductie van 12.000 kWh voor een gemiddeld huis, zou een verlies van 15% in productie door obstructie resulteren in een jaarlijks verlies van 1.800 kWh.

De financiële impact van dit verlies over de volgende 30 jaar, gebaseerd op de geprojecteerde energiekosten, wordt als volgt berekend (geselecteerde jaren voor de duidelijkheid):

Jaar 1: €684
Jaar 5: €959
Jaar 10: €1.345
Jaar 20: €2.644
Jaar 30: €5.198
Totale Financiële Verlies Over 30 Jaar
Het totale financiële verlies als gevolg van de 15% vermindering in energieproductie van de zonnepanelen over de volgende 30 jaar is ongeveer €69.743.

Deze schatting geeft een idee van de financiële impact van de obstructie over een aanzienlijke periode, rekening houdend met de historische groeisnelheid van de energiekosten.

[Reactie gewijzigd door Guru Evi op 2 augustus 2024 18:26]

Lijkt me een kwalijke zaak; je zal toch op z'n minst vervolgens een eigen overzicht moeten maken met de prijs per aanbieder, en dat dan middelen? Kleine moeite, met potentieel grote gevolgen
Daar komt nog eens bovenop dat van ChatGPT wordt gezegd dat het vaak "confidently incorrect" is, met andere woorden dat het vaak erg zelfverzekerd of overtuigend een fout antwoord geeft. Zolang dat probleem niet is verholpen zou ik informatie van ChatGPT zeker niet in de rechtspraak gebruikt willen zien worden...
van ChatGPT wordt gezegd dat het vaak "confidently incorrect" is
Dat is inderdaad ook een nogal irritante eigenschap. Ik probeerde gister bijvoorbeeld met man en macht om wetenschappelijke artikelen boven water te krijgen voor een claim die het maakte rondom een specifiek thema irt bloeddonatie. (Die het overigens 1:1 had overgenomen van het Rode Kruis, prima: maar ik wilde een studie als die er was.) Het ding zegt gewoon "Zeker, mijn antwoord is gebaseerd op wetenschappelijke bronnen" en begint gewoon allerlei bronnen te verzinnen die niet bestaan, inclusief links die stuk voor stuk 404'en. :+ Dus nieuwe prompt, met verzoek aan ChatGPT om geen bronnen te verzinnen maar enkel te linken naar online bronnen die nu beschikbaar zijn en in de categorie peer reviewed publicaties staan; geen willekeurige "internet artsen" of belangengroepen...

... "Searching online" ... "Excuses, hier zijn de juiste bronnen". En gewoon weer van alles verzonnen en 1 onderzoek dat wel bestaat maar in de verste verte niets met het onderwerp te maken had. :X Weigert ook te erkennen dat er simpelweg geen uitgebreid onderzoek naar gedaan is. En het stomme is: als die bronnen er niet waren, was het niet eens direct een probleem. Ik wilde enkel meer zekerheid en dan had zo'n publicatie geholpen, als de reactie was "ik kan geen specifiek onderzoek vinden, maar ik baseer het antwoord op de informatie van site X, Y en Z": ook goed.
Is het een gesprek met ChatGPT die je mogelijk kunt delen zonder persoonlijke informatie vrij te geven? Zulke praktijkvoorbeelden zijn echt enorm interessant om aan andere te laten zien.
Dit is inderdaad verontrustend. Dit had ik ook meegemaakt en heb dus zelf die bronnen met moeite gevonden voor mijn litratuuronderzoek.
[...]
> van ChatGPT wordt gezegd dat het vaak "confidently incorrect" is

Dat is inderdaad ook een nogal irritante eigenschap.
Het is ook een fundamentele eigenschap van LMM, het enige waar het benul van heeft is gramatica en spelling. Als het een tekst produceert die inhoudelijk correct is, is dat omdat de trainingsdata vooral inhoudelijk correct materiaal bevat, niet omdat LLM benul heeft van waarheid en onwaarheid.

De frustraties mbt ChatGPT verdwijnen als je accepteert dat het een complexe taal-trukendoos is, het heeft niets te maken met intelligentie.
er staat toch nergens dat dit antwoord niet gecontroleerd is? Het is zeker een acceptabel antwoord en het is voor alle partijen te begrijpen. Ik vind het niet zo kwalijk. Het heeft helemaal geen zin om voor een levensduur van 30 jaar met de verschrikkelijk ontoegankelijke websites van aanbieders uit te zoeken van momenteel de prijsmarge is. Gewoon slim gedaan en redelijk transparant: die man/vrouw is veel te durr om een middag te besteden aan het uitzoeken van een prijs.
En waarom is de plek waar het gecontroleerd werd dan niet als bron gebruikt en benoemt?
weet ik niet, wat is gebruikelijk in een uitspraak, bronvermelding ?geen idee
Onderzoek door een onafhankelijke partij laten doen die door beide partijen goed bevonden wordt?
Dat onderzoek moet ook betaald worden, meestal door de partij die de zaak verliest. Dus die zal ook wel akkoord zijn met het op chapgpt gebaseerde bedrag en levensduur.
(Ja, zitten een aantal aannames in, ik ben geen rechter of advocaat, maar heb in een ander vakgebied wel een aantal rechtzaken van dichtbij meegemaakt)
Enerzijds heb je gelijk; voor deze keer, dit was simpel en heeft geen grote impact.

Misschien dat een van de verdedigers of aanklagers zelf begon over AI in de trend van ;”volgens AI….”?

Een paar keer wat in chatGPT getypt om juist te weten wat bepaalde formules opgezet zijn en dan daarna erverder naar zoeken.

Dat AI er nog steeds naast zit is vanwege de bron, het grote boze internet waar mensen steeds weer interessant willen doen en tekst lukraak kopiëren of naar linken.
Lijkt me een kwalijke zaak; je zal toch op z'n minst vervolgens een eigen overzicht moeten maken met de prijs per aanbieder, en dat dan middelen? Kleine moeite, met potentieel grote gevolgen
Eh ...
Het is al langer niet ongewoon om AI te gebruiken in de rechtspraak. Meestal is dit ter aanvulling op.
Wanneer de input gecontroleerd wordt, kan het prima dienen als springplank.

Helaas zijn er idd ook gevallen bekend waarbij er alleen gebruik van AI gemaakt is. Deze gevallen zijn in het nieuws gekomen omdat er sprake was van hallucineren.
Zolang je de output controleert op correctheid, is het zeer zeker geen kwalijke zaak.
Zeer onprofessioneel en hoop dat hier ook streng naar word gekeken, chatGPT maakt regelmatig fouten, al zou wat hier staat accuraat zijn, het zou alsnog niet gebruikt moeten worden in dit soort belangrijke zaken, iemands toekomst in de handen van chatgpt leggen is zeer onethisch.

Dit soort dingen hebben bronnen nodig, bewijs, harde feiten.

Dit is een prompt met een antwoord.

Feitelijk niks in de ogen van de wet.

[Reactie gewijzigd door aaradorn op 2 augustus 2024 13:42]

Ik zou iedereen die zijn mening gelijk zo klaar heeft aanraden om eens werkelijk de bron te lezen... De eisende partij lijkt voor zover ik in kan schatten met compleet belachelijke schadebedragen gekomen te zijn. De rechter heeft gebruik gemaakt van chatgpt om snel aan cijfers te komen om dat bedrag onderuit te halen. Als de cijfers van chatgpt niet zouden kloppen dan is dat makkelijk genoeg voor de advocaat van de eisende partij om aan te kaarten lijkt me.

Ja we moeten voorzichtig zijn met llm's gebruiken in de rechtspraak maar het is echt niet alsof de rechter even het volledige transcript ingevoerd heeft en gevraagd wie er schuldig was. Hoe de rechter het hier gebruikt heeft lijkt me weinig mis mee te zijn eerlijk gezegd.

Wat betreft het vergelijken met Wikipedia, we hebben het hier ook niet over wetenschappelijk onderzoek of een opleiding die daarop voorbereidt. Het gaat hier om een kantonrechter, die behandelt civiel recht tot bedragen van €25000. Niet niks en het moet zeker ook secuur gebeuren maar de impact is nou ook weer niet zo heel hoog.
De rechter heeft gebruik gemaakt van chatgpt om snel aan cijfers te komen om dat bedrag onderuit te halen.
Ik blijf dat gevaarlijk vinden. De rechter hoeft echt geen onderbouwde aanbesteding op te laten maken, maar dit vind ik wel erg makkelijk. De rechter had wat mij betreft de moeite moeten doen om door te klikken naar de bronnen en te verifiëren dat de gemaakte claims kloppen.

Wat ik me nu vooral afvraag: wat nu als ChatGPT met bizar hoge bedragen aan kwam? Had de rechter de bizarre claims dan wel als redelijk bestempeld, of had hij het antwoord verder onderzocht? Want daar zit mijns inziens het grootste risico in: ChatGPT wel geloven als het je vooringenomen aannames ondersteunt, maar niet als het je tegenspreekt.
Waar staat dat de rechter niet heeft doorgeklikt naar de bronnen? Of zelfs eigen bronnen heeft gezocht om het antwoord van ChatGPT te controleren? Of misschien had de beste man toevallig net zelf zo'n onderzoek gedaan omdat hij zelf zonnepanelen wilde aanschaffen, maar had hij snel een bron nodig die de levensduur bevestigd. De gegevens lijken prima overeen te komen met de werkelijkheid, dus geen reden tot paniek.
Met cijfers komen om belachelijke bedragen onderuit te halen is prima. Maar chatGPT is daar op zichzelf niet geschikt voor, het kan je wel helpen de juiste bronnen te vinden tegenwoordig.
Het percentage is dan ook veel te hoog ingeschat (77% vs 33%) en hij rekende sowieso zowel de aanschafprijs alsmede het rendement mee. Daarmee alleen al heb je dus het bedrag al minimaal verviervoudigd. De buurman had volgens de rechter ongeveer de helft van het werkelijke bedrag moeten betalen, zo'n 1770 euro. Grappig genoeg is dat ruim onder de bedragen die door de buurman waren geboden (2200 en 3300 later) maar die heeft de beste man niet aangenomen, waardoor het recht hierop is vervallen :P

Uiteindelijk moet de eisende partij nabij de 2600 euro betalen aan de gedaagde partij buurman vanwege het hinderen van de dakwerkzaamheden en krijgt hij helemaal geen vergoeding voor het verlies van het rendement. Beide draaien ook nog eens op voor de proceskosten.

Nooit leuk die gang naar de rechter, maar uiteindelijk is heeft de man met de opbouw wel 1600 meer in zijn zak dan als de buurman niet zo'n lul was geweest. Moraal van het verhaal: buren doen wel eens dingen waar je niet blij mee bent, maar als je daar niet normaal mee om kan gaan dan ben je dubbel zo ver van huis.

[Reactie gewijzigd door uiltje op 2 augustus 2024 15:34]

ChatGPT gebruiken om het bedrag snel onderuit te halen lijkt me een goede stap, maar dan is vervolgonderzoek lijkt me wel beter dan geheel en blind baseren op hetgeen ChatGPT roept. M.a.w.: ChatGPT is een mooie tool om een snelle eerste indruk te krijgen, maar dat zou dan een prompt (ja, pun intended) moeten zijn om het zelf nog eens nader heel goed te bekijken; niet om dan maar uit te gaan dat ChatGPT de waarheid in pacht had en dat 1:1 overnemen.
Adhv samengesteld jaarlijks groeipercentage (CAGR) vindt mijn prompt bij ChatGPT een schade van 69k euro. Over 30 jaar lopen die kosten wel een beetje hoger op dan 3000 euro.
harde feiten, laat me niet lachen. Een gemiddeld levensduur en een gemiddelde prijs van energie voor de komende 27.5 jaar, met een onbekend beleid en regelgeving en onbekende ontwikkeling van energie leveranciers en klimaatverandering. Een duidelijke schatting heeft hier evenveel waarde als een mintieus onderzoek van een jaar dat alle variabelen meeneemt en nog geen eenduidig antwoord kan geven. De rechter had ook naar een site als de consumentenbond of een overheidssite kunnen gaan voor hetzelfde cijfertje.
Het ging om het vaststellen van een redelijk schade bedrag. Maar dat was zo'n twee keer lager dan het geboden bedrag van de buurman met de opbouw, en de eis lag nog eens 6x zo hoog. Daarmee had de gedaagde partij netjes gehandeld en is de eis afgewezen.

Omdat de man met de panelen hierin niet mee was gegaan heeft hij ook geen recht meer op dat bedrag. Dus voor de uitspraak maakt het precise bedrag erg weinig uit; het berekende getal had zo'n 2x moeten verschillen om misschien nog van toepassing te kunnen zijn (want in dat geval had de gedaagde misschien nog de helft van het verlies moeten betalen, omdat het geboden bedrag dan te laag was geweest).

[edit] overigens lijkt het me sterk dat we meer geld krijgen voor het de energie die we nu binnenkrijgen, of de energieprijzen moeten wel erg hard stijgen

[Reactie gewijzigd door uiltje op 2 augustus 2024 15:41]

Het zou alleen een probleem zijn als de aanklager of de aangeklaagde het niet eens zijn met de tekst van ChatGPT en vervolgens de rechter geen verder correct onderzoek pleegt. In dat opzicht is het beter als de rechter transparant is over het gebruikt van taalmodellen.
Deze rechter weet helemaal niet waar hij het over heeft. Hij bepaald een schade vergoeding
- over iets wat nog in de toekomst moet gebeuren En we helemaal niks van de kWh prijs af weten.
- Daarnaast gaat hij er van uit dat alles wat opgewekt wordt direct verbruikt wordt.
Wat gegarandeerd niet is.
- De saldering regeling gaat er ook een keer aan en dan wordt een terug geleverde kWh een euro cent of 7 waard.
- Daarnaast zie ik panelen ook al voor 15 jaar kapot gaan ( oude Philips matlap terrein op de parkeer garage )
- En als er minder zon op valt, zou het zomaar kunnen zijn dat ze langer mee gaan.

Hoger beroep, want dit is echt een hele rare uitspraak
Die man heeft in 1 klap bijna zijn hele investering terug verdient

[Reactie gewijzigd door amigob2 op 2 augustus 2024 14:26]

Ik heb het vonnis wél gelezen. In tegenstelling tot de andere reacties lijkt het me géén probleem. De eiser claimde bijna 17.000 euro schade, en de verdediging bood 3300 euro vergoeding. Met ChatGPT kwam de rechter [i/]onafhankelijk van de verdediging[/] ook tot ongeveer die 3300 euro. Wat ChatGPT daar dus deed was het onafhankelijk bevestigen van één van de twee standpunten.
ChatGPT geeft regelmatig gewoon onjuiste informatie. Er is geen onafhankelijke bevestiging. Je kan net zo goed een dobbelsteen gooien en dat een onafhankelijke bron noemen.
Ik heb de uitspraak niet gelezen, maar het kan zijn dat de prompt die gebruikt is ook opdracht geeft aan bronvermelding te doen. De rechter kan daarna de bronnen gecontroleerd hebben. Maar nogmaals, ik heb het niet gelezen en ik weet niet of bronnen gevraagd en geraadpleegd zijn.
Het vonnis spreekt over met behulp van ChatGPT. Dat sluit mijns inziens niet uit dat de rechter nog enige verificatie op de juistheid van de door ChatGPT aangereikte informatie heeft gedaan.

Verder merkt @Takezo terecht op dat het niet de taak van de rechter is om voor de eisende of gedaagde partij de benodigde informatie te verzamelen. De bewijslast ligt bij die twee partijen. Een rechter oordeelt in principe op basis van twee dingen: Het meest overtuigende bewijs en de wet.

Mijn juridische kennis is beperkt. Maar was het een strafrechtelijke zaak geweest, dan had een rechter de verdachte (gedaagde partij) kunnen vrijspreken wegens gebrek aan bewijs. Ik weet niet of zoiets in een civielrechtelijke zaak ook kan.

[Reactie gewijzigd door JKP op 2 augustus 2024 14:53]

Volgens mij is het voor zoiets beter dan Google. Die gaan waarschijnlijk met valse resultaten komen omdat ze selectief merken aan willen prijzen.
De gedaagde was volgens de rechter maar aansprakelijk voor de helft van het bedrag, dus dan gaat het over ongeveer 1700 euro vs 14000 euro.
Dus als chatgpt onafhankelijk een vooringenomendheid van 1 van de partijen of de rechter bevestigt dan zie jij dat niet als een probleem? Er hoeft niemand aan te pas te komen die werkelijk verstand van zaken heeft?
Wat mij betreft heeft chatgpt nog helemaal niet het nivo om het te gebruiken als een bevestiging voor wat dan ook. Des te meer omdat we de opdrachtprompt of de bron van die informatie niet kennen.
Wat ChatGPT daar dus deed was het onafhankelijk bevestigen van één van de twee standpunten.
Het is alleen "bevestiging" als zeker is dat het feitelijk correct is - maar met een LLM weet je zeker dat niet zeker is of wat ie zegt feitelijk waar is. En 2x "misschien" (verdediging en chatgpt) maakt geen "zeker".
Waar ik mij druk om maak is niet dat de rechter gebruik maakt van chatgpt. Maar van het feit dat de rechter dit doet om "sneller" en "makkelijker" te werken. Snelheid en hoe makkelijk iets is onbelangrijk in een rechtzaak. Het moet (juridisch) juist zijn. Maar omdat de Nederlandse rechtstaat onder flinke financiële druk staat komt de correctheid onder druk te staan. Dit is niet de fout van de rechter maar van de regering die niet genoeg geld uit trekt voor justitie. Er is te weinig "blauwe" op straat. Er zijn te weinig rechters en ander personeel om goed recht te kunnen spreken. Hoeveel criminelen kunnen niet hun straf uitzitten en hoeveel zedenmisdrijven worden niet behandeld door tijd en geld gebrek?

Men kan het de rechter niet kwalijk nemen dat deze sneller "wilt" werken. Hij moet het gewoon. En dat er dan "vreemde" dingen gedaan worden en nog vreemdere uitspraken is te verwachten.

Zolang onze regering blijft bezuinigen op de noodzakelijke dingen zoals justitie, zorg en dergelijke en geld blijft rond strooien gaat het van kwaad tot erger.

Onze regeringen geven liever geld aan bedrijven (terwijl ze bij elke verkiezing aangeven dat ze, nu eindelijk, de burger op nr 1 zetten) dan voor een leefbaar Nederland te zorgen.

De rechtspraak is daar gewoon het slachtoffer van.

En het ergste hiervan is dat dit al decennia aan de gang is, alleen de burger doet hier niets aan!
Wat een onzin, dus als de rechter in de rechtszaal een ‘zonnepanelen expert’ de vraag had gesteld was het wel goed geweest? De AI modellen halen hun informatie niet uit een enkele bron, dit zijn van die typische vragen waar ze juist prima antwoord op kunnen geven.
Dus jij vind het prima dat rechters steeds sneller en "efficiënter" moeten werken en alles aan computers overlaten "omdat die dezelfde informatie hebben". Dan kunnen we net zo goed de gehele rechtspraak door computers laten doen. Waarom mensen gebruiken als computers met dezelfde gegeven tot dezelfde conclusies komen. Ikzelf denk dat dit een enorme slechte ontwikkeling is.
Vrijwel de hele rechtspraak is toch al gebaseerd op jurisprudentie, een rechter herhaalt dus gewoon wat een andere rechter ooit besloten heeft. En als daar een gigantische kennisbank aan wordt toegevoegd waar de rechter zijn informatie uit kan putten dan juich ik dat zeker toe.
Wikipedia als bron was al twijfelachtig, maar dit is echt ontzettend slecht.
Bij mij is gelukkig de stagair net klaar die structureel zijn code met ChatGPT probeerde te schrijven. Ben blij dat ik me die troep niet meer aan hoef te doen.

@TijsZonderH:
De rechter zegt ook niet welke prompt is ingegeven voor de zoekopdracht.
Er is geen zoekopdracht ingegeven, maar "welke tekst is ingegeven om op statistisch waarschijnlijke manier voort te borduren".

Meer is het niet. "An autocomplete chatbot"

[Reactie gewijzigd door _Pussycat_ op 2 augustus 2024 13:47]

Wikipedia als bron was al twijfelachtig, maar dit is echt ontzettend slecht.
Bij Wikipedia heb je tenminste nog herleidbaarheid door te refereren naar een specifiek gebruikte revisie van een artikel, en daarin duidelijk welke bronnen gebruikt zijn om tot de informatie in het artikel te komen (kan ook "geen" zijn). Bij ChatGPT ontbreekt dit.

Uiteraard is direct en alleen refereren naar enkel Wikipedia nog steeds niet goed. Wel kan Wikipedia gebruikt worden om bronnen te vinden.

Zelf vind ik refereren naar informatie in een specifieke revisie van een Wikipedia-artikel en naar de (gecontroleerde) bronnen waarop die revisie is gebaseerd nog niet eens heel slecht. Wikipedia is goed in het samenbrengen en samenvatten van informatie, maar je moet altijd wel de bronnen controleren op correctheid voor formele zaken.

[Reactie gewijzigd door The Zep Man op 2 augustus 2024 14:02]

Bij ChatGPT kan je ook bronnen vragen. (Bij Copilot in Bing, die ook van ChatGPT gebruik maakt krijg je de links naar gebruikte bronnen er automatisch bij.)
Dan kan je met een beetje doorklikken zo het gegeven antwoord controleren.
Bij ChatGPT is er geen herleidbaarheid achteraf van zowel het antwoord als de gebruikte lijst met bronnen.
Maar wanneer ChatGPT een getal geeft, of een paar getallen, moet je in de bronnen vergelijkbare getallen moeten vinden, ook al weet je niet hoe ChatGPT die bronnen heeft gebruikt om tot zijn antwoord te komen.
Dan moet je enkel naar de bronnen refereren en niet naar ChatGPT. Belangrijk in dit soort uitspraken en bijvoorbeeld academisch onderzoek is herleidbaarheid: kan een ander hetzelfde pad volgen en tot dezelfde conclusies komen?

ChatGPT (en zoekmachines, en Wikipedia) zijn prima om bronnen mee te zoeken.

[Reactie gewijzigd door The Zep Man op 2 augustus 2024 15:40]

Je kunt naar bronnen vragen en krijgt dan echte of niet-echte inks. De werkende links leiden naar teksten waar de informatie wel of niet in staat. Het is behoorlijk waardeloos.
Gister toevallig mee bezig geweest... Dramatisch.

Dit kost je dan meer tijd en zaait enkel meer verwarring dan dat het iets oplost, dat is eerder een argument om het inderdaad nog niet zomaar te gebruiken in velden als rechtspraak, medisch, etc..
ik hoop dat dit snel verboden word zoiets moeten we niet willen
Volgens mij iets dat je makkelijk kan aanvechten in beroep of cassatie? Als een van de partijen niet akkoord gaat en zeker als de informatie foutief is.

Al is het maar dat chatgpt en ander llm grote waarschuwingen tonen dat de informatie foutief kan zijn.

[Reactie gewijzigd door IStealYourGun op 2 augustus 2024 16:42]

Het probleem is dat in beroep gaan, geld kost, Weet niet of je ooit een advocaat hebt in gehuurd, nou dat liep voor een eenvoudig dingetje al dik boven de 1000 Euro
Je kan de uitspraak natuurlijk aanvechten, maar de rechter van cassatie zal toch vooral kijken hoe het gereedschap zoals ChatGPT is ingezet. Daar het hier gaat om het afwijzen van een eis die veel te hoog lag zie ik niet in hoe dat ook maar enige consequentie heeft op de uitspraak.

Sterker nog, ik heb de uitspraak bekeken en als ik ernaar kijk heb je een grote kans dat de eiser voor alle extra kosten gaat opdraaien als hij in cassatie gaat. Een bloemetje voor de buurman lijkt me veel meer rendement te geven, maar omdat het zo'n lul is zal dat er wel niet van komen.
Voelt als refereren naar Wikipedia in je scriptie.

Op dit item kan niet meer gereageerd worden.