Amerikaanse advocaten gestraft na citeren door ChatGPT verzonnen zaken

Advocaten van het Amerikaanse advocatenkantoor Levidow, Levidow & Oberman zijn beboet voor het indienen van informatie die verzonnen werd door ChatGPT. In sommige gevallen klopten details niet en in andere gevallen werden zaken volledig door de chatbot bedacht.

Het incident vond plaats in een proces tegen de Colombiaanse luchtvaartmaatschappij Avianca; advocaten van Levidow, Levidow & Oberman gebruikten ChatGPT om eerdere vergelijkbare rechtszaken te citeren, zo schrijft The Guardian. Advocaten kunnen op basis van jurisprudentie zaken naar eenzelfde uitspraak proberen te sturen, maar in dit geval bleken voorgaande zaken gedeeltelijk of helemaal door ChatGPT te zijn verzonnen.

Voor de overtreding krijgt het advocatenkantoor een boete van omgerekend bijna 4600 euro. Volgens de betrokken rechter, Peter Kevin Castel, hebben de advocaten 'neppe juridische opinies met fictieve citaten' ingediend. Hoewel de rechtbank het materiaal al snel in twijfel trok, zouden de advocaten hun foutieve informatie daaropvolgend hebben geprobeerd te verdedigen. De advocaten zeggen nooit kwaadwillend foutieve informatie te hebben ingediend.

De betrokken rechter zegt dat er in principe niets mis is met het gebruiken van kunstmatige intelligentie voor juridisch werk, maar dat de verantwoordelijkheid bij de advocaten ligt: "Technologische ontwikkelingen zijn heel gewoon en er is niets inherent ongepast aan het gebruiken van betrouwbare kunstmatige intelligentie als hulpmiddel. Maar de regels beschrijven dat advocaten een controlerende rol hebben wat de juistheid van ingediend materiaal betreft."

Het is een welbekend feit dat AI-taalmodellen informatie aanpassen of verzinnen. Tweakers schreef onlangs een achtergrondverhaal over de werking van deze modellen en waarom dat tot 'hallucinerende' chatbots kan leiden.

Door Yannick Spinner

Redacteur

23-06-2023 • 16:19

166

Reacties (166)

Sorteer op:

Weergave:

Ik heb zelf gemerkt dat ChatGPT zaken niet op een rijtje heeft: ik heb een vraag gesteld om een persbericht te maken van een interview met een voetbaltrainer (doe ik regelmatig voor mijn hobby) en er kwam een ronkend persbericht uit rollen die je zo zou kunnen publiceren. Alleen - het klopte niet. De club deed vorig seizoen mee in de strijd om de 2e klasse, maar is dit jaar gedegradeerd naar de 4e klasse. Maar volgens ChatGPT zou de trainer nog meedoen in die strijd en is de spanning nog groot. Seizoenen zijn allang voorbij..

Nu weet ik wel dat het ChatGPT nog niet 'bij' is - maar geeft dit nou net niet de crux van het systeem aan? Wat heb je er aan als je al direct moet twijfelen of de resultaten goed zijn? Wat ik meemaak is klein bier, maar als je als wetenschapper of advocaat gaat vertrouwen op een uitkomst die niet klopt.. waarom zou je vragen stellen aan ChatGPT als je de antwoorden zelf al moet weten om te controleren of het feitelijk klopt?
De bedrijven achter AI modellen en applicaties hebben het zichzelf lastig gemaakt. Ze moeten eigenlijk permanent blijven benadrukken dat de AI toepassingen voor nu “slechts” copilots zijn: vaak goed genoeg, maar soms ook helemaal verkeerd. Een mens blijft nodig.

Aan de andere kant willen de bedrijven vooral laten zien hoe slim hun toepassingen zijn door met hoge testresultaten en interessante voorbeelden te komen. Dat botst, en ik ben bang dat veel mensen zonder extreme waarschuwingen heel snel content uit AI toepassingen zullen overnemen zonder controle. Volgens mij bewijst dit artikel dat nogmaals.

Wat mij betreft blijven we voorlopig vasthouden aan het copilot principe. Het valt niet te ontkennen dat het voor enorme productiviteitsverbetering kan zorgen, en in sommige gevallen meer plezier in het werk en leven. Het streven naar AI waarbij mensen vooral niet meer nodig zijn lijkt mij onverstandig of op zijn minst te vroeg.
Als je ziet dat sommige mensen nu al Facebook en instagram als voornaamste bron van nieuws gebruiken dan vrees ik inderdaad dat veel mensen alles wat ChatGPT voorschotelt ook wel als waarheid zullen aannemen.
Helemaal mee eens, maar je mag van een advocaat toch verwachten dat ze de feiten nog extra controleren. Een handig hulpmiddel is het om iets op te zoeken, maar als de rechtbank direct al twijfels heeft over de gevonden jurisprudentie, dan mag je dat toch zeker verwachten van de advocaat die hier meer tijd in steekt. (moet steken :) )
Ik denk dat voor veel casual gebruikers geldt:
Dom: een computer die telkens hetzelfde (foute) antwoord geeft
Slim: een menselijk aandoend algoritme dat telkens net iets andere antwoorden geeft en 'sorry voor mijn vergissing' zegt

Voor die gebruikers voelt het alsof de antwoorden door een mens zijn gegeven waardoor ze denken dat ze niet nog extra hoeven te checken
maar we lijken minder kritisch te zijn tov AI dan een mens. Kijk maar naar de soms stevige discussie hier oo Tweakers. Blijkbaar denken we dat AI betrouwbaarder is door de data die erachter zit.
Het is ook helemaal geen AI, het is niet zelf denkend het genereert alleen output gebaseerd op modellen die erin gestopt zijn. Dat hele AI is een gigantische trendnaam aan het worden..... Net als 3D Tv enkele jaren geleden, alle apparaten hadden ineens iets met 3D te maken :D
'if you ask a fish to climb a tree'

chatGPT is een natural language processing tool. De functie is om zinnen te maken die natuurlijk klinken. Dat doet die goed. Ik gebruik het vaak als een copy-editor, hoe nauwer ik de output van chatGPT bij mijn origineel laat zijn, hoe beter chatGPT het doet. Hoe meer chatGPT moet interpoleren/extrapoleren/prioriteren hoe meer die teruggrijpt naar de content uit zijn trainingsmodellen met een voorkeur voor zaken die daar vaak in voorkomen.

De makers waren verbaast dat chatGPT zoveel meer kon dan oorspronkelijk beoogt en er wordt nog steeds onderzoek gedaan naar hoe dat kan. Maar uiteindelijk is chatGPT vooral goed in iets schrijven dat goed wegleest.
'er kwam een ronkend persbericht uit rollen die je zo zou kunnen publiceren'
Volgens mij heeft chatGPT dus precies gedaan waar het voor bemaakt is :)
'waarom zou je vragen stellen aan ChatGPT als je de antwoorden zelf al moet weten om te controleren of het feitelijk klopt?'
Als wetenschapper gebruik ik chatGPT dus absoluut niet als vraagbak voor mijn onderzoek. Ik gebruik het als assistent voor mijn schrijven. Zoals eerder vermeld gebruik ik het nu voor vrijwel al mijn werk om op taal en grammatica fouten te controleren. Soms laat ik chatGPT de schrijfstijl aanpassen. Als wetenschapper neig je nog al eens naar taalgebruik dat alleen experts in je veld goed zullen snappen, terwijl je voor een breder publiek wilt schrijven ('Please write this in Plain english' gebruik ik vaak :) ). Ik vraag het ook wel eens een text meer beknopt te maken, maar hier gaat het al vaak fout omdat chatGPT gewoon niet kan inschatten wat belangrijk is, en bij deze opdracht ook vaak gaat hallucineren, al kan je het met 1-3 vervolg commandos meestal wel fixen als je input niet te groot is. Soms vraag ik chatGPT wel eens om een definitie te geven van een vakinhoudelijke term ('can you define X in plain english, using y lines/paragraphs), en bij dat laatste moet ik al best vaak doorvragen tot chatGPT met een goede definitie komt. Maar definities geven is eigenlijk het enige waar ik chatGPT een antwoord op een vraag laat geven, en dan alleen van definities die ik wel weet maar niet zo 1-2-3 duidelijk weet op te schrijven.

Dus wat heb ik er aan, ook al moet ik alles fact-checken? Het bespaart mij wat werktijd met schrijven, en het bespaart mij enorm veel wachttijd als ik moet wachten op copy-editors anders (dit kan echt maanden schelen in mijn vakgebied, en die kijken enkel naar spelling/grammatica en niet naar leesbaarheid normaliter).
Volgens mij is ChatGPT dan ook meer een content generator dan een wetenschappelijke tool. Je kun er zo een persbericht mee uitrollen, maar de inhoud moet je controleren.

Je kunt zo een PHP code ervan pakken, die zal werken. Maar is misschien niet het meest efficiente. Het zal wel werken.
Nou ik heb geprobeerd een stukje software door chatGPT te laten schrijven, en zelf niet bezig te zijn met technische correcties, maar eerder vertellen dat het resultaat niet goed was. Na 8 iteraties was de code nog steeds niet kloppend, en zat chatGPT in een cirkel te 'redeneren'.
Dat is dus het copilot verhaal. Had je wél ingegrepen, dan had je in 4-5 stappen een werkend verhaal kunnen hebben.
Ik ben zelf nét bezig met de programmeertaal Julia. Ik kreeg na het invoeren van een stukje R code een werkend stukje Julia code dat ik op dit moment ws niet zelfstandig had kunnen reproduceren. Op fouten checken lukte wel. De runtime van het algorithms ging door 10. Voor mij dus een efficiënt gebruik van ChatGPT. De uitkomst was overigens identiek

On topic: ik ben het helemaal eens met de rechter. De mens/advocaat idg blijft verantwoordelijk
Maar nu heb je het probleem niet zelf opgelost en heb je er dus ook niks van geleerd. Je leert programmeren door het zelf te doen, niet door het antwoord te bestuderen.
Je hebt ergens een punt, maar door het nakijken weet ik nu ook hoe het volgende keer moet. Bovendien was voor dit project voortgang belangrijker dan het leerproces
Toch denk ik dat het geen goed idee is om ChatGPT te gebruiken als je het nog aan het leren bent. Ten eerste omdat dat slecht is voor je leerproces en ten tweede ChatGPT braakt nogal wat onzin uit. Niet bestaande libraries, code die niet correct is, copyright problemen. Als je net een taal aan het leren bent dan herken je dat soort problemen niet en komen ze uiteindelijk terecht in je project.
Ik ben mij daar terdege van bewust en dat draagt dus ook bij aan het leerproces. Tot nu toe met positief effect. Gelukkig komt de kennis van andere programmeertalen daarbij goed van pas (18y Python, 10 y JavaScript, VB, C++ en zelfs nog Pascal, fortran en perl uit de steentijd. Bleu zeker dus niet
Prima. Ik ben zelf meer fan van GH copilot, die kijkt naar code die je al geschreven hebt, zelfs over meerdere files en classes en doet dan suggesties. Die zijn meestal heel sterk en af en toe leer ik er zelfs nog wat van, bijv. een functie in numpy of pandas die ik nog nooit gezien had. Ik accepteer alleen suggesties die ik begrijp en kan unit testen. Dit vind ik zelf logischer dan een heel stuk genereren via ChatGPT.
Ik gebruik beiden. Copilot is some eng nauwkeurig in ‘voorspellen’ wat ik zou willen schrijven. Ik ben benieuwd waar dat over een paar jaar staat.
Software programmeren of een php snippet is dan ook wel een verschil haha! Ik bedoel meer dat met alles wat je chatGPT geeft, chatGPT wel wat kan maken, maar wanneer die echt zelf moet nadenken wordt het lastig.
Was geen hoogstaande software, hoor. Gewoon een formuliertje met een kleine API met een paar basic statistische berekeningen.
Bij elkaar nog geen 150 regels code.

Punt is dat dat al te ingewikkeld is, met een lap tekst merk je dat niet zo, maar met exacte code zie je pas wat een bullshitter het is.
Jep. Ik vind het overigens wel weer dijn als copilot voor aanvullen. Ik gebruik het ook voor documentatie of pr teksten schrijven. Ik schrijf vaak gewoon eerst de teksten zelf, maar gezien taal mijn slechtst beheerde skill is, en mij. brein echt dingen anders interpreteert dan een neurotypisch persoon, kan chatGPT mijn teksten begrijpbaarder maken. Daar vind ik het superfijn voor. Naast af en toe wat verbeteringen, werkt het voor mij vele malen sneller.

Maar wat je zegt, soms is de basis van de uitkomsten van ChatGPT gewoon bar slecht.

Wél vind ik het soms handig als je begint met een nieuwe techniek/framework dat het je op weg kan helpen.

Ik zie het vaak als een duwtje in de juiste richting, maar altijd ervanuit moet gaan dat je het niet klakkeloos kan overnemen.
Ah sorry haha, met de term: Een stukje software laten schrijven had ik iets hogere verwachtingen ;)

Maar inderdaad je hoeft er niks van te verwachten, je moet het zelf kunnen controleren. Toch meende ik dat 87% van alle developers een AI gebruiken.
Het is en blijft een taalmodel; een model wat het meest waarschijnlijke volgende woord voorspelt. Heeft niets met waarheid, leugens, kennis of beredeneren te maken, maar alles met statistiek en het volume van geleerd materiaal.

Dus ja, de kans is heel groot dat er onwaarheden verteld worden, het is alleen de vraag hoe impactvol die onwaarheden zijn op de strekking van het antwoord.
Zal maar net van de situatie afhangen: als je SEO-spam wil schrijven is het geen enkel probleem, als je schrijver bent en inspiratie of een eerste opzetje zoekt dan is het goed genoeg, en als je vooral harde feiten zoekt heb je er meestal niet zoveel aan.
ChatGPT werkt prima als het voldoende context heeft. Als ik het bijvoorbeeld vraag om unit tests te schrijven voor bestaande code die ik het dan geef dan gaat dat meestal wel goed.
waarom zou je aan een AI zoiets vragen? Een persbericht moet in de eerste plaats actueel zijn en dan vraag je om in een dataset van 2 jaar geleden te gaan zoeken.

Jouw voorbeeld en dat van het artikel zijn perfecte PEBKAC's en kan je niet op de AI afschuiven
Ander voorbeeld dan: Als ik naar lyrics vraag van nummers die al minstens 10 jaar bestaan heeft ChatGPT ook al meer dan eens gewoon maar iets verzonnen wat na een Google search exact 0 resultaten oplevert.
again: PEBKAC, het is een generative AI, geen zoekrobot, dus je zal een antwoord krijgen al dan niet het exacte, enige correcte antwoord, danwel een interpretatie van alle relevant geachte data. Ik ben zeker geen expert en heb geen flauw benul wat er in de dataset zit, maar als ik aan een wereldvermaarde kok unox tomatensoep met balletjes vraag zal het resultaat waarschijnlijk ook niet hetzelfde zijn, ondanks dat de beste man maar al te goed weet wat ik bedoel. Geef ik het in m'n AH-shoppinglijstje in en BAM exact wat ik wil, afgeleverd door een chauffeur die moeite heeft om te verstaan dat hij bedankt is om m'n lievelingssoep te brengen.
"Geef me de lyrics van dit bekende nummer" kan echt niet voor interpretatie vatbaar zijn. Die probeert je ook actief te overtuigen dat het wel degelijk correct is.
ik denk dat zowat iedereen wel iemand kent die bepaalde nummers al heel z'n leven fout meekweelt :+
Yep het komt te vaak met onzin aanzetten.
Zelf getest tegenover verslagen van 5 jaar geleden en maar 40% klopt. Snap dan ook niet dat bedrijven nu al overschakelen.
Overschakelen waarop? Dat ChatGTP onzin genereert komt door de input. Dat wilt niet zeggen dat een model met goede, relevante trainingsdata dit soort fouten maakt. ChatGPT kan gewoon geen onderscheid maken tussen feit en fictie van alle shit die hem gevoerd is.
offtopic:
-nvm-

[Reactie gewijzigd door Room42 op 22 juli 2024 15:47]

waarom zou je vragen stellen aan ChatGPT als je de antwoorden zelf al moet weten om te controleren of het feitelijk klopt?
Je slaat de spijker op de kop: GPT is niet gemaakt om antwoorden te geven. GPT is gemaakt om een mooi verhaaltje te maken van de feiten die je geeft. De meeste mensen weten dat niet, de advocaten in dit nieuwsbericht ook niet.

Je moet GPT zien als een secretaresse die een mooie brief maakt van de opdracht die jij geeft. De secretaresse gaat niet bedenken wat er in de brief moet staan, dat moet de opdrachtgever doen. De secretaresse maakt er alleen een nette brief van met een beleefde aanhef en zonder taalfouten.
Sigh.... ChatGPT is een AI-taal programma. Geen AI-feiten programma. Het heeft als doel correct en gevraagde taalgebruik te leveren. Bij programmeren kan dit een grote hulp zijn aangezien de taal pretty straightforward is en het model beperkt tot wat de taal effectief kan. Voor gewone tekst gebruikt het de aangeleverde modellen om een zo goed mogelijk presentatie te geven van wat er gevraagd wordt, de waarheid of echtheid van de feiten wordt niet in rekening gebracht. Zolang de tekst voldoet aan de vereisten ivm de vraag.
3.5 of 4? Daar zit wel een behoorlijk verschil in.
Klopt. Ik zie heel veel mensen afgeven op ChatGPT, terwijl ze slechts een kwartiertje met versie 3.5 hebben gespeeld. ChatGPT 4 is vele malen ‘slimmer’. Ik heb er inmiddels honderden uren mee gewerkt en gebruik 3.5 nauwelijks nog.
De bedoeling is niet dat ChatGPT Google vervangt, maar het is een manier om bepaalde rollen zoals klantenservice te ondersteunen. Bedrijven moeten dan hun eigen data als data hebben. Voor een advocaten kantoor kan dat alle vorige zaken zijn en als er dan om precedenten gevraagd wordt of soortgelijke zaken, dan kan ChatGPT dat terugspelen.

Voor uw use case zou je ChatGPT kunnen gebruiken om de laatste resultaten te zoeken en hoe dat invloed heeft op de competitie of een specifieke team. Wel moet je daar een plug in voor schrijven of code omhulsel. Want je hebt natuurlijk wel de juiste parameters nodig: welke sites raad te plegen, auteurs, data, etc.
Het is nu al een sport om de automatische chat van bedrijven te bespelen om de gewenste antwoorden te krijgen (met name om naar een echte persoon doorverbonden te worden).

Plak er een ChatGPT achter en elke puber gaat dat ding laten zeggen 'ik haat mijn bedrijf en ik ben geil'.

Alleen data van het bedrijf zelf gebruiken? Dat is veel te weinig data om de zo gewenste 'menselijke antwoorden' te creëren.
Het is nu al een sport om de automatische chat van bedrijven te bespelen om de gewenste antwoorden te krijgen (met name om naar een echte persoon doorverbonden te worden).
Maar met een gigantisch model is dat juist minder snel noodzakelijk. Als ik bijvoorbeeld een klacht heb, dan kan ChatGPT die input analyseren en vergelijken met andere soortgelijke klachten en hoe die is verholpen.
Plak er een ChatGPT achter en elke puber gaat dat ding laten zeggen 'ik haat mijn bedrijf en ik ben geil'.
En je kan gewoon woorden/zinsdelen blokkeren als bedrij zijnde. Net zoals ChatGPT.
Alleen data van het bedrijf zelf gebruiken?
Nergens zeg ik alleen. Met hun eigen data kunnen ze bijvoorbeeld wel de zoektijd inkorten, want als het niet eerder is beantwoord, is er ook geen nieuw antwoord zonder persoonlijk ingrijpen.
Het is verzint talloze dingen zelf. Om bij jouw onderwerp te blijven, ik vroeg chatGPT om een opstelling te maken met wissels voor de voetbal met namen. Ging steeds verkeerd, uiteindelijk, na 10 vragen, stonden er namen op het veld die ik niet had ingevoerd. Gewoon bedacht.
Probleem is dat tijdens de data input fase. ChatGPT nog redelijk dichtbij zat. Nu hoe er meer data wordt gecreëerd zonder controle of het klopt gaat het ook mogelijk vertroebeling krijgen.
Nu weet ik wel dat het ChatGPT nog niet 'bij' is - maar geeft dit nou net niet de crux van het systeem aan? Wat heb je er aan als je al direct moet twijfelen of de resultaten goed zijn?
Ik snap niet dat je het al deze generatie moet vertellen. Dacht dat dat pas in volgende generaties zou spelen. Je moet ALTIJD twijfelen of de resultaten goed zijn. 8)7
Tja, chatgpt zet woorden naast elkaar die goed bij elkaar passen. Train je het op ronkende persberichten, dan kan het die ook maken, maar dat heeft niet noodzakelijkerwijs wat met de realiteit te maken.

Zelf met actuele data erbij is het niet automatisch betrouwbaar, al helpt het wel. Aan de andere kant kun je een 100% accuraat verhaal maken, maar ontzettend slecht geschreven. Chatgpt kan dan helpen om er wel een goed leesbare tekst van te maken.
Voor de duidelijkheid, ChatGPT weet niets. Het geeft slechts reacties gebaseerd op de waarschijnlijkheid dat het antwoord er echt uit ziet. Het kan niet fact checken, en zegt niets met inhoud.
Denk er zo over: de kans dat ChatGPT een antwoord geeft dat een fact check overleeft, is net zo hoog dat ChatGPT een antwoord geeft dat volledig gehallucineerd is. In de meeste gevallen zal tekst gegenereerd door ChatGPT een deels zinnig en deels onzinnig zijn.

[Reactie gewijzigd door GaryFaceman op 22 juli 2024 15:47]

Als chatgpt iets heel moeilijks/tijdrovends doet en je hoeft alleen te checken dat het klopt of beetje aan te passsen dan win je er toch best veel tijd mee.

Onhandig maar voorlopig hoe het werkt. Misschien moeten ze een tweede chatbot de resultaten van de eerste chatbot laten factchecken ;-)
Ik had aan ChatGPT gevraagd wanneer 18 juni op zondag zou vallen vanaf 2023. Komt een lijstje uit. Daarna gevraagd welke 18 juni op zaterdag vallen vanaf 2023. Krijg ik voor een deel van de data gewoon dezelfde jaartallen?!

Jahoor, 18 juni valt in hetzelfde jaar zowel op zaterdag als op zondag.

Het ding kan dus niet eens een kalender goed interpreteren.

Toen ik zei dat het niet juist was, kwam hij eindelijk met een juiste lijst (denk ik, het was in ieder geval niet overduidelijk fout).

Maar wat heb ik er aan als er zulke antwoorden uitkomen? Moet ik dan achter iedere vraag de extra vraag stellen, “kijk of je antwoord juist is?!”.

Er komt een mooi kaasverhaal uit met allerlei morele teksten, maar vertrouwen kun je het voor geen meter.
Ook dom om niet te controleren of het gegenereerde antwoord juist is, al helemaal als advocaat.
In de reacties op de AI artikelen is duidelijk te zien dat een heel groot gedeelte van Tweakers lezer diezelfde fout zouden maken. Ze vertrouwen veel te veel op de output van die AI's en iedereen die waarschuwt voor de risico's word aan de kant geschoven als een sukkel die alle ontwikkelingen wil tegen houden.

[edit]
Wat wel opvallend is, is dat er blijkbaar een enorme markt is voor een AI die effectief data bij elkaar kan verzamelen op een wijze dat een google search dat niet doet. Maar er dan wel voor zorgt dat die data ook feitelijk is, en niet bij elkaar verzonnen. Dus duidelijke bronvermeldingen etc.

Ik vraag me af wanneer één van die AI toko's in dat gat springt?

[Reactie gewijzigd door mjtdevries op 22 juli 2024 15:47]

Dat kan al prima hoor, je zal chatgpt alleen moeten vertellen wat zijn bronnen zijn.

De grootst gemaakt fout met het gebruik van ai: fatsoenlijk kunnen prompten, en dit hoort daar bij
Dan nogsteeds kan chatgpt bronnen verzinnen. Het is uiteindelijk simpelweg aan de gebruiker om te controleren of wat chatgpt uitspuugd ook daadwerkelijk klopt.
Absoluut, dat zal nog altijd een ding blijven. Maar mensen snappen ai en prompts niet.

Als je aan chatgpt vraagt, geef 10 redenen waarom Trump de beste president is, en hij zal dat netjes antwoorden.

Als je hem vraagt om 10 punten te noemen waarom Trump de slechtste president is, zal hij dat ook netjes antwoorden.

Dit is nog geen bevestiging van feiten ofzo, je vroeg om iets, en je krijgt het, is niet per se waar ofzo
Het is in beide gevallen een vraag met een vooringenomen positie. Kun je een AI niet kwalijk nemen. :+
Wat ik nou apart vind is dat dergelijke engines ook dingen verzinnen bij een vraag die maar 1 oplossing heeft, dus een exact iets. Net als Google hebben ze allemaal principieel bezwaar tegen iets niet weten.

[Reactie gewijzigd door blorf op 22 juli 2024 15:47]

Punt is dat hij altijd zal proberen een antwoord te geven. Shit verzinnen is letterlijk zijn taak, want hij heeft geen “idee” van wat hij zegt, enkel berekeningen van wat het volgende woord moet zijn.

Je kan hem ook om pure letterlijke fantasie vragen, te helpen met schrijven van fictie. En dat presenteert hij met evenveel zelfvertrouwen.

En dan stel jij hem een wetenschappelijke vraag ofzo, een met maar 1 antwoord, maar welke niet in zijn leerset zit, dan gaat hij verzinnen ja. Hij heeft evengoed geen idee wat hij zegt als het onzin oplevert als wanneer het wel feiten zijn, voor die bot zit daar geen verschil tussen.
Het is niet te doorgronden. Ik heb wel sofftware-gerelateerde vragen gesteld waar niet bestaande configuratie-opties uit kwamen...
Dat soort dingen moet je dus ook niet aan een chatbot vragen. Het is geen zoekmachine of waarzegger. Het is letterlijk een praatjesmaker.
Ik gebruik Google nog steeds meer dan een AI-systeem, maar ze voegen wel echt iets toe. Vooral bij technische onderwerpen kan het het verschil maken. Als je iets meteen weet in plaats van daar eerst 10 fora voor te moeten lezen is dat waardevol. Voordeel bij zulke onderwerpen is dat je ook makkelijk kan constateren dat er bepaalde informatie niet klopt. Dan werkt het gewoon niet.
En dat is dan ook prima, als ondersteuning, kan heel veel werk schelen.

Maar ik zou hem nooit gebruiken om mij documentatie voor te laten schotelen. Wellicht wel om me de juiste richting in te sturen in het zoeken erna.
Totdat het commando dat het ding jou aangeeft om uit te voeren technisch wel mogelijk is, maar van een cruciaal netwerk apparaat de hele fabrieksinstellingen herstelt of iets, in plaats van enkele die ene config regel leeg te maken. Het is wachten op grote ellende als je ChatGPT loslaat op iets waar je de inhoud van gaat gebruiken. Het is niet gemaakt voor inhoud, gebruikt al die inhoud eigenlijk allemaal om tekst voorspellingen te doen, maar feiten worden bij mijn weten niet als zodanig ergens vastgelegd. Er is geen goed of fout, enkel taal. Je kunt net zo goed een policiticus vragen om iets over technologie te zeggen, komen ook allerlei volzinnen uit, ga je tegelijk ook niet op technische onderwerpen de inhoud van gebruiken, is hun werk ook niet.
Wat ik vrij veel gebruik is iask.ai. Dat zullen wel mensen bezwaar tegen hebben omdat het Chinees is maar ik heb daar zeer zeker heel veel cruciale informatie mee gevonden dat me met gewoon zoeken veel meer tijd zou hebben gekost. Vooral bij techniek en wetenschap is het zaak om zoveel mogelijk details te geven. Als een bepaalde uitkomst vermoedelijk niet klopt ben je daar zo achter door de vraag iets aan te passen zodat dat uitgesloten zou moeten zijn.
Ik vroeg hem ook voor de lol of je met de Google Cloud Translate v2 API een glossary kon meegeven o.i.d. Verzint hij er ook vrolijk bij. (Kan alleen met de v3. :) )
Sowieso is 'slecht' en 'goed' nooit objectief, maar altijd afhankelijk van je doelen. Dus je geeft vooral een goed voorbeeld dat mensen zelf vaak ook helemaal niet weten wat een feit en een mening is.

Heel veel dingen die mensen een feit noemen zijn eigenlijk een mening.
Exact!

Het is eerder een afweging tussen gewenst en ongewenst, en dat kan een bot niet zo maar weten zonder heel veel input van degene die de vraag stelt

[Reactie gewijzigd door Zoop op 22 juli 2024 15:47]

Dit is ook weer een kwestie van goed prompten, want je kunt de doelen meegeven in je vraag. En trouwens ook het doel van de exercitie.

Bijvoorbeeld: Schrijf een stuk met 10 argumenten waarom een PvdA-stemmer op politicus X zou kunnen stemmen. Of: Schrijf een stuk met 10 argumenten waarom een VVD-stemmer zich zou moeten schamen dat hij op VVD-politicus Y heeft gestemd.
Goed bronnen bij elkaar verzamelen doet GPT anders nog maar slecht hoor. Kan je wel wat 'prompt engineering' doen, maar zo lang GPT nog af en toe bronnen blijft verzinnen is het een vrijwel nutteloze feature omdat je dan als gebruiker alsnog alle gegeven bronnen na moet gaan en dus weer een hele tijd bezig bent.

Ik merk zelf dat bronnen verzinnen best vaak gebeurt als je het over moeilijke onderwerpen hebt. Bij mijn onderzoek best vaak gehad dat chatgpt hele papers verzint als ik vraag voor een bron van zijn informatie. En als je GPT daarop aanspreekt dan zegt hij 'oh sorry voor mijn fout' en verzint ie nog een andere bron die vaak ook niet bestaat.
Met ChatGPT kan je toch ook gewoon vragen om wat papers die de informatie bevatten? Dan kan je zelf via de links die ChatGPT levert naar de desbetreffende papers gaan.

Dan werkt het als een soort Scholar of Scopus maar soms toch net wat fijner.

[Reactie gewijzigd door EpPart op 22 juli 2024 15:47]

Mijn reactie was dan ook dat je zelf bronnen kan aangeven. Chatgpt zal zelf maar wat bij elkaar verzinnen als je dat niet doet. Dat is mijn punt.

Daarnaast moet je bog altijd de resultaten controleren natuurlijk
Ik snap je wel, maar het hele ding is dat het zelfs dan nog dingen verzint. Als ik bijvoorbeeld vraag naar papers die specifiek op Arxiv staan dan verzint GPT zelfs nog wel eens hele papers. Vaak is het dan een echte auteursnaam met een verzonnen titel en doi.
Daarnaast moet je bog altijd de resultaten controleren natuurlijk
het zou dan ook mooi zijn als dit niet meer 'natuurlijk' is, en ik denk dat we niet meer dan een paar jaar hoeven te wachten tot chatbots heel betrouwbaar bronnen kunnen geven, het begin is er al het is gewoon een kwestie van hallucineren tegen gaan en dat de bot vaker 'nee zo een paper kan ik niet vinden' zegt
Maar dan gebruik je hem verkeerd, vragen om papers is een taak voor een zoekmachine. Is leuk dat chatgpt ook zoek integratie heeft, maar waarom zou je zelf niet gaan googlen? Wat verwacht je dan van de meerwaarde van een bot die dat voor je gaat doen? Dat hij de beste keus eruit pikt? Dat is sterk afhankelijk van wat je wilt, dat kan hij niet ruiken zonder hem diepgaande prompts te geven.

En dat “natuurlijk” gaat niet weg hoor, ai heeft geen “idee” van wat het zegt, het berekend simpelweg de kans van wat het volgende woord moet zijn. Dat levert mooie taal op, maar dat is dan ook al wat het doet.
Ik vind jouw standpunt wel een beetje cynisch, want het werkt juist al best goed op de hallucinaties na. De meerwaarde van een bot die jou direct op de juiste papers wijst is echt mega. Als je gaat googelen naar iets specifieks dan kom je vaak eerst bij andere papers terecht, en dan kan je misschien via referenties van die paper hetgene vinden wat je wilt, en dat is zo een aantal minuten werk. Voor de meeste vragen kan chatgpt je nu al direct wijzen op een goede bron en de beste keus eruit pakken gaat dan zelfs best goed.

Tuurlijk als je heel cynisch bent kan je zeggen dat het allemaal gewoon wat probabilities zijn maar in werkelijkheid kan chatgpt je echt wel al heel goed op weg helpen naar bronnen.
Prima als dat werkt voor je (blijkbaar dus ook niet altijd), maar dat is niet waar die bots voor gemaakt zijn.

Kan je me cynisch noemen, is gewoon realiteit. Het zijn chatbots, maken geloofwaardige teksten alsof het door een mens geschreven is. En thats it. Wat ze zeggen is niet per se waar, het heeft zelf geen besef van wat het zegt, enkel een reeks wiskundige formules wat de grootste kans is dat het volgende woord moet zijn.

En dat wordt steeds beter door ze steeds meer data te voeren, maar besef wel hoe zon bot werkt, en wat je ervan verwacht eigenlijk niet eens realistisch is. Deze advocaten gingen daar ook de mist mee in.

Gebruik hem dus puur als ondersteuning, je zal zn resultaten altijd moeten controleren
Jij valt dus onder de bedoelde doelgroep.
Als je het abonnement hebt kan je bij chatgpt 4. Die browst automatisch het web als je iets specifieks moet weten. Terms en conditions van websites kan het bijv ook prima lezen
Maar het is wel het beste dat specifiek op te nemen in je prompts, hem te vertellen dat hij bepaalde zaken echt moet opzoeken (met eventuele vermelding van exacte bron om in te “googlen “) ipv alleen een lulverhaal te maken. En ook zonder chatgpt4 is dit mogelijk.

We hebben ook geexperimenteerd met zoekmachine integratie in gpt3, en dat ging ook prima. Je kan hem self complete sql queries laten formuleren om iets op te zoeken in een database.

En dat zal je ook moeten doen als je zeker wilt zijn dat hij bij feiten blijft (en dan nog moet je het resultaat controleren). Je moet chatgpt eigenlijk alleen gebruiken voor het netjes formuleren van je tekst, niet als een soort waarzegger, zoals deze advocaten dat deden
Bij gpt3 zal dit alleen van het moment van maken van het model zijn. Als ik met gpt 3 vraag om de terms en conditions te lezen van een bepaalde website heeft ie er ook geen zin in. Met chatgpt 4 gaat hij daadwerkelijk de huidige website opzoeken
Verwijderd @Zoop23 juni 2023 19:21
je kunt eigenlijk met elke GPT er wel een vector DB zoals DuckDB voor specifieke domein informatie of up-to-date informatie aan hangen. De DB is dan voor de inhoud en de GPT voor de formulering.
Dat zijn inderdaad al veel betere toepassingen, maar een stuk meer werk dan simpelweg het hele ding aan chatgpt te vragen.
Dat kan al prima hoor, je zal chatgpt alleen moeten vertellen wat zijn bronnen zijn.
Aangezien chatgpt niet a la minute een bron raadpleegt (het is geen bingchat) en puur een linguïstisch model is (lees heel veel wiskundige berekeningen) met het doel om tekst te genereren (wat is de kans dat woord x woord y moet volgen) een dat zodanig te doen dat het natuurlijk overkomt, ga je nog een zware klus krijgen voor het krijgen van een bron.
Abdoluut, je moet dit soort bots daarom eigenlijk alleen gebruiken voor het tekstuele stuk, er een mooi leesbaar verhaal van te maken.

De feiten zal je zelf moeten leveren (en achteraf controleren of de bot er niet te veel met zn tengels aangezeten heeft).

Het is een taal-tool, geen zoekmachine of waarzegger
De nieuwe digitale kloof is of je wel of niet efficient gebruik kan maken van AI. Bij goed gebruik is het geweldige techniek, bij slecht gebruik is het een enorme valkuil.

Het verradelijke hoeveel je gedaan krijgt met ondeugelijke methodes. Een AI als GPT is eigenlijk heel erg gericht op vorm en niet op inhoud, maar we beoordelen vaak meer de vorm dan de inhoud.

Je zou GPT kunnen vergelijken met een toneelspeler. Een toneelspeler kan allerlei rollen spelen zonder het echt te zijn. Een toneelspeler ziet er uit als een een dokter of een soldaat maar is het niet. Alleen als je zelf een dokter of soldaat bent zie je het verschil (voordat het te laat is).

Voor een leek kan het zelfs zo zijn dat de toneelspeler meer "echt" lijkt dan de echte dokter of soldaat. Als de toneelspeler een witte jas draagt en de dokter een t-shirt dan zal de leek het advies van de toneelspeler volgen.

Op een bepaalde manier krijgen wij, de mensheid, ook wel een flinke spiegel voorgehouden om eens goed naar onze eigen intelligentie te kijken. Met alleen een goed gevoel voor taal kom je best ver en kun je heel intelligent lijken, zelfs als de feiten niet kloppen.
Met alleen een goed gevoel voor taal kom je best ver en kun je heel intelligent lijken, zelfs als de feiten niet kloppen.
Dit doet me denken aan die TED talk waarbij die gast niks anders deed dan je vertellen dat "hij onzin verteld, maar je dat zo verteld dat het aanemelijk klinkt".

Tot op deze dag ben ik er niet over uit of dit een nuttige TED talk is waarvan je leert hoe te praten als je slim wil overkomen ook al heb je niks kundigs te zeggen, of een bullshit TEDtalk gezien hij letterlijk eigenlijk enkel bullshit praat op een manier dat het intelligent over komt. Die hele TED talk is een grote paradox. Maar was echt een mooi voorbeeld van hoe je taal en manier van spreken je intelligent kan laten lijken.
Is helaas wel hoe de wereld grotendeels werkt. Het wordt gerunned door de mensen die het meeste zelfvertrouwen uitstralen, mensen die overkomen alsof ze weten waar ze het over hebben, en merendeels checked dan al niet eens meer of het wel waar is wat gezegd wordt (kijk maar naar de staat van de huidige Amerikaanse politiek).

En deze bots zijn ook precies dat. Kunnen heel erg overtuigende teksten schrijven, als je er geen verstand van hebt, zou je hem zo geloven.
Weet je nog wie dat was? Ben wel benieuwd.
Dat was de Zwitserse filosoof Eigen Weiss.
Vermoedelijk wordt Will Stephen bedoeld:

https://m.youtube.com/watch?v=8S0FDjFBj8o

[Reactie gewijzigd door lulkoekje op 22 juli 2024 15:47]

Het is een briljante talk, want hij heeft het inderdaad over niets.
Maar is er iemand die tussentijd afgehaakt is daardoor?
Iedereen blijft aandachtig luisteren tot het eind.
Beschouw zijn talk zelf als middel om de typische pitching trucjes te kunnen doorzien. Net zoals Derren Brown een inkijkje geeft in de wereld van manipulatie.
Absoluut ja. Maar het laat ook heel goed zien hoe je de aandacht van een zaal vast houd.
En dat kun je zelf ook in een positieve manier gebruiken.
Volgens mij heb ik die TED talk ook gezien.

Maar ik hoop dat de meeste mensen dat niet opvatten als een presentatie om te leren slim over te komen, maar als een presentatie om te herkennen dat mensen allerlei methodes gebruik om slim over te komen.
Om te herkennen dat veel mensen veel praten, maar weinig inhoud hebben. Om er niet in te trappen.

Dan zouden er wellicht wat minder mensen met beide benen in dat Theranos verhaal getrapt zijn.
Die Elisabeth Holmes was ook iemand die heel goed wist hoe ze heel goed en overtuigend over kwam. Maar als je daar doorheen keek dan waren de rode vlaggen van het begin af aan overduidelijk.
Die kloof van wel of niet met ai kunnen omgaan zal heel snel gedicht worden. De basis is heel snel gegroeid de laatste maanden, nu zal er meer en meer aandacht komen hoe die gebruikers het goed kunnen gebruiken.
Je zou GPT kunnen vergelijken met een toneelspeler.
Dit fenomeen wordt AI hallucination genoemd.
https://en.wikipedia.org/...(artificial_intelligence)

Enkele mogelijke redenen voor AI Hallucinatie (volgens CHAT GPT ;) ):

1 Trainingsdata: AI-modellen worden getraind met grote hoeveelheden gegevens, zoals afbeeldingen, geluiden of teksten. Als de trainingsdata bepaalde patronen of kenmerken bevat die ongewone of onrealistische combinaties mogelijk maken, kan het model tijdens het generatieproces vergelijkbare ongewone output produceren.

2 Complexiteit van het model: Moderne AI-modellen, zoals deep learning-netwerken, kunnen zeer complexe structuren bevatten met miljoenen of zelfs miljarden parameters. Deze complexiteit kan ertoe leiden dat het model subtiele patronen in de trainingsdata oppikt en probeert te reproduceren, zelfs als deze patronen niet overeenkomen met de werkelijkheid.

3 Overfitting: Tijdens het trainingsproces kunnen AI-modellen soms te veel aandacht besteden aan specifieke details in de trainingsdata en deze overdreven benadrukken. Dit kan resulteren in AI-hallucinaties waarbij het model overdreven gevoelig is voor bepaalde kenmerken en onrealistische output produceert.

4 Gebrek aan contextueel begrip: AI-modellen missen vaak een diepgaand begrip van de context waarin de gegenereerde inhoud zich bevindt. Ze kunnen moeite hebben om relevante informatie en logische consistentie te begrijpen, waardoor ze onrealistische of verwarrende output genereren.

De vergelijking met een toneelspeler vind ik dan ook niet helemaal passend.

[Reactie gewijzigd door nullbyte op 22 juli 2024 15:47]

AI gegenereerde antwoorden levert je op veel websites al een ban op, moeten ze hier ook maar eens mee beginnen...
Indien gebruikers berichten plaatsen op tweakers.net met output van Language Model (LM) generators zoals GPT-3, is het belangrijk om eerst te beoordelen of deze berichten voldoen aan de communityrichtlijnen en huisregels van de website. Als de output in strijd is met de regels, kan het beheer van de website ervoor kiezen om actie te ondernemen, zoals het verwijderen van berichten of het beperken van de rechten van de betreffende gebruikers.

Als de output echter informatief en constructief is en binnen de regels van de website valt, kunnen dergelijke bijdragen waardevol zijn voor de community. In dit geval is het mogelijk niet nodig om gebruikers te bestraffen voor het gebruik van LM-generators.

Uiteindelijk is het aan de moderators en beheerders van de website om te bepalen hoe ze omgaan met dergelijke situaties en of ze gebruikers al dan niet willen bannen op basis van hun bijdragen met behulp van LM-generators.
Aldus ChatGPT :p
Leuk, maar ik ga die drek niet lezen :) schrijf zelf maar wat.
Het was niet serieus bedoeld, maar als je het niet leest, hoe weet je dan zo zeker dat het drek is?
Omdat ik inmiddels genoeg ChatGPT tekst heb gelezen om te weten hoe het geschreven wordt.
Op een bepaalde manier krijgen wij, de mensheid, ook wel een flinke spiegel voorgehouden om eens goed naar onze eigen intelligentie te kijken. Met alleen een goed gevoel voor taal kom je best ver en kun je heel intelligent lijken, zelfs als de feiten niet kloppen.
Niks nieuws onder de zon, daar heeft de mensheid al jaren TI voor... Trump Intelligentie
Is ook een stukje gebrekkige kennis van de gebruiker. Als je niet weet hoe je een goede prompt moet schrijven en/of je de AI geen gelegenheid geeft om zijn antwoord te verbeteren, krijg je matige output. Dat gezegd hebbende, moet er nog gewerkt worden aan tekortkomingen en zou ik er zeker geen zaken aan voorleggen die van levensbelang zijn.

Maar binnen niet al te lange tijd vragen we waarschijnlijk liever een AI voor een medische check up (met parate kennis van letterlijk alles op medisch gebied) dan dat we een dokter vragen die het moet doen met wat er in zijn brein past, hoe zijn geheugen is en of hij toevallig net een slechte dag heeft waardoor hij/zij net niet jouw specifieke issue kan zien of herkennen.
Het blijft altijd dingen verzinnen hoor, ongeacht de prompt!

[Reactie gewijzigd door Weicool op 22 juli 2024 15:47]

Als advocaat lees je toch eerst wat je indient? Voor die prijzen verwacht ik dat in ieder geval wel.. helemaal in Amerika.
Ik heb daarnet nog aan den lijven ondervonden dat ChatGPT totaal NIET kan rekenen.
Ja, GPT-4 is maar slechts marginaal beter hierin, en het kan ook geen simpele string manipulaties uitvoeren, of sommige fout gespelde Nederlandse woorden juist herkennen, of sommige Nederlandse rijmwoorden juist herkennen. Of zelfs zoiets simpels als een versielijst chronologisch sorteren: https://github.com/openai...4#issuecomment-1600831419

[Reactie gewijzigd door Weicool op 22 juli 2024 15:47]

Is ook van de zotte; Een LLM gebruiken om iets uit te rekenen op een COMPUTEr.
Daar heb je natuurlijk weer LLM plug-ins voor, zoals de WolframAlpha en Code Interpreter plugins voor ChatGPT
Waarom verwacht je dat een tekst generator een wiskundige berekening kan uitvoeren? Als een calculator de berekening verkeerd uitvoert zou ik je volkomen gelijk geven, maar een tekst generator die niet kan rekenen....tja. straks verwachten we ook dat chatgpt alle antwoorden feitelijk en waarheid getrouw kan beantwoorden en rekening houdt met culturele verschillen bij het antwoorden...oh wacht....
Perplexity.ai

Vult voor mij dat gat al behoorlijk.
Bronvermelding staat niet gelijk aan feitelijke informatie!!

Maar zowel Microsoft als Google zijn druk bezig met het maken van AI met bronvermelding. Iig in hun zoekmachines enz. Dus dat stukje komt wel goed.
Ik vraag me af wanneer één van die AI toko's in dat gat springt?
Ik hoop heel snel, en dan pubmed en consorten dagelijks scrapen
Waarom? Zelfs hier op Tweakers zijn er een hele hoop mensen die de gevaren écht niet in zien, laat staan een advocaat die 80 uur per week moet werken om de ladder te beklimmen en nooit meer met een computer heeft hoeven doen dan documenten verwerken en mailtjes sturen.

Onwetendheid prima, maar er zijn best veel slimme mensen die niet op ieder vlak evenveel kennis bezitten. Kijk maar naar hoeveel universiteiten geraakt worden door ransomware ;)
Als je als advocaat al niet weet hoe de verschillende boeken worden geduid in een zaaknummer en niet weet dat als het niet in het boek voorkomt het simpelweg niet bestaat dan ben je echt ongeschikt voor je vak en moet je wat anders gaan zoeken. Ik ben monteur en zelfs ik weet dit.
Maar jij weet dat je van ChatGPT kunt verwachten dat er foute info uitkomt, niet iedereen is daar van op de hoogte.
Dat maakt niet uit.

Je moet als advocaat of je info van Google, ChatGPT, Je buurman of een engeltje op je schouder komt altijd je informatie controleren aan de hand van de originele bron.

Google is net als elke andere zoekmachine ter wereld ook niet een bron om zulke informatie van over te nemen Google is een hulpmiddel om snel bij de originele bron uit te komen waar het gaat om citaten uit andere zaken.
Zoals andere melden heeft LegalEagle hier een mooie video over gemaakt.

Ik heb aardig lopen lachen zelfs de absolute basis ( even linkje checken en de case bijv lezen of zelf maar even kijken of het bestaat |:( ) en dan gewoon glashard blijven liegen tegen de rechter.

Blijf me erover verbazen want het is niet alsof dit niet bekend is vanaf dag 1 ... en dan toch 1op1 over kopieren |:( 8)7
Als er een 'LegalOverflow' zou bestaan zouden daar ook gewoon de teksten overnemen zonder controle.
Liegen bij een rechter vind ik eigenlijk wel reden voor een schorsing. Dat je onjuiste stukken indient is natuurlijk al not-done, maar er daarna over liegen is wel heel erg...
Ik ben inderdaad ook wel verbaasd dat het slechts een boete van 4.6k is.

Ik dacht dat ze inderdaad wel geschorst of iets in die trant zouden krijgen misschien omdat het zo amateuristisch gedaan is en je opzich kunt zeggen dat de Intent niet er was om de rechtbank voor te liegen maar het slechts totaal amateurisme is geweest en gevalletje 1 keer maar nooit meer.

Opzich lijkt het me wel mogelijk dat ze aangeklaagd worden door hun eigen client aangezien ik betwijfel dat ze niet de uren gedeclareerd hebben :+

[Reactie gewijzigd door Zyphlan op 22 juli 2024 15:47]

Als je het equivalent bedoelt van Stack Overflow, dan bestaat dat al. Die site is Law.StackExchange.com. En nee, daar kun je echt als advocaat geen stukken van overnemen.
Die boete is 🥜 voor zo’n advocaat!
Op dit moment wel ja, maar nu worden twee precedenten gezet: 1) het gebruiken van nep-zaken in een rechtszaak mbv ChatGTP is een criminele feit en 2) advocaten kunnen daarvoor beboet worden.

Nu over de hoogte valt te discussiëren, maar dit is voor een iedereen nog wel een recentere ontwikkeling, dus het kan oplopen bij de volgende keer.
Het is niet echt een nieuw precedent. Het indienen van valse 'case citations' is fraude in een officieel document. Daar kon al een boete (of erger) voor worden uitgeschreven.
Ze kwamen er nog goed van af door de uiteindelijke verklaring en het betuigen van spijt.
Ik ben verbaasd dat het een boete is ipv dat hun licentie is ontnomen.
Hier een video van LegalEagle die het zeer goed uitlegt hoe en wat er mis ging hier.
Tis bijna lachwekkend zoals die advocaten er zelfs na vragen over blijven liegen tegen de rechter.
Vraag me af welke versie van ChatGPT ze gebruikt hebben en hoe ze geprompt hebben. Natuurlijk was dit een aanfluiting maar LegalEagle gaat wel een beetje kort door de bocht door dit als voorbeeld te nemen waarom AI geen advocaten gaat vervangen ("not any time soon").

Een AI die goede training heeft op juridisch vlak (én up to date is tot nu ipv 2021), beschikt gewoon over instant parate kennis van het volledige wetboek, tot de kleinste uitzonderingen in de wet aan toe + het verloop en uitkomst van letterlijk alle rechtszaken.

Als de training van het model en de prompting goed gebeuren, heeft een advocaat niets extra's te bieden.
Tja... wat je zegt is eigenlijk "het zou goed zijn gegaan, als er niets fout gaat" .... :) :)
Helemaal niet. Wat ik zeg is "het had goed kunnen gaan", op dit moment is AI hier nog niet op getraind, misschien wel modellen die niet publiekelijk toegankelijk zijn maar we gaan sowieso een toekomst tegemoet waarin een AI véél beter juridisch kan helpen dan welke advocaat dan ook. Dit is een kwestie van enkele jaren.
Je kunt Bing AI op precise-mode zetten, maar dan vindt het weer bijna niks dat geen exacte match is. Creative-mode 💭 is dol op 🦄 dingen verzinnen en is mijn favoriet 😍

[Reactie gewijzigd door Weicool op 22 juli 2024 15:47]

Het is niet eens een kwestie dat de AI hier niet op getraind is.
Het punt is dat een LLM hier totaal niet geschikt voor is.

Kun je een ander soort AI maken die speciaal gemaakt is om jurisprudentie door te spitten om vergelijkbare zaken te vinden? Ja, uiteraard kan dat.

Het probleem is dat mensen niet in de gaten hebben dat de ene AI niet de andere is.
Je moet het juiste gereedschap gebruiken voor een klus.

Als je alleen maar een hamer hebt, lijkt elk probleem op een spijker. (vrij vertaald)
Iedereen heeft nu de beschikking gekregen over een hamer (LLM) en gaan nu voor elk prolbeem die hamer (LLM) inzetten.
Er zijn wel degelijk extra's te bieden door een competente advocaat. De rol van een advocaat is niet alleen zijn client verdedigen, maar ook om deze advies te geven EN te weten welke stappen best ondernomen worden.
Adviseren en weten welke stappen er ondernomen kunnen worden staat letterlijk in een boek. Dat is JUIST wat AI weet. Heb je liever een computer die alle kennis 100% accuraat paraat heeft of een mens die het van zijn geheugen moet hebben? Nogmaals, ik geloof niet dat we daar nú zijn, maar lang duurt het niet.

Je argument is een beetje net zoals mensen die denken dat alleen échte doktoren empathie kunnen tonen bij een slecht nieuws gesprek. Hier is al onderzoek naar gedaan, AI is misschien een computer maar het begrijpt het concept empathie en kan dat gewoon toepassen in teksten. Beter dan een dokter die een keer chagrijnig is of even niet meer precies weet hoe iets medisch ookalweer zit. Ze hebben dit getest en ChatGPT werd beter beoordeeld dan doktoren. Zie hier.

Het is overigens niet zo dat het gemiddeld beter was en dat er een paar hele slechte cases bij zaten, die waren er niet.
Volgens mij staan doktoren juist bekend dat ze slecht nieuws gesprekken heel slecht voeren. Dus dat ChatGPT beter werd beoordeeld verbaast me niks.
Maar er zijn daarbij ook dingen van belang die in die beoordeling waarschijnlijk niet mee zijn genomen. Namelijk is de inhoud ook even goed over gekomen? Bv dat er totaal geen hoop is en het maar een kwestie van een paar maanden is. Of heeft ChatGPT valse hoop gegeven doordat het de informatie op een fijnere manier bracht?

Het punt bij de advocaten is dat ze bij een complexe rechtzaak door heel veel jurisprudentie moeten gaan, en daar zal een AI ongetwijfeld veel sneller relevante zaken kunnen vinden, die vervolgens door een jurist doorgespit kunnen worden.
Maar dan gebruik je het als een geavanceerde google search.
Als de training van het model en de prompting goed gebeuren, heeft een advocaat niets extra's te bieden.
Het gaat natuurlijk vaak om de interpretatie van de wet. En voordat een AI dat net zo goed kan als een advocaat, dat gaat nog wel even duren.
De AI zal wel snel een vergelijkbare zaak kunnen opzoeken.

De reden dat we rechters hebben is omdat de wet niet zwart/wit is maar grijs. Daar zit een probleem met AI. (Krijgen we computer rechters zoals de Buck Rogers tv show? Zal wel van voor jullie tijd zijn :))
Maar er zijn daarbij ook dingen van belang die in die beoordeling waarschijnlijk niet mee zijn genomen. Namelijk is de inhoud ook even goed over gekomen?
Dit is natuurlijk 100% een kwestie van de juiste prompt schrijven.
Het gaat natuurlijk vaak om de interpretatie van de wet.
Daar is toch niets magisch aan? Dat is heel feitelijk. En als dat niet zo is, dan is de wet niet goed geschreven.
De AI zal wel snel een vergelijkbare zaak kunnen opzoeken.
AI is meer dan een zoekmachine.
De reden dat we rechters hebben is omdat de wet niet zwart/wit is maar grijs.
AI kan prima meerdere interpretaties en perspectieven bieden, meer en veel minder biased dan een mens dat kan.

Maargoed, ik staak de discussie. Ik vond het wel interessant maar ik wordt enkel gedownvote in tegenstelling tot alle andere reacties. Laten we elkaar over een jaar of 2 nog eens spreken. Ik zou er iig niet zo zeker van zijn dat de wereld nog erg lijkt op die van nu.
Nou -- het minste dat de advocaat aan "extra's" kan bieden is controleren of de output wel klopt.
Want je kunt hoog of laag springen met je model, het feit is dat taalmodellen van het soort dat ChatGPT is gewoon dingen kunnen verzinnen die niet letterlijk in de input stonden, en zelfs als ze wel correcte output genereren kunnen ze niet aangeven op basis van welke input dat ging. Dat is zowel de grote kracht ervan als de zwakte.

Wat een advocaat bij de rechtbank indient is niet alleen maar "dit staat er in de wet en dit zijn nog wat andere zaken die relevant zijn", maar een sluitend verhaal waarom jouw kant van de zaak wel klopt en die van de tegenstander niet. Een zekere mate van originele compositie komt daar nog steeds bij kijken, en hoewel dat dan bij uitstek iets is waar een generatief model bij kan helpen, is het dus ook iets waar een generatief model mee de mist in kan gaan.

Kan dat alles in zijn geheel vervangen worden door automatiek zonder dat er nog een mens aan te pas komt? Wellicht, maar op dit moment nog niet. Dat afdoen met dat de training en de prompt maar goed moeten zijn is te makkelijk, daar zit hem nou net een groot gedeelte van de uitdaging.
Ik heb ook niet gezegd dat we daar nu zijn, zeker niet met ChatGPT 3.5. Dus ja, álle output moet gecheckt worden door competente experts voordat het toegepast wordt op belangrijke zaken.

Je overige issues zijn echt geen probleem voor AI om te tackelen. Misschien houd je nog even 10% van je advocatenkantoor in dienst om te checken/sturen. Maar binnen een paar jaar is het echt klaar hoor. We gaan een grote verandering tegemoet op de arbeidsmarkt.
Belangrijke zaken? De cliënt zal ongetwijfeld ook een mening hebben over hoe belangrijk de zaak is. Een zaak verliezen op een bedieningsfoutje van de AI staat meer dan knullig, het kan je als advocatenkantoor makkelijk je reputatie kosten. Zeker als dit vaker gebeurt omdat het "toch niet zo belangrijk is" (want het gaat niet om een strafzaak of dodelijk letsel o.i.d.)

Zal AI ervoor zorgen dat mensen minder werk hebben aan dit soort dingen? Ongetwijfeld. Gaan kantoren 90% van hun advocaten ontslaan door die winst? Dat vind ik toch wat boud om te stellen. Ik vermoed dat het echte percentage een stuk lager gaat liggen. De tijd zal het uitwijzen.

[Reactie gewijzigd door MneoreJ op 22 juli 2024 15:47]

Ik bedoelde belangrijke zaken in het algemeen. Daar vallen doorgaans rechtszaken altijd wel onder. Minder belangrijk is bijvoorbeeld marketingmateriaal. Maar zelfs dan wil je bijsturen. Voor nu is het vooral een tool, een eerste opzet voor dingen. Het is die eerste opzet die doorgaans voor mensen veel tijd kost.

Wat die 90% betreft, dat lijkt me een kwestie van tijd. Als je over 2 jaar kijkt, dan niet nee. Maar 5, of 10?
Maar ChatGPT kan geen onderscheid maken tussen fout en juist, echt en niet te echt. Als iets plausibel klinkt maar het bestaat niet dan komt het er gewoon uitrollen. Dit is een fundamentele tekortkoming van taal modellen en ik denk niet dat het ooit helemaal zal verdwijnen. Dus daarom denk ik ook dat de meeste beroepen wel veilig zijn...

[Reactie gewijzigd door langestefan op 22 juli 2024 15:47]

Naast het vinden van teksten is het van enorm belang om de teksten correct te kunnen interpreteren en dan de zienswijze op te stellen welke de raakvlakken duidt van een andere zaak met jouw zaak.

ChatGPT heeft dit zelfs nog niet in zicht als optie, dat gaat nog vele en vele jaren duren voor er een AI is die zelfs maar in de buurt komt van zoiets.

LegalEagle gaat hier helemaal niet kort door de bocht. Dit was zo slecht dat het gewoon weer humor wordt, daarom denk ik ook dat de rechter zo mild was in de bestraffing.
LegalEagle zegt dat het niet op korte termijn gaat gebeuren. Ik denk van wel. Het is allebei speculatief, maar met wat ik de afgelopen maanden gezien en gelezen heb, denk ik dat het de komende tijd heel snel gaat.

ChatGPT is een algemene AI die ook flink bijgestuurd is om sociaal wenselijk te zijn. Daar heb je voor juridische zaken weinig aan. Er komen wel andere AI's die er specifiek op getraind zijn. Het interpreteren van een complexe tekst en de relatie vinden met een situatie is voor een AI echt geen moeilijke taak. Lijkt mij makkelijker dan voor een mens.

Maargoed, laten we dit moment onthouden. Spreek je graag over een jaar nog eens. Ik hoop overigens dat ik ongelijk heb.
Correcte interpretatie en het kunnen herleiden naar je eigen situatie is juist zeer complex. En het mag volgens jou dan voor een AI geen moeilijke taak zijn, vooralsnog is er geen AI die zelfs maar in de buurt komt van wat hiervoor nodig is.

(Jammer dat we geen reminder kunnen zetten zoals op Reddit)
vooralsnog is er geen AI die zelfs maar in de buurt komt van wat hiervoor nodig is
Is dit een aanname of een feit? Er is meer dan ChatGPT en veel in ontwikkeling of enkel achter gesloten deuren beschikbaar. Ik zou er iig niet zo zeker van zijn.

Anyway, ik haak af. Mijn bijdragen worden duidelijk niet gewaardeerd. De tijd zal het leren.
Ben benieuwd of de advocaten dan ook minder uren hebben gerekend aangezien ze het resultaat dus niet eens hebben gecontroleerd. Je betaalt over het algemeen per uur voor advocaten en daardoor lopen de kosten zo hoog op (hoewel er natuurlijk genoeg voorbeelden zijn van advocaten die voor weinig of niets werken om mensen te helpen - hangt af van de advocaat en hoe diep de zakken van de client zijn).
Bespaarde tijd door AI is natuurlijk gewoon pure winst. Als prijzen zakken zal dat hooguit over verloop van tijd gaan omdat de algehele markt het goedkoper kan aanbieden, maar echt niet eerder.
Besparingen zijn nooit voor de klant ;)
Ligt eraan wat je doel is.
Marktaandeel vergroten door een scherpere prijs naar je klant of kosten verlagen en je winstmarge vergroten.
Dat is natuurlijk onzin.

Wij hadden met ons technisch team zelfs de opdracht om mee te denken met de klant omtrent hoe we konden besparen op onze eigen uren om daarmee de kosten voor de klant te drukken. Als je dat niet doet dan komt er een dag dat een ander bedrijf een offerte voor onderhoud neerlegt welke onder die van jou duikt en dan heb je niets meer.
Je kunt ook met Google op pagina's komen waarop verzonnen zaken staan of verkeerde/verdraaide feiten. Als je niets controleert, ben je gewoon dom/lui bezig. Zeker in een rechtszaak zou ik niet zomaar gegoogelde of chatgpt verhalen gaan gebruiken zonder even een sanity check uit te voeren.

Sidenote: krijgen we nu elke week een nieuw verhaal te horen hoe iemand dom bezig is met ai? Het is nl hetzelfde als iets van je domme buurman overschrijven terwijl je niet weet of die buurman het wel goed heeft Geen nieuwswaarde, alleen maar clickbait waarde omdat ai momenteel helemaal hype is. Word er een beetje moe van.
De nieuwswaarde is dat het laat zien dat mensen AI's totaal niet begrijpen en daardoor zwaar de mist in gaan. Het is van belang dat mensen dat lezen, zodat ze zelf twee keer nadenken voor ze ook een AI zomaar gaan gebruiken.

Zeker met al die jubel stemming over AI is dit geluid om mensen weer met beide benen op de grond te krijgen van belang.
Tsja...AI is prachtig, maar het blijft een domme computer die niet weet wat ie doet. Twaalf jaar geleden kon IBM's Watson ook al hele slimme dingen met taal, maar als ie de fout in gaat, maakt ie hele rare fouten.

[Reactie gewijzigd door mphilipp op 22 juli 2024 15:47]

Voor een jurische deepdive (in het Engels) heeft LegalEagle hier recentelijk een video over gemaakt: https://www.youtube.com/watch?v=oqSYljRYDEM
Voor een diepere analyse, kun je op Youtube LegalEagle's video hierover vinden. Het is nog absurder dan je zou denken.
Had deze gisteren al gezien, kan zeker aanraden hem te bekijken!
Het staat allemaal nog in de kinderschoenen. Nu er usercases komen, (die dus nog niet helemaal werken) zullen er toepassingrn voor die specifieke usercases komen.

Op dit item kan niet meer gereageerd worden.