Noyb dient klacht in over ChatGPT wegens valse beschuldigingen over kindermoord

Privacyorganisatie noyb heeft in Noorwegen een klacht ingediend over OpenAI, de maker van ChatGPT. ChatGPT kan 'hallucineren' en foutieve informatie geven, wat volgens noyb tegen de privacywet AVG in gaat.

"ChatGPT heeft mensen in het verleden ten onrechte beschuldigd van corruptie, kindermisbruik of zelfs moord", zegt noyb op zijn website. Een zo'n geval is nu de directe aanleiding voor de klacht van noyb. Het gaat om een Noorse man die ChatGPT vroeg wat het over hem wist. ChatGPT reageerde met een nepverhaal. ChatGPT stelde dat de man twee van zijn kinderen heeft vermoord en geprobeerd heeft ook zijn derde kind te vermoorden. Hij zou vervolgens veroordeeld zijn tot 21 jaar gevangenisstraf.

Het verhaal bevatte echter ook delen die wel klopten, zoals de namen en het geslacht van de kinderen en de naam van de stad waar hij woont. Die mix van herleidbare persoonlijke informatie en valse informatie is volgens noyb een duidelijke schending van de AVG. Volgens de privacywet moeten bedrijven ervoor zorgen dat de persoonlijke data die zij over individuen produceren accuraat is, aldus noyb.

Dat ChatGPT en andere taalmodellen kunnen hallucineren is al langer bekend. Critici waarschuwen daar al sinds het begin over. Chatbots als ChatGPT laten daarom een disclaimer zien aan gebruikers, waarin gewaarschuwd wordt dat de chatbot fouten kan maken. Volgens noyb-advocaat Joakim Söderberg is dat echter niet voldoende. "Je kunt niet zomaar valse informatie verspreiden en onderaan een kleine disclaimer toevoegen waarin staat dat alles wat je hebt gezegd misschien niet waar is", zegt hij. "De AVG is duidelijk. Persoonlijke data moet accuraat zijn. Als dat niet zo is, hebben gebruikers het recht om de informatie te laten wijzigen, zodat deze wel de waarheid weergeeft."

Noyb vraagt de Noorse toezichthouder nu om OpenAI te dwingen om de valse informatie te verwijderen. Ook moet OpenAI gedwongen worden om zijn model te verfijnen, om onjuiste resultaten met betrekking tot de klager te elimineren. Verder wil noyb dat de verwerking van de persoonsgegevens van de Noorse man beperkt wordt en dat OpenAI een boete krijgt. AVG-boetes kunnen oplopen tot maximaal vier procent van de wereldwijde omzet.

Noyb diende vorig jaar ook een AVG-klacht in over OpenAI. Ook bij die zaak ging het om de 'hallucinaties' van ChatGPT en het onvermogen voor de chatbot om verkeerde informatie over individuen te corrigeren. In dat geval ging het om de persoonlijke gegevens van een niet nader genoemd 'publiek figuur', van wie herhaaldelijk de verkeerde verjaardag werd aangegeven.

Door Eveline Meijer

Nieuwsredacteur

20-03-2025 • 14:18

109

Submitter: Maurits van Baerle

Lees meer

Reacties (109)

Sorteer op:

Weergave:

Is dingen verzinnen daadwerkelijk privacygevoelige informatie? Lijkt me dan eerder om zaken als fraude, smaad of laster te gaan afhankelijk van de context.
Als het enkel om verzonnen informatie zou gaan wellicht niet (weet ik niet zeker).

Echter ging het dus om door OpenAI verzonnen dingen, gemengd met feitelijke informatie. En dát maakt het dus tot een (mogelijke) schending van de AVG:
ChatGPT reageerde met een nepverhaal. ChatGPT stelde dat de man twee van zijn kinderen heeft vermoord en geprobeerd heeft ook zijn derde kind te vermoorden. Hij zou vervolgens veroordeeld zijn tot 21 jaar gevangenisstraf.

Het verhaal bevatte echter ook delen die wel klopten, zoals de namen en het geslacht van de kinderen en de naam van de stad waar hij woont. Die mix van herleidbare persoonlijke informatie en valse informatie is volgens noyb een duidelijke schending van de AVG. Volgens de privacywet moeten bedrijven ervoor zorgen dat de persoonlijke data die zij over individuen produceren accuraat is, aldus noyb.
Dat er naar gekeken wordt lijkt dus minstens terecht om te zien of er idd een schending van de AVG plaatsgevonden heeft.

Het is me namelijk nogal wat, waar die man in feite voor uitgemaakt wordt (zijnde als moordenaar van 2 van zijn kinderen). Dat is geen kleinigheidje.
De bestaande info zou technisch gezien onder AVG kunnen vallen, maar het verzonnen deel klinkt dan naar mijn idee toch echt als laster.

Maar ik ben absoluut geen jurist, dus ben heel benieuwd hoe dit zich gaat uitspelen in de rechtbank. Zal ongetwijfeld ook wel gevolgen gaan hebben voor andere toepassingen (wat als je autocorrect woorden suggereert bijvoorbeeld).
Het punt hier is dat de laster alleen maar mogelijk is doordat ChatGPT de privacywetgeving schendt door op de vraag te antwoorden met deels correcte en deels fictieve informatie. Daarin zit het probleem. Had ChatGPT enkel geantwoord met de correcte informatie die bekend was over de man, was het probleem een heel stuk kleiner geweest.

Maar stel je even voor. Ik vraag ChatGPT om mij een lijst te maken van gekende moordenaars die bij mij in de streek wonen en ChatGPT geeft mij een lijst met namen. Dan vraag ik informatie op over 1 van die personen, en ChatGPT geeft mij voldoende informatie om die persoon op te sporen maar verzint er daarnaast een heel verhaal bij over de zogenaamde gruwelijkheden die die persoon heeft gepleegd.

Zie je nu waarom dit een probleem begint te worden?

Te veel mensen nemen de antwoorden van LLMs aan als waarheid, terwijl het een taalmodel is, geen zoekmachine. Het geeft antwoorden die er geloofwaardig uit zien, maar geeft niet om correctheid.
Ik denk dat de het gemend is met feitelijk informatie ervoor zorgt dat de verzonnen "echter" lijkt, en dat is ook het argument dat noyb aandraagt. Als ChatGPT deels persoongegevens heeft en produceert in een output, dan moet alles correct zijn. En ik vind dit ook wel terecht.
Plus het algemene recht om te worden vergeten...
Oh jee als AI ook data van wappies gaat gebruiken...
En zelfs zonder die 'beschuldiging' is het nogal bijzonder dat dergelijke informatie in het model zit (de namen van zijn kinderen). Misschien is het handig dat het dit weet (om kruisverbanden te kunnen leggen) maar het dan vrijgeven is weer een ander verhaal. Al had deze het in dit geval vrijgegeven aan de 'eigenaar' van de gegevens. Maar ik betwijfel of die check door het systeem wordt gedaan.
Ik vind het redelijk dapper om je te beroepen op privacywetgeving in deze context. De enige reden dat ChatGPT over die gegevens kan beschikken is omdat je ze zelf online hebt gezet. Voor de rest - het blijft (unpopular opinion) een dom stuk software die er een leuk verhaaltje omheen prakt, maar het credo blijft, ook met "AI", dat je altijd gewoon zelf moet blijven nadenken.
Ik durf er niet op te vertrouwen dat iedereen dat doet. Pizzabate is een voorbeeld van wat fout kan gaan als mensen niet nadenken. Brand roepen in een theater mag ook niet. [domme vraag] De andere bezoekers kunnen toch zelf ook controleren? Dus waarom is dat erg? [/domme vraag]

[Reactie gewijzigd door Milmoor op 20 maart 2025 19:05]

het is natuurlijk een ding als je dit bij chatGPT zelf leest of dat je met dubieuze motieven met deze informatie aan de haal gaat en verder verspreiden het doel iemand heel erg zwart te maken.

Voor je het weet gaat zoiets een eigen leven leiden en krijg je een reactie van waar rook is is vuur. en maak je iemands leven kapot met leugens, en de daders zijn niet te achterhalen want iedereen hoorden het van een ander.
Dat die gegevens ergens online staan betekent niet dat ChatGPT ze mag verwerken.

Dat is nou juist de essentie van de AVG. Je mag gegevens alleen verwerken voor het doel waarvoor ze afgegeven zijn. Gebruik door ChatGPT is duidelijk een ander doel.
De enige reden dat ChatGPT over die gegevens kan beschikken is omdat je ze zelf online hebt gezet.
Dit is in niet alle gevallen juist. Als een krant bijvoorbeeld voetbaluitslagen publiceert en ook de opstelling van een team, dan sta je opeens op internet, zonder dat jij dit zelf gedaan hebt. En zo zijn er nog veel meer voorbeelden te noemen, dus die vlieger gaat niet op.
maar het credo blijft, ook met "AI", dat je altijd gewoon zelf moet blijven nadenken.
Als iemand op ChatGPT beschuldigd wordt van moord, hoe moet ik er dan achter komen dat dit niet waar is? Omgekeerde bewijslast is heel moeilijk te leveren.
Het gaat om een publiek figuur, dus die informatie is 'gewoon' op internet te vinden. Net zoals wij ook weten hoe de kinderen van Willem-Alexander en Máxima heten. Of de kinderen van Mark Rutte.
Dus zó heel raar is dat ook weer niet, want in principe weet ChatGPT alles wat er op internet te vinden is.
Het gaat om een publiek figuur, dus die informatie is 'gewoon' op internet te vinden.
Ik heb waarschijnlijk het stukje gemist dat de man een publiek figuur is. Waar heb jij dit gevonden?
Waarschijnlijk op nu.nl dan of elders. Maar het was een publiek persoon maar ze wilden niet bekendmaken wie.
De kinderen van Mark Rutte? Ben wel benieuwd wat jij daarover kan vertellen :)
Heeft iemand wel echt onderzoek gedaan of er niet toevallig iemand anders is die hetzelfde heet en ook daar in de buurt woon(de) en wel moorden heeft gepleegd? Want de AI haalt het ergens vandaan.
Nee, de AI haalt het niet ergens vandaan. De AI verzint het gewoon.
Daar zijn al talloze andere voorbeelden van.
Bv deze bekende in Australië: https://www.theguardian.c...ig-four-consultancy-firms
In de VS zijn er ook de nodige voorbeelden van advocaten die AI gebruikten in hun pleidooi en verwezen naar eerdere vergelijkbare rechtzaken. Maar het bleek dat die eerdere rechtzaken compleet verzonnen waren.
Weet je dat ik volgens DeepL in SpanGas heb meegespeeld en al mijn familieleden en vrienden ook.
Ik heb gelijk de omroep gebeld wanneer ik eindelijk eens uitbetaald word. Je gelooft het niet, maar ze verzinnen het waar je bij staat. :)

Edit: Een letter toegevoegd

[Reactie gewijzigd door Aldy op 21 maart 2025 15:42]

De vraag is eigenlijk, verzint een AI zulke dingen?
(Hiermee geef ik niet aan dat het waar is wat de AI zegt)
Zal een AI zomaar verzinnen dat een willekeurige persoon een moordenaar is?
Of heeft het gewoon dat stukje ergens gelezen in een chat in de trainings data en voor waar aangenomen?

Het lijkt mij eerder dat een mens deze leugen heeft verteld en de AI het heeft overgenomen.
Is het dan dat de AI hallucineert of getraind is met foute data.
Als het de laatste is dan lijkt mij de mens die het eerst geroepen heeft, de boosdoener is.

Beetje een geval van symptomen bestrijden ipv het werkelijke probleem.
Ja, een AI verzint die dingen gewoon.

Of liever gezegd koppelt allerlei zaken aan elkaar. Dus ja, de AI heeft ooit over een kinder moord gelezen en ooit los daarvan over een andere moord. En los daarvan gemerkt dat Piet een veel voorkomende voornaam is en Puk een veel voorkomende achternaam.
En de AI heeft gemerkt dat er veel verhalen zijn over criminelen en minder verhalen over onschuldige mensen.
En zo kan de AI dan een aantrekkelijk verhaal produceren waarbij de ene moord aan een willekeurige andere gekoppeld word en er een willekeurige voornaam bij gekoppeld word en een willekeurige achternaam.
Maar als je zelf al een voor en achternaam gegeven hebt, dan denkt de AI: Handig dan hoef ik die zelf niet te verzinnen, maar dan gooi ik er wel die twee moorden bij, want verder is er weinig interessants te vertellen over mensen met die voor en achternaam.
Die AI's zijn gemaakt om een leesbare tekst te maken die lijkt alsof ie door een mens geschreven is. AI's beseffen niet dat dat onacceptabel is.
Ja, een AI verzint die dingen gewoon.
Hoe weet je dat? Copy-Paste is niet "verzinnen"
We weten ondertussen wel dat elke mens verhalen kan verzinnen en gebruiken het als training data.
Hoe ben je er zo zeker van dat de AI het zelf verzonnen heeft?
En de AI heeft gemerkt dat er veel verhalen zijn over criminelen en minder verhalen over onschuldige mensen.
De vraag is. Waren die verhalen er eerder of heeft de AI iets verzonnen en er verhalen van gemaakt?

We kunnen wel steeds de schuld af schuiven op een zooitje binairte data maar het moet ergens vandaan komen.
Ik vond het behoorlijk verfrissend om een keertje met Grok te klooien want je kan het instellen dat het letterlijk elke bron waar het doorheen loopt aangeeft. Je wordt haast dood gegooid met een waterval van data.
Gaan we nou doen alsof ChatGPT dat niet kan? Het is eerder dat het bewust niet zichtbaar wordt gemaakt.

Waarom is de vraag om de training aan te passen i.p.v waar komt dat stukje data vandaan? Grok bewijst dat het kan.
Over het algemeen kan ik me prima vinden in je verhaal, maar die laatste twee zinnen vind ik een beetje vreemd. De een na laatste zin doet veel te kort aan de huidige AI, zelfs aan de LLM's. De laatste zin over het schrijven van leesbare tekst "die lijkt alsof ie door een mens geschreven is" lijkt me niet het onderliggende probleem van de huidige AI's aan te geven.

[Reactie gewijzigd door uiltje op 21 maart 2025 16:33]

Stel ik vraag ChatGPT wat het over jou weet omdat ik nieuwsgierig ben naar de leraar van mijn kind. En ChatGPT komt dan met een verhaal hoe jij je eigen kinderen hebt vermoord. Of ik zoek mijn nieuwe werknemer op en CHATGPT antwoord onterecht dat die heeft vastgezeten wegens kindermisbruik.

Mijn inziens zijn dat toch wel heel kwalijke zaken.
Het is meer kwalijk dat je denkt dat ChatGPT een betrouwbare bron van informatie is?
Het is meer kwalijk dat je denkt dat ChatGPT een betrouwbare bron van informatie is?
Als ik misinformatie publiceer op het internet over mensen, valt dat ook gewoon onder smaad/laster. Dit geldt voor een bedrijf als OpenAI met de "website"/dienst ChatGPT niet anders. Ik vind dit totaal geen gekke zaak en zwaar terecht dat dit wordt aangekaart.
Ik vind 't ook maar raar. Genereer de tekst opnieuw en je zult waarschijnlijk op een compleet ander verhaal uitkomen. Het zijn predictive models, geen waarzeggers. Schrikbarend hoe makkelijk mensen zich laten leiden door de output van een large language model.

Ook Google is inmiddels begonnen met het tonen van AI-resultaten bij search queries. Je leest er de grootste onzin. ''Ja joh, in bad gaan met je tosti-apparaat is super veilig! Lekker doen!''

Misschien moeten we ons meer baseren op het gebruik van primaire informatiebronnen in plaats van random text generators.
En de predictie is dan dat de betreffende man de vreselijkste dingen kan doen / gedaan kan hebben? Doorgaans vinden we ook het verspreiden van dergelijke geruchten over mensen al kwalijk. Pas wanneer ChatGPT in iedereen doorlopend een moordenaar blijkt te zien, ligt het overduidelijk aan de tool. Tot dat moment zet het toch een vreemde toon.

Dat NOYB hier dan zondermeer gelijk heeft, durf ik niet te beweren. Maar ik vind het wel goed dat zoiets aangekaart wordt, ruim vóór het al meerdere keren vreselijk uit de hand is gelopen.

Wat gebeurt er nu bijvoorbeeld wanneer iemand die disclaimer niet snapt en - volkomen naar waarheid - in de buurt app post: 'Ik las dat de heer Petersøn hier uit Lutskebrøk dit en dat allemaal gedaan heeft. En toch woont hij nu twee straten van ons af..' ?

Er lijkt best veel voor te zeggen om stevig paal en perk te stellen aan dergelijk mixen van feit en fictie, in elk geval tot de maatschappij een stuk meer aan dat hallucineren is gewend.
Maar we weten dat veel mensen moeite hebben om feit en fictie te scheiden, er zijn miljoenen mensen die denken dat Covid-19 niet bestaat, dat we nooit op de maan zijn geweest en dat de aarde plat is, men schiet op een pizzeria wegens een onzin verhaal. Dat in aanmerking nemende is het toch een kwalijke zaak dat een bedrijf als Google verhaaltjes over hoe ik mijn kinderen zou hebben vermoord of een ander verzinsel over mij gaat voorschotelen aan anderen.

Als het al wat verzint, laat het dan iets verzinnen wat mij persoonlijk geen schade berokkent. Als mijn collega mij opzoekt, leest dat ik mijn kind zou hebben misbruikt 6 jaar geleden toen ik in Zürich woonde en mijn collega kijkt op Facebook en ziet dat ik toen inderdaad in Zürich woonde en dit verhaal binnen het bedrijf rondverteld, dan maakt het niet meer uit wat ik zeg en doe en is de enige oplossing om een nieuwe baan te zoeken in de hoop dat het valse gerucht zich niet verder verspreid. Toch van de pot gerukt dat een bedrijf als Google zich dan mag verschuilen achter wat kleine lettertjes.

[Reactie gewijzigd door Groningerkoek op 20 maart 2025 17:31]

Maar we weten dat veel mensen moeite hebben om feit en fictie te scheiden
De hamvraag is of dit de verantwoordelijkheid van techgiganten zoals Google is. Een large language model presenteert geen feiten, maar combinaties van woorden. Behalve een disclaimer kun je niet veel doen. Ja, wellicht alle vormen van negativiteit (moord, kindermisbruik, etc) censureren, maar dan censureer je ook belangrijke delen van de menselijke geschiedenis. Aanstichters van oorlogen, bekende personen met een crimineel verleden, etc. Als je die dingen weglaat is iedereen ter wereld een brave hendrik, en dat moeten we ook niet hebben.
ls het al wat verzint, laat het dan iets verzinnen wat mij persoonlijk geen schade berokkent.
Dus ook dit zal ik de praktijk niet mogelijk zijn, ben ik bang. Op dat punt kun je heel ChatGPT en alle andere LLM's in de prullenbak gooien.
Als mijn collega mij opzoekt, leest dat ik mijn kind zou hebben misbruikt en dit binnen het bedrijf rondroddels, dan maakt het niet meer uit wat ik zeg en doe
Als ik hier op in ga wordt het een welles-nietes verhaaltje denk ik. Maar om een vergelijking op te gooien: er zijn leraren die AI-tools gebruiken om te bepalen of hun leerlingen ChatGPT gebruiken voor huiswerk, toetsen, etc. Geef zo'n AI-tool een passage uit de bijbel en je zult de reactie krijgen dat 't van ChatGPT komt. De werkwijze en argumentatie van zo'n leraar is daarmee meteen ontkracht.
Behalve een disclaimer kun je niet veel doen.
En vervolgens geef je verschillende opties. Je argument lijkt een beetje dat AI niets te verwijten is omdat het misschien niet gelijk duidelijk is wat er technisch aangepast moet worden. Dat is echter een drogreden. Een disclaimer is vaak niet voldoende.
Ik denk dat het grootste probleem is hoe het gemarket en toegepast wordt.

Sure, wij Tweakers zijn slim genoeg om te begrijpen dat LLM's onzin kunnen produceren, als je er even bij stil staat waar het op getrained heeft, garbage in -> garbage out.

Maar dat is niet hoe het gemarket en verkocht wordt aan de mensen die dat niet weten. Het komt al standaard in je Google resultaten terecht, ja er zal vast ergens een disclaimer over staan, maar Google weet ook donders goed dat de meeste dat toch niet lezen. Je tikt iets in op google, en je pakt het bovenste resultaat.

Dus deze bedrijven presenteren het als de magische technologie die het niet is en nemen er verder geen verantwoordelijkheid voor. Dat is het kwalijke. Met de titel AI insinueren dat deze dingen daadwerkelijk intelligent zijn, na kunnen denken, dat is gewoon de leugen die verkocht wordt.

Dat terwijl het hartstikke nuttig spul is, ik gebruik het zelf veel bij ondersteuning bij coding, het maakt mijn werk een stuk sneller, maar ik zal toch nog altijd elke stukje code dat het schrijft moeten controleren (al is het maar dat ik graag weet wat voor code in er in mijn bestanden staat :P) in het geval van code is dit dan ook veel duidelijker, als je klakkeloos de onzin van de AI overneemt, krijg je gewoon (compile/linter/etc) errors, dan weet je direct dat het onzin is.
Bij geschreven tekst moet je zelf zo kritisch en oplettend zijn ... en dat zijn de meeste die het gebruiken toch echt niet.

was @IlIlIllII

[Reactie gewijzigd door Zoop op 20 maart 2025 18:13]

Nou ja, bij ChatGPT staat er wel een disclaimer onder elke pagina, momenteel: "ChatGPT can make mistakes. Check important info.". Dat het altijd getoond wordt vind ik toch wel belangrijk.

Ik weet ook niet of de techbedrijven zelf het presenteren als magische technologie.
"ChatGPT kan fouten maken" is veel te weinig als disclaimer. Mensen kunnen immers ook fouten maken. Maar een fout kunnen maken beschouwen we als iets totaal anders dan dingen uit je duim zuigen.

"ChatGPT kan geclaimde 'feiten' volledig hebben verzonnen" zou een veel betere disclaimer zijn.
Ja dat ben ik met je eens. Dat kunnen mensen ook natuurlijk - vandaar het spreekwoord - maar dat weerspreekt niet dat de disclaimer te rooskleurig is.
En vervolgens geef je verschillende opties
Uh, nee... ik gebruikte een voorbeeld om aan te geven waarom het niet zo makkelijk is. Tenzij je oprecht denkt dat alle negatieve elementen censureren een oplossing is (maar ik neem aan van niet). Elke dag duizenden medewerkers van OpenAI tientallen miljoenen tokens laten controleren is net zo onrealistisch, om een ander voorbeeld te noemen.

LLM's zijn, in grote lijnen, redelijk beveiligd. OpenAI steekt er bewust moeite in om te zorgen dat je geen expliciete content kan genereren of dat ChatGPT de maanlanding gaat ontkennen. In hoeverre dat succesvol is laat ik even in het midden. Nogmaals, grote lijnen. Die werkwijze is niet toepasbaar op 8 miljard individuele mensen.

We willen niet dat OpenAI de persoonsgegevens heeft van 8 miljard mensen, maar we willen wél dat (in dit geval) Arve Hjalmar Holmen op individuele basis beschermd wordt. Dat rijmt niet met elkaar.

Wat zou volgens jou een oplossing zijn? ChatGPT niet laten speculeren over mensen? Want dan moet je bijvoorbeeld ook alle bekende personen uitsluiten (anders wordt ik, toevallig een naamgenoot van Ed Kemper, uitgemaakt voor een moordenaar door ChatGPT).

Het is echt niet zo makkelijk.
Andersom geredeneerd: als een medewerker van Google het op een website zou zetten is er geen twijfel over mogelijk dat Google aansprakelijk is. Is de opmerking 'pas op, kan niet waar zijn' straks een universele vrijwaring dat je voor daaropvolgende uitspraken geen verantwoordelijkheid hebt?
Schrikbarend hoe makkelijk mensen zich laten leiden door de output van een large language model.
Diezelfde AI wordt ingezet om 'echte' antwoorden te geven bijv. bij servicedesk vragen... wie is er nu gek dan?
Dus ik herformuleer "Schrikbarend hoe makkelijk bedrijven de output van een large language model gebruiken".
Achja, zo vroeg ik op 7 februari welke speciale dag het was. Ik zocht toen warmetruiendag, maar daar kwam ChatGPT niet direct mee.
Dus toen vroeg ik of het misschien niet ook warmetruiendag was vandaag.

Toen was het antwoord: "Nee, warmetruiendag is dit jaar op woensdag 7 februari en niet op vrijdag 7 februari."

Dus dat je dat dan maar wel even weet :-)
Tenzij ik in mijn prompt zet dat ik een fantasieverhaaltje wil vindt ik het een heel normale gedachte dat menigeen denkt dat dergelijke persoonlijke informatie welke gemengd is met wel werkelijke informatie ergens op gebaseerd is.

[Reactie gewijzigd door Groningerkoek op 20 maart 2025 15:07]

Het is natuurlijk ook "ergens op gebaseerd", namelijk enorm grote lappen tekst die statistisch aan elkaar geregen worden. En daar zat toevallig ook relevante informatie bij.

Maar dat doet niks af aan het feit dat dat geen betrouwbare bron van informatie is. Al was het maar omdat de input dat niet is (er zal meer waarheid tussen hebben gestaan dan onwaarheid, omdat dat op dit moment nog statistisch waarschijnlijker is, maar geen enkele "grote" LLM is getrained op dingen die alleen maar bewezen juist zijn).

De enige reden dat mensen dit kwalijk vinden is dat ChatGPT nuttig is. Spuwde het namelijk niks anders dan onzin uit dan was er ook niemand die zich erover zou opwinden als het met een sensationeel leugenverhaal komt. Dat moeten we echter niet verwarren met een brevet van betrouwbaarheid, dan behandelen we het "te menselijk" -- een mens zou immers nooit tijd en moeite steken in zo'n verhaal anders dan met kwaadaardige of in ieder geval zwaar nalatige opzet. Maar ChatGPT is in alle antwoorden op die manier "nalatig".

Dit alles laat overigens niet af dat er manieren zijn om dit soort dingen te voorkomen (zoveel mogelijk dan, compleet uitsluiten kan niet), en daar wordt natuurlijk ook aan gewerkt, maar in de basis is dit niet veel anders dan wanneer ik naar jebenteenmoordenaar.nl/?naam=groningerkoek kan gaan en dan een pagina geserveerd krijg waarin jij beschuldigd wordt van een dubbele moord -- alleen minder transparant.

[Reactie gewijzigd door MneoreJ op 20 maart 2025 16:16]

De enige reden dat mensen dit kwalijk vinden is dat ChatGPT nuttig is.
Spijker op zn kop denk, want chat bots zijn niet nieuw, ik herinner me Elisa op de MSX nog. Maar daar prikte je zo doorheen om door te krijgen hoe nep het is.

ChatGPT is echt niet anders anders dan dat maar velen malen complexer, het is nog steeds een chatbot met als primair doel om over te komen als een geloofwaardige chatpartner. En daarin slaagt het, maar daar houd het wel een eind op. Het komt zelfverzekerd en geloofwaardig over, en daarom "moet het vast wel waar zijn". Maar iedereen die ik spreek over de gevaren van AI vertel ik dat AI een ontzettend handige en nuttige tool is, maar je moet nog wel altijd alles controleren wat eruit komt en dan is al snel de reactie "ja dag, te veel werk, kan ik net zo goed zelf doen" .... uh ja, klopt ... de bedoeling is ook dat je zelf verstand van de stof hebt, en niet alsof doet door de AI voor je te laten spreken. AI kan dat proces sneller voor je maken, helpen bij het "padden" van teksten etc.

Te veel mensen die verwachten 1 enkel prompt op te geven waar een heel boekwerk aan tekst uit komt en dat dat dan ook helemaal corrects dient te zijn.

Mensen verwachten echt te veel van AI (maar dat komt ook grotendeels door de marketing die het aanprijst als de magische technologie dat het niet is)..

Als je aan een ai vraagt "wat kan je over mij vertellen" wat je wezenlijk vraagt is "kan je een verhaal schrijven met x als onderwerp", een ai heeft geen besef van goed of kwaad, waar of niet waar, die voert zijn rekensom uit en dit komt eruit.
Het kan allemaal vreselijk veel tijd schelen. Zeker als je grote hoeveelheden data moet genereren kan een LLM vreselijk handig zijn.

En e.g. ChatGPT is zeker niet alleen een chatbot. Ik heb bijvoorbeeld een GPT gemaakt (vooraf gestelde regels voor ChatGPT om te volgen) om een geuploade JPEG weer om te zetten naar MarkDown + MathJax (dus met complexe formules). Dat doet dat ding echt 10 x beter dan welke OCR dan maar ook, ook omdat het de context van de formules begrijpt. En dan kan je ook nog eens de output aan laten passen. Het gaat gerust niet altijd / allemaal goed, maar de resultaten zijn verbazingwekkend te noemen. En dat is slechts 1 voorbeeld.

Een ander voorbeeld is om met alleen een beschrijving een "taal" te maken voor een gegevensstructuur, inclusief alle elementen in BNF form geschikt voor een compiler-compiler. Dat is echt wel wat anders dan wat spul bij elkaar lullen, maar ChatGPT deed het met een complete beschrijving erbij. Dat was een half uur werk wat anders zeker 2 weken kost, en dat is als iemand er al in getrained is. Ik sta soms echt met mijn mond vol tanden wat het ding allemaal kan.

Een LLM heeft voor mij erg weinig met Elisa te maken. Elisa was een slim programma'tje dat deed alsof. Dat heeft niets met een leermodel te maken. Of zoals ChatGPT aangeeft: "Rule-based pattern matching and string patterns / templates.". Het kon echt niets leren, laat staan bijleren. Compleet ander model.

Om het ding terug te sturen naar het goede pad als hij eenmaal mis zit is soms zo goed als onmogelijk. Wat dat betreft is er nog veel te verbeteren. En dan heb ik het nog maar even niet over image generation, want daar valt amper mee te werken in mijn ervaring. Ik heb begrepen dat DALL-E ook niet best of the best is wat dat betreft.
Het is niet alleen een ChatGPT probleem, Google's "AI antwoorden" welke tussen de zoekresultaten staan hebben last van hetzelfde probleem. Beiden pretenderen een bron van goede informatie te zijn. Die disclaimer is voor de buhne, het wordt vermarkt als betrouwbaar.
Ik zie om de zoveel tijd iemand die chatgpt citeert als bron, maar nog meer dan dat er over Wikipedia vroeger gezegd werd zou dat nog harder moeten gelden voor chatgpt.

Iedereen die ChatGPT citeert als authoritatieve bron moet daarop aangesproken moeten worden!
Een collega vroeg hier laatst aan chatgpt om op basis van een menu van de lokale pizza brouwer voor max 200 euro aan pizza's te bestellen en rekening te houden met vega en opties zonder varken. Evenredig verdeeld. Hieruit kwam chatgpt met een lijstje die zonder blikken of blozen is besteld. Rekening.. 264 euro.
Gewoon dit hier dus !!!!!
Ik kan ChatGPT ook vragen naar het recept voor een appeltaart. Stappen 1 t/m 9 klinken redelijk betrouwbaar, maar oei, bij stap 10 wordt me verteld dat ik de appeltaart moet afbakken in een vulkaan.

Wat ga ik doen? Met m'n appeltaart naar de dichtsbijzijnde vulkaan, of mezelf achter m'n oren krabben en een paar extra bronnen raadplegen?

ChatGPT is een large language model - geen zoekfunctie. Het plakt random woorden achter elkaar, waarvan de output bij elke generation verandert. Dit hallucinaties fouten zijn onmogelijk om weg te halen. Foto's herkennen, code interpreteren, afbeeldingen genereren - het zijn allemaal aannames van een model. Wat betreft personen, tja, voor hetzelfde geld krijg je een boel positieve dingen te lezen over iemand (die nog steeds onzin zijn). Is dat ook een kwalijke zaak?
ChatGPT is een large language model - geen zoekfunctie.
Maar als diezelfde AI wordt ingezet als 'zoekmachine' dan krijgt het dus wel degelijk die functie toebedeeld...

Wat nu als stap 10 was geweest "Afbakken op 400 graden" - klinkt alweer stuk aannemelijker toch? Maar nog steeds fout.
Het plakt random woorden achter elkaar
Nee, niet random. Gebaseerd op statistiek en heuristiek.
je hebt een punt maar ik vraag me dan af, wat als je een google search doet en een recept vindt met deze 10 stappen (waarin stap 10 is gebruik de oven op 400 graden). Waar begint de verantwoordelijkheid van de gebruiker (meer bronnen zoeken, checken, etc)? En in hoeverre heeft ChatGPT hier wat mee te maken?
Was meer een voorbeeld waarbij het moeilijk is om te beoordelen of de AI nu wel of niet een bruikbaar antwoord geeft.
Bij een echt zoekresultaat zou het het niets meer dan een verwijzing moeten zijn. Tet antwoord is dan dus niet 'constructed'. Dus beoordeel je het antwoord op basis van waar je het hebt gevonden. Met de AI ertussen lukt dat dus niet meer.
Het is relatief aannemelijk dat die 400 graden dan in ºF is, en niet in ºC. Mijn oven kan namelijk maar tot 250ºC gaan (tenzij in pyrolyse modus, maar goed).

Dus dan is het kwestie van zoeken op Google naar een recept van een Europese website waarin bevestigd staat dat het bakken op 205ºC moet gebeuren.
Het is relatief aannemelijk dat die 400 graden dan in ºF is,
Het was niets meer dan een voorbeeld met een foutief onderdeel. En dat doorzoeken doe je dan weer met Google....? Die dan dus hetzelfde antwoord kan geven....
Mijn punt was dat 400º relatief opvallend is en je dan in elk geval een alarmbelletje moet hebben dat afgaat en even bronnen moet gaan checken.

Als datzelfde ChatGPT recept "1 uur op 230ºC" zegt dan is dat relatief aannemelijk, en minder opvallend. Dan zou ik wél de schuld bij ChatGPT leggen, ook al was het waarschijnlijk niet slim om een LLM recepten te laten verzinnen.
Mijn punt was dat 400º relatief opvallend is
Voor jou dan....maar dat geldt ook weer niet voor elk getal natuurlijk.
Dat hele bronnen checken doen we dus pas als er een alarmpje afgaat maar wanneer dat gebeurt verschilt in hoeveel ervaring men heeft met het onderwerp.
Natuurlijk moet je niet alles geloven wat iedereen (inclusief AI) tegen je zegt maar mensen doen veel meer hun best om zinnige antwoorden te geven [mits ze geen alternatieve motieven hebben]. Of te wel: ze zijn betrouwbaarder. Echter ik heb het idee dat AI net zo wordt vertrouwd....
Voor jou dan....
Voor iedereen wel. Er is geen enkele (consumenten)oven die tot 400ºC kan om iets te bakken.
maar dat geldt ook weer niet voor elk getal natuurlijk.
Dat zei ik zelf ook al 😊

Ik ben het verder gewoon eens met je hoor.
;)
Mijn 'fout' was dat ik inderdaad een waarde koos die een normale oven niet aankan. Maar dat kan ook weer betekenen dat mensen daarom maar denken "dus zo hoog mogelijk en gewoon wat langer in de oven laten". Voor elke fout een nieuwe (foute) oplossing.... :9
Grappig, misschien woon je dicht bij een vulkaan, maar ik denk niet dat ChatGPT dat ooit gedaan heeft, zeker niet met de recepten die ik hem vroeg. Zo veel duidelijke voorbeelden die echt gebeuren; ik snap niet waarom je er dan eentje erbij moet verzinnen.
Want dit is een extreem voorbeeld, of wat wil je precies zeggen? Google AI heeft een tijdje aanbevolen om lijm te gebruiken om kaas beter te laten plakken op pizza's. Ik heb ooit 't advies gekregen om van een brug te springen. Hoe ver wil je gaan in deze discussie? Het zijn allemaal dingen die ChatGPT e.d. naar buiten kunnen brengen.

Ik wil vooral aangeven dat mensen hun gezond verstand moeten blijven gebruiken.
Ik snap wat je wilt zeggen, maar het is een kleine stap van een hyperbool naar "reductio ad absurdum". Overigens vind ik het verzamelen van gegevens in een geautomatiseerd systeem dat voor iedereen toegankelijk is per definitie een probleem vanwege de GDPR. Maar buiten dat vind ik het sowieso schadelijk als ik foutieve informatie krijg over een persoon, of dat nou positief is of negatief.
Mensen begrijpen niet dat zelfs als je weet dat het niet waar is, er toch een twijfel blijft bestaan. Het zaadje is geplant en je zal altijd met andere ogen naar die leerkracht kijken of je nieuwe medewerker meer in de gaten houden.
Als de nieuwe medewerker nog in de proeftijd zit zullen er genoeg zijn die hem opdracht geven om onmiddellijk het pand te verlaten.

Maar dit is inderdaad het grote probleem, die tekst kun je wegklikken, de andere partij kan zelfs zeggen dat het onzin is, ChatGPT kan zeggen dat het onzin is, de gedachte blijft
Ik vind het al kwalijk dat modellen als ChatGPT en consorten privacy gevoelige data bevatten.
Ik heb het net geprobeerd, als je bijvoorbeeld "wie is <jouw naam>" intikt gaat chatgpt op het internet zoeken naar bijvoorbeeld publieke linkedin profielen en dergelijke. Dwz, voor de meeste mensen (zoals ik) is er weinig publieke informatie beschikbaar.

Wel interessant is dat als je zoekt naar "wie is <gebruikersnaam> op tweakers.net" dat hij heel summiere informatie geeft en opmerkt dat de info niet openbaar is.
En het opvolgende probleem is dus dat de AI laster kan verspreiden. Dat mogen mensen niet, maar hoe gaan we de AI 'vertellen' dat sommige vergissingen vergaande consequencties hebben?

Naast dat probleem hebben we dus een schijnbare authoriteit op informatie die geen motieven heeft om te liegen. Want dat maakt het moeilijker om te beoordelen of informatie correct is of niet. Al naar gelang de context weten/voorspellen wij of iemand betrouwbaar is - dat is op het Internet sowieso al moeilijk maar dus nog moeilijker in geval van een AI.
Dat hallucineren en slecht kunnen terugkijken naar de voorgaande delen van een antwoord (want dat probleem hebben we ook nog - de AI kan zich in een lang antwoord vrij gemakkelijk gaan tegenspreken), maakt dat AI eigenlijk vooral als bijzonder onbetrouwbaar moet worden gezien.
Ik ben geen jurist, maar ik kan me indenken dat persoonsgegevens altijd onder de AVG vallen ongeacht of de gegevens correct zijn.

Stel chatGPT zegt over mij dat ik StefanJanssen ben, geboren in Nederland, regelmatig Tweakers bezoek en dat ik een vrouw ben. Al deze informatie valt normaal onder de AVG. De vraag is dus veranderd de AVG status wanneer de informatie incorrect is? Een dienst mag niet zomaar publiceren dat ik een man ben, mogen ze wel publiceren dat ik een vrouw ben?
Je hebt gelijk. Dat blijven persoonsgegevens.
En een van de beginselen van de GDPR is dat je hebt zorg te dragen dat de data accuraat is.
Daar voldoen ze niet aan, en dat is dan ook specifiek een punt waarop die klacht van de noyb gestoeld is.
Zou ChatGPT Noyb niet kunnen aanklagen wegens het opzettelijk negeren van de waarschuwingen van ChatGPT om de resultaten te controleren?
Kunnen ze proberen maar
Volgens noyb-advocaat Joakim Söderberg is dat echter niet voldoende. "Je kunt niet zomaar valse informatie verspreiden en onderaan een kleine disclaimer toevoegen waarin staat dat alles wat je hebt gezegd misschien niet waar is", zegt hij. "De AVG is duidelijk. Persoonlijke data moet accuraat zijn. Als dat niet zo is, hebben gebruikers het recht om de informatie te laten wijzigen, zodat deze wel de waarheid weergeeft."
Je kunt ook niet zomaar informatie als waarheid aannemen als er duidelijk bij staat dat het geen absolute waarheid is.

Ik denk dat deze vis expeditie uiteindelijk niets aan de haak zal slaan.

Wellicht hebben zij het verkeerde bedrijf genomen om aan te vallen, deze zaak heeft veel meer gewicht als je een zoekengine met AI frontend met hetzelfde argument aanvalt.

[Reactie gewijzigd door fevenhuis op 20 maart 2025 16:28]

Je denkt verkeerd. Jij beschouwt het als een rechtzaak over smaad en/of laster.
Maar dit is een GDPR zaak.
De AI zit persoonsgegevens te verwerken en doet dat op een wijze die tegen de wet is.

uit de aanklacht:
By knowingly allowing ChatGPT to produce defamatory results, the company clearly violates the GDPR’s principle of data accuracy.
En daar kom je niet onderuit met een disclaimer.
Nee, maar het is wel een heel sterk tegenargument in een rechtszaak, mits die waarschuwingen maar duidelijk genoeg zijn.
Wel raar hoe we achter AI aanrennen (wellicht niet iedereen maar wel een substantiële groep mensen).

Als we een mens kennen die loopt te hallucineren dan zetten we die graag aan de medicatie en die krijgt een stempel zoals: gek / knettergek / niet betrouwbaar. Nu is het een model waarbij iedereen zoveel mogelijk zijn best doet om het aan het werk te zetten en in te zetten voor customer support, content generatie etc. Als we dat met mensen zouden bedrijven voor gek verklaard worden.

En niet te vergeten hoeveel miljarden in geld en megawatts aan energie dit 'mag kosten'.

[Reactie gewijzigd door 7ven op 20 maart 2025 16:30]

Las een maand of zo terug dat Wetenshappers konden aantonen dat een AI programma na een tijdje steeds meer onjuiste informatie gaat verspreiden, wat ze zelfs een risico vonden voor AI die word gebruikt om Medische diagnoses te stellen aan de hand van Scans etc. Nu zijn die heel veel betrouwbaarder dan een Arts, maar ze voorspelden dat over een aantal jaar in plaats van beter, ze slechter gaan worden en er weer een hoop valse diagnoses worden gesteld, en er mensen ten onrechte een diagnose krijgen, of juist gezond worden verklaart.
Het is schokkend dat dit gebeurt en zou tot zware straffen voor personen binnen het bedrijf moeten leiden. Je kan er op wachten tot een of andere idioot iemand vermoord omdat een AI een lulverhaal ophing.
mwoah, ik zie dit meer als de stickers dat je je kind niet in de magnetron moet laten opdrogen als ze uit bad komen.

Er staan overal stevige disclaimers dat de info incorrect kan zijn. Denk dat de meer problematische trend is dat mensen tegenwoordig AI/LLM output aannemen voor de waarheid. Stukje educatie van de npc's is wellicht een betere besteding van beschikbare middelen ipv een aanklacht.
Draai het eens om dan. Wat nu als je een dergelijk fout antwoord krijgt, waarvan je niet weet dat het van een AI afkomstig is? Het idee dat alles met disclaimers af te vangen is, loopt spaak indien de fouten minder evident zijn.
Draai het eens om dan. Wat nu als je een dergelijk fout antwoord krijgt, waarvan je niet weet dat het van een AI afkomstig is?
Dan krijg je het toch door van iemand anders die dat antwoord voordoet alsof het van hen afkomstig is? Wat heeft het dan nog met AI te maken? Als ik een zin uit een boek (fictie) citeer om jou te laten denken dat je buurman van plan is je te vermoorden ben ík toch degene die fout zit, en niet de auteur van dat boek?
en niet de auteur van dat boek?
Nee, idd - niet de auteur maar de 'doorgever' = AI.....
die dat antwoord voordoet alsof het van hen afkomstig is?
Dat is dus wat de AI continue doet (al kun je om bronvermelding vragen).
Als dat gebeurd is het nog steeds die een of andere idioot die iemand vermoord. Je kan vrijwel niets beginnen als het zo strikt moet zijn dat iedereen kan vertrouwen op wat de output van een LLM is. Ik zie nog wel iets voor een voorbeeld als dit waar specifieke info over een specifiek persoon gecorrigeerd moet worden op een of andere manier maar dat is de limiet zo ongeveer.
Ik zie niet in waarom hier enige straf bij zou moeten horen.
Hoort er een straf bij als een journalist dingen verzint en publiceert?
Niet als die journalist duidelijk aangeeft dat het fictief is, of bijvoorbeeld als het satirisch van aard is. Niet elke gedrukte onwaarheid is meteen strafbaar.
Stond er onder het AI stukje dat het parodie was?
En wat als er nergens zoiets aangegeven staat, maar dat er alleen een disclaimer onder staat:
"mensen kunnen fouten maken"

Dat is namelijk de disclaimer van de AI.
Als dat voor een AI voldoende is, is dat dan ook voldoende disclaimer voor een journalist?
De groote vraag is natuurlijk of dit een lulverhaal / hallucinatie was. Het zou zomaar kunnen zijn dat het eem samenvatting van uit meerdere bronnen, en de naam simpel weg niet uniek is.

Als je zelf een persoon gaat Googlen zal je zien dat het moelijk is om verschillende mensen uit elkaar te houden met de zelfde naam. Vaak hebben mensen met de zelfde naam, ook ongeveer de zelfde leeftijd, en regelmatig ook uit de zelfde regio / of type buurt.
Nu gaat het dan om 1 persoon maar eigenlijk heb je hier dus te maken met (foutieve) profilering? Dat is ongewenst en geeft ellende.
Kan, maar bij AI antwoorden mis je volledig de mogelijkheid om te achterhalen waar de info vandaan kwam.
Dat is niet helemaal meer het geval, bij veel LLM's - inclusief de laatste ChatGPT 4o en natuurlijk de research georiënteerde ChatGPT versies - krijg je wel degelijk referenties. Dat is vaak niet het geval als het antwoord volledig tot stand komt zonder externe bronnen te raadplegen overigens. En je kan zeker om opheldering vragen, dan gaat het ding (meestal?) ook online z'n antwoorden controleren.
En het gebeurt vaker, d'r zijn websites en bots / trolls die mensen zwart maken en leugens over ze verspreiden. Ik run een forum, een tijdje geleden kwam er iemand langs die postte iets in de trant van "die en die, geboren toen en toen, op dat en dat adres is een gevaarlijke pedofiel". Die zette datzelfde bericht op allerlei openbare fora.

Het zal je maar overkomen dat iemand dat serieus neemt en het recht in eigen handen neemt. De mensen van Kiwifarms doen dat bijvoorbeeld en zijn al verantwoordelijk voor meerdere dodelijke slachtoffers.
Het probleem in die situatie is toch de persoon die onwaarheden aan het verspreiden is alsof het waarheden zijn? Dat heeft toch niks met AI te maken?
Met een beetje creatieve prompting kun je ChatGPT genocide laten uitspreken als oplossing van de problemen in de wereld. Mensen vergeten dat het geen persoon is aan de andere kant maar een random verzameling woorden die wordt opgelepeld.

We zullen moeten gaan inzetten op educatie, want nee, het is geen google, maar ook geen encyclopedie, er zitten op alle vlakken fouten in de antwoorden die je krijgt. Zolang iedereen zich dat beseft komt het wel goed, maar dat besef lijkt steeds meer te verdwijnen.

De hoeveelheid halfbakken memo's die ik tegenwoordig van collega's krijg waaraan je per direct kan zien dat ze uit AI/LLM komen is stuitend. Mensen kopieren en plakken zonder controle.

Misschien een AI rijbewijs, dat je eerst aan mag tonen dat je snapt dat het allemaal nep is en daar ook voor mag tekenen ofzo?
maar een random verzameling woorden die wordt opgelepeld.
Nee, niet random.
We zullen moeten gaan inzetten op educatie, want nee, het is geen google, maar ook geen encyclopedie
tja, het wordt nu juist ingezet als zoekmachine en 'handig' naslagwerk.....
ff advocaat van de duivel spelen, maar genocide is toch gewoon een oplossing voor heel veel problemen?
Stikstof crisis, huizencrisis, immigratie crisis, klimaatverandering... allemaal direct gerelateerd aan te veel mensen op aarde/in Nederland. Dat het, om overduidelijke redenen, niet realistisch en wenselijk is, is een ander verhaal. :+

"want nee, het is geen google, maar ook geen encyclopedie" - als je het zo zegt klinkt het net alsof je denkt dat daar geen foute/gevaarlijk (mis)informatie te vinden is (ook daar is educatie de oplossing, maar ook dat doen/willen mensen niet).

Oplossingen als een AI rijbewijs klinken mij net zo onrealistisch als mensen op basis van populisme/nepnieuws/onderbuikgevoelens ipv 'feiten' hun stem bepalen hun stemrecht te ontnemen. Maar ja, de mens heeft (gelukkig/ of helaas?) het recht om dom/onwetend te zijn (en te blijven).
Raakt in de kern een beetje aan wat gegevens opslaan precies is. Als ik een simpel algoritme maak dat BSN-nummers, namen en adressen genereert dan kan daar het juiste uit komen. Als ik je de seed van de RNG laat invullen, dan is het ook nog reproduceerbaar. Sla ik dan persoonsgegevens op zoals de AVG dat bedoelt?
Ja, want je kan ook data genereren met reeksen die in de praktijk niet naar voren komen.
Nee.

Echter, als je de temperatuur* van een model naar 0 draait en dan zegt het consistent dat jij een moordenaar bent, dan kun je dat wellicht wel zeggen.

* Temperatuur is een parameter die de willekeurigheid stuurt en kun je zien als de mate van randomness in de output.
Parity data is ook data. Lijkt me idem voor een LLM?
In welke zin? Parity data an sich is vziw nietsbetekenend, pas in combinatie met (een deel van) de rest van de data kun je daar echt wat mee.

Verder is 't probleem wat ik aan probeer te kaarten vooral: Wanneer kun je er nog echt persoonsgegevens uit kunt herleiden? Ik snap het bij bijv. volgnummers wel, en ook bij encryptie is het verband duidelijk, maar zodra je ergens min of meer arbitraire gegevens uit kunt halen raakt de rek wel een beetje uit het begrip 'herleiden.'
ChatGPT reageerde met een nepverhaal.
(...)
Het verhaal bevatte echter ook delen die wel klopten
Zo breng je dus complottheorieën de wereld in. En probeer ze dan maar eens te ontkrachten.
Ik had laatst ChatGPT ook eens gevraagd wat ie over mij wist, toen beweerde hij/het dat ik als onderdeel van de fanatieke aanhang van mijn voetbalcluppie (wat klopt) een stadionverbod zou hebben gehad (wat gewoon absoluut NIET klopt...)
Tja, AI is beetje the next thing wat de mensheid alleen maar meer dom maakt. Zoals navigatie en autoocorrectie maar nog gevaarlijker als er desinformatie verspreid wordt.
Alsnog ChatGPT prompt wat hij weet over mij krijg ik alleen de informatie die ik gebruikt heb en verder niets.
Als ik prompt wat weet je over “mijn naam” uit Den Haag dan krijg ik bedrijven met mijn achternaam er in maar dat dat geen link heeft en een LinkedIn profiel van een naamgenoot.
Verder niets. Geen gekke verhalen of onzin.
Het is geen digitale god,
geen "hallucinerend" orakel
.. maar een slimme autocomplete.

Kan niet wachten tot ze autocomplete gaan aanklagen. |:(

Vraag je iets wat vaak voorkomt in zn trainingsdata, dan kiest 'ie de meest waarschijnlijke completion.:
Een appel valt niet ver van de [llm: boom]

Vraag je iets wat ie niet kan weten, dan doet 'ie hetzelfde:
User jwal is [llm:zeer groot geschapen]

Maar goed, dankzij de onkunde heeft OpenAI die search tool waarschijnlijk sneller geïntegreerd, waardoor context van persoonsnamen niet meer op basis van pattern matching worden gegenereerd, maar gewoon via betrouwbare websearch.
Want het internet liegt niet. Net zoals kranten of tv.

Op dit item kan niet meer gereageerd worden.