Subreddit laat AI nepnieuws over WoW-personage 'Glorbo' publiceren

Gebruikers van de World of Warcraft-subreddit zijn erin geslaagd om een gamingnieuwssite die in ieder geval een deel van zijn content door een AI laat schrijven, te foppen. De site publiceerde een volledig verzonnen verhaal over de introductie van het niet bestaande WoW-personage 'Glorbo'.

Het begon met een post op de WoW-subreddit van een gebruiker die vrij zeker wist dat website zleague.gg zijn artikelen op deze manier fabriceerde. Hij of zij was ervan overtuigd dat als een broodjeaapverhaal maar enthousiast en serieus genoeg besproken zou worden op de subreddit, dat de site het onironisch zou overnemen. Dat zou al vaker gebeurd zijn, inclusief citaten van de Redditgebruikers.

Dat specifieke topic werd niet overgenomen door zlgeaue.gg, maar een andere post met dezelfde intentie wel. Daarin wordt jubelend gesproken over de introductie van Glorbo, met allerlei verzonnen details eromheen.

Veel van die details zijn in het artikel beland. Zleague spreekt ervan dat spelers 'enthousiast' zijn, maar dat 'het verplichte Klikclac-item en zijn effect op meer casual spelers wel zorgen opwekken'. Ook de tekst "Dit maakt me eerlijk gezegd zo blij! Ik wil gewoon heel graag dat een grote door bots gerunde nieuwswebsite een artikel hierover online zet," is keurig overgenomen. Glorbo wordt ook getypeerd als 'de beste toevoeging sinds de quest om Quackion, het aspect of Ducks, van de troon te stoten'.

De 'auteur', Lucy Reed, heeft vandaag overigens meer dan 80 artikelen online gezet, wees Ars Technica uit. Zleague heeft het artikel in kwestie offline gehaald, maar de flater is gelukkig gearchiveerd voor ieders leesplezier.

Glorbo

Door Mark Hendrikman

Redacteur

21-07-2023 • 21:40

64

Reacties (64)

64
63
22
0
0
32
Wijzig sortering
Prachtig, hier hou ik nou van. Hoewel AI bijzonder is en veel mogelijkheden kent, kent het ook grote gevaren als AI bijvoorbeeld in klaslokalen ingezet wordt en gewoon 'feiten' bedenkt.

Dat is namelijk een mogelijke toepassing van AI die ik van de week ergens voorbij zag komen.
Als je refereert naar chatgpt 3.5 dan ben ik het met je eens. Maar versie 4 is echt al een heel stuk accurater en ''verzint'' eigenlijk nog amper iets.
Als je refereert naar chatgpt 3.5 dan ben ik het met je eens. Maar versie 4 is echt al een heel stuk accurater en ''verzint'' eigenlijk nog amper iets.
Volgens mij verzint de AI helemaal niets, maar combineert het van alles wat het onine oppikt.
Scrapers zijn al verschillende jaren bezig met datacollection, die hele database.

Het is ondertussen op diverse online platforms gewoon niet grappig meer om te verblijven.
Re-posts in veelvoud, en antwoorden daarop weer opgepikt door een andere AI machine.
En als je zelf wat wilt plaatsen, of reageren moet je door allerlei hoepeltjes kruipen en puzzeltjes oplossen om te bewijzen dat je geen botje bent.
( iets waar de AI exploitanten een script voor hebben, die via een tikgeit die dingen laat oplossen, á 0,0002 cent )
Volgens mij verzint de AI helemaal niets, maar combineert het van alles wat het onine oppikt.
Scrapers zijn al verschillende jaren bezig met datacollection, die hele database.
Maar hoe verklaar je dan dat ChatGPT code genereert met daarin functies en libraries die niet bestaan?
Het zijn plausibele namen van functies, gebaseerd op hoe echte functies heten. Uiteindelijk praat hij zoals programmeurs praten.
Dat is dus precies mijn punt. Het zijn gewoon woorden, die op die plek logisch klinken. Heeft verder vaak weinig te maken met de realiteit.
Ik denk dat Bart Simpson hoog scoort, hij moet telkens hetzelfde schrijven. Als het vaak zo beschreven is, zal het wel waar zijn algoritme.
Bart schrijft iedere aflevering iets anders hoor ;)
Maar hoe verklaar je dan dat ChatGPT code genereert met daarin functies en libraries die niet bestaan?
ehh,, als ChatGPT die "bedenkt" dan bestaan ze toch?!`
Was het maar zo'n feest...
Als hij "#include GNUChessLib.h" schrijft betekent het niet dat er een GNU chess library bestaat.

(Disclaimer: geen idee of GNU chess lib bestaat)
Binnen een jaartje of zo (wanneer OpenAI dit feit indexeert) zal GNUChessLib wel opduiken.
[...]


Maar hoe verklaar je dan dat ChatGPT code genereert met daarin functies en libraries die niet bestaan?
Die zullen dan ergens in het archief beland zijn door ... scraping en onvoldoende nacontrole.
Wat dus exact is, wat hier door een website wordt gedaan als 'game-content'
Dat kan niet. Hoe krijg je libraries en functies die niet bestaan door scraping?
Het feit dat wij het er hier over hebben is al genoeg voor said scraping.


En dat berust dan soort van nog op waarheid. ChatGPT kan ook gewoon “hallucineren” en feiten verzinnen door woorden te combineren. Feitelijk is zo’n taalmodel niets anders dan een pleurisgroot woordenboek met annotaties per woord. Wat voor type woord is het, in welke context kan het voorkomen, welke tijdsvervoeging en met welk doel.

ChatGPT genereert tekst wat aansluit op een bepaald stuk input. Niks meer niks minder, de daadwerkelijke controle zul je als mens elf nog moeten doen.

Goed voorbeeldje waarin dat niet is gebeurd is dus waar het artikel over gaat, maar een beter voorbeeld (van hallucinatie) is deze: https://www.zdnet.com/goo...sued-heres-what-happened/
Het feit dat wij het er hier over hebben is al genoeg voor said scraping.
Nee, hoezo?
@_Pussycat_ geeft een voorbeeld wat wel degelijk opgenomen kan worden door scraping. En verder is het gewoon hallucinatie zoals ik dat verder ook beschreef.
Ik ben zeer benieuwd hoe je niet-bestaande libraries en functies kan krijgen door scraping?
Google maar eens op “ include GNUChessLib.h”.

Het is al gescraped en geïndexeerd door google.

Dus door dit soort discussies te voeren over niet bestaande zaken krijg je dus dat het included wordt. Zie ook wat er gebeurt is met Glorbo. GPT weet niet of het klopt, maar kan er wel wat omheen schrijven.
Dus door dit soort discussies te voeren over niet bestaande zaken krijg je dus dat het included wordt.
Ik geloof niet dat het zo werkt. Ik heb veel hallucinaties gezien, maar de meest opmerkelijke was nog wel die voor jinja2 filters in Home Assistant. In een antwoord op een hulpvraag op het forum werden filters gebruikt die niet bestonden (maar wel heel logisch leken). Ik heb de filters zelfs nog gegoogled, er kwam werkelijk niks tevoorschijn wat er ook maar een beetje op leek. Dat heeft GPT dus helemaal uit zichzelf verzonnen, gewoon pure hallucinatie.
Zie ook wat er gebeurt is met Glorbo. GPT weet niet of het klopt, maar kan er wel wat omheen schrijven.
Omdat die reddit post expliciet als input gegeven werd aan GPT. Als je dan schrijft 'GPT maak hier een verhaal over' dan doet GPT dat gewoon, weet GPT veel dat het niet waar is. Dat is een heel ander probleem dan het opnemen in de trainingset middels scraping.
Omdat die reddit post expliciet als input gegeven werd aan GPT. Als je dan schrijft 'GPT maak hier een verhaal over' dan doet GPT dat gewoon, weet GPT veel dat het niet waar is. Dat is een heel ander probleem dan het opnemen in de trainingset middels scraping.
Maakt niet uit. Beiden geven hetzelfde resultaat. Bij de scraping die in de trainingsset terecht komt boeit het namelijk niet of het daadwerkelijke code is of bijvoorbeeld pseudocode. Dat weet GPT namelijk helemaal niet.
GPT zal dat onderscheid dus ook helemaal niet maken en dus mag je er van uitgaan dat het eigenlijk per definitie onzin is tenzij je het kunt verifiëren. Onzin code komt dan ook vaker voor dan je denkt.
Ik heb veel hallucinaties gezien, maar de meest opmerkelijke was nog wel die voor jinja2 filters in Home Assistant. In een antwoord op een hulpvraag op het forum werden filters gebruikt die niet bestonden (maar wel heel logisch leken). Ik heb de filters zelfs nog gegoogled, er kwam werkelijk niks tevoorschijn wat er ook maar een beetje op leek. Dat heeft GPT dus helemaal uit zichzelf verzonnen, gewoon pure hallucinatie
Ja dat heb ik zelf ook al wel eens gehad. Komt ook deels doordat het internet soms ook verdeeld is over bepaalde zaken en gewoon geen werkende oplossing meer heeft voor een bepaald issue.
Hier loop ik zelf ook tegenaan met bijvoorbeeld Treafik (ingress routing op Kubernetes) en Grafana (dashboarding voor monitoring). Het internet heeft zelf geen werkende oplossing, dus is heel lastig im dan met een GPT resultaat te komen dat werkt. Op een gegeven moment gaat het dan ook gewoon zelf maar shit bedenken nadat de zoveelste oplossing niet klopt.


GPT doesn’t care about truth. It cares about words. And even at that it is pretty bad.
Maakt niet uit. Beiden geven hetzelfde resultaat. Bij de scraping die in de trainingsset terecht komt boeit het namelijk niet of het daadwerkelijke code is of bijvoorbeeld pseudocode. Dat weet GPT namelijk helemaal niet.
GPT zal dat onderscheid dus ook helemaal niet maken en dus mag je er van uitgaan dat het eigenlijk per definitie onzin is tenzij je het kunt verifiëren. Onzin code komt dan ook vaker voor dan je denkt.
Het maakt juist heel veel uit. Het valideren van taal en code gaat op een hele andere manier. Voor code wordt dezelfde techniek gebruikt als bij OpenAI codex, al weet niemand wat dat precies is aangezien alles gesloten is.
Ja dat heb ik zelf ook al wel eens gehad. Komt ook deels doordat het internet soms ook verdeeld is over bepaalde zaken en gewoon geen werkende oplossing meer heeft voor een bepaald issue.
Nogmaals, dat is niet wat ik zie. Dit zijn dingen die werkelijk niet bestaan maar toch gegeneerd worden door chatgpt. Maar goed je wilt het blijkbaar niet geloven, dus laat maar zitten.
Nogmaals, dat is niet wat ik zie. Dit zijn dingen die werkelijk niet bestaan maar toch gegeneerd worden door chatgpt.
Zeker. Dat ontken ik ook niet. Het zijn alleen twee verschillende dingen. Het is een taal model geen truth-machine.

GPT kan zowel zaken citeren die mensen ooit benoemd hebben, maar niet bestaan als zelf iets uit z’n duim zuigen. Beiden gebeurt. Betekent niet dat scraping geen optie is.
Dat kan niet. Hoe krijg je libraries en functies die niet bestaan door scraping?
Heb je het artikel gelezen ?
Gebruikersnaam relevant.
Haha, hoi Redditor! Jammer dat Reddit nu zo stervende is. Zoals altijd: "Oh how the mighty have fallen!"

Gelukkig blijft Tweakers wel 'true to its nature'.

That being said, ze hebben in met 4 wel een hoop meer safeguards ingebouwd om hallucinaties te beperken, maar je merkt tegelijk ook dat er daardoor een hoop intelligentie/potentie verloren gaat. It's a double-edged sword.
Haha, het tegenovergestelde is minder waar.
Het verzint niet eens, het is gewoon een waarschijnlijkheidsberekeninng.
Dat je het geloofd, betekend niet dat "het" "slimmer" is geworden.
Versie 4 is nog steeds gebaseerd op hetzelfde basismodel. Het is geen feiten-controle-algoritme, het is een taalalgoritme. Op exact dezelfde manier als voorheen zullen er dus ook dingen verzonnen worden puur omdat ze taaltechnisch en statistisch gezien logisch zijn, al stroken ze niet met de waarheid.

Heb je overigens een bron voor de toegenomen accuraatheid, of is dat slechts een claim van de makers?
Mijn bron ben ikzelf. Ik genereer zelf dagelijks artikelen over gezondheid via GPT4. Ikzelf ken van het meeste de feiten (afgestudeerd) dus kan goed beoordelen of ze kloppen. En wat ik zie is dat chat er bij 3.5 vaker een potje van maakt dan bij 4.
Ik genereer zelf dagelijks artikelen over gezondheid via GPT4
Heeft GPT je ook je nickname gegeven? :+
[...]

Heeft GPT je ook je nickname gegeven? :+
Grappig, nee :+
Mijn bron ben ikzelf. Ik genereer zelf dagelijks artikelen over gezondheid via GPT4. Ikzelf ken van het meeste de feiten (afgestudeerd) dus kan goed beoordelen of ze kloppen. En wat ik zie is dat chat er bij 3.5 vaker een potje van maakt dan bij 4.
Ook versie 4 zorgt voor rampspoed als je in zijn antwoorden gelooft.
Ik krijg eigenlijk zelden correcte antwoorden, tenzij het heel simpele vragen zijn zoals hoe schrijf je "Hij word boos" of "Hij wordt boos". Als 't een klein beetje ingewikkelder wordt dan dat, kan ik het antwoord nooit blindelings vertrouwen. En dan heeft 't antwoord weinig nut; moet je immers alsnog googlen.
Ik geloof je graag maar ik zie toch liever eerst een peer-reviewed paper met een kwantatieve analyse van het aantal hallucinaties voordat het gebruikt wordt in een klaslokaal...
Ooh gpt4 kan er ook op los hallucineren hoor. Het is accurater. Maar kent zeker zijn grenzen.
Gisteren een AWS Cloudformation template laten genereren voor toevoegen IPv6 aan een EC2 instance. Leek me doenbaar, alle officele documentatie is vrij toegankelijk.

Het zag er in eerste instantie geloofwaardig en herkenbaar uit. Na controle moest ik concluderen dat ChatGPT properties had gedefinieerd die geheel niet bestaan….
Dat is het. Hij hallucineert zo goed dat je echt al expertise moet hebben en nauwkeurig moet kijken alvorens je het ziet. Dat maakt het des te gevaarlijker.

Maar het is een hele goede partner als je alle logica voorkauwt en het vertalen naar code aan gpt overlaat. Sowieso een betere partner dan bijna al men collega’s die ik ooit heb gehad.

Ook vertalen van nederlands - frans werkt imo feilloos. Nog geen fouten tegengekomen daar.

Edit: als ik er even over nadenk. Dan heb ik al best wat geleerd van gpt hallucinaties. Brengt me soms op een pad dat ik anders niet had bewandeld.

[Reactie gewijzigd door BlaDeKke op 28 juli 2024 18:56]

Tsja. Ik heb hetzelfde gehad met het genereren van Kube manifests voor grafana (met autoprovisioning van dashboards). Krijg je gewoon dingen die technisch gewoon niet met de Kubectl API kunnen. Het is een goeie start om mee verder te gaan, maar 1-op-1 overnemen werkt vaak maar matig.
Exact. In de basis het prachtige technologie met enorme potentie. Ik heb er zelf veel mee geinteracteerd en was absoluut onder de indruk. Als we nu leren hoe we het op de juiste manier toepassen, dan zullen we er echt prachtige dingen mee kunnen doen.

Wat betreft gebruik in een klaslokaal is de oplossing wel echt redelijk simpel: Voed de machine voor de context met het hele internet, geef het vervolgens een database met alle 'richtdata', curated content, en instrueer dat inhoudelijke antwoorden op vragen alleen vanuit de curated database gegeven mogen worden.

Dan krijg je de socialiteit van het volledige internet, met geisoleerde specialistische kennis zoals je het voor de doelgroep aan wilt bieden.

We'll figure it out.
You sure? https://fortune.com/2023/07/19/chatgpt-accuracy-stanford-study/

[Reactie gewijzigd door Marcel317 op 28 juli 2024 18:56]

mwah, bij programmeervragen loop ik best vaak tegen verzonnen functie of parameters aan, als je chatGPT daarop wijst komt er een verontschuldiging en een nieuwe antwoord (met alweer een verzonnen functie of parameter).
Mijn ervaring is dat ChatGPT 4 nog steeds veel hallucineert.
Alles heeft 2 kanten, en ook deze kant van 'de sport'.

Net als 'hoe ver kan je gaan met grapjes op tiktok', wordt natuurlijk dit straks ook gewoon een wedstrijd wie de meest idiote informatie op een nieuwssite kan krijgen.
Die dingen zijn zo goed als de info die je er in stopt.... Daarom altijd kijken wie is de belanghebbende bij die AI.
Wat Luchtbakker zegt, plus je kunt chatgpt4 instrueren iets alleen zaken te schrijven waar ie zeker van is.
Dan nog is het niet per se waar. Het is een taal model. GPT kan met volle overtuiging nog steeds een verhaal vertellen dat niet klopt.

Ik ga even kijken of ik een plaatje kan uploaden met een simpel voorbeeld.

Edit: https://tweakers.net/i/XH...ymIIA8hh.png?f=user_large

Klopt echt geen klap van.
https://tweakers.net/i/rV...7eW6nDf5.png?f=user_large

Let vooral even op de onderste zinnen.

[Reactie gewijzigd door supersnathan94 op 28 juli 2024 18:56]

Nouja, deze AI heeft ook een hele specifieke taak natuurlijk: ‘hou deze Reddit in de gaten en maak er nieuwsberichten van’.

Doet me heek erg denken aan dit: https://www.nu.nl/interne...lkenende-raar-kapsel.html
Ik ben geen jurist, maar in principe klinkt dit wel legaal, aangezien je verslag doet van een reddit discussie.

Ik denk dat ze het fact-check probleem in de meeste gevallen ook met AI kunnen oplossen. Je zou de AI bv kunnen vragen:
- If this is a product discussion, who is the publisher of this article and what is their website?
- En dan via Bing search API zoeken naar nieuws op de website van de publisher over het topic
- En dan alleen automatisch publiceren als de publisher er zelf ook over geschreven heeft, zoniet, naar human fact check queue.

Met handig gebruik van chatgpt4 en Bing API kan je de meeste onzin voorkomen.
Mits goed ontworpen kan je juist veel meer interessant nieuws brengen met AI imho.
Ik ben geen jurist, maar in principe klinkt dit wel legaal, aangezien je verslag doet van een reddit discussie.
Buiten het juridische deel zijn websites die artikelen publiceren gebaseerd enkel op discussies op Reddit gewoon zielig bezig, AI of anders. Reddit is geen primaire nieuwsbron. Reddit is de (vaak slechte, incorrecte, irrationele) reactie op nieuws.

[Reactie gewijzigd door The Zep Man op 28 juli 2024 18:56]

Ik denk dat er best nieuwswaarde zit in de top 0,1% van meest populaire discussies. En ook je kunt chatgpt 4 ook voorbeelden/instructies geven van wat je wel of niet nieuwswaarde vindt hebben.

En bij nieuwssite met een user-score kaart zoals tweakers kan je dat een een guru/"celeb" in een bepaald topic iets zegt.
Er zit veel meer waarde in niche discussies dan in de meest populaire discussies. Feitelijke stellingen wegen niet op tegen onderbuikgevoelens en memes. En dan nog blijft reddit géén primaire nieuwsbron, dus ook de beste discussies zijn niet handig om nieuws over te schrijven.
Moreel gezien zou je inderdaad zo’n check eroverheen moeten gooien, maar dan loop je het risico om niet meer de eerste te zijn met het nieuws waardoor het minder waard wordt. En daar wringt de schoen; het gaat ze niet om het nieuws, maar om de poenies, en… daar gaat het morele en ethische besef overboord😥
automated propoganda letsgo? 8)7
Oef, dat artikel leest ook gewoon echt slecht. Veel herhaling, weinig echte statements, veel gebakken lucht. Het is duidelijk te zien aan de opzet dat het door een (matige) AI is geschreven. Maar, kennelijk verdienen ze er aan, anders zouden ze het niet doen...
Ik kom steeds meer van dat soort niets zeggende sites tegen, vooral als je iets van reviews zoekt. Ontzettend irritant.

[Reactie gewijzigd door Rogers op 28 juli 2024 18:56]

De archive site in de link doet het niet en heb er eigenlijk ook nooit van gehoord. Hier een werkende archive.

https://web.archive.org/w...for-glorbos-introduction/

[Reactie gewijzigd door TechSupreme op 28 juli 2024 18:56]

En dan is dit nog vrij onschuldig. Laatst was ik informatie het zoeken over medicatie en daar kwam ook ogenschijnlijk gegenereerde content naar boven met informatie die niet klopte, dat vind ik veel zorgelijker.
Onzinnige/slechte/kwaadwillende content kon altijd al geupload worden, ook voor deze LLM's waren er genoeg manieren om geautomatiseerd websites te genereren etc. -- het is nu alleen gemakkelijker geworden.

De taak ligt vooral bij de zoekmachines om hun algoritmes zo aan te passen dat slechte content niet te veel andacht krijgt. Erg lastig natuurlijk.
als iedereen (in een later stadium, foutenmarge dicht bij 0%) AI voor waar zal nemen en er één handige harry dit kan manipuleren zijn we nog verder van huis.
iedereen zal dit gewoon geloven en niemand zal zich nog vragen stellen wat betreft de echtheid.
massa volgt nu al blindelings de you tube sterren en influencers.
groot deel van de jeugd heeft geen basiskennis meer maar volgt gewoon.

AI is ok maar volgens mij zal het ooit misbruikt worden. not???
Natuurlijk kun je het manipuleren, vooral in de niche afdelingen. GPT reproduceert mijn eigen code als ik heel precies om een programma vraag die ik gemaakt heb om een heel niche probleem te vullen.

Wel gemakkelijker om leugenaars te vangen in lessen of het aanwerven. Gebruik je GPT, nee, waarom zie ik dan dezelfde code lijn voor lijn.
Nog het allermooiste aan deze actie is dat het duidelijk wordt dat AI niet blindelings te vertrouwen in.
Het zal lezers aansporen om zelf bewust na te denken en niet alles klakkeloos als waarheid aan te nemen.

Op dit item kan niet meer gereageerd worden.