Uitgever wetenschappelijk blad Nature vindt gebruik ChatGPT door auteurs oké

De uitgever van Nature en andere wetenschappelijke tijdschriften vindt het acceptabel als auteurs ChatGPT of andere AI-tools gebruiken in artikelen, zolang ze dat gebruik maar kenbaar maken. ChatGPT kan geen auteur worden.

Springer Nature, die veel wetenschappelijke tijdschriften uitgeeft, heeft zijn regels een update gegeven om duidelijk te maken dat auteurs het gebruik van ChatGPT of soortgelijke tools moeten noemen. De uitgever redeneert dat ChatGPT geen auteur kan zijn van een wetenschappelijke paper, zelfs als het de tekst voor een groot deel heeft gegenereerd. Volgens de uitgever is een auteur verantwoordelijk voor de inhoud en een AI-systeem is niet verantwoordelijk te houden.

De uitgever tekent aan dat ChatGPT momenteel vermoedelijk beperkt bruikbaar is voor het schrijven van wetenschappelijke artikelen. De output is immers afhankelijk van de associatie tussen woorden en het systeem checkt zichzelf niet op fouten. Daarnaast structureert het teksten anders dan mensen doen. OpenAI bracht in november een publieke versie uit van AI-gesprekstool ChatGPT, maar de ontwikkeling van Large Language Models is al langer aan de gang.

Door Arnoud Wokke

Redacteur

26-01-2023 • 19:48

68 Linkedin

Reacties (68)

68
68
43
3
1
21
Wijzig sortering
Wellicht nuttige context: er zijn al jaren vrij stricte regels over wie wel en niet auteur kan zijn op een wetenschappelijke publicatie. Hoewel deze per tijdschrift verschillen, houdt Springer Nature zich doorgaans min of meer aan de eisen van ICMJE: significantie contributie tot het werk (dus niet als leider van het lab even je naam ergens onder zetten waar je niet aan gewerkt hebt), het artikel ofwel geschreven hebben ofwel critisch geevalueerd, officieel permissie geven voor publicatie (min of meer, dat je achter de conclusies staat) en verantwoordelijk zijn voor de inhoudt.

Vooral dit laatste is binnen de wetenschap belangrijk: er is niet echt een legaal framework om wetenschappers aan te klagen als ze foute info publiceren, maar je reputatie is wel belangrijk. Als een groep keer op keer dingen publiceert die niet waar blijken te zijn (en ze bijvoorbeeld op retractionwatch voorbij komen) wordt het moeilijker voor die wetenschappers om meer te publiceren, en dat heeft weer gevolgen voor kans op promotie en andere banen. Binnen wetenschap is een goede reputatie erg belangrijk. En aangezien veel publicaties tegenwoordig in samenwerkingsverband worden geschreven, is het ook belangrijk om te weten waar het misgaat als iemand een fout ontdekt.

En dat is min of meer waarom ChatGPT nooit auteur kan zijn: als er een fout in een artikel staat, is er iemand verantwoordelijk voor. Dat kan een onschuldige fout zijn (waar gehakt wordt vallen spaanders) of het kan opzet zijn geweest, maar hoe dan ook, het moet duidelijk zijn bij wie die fout is ontstaan. En dan kun je niet simpelweg naar een chatbot wijzen en zeggen: "ja maar alles wat ik gedaan heb is goed, het is die chatbot die deze fout gemaakt heeft!".

Overigens is het nut van ChatGPT voor het schrijven van wetenschappelijke publicaties nogal discutabel. Zo lijkt ChatGPT bijvoorbeeld random conclusies te verzinnen, en maakt het referenties naar bronmateriaal op uit verzonnen namen en tijdschriften. De tijdschriften die onder Springer Nature vallen zullen hierop controleren, maar er zijn ongetwijfeld tijdschriften die niet die controle uitvoeren en dergelijke teksten door zullen laten - waarna ze hopelijk uiteindelijk op retractionwatch terechtkomen ;)
Zo lijkt ChatGPT bijvoorbeeld random conclusies te verzinnen, en maakt het referenties naar [verzonnen bronmateriaal].
Overigens doet ChatGPT dat pas nadat je vraagt (in dit voorbeeld)
  • Pretend you are a scientist in condensed matter psysics
Daarmee (pretend) geef je de AI de vrijheid dingen te bedenken. Wanneer ik soortgelijke vragen stel aan ChatGPT zonder te vragen te doen alsof het een wetenschapper is zegt de AI meestal dat het er geen verstand van heeft of het niet begrijpt.

[Reactie gewijzigd door Cbr op 26 januari 2023 23:15]

Je hoeft niet te vragen dat het "doet alsof" of dat het dingen mag bijverzinnen. Ik heb zonet de volgende query ingevoerd:
Write a related work section about the design of transparent light-field displays, and provide the references in bibtex format.
Op basis van de query, zou je - lijkt mij toch - niet verwachten dat chatGPT dingen gaat verzinnen.
Welnu, naast een "related work" section die technisch niet veel steek houdt geeft het ook de volgende references:
@article{MIT2015, title={A transparent, low-cost, high-resolution display using diffractive optics}, author={B. R. Johnson and D. A. Fattal and R. Raskar}, journal={ACM Transactions on Graphics}, volume={34}, number={6}, pages={248}, year={2015}, publisher={ACM} }

@article{UCB2016, title={A transparent, near-eye, holographic display using waveguide optics}, author={D. R. K. Kamm and T. R. Wenzel and S. A. Benton and R. Raskar}, journal={ACM Transactions on Graphics}, volume={35}, number={6}, pages={248}, year={2016}, publisher={ACM} }

@article{USC2017, title={A transparent, light-field backlight for see-through displays}, author={J. Chen and Y. Du and S. Lin and R. Raskar}, journal={ACM Transactions on Graphics}, volume={36}, number={6}, pages={248}, year={2017}, publisher={ACM} }
Geen van deze publicaties bestaat, maar de references kunnen wel overtuigend lijken: R(amesh) Raskar is het hoofd van MIT's Camera Culture group. Zijn groep heeft in het verleden gewerkt rond Light Field displays (Tensor Displays), en hij heeft ook redelijk wat publicaties in ACM TOG. Maar bovenstaande "werken" zijn er geen van.

ChatGPT is leuk voor bepaalde taken, maar je moet de uitvoer toch steeds goed nakijken. Een eerste stap kan zijn om aan chatGPT te vragen of wat hij geschreven heeft wel klopt: dan pas geeft hij bij mij aan dat hij er onvoldoende van af weet om iets corrects te produceren (al vraag ik mij af of het dat steeds zal doen, of af en toe toch een "ja hoor, dat klopt" teruggeeft. Het is immers een taalmodel en geen databank).

Het lijkt me dan ook terecht dat Nature de verantwoordelijkheid nog steeds bij de auteurs legt.

(Toegegeven, het voorbeeld hierboven vraagt naar iets zeer specifiek. Maar ik had in zo een geval toch liever dat het zou antwoorden dat het niet aan de query kan voldoen.)
Niet alleen dat. Ik heb ChatGPT van de week wat thermodynamische vraagstukken en sommetjes voorgelegd. Het ging toen al mis met hele simpele algebra (invullen van de ideale gaswet). Toen ik het daarop 2 keer corrigeerde bleef het in een soort loop waarbij het de verkeerde getallen produceerde. Ik was wel onder de indruk hoe snel het wist wat het precies moest doen, maar de uitvoering is toch niet altijd helemaal nauwkeurig.
Het is een taalmodel, geen Google. Het doel is een conversatie te voeren, niet het internet te doorzoeken, ook al wordt het hier wel voor gebruikt. Dit valt eenvoudig op te lossen, maar is out of scope van de huidige testversie.
Dat niet alleen, hij kan ook simpelweg geen wiskunde begrijpen. Zoals je zegt is het een taalmodel.. Zijn prioriteit is (zo goed mogelijk) antwoorden geven, niet nauwkeurig zijn.

@JEROENrgfgf je zou deze modellen (GPT) kunnen combineren met WolframAlpha. Dan voert WolframAlpha de berekeningen uit. Voorbeeld:
First look - ChatGPT + WolframAlpha (GPT-3.5 and Wolfram|Alpha via LangChain by James Weaver)

Dit is ook de toekomst van AI en zo werken je hersenen ook (gespecialiseerde taken/regionen). Je spraak center kan geen wiskunde maar geeft het door naar andere regio's.
ChatGPT lijkt moeite te hebben met getallen. Ik vroeg het wat de kans op een 1 zou zijn als we een dobbelsteen met 5^50 kanten zouden simuleren. Daarop zei de bot dat dat niet kon, omdat zo'n grote dataset nooit gesimuleerd kan worden.

Toen vroeg ik het wat de kans op een 1 was op een simulatie van een dobbelsteen van 5^20 kanten. Antwoord, dat kan nooit want zo'n grote dataset kan nooit gesimuleerd worden.

Toen vroeg ik het wat de kans op een 1 was op een simulatie van een dobbelsteen van 5^3 kanten. Antwoord, dat kan nooit want zo'n grote dataset kan nooit gesimuleerd worden. Dat laatste getal is slechts 125.

[Reactie gewijzigd door jaxxil op 27 januari 2023 11:28]

Je kan ChatGPT vaak overtuigen dat zijn antwoord fout is. Ik zou op de eerste al gereageerd hebben met iets als "Your answer is wrong, this dataset can easily be simulated. Please try again". Vaak krijg je dan een soort reactie waar hij zich verontschuldigd en het alsnog voor je doet.
Ja, maar het probleem is dat je dan het antwoord al moet weten op de vraag die je aan ChatGPT stelt om het juiste antwoord er uit te manipuleren. Dat maakt het niet super nuttig voor het krijgen van antwoorden op je vragen, en erger dan dat kan de bot je op heel verkeerde gedachten brengen want elke keer spuugde hij dus netjes een paragraaf uit met een uitleg waarom dit niet kon. Waarbij de bot twee fouten maakte, namelijk 1) het kon wel, en 2) het antwoord op de vraag is voorhanden zelfs als het simulatieproces zelf ingewikkeld is (de kans van een 1 op een dobbelsteen met 5^50 zijden is 1/(5^50) ).
Je moet alleen weten dat het antwoord dat hij geeft niet juist is, je kan het gegeven antwoord gewoon nagaan en kijken of er kaas van te maken is. Als het nergens op slaat kan je dat tegen ChatGPT zeggen. Je hoeft niet het juiste antwoord te weten op voorhand.
Maar bijvoorbeeld als je specifieke kennis hebt van computing, hoe ga je dit dan nakijken? Misschien Google je iets en als je ver leest kom je dan uit op 32 en 64 bit integers en overflow errors en dan denk je, ja klopt, past er niet in.

Het probleem is dat de kennis die je nodig hebt om te bepalen dat iets fout is gewoon de kennis van de zaak zelf is, en ChatGPT daarmee behoorlijk minder nuttig wordt en op z'n slechtst behoorlijk misleidend.
Je kan ChatGPT heel goed inzetten om alvast het saaie deel van je werk te doen. Als je hem bijvoorbeeld een voorbeeld van een component geeft dat geschreven is in Golang, en geeft de prompt "schrijf nu een component die x doet die voldoet aan dezelfde API als het gegeven component", dan komt daar meestal al iets bruikbaars uit wat je zelf met minimale aanpassing in je codebase kan stoppen.

Hetzelfde kan je doen voor het schrijven van documentatie, geef ChatGPT wat info over een functie en laat hem documentatie genereren. Dan is het enige wat je nog moet doen checken of het klopt en e.v.t. wat bijsturen. Kan een hoop getyp schelen.
Okay, maar dat jij het gebruikt voor andere dingen maakt het niet minder erg dat ChatGPT misleidende maar overtuigde antwoorden geeft op vragen. Het is prima als je fan bent van de technologie maar je hoeft niet het slagveld op te rennen voor ChatGPT als iemand de problemen van de technologie aankaart.
Eigenlijk zou ChatGPT dus alleen data mogen gebruiken uit de dataset die de vraagsteller (=gebruiker van ChatGPT) aanlevert. Dat beperkt natuurlijk de output maar herstructureren van de tekst is dan wel mogelijk of zelfs op basis van losse statements een verhaal op te bouwen. Maar in dat geval blijven de 'feiten' in ieder geval beperkt tot wat de vraagsteller als feit aanlevert.
Ik heb het idee dat ChatGPT geen nee mag verkopen. Ik gebruik het vooral om vragen waar ik geen antwoord op kan vinden voor code oplossingen die ik zoek. 9/10 keer is ChatGPT niet behulpzaam, maar komt wel met een foutief antwoord.

Het lijkt vooral dat ChatGPT wel bepaalde frameworks kent maar niet de verschillen er tussen en geeft dus vrij vaak een oplossing die dan niet beschikbaar is. Als je dat dan zegt krijg je alleen de You're right response en word er een nieuwe oplossing gezocht die in de zelfde richting zit en dus ook niet gaat werken.

Ook word er vaak gewoon iets verzonnen. Je zoekt een oplossing om iets via een API te benaderen, en ChatGPT geeft je een antwoord als of die bestaat terwijl dat niet zo is.

Onderliggend worden er veel A =B relaties gelegd die je dan moet tegenspreken en hopen dat er een ander antwoord uit komt.

Dit soort antwoorden geeft een mooie inzage in hoe ChatGPT informatie aan elkaar knoopt. Zonder enige kennis van zaken lijken dingen inderdaad op elkaar, en als ik heb geen antwoord geen optie is dan word het uiteraard een onbetrouwbare bron van informatie.
Zo lijkt ChatGPT bijvoorbeeld random conclusies te verzinnen, en maakt het referenties naar bronmateriaal op uit verzonnen namen en tijdschriften.
Wat imho hilarisch zou zijn is dat iemand software maakt die op basis van die artikelen de bronnen checkt en als ze niet bestaan hele sites produceert op basis van de ChatGPT die dan als bron fungeren... Om ze vervolgens aan doi.org te melden met de betreffende weblink... :+
En dat is min of meer waarom ChatGPT nooit auteur kan zijn: als er een fout in een artikel staat, is er iemand verantwoordelijk voor. Dat kan een onschuldige fout zijn (waar gehakt wordt vallen spaanders) of het kan opzet zijn geweest, maar hoe dan ook, het moet duidelijk zijn bij wie die fout is ontstaan. En dan kun je niet simpelweg naar een chatbot wijzen en zeggen: "ja maar alles wat ik gedaan heb is goed, het is die chatbot die deze fout gemaakt heeft!".
Een artikel wordt niet ingetrokken omdat een persoon een fout maakt maar omdat de inhoud fout is, dat ChatGPT niet verantwoordelijk kan zijn is niet de reden dat het geen auteur kan zijn. ChatGPT is namelijk geen persoon, heeft geen identiteit en bestaat ook eigenlijk niet als entiteit. Het enige wat bestaat is een verzameling weights die draaien op een computer en als je er wat in stopt komt er wat uit, af en toe is het correct. Verder heeft het geen geheugen (behalve de huidige sessie), het leert niet actief van fouten (het leert helemaal niet, alleen als je 1000 GPU's een weekje laat stoken) en eigenlijk is het niets meer dan een stuk gereedschap waar een auteur wel of niet gebruik van kan maken. Uiteindelijk ben je zelf verantwoordelijk voor wat je publiceert, ChatGPT of niet.
Overigens is het nut van ChatGPT voor het schrijven van wetenschappelijke publicaties nogal discutabel. Zo lijkt ChatGPT bijvoorbeeld random conclusies te verzinnen, en maakt het referenties naar bronmateriaal op uit verzonnen namen en tijdschriften. De tijdschriften die onder Springer Nature vallen zullen hierop controleren, maar er zijn ongetwijfeld tijdschriften die niet die controle uitvoeren en dergelijke teksten door zullen laten - waarna ze hopelijk uiteindelijk op retractionwatch terechtkomen ;)
In feite is ChatGPT een statistisch model. Gegeven een input (de prompt) genereert ChatGPT de statistisch meest significante output. Doe je dat 1000 keer dan heb je een tekst. Hiermee kun je ook de hallucinaties van ChatGPT verklaren, als je een korte prompt geeft zonder context kan ChatGPT op een compleet willekeurige combinatie van woorden uitkomen die coherent lijken omdat ChatGPT perfect Engels kan maar de inhoud is complete onzin. Geef je meer context dan krijg je een beter antwoord. Zo gaf ik laatst een uitgebreide omschrijving van een bash script en ik kreeg exact wat ik wou. Maar als ik een specifieke korte vraag stel over bijvoorbeeld Home Assistant hallucineert ChatGPT allerlei services en templates die niet bestaan.
Het zou iets breder getrokken mogen worden dan wat direct voorhanden is.

Het lijkt me dat in de nabije toekomst hele tijdschriften AI producten kunnen zijn, en dat de wetenschappers alleen nog bewijs aanleveren. Een prominent artikel zou dan zijn wanneer er een belangrijke conclusie kan worden opgemaakt uit het beschikbaar bewijs.

Een AI die wanneer het kan bijvoorbeeld een meta-analyse maakt zou prima auteur kunnen zijn van nuttige artikelen. Ook het trekken van conclusies in het verlengde van wat er al ligt; een paper dat bijvoorbeeld de grenswaarde van een ouder paper helpt tillen;. Er zijn zoveel papers dat de combinatie ervan niet altijd middels mensenwerk gemaakt word.

Het blijft de vraag welke data zo'n AI uiteindelijk gebruikt, en dat zal dus altijd een soort autheurschap overdragen.
"Zo lijkt ChatGPT bijvoorbeeld random conclusies te verzinnen" - genereren. Het genereert random conclusies. Het is en blijft geen mens. Het genereert (realistisch ogende) stukkies tekst, dat is wat het doet. Niet meer, niet minder. Er zit geen intelligentie achter, geen gedachten, geen motivatie.

Er is weinig mis met ChatGPT an sich, er is alles mis met hoe mensen het interpreteren. En door niet uiterst correct te verwoorden wat het doet, wordt het probleem alleen maar groter. ChatGPT is entertainment. Maar mensen willen het behandelen alsof we nu nabij het moment zijn waar je 24/7 kan gaan zitten gamen :/
Het is echt wel meer dan entertainment, maar je moet het niet gebruiken om dingen te genereren waar je geen verstand van hebt, zodat je in de gaten kan houden of het nog klopt. Als je een stukje tekst moet schrijven kun je prima de chatbot vragen om een opzetje te maken, die je dan vervolgens zelf aanpast. En dat kan ook op wetenschappelijk niveau. Ik heb er zelf wat mee gespeeld en je kan zeker teksten laten genereren die je in een wetenschappelijke publicatie zou kunnen gebruiken, maar dit zul je wel moeten factchecken. En zeker het bedenken van conclusies zul je zelf moeten doen, maar je kan wel chatgpt gebruiken om je te helpen die conclusies netjes op te schrijven.
Kwestie van tijd tot complete sites vol staat met zulke genereerde context, simpel werk, wat foutjes fix je later wel nav reacties, geeft de term 'auteur' nu niet bepaald een boost :P
Dat zeg je, maar wat ik ervan zie is dat het beter teksten schrijft dan 80% van de Nederlanders.

Het probleem is, in het geval van ChatGPT, dat alle kennis offline is. Je zal er op nieuwsitems erg weinig aan hebben.

Hiernaast is het een AI die menselijk converseren kan nabootsen, het is niet bedoeld als informatie vraagbaak.
Dat zeg je, maar wat ik ervan zie is dat het beter teksten schrijft dan 80% van de Nederlanders.

Het probleem is, in het geval van ChatGPT, dat alle kennis offline is. Je zal er op nieuwsitems erg weinig aan hebben.

Hiernaast is het een AI die menselijk converseren kan nabootsen, het is niet bedoeld als informatie vraagbaak.
Nah je kunt niet in dikke letters schrijven maar dat maakt het gelukkig niet perse waar.

Zo moest ik vandaag even alle gebruikers uit een OU exporteren op Windows Server, zoiets wat je af en toe eens doet en het daarom niet in je hoofd zit.

Ik vraag aan Chat GPT “Hoe exporteer ik gebruikers uit een OU”, zonder verdere context o.i.d. en hij komt precies met de opdracht die ik zo in powershell kan plakken.

Dat is toch wel echt goud allemaal hoor.
Dat er goede antwoorden uit komen, betekend toch niet dat het ervoor bedoeld is? Ik bedoel, dat staat zelfs in de voorwaarden als je een account maakt.

Ik snap ook wel dat gereedschap gebruikt kan worden voor dingen waar ze niet voor bedoeld zijn. Zo kan je hameren met een tang.

Maar mijn punt is dat je dit nooit serieus als artikel-schrijf-machine kan gebruiken. En zeker niet voor nieuws. De AI heeft er simpelweg de info niet voor. Het kan natuurlijk mooie zinnen maken, dat wel.
Nou gaat het hier over wetenschappelijke artikelen, en daar zit vaak een hele introductie/achtergrond sectie bij die de basis concepten uitlegt. Daar kan iets als chatGPT zeker bij helpen hoor. Ik zie er nog wel wat andere grote haken en ogen bij voor de wetenschap, zoals:
  • ChatGPT bied standaard geen bronnen bij de geleverde output, wat ook voor basis concepten wel een belangrijk gebruik is in wetenschappelijke publicaties
  • Hoe weet je zeker dat de text die ChatGPT je bied uniek is, en dat er geen copyright op rust (zowel van enige bron die chatGPT intern aanhaalt als van iemand die al eerder hetzelfde concept door chatGPT heeft laten uitleggen en dit direct gebruikt heeft in een publicatie)?
  • Gezien de erkenning die Nature vraagt voor het gebruik van chatGPT of soortgelijke tools, waar ligt die grens? Spellings/grammatica controle in bijv. Word wordt tot nu toe nooit vernoemd, maar moet dit wel als je chatGPT een door een auteur geschreven tekst laat opschonen? Hoe zit dit met de nieuwe experimentele feature van Deepl die je helpt met netter schrijven?
Nu wil ik een stelling bij je neerleggen.

In een wetenschappelijk artikel, gaat het om hetgeen wat je onderzocht hebt en uit wil leggen, of de manier waarop? En de manier waarop, daar valt oa ook taal. zinsconstructies, grammatica en woordgebruik onder.

Ik ben van mening dat een wetenschappelijk blad, of een artikel geen copyright oid kan hebben zolang de tekst niet letterlijk woord-voor-woord is overgenomen. Het blijft ten alle tijde om de boodschap gaan.

Bijvoorbeeld romans quoten is geen probleem, maar het werk uitgeven als nieuw, dat is wel een probleem. En ik vermoed dat een AI dit niet zal doen, met de juiste 'reinforced learning'.
  • Nogmaals, voor de honderduizenste keer, ChatGPT is géén wikipedia oid. Het is een conversatietool die voor andere doeleinden (mis-)gebruikt wordt. Geen bronnen is hierbij niet van belang. Je gaat immers in een (chat) gesprek bij elke zin toch ook geen bron noemen?
  • Omdat wetenschappers eigen tooling hebben om copyright of plagiaat te detecteren. Hiernaast, wederom, het is een chattool niks meer. Wat je wellicht in de toekomst zou kunnen doen is input leveren en ChatGPT hier een verhaal van maken. Dan heb je gegarandeerd ook nooit last van copyright oid.
  • Hoe bedoel je? Welke grens? Als ChatGPT een soort Skynet wordt en zelf wetenschappelijk onderzoek gaat doen, waarom zou het dan niet zelf mogen publiceren? Uiteindelijk gaat het om de inhoud, niet de vorm! Zolang het onderzoek van jouzelf is, boeit het niet wie de tekst schrijft.
In een wetenschappelijk artikel, gaat het om hetgeen wat je onderzocht hebt en uit wil leggen, of de manier waarop?
Het artikel gaat om het delen wat je onderzocht hebt, hoe je dit doet heeft heel veel impact op de disseminatie. Goed onderzoek kan slecht opgepakt worden als je het niet goed uitlegt, en dat is zonde. Zaken helder en precies uitleggen is iets waar best veel wetenschappers (ik zelf ook) toch wel mee worstelen. Hoe beter je dat doet, hoe beter je onderzoek wordt opgepikt. Zowel door andere wetenschappers, als ook studenten en journalisten o.a. Sommige wetenschappers doen onderzoek om het onderzoek doen, maar velen doen het ook met een bepaald doel om iets te bereiken met het onderzoek. Als je financiering voor nieuw onderzoek zoekt, dan helpt het ook enorm als je voorgaande onderzoek een goed bereik heeft. Als chatGPT, of vergelijkbare tools, je hierbij helpen is dat mijns inziens alleen maar een goede zaak. Daarom verbaast het mij dus niet dat Springer Nature, die in o.a. hun portfolio van Nature journals auteurs ook oproept om artikelen voor een breed publiek te schrijven, deze tool toestaat.

Wat jou mening over copyright is, dat doet er niet zo toe. Er zijn strakke regels over copyright en daar hebben we het mee te doen. De tooling als wetenschappers om plagiaat te ontdekken is helemaal niet zo sterk. Het is aardig goed om te kijken of er plagiaat is gepleegd ten opzichte van artikelen die al even uit zijn, maar heel lastig om dit voor zeer recent onderzoek te doen. Als je publiceert over een onderwerp dat op dat moment best trendy is, dan is er een goede kans dat meerdere wetenschappers op het zelfde moment aan het werk zijn met chatGPT texten. Tussen je plagiaatcontrole en de daadwerkelijke uitgave van je artikel kan iemand anders maar zo ook dezelfde query aan chatGPT voorgelegd hebben en hetzelfde antwoord hebben gekregen. Zoals ik eerder al zei, je zal chatGPT vooral gebruiken voor de uitleg van meer generieke begrippen in de introductie of achtergrond secties van je artikel. Copyright krijg je op het moment van publicatie, en bij wetenschappelijke artikelen wordt die dan of overgedragen aan de uitgever (vaak als de uitgever zelf de publicatie bekostigd en het artikel achter een paywall verdwijnt), of die blijft bij de auteurs (vaak als de auteurs betalen voor de publicatie en die vrij beschikbaar komt).

ik weet dat chatGPT geen wikipedia is, maar je kan het voor meer gebruiken dan een chatgesprek. En de grens beschreef ik al, op welk moment moet je computer assisted writing nou benoemen, is dit nu al noodzakelijk als MS Word wat spellingscorrecties doet, als tools zoals Grammarly of Deepl suggesties doen om hele zinnen te verbeteren, of als chatGPT een hele paragraaf of twee voor je schrijft? Ik had het er nergens over dat de AI het onderzoek voor je zou doen (en Nature ook niet). Als je dit artikel op Tweakers had gelezen, dan had je gezien dat Springer Nature een vermelding vereist nu van welk software je gebruikt: "Springer Nature, die veel wetenschappelijke tijdschriften uitgeeft, heeft zijn regels een update gegeven om duidelijk te maken dat auteurs het gebruik van ChatGPT of soortgelijke tools moeten noemen.". Mijn vraag was heel simpel, wat is hier soortgelijke software? Waarom begin je dan over een Skynet die onderzoek voor je doet?
Mijn vraag was heel simpel, wat is hier soortgelijke software? Waarom begin je dan over een Skynet die onderzoek voor je doet?
Jouw vraag was letterlijk "waar ligt die grens".

En dat was mijn antwoord. Samengevat: bij het maken van tekst, niet de inhoud. Tenzij de bot zelf onderzoek gaat doen, vandaar de grap van skynet.
Dat is wat jij de grens vind, maar zegt dus helemaal niets over wat de uitgever Springer Nature, waar dit artikel over gaat, ervan vindt.
Je kan GPT alle informatie aanbieden, GPT kan het artikel schrijven met de gegeven informatie en dan kan de gebruiker de teksten controleren.

Stel ik zou een artikel willen maken over een nieuw lek bij Facebook kan ik alle bronnen hiervoor gewoon aan GPT geven en hier kan een mooi artikel mee geschreven worden.
Precies, dat is echt ideaal voor mensen met (een stoornis) die heel slim zijn maar geen leesbaar artikel kunnen schrijven.

Althans, zo beeld ik het mij in.
Dat is dus een vraag die letterlijk in de training set zit. Heel nuttig overigens.
ChatGPT kan dus heel nuttig zijn voor het doorspitten van grote hoeveelheden
tekst

In een stuk op cnn staat een heel verhaal over charGPT dat examens goed kan invullen. Mijn conclusie is dan dat de examens de verkeerde vaardigheden toetst

Maar… misschien wordt zelf nadenken en tot NIEUWE conclusies komen weer de norm voor de toekomst ipv enorme hoeveelheden data te produceren zonder dat er fasoenlijk over wordt nagedacht.
Da's gewoon Stack Overflow.

De revolutie is niet de kennis, maar het feit dat je de kennis kunt ontsluiten zonder de reclame/bullshit van Google plus de reclame/bullshit van de sites waar de kennis op staat.
Da's gewoon Stack Overflow.

De revolutie is niet de kennis, maar het feit dat je de kennis kunt ontsluiten zonder de reclame/bullshit van Google plus de reclame/bullshit van de sites waar de kennis op staat.
Dat het “gewoon” van stack overflow komt snap ik maar dat was het punt niet natuurlijk.
Wat? Is het niet juist een informatie vraagbaak?

Het is indd niet live dus het is niet zo nuttig als het aankomt op "het laatste nieuws", maar het is toch zéér zeker geen "menselijk converseren" AI. Je kunt het niets vragen over controversiële onderwerpen zonder een standaard non-AI reactie te krijgen en je kunt het geen enkele mening vragen of zaken omdat je dan de reactie krijgt "As an AI I do not hold opinions" (of iets in die richting).

Wat het na deze opmerking vervolgens doet, is "But here is some factual information about the subject"; genereert lijst aan informatie.

Maakt dit het niet letterlijk een informatie vraagbaak?
Wat? Is het niet juist een informatie vraagbaak?

[...]

Maakt dit het niet letterlijk een informatie vraagbaak?
Klopt. Nee.

En nee.

Van hun site: "We’ve trained a model called ChatGPT which interacts in a conversational way.". Dat is het hele en enige doel nu.

De reden dat je er niks controversieels uit kan halen is dat ze heeeel erg hun best doen om de AI niet binnen een dag afgeschoten te krijgen, zoals eerder is gebeurt. Als je naar normale kleuren, zwart en wit vraagt dan krijgt je al een ontwijkend antwoord. Zeker in Amerika wordt je aan de schandpaal genageld en levens begraven als je AI durft te suggeren dat wit papier beter is om op te schrijven met een blauwe balpen, dan zwart papier. Want Amerikanen, met name, trekken alles door naar rasisme. Overigens is de aandacht hierop erg goed hoor, maar ik vindt dit wel erg knullig nu.

Maar goed.
De truuk is om er genoeg informatie in te pompen dat je een gesprek kan houden.

Probeer maar eens een gesprek te houden zonder kennis of inhoud. Lukt je niet.

De AI gebruikt de kennis als conversatie-tool, niets meer. Dat jij dat weer kan gebruiken is bijvangst.
Agree to disagree denk ik. Jouw citaat zegt toch ook niets over dat het 'menselijk' zou moeten zijn?

Daarnaast zijn marketing en realiteit 2 andere dingen. Ook doel en resultaat kunnen afwijken.

Ik vind, aangezien het alles baseert op informatie welke het gevoed heeft gekregen (wat dus ook biased kan zijn, zoals de bot zelf aangaf in mijn gesprekje hierover met het ding) en het deze informatie manipuleert en herhaalt, het een informatie vraagbaak is.

Dat maakt het subjectief, dus we mogen het oneens zijn, toch?
Dat is het punt, het is niet marketing. Het staat letterlijk in hun stukken over het product.

Je mag een product nooit "aanvallen" (lees de quotes!) om een functie die buiten het doel ligt.

Wanneer wij een gezellig gesprek hebben gewoon zomaar. En ik vertel daar dingen die jij niet wist, ga je dan ook moeilijk doen?

Dus waarom wel bij dit stuk gereedschap waarvan heel duidelijk staat dat het niet voor informatievoorziening bedoeld is?

Dit is mega objectief, het staat er letterlijk...
De schrijver schrijft niet beter, dat doet vooral dat hulpmiddel als dat het verschil maakt. En dan kan een uitgever of indiener van de tekst wel graag de naam er bij hebben met noemen van het hulpmiddel, het is een glijdende schaal om dat hulpmiddel nodig te hebben en dan niet duidelijk te zijn wat de schrijver die het vaak om de erkenning en geld gaat, nog werkelijk zelf heeft gedaan. Maar dat soort je naam er perse bij willen als anderen vooral het werk doen is helaas nogal gebruikelijk in het wereldje.
Het probleem is, in het geval van ChatGPT, dat alle kennis offline is. Je zal er op nieuwsitems erg weinig aan hebben.
Live connectie met internet staat al op de roadmap voor ChatGPT.
En terecht. Maar nu is het er (nog) niet en klopt het dus wat ik schrijf.
Dat niet alleen, soms is de informatie die ChatGPT heeft, niet juist, niet to-the-point of onvolledig.

Als ik het volgende vraag aan ChatGPT:

"summarise the NS ICNG in one paragraph in Dutch"

Dan komt hij met het volgende op de proppen:

"NS ICNG is een project dat gericht is op de modernisering van de spoorwegen in Nederland. Het doel is om de capaciteit van het spoor te verhogen en de betrouwbaarheid te verbeteren door de inzet van nieuwe treinen die voldoen aan de ICNG-specificaties. Dit betekent dat de treinen sneller, comfortabeler en duurzamer zijn dan de huidige treinen."

Nu moet je weten dat de NS ICNG een nieuw type trein is dat op de HSL gaat rijden. Het is geen project voor modernisering en ook geen set specificaties. Tuurlijk is er ooit een tender uitgeschreven (wat je een set specs kunt noemen), maar dat is niet de kern van het verhaal.

Een mens zou de NS ICNG samenvatten als:

"De NS ICNG is de nieuwe intercitytrein van de NS die eind 2023 gaat rijden over de HSL. De trein vervangt de huidige treinen die worden getrokken door een locomotief. De treinen ogen moderner en zijn met hun topsnelheid van 200 km/u ook sneller. NS heeft treinen besteld voor gebruik binnen Nederland en treinen die kunnen rijden in Nederland en België. Ook zijn er twee treinstellen uitgerust voor het rijden naar Duitsland, als proef voor een toekomstige nabestelling."
Het mooie is dat het voor mij, die nog nooit van die treinen gehoord heeft, volledig plausibel klinkt. Mooi klinkende verhalen die complete onzin waren heb ik ook op mijn vakgebied gekregen van ChatGPT. En vragen naar Nederlandse literatuur (het gouden ei kan ik me nog herinneren) levert ook complete onzin op.

Ik hoop dat het brede publiek niet op dit ding gaat vertrouwen.
Vooral handig voor seo.kan je makkelijk content laten genereren en hoog in de zoekresultaten komen bij Google.
Wat als jij en ik een artikel schrijven over DNA mbv chatGPT en we gebruiken dezelfde sleutel woorden, veranderen paar zinnen en we claimen allebei de auteur rechten. Wat beslist de rechter?
De twee teksten zullen verschillend zijn, en geen nieuwe feiten bevatten die niet al bekend waren. Dus jullie zijn beiden auteur, tenzij je onder ede bij die rechter toegeeft dat ChatGPT de auteur is.
Gaat tweakers @redactie het ook gebruiken? Om artikelen te schrijven(typen) @arnoudwokke

[Reactie gewijzigd door juliank op 26 januari 2023 20:08]

Wat als ze dat al hebben gedaan, en we het niet eens door hebben.
Daar hebben we momenteel geen plannen voor nee :)
OK, zijn er expliciete regels dat ze (de redactie) NIET ChatGPT mogen gebruiken?

Want "Daar hebben we momenteel geen plannen voor" betekent niet dat iemand die achter loopt dus niet even snel ChatGPT niet mag gebruiken (in andere woorden: "het wordt gedoogd")
We hebben het nog niet gehad, maar de regel 'je moet alles zelf schrijven' dekt dit wel af volgens mij. Ik zou het gebruik van ChatGPT door een collega niet okee vinden ook.
Auteurs, programmeurs etc zullen veel minder nodig zijn in de (nabije) toekomst. Dat worden testers van de uitgespuwde code van AI. Al zal daar ook wel weer een ai tool voor komen 😅
Of ze gaan gewoon meer werk per uur produceren. Dat is wat wij nu doen, het verschil in productiviteit is meetbaar. Je moet er wel handigheid in krijgen
Je moet er wel handigheid in krijgen
Inderdaad, net als bijvoorbeeld het oude Google. Alle programmeurs op mijn vloer hebben toegang tot Google (natuurlijk), maar slechts een handjevol kan het effectief genoeg gebruiken om redelijk snel tot een antwoord te komen. Dit is ook de realiteit voor ChatGPT.

Mensen die zeggen "kijk, ik vraag dit en ik krijg een fout antwoord" hebben waarschijnlijk niet geprobeerd daarna tegen ChatGPT te zeggen dat dat niet is wat ze bedoelen, en dat het antwoord niet geldig is voor hun vraag.

Ik heb afgelopen week een compleet business-plan gemaakt met een vriend door ChatGPT te gebruiken, inclusief JIRA user stories (als CSV, kon het direct importeren). Later in de conversatie vragen gesteld over die tickets, zoals storypoints toevoegen, en ik krijg een geüpdate lijst met storypoints. En summaries. En subtasks. Etc.
Daarna gevraagd voor de stappen om subtask #1 uit te voeren. Bijna compleet copy-paste werk en subtask 1 was done.

[Reactie gewijzigd door voxl_ op 27 januari 2023 09:41]

Precies mijn ervaring! Een zakenpartner klaagt steen en been over hoe slecht de antwoorden van ChatGPT zijn. Wanneer je dan kijkt welke vragen hij stelt en welke opdrachten hij geeft, dan vermoed ik dat ik het nog slechter zou doen dan ChatGPT... Al is het maar omdat de bot ook na tien kansloze vragen nog steeds keurig antwoord blijft geven, mijn geduld zou al lang op zijn!

Het resultaat van de bot, begint bij de vraag/opdracht. Wanneer je de vraag/opdracht goed kunt stellen, en ook nog eens in staat bent om op basis van het antwoord van de bot verfijning in je vragen/opdrachten aan te brengen, dan heb je goud in handen. Dan kun je echt 5x zoveel werk per uur verzetten
De dag dat een AI een volledig complex systeem kan programmeren zonder tussenkomst van een mens is de dag dat we ons zorgen moeten gaan maken over ons voortbestaan als mens ;) (en ik me zorgen moet gaan maken over mijn beroep :D )

Eigenlijk zijn we als programmeurs al sinds het begin bezig om geautomatiseerd code te genereren. Wie wil er nou programmeren met 0tjes en 1tjes, te tijdrovend en complex, dus assembler, dan een hogere programmeertaal, daarbovenop weer een hogere programmeertaal, enz enz, al dan niet ondersteunt door AI.

En laten we wel eerlijk zijn, onze code bestaat voor meer dan de helft uit stukjes code die je elders (stackoverflow?) vandaan haalt en aan elkaar plakt met de logica die je nodig hebt. ChatGPT doet vaak niet anders, hier een daar stukjes halen en slim aan elkaar plakken tot een begrijpbaar geheel ;)
Gezien de aard van Nature en andere wetenschappelijke tijdschriften, kan ik me dit wel voorstellen. De auteurs en reviewers zitten zwaar bovenop inhoud en wetenschappelijk gehalte. Helaas best op gespannen voet met ook nog iets prettig leesbaars opleveren.

Een mix met een AI die zo gemakkelijk lekker weg schrijft dat je geneigd bent de gekkigheid die het schrijft nog te geloven ook, zou onder zo'n streng filter best eens goed uit kunnen pakken: wetenschappelijk correcte info die nog lekker leest ook :).

[Reactie gewijzigd door Gwaihir op 26 januari 2023 20:02]

wetenschappelijk correcte info die nog lekker leest ook :).
People might actually learn something! ;)

Maar dat gaat alleen maar werken als de informatie correct in het model staat. Anders krijg je hybride teksten waarbij ChatGPT een stuk schrijft en iemand anders het moet herschrijven. Dus tenzij die herschrijver de ChatGPT stijl aanleert en dat naadloos weet aan te passen, wordt dat best een schizofreen artikel.

En ik kan me zo indenken dat Nature veel met redelijk recente informatie werkt (qua wetenschap). Kijk eens naar de meest recente uitgave. Die editorial over ChatGPT kan niet geschreven worden omdat het model is gebouwd op data waarbij nog geen ChatGPT bestond. Zo ook een hele hoop andere artikelen.

Natuurlijk kan OpenAI (met Microsoft zijn hulp) een model maken die met een heel stuk recentere informatie werkt. Ik vraag me af of je aan zo een model kan toevoegen of dat je het hele model opnieuw moet maken met elke toevoeging... Indien het eerste, dan kan je in principe een flinke cluster constant het internet laten afstruinen en deze het model laten bewerken met up-to-date informatie...

Bron:
https://www.nature.com/nature/volumes/613/issues/7945
Een bedrijf als OpenAI kan ervoor kiezen om een model als ChatGPT ('GPT3.5") gewoon te hertrainen, met alle oude kennis gewoon bewaren. Dit is Transfer Learning, een relatief oude techniek al binnen het Machine Learning vakgebied.

Het belangrijke van dit soort modellen is om genoeg informatie vinden om mee te kunnen trainen, volgens OpenAI is het op tig terabytes aan tekst getrained.

Het trainen van zo'n model is alleen niet zo eventjes gedaan, dit gaat om het optimalizeren van zo'n 175 miljard parameters en het tunen van deze parameters kost een paar weken op supercomputers met duizenden GPUs. Kostte waarschijnlijk een gezonde 5 miljoen dollar!

Dus meer info erin van een megawebscraper is het probleem niet. De resources nodig om betekenisvol te hertrainen op nieuwe data is dat wel!
Transfer Learning klinkt interessant!
Het trainen van zo'n model is alleen niet zo eventjes gedaan, dit gaat om het optimalizeren van zo'n 175 miljard parameters en het tunen van deze parameters kost een paar weken op supercomputers met duizenden GPUs. Kostte waarschijnlijk een gezonde 5 miljoen dollar!

Dus meer info erin van een megawebscraper is het probleem niet. De resources nodig om betekenisvol te hertrainen op nieuwe data is dat wel!
Maar die $4.6 miljoen is op hardware van bijna drie jaar geleden. Hoeveel kost dat nu? En zelfs al zouden we rekenen met die 5$ miljoen voor GPT-3. Je hoeft niet alles opnieuw te berekenen, alleen de nieuwe informatie. Maar laten we stellen dat je toch die $5 miljoen kwijt bent. Als je dat wekelijks opnieuw laat berekenen ben je daar $5*52 => $260 miljoen per jaar voor kwijt. Voor een MS is dat prima te doen! Moet je bedenken dat je Chat-GPT slechts een week achter loopt qua nieuws...

Als het echter puur data toevoegen is aan het model, dan zou dat maar een fractie van de kosten zijn en je bent dan meer qua computing kracht aangewezen op de hoeveelheid data en dan maakt het niet echt uit of je het 1x per week doet, 1x per dag of 1x per uur...

Bron:
https://lambdalabs.com/blog/demystifying-gpt-3
Toevallig heb ik afgelopen week ook eens gebruik gemaakt van een ChatGPT om een (concept) van een support artikel te schrijven in het Engels.

Nu klop ik best lekker een stukje tekst weg in het Engels, maar ik was toch wel benieuwd wat ChatGPT er van zou maken. Daarnaast leest het ook gewoon lekker weg i.p.v. een relatief droge opsomming die ik er zelf van zou hebben gemaakt, wat gezien het doel en publiek prima is, maar waarom het niet beter maken als dat kan.

Daarnaast was de tijdwinst enorm. Ik had nu binnen enkele minuten een goede basis voor het artikel voor mijn neus en moest nog maar een klein beetje redigeren.

Ook tijdens onze review was het aantal opmerkingen vanuit het team beduidend lager lag dan normaal gesproken.
Maar wat heb je er zelt nu van geleerd? , en wat ga je in de toekomst doen? Waarschijnlijk nog meer gebruik maken van deze tool.

Prima als je het zo als nasis gebruikt, en dat is ook de goede manier. Maar waarschijnlijk ga je het blijven gebruiken. Je engels gaat naar de kl^te op den duur en bent 100% afhankelijk van een door iemand anders geprogrammeerde tool. (nu nog gratis) ;-)
Ik heb er van geleerd dat ik tijd kan besparen met een handige tool. Inhoudelijk heb ik er niets van geleerd, daar ik het onderwerp dromen kan.

Ik ga het zeker nog eens gebruiken voor dit doel - een basis leggen voor een schrijfsel - maar zal voorlopig niet afhankelijk zijn van een dergelijke tool.

Ik maak mij vooralsnog geen zorgen over mijn Engels, omdat ik voor mijn werk elke letter in het Engels typ om te kunnen communiceren met collega's, partners en klanten. Daar kan ChatGPT nog lang geen rol in spelen.

Sterker, ik lijk soms wel Regilio Tuur als ik in het Nederlands moet schrijven, omdat ik volstrekt automatisch Engelse woordjes gebruik, vooral bij lidwoorden en koppelwoorden. Daar hebben we dan weer een andere tool voor; LanguageTool. ;)
Arnoud Engelfriet heeft hier ook een stukje over geschreven op security.nl: https://www.security.nl/p...or+AI+geschreven+tekst%3F
Het is onder juristen bepaald geen uitgemaakte zaak waar de auteursrechten liggen op werk gemaakt door een AI systeem. De hoofdregel van de wet is dat de feitelijk maker de rechten heeft, maar een maker (een mens dus) kan prima tools gebruiken om het werk te maken. We zeggen ook niet dat mijn digitale camera auteursrecht heeft op mijn foto's, ondanks dat die 99% van het werk doet om er wat moois van te maken.

Ook speelt de vraag wíe de creativiteit inbrengt, wie de maker is. Is dat de persoon die de 'prompt', de vraag indiende bij de AI, of is dat de persoon die ervoor zorgde dat je met een prompt een mooie creatieve reactie kreeg?

We weten het echt niet. En vanuit die conclusie ben ik dan ook zeer geneigd te zeggen, vermeld gerust jezelf als de auteur want die AI gaat er echt niet over klagen. Misschien vind je het niet netjes naar je lezers, en dat is dan een afweging om het wél erbij te noemen, maar juridisch is er geen steekhoudend argument om het wel of niet te doen.

En wat betreft aansprakelijkheid: daar hang je zelf voor. Al heel lang geldt de regel bij het auteursrecht dat wie zo'n recht schendt, daarvoor aansprakelijk is. Dat de schending komt door een partner of leverancier is heel vervelend voor jou maar geen excuus om aansprakelijkheid af te wijzen. Je moet gewoon betalen en maar hopen dat die partner jou het gaat vergoeden. In zakelijke verhoudingen maak je daar afspraken over (jij vergoedt mijn schade als ik aangesproken wordt, beste leverancier) maar specifiek bij zo'n gratis AI dienst gaat niemand je dat geven natuurlijk.
En dan hier de samenvatting van chatGPT :P
De auteursrechten op werk gemaakt door een AI systeem zijn onzeker onder juristen. De hoofdregel is dat de maker de rechten heeft, maar de vraag is wie de maker is, de persoon die de prompt gaf of degene die de AI gebruikte. Er is geen juridisch argument om te bepalen wie de auteur is, dus het is aan de persoon of ze zichzelf als auteur vermelden. Aansprakelijkheid ligt bij de persoon die het auteursrecht schendt, ongeacht of het door een partner of leverancier komt.
Ik gebruik het tot nu toe bijna alleen puur voor comedy. Zo heb ik laatst mijn vriendin een poll gestuurd via whatsapp met opties die we konden doen tijdens een weekend weg. Of een ontslag brief in gedichtsvorm voor een vriend.

Leuke tool.
Nature? Dat blaadje dat in de woke-afgrond is gegleden? Verklaart veel, chatgpt, lekker makkelijk zonder inhoud aan bladvulling doen.
het is niks eigenlijk.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee