Sommige ‘redacteuren’ Sports Illustrated-site zijn fake, foto’s met AI gemaakt

Sommige 'redacteuren' die content zouden hebben gepubliceerd op de website van Sports Illustrated bestonden niet echt. Dat meldt de uitgeverij achter de website na een ontdekking van Futurism. De profielfoto’s van deze auteurs waren gegenereerd door kunstmatige intelligentie.

De redactie van Futurism merkte op dat bepaalde redacteuren van Sports Illustrated niet terug te vinden zijn op sociale media en dat er ook nergens anders op internet werk van de schrijvers terug te vinden was. De redactie ontdekte bovendien dat de profielfoto's van sommige redacteuren te koop werden aangeboden op een website waar AI-profielfoto’s verkocht worden.

Futurism sprak ook met een anonieme bron die bekend is met de zaak. Die stelde dat er ‘veel’ valse auteurs op de website van Sports Illustrated terug te vinden zijn. Volgens een tweede bron zou sommige content op die website ook door kunstmatige intelligentie gegenereerd zijn. Futurism vermoedt ook dat er gebruik is gemaakt van kunstmatige intelligentie en verwijst naar een bepaalde tekst over volleybal waarin te lezen stond dat de sport soms moeilijk te beoefenen is, 'zeker als je geen bal hebt om mee te oefenen'.

Arena Group, de uitgever achter Sports Illustrated, vertelde aan CNN dat de desbetreffende artikelen geschreven zijn door werknemers van een derde partij: AdVon Commerce. Sommige auteurs van AdVon Commerce hebben volgens Arena Group een pseudoniem gebruikt om hun eigen privacy te kunnen waarborgen, een praktijk die Arena Group naar verluidt niet toestaat. De uitgever heeft daarom besloten om al deze artikelen te verwijderen. De artikelen zijn volgens Arena Group wel geschreven en gecontroleerd door mensen. De vakbond van Sports Illustrated heeft zich ondertussen ook uitgesproken over de kwestie. De bond betreurt het geassocieerd te worden met kunstmatige intelligentie en vindt dat de praktijken van AdVon indruisen tegen de journalistieke principes van de bond.

Update, 11.45 uur: inleiding aangepast. Die luidde eerst als volgt: ‘Er is content op de website van Sports Illustrated verschenen waarbij foto's van redacteuren door AI zijn gegenereerd en er een pseudoniem is gebruikt. De uitgever achter de website heeft de artikelen verwijderd, maar beweert dat de teksten wel door mensen zijn geschreven.’ Ook een passage over het vermoedelijke gebruik van AI toegevoegd aan de broodtekst.

Screenshot van website Sports Illustrated met pseudoniem auteur en AI-profielfoto - Bron: Futurism
Screenshot van website Sports Illustrated met auteur onder pseudoniem en AI-profielfoto. Bron: Futurism

Door Jay Stout

Redacteur

28-11-2023 • 10:21

119

Reacties (119)

Sorteer op:

Weergave:

Interessante ontwikkeling. Is het belangrijk dat de informatie die je leest van een levend persoon afkomt? Als de inhoud klopt en het heeft je interesse, maakt het dan uit dat het door AI is 'geschreven'?
AI kan niet hoor/wederhoor toepassen voor een onderzoek/artikel, geen intervieuws doen en daar dan onpartijdig over "schrijven".
Ik durf te beweren dat AI beter 'onpartijdig' kan schrijven dan een auteur. Natuurlijk afhankelijk van welke bronnen de ai toepassing gebruikt.

Media wil echter niet 'onpartijdig' schrijven, want dat is wat media differentieert van elkaar...(dat is wat anders dan niet naar waarheid schrijven of op basis van feiten)
Dat is een flinke stelling, gezien wat een AI schrijft gebaseerd is op de content waarop het getraind wordt. Deze is zelden zonder bias.

Daarnaast wordt het trainingsmateriaal gekozen door onderzoekers die zelf ook zelden zonder bias zijn.

Dus technisch zou een AI als beste onpartijdig kunnen zijn, maar wordt het dat onmogelijk gemaakt.
Ja, maar je kunt AI 'leren' om uit meerdere bronnen content samen te stellen om zo min mogelijk/geen bias te krijgen.
“AI” kan niet van 1 links en 1 rechts 1 midden maken.

Je moet het meer zien als een iets wat heel goed in statistieken is.
Neem bijvoorbeeld a,b,c als input en dan is de meest waarschijnlijke volgende letter een d.
Dit kan de AI heel goed gokken.
Dit terwijl de AI nog steeds niet begrijpt wat het concept van een alfabet is…
Ai kan input samenvoegen/stellen van heel veel bronnen (laten we het even ouderwets links of rechtse bronnen noemen), waardoor - en dat kan zeker geselecteerd worden op bron niveau er een (erg) genuanceerd verhaal uit kan komen, of bijv. zonder een enkele vorm van bijv. politieke bias.

Maar dat willen gebruikers van media helemaal niet, die willen doorgaans iets wat in hun straatje past of juist niet om geprikkeld te worden. Ai is enorm goed (op basis van selectie) om mensen te voeden met wat ze willen.
Nee, van 2 extreme verhalen wordt geen genuanceerd verhaal gemaakt.
Je krijgt alleen beide verhalen te zien in het gunstigste geval.

In je voorbeeld krijg je als het meezit voordelen van links en van rechts te zien maar het verhaal zelf wordt niet midden en dat is wel degelijk anders dan beide links en rechts belichten.
Wie spreekt over 2, het kunnen er wel tientallen zo niet honderden zijn, als AI getraind wordt om bijv. elke politiek-ideologische verwijzing eruit te filteren en zo om te buigen naar een kapot genuanceerd (kleurloos) artikel, wat niemand wil lezen.

Grok laat zien dat het tegenovergestelde ook prima kan overigens
Hangt sterk af van de gekozen AI. Veel chatAI zijn helemaal niet in staat om feiten te checken (iets dat vaak wordt benoemd is niet per definitie waar), laat staan meningen van feiten te onderscheiden. Daardoor kunnen verhalen geschreven worden met tekstonderdelen die heel veel voorkomen en dus op taal juist zijn, maar inhoudelijk niet getuigen van enige vorm van logica. Dat er heel veel bronnen gebruikt worden wil niet zeggen dat de inhoud van politiek links en rechts tegen elkaar wordt afgewogen. Er is daardoor juist op politiek vlak geen sprake van nuancering.
Om alleen genuanceerde bronnen te gebruiken is men afhankelijk van de voorselectie van de makers, die moeten aangeven wat genuanceerde bronnen zijn. En dan komen we weer terug op de bias van de makers. Want wat genuanceerd is in de ogen van de makers kunnen wij heel rechts of links vinden.
“AI” kan niet van 1 links en 1 rechts 1 midden maken.
Dat kan een AI zeker wel en nog wel een paar miljoen keer sneller dan een mens.

Het is "machine learning" wat dat juist niet kan.
Het probleem zit in de marketing gebrabbel. Iedereen en zijn hond denkt tegenwoordig dat hun software AI is als ze een machine learning tooltje gebruiken.
En daar zit dan ook gelijk de crux.
Van de 100 AI software pakketten zijn er 99 die liegen en krijg je steeds van die indianen verhalen over wat een AI wel of niet kan.
Momenteel lijkt het nog meer te zo te werken dat de keuze naar bron dan de ene of andere kant op gaat, in plaats van een op feiten gerichte balans van de twee.

Met een beetje (veel) geluk gaat dat wel komen uiteraard, maar zover vind ik dat tegenvallen.
Helaas werkt dat ook niet, want:

1) Er is niet van elk perspectief evenveel bronmateriaal beschikbaar. Het internet staat vol met perspectieven die geschreven zijn door techneuten, maar boeren en vluchtelingen zullen veel minder aan het woord komen. Er is gewoon veel meer direct bronmateriaal over de Israelische mening over Gaza dan andersom. Bij AI wordt dit volumeverschil automatisch een bias in de output door het trainingsproces.

2) AI kan de bronnen niet op waarde schatten. Als je AI gelijke hoeveelheden bronnen van de Mayo Clinic en van spiritualcrystalhealing.com voert, dan komt daar geen goed gebalanceerd medisch advies uit. Het weet alleen maar wat het voor z'n neus krijgt, en kan het ene niet herkennen als een reputabel medisch instituut en het andere als een willekeurige website omdat het geen referentiekader heeft over de echte wereld.

Hiervoor compenseren is allemaal handwerk. En dan gaan bepaalde mensen weer aan de knoppen draaien totdat de output "correct" is, met alle gevolgen van dien. AI is gewoonweg geen oplossing voor bias.

TL;DR: xkcd 1831
Alles valt of staat mert het opzetten van het taalmodel (of de toepassingen die hieruit voortkomen) we hebben (volgens diverse media) te maken met de grootste revolutie, sinds de industriele revolutie, en kunnen ons amper voorstellen wat de mogelijkheden in toekomst zijn. En als medewerkers en echte kenners van OpenAI zelf aangeven dat ze bang zijn over de mogelijkheden die ze nu al kunnen doorvoeren en er oproepen worden gedaan (en dat zal deels ook zijn uit commercieel oogpunt) om een soort van ontwikkelpauze in te stellen, dan denk ik niet dat wij als gebruikers goed kunnen inschatten wat binnen zeer korte tijd de mogelijkheden zijn.
Zo kan je alles wel wegwuiven, met "misschien in de toekomst werkt alles anders!". Nu werkt het zo. En er is totaal geen reden om aan te nemen dat AI zoiets fundamenteels gaat oplossen.
Ik wuif niets weg, ik geef aan wat door medewerkers van OpenAI, en in de media wordt aangegeven, we staan aan het begin.
Linkje naar het artikel waar in staat dat OpenAI medewerkers claimen dat AI bias gaat oplossen graag!
Dat schrijf ik niet
Dan is wat je hebt slechts speculatie.
Ja, maar je kunt AI 'leren' om uit meerdere bronnen content samen te stellen om zo min mogelijk/geen bias te krijgen.
Probleem is dat een unbiased artikel volgens Israëliers dat volgens Palestijnen niet is, en vice-versa. Zelfs een keuze voor welke feiten je vermeldt, is al een keuze. Elke waarnemer heeft een bias.

Neemt niet weg dat het een goed doel is om naar te streven, zelfs al zal je het nooit halen.
Wie op sterren schiet zal ze nooit raken, maar komt verder dan wie [op] appels schiet.

Edit:typo

[Reactie gewijzigd door Nystran op 26 juli 2024 12:45]

Een 'flinke' stelling? De discussie is lekker gepolariseerd met alleen maar 0 en 2 scores.

litebyte schrijft onpartijdig tussen aanhalingstekens, maar vervolgens ga je er toch zout in wrijven? Wat jij zegt komt er op neer dat de enige reden dan een AI niet onpartijdig kan zijn komt door de menselijke bias. Die bias kan net zo goed van toepassing op de lesmethoden/onderzoeken die leraren op de school van journalistiek gebruiken?
Dat is een flinke stelling, gezien wat een AI schrijft gebaseerd is op de content waarop het getraind wordt. Deze is zelden zonder bias.
Sterker nog: het is eigenlijk niet mogelijk een artikel te schrijven zonder bias. Iedereen heeft bias, of je nu wilt of niet. Simpelweg omdat iedereen anders is opgevoed / andere zaken heeft meegemaakt bij het opgroeien. Daar om is iedereen anders, zijn de gedachten van iedereen anders, zijn de handelingen van iedereen anders. Woord x betekent voor de één zus, maar voor ander betekent dat zo.
Dat is een flinke stelling, gezien wat een AI schrijft gebaseerd is op de content waarop het getraind wordt. Deze is zelden zonder bias.
De stelling is niet dat een AI onpartijdig zou zijn, de stelling is:
Ik durf te beweren dat AI beter 'onpartijdig' kan schrijven dan een auteur.
En dat is helemaal niet zo gek gedacht Juist die veelheid van materiaal en het feit dat meerdere onderzoekers ermee bezig zijn maakt dat veel van die biassen uitgemiddeld worden. Het resultaat is bij lange na niet neutraal, maar kan best neutraler zijn dan een enkel persoon.
Ik durf te beweren dat AI beter 'onpartijdig' kan schrijven dan een auteur.
Zoals Meta's AI's Chatbox 'onpartijdig' concludeerde dat Trump de verkiezingen wel had gewonnen? Een journalist weet van zichzelf welke voorkeuren en vooroordelen hij of zij heeft -en kan daar in z'n analyses rekeningen mee houden- en de lezers weten die voorkeuren doorgaans ook wel.

Van de blind op statistisch uitgerekende meest toepasselijke lettervolgorde genererende tekst van een chatbox weten wij dat als lezers helaas niet.
Wie zegt dat Meta AI chatbox onpartijdig is? Als Meta (lees Mark Suckerberg) dat zelf zegt dan zou ik dat maar met een korreltje echt zout nemen.

Je moet eerder denken aan tientallen zoniet honderden bronnen, naar gelang het onderwerp
Als je dat durft te beweren, dan denk ik dat je nog niet genoeg over taalmodellen weet. Als je nu al chat gpt ondervraagt dan loop je vrij makkelijk tegen de limieten van zijn onpartijdigheid aan.
Vraag bvb maar eens welke bevolkingsgroepen proportioneel gezien het meest in de cel zitten. Je krijgt een antwoord wat om de vraag heen lult.
Ik heb het niet over wat ze doen, maar wat kan. ChatGPT taalmodel is bewust zo geprogrammeerd, net als het taalmodel van bijv. Elon Musk zo is geprogrammeerd om juist dat niet te doen wat ChatGPT doet (al dan niet met een knipoog.)
De AI waar jij van spreekt bestaat nog (lang) niet echter. De prille beginselen van iets wat vooral heel artificieel en weinig intelligent is wat men nu heel hard AI aan het belabelen is dat komt meer in de richting van wat men "Robocop 2" wilde noemen in de film van dezelfde naam.
Ik durf te beweren dat AI beter 'onpartijdig' kan schrijven dan een auteur. Natuurlijk afhankelijk van welke bronnen de ai toepassing gebruikt.
Maar hoe weet een AI of het bron artikel door mensen geschreven is?
Dit werkt nu misschien nog redelijk, maar wat gebeurt er als straks 90% van de artikelen door AI gegenereerd zijn?

Net zoals op de beurs Index en andere fondsen gebruik maken van de waarde die door de massa handelaren aan aandelen is toegekend, Maar de indexfondsen presteerden beter dan menselijke fondsen, (o.a. door lagere kosten), waardoor ze heel populair worden. En nu mogelijk zelf een invloed op de koers van aandelen hebben.
Je bedoelt waarschijnlijk de persoon achter die de AI-tool gebruikt, want AI gaat niet zonder input van mensen dingen doen, dus er is altijd een persoon die iets doet met AI en dat kunnen zelfs meerdere personen zijn.
Een 'teletekst'- verslag van een voetbalwedstrijd kan volgens mij vrij gemakkelijk door AI worden geschreven, mits gevoerd met veel statistieken over het wedstrijdverloop zoals kaarten, wissels, balbezit, paal/lat geraakt, reddingen, corners, etc. Volgens mij gebeurt dat al. Heeft inderdaad niks met journalistiek te maken ;)
Statistieken zeggen vaak bar weinig over wedstrijden.

Zo zal AI de spanning niet voelen, laat staan terug laten komen in een verslag bij een wedstrijd die in 0-0 is geëindigd. Volgens de statistieken (0 goals, geen ballen op de paal of lat, geen gele of rode kaarten) een saaie wedstrijd waarin niks is, terwijl in werkelijkheid het publiek bij kans in katzwijm met hartfalen op de banken zat (bij wijze van spreken natuurlijk :) )
If it's recorded it can be analysed:
Als je volumenormalisatie vanuit het publiek als parameter kan gebruiken, zal je redelijk accuraat de spanningsboog kunnen bepalen. Met echolocatie kan je zelfs aan de hand van het geluid bepalen wie in het voor- of nadeel was.
Vind ik niet, je moet toch echt de wedstrijd gezien hebben om er een goed verslag van te maken.
Ik keek in het weekend een wedstrijd, favoriet A stond snel achter en speelde een bagger wedstrijd. Omdat ploeg B zich terugtrok kwamen er wel wat kansjes en veel balbezit voor ploeg A maar ze speelden heel slecht.
AI zou dan kunnen concluderen dat ploeg A fantastisch speelde.
Ligt eraan hoeveel mening je in een verslag wil hebben. Bagger en fantastisch zijn subjectieve uitingen gebaseerd op? Als je fan bent van ploeg A kijk je daar heel anders naar dan als je fan bent van ploeg B.
Ondanks meer schoten op doel (X) en balbezit (%) heeft ploeg A niet meer doelpunten kunnen maken dan ploeg B, waardoor ploeg A gezakt is naar plek # op de ranglijst en ploeg B gestegen naar plek #. Volgende week treft ploeg A ploeg C van coach C. Coach A heeft gezegd uit te kijken naar deze wedstrijd en gaat aankomend week met zijn ploeg oefenen op meer correcte passes, dat in de wedstrijd tegen ploeg B slechts Z% betrof. Van de laatste tien encounters tussen ploeg A en ploeg C heeft ploeg A er 8 gewonnen, de kansen worden daarom door de fans goed ingeschat
Dat is niet veel anders dan de meeste verslagen nu en kan AI makkelijk zonder waardeoordeel. Als je een wedstrijd echt wil ervaren, moet je 'm kijken (of luisteren, maar ook dat is al een hele andere ervaring).
Dit gebeurt al met uitslagen van het amateurvoetbal. AD heeft voor (bijna) iedere wedstrijd een automatisch wedstrijdverslag.
AI kan niet hoor/wederhoor toepassen
Sommige AI agenda's (Siri?) kunnen toch al zelf de kapper bellen en afspraken inplannen? Dus dan kan AI vast toch ook wel emails uitsturen naar mensen en bedrijven met een aantal vragen.

voor een onderzoek/artikel, geen intervieuws doen
Bing AI claimt al tabellen te kunnen opstellen aan de hand van zoekresultaten (vulkaan uitbarstingen over een periode). En bij veel 'klantenservices' krijg je ook een chat bot. Dus net zo lang met een geprepareerd 'citaat' drammen zal een AI bot net zo goed kunnen als een gewone journalist.
- Het antwoord moet wel in de lijst met standaard opties staan, anders wordt je alsnog met een echte journalist doorverbonden :-)

en daar dan onpartijdig over "schrijven".
Veel kranten artikelen zijn of een lijst met feiten/ kopie van pers statements, of meer redactioneel commentaar dan feit.
Misschien dat deze artikelen dan door AI overgenomen kunnen worden, zodat er meer echte mensen vrijkomen om de achtergrond artikelen met analyses te schrijven?
Sommige AI agenda's (Siri?) kunnen toch al zelf de kapper bellen en afspraken inplannen? Dus dan kan AI vast toch ook wel emails uitsturen naar mensen en bedrijven met een aantal vragen.
Dat zou ik niet echt hoor/wederhoor noemen. Meer een opdracht, denk dat het niet buiten de gekleurde lijntjes kan kleuren. En dan nog steeds: het is geen interview.

- Het antwoord moet wel in de lijst met standaard opties staan, anders wordt je alsnog met een echte journalist doorverbonden :-)
En dat noem ik niet echt een optie of een AI, het is niets meer dan een keuzemenu, alleen hoef je "zelf geen keuze te maken". Zelf kies ik altijd voor een antwoord dat de bot niet snapt zodat ik een persoon te spreken krijg.

Veel kranten artikelen zijn of een lijst met feiten/ kopie van pers statements, of meer redactioneel commentaar dan feit.
Inderdaad, maar het is nog altijd door mensen gegenereerd. Ik denk dat er genoeg schrijvers/journalisten zijn die wel hun facts checken. Als blijkt dat er iets niet goed is in je feitenopgave zal er een rectificatie plaats moeten vinden of wordt er naar de rechtbank gerend... lijkt me ook weer niet de bedoeling.
Dat klopt, maar dat gebeurt nu ook al erg weinig in de journalistiek dat kost namelijk teveel tijd.
WIe zegt dat? Kan me gerust voorstellen dat je een AI via mail of chat een dergelijke interview zou kunnen laten doen. Met stemgenerator kan je het zelfs via telefoon doen.

Hoe goed dat zou werken is de vraag maar mogelijk is het zeker.
Omdat een LLM een taalmodel is. Het heeft geen identiteit, geen originele gedachten. Het leert niet, het onthoudt niet. Je voert tekst in, je krijgt een andere tekst er uit. Meer dan dat is het niet.
Identiteit maakt voor een interview niks uit, " originele gedachten" in de meeste interveiws zit er echt geen enkele originele gedachte hoor.

"Het leert niet/het onthoudt niet"-> fout, doet het wel.
Je voert tekst in, je krijgt een andere tekst er uit. Meer dan dat is het niet.
Dan snap je echt niet wat een LLM is en hoe die werken.

https://www.youtube.com/watch?v=qbIk7-JPB2c

Echt eens bekijken zelfs al kan het wat lang lijken als je een idee wil hebben.
Identiteit maakt voor een interview niks uit, " originele gedachten" in de meeste interveiws zit er echt geen enkele originele gedachte hoor.
Tuurlijk wel. Dat is de basis van een interview, je wilt iemands mening over een bepaald onderwerp weten. Als ik enkel op feiten uit ben dan lees ik wel een boek.
"Het leert niet/het onthoudt niet"-> fout, doet het wel.
Nee, doet het niet. Als jij een nieuwe chat begint met ChatGPT is deze alles weer vergeten hoor. En het leert niks van wat jij zegt, pas als openAI een nieuwe dataset bouwt en het model opnieuw traint. Het tegenovergestelde van hoe een mens leert dus.
Dan snap je echt niet wat een LLM is en hoe die werken.

https://www.youtube.com/watch?v=qbIk7-JPB2c

Echt eens bekijken zelfs al kan het wat lang lijken als je een idee wil hebben.
Ik bestudeer LLM's al een aantal jaar en heb ze ook zelf geprogrammeerd dus je hoeft mij niks uit te leggen over de werking.
Tuurlijk wel. Dat is de basis van een interview, je wilt iemands mening over een bepaald onderwerp weten. Als ik enkel op feiten uit ben dan lees ik wel een boek.
https://www.hln.be/geld/p...tsbon-op-1-jaar~a31c6f7a/

Zeg me gerust welke originele gedachte achter dit interview zat (eerste dat ik tegenkwam op hln ) , oh en welk boek zou je lezen om die info te krijgen?
Nee, doet het niet. Als jij een nieuwe chat begint met ChatGPT is deze alles weer vergeten hoor. En het leert niks van wat jij zegt, pas als openAI een nieuwe dataset bouwt en het model opnieuw traint. Het tegenovergestelde van hoe een mens leert dus.
Het ging over LLM niet over de publiekelijke toegankelijke versie van chatgpt, LLM's kunnen wel degelijk leren en onthouden anders zouden ze niks zijn.
Ik bestudeer LLM's al een aantal jaar en heb ze ook zelf geprogrammeerd dus je hoeft mij niks uit te leggen over de werking.
Dan ken je er weinig van, zeg gerust waarom die professor er fout over is want die spreekt jou rechtsreeks tegen.
https://www.hln.be/geld/p...tsbon-op-1-jaar~a31c6f7a/

Zeg me gerust welke originele gedachte achter dit interview zat (eerste dat ik tegenkwam op hln ) , oh en welk boek zou je lezen om die info te krijgen?
Ik snap je vraag niet.
Het ging over LLM niet over de publiekelijke toegankelijke versie van chatgpt, LLM's kunnen wel degelijk leren en onthouden anders zouden ze niks zijn.
ChatGPT is een LLM. ChatGPT heeft een context van ongeveer 4 pagina's. Dat is natuurlijk niks als je het vergelijkt met een mens. Als ik jou vandaag iets vertel, dan onthoud jij dat (hoop ik). Als ik je er dan een week later er iets over vraag, dan geef je mij (hopelijk) een goed antwoord. ChatGPT kan dit niet, want in de tussentijd is de context al 100 keer overschreven met andere onderwerpen.
Dan ken je er weinig van, zeg gerust waarom die professor er fout over is want die spreekt jou rechtsreeks tegen.
Welke professor?
Ik snap je vraag niet.
Het heeft geen identiteit, geen originele gedachten.
Dat is een interview zeg dus gerust welke identiteit en originele gedachte erachter zit.
En dat is een doorsnee artikel er zijn er genoeg die nog eenvoudiger zijn.
ChatGPT is een LLM.
Is een bepaalde LLM die voor de doornsee gebruiker geprogrameerd is om niet te leren/onthouden.
JIj doet alsof dit elke LLM is en dat is onzin. Als ze die beperkingen wegnemen kan die dat wel, logisch zo hebben ze die de informatie die erinzit ooit geleerd. Dat is de basis van elke LLM: dat die grote hoeveelheden informatie kan gebruiken/onthouden op een organische manier. Net zoals eens mens werkt trouwens.
Welke professor?
https://www.youtube.com/watch?v=qbIk7-JPB2c

De huidige LLM kunnen al veel meer dan "wat tekst aanpassen" zoals jij het stelt.
Dat is een interview zeg dus gerust welke identiteit en originele gedachte erachter zit.
En dat is een doorsnee artikel er zijn er genoeg die nog eenvoudiger zijn.
Nou gewoon, die van de auteur.
Is een bepaalde LLM die voor de doornsee gebruiker geprogrameerd is om niet te leren/onthouden.
JIj doet alsof dit elke LLM is en dat is onzin. Als ze die beperkingen wegnemen kan die dat wel, logisch zo hebben ze die de informatie die erinzit ooit geleerd. Dat is de basis van elke LLM: dat die grote hoeveelheden informatie kan gebruiken/onthouden op een organische manier. Net zoals eens mens werkt trouwens.
Een LLM kan niet dingen onthouden. En ja dat geldt voor iedere LLM. De reden daarvoor is namelijk heel makkelijk, de AI architecturen die we nu hebben kunnen niet 'live' leren. Je moet eerst nieuwe data verzamelen en het model weer opnieuw trainen. Dat is toch totaal iets anders dan hoe een mens werkt. En nee dat is niet zomaar een beperking die je wegneemt. Het trainingsproces van zo'n model is heel precies ingericht met gigantische hoeveelheden data en compute vermogen. Je kan dat niet zomaar live doen.
https://www.youtube.com/watch?v=qbIk7-JPB2c

De huidige LLM kunnen al veel meer dan "wat tekst aanpassen" zoals jij het stelt.
Een LLM kan inderdaad goed met tekst overweg. Maar wat je ook in die video ziet, het is allemaal hocus pocus. Ze hebben werkelijk geen idee waarom ChatGPT zo hard de mist in gaat op zulke simpele problemen. (ps. 16:06 in de video) Nou naar mijn mening ligt het aan 1 ding: de architectuur is fundamenteel niet geschikt om gebruikt te worden als 'general AI'. We moeten naar een architectuur die lijkt op 'natuurlijke' AI. Ik denk zelf dat de ideëen van neurowetenschapper Karl Friston ons echt verder gaan brengen, het pad waar we nu op zitten loopt dood.

[Reactie gewijzigd door langestefan op 26 juli 2024 12:45]

Nou gewoon, die van de auteur.
En wat voor verschil maakt dat voor de vragen?
Een LLM kan niet dingen onthouden. En ja dat geldt voor iedere LLM.
https://www.fast.ai/posts/2023-09-04-learning-jumps/
Een LLM kan inderdaad goed met tekst overweg. Maar wat je ook in die video ziet, het is allemaal hocus pocus.
Geen idee wat je hiermee bedoelt
Nou naar mijn mening ligt het aan 1 ding: de architectuur is fundamenteel niet geschikt om gebruikt te worden als 'general AI'. We moeten naar een architectuur die lijkt op 'natuurlijke' AI. Ik denk zelf dat de ideëen van neurowetenschapper Karl Friston ons echt verder gaan brengen, het pad waar we nu op zitten loopt dood.
En wat is dan het verschil tussen "general" & "natuurlijke" ?
En wat voor verschil maakt dat voor de vragen?
Nou dat twee materie experts verschillende antwoorden zouden geven.
Leuk verhaal over loss curves, maar dit is een veel dieper, fundamenteler vraagstuk.
Geen idee wat je hiermee bedoelt
Dat er in die video geen analyse gedaan wordt waarom chatGPT hard faalt op simpele vraagstukken.
En wat is dan het verschil tussen "general" & "natuurlijke" ?
Ik bedoel general AI geïnspireerd door de natuur. Of eigenlijk geïnspireerd door hoe het menselijk brein leert. Een mens leert niet wat een auto is door dezelfde foto 10.000 keer te zien. Of door miljoenen foto's van auto's te zien. De weg die veel bedrijven inslaan met AI, door steeds maar meer data en compute power tegen het probleem aan te gooien loopt dood. We moeten naar een fundamenteel andere architectuur (en ik denk zelf dat Karl Firston's ideeën daar de basis voor zijn)
Nou dat twee materie experts verschillende antwoorden zouden geven.
Dat is juist een probleem niet een voordeel.
Leuk verhaal over loss curves, maar dit is een veel dieper, fundamenteler vraagstuk.
Niet voor een simpel interview en daar ging het hier over.
Dat er in die video geen analyse gedaan wordt waarom chatGPT hard faalt op simpele vraagstukken.
Dat het niet perfect is doet niks ter zake, journalisten zelf falen hard op dergelijke vraagstukken echter trekt niemand zich dat aan.
Ik bedoel general AI geïnspireerd door de natuur. Of eigenlijk geïnspireerd door hoe het menselijk brein leert. Een mens leert niet wat een auto is door dezelfde foto 10.000 keer te zien. Of door miljoenen foto's van auto's te zien.
Dat doen we wel, letterlijk. We krijgen een fotot van een auto te zien en iemand zegt "auto" later schrijven ze dat het er nog bij. Dat onze hersenen beter zijn op bepaalde vlakken zal niemand ontkennen maar fundamenteel leren we op redelijk dezelfde manier.
De weg die veel bedrijven inslaan met AI, door steeds maar meer data en compute power tegen het probleem aan te gooien loopt dood. We moeten naar een fundamenteel andere architectuur (en ik denk zelf dat Karl Firston's ideeën daar de basis voor zijn)
Die tech is amper begonnen echter weet jij al dat die dood loopt? Sterk je moet eens gaan praten met die mensen die ermee bezig zijn denk ik.

EN wat zegt due Firston dan wel?
-

[Reactie gewijzigd door langestefan op 26 juli 2024 12:45]

Nee. Echt totaal niet gewoon.
Ok jij werd met de kennis wat een auto is geboren, de rest van de mensheid heeft dat aangeleerd gekregen.
Doe ik, er lopen er genoeg rond op mijn universiteit.
Leuk dat je denkt het beter te weten dan een hele groep van mensne die daarmee bezig zijn.
Hier praat die rechtsreeks over chat gpt3 en die zegt nergens wat jij beweert integendeel zelf.

https://www.youtube.com/watch?v=V_VXOdf1NMw
-

[Reactie gewijzigd door langestefan op 26 juli 2024 12:45]

De weg die veel bedrijven inslaan met AI, door steeds maar meer data en compute power tegen het probleem aan te gooien loopt dood.
Dat is toch echt "beter weten" hoor. maar soit de discussie gaat nergens meer over en het is heel duidelijk dat de huidige LLM's wel degelijk een simpel interview aankunnen.
-

[Reactie gewijzigd door langestefan op 26 juli 2024 12:45]

I gebruik het al een hele tijd en heb er zelf een paar draaien, dus ik weet wat die kunnen. In tegenstelling tot jou blijkbaar.
-

[Reactie gewijzigd door langestefan op 26 juli 2024 12:45]

Wat ik zie is dat die al vele malen gedaan is, grappig dat als zelfverklaarde expert je denkt dat het zelfs niet kan. Soit nutteloze discussie nog een prettige dag.
-

[Reactie gewijzigd door langestefan op 26 juli 2024 12:45]

Blijft grappig dat je denkt dat het daarover ging.
-

[Reactie gewijzigd door langestefan op 26 juli 2024 12:45]

Ach zolang het plezant blijft ;-)
Een mens wel dan? In welke utopie leef je dan?
Een mens kan dat zeer zeker, door alleen feiten tegenover elkaar te zetten en daar verschillende conclusies uit te trekken. Een concluise heeft niets met partijdigheid te maken, ik weet niet waar je dat vandaan haalt.
Geen idee of je ooit wel eens onzoeksjournalistiek hebt gelezen? Dan heb je het niet over een utopie hoor. Maar stap gerust over alle andere redenen die ik noem heen, dat is de makkelijkste weg.
Ik weet niet of je weleens de gemiddelde krant leest? Onpartijdigheid is ver te zoeken…
Nog niet . . . Er zou technisch software niks belemmeren om net zoals Google nu al doet telefoongesprekken uit te voeren met echte mensen. Maar zelfs een stapje terug e-mailen, correspondentie interpreteren op basis van LLM's en terug reageren gaat zeker op korte termijn gebeuren.

En zelfs onpartijdig schrijven, net zoals mensen is een LLM afhankelijk van wat het gevoerd is. Voer je een mens enkel communistisch materiaal is het waarschijnlijk dat diegene ook links georienteerd is, idem voor een LLM. Waar een mens zich in onderscheid hoe die zijn eigen weg kan vinden, maar hoe uniek is dat in een interview? Natuurlijk zijn er journalisten die erboven uit steken, maar is Sports Illustrated zo'n hoogstandje op literair niveau?
Waarom zou een AI geen hoor/wederhoor kunnen toepassen? Per mail, telefoon, Telegram, Twitter of whatever lukt het prima om een AI met iemand te laten babbelen. We doen het al jaren in primitieve vorm met die support chatbots of een Siri.
Omdat dat net wat anders werkt hè. Jij stelt bv Siri een vraag, niet andersom. En de chatbots zou ik niet echt AI willen noemen, deze kunnen maar reageren op een beperkt aantal woorden. Maar ik begrijp waar je heen wilt, ik ben alleen van mening dat een AI gewoon niet zover is als een mens.
maar de meeste "journalisten" doen sowieso niet anders dan copy/paste van de tekst van anderen. zonder feiten te checken. en ineens heb je een cancel-cultuur waarbij meerdere bronnen elkaar versterken, zonder dat er ooit feiten zijn gecheckt. helemaal als hier en daar er nog even een extra mening, gedachte, aanname aan toegevoegd wordt, wat bij de volgende ronde copy/paste ineens geen mening of aanname meer is maar zomaar ineens een feit is geworden.

Als je denkt dat er echt nog feiten onderzoek gedaan wordt..... dan ben je heerlijk naïef :)
maar de meeste "journalisten" doen sowieso niet anders dan copy/paste van de tekst van anderen. zonder feiten te checken.
Heb je daar een bron van of is dit je iegen conclusie na onderzoek te hebben gepleegd? Ik vind dat je erg uitgaat van aannames. Dat noem ik dan weer heerlijk naïef. |:(
Het gaat hem hier echter om seo en eerder het misleiden met fake data.

Search engines kunnen belang hechten aan een bio onder een artikel en dan een hogere score geven.

Nu goed seo misleiding is niet nieuw en de reden waarom Google voor mij gewoon kapot is. Als je een probleem googled Dan krijg je tig "blogs" van bedrijven ipv blogs van users die ervaring delen.
Ja dat maakt uit. Als iets zo inhoudsloos is dat een robot het kan schrijven had het niet geschreven hoeven worden. Er wordt normaliter geen enkele nieuwe gedachte gedeeld in iets dat door AI gegenereerd is.
Er wordt normaliter geen enkele nieuwe gedachte gedeeld in iets dat door AI gegenereerd is.
Dat is vaak niet anders met door de mens gegenereerde artikelen. Dan heb ik het niet over columns waar tegenwoordig de Nederlandse kranten vol mee staan, maar over nieuws- en achtergrondartikelen.
idd, veel schrijvers worden via internet aangenomen en werken per woord, en hun werk is vaak bestaande content herschrijven zodat het niet direct plaggiaat is, maar verder geen persoonlijkheid of eigen inbreng. Dat er ook een AI gegenereerd gezicht bij zit is de logische volgende stap.
EN jij denk t dat elke artikel een 'nieuwe gedachte' moet hebben?
Sorry zo goed als niks op tweakers is 'nieuwe gedachte' dus wat doe je hier dan?
Als de inhoud klopt
Bij personen kun je er achter komen wat hun (politieke/religieuze/voetbal) kleur is en daar rekening mee houden in het bepalen van hoe neutraal en waarheidsgetrouw een artikel is. Zonder bronvermelding van de AI wil ik dat artikel met veel meer zout gaan consumeren.
maakt het dan uit dat het door AI is 'geschreven'?
Net doen alsof het een menselijk artikel is (want dat beschouwen "we" nog steeds als waardevoller) is echt heel fout. ALS het al niet uitmaakt of het door AI is geschreven, wees daar dan ook transparant in.
dat is het leuke met AI,

51% attack,

AI gebruikt Inet met GPT 4+ , dus als je paar sites met desinformatie genereerd ben je de waarheid,

Daarnaast kunnen originele sites de robots file geruiken om AI niet de data mee t elaten nemen dus ben je binnen 1 a 2 fake sites al de waarheid .
Alleen heb je dat irl ook. Als de meerderheid van de nieuwssites (hoi dpg) iets gekleurd melden, dan kan men zeggen dat iets zo is.
Nou ik zou zeggen dat het "in principe" niet zo'n probleem hoeft te zijn. Ik zou dan wel graag willen weten wanneer het door een AI geschreven is en wanneer niet. We laten toch ook al de namen van de auteurs zien bij artikels en berichten, waarom moet je dat dan faken voor een AI?
Glijdende schaal. Wat zijn mensen, biologische computers? Wat maakt het uit als ik wat van die computers opruim als ik ze vervelend vind worden?
Nee, het maakt wat mij betreft niet uit dat het door een AI is geschreven. Het is alleen wel netjes om dat te vermelden. Wanneer het niet vermeld staat, maar het is wel degelijk door AI geschreven, maakt het mij wel uit.

Van journalisten wil ik nog wel eens de achtergrond bekijken en andere artikelen om de informatie op waarde te kunnen schatten. Met een AI gaat die achtergrondcheck wat lastiger. Al kan ik mij voorstellen dat niet iedereen dat doet. Zelf doe ik dat overigens ook niet altijd, het hangt mede van het onderwerp af.
Tja, een beetje wel denk ik. Als het geen fictie betreft en dus geloofwaardigheid belangrijk is, lijkt mij het prettig om een 'echt' mens te kunnen koppelen aan het artikel. Maar goed....blijft secundair. Geen foto kan natuurlijk ook (en lijkt me dus beter).
Bij die ene Jay Stout heb ik dat ook altijd. :+

Ik weet alleen nog niet zo wat ik er van vind. Aan de ene kant, ja waarom niet, als journalisten geen zin hebben om dat soort dingen te schrijven, dan kan AI dat doen. Aan de andere kant, als de artikelen zo nutteloos en van weggooi kwaliteit zijn waarom moeten ze dan geschreven/gelezen worden.
Als een AI dat kan doen, waarom zou je dan nog journalisten hebben?
Ik bedoel...laten we eerlijk zijn (de meeste) internet journalisten doen nou niet echt veel naast het internet scrapen en artikelen van andere sources net op een andere manier overtypen, misschien nog met een mening als je geluk hebt.

Is dus niet veel anders dan wat een AI letterlijk doet.
Dat scrapen is meestal al automatish waarbij je hele specifieke selecties kan maken, en goed om hierbij (internet) tussen haakjes te zetten.
AI wordt al veel gebruikt voor de opmaak van de artikelen, om zo'n maximaal mogelijke hoge SEO score te halen (denk aan headers/steekwoorden/link generering etc etc etc)
Los daarvan AI wordt al gebruikt om complete artikelen te genereren, al dan niet automatsich op basis van trending topics.
Sterker nog, AI kon nog wel eens beter zijn dan dat ...
Ik weet alleen nog niet zo wat ik er van vind. Aan de ene kant, ja waarom niet, als journalisten geen zin hebben om dat soort dingen te schrijven, dan kan AI dat doen.
Wat je waarvan vindt?

Het gaat nu spefiek over foto's van redacteuren met behulp van AI gemaakt, niet over de teksten/inhoud van het nieuws, daarover staat zelfs expliciet wel geschreven en gecontroleerd door mensen...

Als je specifiek op 1 regel uit een artikel reageert (een gerucht ook nog) dan is het wel zo handig dat te quoten, dat is immers de hele context van je bericht...

[Reactie gewijzigd door watercoolertje op 26 juli 2024 12:45]

Volgens een tweede bron zou sommige content op die website ook door kunstmatige intelligentie gegenereerd zijn.
Er word nu wel gewezen naar een derde partij, maar dat moeten we dan ook maar aannemen.

Ik vind het wel misleiding. Er word gedaan als of een artikel is geschreven door een persoon, maar die persoon blijkt niet te bestaan. Vervolgens moeten we dan maar aannemen dat de artikelen inderdaad wel geschreven zijn door een echte persoon terwijl dat ook door een bron ontkracht word.

Er word ook niet echt aangetoond waarom de artikelen wel door mensen geschreven zouden zijn, alleen dat ze als nog verwijderd zijn.

Er is in elk geval zonder enige verificatie een auteur op de site gezet die niet bestaat, en wat blijkbaar tegen de regels was. Waarom zou ik dan moeten geloven dat de artikelen van deze niet bestaande persoon niet ook gewoon gegenereerd zijn?
Ik vind het wel misleiding. Er word gedaan als of een artikel is geschreven door een persoon, maar die persoon blijkt niet te bestaan
Nee, de foto bij die persoon blijkt AI-gegenereerd. Ik gebruik als profielplaatje een pinguïn, maar vergis je niet: ik besta weldegelijk en ben bovendien geen pinguïn. Nu beweer ik ook nergens dat dit mijn foto is, maar als ik dat wel doe verandert dat iets aan mijn integriteit, maar niets aan mijn bestaan.
Waarom zou ik dan moeten geloven dat de artikelen van deze niet bestaande persoon niet ook gewoon gegenereerd zijn?
Dat is volgens mij de juiste vraag. Maar als het de foto van een echt persoon is, met eventueel ook de echte naam er bij, biedt dat meer zekerheid? In zeker zin komen we hier op een eeuwenoud vraagstuk. Als het schilderij van Rebrandt dat je bezit eigenlijk van een leerling blijkt te zijn, is het dan minder mooi? Nee. Is het dan minder waard? Ongetwijfeld. Dus lees je de artikelen op Sports Illustrated omdat ze goed zijn, of omdat ze door de persoon die op de foto staat zijn geschreven?
Nee, de foto bij die persoon blijkt AI-gegenereerd. Ik gebruik als profielplaatje een pinguïn, maar vergis je niet: ik besta weldegelijk en ben bovendien geen pinguïn. Nu beweer ik ook nergens dat dit mijn foto is, maar als ik dat wel doe verandert dat iets aan mijn integriteit, maar niets aan mijn bestaan.
Dus, misleiding?

En mijn stelling is ook gebaseerd op het stuk in het artikel waar gesteld word dat sommige artikelen niet geschreven zijn door een persoon volgens een bron.

Die twee zaken samen geven mij dan het gevoel dat er een niet bestaande persoon als auteur is opgevoerd voor artikelen die ook niet door een persoon geschreven zijn.
Of het schilderij nu van Rembrandt of een leerling is, het is een schilderij dat door een mens gemaakt is. Dat maakt niet uit voor de oppervlakkige schoonheid, maar het maakt wel bepaalde aannames mogelijk. Bijvoorbeeld dat een bepaalde techniekvaardigheid ook betekent dat het schilderij onderliggende betekenis heeft, dat er keuzes zijn gemaakt. In een tekening van een kleuter zoek je geen betekenis achter de plaatsing van de elementen - bij een technische meester zoek je dat wel.
Als het echter gegenereerd blijkt te zijn, dan is die link er niet. Technische kwaliteit is geen indicatie van betekenis of onderliggende gedachten. Een geniaal gerenderd schilderij kan heus wel eens geen enkele achterliggende betekenis of interessante details hebben.


Als je denkt dat een artikel door een mens geschreven is, dan kun je bepaalde aannames doen. Zoals dat taalbeheersing een implicatie heeft -- in meer of mindere mate -- op de kwaliteit van de inhoud. Een artikel met taalfouten is minder betrouwbaar dan een artikel zonder, onnodig ingewikkelde vocabulaire kan een indicatie zijn van oplichting of onbegrip, dat soort dingen.
Zulke aannames kun je bij een gegenereerd artikel niet maken. In een gegenereerd artikel staat de kwaliteit van het schrijfwerk totaal los van de inhoudelijke waarde van het artikel. In die zin is het belangrijk als een website probeert te verhullen of het artikel een auteur heeft.
Zoals dat taalbeheersing een implicatie heeft -- in meer of mindere mate -- op de kwaliteit van de inhoud.
Maar zeg eens eerlijk, is dat een goede maatstaf? Ben ik de enige die tijdens de afgelopen verkiezingscampagne regelmatig dacht: "hij/zij weet het mooi te brengen, maar het klopt niet"?

Waar ik liever naar kijk is het verleden van een persoon. Als iemand in het verleden betrouwbaar is gebleken dan vertrouw ik het verhaal eerder. Als een persoon fictief of onbekend is dan maakt dat weinig verschil voor mij.

edit:
Om deze discussie af te sluiten maak ik geen nieuwe post, maar ik ben het helemaal met je reactie eens, @wuto007. De foto van de auteur is misschien niet zo belangrijk, een korte maar betrouwbare biografie des te meer

[Reactie gewijzigd door 84hannes op 26 juli 2024 12:45]

Natuurlijk is het geen enkele maatstaf waar je blind op kunt vertrouwen. Er zijn altijd oplichters en reclamemakers die de menselijke insticten voor expertise en oprechtheid proberen te misbruiken. Deze vuistregels werken alleen als je weet in wat voor omgeving je ze hanteert.

Juist daarom is context zo belangrijk -- achtergrond van de auteur, zoals je al aanschrijft, maar ook zeker of een persoon wel echt bestaat. Het onderscheid tussen een fictieve of anonieme auteur is misschien klein, maar het verschil tussen een website die eerlijk is of liegt over het bestaan van haar eigen personeelsbestand is dat absoluut niet.
Mij boeit dat ook niet. Wat wel boeit is dat het duidelijk moet zijn of je te maken hebt met AI content of een echt mens.
Mij boeit dat ook niet. Wat wel boeit is dat het duidelijk moet zijn of je te maken hebt met AI content of een echt mens.
Even heel Black-Mirror gedacht: er was vermoedelijk een tijd dat men vond dat de huidskleur van de auteur belangrijk was. Als (en dat is niet wanneer, maar echt als) we op een dag een hybride samenleving met kunstmatige (robots, drones, Minds etc.) en organische levensvormen hebben (denk aan The Culture) dan zal deze opmerking als behoorlijk achterhaald en racistisch gezien worden.
Zolang robots niet zelf bewustzijn en dingen als emoties, pijn en verlies voelen dan gaat dat voorlopig niet op.

Je gaat nu heel erg richting science fiction. Zo ver zijn we nog lang niet dus nee, dit gaat niet op voor deze discussie die nu speelt.
Ah, systeem vraagt om foto's... gebruikers konden die verplichte veld niet verwijderen zodat de artikelen zonder auteur foto geplaatst worden, dan zien ze lege vierkantje... niet zo mooi. Meeste schrijvers willen echter geen foto gebruiken... tja... ik kan het wel begrijpen als ze hun gezicht niet zo mooi vinden. En dat ze hun naam anoniem willen blijven, logisch anders kunnen de lezers je huis opsporen als een artikel de lezers kwaad maakt :')

Maar dat website had beter een melding moeten plaatsen, bijvoorbeeld:
schrijver pseudoniem en fake foto, schrijver wenst anoniem blijven.

[Reactie gewijzigd door Dark Angel 58 op 26 juli 2024 12:45]

Mischien. Kan zou maar waar zijn. Of er is helemaal geen auteur en alles is gegenereerd, kan ook zomaar waar zijn.

Het probleem hier is de Sport Illustrated valse foto's plaatst zonder dat te melden. Dan rijst de vraag, in hoeverre kan je ze vertrouwen? Zijn ze wel eerlijk wie de artikelen schrijft of liegen ze daar ook over?

In media wordt dit echt een probleem. Als de lezer er niet op kan vertrouwen wie de schrijver is, of de schrijver echt zelf schrijft of dat het om gegenereerde content gaat, hoie betrouwbaar is het medium dan nog?

Dus eerlijk zijn over de auteur en zijn foto lijkt mij belangrijk want jusit op die manier is het transparant en kan de lezer de bron verifieren door bijvoorbeeld op de auteur te zoeken.
Dat vertrouwen kweken kan dan natuurlijk ook andersom; media kunnen nepprofielen voor hun niet bestaande verslaggevers maken en zo een netwerk uitbouwen dat heel betrouwbaar lijkt maar uiteindelijk allemaal uit de koker van één kwaadwillende komt.

Of de suggestie van @Dark Angel 58 toepassen en gewoon er bij zetten als de auteur van een artikel anoniem wil blijven, of helemaal geen naam er bij. Dat laatste is wat de NOS ook regelmatig doet.
Mischien. Kan zou maar waar zijn. Of er is helemaal geen auteur en alles is gegenereerd, kan ook zomaar waar zijn.
Volgens mij zijn er oplossingen die LLM/AI tekst kunnen detecteren, geen idee hoe goed die nog werken met alle nieuwe versies en de wildgroei van de verschillende LLM/AI modellen
Een soort van gegenereerd poppetje wat je soms ook bij online fora ziet...tja als je al hele artikelen door ai laat genereren, waarom dan ook niet de 'auteur.'

.Zie ook: https://thispersondoesnotexist.com/
<OT>Die van hier toon ik niet in de browser. https://i.imgur.com/TyB4ODT.png Esthetisch oogt het misschien beter voor het design maar mijn kijk gedrag is 'plaatje -> naam' en als een plaatje geen info heeft heb ik liever iets neutraals, of onzichtbaar.
Is er markt voor ai gegenereerde profielfoto's?? Is een betaalde gegenereerde foto beter dan 1 van https://www.thispersondoesnotexist.com of verkopen ze gewoon fotos daarvan door??
Tuurlijk is er een markt voor, net zoals mensen via Google betaalde doorschakelnummers naar gratis informatielijnen vinden en gebruiken. Sjacheraars heb je altijd en overal.

Dat laatste zou me niet verbazen, al is zelf (laten) maken tegenwoordig ook een fluitje van een cent en zo goed als gratis.
Achja, ik zie het probleem niet, als het artikel ansich gewoon vermakend is, who cares. Vaak genoeg dat ik me kapot erger aan artikelen van echte personen (slecht geschreven of gewoon troep). Zolang de informatie maar klopt en het mij interesseert/vermaakt zal het mij een reet roesten of het door AI of door een mens gemaakt is. Maaaaar het zou wel netter zijn om dat wel te vermelden, al is het wel met een fictieve naam en foto.
'zeker als je geen bal hebt om mee te oefenen'
Dit lijkt natuurlijk een weggevertje dat het om AI zou gaan, maar ik weet dat er in de low-budget-content-schrijvers wereld genoeg echte mensen van vlees en bloed zijn die dit hadden kunnen schrijven. Als je 6 cent per woord krijgt ga je nu eenmaal loze woorden/regels toevoegen om je aan een beetje een normaal loon te helpen.

Puur uit openheid/transparantie is er wat voor te zeggen om verplicht te melden wanneer het om AI content gaat, maar aan de andere kant, of content goed (leuk/correct/informatief) is, staat mijns inziens los van of de auteur menselijk is of niet.

Wat ik zelf doe is AI assisted writing, de bulk kan AI ik zorg er voor dat het klopt en lekker loopt. Want als je geen hele goede prompt schrijft is het niveau van AI vergelijkbaar met een 16-jarige MAVO leerling.

Omdat ik het hele process beheer en controleer is het resultaat 100% mijn werk en zie ik dus geen enkele reden om er bij publicatie bij te laten vermelden dat AI geholpen heeft. Ik bedoel, een bakker gaat toch ook niet expliciet vermelden dat ie een machine gebruikt om het deeg te kneden? Als jij denkt dat de bakker dat met de hand doet... Blijft dat lekker geloven, het brood smaakt er niet anders door.

[Reactie gewijzigd door Alxndr op 26 juli 2024 12:45]

Nou mij verbaasd dit niets verder maar ja, ergens stonden eerder ook de roddelbladen vaak vol met verzonnen verhalen die dan wel door mensen geschreven waren. Je kan je dan af vragen wat het verschil is net als dat je ook eerder al foto's kon bewerken met Photoshop.

Maar goed, wie weet dat er nog eens een tijd komt dat wij als mensen aan tafel een potje zitten te kaarten en de pc's dan onderling met mekaar zitten te praten via AI.
Persoonlijk vindt ik dat je op elke website een andere identiteit zou moeten gebruiken, in ieder geval niet je echte namen/fotos.

Dat maakt het voor kwaadwillende een stuk lastiger om je te traceren/profileren.
Echter, kan het ook vervelende situaties opleveren, bijvoorbeeld bij Facebook; om je account terug te krijgen na een hack, moet je veelal een kopie van paspoort opsturen.

Daarnaast, bijvoorbeeld bij het versturen van een pakket vul ik nooit mijn volledige naam in.
Soms kijkt de bezorger gewoon naar de naam en vult dan in 'aangenomen door [naam gelezen van pakketje]'. Als daar maar een letter staat, kan hij dat niet en heb ik bewijs dat hij het niet afgeleverd heeft.
Ik vind het nogal een verschil tussen een persoon buiten functie. En een redacteur van een nieuwswebsite in functie.
Een redacteur van een nieuwswebsite wel. Maar Sports Illustrated heeft een derde partij ingehuurd voor de content "AdVon Commerce".

Dat bedrijf presenteert zich niet als een nieuws/journalisten club maar als een advertentie buro. De naam alleen al... Hoofdpagina op hun website: "Solutions for Commerce - We Don’t Capture Value, We CREATE Value, by empowering consumers to make better purchase decisions". Meer inhoud is er niet. Bewust maar even geen link naar hun site.

Als je ze googled zie ik vooral E-commerce en AI in de top resultaten . Verder zijn de resultaten opvallend schoon, alleen links naar hun eigen site en social media profielen. SEO is dan ook een van hun activiteiten.

Als je wat verder zoekt vind je dat ze vooral heel veel freelancers hebben. Ik kan me voorstellen dat een freelancer zijn echte identiteit liever niet geassocieerd ziet met "reclameschrijver", vooral niet als je ambities hebt verder te komen in "echte journalistiek".
Ok, een E-commerce club dus die pagina vulling leverd en hits ophaalt. Prima business maar ook voor AI blijft gelden : garbage in, garage out
Ik vindt het uberhaupt raar dat er een auteur (met foto) bij zou moeten staan.

Het privacy argument kan ik mij ook prima in vinden, ook zijn er toch verschillende schrijvers met pseudoniem en artiesten met een 'artiestennaam'.
Je haalt schrijvers van verhalen en schrijvers van nieuws door elkaar.

Bij nieuws wil je weten wie de bewering heeft gemaakt die in het artikel staat. Zie bijvoorbeeld rechtzaken tegen kranten waarin de schrijver/schrijfster van het artikel wat beweerd wat niet waar is.
Maar dat hoeft toch niet publiek te zijn?

Ja, je mag de krant aanklagen en de krant mag intern bijhouden welke auteur het artikel geschreven heeft.

Maar wat is het voordeel van jouw prive voornaam/achternaam bij het artikel?
Of mogen nieuwsschrijvers geen privacy hebben?
Artikelen als deze doen me altijd denken aan de https://xkcd.com/810/

Op dit item kan niet meer gereageerd worden.