X maakt zelfgemaakte beeldgenerator beschikbaar voor AI-chatbot Grok

AI-start-up xAI van Elon Musk heeft een nieuwe beeldgenerator uitgebracht voor zijn chatbot Grok, genaamd Aurora. Net als zijn voorganger FLUX kan dit model afbeeldingen van bekende mensen genereren.

X-ontwikkelaar Chris Park laat weten dat de nieuwe beeldgenerator Aurora nu als bèta beschikbaar is op het platform als onderdeel van Grok-2. Een werknemer van xAI schrijft dat dit model door de start-up zelf gemaakt is, in tegenstelling tot zijn voorganger, die het FLUX.1-model van Black Forest Labs gebruikte. Volgens hem blinkt Aurora uit in het creëren van fotorealistische beelden.

TechCrunch schrijft dat Aurora net als FLUX beelden van bekende mensen kan genereren, terwijl andere AI-chatbots dit meestal niet toelaten. De techwebsite heeft onder meer een afbeelding van een bebloede Donald Trump laten creëren. Ook lijken er geen beperkingen te zitten aan het genereren van auteursrechtelijk beschermde personages als Mickey Mouse. Het model weigert volgens TechCrunch wel om naaktbeelden te maken.

Verschillende gebruikers beweren ook dat ze nu gebruik kunnen maken van Grok zonder dat ze een X Premium-abonnement hoeven af te sluiten. Wel zitten er beperkingen aan de gratis versie van de chatbot. Gebruikers zonder abonnement kunnen iedere twee uur maximaal tien berichten versturen en vier afbeeldingen per dag genereren met Aurora. Het is onduidelijk of Grok wereldwijd gratis beschikbaar komt. Op basis van reacties van Europese gebruikers en een test van Tweakers vereist toegang tot Grok in de EU vooralsnog een abonnement.

Door Kevin Krikhaar

Redacteur

08-12-2024 • 11:12

79

Submitter: AMD and INTEL

Reacties (79)

79
76
30
0
0
36
Wijzig sortering
Ik ben geen groot kenner van hoe AI precies werkt dus ben benieuwd of iemand het volgende kan uitleggen. Door dit soort tools komen er allemaal onwaarheden online te staan. In isolatie geen enkel probleem lijkt me zolang maar duidelijk wordt gemaakt dat het fictief is. De LLMs trainen op publiek beschikbare data (en meer), hoe zorgen die LLMs ervoor dat ze niet dit soort fictieve data meenemen en dus onjuiste data gebruiken voor hun acties richting (betalende) eindgebruikers?
Voordat iets in de trainingsdata word opgenomen word dit eerst gelabeled door mensen in ontwikkelingslanden, die daar een hongerloontje voor krijgen.
https://www.washingtonpos...-artificial-intelligence/
Maar het is ook niet zo dat die alle kennis hebben van de wereld. Als het realistisch lijkt zullen ze het waarschijnlijk goedkeuren. Ze kunnen niet een studie maken van iedere zin of ieder plaatje.
Veel wordt automatisch gedaan, het enige wat de mensen doen is labelen (dit is een kat, dit is een hond, dit is onbruikbaar).

Wat je vraagt is waar krijg je de kennis vandaan, en het antwoord is grotendeels Gutenberg Project en Wikipedia, waar ze later de ngrams en andere taalmodellen voor gebouwd hebben niets voor niets dat dit al jaren door de mensen van Google en co gesteund wordt. Later is er veel van Reddit en Twitter en andere forums gehaald.

Natuurlijk gaat de bron je kennis kleuren, daarmee dat je soms vreemde antwoorden krijgt, ofwel omdat er iemand ergens een grap gemaakt heeft en het model dit aangenomen heeft als feit, of expliciet verkeerde informatie die vaak op Wikipedia te vinden is.
Vergeet captcha niet...
Zoals je zelf aangeeft: ook met alleen niet-fictieve data als trainingsmateriaal produceren LLM's onwaarheden. Dus het probleem zit 'm niet primair in fictive data gebruikt als trainingsmateriaal.
Het probleem zit 'm er in dat ondanks dat LLM's alleen verstand hebben van grammatica, het door de ontwerpers veelal wordt voorgesteld alsof het verstand van zaken heeft en kan redeneren, en dat door veel mensen wordt geloofd.
alleen verstand hebben van grammatica,
Nee toch? Statistiek wordt gebruikt; als ze vaker "ik loop" tegen komen dan "ik loopt" dan heeft dat de voorkeur. Daarom hadden 'ze' moeite met rekenen....teveel combinatie en met statistiek benader je enkel een antwoord en dat is niet hoe rekenen werkt.
[...]

Nee toch? Statistiek wordt gebruikt; als ze vaker "ik loop" tegen komen dan "ik loopt" dan heeft dat de voorkeur.
Werkwoord vervoeging is toch onderdeel van grammatica? Op dezelfde manier leren kinderen grammatica lang voordat ze de officiële grammatica regels leren.
Nee dus - ze leren napraten en hebben geen notie van grammatica. Dat komt later pas. En dankzij grammatica kunnen we woorden vervoegen die we niet eerder hebben gebruikt/gehoord.
Typisch iets wat dus deze AI niet kan.
Als je een AI traint op 100 plaatjes van een zwemmende inktvis en er zitten een paar foute tussen dan leert ie wel wat de goede is. Het gaat pas mis als de foute plaatjes in de meerderheid zijn.
dan leert ie wel wat de goede is.
Alleen als een mens hem dat dus 'vertelt'. Dus feedback krijgt.

Als je dit soort AI traint met foute data dan gaat deze dat niet zomaar corrigeren natuurlijk.
De AI hoeft hier geen feedback voor te krijgen. AI Training zoekt patronen. Als de zwemmende inktvis 90 goede plaatjes heeft en 10 foute plaatjes (qua hoe de inktvis zwemt) dan is het patroon in de 90 plaatjes veel sterker dan in de 10 plaatjes gewoon omdat het goede patroon 9x vaker voorkomt. Daar is geen menselijke classificatie voor nodig. Het gaat pas mis als de foute voorbeelden (de noise) relatief veel voorkomen en als een patroon opgepikt gaan worden.
Maar je benoemt nu zelf goed/fout patroon? Die classificatie komt toch van menselijke input?
Niet door classificatie. Omdat bij de training 90x goed gezwommen wordt en 10x fout en doordat dat verschil zo groot is zal het model de goede methode leren. Daar is geen classificatie door een mens voor nodig. De fouten worden automatisch weggefilterd omdat ze een zwak patroon vormen. Het sterkere patroon 'wint' als het ware. Pas als je meer plaatjes van de foute methode hebt zal het model dat zien als de methode die het moet leren.
Ja dat is waar, dat vergat ik. Maar het probleem is dan nog wel dat als training data, plaatjes met classificatie nodig zijn voor de LLM AI die we nu hebben.
De publiek beschikbare data wordt / werd ergens centraal opgeslagen en gemarkeerd als "dit is van voor AI"; ik denk dat deze nu "niet-vergiftigde" data, dat overigens ook al veel bots en photoschop enzo bevatte, over de tijd meer waard gaat worden. Het voelt een beetje als "staal van voor de atoombom", omdat na de eerste atoombomtests de hele wereld een beetje radioactiever werd; staal van oude scheepswrakken dat zover onder water lag dat het niet dat beetje straling kreeg is gezocht door partijen die echt 'schoon' staal nodig hebben. Zo zal het ook met data en afbeeldingen zijn, gegarandeerd door-een-mens-gemaakte data zal in datasets komen met een soort keurmerk.

Dat gezegd hebbende, ook "voor AI" was er veel desinformatie op het internet; als ze bijvoorbeeld quora, stack overflow of reddit gebruikt hebben voor Q&A achtige content dan is er een risico dat de antwoorden niet helemaal kloppen.
Ik vraag me af wat de toekomst gaat geven met dit soort ontwikkelingen.

Het internet staat nu al vol met onmogelijke en onjuiste afbeeldingen van bijv. onder water zwemmende dieren waar een AI heeft lopen hallucineren omdat die niet weet hoe een dier onder water zwemt.

Wat nu als de AI's gaan trainen op elkaars foute afbeeldingen? Dan krijgen we een rare voorstelling van de wereld die voor sommigen niet meer van echt is te onderscheiden. Ik merk nl dat kinderen dat al niet meer zien en denken dat de afbeelding klopt.

I hou het nog maar ff bij mijn lokale Stable Diffusion / Flux installatie om mee te spelen.
Simpel: Training cut off date houden op de dag voordat die ai tools public zijn gegaan.
Denk dat we dat punt al voorbij zijn. Forums en dergelijke staan al vol met AI generated content. Ik vraag me hetzelfde af wat er gebeurd als de volgende AI's getrained worden op de rommel die de vorige AI's gegenereerd hebben. Wordt nog een leuke uitdaging om dat eruit te filteren.

Wat ik me ook afvraag is of foto's zoals hierboven niet onder portretrecht vallen :p?

[Reactie gewijzigd door Powerblast op 8 december 2024 16:50]

Ze hebben er onderzoek naar gedaan, hier is er een artikel over; zoals je misschien al wel kunt voorspellen worden foutjes en gekkigheden bij elke iteratie versterkt, al na vijf iteraties.
Dat is alleen een kortetermijnoplossing. Op de langere termijn zal er echt iets verzonnen moeten worden om ook nieuwe informatie het model in te krijgen.
verschillende platformen vragen/eisen dat AI-generated content een "generated by AI" label krijgt. De uitleg is vaak dat dat dient om duidelijkheid te geven aan de gebruikers, maar volgens mij is het filteren waar jij het over hebt de belangrijkste bestaansreden van dat label.
Nou is de vraag hoe ze dit gaan handhaven.
Met nog meer AI natuurlijk!
Niet, of net als bij de "cookie muur" (de ePrivacy Directive), als een grotere partij zich hier schuldig aan maakt krijgen ze een dikke boete dat hopelijk een voorbeeld- en afschrikwekkend effect heeft op anderen.
Voor zolang het llm's zijn zal dat nog wel even duren, het echte nadenken en redeneren hebben we nog niet
Zodat je alles mist wat daarna gemaakt is en die AI dus actuele dingen niet kent. Ook niet ideaal.
Daarom zijn partijen als https://contentauthenticity.org/ erg belangrijk. Watermarking van content is hierom ook erg belangrijk. De wat grotere partijen doen hier ook iets mee, over Grok heb ik het niet zo snel kunnen vinden helaas.

Er zijn ook al partijen bezig met fingerprinting. Dus aan allerlei (vaak onzichtbare) kenmerken zien uit welk model iets komt en/of of het AI-gegenereerd is. Indien dit wordt gedetecteerd kun je het uitsluiten als trainingdata.
Vraag is natuurlijk wel of de grote partijen daar allemaal in mee gaan willen gaan. Als ze elkaar tegen willen werken taggen ze juist de content en afbeeldingen niet op die manier om je concurrentie tegen te werken.
Dat is zo'n beetje hetzelfde probleem als spam proberen blokkeren
- Iedereen moet meedoen met je oplossing
- Er mag geen voordeel ontstaan tussen verschillende partijen die het niet gebruiken
- Je moet het kunnen afdwingen op zowel 'goed' als 'slecht' gebruik van het systeem
- Je kan het wereldwijd implementeren zonder georganiseerde legislatie
Niet helemaal hetzelfde; je kunt nu met cryptografisch grote zekerheid bepaalde informatie over bepaalde content verkrijgen. Daarnaast kun je nog fingerprinting toepassen om uitschieters te voorkomen. Verder kun je net als nu betrouwbare bronnen gebruiken.

Uiteindelijk is het niet te voorkomen dat AI ook op AI gaat trainen, maar de effecten daarvan zullen met deze maatregelen in ieder geval al een heel stuk kleiner zijn.

Initiatieven voor open-source projecten om watermarking toe te passen zouden ook erg welkom zijn, geen idee of dat nu al wordt gedaan, maar uiteindelijk is het in ieders voordeel om dit te doen.
Praktisch gezien kun je inderdaad PGP op je e-mail vereisen en iedereen die dit niet doet als spam aanzien… hetzelfde probleem met fingerprinting, email kan uitgerust worden met cryptoverzekeringen over de identiteit van de zender. Echter spam is nog steeds een probleem.

Content fingerprinting dat doorheen een Perlin noise generator moet komen zal op zijn best medewerking van de ontwikkelaar nodig hebben.

Waar je om vraagt is wiskundig bewezen niet mogelijk te zijn, ik herinner mij die discussies al in het Windows 3.1 en OS/2 tijdperk, toen de eerste CDs vol muziek, samples en fotos voor breed gebruik beschikbaar werden, en sindsdien is er nog steeds niets dat doorgebroken is, dat een willekeurig programma kan weigeren mee te werken met zogenaamde inbreuken, veel idee maar weinig praktisch, het dichtste is altijd door buiten de lijntjes van de standaarden te tekenen - vb sectors van een schijf of metadata die niet leesbaar zijn maar toch overgenomen worden, maar dat is toch altijd iets dat vroeger of later omgeleid wordt en steevast de “brave” consument die zich wel aan de regels houdt terugbijt.

[Reactie gewijzigd door Guru Evi op 9 december 2024 00:17]

Nogmaals, het hoeft niet waterdicht te zijn.
Ik merk nl dat kinderen dat al niet meer zien en denken dat de afbeelding klopt.
dat was al langer zo helaas - fantasie in films/TV bestaat al heel lang. En hoe leren we dat humanide robots niet zomaar in auto's veranderen? Door ervaring...

Maar als ervaring alleen komt vanuit diezelfde richting dan gaat het wel mis idd.
Kinderen denken door disney ook al jaren dat beren leuke dieren zijn die je kan aaien dus veel veranderd er niet met AI ;-)
Ook lijken er geen beperkingen te zitten aan het genereren van auteursrechtelijk beschermde personages als Mickey Mouse.
Dat komt waarschijnlijk omdat sommige Mickey Mouse beeltenissen intussen public domain zijn. Voor een karakter als Mickey Mouse hangt het er dus van af of het auteursrechtelijk beschermd is.

[Reactie gewijzigd door CH4OS op 8 december 2024 11:55]

Ja hoor. Alles mag behalve naakt. De hypocriete, puriteinse moraal :+
Vreemd, ik heb de laatste app versie, Premium+ (hoogste tier abbo) maar zie momenteel nog alleen Grok 2 + FLUX. Jammer. Ben reuze benieuwd om het eens te testen.
nice, maar voor hetzelfde budget per jaar kun je al snel veel meer keuze krijgen bij aanbieders als bijvoorbeeld Leonardo.ai en heb je geen twitter account nodig.
Het model weigert volgens TechCrunch wel om naaktbeelden te maken
En dat is dan wel weer heel hypocriet, well afbeeldingen mogen laten genereren op basis van bestaande mensen, maar naakt? Ohnee DAT gaat dan weer net te ver....
De vraag is, is er wel geschikt "casual" naakt trainingsmateriaal beschikbaar? Dus geen artistieke poses zoals Michaelangelo's David, Botticelli's Geboorte van Venus en/of andere kunstvormen, en ook geen erotisch gerelateerd materiaal. Daarnaast helpt de aversie voor naakt online ook niet mee. En misschien is het model niet goed en komt er alleen maar Chris Cunningham-achtig materiaal uit.
Ja en nee. Het is nu eng omdat wij nog heel erg ingesteld zijn op dat foto's en videos echt zijn en zelfs als bewijs kunnen dienen in rechtzaken etc. Maar je kan dit ook los laten en gewoon bij voorbaat vanuit gaan dat beeld en geluid gewoon nep zijn. Het is een transitie omdat wij natuurlijk al eeuwen gewend zijn om soort van aan te nemen dat beelden echt zijn zolang er niet obvious aan gesleuteld is. Maar de tijd is aangebroken dat we dit dus niet meer kunnen. Dit process kan je alleen nog maar vertragen door idd te blokkeren dat AI's beelden genereren die nog conflicteren met dit principe. Maar uiteindelijk zal er altijd wel een ander model zijn die dit wel toe laat. Bedoel met local hosted modellen zoals bijvoorbeeld Stable diffusion kan je al heel lang gewoon beelden genereren die lijken op een ander persoon, niet alleen bekende mensen, maar ook je buurman alleen moet je dan een model een beetje bijtrainen. Maar in principe heb je niet eens hele zware computers voor nodig. Een beetje snelle GPU met veel VRAM is genoeg om je buurman in allerlei genante poses neer te zetten.

Maar feitelijk zullen wij onze denkwijze over wat wij digitaal gaan zien helemaal moeten aanpassen. Dit kan ook een positief effect hebben overigens. Want wat je nu vooral ziet vooral met neem een voorbeeld dat wappie gebeuren dat heel veel mensen nog leven met dat idee van oh het staat op internet dus het is waar. Ja het klinkt bijna grappig, maar deze mensen heb je er echt nog in grote aantallen. Je kan maar misschien beter juist zo snel mogelijk door duwen dat je juist gewoon niet meer voor waar aan moet nemen wat van het internet komt dan wel en dat je echt weer zelf zal moeten gaan nadenken, dan dit nog proberen te rekken dat er nog heus wel waarheden op internet staan.
Ik persoonlijk denk dat het de mensheid enorm goed zou doen wanneer de geloofwaardigheid van het internet naar 0 zal zakken wij het alleen nog maar gaan gebruiken voor entertainment. Want wat momenteel gaande is met hoe mensen maar van alles voor waar aan nemen wat er staat is mijn inziens echt al heel lang een hele slechte invloed op onze maatschappijen. Het internet als waarheids bron is al heel lang een gevaarlijk fenomeen vooral omdat het zo makkelijk te manipuleren is met goede en slechte bedoelingen.

Internet is geen informatieve bron meer, maar we hebben op het moment geen alternatief en de kans op dat jij onwaarheden tot je neemt groeit met de dag. Hopelijk als het internet compleet zijn geloofwaardigheid verlies dat er weer alternatieven zullen ontstaan die minder makkelijk te manipuleren zijn etc.
Klopt wat je zegt, maar ik vind wel dat er spannende gevolgen aan vast hangen. Hoe ga je op een betrouwbare manier bewijs van een daad (misdaad vooral) vastleggen?
Tien jaar geleden waren er in vergelijking met nu ook amper camerabeelden en werden criminelen ook opgepakt en politici stevig aan de tand gevoeld. Het kan nog steeds allemaal, maar je moet nu meer dan toen kiezen wie je wilt vertrouwen; die honderd journalisten die elke dag met elkaar het 8-uur journaal samenstellen, of die ene onbekende persoon die zich via Tiktok-advertenties in je social media tijdlijn heeft ingekocht.
Totdat mensen jou als grap een keer inzetten bij je familie om ze te shockeren, omdat je iets naakt doet of omdat je bijvoorbeeld gewond lijkt.

Er per definitie van uitgaan dat foto’s en videos nep zijn, gaat veel en veel verder dan het alleen maar als nep erkennen.
Die grap is nu alleen maar erg omdat je bang bent dat ze denken dat het echt is. Heb je daar als eens over nagedacht? Misschien als eenmaal zo bezonken is dat het allemaal neppe rotzooi is dat niemand die hele grap meer wil zien? Het is leuk nu omdat je mensen ermee voor de gek kan houden, maar als niemand de interesse er niet meer in heeft is de lol er snel vanaf. Hetzelfde met dat je het zou gebruiken om mensen mee op te lichten etc. Zodra niemand er meer intrapt heb je ook de last niet meer ervan. Maar dan moet je wel op een punt komen dat we dus echt video en foto materiaal etc gewoon defacto standaard dus als nep gaan zien.
Ik denk daar dagelijks over na want de organisatie waar ik nu CISO ben heeft al meerdere malen te maken gehad met deepfakes met als doel om fraude te plegen.

En je stapt wel erg makkelijk over het feit heen dat mensen maar moeten weten dat het als nep gezien gaat worden... Bedenk je eens hoe slim de gemiddelde persoon is; de helft is minder slim dan dat. Het vraagt nogal wat van de mensheid om alle beeldmateriaal als nep te beschouwen. Zo makkelijk werkt het niet. De oplossing is simpel, maar dat is bij bijna elk probleem het geval.
Jij stapt over het feit heen dat ik zeg dat het beter zou zijn als iedereen idd weet dat het fake is en dat je wellicht dit sneller bereikt door het gewoon maar erdoorheen te laten gaan en dat mensen snel genoeg bekend worden hiermee, ipv dat je krampachtig iets probeert tegen te houden wat niet meer tegen te houden is en in het hele process dus nog vele slachtoffers krijgt omdat mensen er niet snel genoeg bekend mee raken. Ik snap wat je zegt, maar je moet wat ik schrijf even iets verder nemen dan je neus lang is. Zie het even in een groter plaatje, dan begrijp je misschien wat ik bedoel.

Het maakt vooral nu slachtoffers omdat heel veel mensen dit soort beelden nog als echt beschouwen. Je moet juist zorgen dat het algemeen bekend wordt dat dit nu gewoon kan en dat je dus foto's en video's die je van het internet krijgt dus op voorhand al niet meer als echt moet beschouwen tenzij het tegendeel op een andere manier bewezen is. Dat doe je niet door een technologie krampachtig tegen te houden. Je moet zo snel mogelijk iedereen hier bekend mee maken dan kan het veel sneller niet meer misbruikt worden.

[Reactie gewijzigd door ro8in op 8 december 2024 20:53]

Het is wat @Orangelights23 zegt, jij stapt over het feit heen dat niet iedereen zoals jij denkt, of dat zelfs de meest onderlegde persoon misleid kan worden, sociaal kan iemand totaal ten gronde gaan door fake ai videos. Dus straffen mogen gerust bijzonder hoog zijn voor wie dit (mis)gebruikt en regeringen mogen ook actief daar naar op zoek gaan. Het een sluit het ander niet uit, bewustwording en iedereen daarop attent maken is belangrijk, het gaat echter nog heel lang duren eer iedereen onderscheid maakt tussen fake en echt.
Laat maar man, je snapt niet wat ik zeg. Jullie gaan in op dat ik zou zeggen dat iemand niet sociaal ten onder kan gaan door dit soort dingen, maar ik zeg juist het tegenovergestelde! Ik ben het gewoon eens met dat dit nu zo is en wij zo snel mogelijk hier aan voorbij gaan. 1 van de oplossingen de hypoteses die ik voorstel is om een situatie te creeeren waarin iedereen weet dat het nep is ipv zoals nu de situatie dat iedereen dus een foto van jou ziet waarin je met de buurvrouw in een bepaalde soort schommel hangt en iedereen denkt dat het echt is.

Stel je eens voor dat we allemaal de familie je ouders je ope en oma gewoon bekend zijn met het fenomeen dat foto's en videos compleet nep zijn. Hoe erg zal het zijn dat iedereen dit soort videos en fotos dan nog kan maken op bijv gewoon hun mobiel? Je krijgt dat hoogstens nog een gniffel, maar echt grappig is het dan al niet meer, laat staan schadelijk. Maak jij er 1 van mij op de verjaardag, nou dan maak ik er 1 terug.. De lol is dan snel ervan af lijkt mij zo. Het is nu juist zo schadelijk doordat juist heel veel mensen niet snappen dat het met AI is gedaan. Maar als iedereen dat direct weet of sterker nog zelfs automatisch ervan uit gaat. Hoe erg is het dan nog? Je moet mensen zo snel mogelijk hierover educatie geven. Maar juist door het proberen tegen te houden en de tools alleen beschikbaar te houden tot een selecte groep technisch onderlegde mensen maakt dat dit veel schadelijker is. Snap je wat ik bedoel? Als ik wel technisch ben en jij niet geeft mij dat nu een voordeel waarin ik dingen kan die heel schadelijk kunnen zijn waar jij niet op terug kan reageren. De oplossing is educatie! Want tegenhouden ga je het niet meer doen.

Ik ben ook niet blij met AI beeld generatie alleen het is een feit dat het nu wel bestaat en ik probeer alleen een alternatief scenario te bieden hoe we hier zo goed mogelijk mee zouden kunnen omgaan. Het proberen tegen te houden is in mijn opinie in iedergeval sowieso zinloos.

Je hangt nu heel erg in de situatie van nu en legt mij woorden in de mond alsof ik zeg dat de situatie nu goed is. Maar ik zeg dat helemaal niet ik stel juist een hypotese voor wat wellicht een mogelijkheid zou zijn om juist dit soort beelden zo snel mogelijk minder schadelijk te maken. Nu is het zo schadelijk omdat als ik zo een beeld van jou maak en ik dit doorstuur dat 9 van de 10 mensen denkt dat het een echte foto is. Daar wil je juist zo snel mogelijk vanaf. De oplossing van dat mensen niet zulke beelden kunnen maken is gewoon onmogelijk. Stable diffusion en what not is gewoon vrij beschikbaar en iedereen kan er mee aan de haal. Dus dan moet je zo snel mogelijk het grote publiek hier mee bekend maken, dat kan alleen door dit soort tools in simpelere vormen beschikbaar te maken.

We zijn het gewoon met elkaar eens dat het schadelijk is en ik zeg ook helemaal niet dat dit niet zo is. Je reageert op een reactie die ik niet geef. We zijn het beide hierover eens en ik geef een voorstel om juist hier iets tegen te doen door ipv het proberen tegen te houden dat juist misschien de oplossing ligt in het juist voor iedereen zo makkelijk te maken dat het effect van zulke beelden afzwakt. Het tegenhouden wat nu geprobeerd wordt heeft in mijn opinie gewoon niet het gewenste effect en nu maken dit soort beelden veel slachtoffers.

Gezien mij eerste reactie moderatie zijn er gelukkig veel mensen die wel begrijpen wat ik bedoel. Het is overigens ook niet zo dat ik zeg dat dit DE oplossing is het is een hypotese die ik voorstel. Er zullen vast ook tegen argumenten zijn waar ik benieuwd naar ben. Je reageert alleen nu niet op mijn hypotese, maar je reageert alsof ik zou zeggen dat het prima is dat zulke beelden nu bestaan. Maar dat doe ik niet, ik ben het met je eens dat het niet oke is. Maar deze beelden zijn er nu, hoe kunnen we anders zorgen dat de impact van dit soort beelden veel minder erg wordt?

[Reactie gewijzigd door ro8in op 9 december 2024 08:00]

Kijk, nu pas schrijf je dat het een voorbeeld is van een oplossing :P Eerder schreef je dat het gewoon de oplossing was en dat iedereen zich daar maar naar moest aanpassen.

Maar, eens.
Ik volg je denk ik wel vrij goed en snap dat in een ideale wereld in jouw oplossing dat iedereen alle foto's en videos standaard als nep beschouwen je geen probleem zou hebben, helaas werkt onze wereld niet zo zwart wit. Een normale mens weet nu bv ook dat hij zijn bankgegevens niet zomaar telefonisch moet doorgeven of dat een fake iemand online bij mensen in een zwakke situatie een relatie kan opzetten en vertrouwen wint om geld af te troggelen en toch gebeurt dit, dat gaat niet anders zijn met nepvideos.
Zowel stellen dat we niet meer op gegevens kunnen vertrouwen en ondertussen de controle over die gegevens (laten) maken hebben is tegenstrijdig.
Je er bij neerleggen dat het niet te vertrouwen is staat lijnrecht op de mogelijkheden die er zijn om te voorkomen dat bedrijven deze systemen laten misbruiken dat realiteit en fictie niet te onderscheiden zijn en de mogelijkheden van regulering.
Daarbij is dit soort meewerken aan fictieve gegevens enorm laten toenemen absoluut niet nieuw. Dat mensen zich daar niet zomaar bij neerleggen en eisen stellen is waarom het zich niet te zwaar door heeft gezet. Het er niet bij neerleggen is dus precies wat je maar beter wel kan doen in plaats van hopen dat anderen het probleem wel gaan oplossen.
Internet is een internationaal netwerk waar vanalles over de lijn kan gaan. Zeggen dat internet niet meer betrouwbaar is is net zoiets zeggen als dat spraak niet betrouwbaar is. Het gaat er om wat de bron is en je kunt denk ik beter waar je "internet" zegt "sociale media" of "influencers" gebruiken. Ik vind als voorbeeld de Volkskrant of bijv. de NOS best betrouwbaar en die zitten ook op internet. Ik deel alleen niet de hoop dat mensen een beter inschattingsvermogen gaan krijgen wat betrouwbaar is hierdoor omdat deze gekken ook de wetenschap ontkennen wat de meest betrouwbaar methode is die we hebben.
Sowieso is de wedloop van vals materiaal maken en manieren om er achter te komen dat het nep is al veel ouder dan die image generators.

Dit is bijvoorbeeld:
Wikipedia: Censorship of images in the Soviet Union

Of een andere bekende truc is een afbeelding van een nieuwe context voorzien. (Bijvoorbeeld een foto over protest X plaatsen, terwijl de foto eigenlijk van protest Y afkomstig is.

Stoppen kun je inderdaad niet. Groepen/landen die het bewust willen inzetten voor misinformatie kunnen het zelf wel opzetten.

Wat toen al gold geldt nog steeds: Je moet je bewust zijn dat materiaal zoals afbeeldingen niet echt zijn.
Mwoah, dit kan je al jaren maken met vrij te downloaden modellen van civit.ai in combinatie met Stable Diffusion - en daar zitten afhankelijk van de modellen geen beperkingen aan. Bekendheden, naakte mensen, alles is mogelijk.
Anoniem: 302359 8 december 2024 16:26
Bijzonder onsmakelijke foto onder het artikel geplaatst. Waar is de redactie mee bezig?
Wat is er onsmakelijk aan? Dat is de hoofdfoto die voor de publicatie zeld gebruikt is, en NOS heeft indertijd wel onsmakelijkere beelden van de situatie laten zien.
Anoniem: 302359 @SuperDre8 december 2024 17:03
Wat is er onsmakelijk aan?
Een bebloed hoofd is hoe dan ook niet passend op een techwebsite waar ook kinderen kunnen meelezen. Daarnaast is het respectloos, zeker gezien het feit dat er al twee aanslagen op hem zijn gepleegd. Het was volstrekt onnodig om dit soort beelden te gebruiken om de mogelijkheden van GROK te illustreren. Een neutraal beeld had de boodschap evengoed kunnen overbrengen zonder afbreuk te doen aan de inhoud.

Het toont een gebrek aan fatsoen. Als het hier om een bebloed hoofd van Kamala Harris ging, ben ik ervan overtuigd dat de reacties heel anders zouden zijn geweest, en terecht. Het blijft me verbazen hoe ver sommige mensen bereid zijn hun eigen normen en fatsoen op te rekken zodra het over Trump gaat.
en NOS heeft indertijd wel onsmakelijkere beelden van de situatie laten zien.
De NOS is een nieuwswebsite, geen techwebsite. Het cruciale verschil is dat de NOS dergelijke beelden toont in de context van een nieuwsbericht over de aanslag zelf. Hier gaat het echter om het promoten van de mogelijkheden van een AI-tool (GROK), waarbij het gebruik van een dergelijke afbeelding totaal niet noodzakelijk is. Waarom nou weer een bebloede trump? Had een lief geitje in de wei niet net zo goed volstaan?

Dit verschil is essentieel en onderstreept precies waar mijn eerdere punt op slaat. Omdat het Trump betreft, lijken mensen ineens bereid om hun eigen grenzen verder op te rekken en dit soort scheve acties goed te praten. Het toont hoe selectief men kan zijn in het beoordelen van wat fatsoenlijk en gepast is, afhankelijk van de persoon in kwestie.

[Reactie gewijzigd door Anoniem: 302359 op 8 december 2024 18:57]

"TechCrunch schrijft dat Aurora net als FLUX beelden van bekende mensen kan genereren, terwijl andere AI-chatbots dit meestal niet toelaten." Het beeld wat hier getoond wordt is niet mogelijk, of zou niet mogelijk mogen zijn met de andere modellen , een bebloed beeld van Kamala dus ook niet, het geeft exact weer waar "x" voor staat. het gebrek aan fatsoen zit niet bij tweakers maar bij "x" Vrijheid van mening en meningsuiting is belangrijk, maar een techwebsite mag ook weergeven wat gevolgen zijn als je zomaar alles kan weergeven.
En kinderen hebben geen idee bij dit beeld waarover het gaat, laat staan dat ze er stil bij staan.

[Reactie gewijzigd door redzebrax op 8 december 2024 22:24]

Let wel dat Musk zeer goed bebriend is met Trump en juist dat bloed op Trumps gezicht wordt als moed gezien, vanwege hoe hij reageerde meteen na de aanslag.
En bloed in beeld verwees ik al expres naar NOS nieuws dat vaak genoeg overdag ook al veel gruwelijkere beelden laat zien.
Grok... dat drink je als je een kater hebt na het zuipen!

Op dit item kan niet meer gereageerd worden.