Kunstenaars claimen OpenAI's Sora-videogenerator te hebben uitgelekt uit protest

Een groep kunstenaars claimt de komende Sora-tool van OpenAI te hebben laten uitlekken. Ze deden dat uit protest tegen wat de kunstenaars 'onbetaalde r&d en pr' noemen. De groep mocht Sora vroegtijdig uitproberen van OpenAI. Het bedrijf heeft de toegang tot de tool inmiddels ingetrokken.

De groep zette Sora online op AI-modelwebsite Hugging Face, samen met een open brief. Gebruikers konden voor een periode van drie uur video's genereren op de dienst. Veel daarvan waren in te zien onder de open brief en zijn verschenen op sociale media. Inmiddels zou OpenAI de vroege toegang tot de tool hebben ingetrokken, waardoor deze niet langer bruikbaar is.

In de open brief schrijven de kunstenaars dat ze vroege toegang tot Sora hadden gekregen van OpenAI. "We kregen toegang tot Sora met de belofte om vroege testers, redteamers en creatieve partners te zijn. We geloven echter dat we in plaats daarvan tot 'artwashing' worden gelokt om de wereld te vertellen dat Sora een nuttig hulpmiddel is voor kunstenaars."

De groep claimt dat hij niet tegen het gebruik van AI door kunstenaars is, maar dat OpenAI's earlyaccessprogramma kunstenaars 'uitbuit voor gratis werk', omdat honderden artiesten onbetaald de Sora-tool zouden testen en feedback leveren. De kunstenaars bekritiseren ook de contenteisen die OpenAI oplegt. Zo moeten testers toestemming vragen aan OpenAI voor iedere gegenereerde video die ze openbaar willen delen, claimt de groep.

OpenAI wilde niet bevestigen of het uitgelekte Sora-model echt was, schrijft The Verge. Een woordvoerder van het AI-bedrijf benadrukt tegenover dat medium dat deelname aan de 'onderzoekspreview' van Sora vrijwillig is, 'zonder verplichtingen om feedback te geven of de tool te gebruiken'.

Sora werd eerder dit jaar gepresenteerd door OpenAI. Het betreft een AI-tool waarmee video's gegenereerd kunnen worden op basis van tekstinput. OpenAI deelde daarbij verschillende gegenereerde beelden, die overeenkomen met de video's die zijn gemaakt met de uitgelekte tool. Mira Murati, de voormalige cto, zei eerder dit jaar dat Sora mogelijk dit jaar nog beschikbaar zou komen voor het grote publiek. Ze zei toen wel dat dat mogelijk niet zou gebeuren als het bedrijf nog geen vertrouwen heeft in hoe de tool omgaat met 'wereldwijde verkiezingen of andere kwesties'. Sindsdien heeft het bedrijf weinig meer laten horen over Sora.

Een met Sora gegenereerde video die OpenAI eerder dit jaar deelde

Door Daan van Monsjou

Nieuwsredacteur

27-11-2024 • 09:44

98

Reacties (98)

98
97
38
5
0
42
Wijzig sortering
Zojuist even de huggingface pagina ingedoken. Het lijkt er op dat niet het model (safetensors oid) gelekt is, maar de API om de video's mee te genereren. Het lijkt er op dat iemand zijn/haar authenticatie er aan gekoppeld had zitten om zodoende middels zijn/haar account onbeperkt video's te kunnen genereren met SORA.
OpenAI heeft nog nooit modellen vrijgegeven, dus bij zo'n 'revolutionair' model zouden ze dat ook zeker niet doen. Dat zou nieuws op zichzelf zijn ;)
OpenAI heeft nog nooit modellen vrijgegeven
Je zou dat toch wel verwachten bij zo'n naam, maar dat is gewoon marketing sinds ze volledig commercieel zijn gegaan.
Het is dan waarschijnlijk ook een kwestie van tijd dat ze met een rebrand gaan komen. :)
Alleen GPT2 hebben ze vrij gegeven.
https://github.com/openai/whisper

Is een van de modellen die OpenAI vrijgegeven heeft, deze wordt heel veel gebruikt. En was echt revolutionair bij de release.

Maar er zijn er meer, bijvoorbeeld https://huggingface.co/openai/shap-e

Ook is deze vrijgegeven dataset nuttig:
https://huggingface.co/datasets/openai/MMMLU

[Reactie gewijzigd door djwice op 28 november 2024 07:46]

Ah, jammer. Men kan dus nog niet aan de slag met een lokale Sora (voor zover dat hardwaretechnisch haalbaar is).
Ze schrijven ook op tweakers voor de massa tegenwoordig. Dus de uitleg in het artikel is voor minder technisch onderlegde mensen die niet weten wat een API is. En ja daar zijn er hier van.
Dan nog is "toegang tot het model gelekt" een betere omschrijving dan "het model gelekt".
Dat zal je met de auteur moeten overleggen :)
Je kan als artiest zoveel geldige bezorgdheden en bezwaren hebben tegen deze ontwikkelingen, maar dan ga je als reden opgeven dat... je gratis early access kreeg tot een technologie en dat je dat ziet als uitbuiting...?
Het gaat niet om de ontwikkelingen an sich, het ging deze uitgenodigde groep kunstenaars specifiek om:
'maar dat OpenAI's earlyaccessprogramma kunstenaars 'uitbuit voor gratis werk'
Stel, de Efteling nodigt je uit om volgende week met je gezin gratis hun nieuwste attractie uit te proberen, weken vooraleer deze voorgesteld wordt aan het publiek. Je mag na het uitproberen vrijblijvend feedback geven over de attractie. Je gaat in op het aanbod, want je vind dit soort attracties wel leuk, maar na buitenkomst van het park stuur je meteen een mail naar de krant: "EFTELING BUIT BEZOEKERS UIT OM ONBETAALD ATTRACTIES TE TESTEN!" ? Waar zit daar de logica? Had dan toch gewoon niet deelgenomen?
Want ik ben een professioneel attractie gebruiker?
Het is nogal een verschil dat die kunstenaars bezig zijn met hun broodwinning
Kunstenaars zijn geen programmeurs, net zoals jij geen attractiebouwer bent. Jij bent echter wel het doelpubliek voor die attractie.
Je vergelijking klopt gewoon niet.
De attractie "uitprobeerder" is een consument.. Waarom zou die verwachten betaald te worden.

De kunstenaar is met zijn werk bezig en heeft dus heel andere belangen. Nope... de kunstenaar is geen programmeur.. Dus? De programmeur is hier de Leverende partij.

Hoe dan ook lijkt het mij er niet om te gaan of er betaald zou worden. De kunstenaars vinden onder valse voorwensellen in het verhaal betrokken te zijn.
Je mist het punt dat het "uitproberen" volledig vrijblijvend was. Net zoals bij het uitproberen van de attractie niemand een pistool tegen je hoofd houdt, heeft ook niemand een pistool tegen het hoofd van de kunstenaars gehouden.

"Hey, jullie kunstenaars, willen jullie een sneak peak van Sora?"
> "OOOEEEHH COOL! Jajajaja! Dat willen wij wel!"
"Okey, probeer maar uit naar hartelust! Als jullie feedback hebben, we horen het graag!"
> "HUEHUEHUEHUE! Waarom worden wij niet betaald als testpanel?!"

Zie je hoe absurd deze situatie is?
Niet echt... geen verschil. Als een professioneel attractie gebruiker vrijblijvend iets word gevraagd is er 0 verschil met of een random persoon op de straat het gevraagd word.
Er hoeft geen feedback gegeven te worden, ze hoeven er geen gebruik van te maken .. er is geen bijdrage gewenst whatsoever.

De enige reden dat er gekozen is voor een meer doelgerichte groep van kunsternaars ipv open voor het publiek is dat mocht er feedback komen, dit eerder geaccepteerd kan worden als feedback van een meer ervaren persoon terwijl bij publiek openstellen je alles moet gaan sorteren in "weet mogelijk waar hij het over heeft" en "absoluut waardeloos"
Deels mee eens (het was overigens niet mijn bedoeling om er een oordeel over te geven)

Het gaat hier wel wat verder...de vergelijking zou beter opgaan als de bezoekers ook wordt gevraagd om bij te dragen aan het ontwerp van de atractie.
Wat is er mis met die vraag? Het is toch vrijblijvend? "Geen commentaar, alles was prima voor mij" is toch een geldig antwoord op zo'n vraag?
Dat is natuurlijk niet helemaal wat ze bedoelen.

Het is net zo iets als greenpeace een uitnodiging sturen om walvisjacht bij te wonen en vervolgens dan als walvisjager roepen dat greenpeace aanwezig was en het dus met de jacht eens is en er gebruik van maakt.

Dat soort wat dan ook -washing en missrepresentatie is niet zo heel ongewoon rond controversiële onderwerpen.

Deze kunstenaars zijn bang dat hun associatie met de sora tool zal worden misbruikt als een endorsement (goedkeuring).
Als dat hun perspectief is, dan was het veel logischer dat ze dat ze hun bezorgdheden en kritiek over Sora in hun blogpost zetten, om duidelijk te maken dat ze het er niet eens mee zijn. Maar dat doen ze niet. In tegendeel, ze maken extra promo en geven zelfs subtiele lof. Zo negatief zijn ze dan blijkbaar toch niet?

Als ze niets tegen de technologie hebben, dan is er van "artwashing" ook geen sprake. Hun enige overblijvende bezwaar is dan nog dat ze niet betaald werden. Maar hoezo verwachten ze dat dan ook...?
Oh een blogpost zeg je? Nou, dat zet zoden aan de dijk. Nu hebben ze tenminste wat nieuws weten te pakken. Af en toe een beetje burgelijke ongehoorzaamheid mag wel hoor, zeker tegen (aanstaande) techgiganten als OpenAI.
Ik heb niks met OpenAI noch hoe ze omgaan met publieke content. Dat gezegd vind ik de klachten weinig basis hebben. Ze mochten gebruik maken van een tool, en daar zijn ze niet voor betaald. Als dat iemand niet aanstaat, doen ze toch niet mee?

Dit is zoiets dat Tweakers een router te leen stelt voor een review aan een welwillende tweaker en dat de tweaker vervolgens even flink op de router schijt en dan klaagt dat het reviewen onbetaald was.
Kijk je nou echt met opzet weg van de context, of zie je die echt niet?

Sinds op de opkomst van LLM's wordt er vanuit de creatieve gemeenschap al gezegd dat ze het er niet mee eens zijn dat die modellen zonder instemming op hun content wordt getrained. Diezelfde modellen worden dan ook nog eens ingezet om hen te vervangen. Ze worden dus dubbel genaaid.

Dan wordt de gemeenschap benaderd met een, in hun ogen, onheus verzoek om diezelfde partij te gaan steunen door hun product te betatesten en daar geloofwaardigheid aan te geven. Wat de voorgaande poster zei is dat ze dat hadden moeten weigeren en een blogpost hadden moeten schrijven.

Wat ik zeg: dat had helemaal niets gedaan en ze hebben hier gewoon een stukje activisme toegepast door op de uitnodiging in te gaan en dan meteen een statement te maken door het model te releasen (feitelijk de waarde van OpenAI afpakken zoals zij het gevoel hebben dat dat van hen gebeurt is door OpenAI). Daarvan zeg ik: laten we de spruitjeslucht even opbergen en dit toejuichen. Dit is een gemeenschap die zwaar onder druk staat, die echt dubbel heeft geleden door de praktijken van deze AI bedrijven. Laat ze maar hun statement maken.

De vergelijking die jij trekt is in een situatie waarin Tweakers ter goeder trouw is. Het punt is, OpenAI is niet ter goeder trouw. Ze. hebben content geroofd van een gemeenschap die over het algemeen al niet teveel verdient en probeert nu die gemeenschap in te zetten om hun product, dat diezelfde gemeenschap weer het leven moeilijk maakt, te verbeteren, ZONDER hen iets daarvoor te bieden.

Dat is inderdaad gestoord, en deze artiesten hebben groot gelijk.
Toevallig heb ik architectuur gestudeerd, aan de academy spendeer je heel veel tijd, zo niet drie kwart in het analyseren van je voorgangers. Van de Grieken aan toe kijken we naar hoe zij in architectuur stonden. "We" leven met hetgeen wat we zien, lezen, horen en vervolgens doen wij daarmee wat we willen.

Kunstenaars zijn zelden uniek, opzichzelf staand en maar wat graag profileren ze zichzelf waar ze inspiratie opdeden, waar en wie.

Ik wil OpenAI geen kunstenaar noemen maar is een LLM dermate anders dan ons? We willen het graag gooien op originaliteit, vernieuwend, maar er zijn maar heel weinig kunstenaars die dat daadwerkelijk zijn.

Het is een discussie die ik graag voer, en dat kunstenaars het daar niet me eens zijn is hun goed recht. En je hebt geen ongelijk OpenAI zou zichzelf goed doen door zich anders op te stellen. Maar tot op heden is er nog geen rechtzaak geweest waaruit blijkt dat hetgeen wat OpenAI doet illegaal is. Ze slurpen gigantische bergen data zonder beperkingen op.. net zoals wij.
> Ik wil OpenAI geen kunstenaar noemen maar is een LLM dermate anders dan ons?

Iedereen wordt ineens esoterisch filosoof wanneer hun argument onder druk komt te staan. Of ben jij een van die "corporations are people too" mensen?

Als jij het verschil tussen een lossy auto-complete database (LLM) en een persoon echt niet begrijpt, dan moet je je misschien gewoon niet mengen in deze discussie.

[Reactie gewijzigd door zath op 28 november 2024 15:18]

Goed voorbeeld inderdaad. Vroeger mocht je bijvoorbeeld nog weleens producten houden na de review. Tegenwoordig krijg je de facto AliExpress oordopjes, een cadeaubon van €10 of helemaal niets. Ik persoonlijk vind het dan veel teveel werk en enkel "het eerder mogen gebruiken" boeit me niet voldoende om de forse hoeveelheid tijd die nodig is voor een goede review erin te steken. Wat doe je dan? Dan schrijf je jezelf gewoon niet meer in voor de reviews, heel simpel. :P Veel beter in plaats van je wel in te schrijven en dan bijvoorbeeld een NDA te breken of, inderdaad, het afzeiken dat ie slecht is "want je mag hem niet houden". Doe dan niet mee, niemand dwingt je. :+
Je probleem lijkt te zijn dat de kunstenaars hun protest onhandig aanpakken. Dat kan zijn, maar dat veranderd niets aan de reden waarom ze het doen. :)
Een blogpost en dan hopen dat iemand ergens het ooit ziet. Dit is toch echt een veel betere manier van aandacht krijgen.
Uiteraard. Maar we moeten dan ook niet doen alsof het iets anders is dan dat: een schreeuw om aandacht.
Ja inderdaad. Ik snap eigenlijk ook helemaal niet meer zo goed wat jij probeert te zeggen? Een schreeuw voor aandacht dus moeten we het maar negeren of wat is je punt?
Dat, ondanks er zeer veel valabele bezorgdheden omtrent AI zijn, ze een nonsens probleem aankaarten in hun schreeuw voor aandacht. "Kijk! Wij kregen gratis een cadeautje, maar we kregen er niet voor betaald!"

Ze kaarten bvbv. niet het probleem m.b.t. auteursrecht aan, noch het probleem dat zij mogelijks zonder een baan komen te zitten. In tegendeel, ze juichen de komst van dit soort AI zelfs toe.
Zeer verdraaide mening heb jij en het is ook niks anders als dat, een mening. Een ludieke actie is altijd een goede manier om aandacht te vragen voor bepaalde problematiek. Prachtig hoe ze OpenAI terug pakken met hun eigen spelletje.

Heb jij de brief wel gelezen? Het gaat niet eens over auteursrechten of wat dan ook.
We are not against the use of AI technology as a tool for the arts (if we were, we probably wouldn't have been invited to this program). What we don't agree with is how this artist program has been rolled out and how the tool is shaping up ahead of a possible public release. We are sharing this to the world in the hopes that OpenAI becomes more open, more artist friendly and supports the arts beyond PR stunts.
Ze plagiëren alles wat je ze geeft maar dat hadden ze zelf ook wel kunnen bedenken.
Het is hetzelfde als een stuk programma-code aan ChatGPT geven ter analyse. Waar je hierna 100% zeker van kan zijn is dat die code nooit meer je eigendom kan worden omdat het jouw werk was.

[Reactie gewijzigd door blorf op 27 november 2024 10:43]

Deze kunstenaren zijn vrijstaand en vrijwillig uitgenodigd om deze tool te gebruiken en te testen. Natuurlijk is één van de doelen het genereren van PR en het testen van de tool onder kunstenaren. Waarom zouden deze kunstenaren dan het recht hebben om hier tegen te protesteren? Als ze hier niet aan mee willen werken, kunnen ze er toch voor kiezen om het gewoon niet te gebruiken?

Deze artiesten geven in hun brief aan dat de kwestie van AI om kunst te genereren niet het probleem is, dus ik snap niet helemaal waar ze nu bezwaar tegen hebben...

[Reactie gewijzigd door AWrongUsername op 27 november 2024 10:01]

Deze kunstenaren zijn vrijstaand en vrijwillig uitgenodigd om deze tool te gebruiken en te testen. Natuurlijk is één van de doelen het genereren van PR en het testen van de tool onder kunstenaren. Waarom zouden deze kunstenaren dan het recht hebben om hier tegen te protesteren?
Als ze onder valse voorwendselen uitgenodigd zijn, dan is dit volledig terecht. Ongeacht of het gratis is of niet. Het is niet okay om te zeggen dat het één het doel is, om vervolgens het met een ander doel te gebruiken.
Ze vermelden zelf in hun brief dat ze zijn uitgenodigd als
early testers, red teamers
. Vervolgens zetten ze in grote blokletters in hun brief
ARTISTS ARE NOT YOUR UNPAID R&D
. Dan lijkt het mij toch duidelijk dat wanneer dit een probleem is, je er gewoon niet aan deelneemt? Er zijn toch geen valse voorwendselen als er van tevoren al vermeld is dat het early testers zijn?
Ik snap de heisa niet zo. Als het iets bestaands was dat ineens veranderd naar dit verhaal, of als ze worden voorgelogen met andere voorwaarden, dan sure. Dan mag je van mij luidruchtig klagen.
Maar dat is hier toch nergens het geval?
Je wordt uitgenodigd als tester, en dan mekkeren dat je gratis werk zit te doen, ja .. het MOET niet he? Je kan het ook gewoon ... niet doen?

Ik denk dat er genoeg bezwaren zijn tegen OpenAI en hun eerlijkheid, maar dit lijkt mij geen argument.
Het is meer een principe kwestie zou ik zeggen. Er gaat genoeg geld in om, om ze te compenseren. Dat je ergens mee weg kan komen betekend niet dat het dan ook moreel juist is.

Ik zou bijvoorbeeld waarschijnlijk prima snoep kunnen stelen bij de kruidvat zonder problemen. En zelfs al zou het niet verboden zijn om dat te doen, is het moreel niet juist omdat te doen. Zeker als ik geen wezenlijk verschil merk tussen wel of niet betalen.
Maar dan ben je willens en wetens een strafbaar feit aan het plegen, ik vind dat nogal een slechte vergelijken.

Het is meer alsof er ergens een poster hangt "help mee de straat te vegen!", je komt opdagen, en je gaat klagen dat je gratis werk staat te doen terwijl er genoeg geld in de gemeente zit voor dit soort zaken. Tsja, je had ook gewoon thuis kunnen blijven.
Dat je onder het mom “testers, redteamers en creatieve partners” wordt uitgenodigd, betekend niet dat dit ook daadwerkelijk, of uitsluitend, het geval is. Als ze mensen met de verwoording als “guinea-pig” uitnodigden, heeft dat toch een duidelijk slechtere connotatie.

Het idee dat zoiets “gratis” is, is toch allang niet meer geloofwaardig. Het is een constructie waar een (grote) partij overduidelijk aan het langste eind trekt. Waarbij de illusie wordt gewekt dat de andere (kleine) partij een meer dan eerlijke deal krijgt.
Niemand verplicht je om er aan mee te werken. Sommige mensen vinden het heel leuk om als eerste bepaalde tools te mogen zien en gebruiken, om verschillende redenen. Als je dat niet wil: dan neem je toch simpelweg geen deel en sla je de uitnodiging af...? Als ze betaalde professionele testers zoeken hadden ze het wel laten weten. Maar hoe dan ook geeft niets deze asociale figuren het recht om geheime informatie te publiceren.
Als de deelnemers het niet willen, draaien ze het met de PR machine wederom op zo’n manier dat jij denkt dat de weigeraars de asosciale figuren zijn. Dus dan is de enige optie om wel deel te nemen en een statement te maken op een andere manier.
Onzin. Het boeit echt helemaal niemand als iemand niet wil deelnemen, geen idee waar je dat vandaan haalt. De lijst met genodigden is niet eens bekend. :+ Niemand wordt gedwongen on mee te doen en niemand hoeft zich te verantwoorden als ze de uitnodiging afslaan. Er is niet eens iemand die daar naar vraagt. Je krijgt toegang tot een early access, doe het of niet - nobody cares. En je kan er zeker geen rechten aan ontlenen.
Dat ze asosciaal zijn staat wel vast. Hoop ook dat ze zwaar gestraft worden.
Ze zijn simpelweg bang dat hun deelname niet juist word gerepresenteerd. Word weggezet als goedkeuring en zo. Dat soort trucjes is niet ongewoon.
Deelname is toch vrijwillig? Je kan er dan toch voor kiezen om er niet aan deel te nemen of je zorgen te uiten zonder dat een ander hier last van heeft? Het is niet alsof ze iets hebben ondertekend dat hun vrije spraak beperkt.
Het is niet alsof ze iets hebben ondertekend dat hun vrije spraak beperkt.
Ik weet niet hoe jij het artikel leest, maar ik zie juist het idee dat ze vinden dat het wel zo is dat hun vrije spraak beperkt word. Zeker daar ze toestemming nodig hadden om hun werk met de tool te delen en zo.

Deelname is "vrijwillig". Maar als deelnemen word uitgelegd als toestemming en niet deelnemen word uitgelegd als "blokkerend" of "niet mee willen helpen" etc. Dan kan je als groep nooit winnen. Dit soort dingen zijn hele vuile politieke spelletjes. Die je vaak in regeringen en overheid vind maar ook veel in het bedrijfsleven.
Dat een output van een model goedgekeurd moet worden om te delen, betekend toch niet dat de gebruiker van het model in kwestie gelimiteerd word om zijn kritiek te kunnen uiten?

Als een game publisher een nieuw spel uitbrengt, en bijvoorbeeld Youtubers uitnodigt om het spel te spelen, dan mogen ze ook vaak een aantal stukken tonen met de fans om de game te laten zien. Alle problemen worden hier ook uit verwijderd, maar de Youtubers mogen ook gewoon middels hun stem deze problemen benoemen. Ik zie niet hoe dit anders is.
Dat een output van een model goedgekeurd moet worden om te delen, betekend toch niet dat de gebruiker van het model in kwestie gelimiteerd word om zijn kritiek te kunnen uiten?
uhmmmm, ja dat doet het wel. Anders zou er geen goedkeuring zijn, dat impliceert dat je niet alles mag zeggen.
Je mag prima alles zeggen, je mag niet alles delen dat het model genereert.
Wat het model genereert is onderdeel van die expressie het is ook het bewijs voor bepaalde claims. Als het rommel is en je zegt dat zonder de rommel te kunnen tonen word je niet serieus genomen.
"Alle problemen worden hier ook uit verwijderd"

Dat gebeurd in veel gevallen juist niet en wanneer dit wel gebeurd wordt dit juist door YTbers aangegeven. Er zijn ook al een aantal prominente Streamers/YTbers die gewoonweg wijgeren een spel te previewen als ze niet alles mogen delen wat niet strikt onder een NDA hoeft te vallen.

En dat laatste ik ook het enige wat een reden mag zijn voor bedrijven om spul te reviewen voordat het publiek komt, gewoon een sanity check of er niet (per ongeluk) iets gedeeld wordt wat onder een NDA valt.
AI is in de kunstwereld redelijk polariserend. Het betekent dat je als Artiest door conservatieve kunstenaars niet meer serieus wordt genomen wanneer je je inlaat met AI.
Mijn vriendin is kunstenaar en zij omarmd AI juist.
Het helpt nmlk enorm goed in bepaalde workflows of het uitspitten van ideeën.

Toen ik vroeg of zij niet bang was voor AI, begon ze heel hard te lachen met de opmerking: "mijn klanten weten niet eens wat ze willen".

Dit is typisch het menselijke element dat een AI nooit of heel moeilijk zouden kunnen bepalen.
Wat klanten/mensen zeggen, maar vervolgens weten wat ze echt daadwerkelijk willen en wat goed werkt komt met jarenlange ervaring, kennis en kunde.

Zij kan zich dan ook totaal niet vinden in deze boze kunstenaars en vind dan sowieso de aanpak onjuist.
Liever de dialoog aan hoe je het op een juiste en eerlijke manier kunt doen en evt waarnodig aanpassen.
Zij kan het ook totaal niet waarderen dat de hele groep nu als een wordt gezien.

Op dit moment lijkt AI heel indrukwekkend, maar het is ook veel eye candy.
Als je echt op details gaat letten, merk je dat er nog steeds mensen nodig zijn om de puntjes op de i te zetten.
Dat zijn vaak niet eens de puntjes om het enkel mooier te maken, maar in veel gevallen is het resultaat er gewoon echt nog niet.

In sommige gevallen zie ik dat ook nooit veranderen omdat de context veel te ingewikkeld en genuanceerd = menselijk is.

Er zullen beste wel wat banen sneuvelen, maar 30-40 jaar geleden waren er ook heel wat banen die tegenwoordig obsolete zijn. Inclusief van bepaalde beroepen voor kunstenaars.
Daar hoor je ook niemand meer over.
Dat is het hem ook. Het is gewoon weer de zoveelste discussie over hoe technologie zogenaamd slecht is en banen ontneemt. Je hebt nog fotografen die beweren dat digitale fotografie evil is, dat Photoshop niet mag, dat tekentablets valsspelen is en noem het maar op. Kunnen zichzelf gewoon niet aanpassen aan nieuwe tooling in het arsenaal van beschikbare middelen. Deal with it.
Daar had ik als hobby fotograaf nog niet eens bij stilgestaan, lol

Ik heb nog met de analoge dingen gewerkt (incl zelf ontwikkelen), maar kan nou niet zeggen dat ik het mis.
Als professional kan ik me al helemaal niet voorstellen dat iemand die tijd zal missen.
Het enige dat ik ervan mis is de mechanische klik en het feit dat je geforceerd wordt om iets beter na te denken over een foto. Dit kan ook echter een heel groot nadeel zijn.

Om een voorbeeld van een workflow van mijn vriendin te geven:
- idee/schets tekenen op tablet
- verfijnen in Photoshop
- AI tools gebruiken om ideeën of variaties te maken
- die uitwerken
- vervolgens omzetten in het medium dat ze wil gebruiken (bv klei of een schilderij etc)

Zij doet ook veel in film/video.
Daar wordt op dit moment AI veel gebruikt als ruwe placeholder voor bv spraak en tekst.
Of als ruwe storyboard placeholder etc.

Voor het echte professionele werk is de kwaliteit daar alleen nog zeker niet goed genoeg voor, dus worden daar uiteindelijk gewoon nog mensen voor gebruikt die een hoop meer emotie en kwaliteit kunnen inbrengen.
Ik zie die stap ook niet zomaar veranderen, nogmaals de context en belangen zijn veel te complex.
Qua workflow is het wel echt een enorme uitkomst.

[Reactie gewijzigd door B_FORCE op 27 november 2024 12:49]

Als placeholder tekst doet het het al sowieso een stuk beter dan lorem ipsum, met enkel als gevaar dat bij lipsum het duidelijk is dat het nog vervangen moet worden, dat terwijl die AI tekst "goed genoeg" is om vergeten te worden. Maar goed, dat is meer een workflow ding, natuurlijk, nog altijd aan de contentvullers om dat adequaat bij te houden, en dat is het nou juist met zo'n beetje al het AI gebruik.

Aan de ene kant wordt er te veel van verwacht, dat AI de complete taak kan overnemen (komt ook wel grotendeels door de marketing), dat het een of ander magische doos is die altijd correct moet zijn. En dan klagen mensen als AI hallucineert en hoe waardeloos het wel niet is ... Het is enkel een (zeer krachtig) gereedschap, je zal het werk toch echt nog altijd zelf moeten doen, al kan AI je er gigantisch bij helpen.

Zie het een beetje als een onbetaalde stagiair, die kan je heel veel van het lompe werk geven, mag tijd verdoen aan zaken uitzoeken en samenvatten. Maar al het productiewerk dat eruit komt zal je toch echt zelf moeten controleren voordat je het oplevert. Als die stagiair de boel verklooit dan ben jijzelf toch altijd nog eindverantwoordelijk. En AI is echt niet anders.

Daarnaast is een AI ingesteld om exact te doen waar jij om vraagt. Die vraag kan verkeerd begrepen zijn, maar de AI zal het zo exact mogelijk proberen uit te voeren. Alles wat daar mis in gaat, ligt of aan je prompt of je verwacht er te veel van. Een AI zal je eerder geven waar je om vraagt en jou gelijk geven dan je de waarheid te vertellen, dus stel je geladen vragen dan is de kans op onzin erg groot. Vraag je aan chatgpt om een essay te maken over waarom Trump de slechtste president is, en zal je netjes een rapport geven. Vraag hem om een essay over waarom Trump de beste president is, en je krijgt evengoed netjes een rapport. Daar valt gaan waarde van echtheid aan te hangen, het zijn niet per se feiten, maar je kreeg wel waar je om vroeg. Jij als de auteur gooit die stelling omhoog als onderwerp voor een tekst, die AI vult dat braaf voor je in.

Ik snap daarom ook echt niet dat mensen LLM's als zoekmachines gebruiken. Vaak zie je hier op tweakers in de comments bij een nieuwe release van een of andere AI allerlei voorbeelden waarom het zo sleht is, want als je deze dingen vraagt gaaft hij verkeerde antwoorden... Nou nee, het probeert je te geven waar je om vraagt, als daar iets mis aan is, ligt dat dus aan jezelf (sowieso de verwachting dat de AI een waarzegger is die ALLES weet).

Pas in het nieuws over het gevaar van mensen die medisch advies aan die dingen lopen te vragen, uit een onderzoek bleek dat deze dingen gewoon dodelijke suggesties maken.

Het leent zich daarom (imo) ook een stuk beter voor artistieke doeleinden, er zijn niet per se feiten wanneer het gaat om kunst en smaak (behalve wellicht het aantal vingers dat een persoon behoort te hebben).

/rant
Mooie vergelijking met de stagiaire trouwens! :)
(helemaal niet betalen is wel sneu hoor trouwens, lol)

Mijn eigen vakgebied is techniek en wetenschap.
In dat geval kan ik wel met zekerheid zeggen dat AI voor geen meter te vertrouwen is.
Ik heb het al meerdere keren getoetst en het verzint er vrolijk op los.
Het lag met deze voorbeelden absoluut niet een verkeerde prompt, maar echt aan het leveren van verkeerde informatie.

Bijzondere is dat zelfs als je het probeert te corrigeren, AI er gewoon echt niet uitkwam en het in sommige gevallen het van kwaad naar erger werd.

Ik gebruik het nu zelf als een soort eerste vraagbaak over onderwerpen die inmiddels wat zijn weggezakt.
Je moet dan altijd nog steeds op je hoede zijn, maar het helpt wel om in de juiste richting te zoeken naar daadwerkelijk goede literatuur.

Daarnaast is het ook heel handig met bv e-mails ed of het opstellen van bepaalde documenten. :)
Dan valt het dus in het tweede, "je verwacht er te veel van", soms is dat wat lastig in te schatten, want een van die dingen die daar onder vallen is vragen stellen over waar hij geen directe bronnen van heeft. In dat geval gaat hij extrapoleren uit de dingen die hij wel weet en dat kan de grootste onzin zijn.

Ik gebruik Copilot met name bij code development. En daar is hij uiterst handig in om het lompe werk te doen (declareer paar varretjes, tiep een while, en hij suggest de hele loop, scheelt tikwerk). Maar als hij geen verstand heeft van een taal of library of iets dergelijks, gaat hij echt onzin voorstellen, functies die niet bestaan enzo. Vraag je om een bron of documentatie krijg je doodleuk een url die of niet bestaat of over iets totaal anders gaat.

Als je dan de chat met hem induikt om dat op te helderen, dan blijft hij stug volhouden, hij geeft niet toe dat hij het niet weet, en "raadt" maar wat (en van kwaad naar erger, zoals je ook zei, gaat vanalles zitten "corrigeren" zonder echt te begrijpen wat het probleem is). Ik ben er wel achter gekomen dat je om percentages kan vragen over hoe goed hij denkt dat het antwoord is. Alles onder de 80% zo'n beetje kan je afschuiven als onzin (als hij zo'n 20% verzint, grote kans dat dit juist de specifieke dingen zijn die fout gaan, de ifjes en whiletjes eromheen zullen heus wel goed zijn). Maar het is best lastig om hem dus toe te laten geven dat hij het niet weet.
Oh ik snap nu wat je bedoelt.
Ik zou "je verwacht er te veel van" iets anders verwoorden, haha :)
Maar inderdaad, mijn verwachtingen zijn met zulk soort onderwerpen inmiddels heel laag.

Voor programmeren is het idd wel erg handig, gewoon het "monkey work" laten uitspitten.
Soms moet je daar ook nog even overheen, maar dat gaat in elk geval een stuk sneller dan zelfs vanaf nul beginnen.

Met kunst werkt het trouwens net zo.
Een professional ziet meestal wel heel snel dat er iets niet helemaal klopt.
Maar vooral de nieuwe photo/video editing tools zijn dan ook indrukwekkend in die zin dat ze de bulk vrij "okay" kunnen doen en je enkel nog wat puntjes op de i hoeft te zetten.

Helaas bestaat er nog steeds niet zoiets voor elektronica en PCB werk :(
Dus het monkey werk moet ik helaas nog altijd zelf doen.

Hoe dan ook, jij en ik snappen hoe kritisch om te gaan met de informatie die je krijgt.
Dat is er bij mij met de paplepel ingehamerd tijdens de studie.

Wat het lastig maakt, is dat het voor veel mensen erg overtuigend overkomt, maar uiteindelijk gewoon keihard fout is.
Zelfs zonder AI is dat iets wat veel mensen erg moeilijk vinden om te onderscheiden.
Waarbij men in de meest vreemde dingen gelooft, of de argwaan doorslaat en ineens niks meer waar is.
(ondanks het feit dat je al bijna 20 jaar in vakgebied zit 8)7 )

Dat zie je maar al te vaak in discussies tegenwoordig (online en offline).
Waarom zouden deze kunstenaren dan het recht hebben om hier tegen te protesteren?
Je hebt volgens mij altijd het recht om te protesteren, in ieder geval in Nederland.
Dat klopt, iedereen heeft het recht om te protesteren. Mijn punt ging meer over de vrijwillige aard van deze samenwerking en dat ze niet verplicht zijn deel te nemen als ze dat niet willen. Het was dus meer een praktische vraag dan een discussie over rechten.
Maar ook als je er niet aan deelneemt, kun je de motivatie om kunstenaars te vragen hieraan deel te nemen aan de kaak stellen.
Zeker, maar als je argument is "ik ben uitgenodigd voor vrijwilligerswerk, en nu klaag ik dat ik gratis werk sta te doen" is niet bepaald een sterk argument voor wat dan ook. Dat OpenAI kritisch bekeken moet worden, mag duidelijk zijn, maar ik vraag me af wat al deze heisa uithaalt behalve gratis publiciteit voor OpenAI en hun nieuwe product.
Wat ik lees doen de kunstenaars heel veel aannames doen en uitgaan van ongegronde angst en dan het product “lekken”.
Ik kan hier niet uit opmaken of OpenAI deze mensen vooraf beloofde te betalen of niet. Ik neig er naar dat deze mensen een zeer schadelijke en kinderachtige daad hebben gesteld. Je had ook gewoon kunnen weigeren om mee te doen aan een bug hunt en closed beta als je een vergoeding wilde. Dit lijkt gewoon vooraf al bedacht te zijn.

Dit laat naar mijn mening meer zien dat deze artiesten zelf inhalige ego's zijn, afgezien van het feit dat OpenAI ook gewoon een smerige onderneming is geworden.
Ik heb hier gemengde gevoelens over.

Heel veel "vroegtijdige" toegang is gratis test feedback voor de ontwikkelaar. De koper krijgt korting, of het is gratis. Dat merk ik bij spelletjes en tools. Als ik dat niet wil, ga ik het spelletje of tooltje niet kopen.

Er zal, als de ontwikkelaar slim is, ook een NDA zijn, waarin de spelregels van het testen beschreven staan. Als je het daarmee niet eens bent, niet tekenen.

Dat mensen hun baan of inkomen zien verdwijnen/veranderen door AI begrijp ik ook. Je zou maar een vertaler zijn met 20 jaar ervaring en dan neemt zo'n AI het voor 99% over, tegen een fractie van de kosten. Je zou maar een redacteur zijn, die door hevige AI concurrentie amper rond komt. Maar ik geloof dat echte kunst, door een mens met bloed, zweet en tranen gemaakt, altijd wel een plek zal houden. Al zal het lastig te vinden zijn in de tsunami van goedkope AI kunst.
De filmpjes die mensen hiermee gemaakt hebben en op X gezet lijken erg veel foutjes te hebben. Dit is toch echt wel flink minder goed dan wat OpenAI in de promo filmpjes heeft laten zien. Ze hebben echt wel wat uit te leggen als dit de staat van het product is.
Ik kan me ergens wel voorstellen dat je in drie uur geen fantastisch resultaat krijgt. In tegenstelling tot wat sommigen beweren kost het tijd en moeite om ECHT wat moois te maken met AI.
Sure, maar als je dan kijkt op: https://openai.com/index/sora/

"Sora is an AI model that can create realistic and imaginative scenes from text instructions."

"We’re teaching AI to understand and simulate the physical world in motion"

"The model understands not only what the user has asked for in the prompt, but also how those things exist in the physical world."

Nou als ik dan de video's van gisteren ernaast leg dan roept dat bij mij wel vragen op. De videos die ze laten zien op hun site zijn allemaal 'perfect', terwijl tientallen filmpjes die ik bekeken heb die hieruit kwamen allemaal echt serieuze editing nodig hebben om als 'realistisch' door te gaan.
Steeds meer groepen zie je de regels aan hun laars lappen.
Hun gelijk rechtvaardigt dat vinden ze. Ja zo kan iedereen de regels naar zn hand zetten...
.
In welke zin bedoel je dat m.b.t. regels? De discussie over rechten & gegenereerde ai beelden is een hele interessante zowel voor artiesten & beeldmakers (zoals ik zelf) maar ook voor de eindgebruiker.
Of het interessant is staat niet ter discussie, dat is een heel andere.
Waar het hier om gaat is dat ze de pest in hadden dat dingen niet gingen zoals ze hadden gehoopt/verwacht, en daarom uit protest de boel hebben gesaboteerd.
Dat noem je de regels aan je laars lappen.
Want zelf verzonnen regels van een bedrijf wiens bestaansrecht grotendeels gebaseerd is op het grootschalig "lenen" (je zou het ook stelen kunnen noemen) van content van anderen moeten opgevolgd worden? Mij lijkt een dergelijke protestvorm juist een heel constructieve vorm om te bepalen wat er in de wereld van AI moet gebeuren om niet terecht te komen in een situatie waarin de creativiteit van velen misbruikt wordt voor het winstbejag van enkelen.
De tool is van OpenAI, de ''verzonnen'' regels zijn ook van OpenAI.
Je mag het dan niet eens zijn met OpenAI zijn bestaansrecht, de regels, of hun praktijken, maar dat geeft je nog niet het recht om hun tool met de rest van de wereld te delen.
Als je het er niet mee eens bent dan laat je dit op een andere manier merken, bijvoorbeeld door niet deel te nemen.

Als ik een auto gekocht heb met drugsgeld en ik leen jou deze uit onder voorwaarde dat alleen jij erin mag rijden, dan laat je hier toch ook geen anderen in rijden uit protest? Het juiste zou zijn om dit te weigeren en hopelijk meld je dit aan de juiste autoriteiten.
Dus het feit dat openAI wetten overtreed met hun auteursrechtenschendingen zorgt ervoor dat hun zelfverzonnen regels ineens geldig zijn? Omgekeerde wereld.
Waarom zouden die niet geldig zijn dan? Als OpenAI wetten overtreedt/auteursrechten schendt, dan geeft dat de entiteit wiens belangen beschadigd zijn het recht hen aan te klagen of kan het Openbaar Ministerie hen aanklagen. Waarom zou dat echter algemene voorwaarden en/of een NDA opeens ongeldig maken en/of anderen het recht geven om de rechten van OpenAI te schenden...?

Ik weet niet hoor, maar dat vind ik juist de omgekeerde wereld. Als ik te snel rij, geeft dat jou niet het recht om een PIT maneuver op mij uit te voeren; dat mag hoogstens de politie als daar zeer gerede aanleiding voor is. Eigen rechtertje spelen is simpelweg niet toegestaan, of je dat nou leuk vind of niet en of je het slachtoffer mag of niet is irrelevant.
Het verschil is dat die snelheidslimiet noch de inzet van een pit maneuver zelfverzonnen regels zijn. Dat iemand regels opschrijft, maakt ze in principe nog niet automatisch rechtsgeldig. Als ze namelijk tegen de wet in gaan is op zijn minst een deel van het contract nietig.
De actie van het uitvoeren van zo'n manouvre ligt toch echt bij jezelf... Maar daarnaast is het helemaal niet relevant of het 'zelfverzonnen' voorwaarden zijn of niet (met dat als argument kan je alle algemene voorwaarden/privacy statements wel in de prullenbak gooien of downplayen dat ze van toepassing zijn, die zijn altijd "zelfverzonnen" :+) en er is ook nog zoiets als er bewust voor tekenen. Zelfs ALS door een rechter wordt beslist dat een deel van het contract nietig is, wil dat nog niet automatisch zeggen dat je dan mag doen wat je wil of hébt mogen doen wat je gedaan hebt; dat kan nog even goed illegaal zijn geweest ondanks dat de overeenkomst an sich niet rechtsgeldig was. In dit geval zijn de gedragingen überhaupt niet getoetst maar is men voor eigen rechtertje gaan spelen. Kan je goedpraten wat je wil, het klopt simpelweg niet.
Het is toch nog steeds hun tool?
VW heeft in het verleden ook regels overtreden, moeten we dan allemaal maar massaal een auto van ze stelen en uitdelen?
WesternDigital heeft ook regels overtreden, waar is mijn gratis ssd?
En zo kan ik gerust even door gaan.

Dat is wel erg makkelijk niet, zodra een bedrijf een regel aan zijn lars lapt hebben we opeens vrij spel om met hun producten te doen wat we willen? Dat wordt een heksenjacht.
Nee dit is aan de autoriteiten om op te lossen. Niet aan ons.
Ad extremis doortrekken is niet de jusite manier om dit argument aan te vliegen.
Ik snap dat het dan lastiger voor je is om nog inhoudelijk te reageren.

In dat geval zal ik het in heldere taal voor je uitleggen.

Als je een softwaretool bouwt en deze beschikbaar stelt aan anderen, heb je het recht om regels en voorwaarden op te stellen voor het gebruik ervan. Dit wordt meestal vastgelegd in een licentieovereenkomst of gebruiksvoorwaarden.

Het negeren van deze licentievoorwaarden door anderen omdat OpenAI regels heeft overtreden, of om in dit voorbeeld omdat de kunstenaars zich als ''artwashers'' voelen, is juridisch gezien niet zomaar gerechtvaardigd.

Als je een product aanbiedt onder specifieke licentievoorwaarden, blijven deze voorwaarden van toepassing op de gebruikers, tenzij een rechter bepaalt dat jouw voorwaarden ongeldig zijn. Het is niet aan de gebruiker om zelfstandig te beslissen dat jouw voorwaarden niet meer geldig zijn, zelfs als OpenAI zelf regels heeft overtreden.
Kijk, daar valt tenminste nog inhoudelijk op in te gaan. Protest is niet altijd legaal. Neemt niet weg dat ik er wel achter kan staan. Zonder protest en het overtreden van regels (al dan niet opgelegd uit de overheid) is er geen maatschappelijke sociala vooruitgang. Onafhankelijk van hoe het dan juridisch zit, kan het doel de middelen rechtvaardigen. Dit is niet hetzelfde als een auto stelen en het business model van OpenAI wordt nagenoeg niet aangetast.
Misschien zijn de kunstenaars die dit gelekt hebben nog niet toe aan Generative AI applicaties. Dat is prima maar verpest het dan niet voor de rest van ons. KLING ai is al heel erg indrukwekkend en ik heb goede hoop dat SORA nog veel beter gaat functioneren.
De artiesten geven in de brief zelf aan dat ze geen problemen hebben met het gebruik van generatieve AI en refereren zelf naar een aantal programma's die je kan gebruiken. Het probleem voor hun ligt niet in het gebruik van generatieve AI, maar meer hoe OpenAI het beschikbaar stelde.

[Reactie gewijzigd door AWrongUsername op 27 november 2024 10:11]

Volgens mij bepaalt OpenAI de regels, en niet de kunstenaars (willen ze natuurlijk wel)
Zeker, ik probeer slechts uit te leggen wat het probleem van de kunstenaren zou zijn. Ik ben het er zelf ook niet mee eens :)
'protest'

Dit heeft helemaal niks met protest te maken. Gewoon misdadig. Dit is gewoon overtreding van de wet.
Gewoon misdadig. Dit is gewoon overtreding van de wet.
Op welke basis zeg je dit?
Welke wet wordt overtreden?

Ik heb de artikels bekeken, maar ik vind nergens een verwijzing naar een NDA, of contract.
Laat staan wat de inhoud zou zijn. En of deze inhoud rechtsgeldig is / zou kunnen zijn.
Hmmm. Ik geloof dat ik het punt dat de kunstenaars willen maken niet 100% snap. Ik kan twee dingen bedenken, waarvan ik niet weet of ze kloppen, maar waarvan ik wel snap dat men er over valt:
  • De video's die zij maken mbt Sora worden in de toekomst gebruikt als PR-materiaal. Bijvoorbeeld in een reclame waarbij een video wordt getoond van zo'n kunstenaar en erbij wordt gezegd dat zelfs de betreffende kunsternaar werkt met Sora. Het is een stuk waardevoller om de naam van een kunstenaar te kunnen gebruiken dan van een willekeurig persoon.
  • Het niet betalen van testers creëert mogelijke bias in de feedback (en daarmee het eindproduct). Mensen die veel móeten werken om rond te komen zullen niet geneigd zijn om 'gratis testwerk' te verrichten voor een dergelijk bedrijf. Zo'n groep sluit je dus uit van je feedback. Voor een gemiddelde tools misschien niet zo erg, voor een general AI tool wellicht een groter probleem.
Geen idee of dit is wat ze bedoelen. Misschien moet ik eens de brief lezen die ze hebben geschreven :p

Edit: brief gelezen en het idee van OpenAI was dat van een drietal kunstenaars zou worden geselecteerd om hun Sora gegenereerde films (publiek?) te vertonen. Voor OpenAI natuurlijk geweldig promotiemateriaal en het hangt een beetje af van de voorwaarden of dit eerlijk of niet is. Heeft de kunstenaar bijvoorbeeld zelf nog iets te zeggen / eigendomsrecht van de film?

[Reactie gewijzigd door -Elmer- op 27 november 2024 10:40]

Nee, want door AI gegenereerde content is publiek domein.

Op dit item kan niet meer gereageerd worden.