OpenAI stelt AI-tool Dall-E open voor het brede publiek

OpenAI heeft Dall-E opengesteld voor het brede publiek. Hierdoor verdwijnt de wachtlijst om de bèta van de AI-tool te gebruiken. Het onderzoekslaboratorium schrijft dat het contentfilters heeft verbeterd en nieuwe systemen heeft geïmplementeerd om misbruik tegen te gaan.

Volgens OpenAI maken per dag meer dan 1,5 miljoen mensen gebruik van de AI-tool. Die gebruikers genereren volgens het onderzoekslabo via de tool meer dan 2 miljoen beelden per dag. Aan de hand van feedback van gebruikers heeft OpenAI in de afgelopen zomer ook een nieuwe functie, genaamd Outpainting, ontwikkeld. Hiermee kunnen gebruikers de AI-tool inzetten om beeldmateriaal te generen dat buiten het canvas van een al bestaande afbeelding valt.

OpenAI test momenteel een api met enkele van zijn klanten en hoopt die binnenkort te kunnen aanbieden aan ontwikkelaars en bedrijven. Geïnteresseerden kunnen via de aanmeldpagina van OpenAI een account aanmaken om gebruik te maken van Dall-E.

Dall-E kwam in september nog in het nieuws omdat Getty Images heeft besloten om het uploaden van plaatjes die door kunstmatige intelligentie zijn gemaakt, te verbieden. Volgens de Getty-directeur zijn er zorgen rond het copyright op zulke afbeeldingen en wil de site zijn klanten beschermen door AI-afbeeldingen geheel te verbieden.

Afbeelding gegenereerd met Dall E (Bron: Dall E)
Afbeelding gegenereerd met Dall-E. Bron: Dall-E

Door Jay Stout

Redacteur

29-09-2022 • 13:46

69

Lees meer

Reacties (69)

69
68
39
10
0
27
Wijzig sortering
Ik moet zeggen dat ik het dat ik het best tegen vind vallen.
Ik zie fantastische afbeeldingen voorbij komen en lees artikelen dat Getty Images de afbeeldingen verbied (o.a. vanwege de rechten kwesties) maar dat wat ik genereer levert een dusdanig dat ik er weinig anders mee kan dan een werkstuk voor de 8e klasser mee opleuken.

Mijn opdracht photo of a pirate ship made of plastic bottles sailing the ocean during a storm leverde nou niet echt de resultaten op waar ik op had gehoopt. En zo waren er wel meer afbeeldingen die er enorm kinderlijk uit kwamen te zien terwijl ik de term realistic of photo of had gebruikt.
Het beste gelukte resultaat was de term a photo of a cat pouncing on a piece of cheese that lays on a wooden floor..
Waarbij het pouncen van de kat in de afbeelding dan nog enigszins overeen kwam met het 'pouncen' zoals mijn eigen veel te zware en luie kat thuis dat interpreteert.
Als Tweaker veteraan en graphic artist is mijn mind-blown.

Ik zit nu sinds kort in de rabbit-hole. Stable-diffusion, midjourney, dall-e, en sinds vandaag Dreambooth https://youtu.be/7m__xadX0z0

Indien je meer aandacht besteed aan de manier waarop je je opdracht omschrijft, des te verbluffender de resultaten. Dus hoe groter je kennis is over bijvoorbeeld Kunstgeschiedenis, je kennis over grafische stijlen, fotografie terminologie, 3d renderengines, enz des te meer je invloed hebt op het eindresultaat.

Hieronder een website waar je zelf zonder te installeren voor je zelf kan uittesten (stable-diffusion variant).

https://www.mage.space/


Probeer onderstaande voor het verschil in resultaat:

Simpele opdracht:
Dutch magical windmill

Gedetailleerde opdracht:
Dutch magical windmill, forest, stairs, columns, cinematic, detailed, atmospheric, epic, concept art, Matte painting, background, mist, photo-realistic, concept art, volumetric light, cinematic epic + rule of thirds octane render, 8k, corona render, movie concept art, octane render, cinematic, trending on artstation, movie concept art, cinematic composition , ultra-detailed, realistic , hyper-realistic , volumetric lighting, 8k

[Reactie gewijzigd door Suphazone op 22 juli 2024 15:12]

Wow, wel een verschil inderdaad. En voor wie te lui is: https://i.imgur.com/1I0Zfda.png
neem je ons nou in de maling of typte je gewoon random termen die je af en toe gebruikt bij AI image generation? Je hebt namelijk tweemaal 8K, tweemaal movie concept art, tweemal concept art, tweemaal cinematic, photo realistic, hyper realistic en realistic (welke wil je nou) en volumetric light en volumetric lightning. sorry hoor.
Ik heb het als voorbeeld gecopy paste van website waar het als voorbeeldprompt word gegeven en alleen het onderwerp aan het begin veranderd naar dutch magical windmill.

En ja. Het dubbel plaatsen, synoniemen plaatsen, is allemaal bewust!
Dit is een van de manieren om bij het opstellen van je opdracht (Prompt Engineering) je bepaalde termen gewicht toewijst (weights) en daarmee de sterkte van de term in de opdracht beinvloed.

Er komt nog veel meer bij kijken dan het lijkt.

[Reactie gewijzigd door Suphazone op 22 juli 2024 15:12]

ok. weer wat geleerd srry voor de geagiteerde reactie ^^
Alleen trending on art station is wat ik vaak juist niet wil. Want het wordt zo fantasy stijl anders.
_/-\o_ aan zowel jou als @Anoniem: 1322 voor de extra inzichten omtrent dit onderwerp. Ik schuifel ongemerkt achteruit en weg van mijn eerdere post ;)

Met een aanpassing op de door jou geplaatste prompt was het resultaat inderdaad een universum van verschil.
De hull made of plastic bottles is dan nog een beetje een onbegrepen dingetje, maar het is mij nu een stuk inzichtelijker.
Ik begreep uit de media dat er slechts een goede omschrijving nodig was voor het genereren met een extra hint over de kwaliteit van het eindresultaat. Maar met die richtlijnen schiet men schromelijk te kort.
Vind ik trouwens ook van de uitleg op de sites zelf.
Daar had jouw voorbeeld van de molen best wel mogen staan om even simpel uit te leggen dat er veel meer triggers zijn waarop de AI leunt.

Bedankt voor de tip, ik denk dat ik met deze tips nog wel iemand blij kan maken.
Ik heb nog maar heel even gespeeld met deze technologie en ik kan al heel erg duidelijk zien wat je bedoeld hoe duidelijker jij maakt wat je verwacht hoe beter het resultaat. Het is niets anders dan de Google search gebruiken en de Google search doorgronden, de eerste persoon vind meestal ongeveer wat ze verwachten de tweede persoon kan zeer exact de resultaten vinden waar ze naar op zoek waren.

Ik denk dat er vanzelf een vriendelijkere interface zal komen die een hele lading parameters door middel van tick boxes, drag en drop en of voorbeeld plaatjes kan instellen. Waar ik als gebruiker kan laten zien dat ik op zoek ben naar een plaatje in die stijl, met deze kleuren en zo voort. Een AI bepaald dan op basis van die informatie welke parameters gevoerd moeten worden aan de generatie AI om tot het gewenste resultaat te komen.

De grote vraag is wat dit zal gaan doen met de grafische industrie waar zeer veel mensen hun geld verdienen met veel werk dat nu door iedere student met wat veel tijd en een toetsenbord gedaan kan worden. Natuurlijk zullen er altijd artiesten overblijven die belangrijke beelden maken maar hoe lang nog zullen de meeste beelden gemaakt worden door mensen in plaats van een AI?
Top!

Oh trouwens, hetgeen wat je omschrijft aan features (user interface, image input, style input, face restoring, Ai upscalers, batch output, inpainting/outpainting):

https://github.com/AUTOMA...usion-webui/wiki/Features

Ook scripts die je op eenvoudige wijze toe kan voegen aan je install. Bijvoorbeeld een seed-travel:

https://youtu.be/4c71iUclY4U

Zo zijn er meer opties aan software en mogelijkheden via diverse forks.
Anoniem: 1322 @MrE29 september 2022 16:14
Ik moet zeggen dat ik het dat ik het best tegen vind vallen.
Dat komt omdat deze techniek gepresenteerd wordt door de media als een over andere magische toverstaf. Veel computergebruikers weten ook wat 'photoshop' betekent maar dat wil niet zeggen dat ze er zelf een heel schilderij mee kunnen maken.

Het probleem met deze technieken is dat je de juiste keywords (prompts) moet gebruiken (en weights als je echt verder wilt gaan). Daarnaast is deze software nog niet bedoeld voor iedereen (het is nog maar amper uit, zie het als een beta). Mede daarom krijg je niet iedere poging een pareltje, de meeste resultaten zullen niet zijn wat je verwachte. Je zult dus moeten 'tweaken' om het resultaat te krijgen wat je wilt. De eenvoudigste manier is door gebruik van specifieke keywords als '4k' en 'ghibli inspired'. Waar het specifieke algoritme goed op reageert is momenteel vooral proberen.
Een voorbeeld van keywords:

A digital Illustration of the Babel tower, 4k, detailed, trending in artstation, fantasy vivid colors
Cluttered house in the woods, anime, oil painting, high resolution, cottagecore, ghibli inspired, 4k
A digital illustration of a medieval town, 4k, detailed, trending in artstation, fantasy
A medieval town with disco lights and a fountain, by Josef Thoma, matte painting trending on artstation HQ, concept art

https://strikingloo.github.io/stable-diffusion-vs-dalle-2

Meer voorbeelden met resultaten:
https://mpost.io/best-100...ai-text-to-image-prompts/

Je ziet dat men zelfs AI art sites opzet waar je 'keyword combinations' kunt aanschaffen :+

Anyway, de media zet dit dit verkeerd weg. De huidige modellen en techniek zijn revolutionair en zet nu al gehele sectoren op de kop. Maar er is nog geen eenvoudige bruikbare implementatie, we staan letterlijk helemaal aan het begin van deze revolutie. Zodra deze technieken verwerkt worden in gebruikersvriendelijke interfaces (men is al druk met photoshop plugins) gaat het echt stormlopen. En waarschijnlijk zal het binnen een jaar wel op je telefoon kunnen draaien.

We gaan dan ook commerciële software zien die automatisch alle illustraties voor boeken maakt (op basis van de tekst) of storyboards opzet voor een videoshoot. Of applicaties die je Ecce Homo fixen.

Een voorbeeld van toekomstige alternatieve mogelijkheden met deze algoritmes: Is This The Death of VFX?
Nou niet binnen een jaar. We krijgen wel eindelijk weer een push voor snellere hardware. Want zelfs een 3090ti heb je meerdere seconden nodig voor een render. Ik zie ook veel toepassingen voor me, maar hardware moet sneller.
Helemaal mee eens, ik heb al een tijdje toegang, en om mooie resultaten te krijgen moet ik vaak tien pogingen doen met het finetunen van de query. Op zich is het erg indrukwekkend, maar de marketing die ze erover lieten zien heeft wat mij betreft verwachtingen neergezet die ze niet waarmaken.
Tja, dit is bijna net zoals dat je Photoshop loopt af te zeiken, omdat je alleen een vierkantje kan maken en in kan kleuren.
Net zoals bij elke grafische tool, zit er een learning curve aan.

Er zijn vele tutorials die je laten zien hoe je met bepaalde opdrachten je resultaten kan verfijnen. Als je alleen een simpele prompt intikt, zonder extra navigerende parameters, zijn de resultaten inderdaad erg simpel.
Maar na meer ermee te werken en te re-renderen kan je dezelfde fantastische resultaten krijgen die je ook in de media ziet.
Ik ben wel benieuwd, wat kun jij dan bijvoorbeeld krijgen uit het voorbeeld dat genoemd werd 'photo of a pirate ship made of plastic bottles sailing the ocean during a storm'? Als je er geen credits aan wil besteden wil ik je prompt best uitvoeren.
Challenge accepted!

Onderweg zojuist op mijn mobiel via onderstaande website (beperkte mogelijkheden):

https://www.mage.space/

Het resultaat:

https://ibb.co/1MDW4tg

Hierbij de settings en seednummer voor het repliceren van mijn resultaat (100 steps):

https://ibb.co/W6P5PpK

5 minuten max aan opdracht herformuleren.


/imagine An artist spends more time and effort uses inpainting, outpainting, img2img, upscaling, 8k, hyper-realistic, -upbeta, Greg Rutkowski
Wow dat is inderdaad echt netjes, respect!
haha!, nee dat ziet er niet uit. Ik zelf heb wisselend geluk. Sommige afbeeldingen zijn echt kleuterschool kwaliteit, maar anderen zou ik meteen aan de muur hangen. Het staat natuurlijk ook allemaal nog in de kinderschoenen.
Gebruik 350M, 750M, 3B, 20 miljard/billion models/parameters met 'Parti' en probeer nog eens ;)
https://parti.research.google/
(ctrl-f op 'sushi' bijvoorbeeld, vind ik een duidelijk voorbeeld van de complexiteit vs accuraatheid)
"A map of the United States made out of sushi. It is on a table next to a glass of red wine."
Ik heb het net even geprobeerd. Bijvoorbeeld ‘ A Rembrandt style painting with gangsters looking like Santa Claus’ of ‘A photo of two skeletons getting married’ werkte best aardig.
Wat niet zo goed werkt was ‘ A ship with a happy face’.

Ik denk dat het vooral in de bij tekst zit. Dus ‘a photo of’, ‘Rembrandt style paiting’, ‘Digital art’. Dat soort werk.
Als ik je zoekopdracht een beetje aanpas naar aanleiding van de suggesties van Suphazone, krijg je bij het piratenschip zoiets:

https://labs.openai.com/s/fxGzq6k72mbNqx0EOYDhrzsb

Dat vind ik niet zo ver weg van wat ik er bij zou verwachten. Hoewel het storm gedeelte wat sterker naar voren had kunnen komen misschien.
Let wel op dat OpenAI zich het auteursrecht toe-eigent op alle afbeeldingen die je hiermee maakt. Dan zou ik toch voor een echt open alternatief kiezen.
Nee, ze "eigenen" zich het niet toe. Ze "claimen" het. Dat veronderstelt dat er een copyright is. De jurisprudentie is keihard : auteursrecht bestaat alleen op werk dat door mensen is gemaakt. De claim van OpenAI houdt geen stand bij de rechter.

De meest bekende case is de apen-selfie. Een fotograaf had een foto-val neergezet waarbij dieren een camera konden triggeren. Een aap deed dat, en de fotograaf probeerde het copyright te claimen. PETA probeerde het copyright voor de aap te claimen. Beiden mislukten: de vraag wie het copyright heeft, komt pas na de vraag of er een copyright is. Daarvoor is een creatieve menselijke input nodig; dat is geen eis die omzeild kan worden.
Dat is een veelvoorkomend misverstand. Er is hier nog geen duidelijke jurisprudentie. De apen-selfie is niet echt vergelijkbaar, aangezien de aap hier niet door een mens als "gereedschap" werd ingezet om een afbeelding te creëren (de aap deed dit uit zichzelf).

Kunst die door toeval tot stand komt heeft in het verleden bijvoorbeeld wel degelijk tot auteursrecht geleid, wanneer er een menselijke kunstenaar bij was die het een creatieve invloed had, of creatieve keuzes maakte. AI-kunst lijkt hier prima in te passen, maar het is nog niet helemaal duidelijk.
Ik kan ook "Accidental Livestream" aanhalen. Zelfde vraag, zelfde antwoord. Geen menselijke creativiteit, geen copyright.

Je "toeval" criterium is inderdaad relevant, maar de essentiële stap in die zaken is dat er copyright ontstaat indien de kunstenaar selectie-keuzes maakt. Dat is uiteindelijk ook hoe nieuwsfoto's werken: de fotograaf heeft geen creatieve input op de invulling, maar selecteert het beeld.
Dat is uiteindelijk ook hoe nieuwsfoto's werken: de fotograaf heeft geen creatieve input op de invulling, maar selecteert het beeld.
Beweer jij nou dat een fotograaf geen copyright heeft als hij slechts observerend foto's maakt? Hieruit begrijp ik dat als hij de bruid en bruidegom vertelt hoe ze moeten staan het een creatie van de fotograaf is, maar als hij op de grond gaat liggen om tijdens het moment waarop de ringen uitgewisseld worden een uniek perspectief te hebben, hij geen eigenaar van de gemaakte foto is?

Ik ken de input van deze AI-tool niet, maar bij die van Google heb ik behoorlijk creatieve opdrachten gezien die door de tool uitgewerkt worden,
A transparent sculpture of a duck made out of glass.
dus ik vind dat er wel wat te zeggen is voor creatief menselijk werk.
maar als hij op de grond gaat liggen
Lijkt mij redelijk creatieve input....
My point exactly. De bewering dat een fotograaf geen creatieve input heeft vind ik beledigend voor de fotograaf. De keuze van tijd, perspectief, instellingen en überhaupt dat je een foto maakt zijn allemaal creatieve componenten. Ik neem daarom aan dat ik @MSalters niet goed begrepen heb.
Ik heb nog weinig ai-kunst gezien waar geen selectie-keuzes tussen zaten. ;) Bij foto's is dat trouwens niet eens nodig, het kiezen waar je het fototoestel op richt en vervolgens op een knopje drukken is al genoeg voor copyright.

Verder heeft deze discussie nog niet veel zin, aangezien het een juridische kwestie is, die uiteindelijk door rechters en/of wetgevers wel uitgemaakt zal worden.
En dat geanalyseerd: Wie de foto's gekozen en geüpload heeft waarmee de foto is gegenereerd is eigenaar. Die actie is aan te merken als creatieve menselijke input.
Het is toch ook hun werk? :) Tenzij je wat woordjes intypen werk vindt waarvoor je credits dient te krijgen.
Dat is natuurlijk een ingewikkelde discussie. ;) In welke mate is het het werk van OpenAI, het werk van de duizenden makers van de afbeeldingen waar hun model op getraind is, of het werk van degene die de prompts invoert, uit 50 resultaten die ene kiest die precies is zoals hij wou, eventueel wat nabewerkt en zo. Voor allemaal is wel wat te zeggen, maar die discussie zou ik hier nu niet willen voeren.

Ik wil alleen maar zeggen, als je akkoord gaat met de voorwaarden van OpenAI, dan ga je akkoord met een antwoord op die vraag dat volledig in het voordeel van OpenAI is. Wil je dat niet, dan kan je bijvoorbeeld voor Stable Diffusion kiezen, dat je op eigen hardware mag draaien en waar je volledige zeggenschap over hebt.
Ja, da's waar, het is niet zo simpel als ik het schetste als je het zo bekijkt.
De vraag of een machine auteursrechten kan krijgen is nu al een hele moeilijke, niet zo vanzelfsprekend als jij doet voorkomen.

Als je uitgaat van de wet is alles wat AI genereert nu direct publiek domein of in ieder geval niet auteursrechtelijk beschermd, een machine kan nu eenmaal geen auteursrecht toegewezen krijgen want er is voor de wet geen creatief proces (en de output is dan simpelweg "data", waar je geen auteursrecht op kan beroepen).

Je zou het zelfs als een derivatief werk van de training set kunnen zien waardoor de originele auteurs van de training data een gedeeld auteursrecht op alle output hebben.

Als een mens dat doet (want uiteindelijk is elke creatieve uiting een voortzetsel van training op bestaande werken gecombineerd met creatieve input) dan is het wel een auteursrechtelijk beschermd werk omdat het menselijke creatief proces dan de zwaarstwegende oorsprong van het werk is, maar voor machines en algoritmes is er simpelweg nog geen wetgeving voor.

Als je de AI hetzelfde zou beschouwen als een 3D modeling tool of een tekstverwerker, dan ja, de persoon die de woordjes intypt is volledig auteursrechtelijk eigenaar wat de AI genereert, waarschijnlijk de reden dat ze afdwingen dat je alle rechten afstaat bij het gebruik ervan.
Dat is toch in twijfel te trekken, niet ieder office document is eigendom van Microsoft...
Dat klopt niet. De images die je genereert zijn 100% van jou en je mag ze ook commercieel inzetten.

Bron: https://labs.openai.com/policies/terms
Uit jouw linkje:
Ownership of Generations. To the extent allowed by law and as between you and OpenAI, you own your Prompts and Uploads, and you agree that OpenAI owns all Generations (including Generations with Uploads but not the Uploads themselves), and you hereby make any necessary assignments for this. OpenAI grants you the exclusive rights to reproduce and display such Generations and will not resell Generations that you have created, or assert any copyright in such Generations against you or your end users, all provided that you comply with these terms and our Content Policy. If you violate our terms or Content Policy, you will lose rights to use Generations, but we will provide you written notice and a reasonable opportunity to fix your violation, unless it was clearly illegal or abusive. You understand and acknowledge that similar or identical Generations may be created by other people using their own Prompts, and your rights are only to the specific Generation that you have created.
De afbeeldingen worden dus volledig eigendom van OpenAI en jij krijgt slechts een (herroepbaar) gebruikersrecht.
Dat is jouw interpretatie, in de praktijk komt het erop neer dat je ermee mag doen wat je wilt:
Use of Images. Subject to your compliance with these terms and our Content Policy, you may use Generations for any legal purpose, including for commercial use. This means you may sell your rights to the Generations you create, incorporate them into works such as books, websites, and presentations, and otherwise commercialize them.
Als er staat "you agree that OpenAI owns all Generations" dan valt daar verder weinig aan te interpreteren. ;)

Dat zij vervolgens zo goed zijn je weer allerlei rechten te verlenen, doet aan de eigendomssituatie weinig af.
Ik snap ook je punt niet zo. Het model is toch ook van OpenAI. Dat het plaatje uit het model van OpenAI komt (waar je in de praktijk alles mee mag doen) uiteindelijk niet van jou is, is toch ook logisch? Niet verstandig om deze gegenereerde plaatjes in commercie te gebruiken. Maar verder, wat is het probleem?
Maar wat is dan je punt? Als je er mee mag doen wat je wilt, wat maakt het dan in de praktijk uit?
Nu had ik al toegang, maar dit is leuk nieuws. Hopelijk zijn dit soort leuke AI tooltjes binnenkort ook gewoon lokaal te draaien, zodat je niet aan die credit systemen vast zit.
Ik heb Stable Diffusion thuis werkend (alleen met Nvidia grafische kaart)

https://stability.ai/blog/stable-diffusion-public-release

"Super" Stable Diffusion 2.0
https://www.youtube.com/watch?v=obVpFRTgQ8A
Jammer dat de demo niet laadt, de documentatie ziet er veelbelovend uit.
https://huggingface.co/spaces/stabilityai/stable-diffusion

net werkend getest...

Ik zou aanraden om het youtube filmpje te volgen, werkt perfect lokaal
Dit is tot nu toe de makkelijkste installatie (voor windows) die ik heb gevonden
https://github.com/cmdr2/stable-diffusion-ui#installation
Deze is inderdaad zeer eenvoudig te installeren.

Het leuke aan de versie welke ik heb gepost is dat je bijvoorbeeld ook negatieve prompts kan intypen, m.a.w. wat wil ik niet zien op de "foto". Tevens is het ook mogelijk om andere models in te lezen voor bijvoorbeeld anime: genaamd waifu-diffusion.
Negatieve prompt zit hier sinds een paar dagen ook, heeft ook styles en meerdere samplers.
Dus ik denk dat deze nu ook alles heeft
inmiddels is er toch al een DALLE2 waar je ~25 gratis prompt tokens per maand krijgt om prut mee te generaten? die is een stuk beter, alleen gezichten zijn vaak nog superbelabberd bij dingen zoals 'group photo of the Spice Girls but all their faces are Steve Buscemi' :D
Ik ben zelf een groot fan van Stable Diffusion; open source en gratis.
Gebruik zelf Google Colab, en fantastische resultaten.

Dalle-2 is wel betere kwaliteit, maar voor een beetje te klooien (en niet afhankelijk te zijn van gratis credits) is het meer dan voldoende.
Digital Foundry heeft onder andere deze tool besproken in een recente video. Indrukwekkend spul, ai kan echt prachtige beelden genereren. Dit gaat een grote impact hebben op de grafische industrie.

https://youtu.be/pU3jSE-aykQ
Om echt impact te hebben zullen we nog wel een flink aantal jaren geduld moeten hebben. Het is allemaal wel indrukwekkend maar grafisch gezien staat het nog verre van "in de kinderschoenen". Het maakt leuke plaatjes maar verder... meh. Geloof me, ik werk al 30+ jaar in de grafische industrie en nog niets van wat ik heb gezien kan tippen aan het werk dat wordt verzet door DTP-ers en (web)designers. Nee, het is niets meer dan een leuk speeltje om grappige plaatjes te genereren. Tekst icm beeld is, imo, een absolute no-go voor dit systeem, laat staan dat het creatieve dingen kan "bedenken". Ik maak mij absoluut geen zorgen. Wat ik echter wèl voorzie is dat het een nieuwe tool gaat worden in de grafische wereld. Juist die grappige beeldjes kunnen tot hulp zijn. Maar "een grote impact"... nee.
“Om echt impact te hebben zullen we nog wel een flink aantal jaren geduld moeten hebben. Het is allemaal wel indrukwekkend maar fotografisch gezien staat het nog verre van "in de kinderschoenen". Het maakt leuke plaatjes maar verder... meh. Geloof me, ik werk al 30+ jaar in de fotografie en nog niets van wat ik heb gezien kan tippen aan de beeldkwaliteit van film en emulsies. Nee, het is niets meer dan een leuk speeltje om grappige plaatjes te genereren. Uitvergroten en kleurdiepte is, imo, een absolute no-go voor dit systeem, laat staan dat het film kan vervangen. Ik maak mij absoluut geen zorgen. Wat ik echter wèl voorzie is dat het een nieuwe tool gaat worden voor fotografen. Juist die snelle resultaten kunnen tot hulp zijn. Maar "een grote impact"... nee.”

Bovenstaande had zomaar een reactie hier op Tweakers kunnen zijn in circa 1998, op een aankondiging van een revolutionaire digitale beeldsensor, door een user die in een doka zijn brood verdient ;-).
Wellicht vervangt deze techniek niet een complete beroepsgroep (grafici) maar diens werkdag gaat er wel heel anders uitzien.

Edit: ik heb het even geprobeerd en kreeg best leuke resultaten terwijl ik gewoon in bed met een koffietje rustig wakker lig te worden. Ik zie het me wel gaan gebruiken om mijn les- en e-learning materiaal aan te kleden. Ik ga dit wel volgen :) .

[Reactie gewijzigd door Gethijsem op 22 juli 2024 15:12]

Grappig, maar je mist het punt volledig. Als je echt iets zou weten over het reclamevak praten we verder. Hou het gewoon bij je koffie en lekker klooien dan doe ik gewoon mijn werk zonder zorgen. :)
Als medetweaker en grafisch vormgever denk ik daar anders over.
Natuurlijk gaat een Ai (in de huidige fase) geen complete uitgewerkte reclame uitingen en campagnes generen. Nog niet.

Maar maak eens een volledig uitgewerkte concept op basis van je reclamestrategie.
En dan honderden variaties. Binnen laten we zeggen een uur.
Kijken wie er wint, jij of de Ai.

En wat de denken van realtime gepersonaliseerde online advertising op basis van je trackingprofiel?
Ga je elke reclame uiting zelf personaliseren voor elke user?

En zo heb ik nog flink wat usercases en doorontwikkelingen in mijn hoofd.

[Reactie gewijzigd door Suphazone op 22 juli 2024 15:12]

Interessant om je mening te lezen. Ik begrijp je gedachte maar je maakt wel een denkfout: trackers zijn in principe anoniem en dus niet te personaliseren (ik noem alleen al adblockers). Ten tweede: de manier waarop AI werkt is niet op de manier waarop jij en ik werken, tevens kun je een AI niet leren om tekst/inhoud te combineren met vormgeving, daar geloof ik totaal niet in. Templates invullen is geen AI-werk, dat kun je makkelijk automatiseren. Automatisering is geen AI. Ik blijf toch bij mijn standpunt, niet om dwars te zijn maar omdat ik het gewoon niet zie. Het zou leuk zijn hoor, begrijp me niet verkeerd, en (misschien) een tool als (ik noem maar wat) Photoshop. Maar verder... ik zie het gewoon echt niet.
Dank voor je reactie.
Ik vind het van goed karakter getuigen als je toe durft te geven dat je het niet ziet. Respect.
Veel websites vragen geld voor het generen van beelden, of gebruiken de (mini) subset, ... Buiten Autoenhance.ai die nog wel oké is, kennen jullie sites die deze meer fair aanbieden om mee te spelen?
Opladen van plaatjes, da's een nieuwe! :9
omhoogladen zou beter zijn dan xD
Ik sta al sinds 16 april op de wachtlijst voor Dalle.
https://i.imgur.com/qoWL8aK.png

Wat oneerlijk en frustrerend hoe OpenAI met de wachtlijst is omgegaan. 6 maanden braaf gewacht, en nog stééds geen bericht ontvangen van openAI. Ik moet het via dit nieuwsartikel vernemen :(
Gemiste boot voor hen. Stable diffusion is net uit en is volledig open source en om sommige vlakken beter.

Op dit item kan niet meer gereageerd worden.