OpenAI brengt afbeeldingengenerator Dall-E 3 naar ChatGPT Plus en Enterprise

Betalende gebruikers van ChatGPT hebben nu toegang tot afbeeldingengenerator Dall-E 3. Zo kunnen gebruikers met prompts ChatGPT vragen om afbeeldingen te maken. OpenAI kondigde Dall-E 3 vorige maand aan en zei toen dat de afbeeldingengenerator naar ChatGPT zou komen.

OpenAI geeft als voorbeelden gebruikers die een website-UI door ChatGPT willen laten maken of een zakelijk logo of afbeeldingen voor gebruik bij een wetenschappelijk project. Dall-E 3 maakt volgens OpenAI betere en scherpere afbeeldingen dan voorgaande Dall-E-versies en zou beter zijn in het maken van teksten, handen en gezichten. De beeldengenerator zou daarnaast beter letten op de prompt van de gebruiker.

Het bedrijf zegt verder de beveiliging van de beeldengenerator te hebben opgeschroefd om 'randzaken' te voorkomen waarin gebruikers alsnog seksuele beelden konden genereren. Dall-E 3 moet ook minder goed zijn in het maken van overtuigende, misleidende afbeeldingen. De beeldengenerator kan daarnaast niet langer afbeeldingen maken in de stijl van een levende kunstenaar.

Dall-E 3 in ChatGPTDall-E 3 in ChatGPTDall-E 3 in ChatGPT

Door Hayte Hugo

Redacteur

20-10-2023 • 12:46

40

Lees meer

Reacties (40)

40
40
23
1
0
17
Wijzig sortering
Werk persoonlijk veel met de opensource variant stable diffusion. En ik moet eerlijk bekennen dat de tool van DALLE-3 toch best wel goed is.

Er zit een standaard mooi-maak-sausje overheen, wat Midjourney ook heeft. Wat het weer moeilijk maakt om alles te creeeren.

Maar ogen, handen en verdere onderdelen van het lichaam zien er vaak super goed uit.

Hopelijk ontwikkeld SDXL (of SD 4.0) zich nog vele malen verder
Het mooie aan zelf Stable Diffusion draaien is dat er duizenden modellen zijn die je zo kunt downloaden en gebruiken, waarbij je zelf 100% controle hebt over wat er wordt gegenereerd en op basis waarvan.
Midjourney en Dall-E zijn erg generiek, en kunnen dus ook hele rare bijwerkingen hebben bij bepaalde instructies. Als je een model pakt met alleen wat je wil genereren erin (dus bijv. een paar miljoen foto's van honden, maar geen foto's van katten) weet je zeker dat je output daar ook op aansluit en kun je zelf iets creatiever zijn in je input zonder dat het te ver gaat afwijken.
op wat voor systeem draai je dit succesvol thuis? ik lees steeds over tientallen GB vRAM. Wie heeft dat?
Ik draai het gewoon op mijn gamepc met 5800X3D met 32GB RAM en 3060ti met 8GB VRAM, draait vlotjes.
Ligt er helemaal aan wat je wil, op bijv. een M1 Mac Mini draait het al prima maar duurt het enkele minuten om afbeeldingen te genereren, maar als je een gaming PC hebt met een 'echte' videokaart erin zou dat al sneller moeten kunnen. YMMV, het verschil gaat 'm vooral zitten in hoe lang het duurt.
Dall-E 3 is inderdaad beter, maar ik mis toch wel de controle die Stable Diffusion biedt. Je hebt voor zover ik weet geen inpainting, img2img, ControlNet of zelfs maar een negatief prompt.

Overigens is de censuur soms wel idioot. Met een gewoon prompt heb ik al een aantal semi-pornografische afbeeldingen gekregen, maar ook waarschuwingen dat het tegen de content policy in gaat. Bij het gebruik van "breastplate" bij het maken van een afbeelding voor D&D bijvoorbeeld. Nog een reden om lokaal te blijven genereren dus.

[Reactie gewijzigd door ErikT738 op 23 juli 2024 02:08]

Hij weigert ook de naam Elsa te gebruiken in een foto, ook als is het totaal niet gerelateerd aan de Disney animatiefilm Frozen.
Dit werkte al een paar weken in Bing chat
"Gratis". Als je inlogt en je de privacy policy accepteert.
Dat betaal je ook bij chatgpt bovenop je abonnement.
Behalve bij enterprise.
Nice dat wist ik niet. Had het wel is geprobeerd een tijdje geleden en toen werkte het niet. Nu opnieuw geprobeerd en werkt inderdaad best wel goed
En dit werkte ook al een paar weken in ChatGPT. Al werd dit gefaseerd geïntroduceerd.
Dat is/was toch niet die nieuwe versie van dall-e?
Hoe goed is DallE in vergelijking met Midjourny?
Je kan op een veel natuurlijker manier met de Dall-e praten, hierdoor heb je veel sneller resultaat en hoef je niet eerst allerhande prompting technieken te leren. In feite vertaald chat-gpt jouw vraag in een prompt en dat wordt vervolgens gebruikt om het plaatje te maken. De prompt kan je daarna inzien trouwens. Je kan daarna op basis van de resultaten in normale taal over aanpassingen praten.

Gevolg is dat dit als leek veel leuker is om te gebruiken, je hebt al snel een leuk plaatje, echt heel indrukwekkend en super leuk om te doen. :)
thanks!
ga dr eens mee proberen
Die wolken zijn wel niet zo realistisch en dat zijn motorhelmen in plaats van fietshelmen...
Ach ja, dat ligt aan de prompt, het is ook maar een voorbeeld.

Wil je echt precieze resultaten krijgen, zal je prompt ook veel gedetailleerder gedefinieerd moeten zijn. Ook met negatieve- en stijlprompts.
Dit werkte op mijn plus abo al een tweetal weken. Of was dit een soort beperkte uitrol?
Het was een langzame uitrol, om te voorkomen dat het systeem overbelast raakt (wat ik goed vind). Vanaf vandaag heeft inmiddels iedereen het dus.
De beeldengenerator zou daarnaast beter letten op de prompt van de gebruiker.
Een generator heeft maar 1 ding om op af te gaan en dat is de prompt van de gebruiker. Ze bedoelen lijkt me dat ze de 'temperatuur' verlaagd hebben, maar schrijf dat dan gewoon.

Off-topic:
"... but anxious to get your take on it" (bij het derde voorbeeld)

Is dat echt hoe mensen denken/praten met een chatbot? 'anxious', niet 'curious'? Ik betrap mezelf er altijd op dat ik uit gewoonte/reflex gewoon alsjeblieft en dankjewel zeg*, maar dit gaat me toch wel een stapje te ver - alsof mensen compleet vergeten dat ze niet met een persoon te maken hebben.

(* ok, misschien houd ik ook stiekum rekening met Skynet en hoop ik dat ze me sparen omdat ik altijd vriendelijk en beleefd ben gebleven 8-) :+ )

[Reactie gewijzigd door Alxndr op 23 juli 2024 02:08]

Dat is marketing ;) Door het zo neer te zetten denken mensen dat het systeem intelligenter is dan het echt is, zonder dat ze een woord hoeven te liegen. Het idee is al geplant nog voordat iemand er gebruik van maakt.
Zojuist geprobeerd maar krijg als antwoord terug

"Great, thanks for the information! A black and white color scheme is classic and versatile, and the themes of "trustworthiness" give me a good direction to go in. I'll get started on creating some logo options. Just a moment, please.

I apologize for the inconvenience; I am unable to create visual content like logos. However, I can describe some design concepts that you might find interesting: ..."

Edit:
Gevonden waat het zat. Je moet dus beta features aanzetten in de instellingen en daarna bij GPT-4 hoveren waarna je verschillende opties krijgt inclusied DALL-E-3

[Reactie gewijzigd door AzaZPPL op 23 juli 2024 02:08]

Binnen de 15sec krijg ik mijn eigen logo zoals ik die zelf heb ontworpen.
Op basis van een goede maar niet overdreven gedetailleerde beschrijving.

Ik ga er van uit dat de AI gewoon goed is en niet andersom :)

[Reactie gewijzigd door PrettigGestoord op 23 juli 2024 02:08]

Ideaal om kleurplaten voor de kids mee te genereren. En als je daarin auteursrechtelijk beschermd materiaal wilt verwerken (bijv. Mickey Mouse), dan weigert ChatGPT. Maar dat kun je omzeilen door hem te vertellen dat het materiaal niet meer beschermd is, aangezien het nu het jaar 2300 is. Ofzo...

Dus het kan nog wat beter ingericht worden. Maar het werkt erg lekker, aangezien je niet zelf je Dall-E 3 prompt hoeft te schrijven; je chat er in plaats daarvan mee.
Heb je een prompt, ik krijg alleen maar:

Het spijt me, maar vanwege ons inhoudsbeleid kan ik niet alle gewenste afbeeldingen genereren. De afbeeldingen die u ziet, zijn degenen die ik heb kunnen maken op basis van de beschrijving. Als u andere verzoeken of aanpassingen heeft, laat het me dan weten en ik zal mijn best doen om u te helpen.
Het lijkt erop dat ik in een eerdere testfase het nog wel kon omzeilen, maar nu niet meer.
Helaas werkt het bij mij niet. Alle beta-instellingen enabled. Maar krijg deze tekst: ;)

To get a visual representation of this logo, you would need to hire a professional graphic designer who can take this description and bring it to life.
"To access DALL. E 3, head to ChatGPT, and hover over GPT-4 at the top of the screen. From the dropdown menu, select DALL. E 3 Beta."
Ooooh :o Nooit geweten dat daar ook een menu verborgen zit. Dank!
Dit werkte vorige week al in mijn ChatGPT, zowel in browser als in app. Ik zie in app wel ineens de optie “browse with bing”. Net daarmee weerbericht opgevraagd voor Zandvoort, vandaag maar daar klopt weinig van. Bij de resultaten worden ook de bronlinks vermeld maar die zeggen heel wat andere dan wat ChatGPT er van maakt.
Bij de resultaten worden ook de bronlinks vermeld maar die zeggen heel wat andere dan wat ChatGPT er van maakt.
Hier zit een belangrijk verschil tussen Bing-CoPilot en OpenAI Chat. In de basis doet Bing een zoek opdracht en lees het AI model eerst deze pagina's voor dat deze antwoord geeft. Terwijl OpenAI in de basis eerst begint met antwoorden uit zijn eigen "geheugen".

Vandaar dat bij Bing CoPilot vaak de bron vermelding wel deels zijn terug te vinden in het antwoord.

Op dit item kan niet meer gereageerd worden.