DreamWorks gaat eigen rendersoftware MoonRay open source maken

Dreamworks gaat zijn rendertool MoonRay open source maken. De software is gebruikt voor onder meer het maken van How to Train Your Dragon: The Hidden World, The Bad Guys, en Puss in Boots: The Last Wish, die in december moet verschijnen.

MoonRay wordt geleverd met een uitgebreide bibliotheek van texturen en materialen die zijn getest bij meerdere producties. Daarnaast is de software niet gebaseerd op oudere code. DreamWorks gaat naast MoonRay zijn cloud rendering framework Arras open source maken. Door de tools naast elkaar te gebruiken, kan de gebruiker onder meer gelijktijdig meerdere lichtomstandigheden of locaties in een omgeving weergeven.

"De vraag naar rendering op schaal groeit elk jaar, en MoonRay kan aan die behoefte voldoen. We verwachten dat de codebase beter zal worden door de betrokkenheid van de gemeenschap", schrijft Andrew Pearce, vicepresident van global technology bij DreamWorks, in een verklaring.

MoonRay komt later dit jaar beschikbaar onder een Apache 2.0-licentie. Geïnteresseerden kunnen contact opnemen met DreamWorks om te kijken of ze in aanmerking komen voor vroegtijdige toegang tot de tool.

The Bad Guys (2022). Bron: DreamWorks

Door Loïs Franx

Redacteur

06-08-2022 • 09:30

60 Linkedin

Submitter: TheVivaldi

Reacties (60)

Wijzig sortering
Ik denk dat een render engine zoals Moonray zijn beste tijd heeft gehad en het zo langzamerhand een verouderde techniek is. Ik denk dat het vrijgeven van Moonray niet zoveel impact/belang heeft.

Er zijn tegenwoordig volop tutorials te vinden over hoe je zelf een Raytracer maakt. (Raytracer is een techniek waarbij het 3d model omgezet wordt naar een platte afbeelding). Zie o.a. https://www.scratchapixel.com/ en o.a op YouTube komen de laatste tijd veel tutorials: https://www.youtube.com/r...rogram+your+own+raytracer. Waar vroeger alleen speclalistische bedrijven (zoals Vray en Brazil) wisten hoe een raytracer werkt, merk je dat dit nu wat meer algemene kennis wordt. Dat maakt het voor een bedrijf eenvoudiger om een product open source te maken. Het feit dat ze zelf kunnen renderen levert geen concurrentievoordeel meer op.

Het is maar lastig te achterhalen wat Moonray toevoegt tov andere renderers. O.a. fur (vacht) en distributed rendering (waarbij rendering berekeningen worden verdeeld over meerdere PC's worden genoemd. Bron: https://www.awn.com/news/...lease-moonray-open-source

Verder timmert Unreal engine ook aardig aan de weg. Vanuit de film industrie is er veel interesse in de nieuwe technieken waarbij een rendering van film kwaliteit afbeeldingen bijna realtime plaats vindt. Wanneer er bijna realtime rendering is heeft het distributed rendering weinig toegevoegde waarde. Zie o.a. https://www.youtube.com/w...YYZs&ab_channel=DubStepZz
Reageer
Het klopt inderdaad dat er veel “bouw je eigen ray tracer in een dag” websites zijn maar dat is echt maar de top van de ijsberg.
Met zo min mogelijk rays een zo goed mogelijk resultaat krijgen vereist echt een hoop meer werk en vooral wiskunde.
Als je meer hier over wilt leren dan alleen de basics op Scratch-A-Pixel dan raad ik iedereen aan om Physically Based Rendering: From Theory to Implementation te lezen.
Dit boek en de bijbehorende opensource renderer PBRT zijn de inspiratiebron van vele productie renderers en de auteurs hebben er een Academy Award voor gewonnen.
Je kan een hardcover kopen maar er is ook een gratis online ebook beschikbaar:
https://www.pbr-book.org/

Een van de grote uitdagingen die “production renderers” proberen op te lossen is het renderen van extreem grote en complexe scenes.
Onder de noemer “out-of-core rendering” worden meshes en textures tijdens het renderen binnen gestreamt (typisch van een externe server ipv direct van disk) in plaats van alles te laden bij het opstarten.
Extreem grote scenes (denk aan 20GB voor alleen de meshes) leiden ook tot slechte performance vanwege cache misses in RAM geheugen, ook iets waar deze production renderers op gebouwd zijn.
Hier is een paper over de Moonray renderer specifiek:
https://dl.acm.org/doi/pd...5yF4BJocjohecUy8aKHQgKbdI

Als je interesse hebt dan raad ik je aan om wat Siggraph papers te lezen of de slides van de Siggraph courses op te zoeken.
Je kan ook op de websites van de studios zelf kijken, hier zijn bijvoorbeeld alle papers van Walt Disney Animation Studios:
https://www.disneyanimation.com/publications/
Reageer
Een raytracer maken is in principe niet heel moeilijk maar dan heb je ook echt de absolute basis. Moonray is wel daadwerkelijk een production proven renderengine waar veel zware producties mee gemaakt zijn en dat wordt nu opensource. Ik ben dan ook voornamelijk benieuwd wat er door de community mee gedaan wordt, want verder heb niet echt opensource renderengines van huidig kaliber. Cycles is waarschijnlijk het geen wat het meest in de buurt komt.
Nu moonray open source is zou blender bijvoorbeeld dingen uit moonray kunnen pakken en het intergreren in cycles.

Je argument dat distributed rendering geen waarde heeft is onzin. Heb je ooit met echt zware productie scenes gewerkt? Dat is absoluut niet “realtime” in je IPR.
Leuk die realtime reel, maar daar gaat echt gigantisch veel optimalisatie aan vooraf. En ook al is realtime echt ver aan het komen met bijvoorbeeld unreal 5, er is nog steeds echt een aanzienlijk verschil in kwaliteit met offline rendering.

Verder heeft moonray heeft een hydra render delegate en kan dus via dat ook in unreal worden geintergreerd uiteindelijk.
Reageer
Precies. Iedereen kan met een tutorial een raytracer maken. Maar probeer er maar een te maken die snel maar wel accuraat is met zo min mogelijk ruis. Een in-house raytracer van een indie studio kan je echt tegen op een raytracer die gemaakt is door een team van goedbetaalde PhDs die alleen maar aan de rendering engine werken, zoals bij Pixar's Renderman of bij NVidia.
Reageer
Voor Lego renderen heb je offline http://stud.io gebaseerd op cycles.

Maar ook https://mecabricks.com waar je zo goed als realtime in je browser science rendert.
Reageer
Ik heb er geen verstand van, maar ik zat ook aan bijv. Ue5 te denken, waarom nog ouderwets een dure renderfarm inhuren als een game pc van 8-10k euro realtime 8k beelden kan toveren die ook super zijn?
Reageer
Kwalitatief haalt deze software niet de beelden van een echte raytracing oplossing. Real-time raytracing met honderden samples per pixel, is zelfs op lage resolutie absoluut nog niet mogelijk. UE5 maakt gebruik van een aantal slimme algoritmes, maar is voor de kwaliteit die filmstudio's wensen, onvoldoende.
De specs van een renderfarm is dusdanig hoog dat met een enkele PC met GFX kaart, dit niet te halen/renderen is. Denk aan enorme hoeveelheden storage, RAM en alle logica om honderden high end GFX kaarten aan elkaar en de software te knopen.
Reageer
UE5 maakt gebruik van een aantal slimme algoritmes, maar is voor de kwaliteit die filmstudio's wensen
En toch gebruikt bv de mandalorian UE voor de rendering, welke ze op een heel groot LED scherm zetten en gebruiken tijdens het filmen ipv een greenscreen en later vervangen. Dat gaat dus om realtime rendered omgevingen.

https://youtu.be/tpUI8uOsKTM
Reageer
Ik werk in dit veld en ken meerdere mensen die aan Mandalorian hebben gewerkt, waaronder een vfx supervisor.

Die unreal scenes zijn vaak niet goed genoeg voor de Final production quality, maar wel meer dan goed genoeg voor de belichting op de acteurs on set. Later worden de acteurs meestal met de hand frame for frame alsnog uitgeknipt (rotoscoping), tot grote frustratie van de vfx artists die dat moeten doen omdat green screens dan toch een stuk sneller werken. Zodat ze de achtergronden dan toch met regulier gerenderde beelden kunnen vervangen.

Daarnaast kost het ook veel meer werk om zo'n unreal scene mooi en real time te krijgen dan dat het via reguliere software en renderers zou zijn. Ik heb van een collega een voorbeeld gehoord dat het budget voor zo'n unreal scene vaak wel drie keer hoger mag zijn dan voor een reguliere gerenderde scene.

In de behind the scenes filmpjes van the mandalorian noemen ze dat natuurlijk niet. Want die filmpjes zijn reclamefilmpjes van de productiemaatschappijen zelf.

Maar het ziet er wel cool uit ja.

[Reactie gewijzigd door Inferno-Acid op 6 augustus 2022 20:14]

Reageer
Ik werk in dit veld en ken meerdere mensen die aan Mandalorian hebben gewerkt, waaronder een vfx supervisor.

Die unreal scenes zijn niet goed genoeg voor de Final production quality, maar wel meer dan goed genoeg voor de belichting op de acteurs on set. Later worden de acteurs meestal met de hand frame for frame alsnog uitgeknipt (rotoscoping), tot grote frustratie van de vfx artists die dat moeten doen omdat green screens dan toch een stuk sneller werken. Zodat ze de achtergronden dan toch met regulier gerenderde beelden kunnen vervangen.
Ik kan je claim niet valideren. Wat ik wel weet is dat de VFX lead heeft gezegd dat een heel groot deel van de shots in de uiteindelijke serie toch echt de realtime backgrounds zijn direct vanuit de unreal engine. Alleen in sommige gevallen was het niet goed mogelijk door bepaalde effecten of door de gebruikte focal length. Tevens vertelde hij dat ze ook voor die shots delen in het LED scherm als greenscreen gebruikte door een stukje groen te renderen. Dus ook het handmatig alles moeten uitsnijden lijkt hij daarmee tegen te spreken.
Reageer
Ja, dat zouden ze in een promo filmpje of pr artikel, als een van de vele vfx leads (die onder de supervisors staan die ik net noemde, je hebt niet één vfx lead) zeggen ja. Maar de haat die the mandalorian kreeg in de artist ranks door vele mislukte moirre artifacts van de displays en aanpassingen na de shoots en niet voltooide assets fixen met reguliere vfx is een werkelijk probleem bij deze methode. Je zal het niet bij heel veel medium en low budget producties zien om die reden vooralsnog.

Close up shots en shots met veel out of focus houden ze wel redelijk vaak intact ja.

Artists gaan niet over workflows van grote bedrijven zoals ILM publiekelijk klagen als ze vaker ingehuurd willen worden of niet aangeklaagd willen worden door hun NDA's. Je moet zelf in het veld werken en met de Artists praten om de echte situatie te leren kennen, dus moeilijk te verifiëren idd.

Het is een mega coole workflow iig. Maar extreem duur vanwege unreal z'n beperkingen, het feit dat alles heel moeizaam gaat via unreal ( vergeleken met de reguliere workflow ) en af moet zijn voordat ze kunnen filmen, en omdat ze altijd na de shoot alsnog dingen willen of moeten fixen, ookal betaalde ze wel voor 'finished' unreal assets.

Jammer genoeg.

[Reactie gewijzigd door Inferno-Acid op 6 augustus 2022 20:14]

Reageer
Ik vraag me af of de schermtechniek daar goed genoeg voor is vandaag de dag. Tom Scott heeft een tijd terug een kleine spelshow gedaan wat in essentie een demo was van een virtuele TV studio waarmee het bedrijf erachter in de eerste plaats de techniek (en zichzelf) in de kijker wou zetten, maar van zodra Tom over de techniek sprak, en je dus niet door de camera van de studio keek, maar een gewone, losse camera, dan zie je direct een enorm kwaliteitsverschil in de beelden wat mij deed vermoeden dat de frames die de digitale camera neemt momenten zijn waarop het scherm zelf een uniforme kleur uitstraalt zodat er net weer gebruik gemaakt kan worden van een chroma key.
Reageer
Maar als de inleving van de acteurs beter is door dat redelijke realistische beeld dat zij dan zien, dan heeft het nog wel een voordeel.
Misschien moet de acteur dan maar in een lichtgroen pak rondlopen?
Reageer
Het is vanuit het perspectief van de acteur nog steeds een bizar scheef misselijkmakend perspectief hoor. Het ziet er alleen mooi uit vanuit het perspectief van de camera zelf of op een afstandje achter de camera, op een referentie monitor ergens achter de camera.

Acteurs doen het allang prima op green screen sets zonder representatieve omgeving.

De gigantische kosten van deze light studios zijn daarvoor niet te rechtvaardigen. Alleen voor de integratie van vfx en hoe je terplekke kan improviseren met de camera hoeken is het het geld misschien waard.

Maar ja, de acteurs hebben liever iets dan niets ja klopt.

[Reactie gewijzigd door Inferno-Acid op 15 augustus 2022 12:22]

Reageer
Ik ben het met je eens dat het nog steeds een plat beeld is wat niet op de juiste positie te zien is. En ook dat het kostbaar is.

Echter dat het acteurs niet helpt - tja, dat kan ik niet beoordelen. Ik kan me alleen indenken dat het kan helpen.

Maar zoals jij al zegt - het is kostbaar en de acteurs hebben het dus niet nodig: waarom doen studio's het dan? Als het kostbaar en onhandig is maar nauwelijks effect heeft, dan is het toch geen rationele keuze?
Reageer
Oh, sorry vanuit mijn perspectief was het echte grote voordeel verder nog wel erg duidelijk.

Het idee is dat de belichting van de digitale omgevingen er echt prachtig en realistisch uitzien op de acteurs! Vooral bij een karakter zoals mando, met z'n metalen reflecterende armor waarbij je de digitale omgeving ziet reflecteren in zijn pak, dat was eerder altijd onmogelijk. Of extreem duur om te faken.

De karakters zien er daardoor ongeëvenaard goed geïntegreerd uit in hun omgeving. De eerste keer dat ze dit in een commerciële productie deden was voor de film Gravity. Maar dan met veel kleinere displays.

Maar het is gewoon extreem labor intensive vergeleken met de reguliere green\blue screen workflow vanwege eerdergenoemde problemen. En je zal het daardoor vooralsnog niet heel vaak gebruikt gaan zien worden, dat was meer mijn punt.. het werd hoger op in deze thread gebracht als iets wat veel sneller en goedkoper zou moeten werken dan reguliere vfx, dat probeerde ik tegen te spreken.

Acteurs vinden het inderdaad wel fijner ja, ookal zien ze vaak een erg uitgesmeerd vervormd perspectief, maar de grote kosten worden daarvoor niet gemaakt iig. Maar vooral voor de mooie look.

[Reactie gewijzigd door Inferno-Acid op 15 augustus 2022 20:53]

Reageer
Dat draait echt niet op een PC van 10K....

UE is geen raytracing, maar een beperkte simulatie ervan. Voor het beste resultaat, kiest men voor raytracing rendering. Dat is zeer intensief qua benodigde rekenkracht.

[Reactie gewijzigd door kabelmannetje op 6 augustus 2022 13:54]

Reageer
Dat ligt volgens mij ook maar net aan welke settings je gebruikt in Unreal. Hoge kwaliteit maar tragere renders is dacht ik ook prima mogelijk.
Reageer
De ondersteuning van hardware raytracing, is geen vervanger voor de kwaliteit van bestaande software renderers. Games/engines die draaien met Nvidia/AMD hardware, hebben heel andere eisen (snel ipv kwaliteit) dan raytracing engines van filmstudio's.
Reageer
Mando hadden ze idd led screen gebruikt met interactieve background gekoppeld aan camera positie voor parallax.

Dat was op set idd unreal.

Maar wat je ziet in de serie is veelal niet unreal. De scènes/ achtergronden worden. Uiteindelijk met andere software gerenderd. Met hun propriatary renderer of iets als Arnold of renderman.
En dan in het shot gecomped.

Ook al zag het er op set goed uit. Dan nog wil je het opnieuw renderen om meer controller te hebben over het uiteindelijke beeld.

Realtime engineer halen het vaak niet bij cpu renderers.. eigenlijk nooit of je moet een simpele scene hebben .

Betekend niet dat het er niet goed uit kan zien. Maar voor film en vfx wil je vaak qua output geen limitaties en is wachten op wat frames geen issue. Kwaliteit is koning en tevens ook robuustheid. Als iets niet robuust is dan zijn het realtime engines voor vfx werk. Dat zit hem in de limitaties qua mogelijkheden, vram Compatibility, output mogelijkheden etc.

Veel dingen kosten meer tijd om werkend te krijgen voor een realtime engine ook. Dan heb ik het niet over nanite/ ststic objecten bv. Maar wel interactie van creaties. Muscke systems high level volumetric en geluid effecten met dynamische omgevingen etc.
Reageer
Maar wat je ziet in de serie is veelal niet unreal. De scènes/ achtergronden worden. Uiteindelijk met andere software gerenderd
Volgens de VFX lead van ILM is een heel groot deel wat je ziet in de Mandalorian toch echt Unreal Engine. Alleen in specifieke gevallen werkte het proces niet.
Reageer
Waarom een Ferrari kopen als een Golf GTI ook al de maximale snelheid kan halen?
Reageer
Suggereer je nu echt dat je zelf wel ff een renderer die op professioneel niveau functioneert kunt maken?

DreamOn ;)
Reageer
Je koopt geen dingen omdat je zelf niet weet hoe je het moet doen, je koopt dingen omdat je de tijd er niet voor hebt.
Het is al decennia openbare kennis hoe je een raytracer bouwt. Er gaat alleen jaren werk in zitten met een groot team om dat naar productieniveau te krijgen. Dan is het een stuk goedkoper om er één te licenseren.

Wat betreft Unreal Engine - ja dat levert mooie beelden op, maar vergelijk die stad eens met het New York van The Avengers. "Bijna filmkwaliteit", maar net niet. Je ziet vooral tijdens de nachtscènes dat de renderer daar de grootste moeite mee heeft. De illusie valt compleet weg.
Voor de echt grote producties zullen renderers als Moonray nog wel even de overhand hebben.

[Reactie gewijzigd door Wolfos op 8 augustus 2022 12:31]

Reageer
Kan ik dit zien als een soort blender concurrent?

Wel gaaf dat ze dit doen. Wist overigens niet dat ze eigen software gebruikte, dacht dat ze iets als maya zouden gebruiken.
Reageer
Nee, dit is meer concurrentie voor Cycles, de renderer van Blender (naast Eevee, maar dat is meer gericht op realtime rendering).

Blender en Maya zijn pakketten met tools om de input (scènes, modellen, enz) te maken.

Renderers zoals Cycles, Renderman (Pixar) en nu dus MoonRay verzorgen de output die je krijgt na het berekenen van de materialen, belichting, schaduw, enz. aan de hand van de input (modellen, texturen, enz) die je met voorgenoemde pakketten maakt :)

[Reactie gewijzigd door Stukfruit op 6 augustus 2022 09:52]

Reageer
Ah wellicht komt er dan nog een blender plugin voor zodat je blender icm moonray kan gebruiken.

Benieuwd of dit een cpu of gpu renderer is.
Reageer
Beide. Moonray heeft CPU en XPU mode. XPU gebruikt de artist dan voor lookdev en uiteindelijk kan het op een CPU farm worden gerendert.
Reageer
Gezien de schaal van zulke films verwacht ik niet dat ze het op een CPU gaan renderen.....
Reageer
Gek genoeg gebruiken veel grote productiemaatschappijen en renderfarms nog steeds renderers met CPU.
Reageer
Oh dat had ik niet aan zien komen.. Dat voor physics etc CPU's werden gebruikt leek me het enige en de echte render fase dan door GPU's.

I stand corrected
Reageer
Tegenwoordig gebruiken ze ook een combinatie van CPU + GPU (hybrid rendering). Bij Blender kan dat ook al. Renderman (van Pixar) gebruikt dat bijvoorbeeld ook, zie: https://renderman.pixar.com/tech-specs
Reageer
Dan een serieuze vervolg vraag, gezien je er wel kaas van hebt gegeten.

Wat is de reden precies dat er nog veel op CPU's word gerendered? Is dat vanwege legacy of heeft het ook echt voordelen tegenover volop met GPU's?
Reageer
Veel is cpu , omdat het nauwkeuriger is.

Vooral word gpu gebruikt voor de viewport in de 3d software pakketten of snelle preview renders van scènes voor de lookdev artist tijdens het belichtingen of shaden.

Maar vaak zitten hier verschillen in en bugs gezien alles wat op cpu brute force word gerenderd en phywiek correct is qua look of simulatie etc. Voor gpu heb je met andere code te maken die als het ware vele shortcuts bevat om een ongeveer gelijk beeld te krijgen. Maar minder nauwkeurig of net anders.

Daarom zijn we in de vfx industrie ook nog niet massaal over op gpu tendering, de shaders en simulatie software etc zijn daar niet voor geschreven, en gpu kaarten missen. De vram capaciteit. En alles is biased, je bent afhankelijk van feautures en drivers etc qua look en mogelijkheden van de output.

De Toekomst zal denk ik wel gpu zijn, al lijkt het soms dichtbij maar ook weer ver weg.

Over 5 jaar zullen vele render engines voor preview/ local renders wel op gpu degelijk werken.

Massale Final outputs van grootse vfx shots met correcte raytracing en alle passes voor compositing etc zal nog wel 5+ jaar duren.
Reageer
Is het niet zo dat je door GPU-rendering een resultaat krijgt waarin de betreffende hardware herkend kan worden? Een beetje hetzelfde als dat aan bepaalde muziek hoorbaar is dat het van FL Studio komt. CPU-renderen is volledig software, dus enkel "wiskundig" renderen...
Reageer
Inderdaad

Elke Gpu + installed drivers setup heeft zijn eigen manier om tot de totale output te komen, er zitten vele lagen van optimalisatie en vertaling tussen, dit heeft effect op hoe veel dingen er uit zien.

Met software renderen is dat dan niet, en is het wat je zegt pure wiskunde, bepaald door de source file/ scene, en zal op elke cpu, of farm de zelfde output geven.

En er is geen tussenkomst nodig van developers om je content goed te laten renderen.


Nu beginnen we tools te krijgen die wel geheel gpu gebaseerd zijn.
Dit is software om bijvoorbeel snelle eenvoudige simulaties te doen, of fx.

Deze assets of fx, zou je in een groot 3d vfx project, dan vaak nog exporteren naar een format zodat je het cpu kan renderen.

Zodat alles met elkaar werkt en de juiste look heeft samen.

Op al deze dingen zijn soms wel uitzonderingen, het is niet allemaal zwart wit.

Maar we zijn verder van realtime rendering verwijderd voor vfx en highend film dan sommige mensen denken.

Voorlopig kunnen we fracties van het productie proces als we zouden willen realtime renderen.
Nadeel is dat opzetten,manage over teams,en qua output, en productie limitaties, het je meer problemen dan voordelen geeft.

Daarom zie je ook dat veel projecten geld krijgen van realtime projecten zoals Epic/ unreal , om hun engine te gebruiken in een productie.

Dan doen ze dat voor een shot of sequence, omdat ze er geld voor kregen.
Maar niet omdat het de beste optie was of praktisch is.

De Dojo scene in de laatste matrix bijvoorbeeld.
Reageer
Maar hoe goed de VFX ook zijn. Als het verhaal crap is of de acteurs er niets van bakken dan helpt goede VFX ook niet.
Het is juist andersom: als het verhaal goed is en de acteurs verstaan hun vak ook, dan is het niet zo belangrijk dat de VFX minder goed zijn.
Reageer
Iedere renderengine heeft wel een eigen look maar dat heb je zowel met CPU als GPU renderengines.
Reageer
De eind-afwerking, maar dat is in feite slechts een configuratie. Bij het genereren van een polygonen-model van een ruimtelijke voorstelling telt alleen de precisie.
Als ik als leek kijk naar hoe games van 20 jaar terug eruit zien met een nieuwe videokaart. Het ziet er allemaal veel mooier uit maar niets van de toegevoegde informatie wordt uit de game-data gehaald. Ik weet niet of je al die extra bewerkingen nog echt renderen kan noemen.
Reageer
Ik geloof niet dat we het over hetzelfde hebben. Je maakte een reactie over renderengines en de look daarvan en daar gaf ik een reactie op.

Renderengines hebben allemaal wel een specifieke eigen “look” net als dat een Arri camera net een iets andere out of the box look heeft als een Blackmagic camera. Ja het immiteert uiteindelijk gewoon de echte wereld maar ze doen het allemaal net even wat anders.

De post processing die je hier verder later op doet is een heel ander verhaal en heeft hier verder niks mee te maken.
Reageer
Omdat je met GPU rendering gebonden bent aan je vram. Je hebt wel renderengines die out of core kunnen gaan zoals redshift, maar dan wordt het wel significant trager.
Highend VFX/Animatie heb je erg zware assets die veel geheugen in nemen, dan moet je soms wel echt denken aan scenes die meer dan 100gb aan ram kunnen gebruiken. Dat kan je simpelweg niet renderen op een gpu.

Verder hebben de CPU versies van renderengines als Arnold (veel gebruikt in vfx) meer functionaliteit als de XPU versies.
GPU rendering zie je dan ook meer in middelgrote studios en voornamelijk in de reclame industrie.

Verder hebben die studios allemaal al dik geïnvesteerd in CPU farms en dat zet je ook niet zomaar om. Plus alle tools die zijn geschreven voor cpu renderengines.

[Reactie gewijzigd door Timmmeeehhh op 6 augustus 2022 13:49]

Reageer
Thanks voor de uitleg!

Ik ging er (blind) altijd vanuit dat in de grote server parken van grafische studios, tientallen GPU's aan elkaar gelinkt werden zoals vroeger met consumenten ook (voodoo kaartjes) en zo een complete render 'pool' heeft.

Maar VRAM is ook wel stuk duurder dus snap denk ik wat je bedoeld.

Nogmaals dank
Reageer
als iemand die wel interesse heeft, maar 0 kennis, zeg ik dankjewel voor het zeer duidelijke uitleg. Zelfs ik snap het nu XD top comment man!
Reageer
Ze gebruiken Maya wel, het is enkel de rendering engine die ze zelf hebben ontwikkeld. Cycles, Redshift, POV-Ray, Octane, V-Ray en Corona zijn allemaal voorbeelden van externe renderers.
Reageer
Het open source maken van een private code base, hoe groot je bedrijf ook is, leidt niet altijd naar gewenste resultaat. Het heeft tijd nodig dat er community ontstaat. In de tussentijd moet het bedrijf wel blijven in investeren in het project om actief te houden. Daarnaast wordt documentatie enorm belangrijk, want als wil dat buitenstaanders mee gaan helpen met het ontwikkelen van de code base, moeten ze alle ins en outs weten van het project. Bij een bedrijf heb je vaak senior ontwikkelaar die even kan aanspreken als je twijfelt over stukje code, via GitHub etc gaat dat toch net wat moeilijker.

Maar er zijn zeker ook succes verhalen van bedrijven, die hun code base online hebben gezet:

[Reactie gewijzigd door Xieoxer op 6 augustus 2022 09:46]

Reageer
Je doet alsof zeer zeldzaam is. Er zijn heel veel projecten die begonnen als private code base en vervolgende succesvolle opensource projecten geworden zijn.

Bijvoorbeeld (bijna) alle open source projecten van Google, o.a. Kubernetes, Angular.
En als we kijken naar de Apache project stal, de volgende projecten waren bijvoorbeeld private code bases: Apache Airflow (AirBnB), Apache Beam (Google), Apache Cassandra (Facebook), Apache Derby (IBM), Apache Cordova (Adobe), Apache Kafka (LinkedIn).

Of bijvoorbeeld: StarOffice -> OpenOffice/LibreOffice

En dan heb ik het nog niet eens gehad over de projecten die open source gemaakt zijn waar het originele bedrijf vervolgens geen actieve rol meer in speelt.
Reageer
Er zijn er ook wel heel veel niet echt door de community opgepakt volgens mij.
Wat je vaak ook wel merkt aan opensource projecten is dat er vaak maar een hele kleine groep soms zelfs maar een enkeling echt het develop werkt doet. Doordat er een grote groep gebruikers is krijg je het gevoel alsof er een enorme community omheen zit, maar als net die ene developer vertrekt die eigenlijk het project vooruitbracht is het meestal daarna ook snel afgelopen. Heb al meerdere grote opensource projecten zien dood gaan omdat de main developer een break nam.
Het idee dat als je iets opensourced er meteen 1000den developers ermee aan de slag gaan komt inderdaad niet zo heel vaak voor. Het meeste wat je aantrekt is een grote groep gebruikers die wel even de software gratis willen uitproberen. In het geval van een renderer is dat ook nog eens heel specifiek voor een specifieke doelgroep, dus het aantal developers wat daar staat te springen om hun handen vrijwillig eraan te branden zal niet heel groot zijn schat ik in. Het zal zeker nodig zijn dat Dreamworks zelf ook input blijft leveren om dit in leven te houden.

[Reactie gewijzigd door ro8in op 6 augustus 2022 11:32]

Reageer
Wat je noemt over die enkele developer is voor veel OSS de achilleshiel. Een bedrijf dat closed source SW maakt heeft contractuele verplichtingen richting hun klanten en kunnen dan niet zomaar stoppen met de ontwikkeling van software (tenzij ze failliet gaan natuurlijk, maar daar zijn weer andere beschermingen voor bedacht, of als ze andere afspraken hebben gemaakt met hun klanten).
Reageer
Je haalt voorbeelden aan waar heel weinig concurrentie is/was.


Bij animatie zie je dat oa gameplatformen hun engines beschikbaar maken waar je dus blijkbaar goed animatie/films mee kunt maken.
Een mooi voorbeeld is de unreal-engine, dat was al redelijk goed voor animatie en met engine 5 is dat alleen maar gemakkelijker gemaakt.

Daarnaast heb je vanuit Japan clip studio paint wat met name is gericht op 2d animatie en wat de laatste jaren ook een vlucht heeft genomen.


De grote vraag is waarom Dreamworks dit ineens overweegt;
We verwachten dat de codebase beter zal worden door de betrokkenheid van de gemeenschap",
Het als (winstgevende) cloud gaan aanbieden betwijfel ik.

Ik vermoed dat ze zelf inzien dat hun hardware/software vandaag de dag en middenkorte termijn achterhaald is. Het hoe en waarom en waarom ze denken dat ze zo een inhaalslag kunnen maken betwijfel ik. Praktisch niemand werkt met de software en het zal een steile leercurve hebben waar je vervolgens alleen 3d animatie kunt maken. Dan kan je beter gaan focussen op game-engines en vb alleen subonderdelen maken van een game zoals intro’s ed.
Reageer
Ben ooit begonnen met Brazil en Corona render, maar gebruik nu eigenlijk alleen nog VRay, ben wel benieuwd naar dit soort engines van grote productiemaatschappijen.
Reageer
Mocht je interesse hebben dan kan ik je Clarisse enorm aanraden. Het is een scene management, layout tool en highend vfx renderer in 1. Het wordt gebruikt door een van 's werelds grootste productiebedrijven Double Negative.
Ze werken nu hard aan de opvolger Angie waarmee je ook op de GPU kan renderen met daarnaast ook volledige OSL materiaal en MatX ondersteuning.

Wat zo fijn is aan Clarisse is dat je zonder gezeik kan navigeren door een scène met bijvoorbeeld triljoen polygonen en heel eenvoudig projecten kan referencen. Je kan ook heel intuïtief point clouds genereren of tekenen om dingen te scatteren zoals met Forest Pack.

Mocht je interesse hebben kan je de PLE installeren waarmee je bijna alle functies kan gebruiken en dagelijks 3 renders kan maken zonder watermerk.
Reageer
Off topic, maar ik moest even denken aan 'Imagine' raytrace software op de Amiga. Wat heb ik daar vroeger veel plezier aan beleefd en veel van geleerd. Dagen was je Amiga aan het renderen, op een animatie van 120 seconden. Paar complexe textures, lichtbronnen en een bewegende camera gaf wel al prachtige beelden.

https://en.wikipedia.org/wiki/Imagine_(3D_modeling_software)

[Reactie gewijzigd door freakandel op 6 augustus 2022 13:40]

Reageer
LightWave 3D werd indertijd door een heleboel productiestudio's gebruikt. En de beruchte 'videotoaster' natuurlijk :)
Reageer
"De vraag naar rendering op schaal groeit elk jaar, en MoonRay kan aan die behoefte voldoen."
Wat wordt hier met 'op schaal' bedoeld? De grootte van projecten?
Reageer
Ik vermoed dat de scene's gedetailleerder worden, als je ziet naar toy story 1 en de laatste TS (ook Monster Inc). Andere animatie films.
Reageer
Heel leuk al die render engines (niet sarcastisch), maar al die verschillende shaders tussen de engines is gewoon irritant bijna. Tenzij deze engine materialX ondersteund.
Reageer
De Bad Guys is ook wel een heel toffe animatiefilm. Mooi gemaakt ook.
Reageer
Leuk, maar geen Pixar.
Reageer

Kies score Let op: Beoordeel reacties objectief. De kwaliteit van de argumentatie is leidend voor de beoordeling van een reactie, niet of een mening overeenkomt met die van jou.

Een uitgebreider overzicht van de werking van het moderatiesysteem vind je in de Moderatie FAQ

Rapporteer misbruik van moderaties in Frontpagemoderatie.




Om te kunnen reageren moet je ingelogd zijn


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee