Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 111 reacties

Disney heeft voor het renderen van onder andere de belichting in zijn nieuwe animatiefilm Big Hero 6 gebruikgemaakt van een gevirtualiseerde supercomputer met 55.000 cores in het cluster. Deze rekenkracht was nodig voor het zelfontwikkelde pakket Hyperion.

Big Hero 6 speelt zich in de nabije toekomst af in een stad op basis van San Francisco, en gaat over een jongen en zijn softrobot. In een interview met Engadget schetst regisseur Don Hall de technische stappen die Disney heeft moeten zetten om de nieuwe animatiefilm te kunnen maken. Een van de belangrijkste ontwikkelingen was de bouw van een geheel nieuwe renderengine voor de belichtingseffecten in de film. De software, Hyperion genoemd, was tijdens de gehele ontwikkeling van de animatiefilm in bèta, waarmee Disney een risico heeft genomen, zo claimt Hall. Hyperion zou in staat zijn om de lichtinval op basis van tien tot twintig weerkaatsingen te berekenen, terwijl normaliter slechts een weerkaatsing wordt berekend.

Voor de complexe belichtingsberekeningen van alle scènes in Big Hero 6 werd een virtuele supercomputer gebruikt. In totaal werden in vier verschillende datacenters computers ingezet voor de renderklussen, waarbij binnen dit cluster in totaal 55.000 cores werden ingezet. Het cluster zou een film als Rapunzel volgens Hall in tien dagen vanaf de grond kunnen renderen. Normaal gesproken kan het renderen van een enkele scène al enkele dagen duren.

Om de virtuele supercomputer zo efficiënt mogelijk te kunnen gebruiken en beheren, werd door Disney tevens de beheertool Coda ontwikkeld. Daarmee kon een animator onder andere op zijn smartphone een berichtje binnenkrijgen als een bepaalde renderklus was mislukt.

Big Hero 6 zal in de VS op 7 november in première gaan. In Nederland is de film pas in februari op het grote doek te zien.

Moderatie-faq Wijzig weergave

Reacties (111)

Het artikel van Engadget is vrij waardeloos en zit vol met fouten, een veel beter artikel over Hyperion (de nieuwe rendering software van Disney) en de renderfarm kun je vinden op fxguide:

http://www.fxguide.com/fe...erer-hyperion-yes-disney/

In deze paper wordt trouwens de core van Hyperion beschreven, zeer interessante paper (alhoewel ik de best paper award op EGSR niet snap gezien er in de jaren 90 al vele papers zijn gepubliceerd die vergelijkbare systemen beschrijven):

https://disney-animation....oduction_Path_Tracing.pdf

[Reactie gewijzigd door Mithrildor op 20 oktober 2014 12:32]

Ziet er mij een funny animatie film uit :)

Leuke site wel http://movies.disney.com/big-hero-6/

[Reactie gewijzigd door MISTERAMD op 20 oktober 2014 12:27]

Goeie link!!

Voor wie niet zoeken wil;
Scroll iets naar beneden en klik op het eerste plaatje van Hiro met Baymax (met rondje met pijltje er in) voor alle trailers en clips achter elkaar.

Ziet er vet uit allemaal en ik heb er al om moeten lachen hier en daar.
Lijkt me weer een aanrader uit de stal van Disney. _/-\o_
Aangezien de meeste games al moeite hebben om een bounce van Global Illumination te simuleren, terwijl ze bij BH6 van 10-20 bounces gebruik maken. Omdat de meeste games ook geen multiple-scattering in volumes kunnen simuleren, terwijl dat in films ook een vereiste is. Omdat games nauwelijks sub-surface scattering kunnen simuleren en dan krijg je mensen die op de mensen uit Toy Story 1 lijken, dat wil je niet. Games hebben ook geen 300GB aan textures terwijl dat bij films nog aan de lage kant is. Games hebben ook geen scènes die uit 700m polygonen bestaan.

Games zien er vandaag de dag echt prachtig uit, maar het is een opeenstapeling van hacks en formules die maar half zijn geïmplementeerd. Bij games kun je hiermee wegkomen aangezien je focus minder op de beelden ligt, maar vooral op de actie in het spel, bij films vallen een kleine schoonheidsfoutjes al heel snel op en kunnen ze de immersie in een film doorbreken.

Wat je juist ziet is dat technieken (zoals ray tracking, ray marching en sub-surface scattering) langzaam aan ook in games worden toegepast (alhoewel de implementatie vaak details achterwege laat om grotere performance te bereiken), terwijl deze technieken al jaren lang in films te vinden zijn.
Om even op het laatste terug te komen met sub-surface scattering. Hier heb ik met veel plezier naar gekeken. https://www.youtube.com/watch?v=w6NBPzSClB4#t=50
Terechte vraag. Maar rendering =/= ray tracing.
In computer graphics, ray tracing is a technique for generating an image by tracing the path of light through pixels in an image plane and simulating the effects of its encounters with virtual objects. The technique is capable of producing a very high degree of visual realism, usually higher than that of typical scanline rendering methods, but at a greater computational cost. This makes ray tracing best suited for applications where the image can be rendered slowly ahead of time, such as in still images and film and television visual effects, and more poorly suited for real-time applications like video games where speed is critical. Ray tracing is capable of simulating a wide variety of optical effects, such as reflection and refraction, scattering, and dispersion phenomena (such as chromatic aberration).
http://en.wikipedia.org/wiki/Ray_tracing_(graphics)

[Reactie gewijzigd door aval0ne op 20 oktober 2014 14:39]

Dat renderen vaak lang duurt, dat wisten we. Maar dat er 55.000 cores nodig zijn om in 10 dagen Rapunzel te renderen :o MIND = BLOWN!

Nu is de software natuurlijk nog niet helemaal geoptimaliseerd en zal er waarschijnlijk veel tijdswinst zijn wanneer het pakket uit de beta-fase is, maar ik vind het allemaal behoorlijk indrukwekkend!
Sowieso zijn de animatie-films tegenwoordig al van dusdanig veel details voorzien en zit er ook de nodige humor in zodat ook ouderen kunnen meegenieten van een leuke maar vooral ook (grafisch) mooie film.

Zou het renderen van de belichting in deze animatiefilm niet ook in zekere zin toe te passen zijn in de normale filmindustrie? Het lijkt mij een mooie improvement om over te nemen.
Er zit weinig verschil tussen het renderen van een animatiefilm en het renderen van vfx voor een live-action film, renderers en Arnold en RenderMan worden dan ook zowel voor animatiefilms als voor live-action films gebruikt. Hyperion zou hier in principe ook voor kunnen worden gebruikt. Het lijkt me alleen iet zo nuttig om deze specieke renderer voor live-action te gebruiken aan gezien deze renderer speciaal is geschreven voor de specifieke problemen waar Disney Animation mee zit.

Deze renderer heeft zover ik kan lezen ook niet grote verbeteringen vergeleken met andere renderers, behalve dat deze beter met ptex textures kan omgaan (die volgens mij alleen actief door Disney worden gebruikt). Arnold is een erg mooie state of the art renderer die commercieel verkrijgbaar is. Weta Digital (bekend van LotR, Avatar en the Hobbit) heeft een veel vernieuwendere renderer, dit is namelijk een spectrale renderer (in tegenstelling tot een renderer die zijn berekeningen met rgb-paren doet), hierdoor is bijvoorbeeld mogelijk om de reflecties in glas en de reflectie van haar veel beter te simuleren.
Er zit weinig verschil tussen het renderen van een animatiefilm en het renderen van vfx voor een live-action film,
Ik zou durven beweren dat er toch echt een heel ander doel wordt nagestreefd door beide workflows. Zo was het bij animatiefilms gebruikelijk om weinig bounces te gebruiken en veel van de GI te faken. Dat stelt niet zulke hoge eisen aan de renderer. Ook zaken als photorealisme zijn niet zo nodig bij animatierenders. Dus ook daar heb je niet de brute kracht van zoiets als bijvoorbeeld Arnold nodig. Laat staan features als fysiek correct licht.
Deze productie is wat dat betreft redelijk vooruitstrevend qua GI in tekenfilms.
Dit was inderdaad in het verleden het geval, maar de moderne animatiefilms doen niet onder aan VFX op dit moment. Je ziet het renderen van volumes en sub-surface scattering (SSS) bijvoorbeeld steeds een grotere rol spelen en dat Sony Pictures Imageworks ontwikkelingen op het gebied van SSS gelijk in Hotel Transsylvania heeft toegepast. Zo had RenderMan nog geen fatsoenlijke ondersteuning voor path-tracing voordat het in Monsters University werd toegepast.
What the (...) dat is aardig wat rekenkracht.
Weet iemand in welke ratio ze renderen(10000x10000px bijvoorbeeld) ben ik nu toch wel benieuwd waarom ze deze reken kracht nodig voor zijn.
Ik gok op maximaal 4k resolutie. Waarom zou je hoger renderen dan je maximale afspeelformaat?
Voor de toekomst. Belle en het Beest is beschikbaar in 4k. Toen die film uitkwam had niemand thuis een 4k speler/tv.

Uit de ouderwetse 35/55 film zijn hele hoge resoluties te halen. Makkelijk 8k. En daar gaat het in de toekomst heen. Digitale film staat nog steeds in zijn kinderschoenen. Een oude film als bijvoorbeeld Vertigo is over enkele jaren in 8k te aanschouwen. Terwijl een oudere digitale hd film van eind jaren 90 dit nooit zou kunnen.

Zelfde met tv series, series die tot in de jaren 80 zijn opgenomen, zie je nu op bluray uitgebracht worden. Deze zijn allemaal op film opgenomen. Al die jaren 90 series (de meeste iig) zijn op tape opgenomen met een veredelde camcorder. Die worden in dvd box sets uitgebracht maar nooit bluray.

Er zijn genoeg regisseurs die het liefst nog steeds film gebruiken, maar het simpelweg niet meer mogen van de filmstudios ivm de hoge kosten bij film ontwikkeling. En je pas na ontwikkeling je opnames kunt bekijken. Nu met digitaal kun je on the spot terug kijken.
Het gaat niet alleen om de film waarop een film is opgenomen. Het renderen van vfx of animaties in 4K duurt gewoon enorm lang en elke pixel extra is mogelijk een pixel waarin ruis of zogenaamde fireflies in kunnen zitten waardoor er ook in elke extra pixel werk gestoken moet worden.

Zelfs in films waar VFX eigenlijk nauwelijks nodig is wordt er hevig gebruik van gemaakt aangezien een regisseur alle creatieve vrijheid die mogelijk is eist. Vroeger moest een regisseur blij zijn met de mooiste locatie die gevonden kon worden, maar nu kan letterlijk elk detail worden aangepast.

Bekijk maar een breakdown van bijvoorbeeld the Wolf of Wall Street waar eigenlijk maar een paar scènes in zitten die VFX nodig hebben terwijl er in minstens de helft van de scènes van hevige vfx gebruik wordt gemaakt.

Dit is ook een van de redenen waarom je bijvoorbeeld ook maar weinig films in 48fps ziet, het kost gewoon dubbel zoveel tijd om een film met twee keer zoveel frames te renderen. Daarnaast zorgt elke extra frame weer voor vele extra terabytes aan data, terwijl de pipelines van de meeste vfx studio's al helemaal vol zitten.
De reden dat 48 fps niet wordt toegepast is dat velen het niet prettig ervaren. Zelfde als die functies op nieuwe tv's die er frams bij plaatsen en het net een oude camcorder opname lijkt. Gelukkig uit te zetten.

http://www.cnet.com/news/...s-to-be-smarter-than-you/
Criticisms of the format include assertions that the "cinematic look" is lost with the use of high frame rates. Film critics have noted that the much sharper image looks akin to video games, HDTV, live theater or a cheap home movie.
http://en.wikipedia.org/wiki/High_frame_rate
Van 35mm film (laten we uitgaan van super 35) iets hogers halen dan 4k lijkt me zéér ambitieus overigens. Vergeet niet dat bij cinema de oppervlakte geen 'fullframe' is maar 'half-frame' omdat de film verticaal loopt. Half-frame is vergelijkbaar met APS-C qua formaat (24*18mm)
Bestaan er dan geen systemen waarbij je the best of both worlds kunt krijgen? Dat je opneemt op film maar ook een onmiddelijke feedback kunt krijgen vanop digitaal opslagmedium? Met half licht doorlatende spiegels moet zoiets mij toch mogelijk lijken (beetje het principe zoals sommige dSLRs het toepassen).
Je hebt maar een keer licht, dus als je een halfdoorlaatbare spiegel hebt, hou je maar 50% van je lichtsterkte over op zowel film als digitaal. Dat betekend dat je high-speed film moet gebruiken (niet fps, maar hoe snel hij licht 'absorbeert' ) wat grotere 'vlokken ' geeft en dus meer ruis. Voor digitaal geld dat hetzelfde en is de ruis nog iets erger.
Incorrect, de spiegel is +/- 70% doorlaatbaar( dus +/-30% gaat naar het oog). En de spiegel klapt omhoog bij het fotomoment (tevens bij filmen). Dit lijkt mij echter nog steeds niet veel licht om mee te filmen. Volgens mij is het daarom niet mogelijk.
de spiegel
Over welke spiegel heb je het? Ik noem voor het voorbeeld een halfdoorlaatbare spiegel, niet perse iets dat we nu al kunnen vinden in een slr. Tevens heeft een filmcamera een vlinder ipv een spiegel en een fatsoenlijke digitale cinema camera al helemaal geen spiegel.

[Reactie gewijzigd door M3! op 20 oktober 2014 16:23]

Dan kunnen ze hem toch gewoon opnieuw renderen tegen die tijd?

Een van de voordelen van CGI, je kunt het eindeloos opnieuw produceren.
ik gok dat ze het bron materiaal nog wel op een wat hogere resolutie zullen renderen bijv 8 of 16K het alternatief is dat je bij de volgende verhoging naar 8k in de bisocopen bijv... weer een hele remake kunt gaan maken, terwijl je anders alleen het bronmateriaal maar in een ander jasje hoeft te encoden... als het om opslag materiaal gaat zal het niet zo'n issue zijn, en met zulke power maakt dat beetje extra ook niet zoveel meer uit...

ik gok dus dat ze wel wat hoger gaan dan 4k al was het maar om futureproof te zijn, of om hele kleine renderfoutjes nog weg te kunnen poetsen.
Ik denk het niet, als ze later de film in hogere resolutie willen kunnen ze hem gewoon opnieuw renderen, met toekomstige (goedkopere) hardware. waarom zouden ze nu de rendertijd met een factor 4 of 16 verhogen als dat nu nog niets oplevert?
Het renderen op een hogere resolutie dan het daadwerkelijk getoond gaat worden heeft als groot voordeel dat je daarmee aliasing tegen gaat. Downsamplen zorgt voor een veel betere IQ dan het toevoegen van AA op de afspeel resolutie bijvoorbeeld.
AA wordt direct in het frame ingerendert. Je hoeft de frame zelf niet op een hogere resolutie te renderen om het vervolgens te downsamplen voor AA.
Een voordeel van deze techiek is dat de AA samples beter gekozen kunnen worden voor een willekeurige outputresolutie.
Futureproof maken hoeft niet perse. Dat is het eigenlijk al omdat het origineel uit 3D modellen bestaat. Het voordeel van 3D films dus dat ze opnieuw gerendered kunnen worden. Dat hebben ze o.a. ooit met Toy Story gedaan om hem geschikt te maken voor 3D vertoon (note: daarbij ging de render tijd van 4 uur per frame naar 2-4 minuten per frame).
Maar al te vaak is er de wens om op hogere resolutie op te nemen om achteraf bij montage verder in te zoomen zonder al te veel kwaliteitsverlies en bewerkingen achteraf.

Simpel voorbeeld is een interview tussen twee mensen,
je kunt dan bijvoorbeeld met een camera opnemen en achteraf kun je er voor kiezen om soms op de interviewer in te zoomen, soms de geïnterviewde, en soms een heel shot.

Lijkt me bij animatie ook praktisch.
Ik gok 8k aangezien dat 4k in 3D opleverd
Nonsens. Als je 8k 3D wilt filmen dan heb je dus 2 heads met ieder 8k. Als het je te doen is om de benodigde data: 8k heeft nog altijd 4x zoveel pixels als 4k (namelijk 2x in de hoogte en 2x in de breedte), terwijl je voor 3D effectief 2x zoveel pixels gebruikt.
Voor de toekomst? Waarom jezelf limiteren als je ook al voor de volgende stap 4k,8k e.d kunt renderen zodat je de masters al op de plank hebt liggen. Scheelt je later een hoop werk en geld.
omdat het renderen in de toekomst steeds sneller zal gaan, er andere compressie zal komen, andere distributie etc etc. nu renderen oadat je in de toekomst alvast iets hebt liggen is dus niet goedkoper of sneller. het originele bestand dan nogmaals renderen is veel betere optie
In de toekomst hebben we geen compressie meer nodig. :)
Sneller renderen, zodat aantal foutjes niet dagenlang kost om te fixen, maar gewoon 'on the fly' kunnen worden gefixed. Daarnaast hebben ze aantal effecten toegevoegd, die normale rendertijd gigantisch vertraging, maar met een overkill aan render-power kunnen ze dat tegengaan.
This software allowed animators to eschew the incredibly time-consuming manual effort to animate single-bounce, indirect lighting in favor of 10 to 20 bounces simulated by the software. It's responsible for environmental effects -- stuff most audiences might take for granted, like when they see Baymax, the soft, vinyl robot featured in the film, illuminated from behind. That seemingly mundane lighting trick is no small feat; it required the use of a 55,000-core supercomputer spread across four geographic locations.
Dat stuk wat je gequote hebt toont aan hoe waardeloos dat artikel van Engadget is, ze beschrijven daar belichtingstechnieken die sinds 2005 niet meer gebruikt worden. Voor een artist kost het weinig moeite om 10 of 20 bounces van global illumination te simuleren, hij moet alleen een stuk langer wachten voordat hij het resultaat van zijn aanpassingen ziet.

Het grootste deel van de tijd is de renderfarm van Disney ook niet bezig om de uiteindelijke film te renderen. Een enkele frame wordt vaak 1000en malen gerendeerd om het resultaat van een aanpassing van een artist te zien. De kosten van uur een artist laten werken zijn vele malen hoger dan de kosten om een uurtje te renderen, het is dus heel belangrijk dat artists snelle feedback krijgen.

[Reactie gewijzigd door Mithrildor op 20 oktober 2014 13:22]

[...] De kosten van uur een artist laten werken zijn vele malen hoger dan de kosten om een uurtje te renderen, het is dus heel belangrijk dat artists snelle feedback krijgen.
De kosten van een uur later releasen is vele malen hoger. Die 55000 cores laten berekenen kost echt wel meer dan die ene artist :P
ja en dan zijn het honderden artists en dan is het een heel ander verhaal
btw die artists kosten minimaal 70000 euro (ja euro) per persoon per jaar.
dus dat valt best tegen..

verder ja films kosten jaren om te renderen, en zoals Mithrildor zegt single bounce lighting wordt al jaren niet meer gebruikt in film rendering.

games beginnen ook al global illumination (weerkaatste fotonen van een surface de wereld in) te simuleren. dus dit is niet nieuw.

10-20x is wel veel maar de grap is ook dat het verschil tussen 3 en 10n bounces al veel kleiner is en van 10 naar 20 is bijna niet te zien (tenzij je heel veel reflecties hebben.

maargoed alles gaat richting de path tracer met monte carlo en russian roulette ray killing mechanismes zoals bijv Arnold render doet. dit is niets nieuws tis alleen slim gemarket.

verder nee niemand rendert op zijn workstation, afgezien van een mogelijke miniscule test renrer (en zelfs dat vaak niet) daar heb je een renderffarm voor en management systemen die proberen de taken zo efficient mogelijk af te handelen.
ja en dan zijn het honderden artists en dan is het een heel ander verhaal
btw die artists kosten minimaal 70000 euro (ja euro) per persoon per jaar.
dus dat valt best tegen..[...]
Uiteraard, maar hij vergeleek het met 1 uur aan artisttijd. Dat is even afgaande op 11 maanden 40 uur in de week en jou 70K aan salaris: 40E. Vraag me af hoeveel die 50K aan cores kosten. Die kosten halen ze er wel uit met een verhoogde productiviteit, maar dat is dan eerder omdat ze sneller kunnen releasen en dus weer met een nieuw project beginnen. Later releasen kan echt zoveel geld kosten dat het gewoon belachelijk wordt, bijv. omdat de concurrentie je bijv. voor is en de gebruikte rendering techniek anders achterhaald lijkt.
ja 1 uur artist tijd per keer...
x honderden artists
x jarenlange productie...
= vele miljoenen

het is zeker kosten effectief.

[Reactie gewijzigd door freaq op 20 oktober 2014 23:46]

Tijd is geld, of je het door artiesten moet laten doen of cores. Dus denk dat in beiden wel een deel waarheid in zit. Sneller renderen, kost minder tijd voor de artiest. Maar wie weet hoeveel cores ze normaal gebruiken? Misschien scheelt het maar 5000
What the (...) dat is aardig wat rekenkracht.
Ligt eraan hoe je het bekijkt; je geeft zelf al aan niet te weten welke resolutie het over gaat en waarschijnlijk ook niet de kleurdiepte. Het aantal cores zegt niets over de hoeveelheid rekenkracht (in het algemeen) alleen Disney heeft nu een mooie set software erbij die efficienter kan renderen en dus ook een tijdswinst oplevert.
Toy Story duurde ongeveer vier a vijf jaar om te renderen(!), nu willen ze dat in minstens de helft van de tijd doen... dus ja dan heb je rekenkracht nodig.

In 1995 (Toy Story) was de rekenkracht niet zo sterk als nu, maar toch.
Heb je hier een bron van?
Lijkt me sterk dat alleen het renderen zo lang duurde
Vanaf Wikipedia:
bronnen staan daar.

Op 117 machines van SUN trouwens...

"Finished animation emerged in a steady drip of around three minutes a week.[49] Each frame took from 45 minutes up to 30 hours to render, depending on its complexity. In total, the film required 800,000 machine hours and 114,240 frames of animation.[33][44][50] There is over 77 minutes of animation spread across 1,561 shots."

http://en.wikipedia.org/wiki/Toy_Story

[Reactie gewijzigd door NBK op 20 oktober 2014 23:00]

Scenes worden ook wel Shots genoemd. Een frame is een plaatje, gewoon een stilstaand plaatje en laten we zeggen dat de film in 30 fps is gemaakt.
Dus 30*(gemiddeld 24*23(24 uur maal 23)) dan zit je al op ruim 16.000 uur oftwel 690 dagen oftwel bijna 2 jaar.

er zitten 1561 shots(scenes) in de film, reken zelf maar verder uit!
Digital Imax is ongeveer 6k. Aangezien de film ook daarin wordt getoond is dat de minimale resolutie. Verder is de film ook nog 3D, wat betekend dat er minstens 2x zoveel frames als normaal zijn. Dus het minimale is equiavalent aan 2x6k (is niet gelijk aan 12k).
Als je doorberekend dat elke lichtbron een lichtbundel oplevert, die daarna vanaf alle te belichten vlakken weerkaatst met een factor 10, dan gaat dat aardig in de getallen lopen! ;)

60FPS a 90 minuten zijn 324.000 frames. Elke frame levert zo'n berekening op en aangezien dit niet op 640x480 wordt gerenderd met 8k kleuren, is daar nogal wat power voor nodig. Zeker omdat ze naar alle waarschijnlijkheid live proberen te renderen om zo on-the-fly ook parameters bij te kunnen stellen.
Ben erg benieuwd naar het resultaat. Het wordt tijd dat RenderMan er concurrentie bijkrijgt (alhoewel beide in feite eigendom van Disney zijn).
Volgens mij is dit geen concurrentie voor RenderMan. Hyperion gaat zeker niet verkocht worden en ik verwacht niet dat Pixar of ILM er gebruik van maken. Deze renderer is vooral geschreven om de problemen met ptex (een systeem om textures op te slaan) op te lossen. Ptex scaled enorm slecht met het aantal codes in normale renderers (die een ray/shading point tegelijk berekenen), wat de renderers veel langzamer maakte, wat voor artists voor enorme wachttijden zorgt voordat ze het resultaat van een aanpassing kunnen zien.

Overigens gebruiken nog maar weinig grote studio's RenderMan, Arnold is op dit moment veel populairder en veel grote studio's lijken in-house renderers te gebruiken.
Jaja, "wij van wc-eend maken de beste toiletreiniger!!"
Hyperion zou in staat zijn om de lichtinval op basis van tien tot twintig weerkaatsingen te berekenen, terwijl normaliter slechts een weerkaatsing wordt berekend
Misschien begrijp ik het helemaal verkeerd, maar als dat niet het geval is, dan is bovenstaande quote echt slap gelul.
Bij mijn weten kun je in de gemiddelde 3d editor gewoon aangeven hoe vaak een lichtstraal 'stuitert', oh en dit is de benaming voor dit soort tech: Ray Tracing

En 55.000 cores?! moesten ze persee de hele film in een uurtje kunnen renderen of wat? nogal overkill als je het mij vraagt.
Je begrijpt het inderdaad helemaal verkeerd ;)

Deze technologieën kun je inderdaad in je gemiddelde 3D package vinden, maar in dat soort pakketten is performance een stuk minder belangrijk. Disney moet hier iedere frame (en bij een filmpje van 2 uur zijn dat er toch al 172800) in 4K noise free moeten kunnen renderen en dat moeten ze snel kunnen omdat er een harde deadline voor staat. Is een frame net niet helemaal wat ie moet zijn, dan moet een PC uit die renderfarm weer 24 uur spenderen om hem opnieuw te renderen. 10 bounces renderen zonder noise duurt gewoon enorm lang.

Er is hier inderdaad gebruik gemaakt van ray tracking, maar dat is echt niet zo makkelijk als het lijkt en echt een onopgelost probleem, ieder jaar worden er nog tientallen papers op SIGGRAPH, SIGGRAPH Aria, Eurographics en EGSR uitgebracht. En de renderers die in een productie omgeving worden gebruikt komen ook nog met hun eigen problemen, zoals scènes die 700 miljoen triangles, 300 GB aan textures en 10000en shaders bevatten. Een production renderer die alle features die voor een film nodig zijn bevat bestaat al snel uit een half miljoen regels code.

Die 55000 cores worden ook niet gebruikt om de film eenmalig te renderen, die film die jij in de bioscoop ziet die is in totaal wel duizenden maal gerendered. Eerst duizenden malen wanneer artists eraan werken en bij elke aanpassing feedback nodig hebben en vervolgens nog enkele malen bij de uiteindelijke eender van de film om foutjes op te lossen.
Ah, die uitleg verklaart al een hoop hehe, bedankt voor het inzicht! :)
10 jaar? Als je iemand 10 jaar geleden zou vertellen dat je een production renderer aan het schrijven was die gebruik maakt van ray-tracing dan zou die persoon je uitlachen of vreemd aankijken. Volgens een fxguide artikel zijn ze nu 2 jaar actief met Hyperion bezig.

Ik vind het ook raar dat je het "beter dan ray tracing" noemt, terwijl Hyperion enorm veel gebruik maakt van ray tracing. Ray tracing bepaalt de visuele kwaliteit helemaal niet, het is slechts een techniek die gebruikt kan worden om te kijken of een punt vanuit een ander punt zichtbaar is (of dat er een object tussen zit). Ray tracing zorgt niet voor meerdere weerkaatsingen van licht (dat wordt gesimuleerd met een techniek genaamd path tracking) of andere effecten.

Het verschil in visuele kwaliteit die jij ziet wordt bepaald door hele andere dingen, voornamelijk door de betere shaders die bijvoorbeeld rekening houden met sub-surface scattering of microfacet theory gebruiken.

Overigens zit hier juist wel een groot wc-eend karakter aan, Hyperion lost een aantal performance issues op die ze zelf met hun waardeloze ptex texture systeem hebben veroorzaakt. Een film die gerenderd is met RenderMan of Arnold doet grafisch niet onder aan een film die gerenderd is met Hyperion. Ik denk juist dat RenderMan veel meer features ondersteund dan Hyperion, maar Disney moet zo nodig van ptex gebruik maken ipv 'simpele' UV textures.

Als je iemand dom noemt zorg dan eerst dat je jouw eigen feiten op orde hebt.
Op 55.000 cores nog enkele dagen nodig hebben voor een enkele scene. Wauw! Dat is dan een aardig complexe berekening die moet worden uitgevoerd! Wordt het op een dergelijke schaal voor Disney niet interessanter om een eigen cluster aan te schaffen? Wat moet dit wel niet qua CPU uren kosten?
Frozen kwam uit in November 2013, ga d'r maar van uit dat het meeste renderwerk in oktober toch echt wel klaar was. Dat betekent dat de Disney Animation Studios ongeveer 1 film per 12 maanden uitbrengt, maar waarbij het daadwerkelijke renderen maar een paar maanden in beslag neemt. Ik denk dat het voor Disney economisch beter rendabel is om voor die paar maanden rekenkracht in te kopen bij datacenters (waarbij ze qua prijs kunnen concureren) dan dat ze een fortuin investeren in het opzetten en onderhouden van een eigen datacentrum.

Bron: redenatie, ik hoor het graag als iemand daadwerkelijke cijfers heeft
Het renderwerk is veel eerder klaar hoor. Na alles gerenderd te hebben moet bijv. alles nog gemonteerd worden, moet men de audio nog toevoegen, muziek, ... allemaal dingen die men pas kan doen met het eindresultaat. En je wenst dat eindresultaat ook nog eens aan een testpubliek te tonen zodat je nog aanpassingen kunt doen indien noodzakelijk. Reken maar dat als Frozen in November uitkwam dat het grote renderwerk rond pasen al achter de rug was.
Nee hoor, montage kan al worden gedaan op de previz. Moet natuurlijk nog wel een keer gerenderd te worden door de video editing software, en kleurcorrectie zal ook nog niet kunnen van te voren. Maar in principe weet je al van elke frame wat er gaat gebeuren.
Dit veronderstelt wel dat de stemacteurs genoeg 'ruimte' krijgen om hun teksten uit te spreken.

Bij audio is de omgekeerde volgorde deels zelfs vereist. Dubbing en score kunnen helemaal afgemaakt worden voordat er ook maar 1 definitieve frame gerenderd is. En de video van de mondbewegingen/mimiek van de stemacteurs kan de animator weer gebruiken voor lip-syncing/facial animation.

Maar inderdaad, alles ligt al klaar op de plank lang voordat de bios de posters binnenkrijgt...
Heb je Rapunzel of Tinkerbell en de piraten weleens gezien op blu-ray? Dat is akelig gedetailleerde animatie (en met name de eerste is ook best leuk voor volwassenen :)).

Dit zou nog fancier moeten zijn.
Deze renders zijn vooral zo 'lastig', vanwege de zeer natuurgetrouwe licht en omgeving bewerkingen. De trailers laten dit echt zo goed zien. Zo'n onwijs goede atmosfeer!

Maar nog steeds zag ik hier en daar textures voorbij komen die niet super hi-res waren. Bepaalde vloeren en muren bijvoorbeeld.

Overall lijkt me dit een echte next-gen tekenfilm...ga ik zeker meerdere malen zien!!

Disney _/-\o_

[Reactie gewijzigd door exmatproton op 20 oktober 2014 17:45]

Overal lijkt me dit een echte next-gen tekenfilm...ga ik zeker meerdere malen zien!!
Bedoel je overall of overal?
Rapunzel is gewoon geweldig. Frozen, qua animatie, ook. Vooral omdat daar de sneeuw ge'test' werd.. Ik zie die moderne Disneyfilms altijd als techdemo's (kijk eens wat we met simulaties van haren kunnen doen! -> Brave. Kijk eens hoe echt sneeuw eruit kan zien! -> Frozen. Kijk eens wat we met mooiere lichteffecten kunnen! -> Big Hero 6).

Zoiets dus ;) en ja die films zijn ook wel briljant!
Toch blijft WALL-E een meesterwerk in zijn tijd.
Ik denk dat ze bedoelen dat zonder deze supercomputer het renderen van een enkele scene al meerdere dagen duurt. (het 'normaalgesproken' duidt dan op renderen zonder dit supercluster)
Met dit cluster kan hele film Rapunzel in 10 dagen gerendered worden.

[Reactie gewijzigd door michaelkamen op 20 oktober 2014 11:57]

Dit is natuurlijk niet waar, het zou dan jaren kosten om een film te renderen. Een enkele frame wordt meestal op een enkele computer gerendeerd (volgens mij gebruiken de meeste renderfarms 2 Xeons met elk 8 codes per computer). Voor een enkele frame moet je zo'n 24 uur aan tijd op 16 cores rekenen wat gebruikt wordt voor pre-computation, simulaties en het renderen zelf.
Wanneer je zelf servers aanschaft ben je ook geacht ze constant te gebruiken, al wil je op dat gebied winst halen.

Wanneer ze uit staan kost dit bakken met geld, nu betalen ze waarschijnlijk per uur en hoeven ze geen zorgen te maken.
Ik kan me er maar weinig bij voorstellen eerlijk gezegd. Het zou wel leuk zijn om eens een vergelijking te kunnen zien van hoe dit er uit ziet bij 'normale' rendering vs de 55k cluster.
Het ziet er dan hetzelfde uit, maar t renderen duurt gewoon veel langer!
Jah... zo slim ben ik ook. Ik had het eigenlijk over het feit dat ze nu bepaalde technieken kunnen toepassen die zonder die 55k cluster niet doenbaar waren. Bijvoorbeeld de lichtinval op basis van 10-20 weerkaatsingen.
"Om de virtuele supercomputer zo efficiënt mogelijk te kunnen gebruiken en beheren, werd door Disney tevens de beheertool Coda ontwikkeld."

Het is een dus een supercomputer die eigenlijk niet bestaat?
Klopt, het is een samenvoegsel van meerdere fysieke servers tot 1 supperdikke.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True