Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties

Nvidia heeft een server aangekondigd die fotorealistische 3d-beelden genereert, en die vervolgens als afbeeldingen naar de client kan sturen. De fabrikant gaat de server en 3d-rendersoftware onder de noemer Reality-server leveren.

Het platform, Reality-server gedoopt, is volgens Nvidia vooral geschikt voor ontwerpers die een 3d-preview van hun ontwerp willen bekijken. Het bedrijf geeft als voorbeeld een webwinkel die mensen hun interieur laat inrichten en hier een 3d-weergave van wil aanbieden. Het realtime renderen van beelden lijkt echter niet tot de mogelijkheden te behoren. Het Fusion Render-platform waar concurrent AMD aan werkt, zou dat wel moeten kunnen.

Reality-server zou een fotorealistisch 3d-model binnen enkele seconden kunnen produceren, terwijl de rendering door clients in de meeste gevallen langer zou duren. Nvidia claimt dat zijn Reality-server bovendien tien keer sneller rendert dan bestaande serverclusters.

Het platform bestaat uit Tesla RS-servers van Nvidia waarop bestaande 3d-serversoftware draait van Mental Images, een dochter van Nvidia. De grafische berekeningen worden uitgevoerd door meerdere Tesla-gpu's, waarbij het aantal ingezette videochips afhangt van het aantal gelijktijdige gebruikers. Acht gpu's, het minimum waarmee een server kan worden geconfigureerd, zouden tien gelijktijdige gebruikers moeten kunnen bedienen; er kunnen er echter tot 100 in één server worden gebouwd. Elke Tesla-gpu heeft 240 cores aan boord. De 3d-modellen worden gemaakt door de iRay-software, eveneens ontwikkeld door Mental Images.

Hoewel Nvidia Reality-server in de markt zet als een 'cloud-dienst', gaat het zelf geen diensten aanbieden met het platform. Bedrijven die Reality-server willen gebruiken moeten zelf servers aanschaffen, of leunen op diensten van bedrijven die Reality-server als dienst aanbieden. Of Realityserver als dienst wordt aangeboden, en door welke bedrijven, is nog niet bekend. Het Reality-platform zal worden verkocht vanaf 30 november; vanaf dat moment is de 3d-serversoftware gratis te downloaden voor niet-commercieel gebruik.

Nvidia RealityserverNvidia RealityserverNvidia RealityserverNvidia RealityserverNvidia RealityserverNvidia Realityserver

Moderatie-faq Wijzig weergave

Reacties (49)

Een groot deel van deze screens is wat mij betreft nog niet fotorealistisch te noemen, maar komt dat omdat ik weet dat het niet echt is. Het ziet er wel erg goed uit.

Wel leuk als bijvoorbeeld IKEA dit zou implementeren in hun website, dan krijg je gelijk een goed idee of je inrichting een beetje werkt. Vooral de invloed van licht is met deze software goed te bepalen, althans zo lijkt het.
Je hebt gelijk hoor, ik zie dat het nep is, maar ik kan niet precies uitleggen waarom. Ik denk dat het licht te hard is, en de omgeving er 'te steriel' uit ziet. Er ontbreekt gewoon wat.
ik had precies hetzelfde, waarschijnlijk omdat ze te clinisch zijn.
De stoelen staan een beetje schuin en er liggen mappen in het "kantoor", echter de gebruikelijke pennen/schriftjes/blaadjes/kabeltjes/rommeltjes zie je er niet.
ook geen touwen aan de masten van de bootjes,
het ziet er heel mooi uit maar het ontbreken van dit soort zaken geven je hersenen toch het seintje van: "Hmm... iets klopt er hier niet..."
Het is voornamelijk de belichting die niet klopt.

Om een render echt realistisch te krijgen moet je radiosity gebruiken. Dat is het effect dat elke vlak dat verlicht wordt, ook weer licht weerkaatst en daarmee meespeelt aan het verlichten van andere objecten.

De effecten daarvan zijn subtiel, maar je hersenen zijn feilloos in staat om te detecteren dat die subtiele effecten missen.

Dit is een aardig voorbeeld hiervan:
http://en.wikipedia.org/wiki/File:Radiosity_Comparison.jpg
Komt van deze pagina: http://en.wikipedia.org/w...ty_(3D_computer_graphics)

Alleen zijn radiosity berekeningen gigantisch veeleisend.
De meeste mensen kennen het idee van raytracen wel. Je berekent het pad van een lichtstraal en manier waarop deze weerkaatst. Maar 1 straal blijft gewoon 1 straal.
Bij radiosity doe je hetzelfde. Maar als een enkele straal op een wand komt, dan weerkaatste deze in ALLE richtingen. Dus ipv 1 straal moet je na die weerkaatsting bv 36 stralen berekenen. En als die stralen weer tegen een wand kaatsten moet je 1296 stralen berekenen.
Je ziet dat die berekening gigantisch explodeert.
Daar is dan wel een flinke verbinding voor nodig?
Ik ben benieuwd wanneer we dit voor het eerst gaan zien
Waarom? Je zegt tegen de server wat je wilt en die geeft een figuur terug. Niet erger of je gaat een grote image op een pagina laden. Je kunt waarschijnlijk eerst ook de resolutie en compressie (jpeg/png/...) instellen waardoor je ook met kleine figuren en zelf gekozen formaat kan werken.

Lijkt me voor een 4Mbps ADSL lijntje zelfs geen zware taak.
Waarom? Je zegt tegen de server wat je wilt en die geeft een figuur terug. Niet erger of je gaat een grote image op een pagina laden.
Je zegt tegen de server wat je wilt hebben, inclusief belichting en alle modellen. Dat kan flink oplopen.
Nee hoor want je krijgt een plat plaatje terug. Wat voor opties jij erin zet zal dan weinig uitmaken

Of kan je ook het gehele bestand krijgen met alles in layers en dergelijke
Je moet toch eerst bijv 1GB aan textures uploaden. Maar waarschijnlijk neem je dan ook wel een hoop frames af. Zal wel een minimum aan zitten.
Ik denk dat het de bedoeling is dat alles al op de server staat. Dat bv IKEA en hele resem tafels en stoelen en lampen enz... op een server heeft staan en dat jij zegt, ik wil die tafel in die kleur op die plaats en voeg daar nu 4 stoelen in dezelfde kleur bij. Dan gebruikt de server de juiste objecten en maakt er een afbeelding van.

Er wordt toch een webwinkel als vb gebruikt. het zal wel niet de bedoeling zijn dat je je eigen stoelen en tafels gaat ontwerpen maar dat je kan kiezen uit hun assortiment. En dus leveren zij de textures aan.
Het prijskaartje zal wel heel hoog liggen. Relatief gezien niet natuurlijk maar dan nog is het een behoorlijke uitgave voor een bedrijf.

Ver vind ik de getoonde beelden verre van fotorealistisch.. Overigens heeft Vray realtime rendering laten zien op 1 enkele (simpele) videokaart van nvidia. Dat was gebaseerd op CUDA.

http://www.youtube.com/watch?v=4zVAR_l2w8k
Ik vind de bureauscene toch wel overtuigend. Laat dit zien aan een random persoon die niet weet dat het gerenderd is en hij heeft niets in het snotje.
google anders eens naar 3dmax vray dan zie je duidelijk een verschil tussen dit en vray!

dit valt voor mij snel op als je eens kijkt naar de stoelen.
http://www.youtube.com/watch?v=TQsXualxLVs
dit is toch erg snel hoor.

nou zijn dit idnerdaad 15 gpu's
dus snelheid delen door 15.

betekent een rendertijd van... anderhalve minuut msichien 5 op full hd?
dat is way sneller dan mijn i7

en als fermi doet wat het belooft is die minstens 2x zo snel.
(en wss sneller.)

dus dat is erg veelbelovend!
Grappig. Wordt tijd dat van die woon-tv-programma's hier ook eens gebruik van gaan maken. Je ziet altijd van die renders van interior designers etc. die hun voorstel voorleggen aan de mensen die meedoen met het programma, maar dat zijn echt renders uit het jaar 0 met enkel een directional light. Ik snap niet dat die lui niet inzien hoe belangrijk lichtinval is om een goed beeld te kunnen krijgen van hoe het er uiteindelijk uitziet. En 't is niet alsof de PC's van tegenwoordig er zo lang voor moeten doen om een béétje fatsoenlijk uitziend plaatje te krijgen (hell, real-time rendering technieken zijn vaak al mooier dan hetgeen ze laten zien)

[Reactie gewijzigd door .oisyn op 21 oktober 2009 15:49]

De ontwerper moet dan toch nog steeds het model maken? Als ik het goed begrijp stuur je een model naar de server en stuurt de server een mooi plaatje terug. Maar als je model niets voorstelt (zoals bij die woon-tv programma's) krijg je ook niet veel boeiends terug.
Het model is prima, ze hebben gewoon geen moeite genomen om er een global illumination pass overheen te halen. Wellicht is dat omdat ze het niet nodig vinden om te investeren in een render-farm. Met een dienst als dit wordt dat dus een enigszins slap excuus.
Idd.. daarom moeten die bedrijven tv eens bij mij langs zodat ze iets moois krijgen :Y)

Maar is dit niet 100x zo duur dan andere software web based 3d rendering? (jaja je krijgt een 10x mooier plaatje .. )

Maar.. aangezien de gene die dit host een server park van tesla gpu's moet aanschaffen.. en die zijn ook niet goedkoop..
Zou dit ook als renderserver voor Studio max kunnen werken?
Autodesk levert al een tijdje mental ray bij 3ds Max en werken ook met mental images synergistisch samen... 't zou me verbazen als er geen iRay plugin zou komen (al dan niet meegeleverd).
Zal wel niet bepaald energiezuinig zijn, maar lijkt me wel een nuttig systeem. Hier zal denk ik ook een aardig prijskaartje aan vast hangen, dus denk dat de meeste bedrijven zullen afhaken dan. Maar dat is natuurlijk afwachten.

[Reactie gewijzigd door Gamemaniak op 21 oktober 2009 15:47]

Ach, als het een cloud dienst is hoef je als gebruiker enkel te betalen voor de diensten die je afneemt. Als je weinig rendert betaal je dus niets en als je veel rendert meer maar hoef je geen servers aan te schaffen. Het prijskaartje, voor gebruik, zal dus wel mee kunnen vallen. Vraag is of iemand er brood in ziet om zo'n cloud dienst op te zetten.
Het prijskaartje is dan natuurlijk nog steeds afhankelijk van de prijs van de hardware, omdat de kosten gedeeld worden door een X aantal personen. Aan de andere kant wordt het aantal X weer beinvloed door het prijskaartje. Er zal dus uiteindelijk een balans moeten ontstaan met een bijbehorende prijs (marktwerking). Ik denk dat die prijs in het begin nog relatief hoog zal zijn en dan dit dus alleen geschikt is voor de grotere bedrijven. Na verloop van tijd zal dit (door technologische vooruitgang) natuurlijk kunnen veranderen.
Ziet er zeker nuttig uit, met name als rendering in real-time gebeurd zodat users direct feedback krijgen en on the fly aanpassingen kunnen doen. Het artikel geeft aan dat dit niet zo lijkt zijn:
Het realtime renderen van beelden lijkt echter niet tot de mogelijkheden te behoren.
De realityserver productpagina geeft echter wel aan dat (in ieder geval een deel) in real-time gerenderd wordt:
Realistic Rendering
iray® is the world’s first interactive and physically correct, photorealistic rendering solution. With iray, users can quickly create life-like images of their creations by using intuitive, real world approaches and interactively exploring their results through the processing power of the massively parallel CUDA™ architecture of NVIDIA GPUs to create images that show how lighting, texture and reflections change in real-time.
Dit is met name leuk voor architecten, woonboulevards etc. Die kunnen hun gebruikers dan razendsnel een impressie geven van hoe e.e.a. er gericht uit komt te zien.

[Reactie gewijzigd door Cheetah op 21 oktober 2009 17:19]

De rendertijd neemt dan wel af, maar een fotorealistich plaatje maken is echt niet zomaar gebeurt. Voordat je alle instellingen, textures en materiaal eigenschappen zo hebt dat het realistich is dan ben je wel een dag(en) bezig.

Die shit is echt niet zo simpel
Zuiniger dan hetzelfde werk laten doen door een veelvoud aan CPU's.
Of iedere designer een krachtige pc
Zoals ik het begrijp is dit niet voor de designer maar juist alleen voor het renderen
en dus heeft niet iedere designer een krachtige pc nodig ;)
Want een 3Dprogramma draaien met een P3 is wat elke designer graag doet :D
Dit is wel leuk en handig voor een snelle preview, en voor Max en CAD gebruikers die 3d beelden willen hebben.

Echter vind ik 3DMAX+VRAY er mooier en realistischer uitzien.
vraag me af waneer VRAY over de gpu kan renderen.. dan zou ik pas blij zijn..
je kunt een rendering farm instellen, kun je al je pc's in jou netwerk omgeving voor gebruiken! dan is het ook stukken sneller klaar! :D
Moet-ie wel toegang hebben tot die PCs natuurlijk :)

Er is wel vaker in de wereld van het renderen nagedacht om het renderen met GRID computing te laten doen.. dus iedereen met een kopietje van 3ds Max via een VPN aan een centrale backburner ofzo server hangen en dan maar mee-renderen aan scènes. Werkt in de praktijk echter niet zo makkelijk.. vooral als er bepaalde rechten op bronmateriaal enzo zit, want dan zou je eerst moeten zorgen dat iedereen die meedoet een NDA ondertekent enzo.
Koop je toch VRay RT?

Uiteindelijk zullen de 2 productlijnen wel samengevoegd worden, denk ik.
Met CUDA van nVidia kom je al een heel eind
Het is maar de vraag of CUDA wel zo ideaal is voor raytracing...
mwah.. ja-en-nee.

CUDA en OpenCL etc. zijn eigenlijk alleen methodes om de GPU min-of-meer te benaderen als ware het een CPU. Dus niet alleen maar polygonen op het scherm toveren, maar ook een wiskundige berekening erin pompen en dan het resultaat uitlezen.

Wat je je wel af kan vragen is of een GPU nou zo bijzonder geschikt is. Feit is wel dat een GPU veelal sneller allerlei grafisch-gerelateerde berekeningen kan (of kon - zie Larrabee, die veel instructies heeft toegevoegd) doen dan een CPU doordat die daar gewoon de instructie sets voor heeft.. dan denk ik aan geoptimaliseerde codepaden voor dot products, vector berekeningen, 3D en 4D transformaties, etc.

Toch zijn dat soort berekeningen maar een deel van het probleem bij raytracen. Een ander deel is bijvoorbeeld het (snel) kunnen berekenen van de doorkruising van een lijn (een ray) met een oppervlak. Een groot deel daarvan is dan weer het snel kunnen bepalen welke oppervlakken die lijn mogelijk zou kunne doorkruisen, zodat je niet 10 miljoen polygonen hoeft te checken, maar alléén die polygonen die zo'n beetje in het pad van die lijn liggen. Geen van beide zijn eigenlijk efficient aanwezig op een GPU. Vandaar ook speciale hardware oplossingen zoals die van Caustic Graphics, Progeniq en ARTvps.
Inderdaad die weerspiegeling in het parket van die lichtinval op de muren komt zo verkeerd over :s
Ben ik nu mis of zie ik daar de Lange Wapper waarvoor ik deze zondag ben gaan stemmen? :) (image 4)

Voor de nederlanders, de lange wapper is een groot nieuwsfeit in België betreffende mobiliteit in Antwerpen. http://nl.wikipedia.org/wiki/Lange_Wapperbrug

[Reactie gewijzigd door chaos.be op 21 oktober 2009 17:39]

ben je nu voor of tegen? :?
Maakt het uit? Ik wil geen politieke discussie starten maar zit meer met de vraag of dit hem werkelijk is? (maw, iemand heeft de lange wapper gerenderd met dit systeem :+ )
Hij is spijtig genoeg voor België tegen :p
dus sparen voor een snelle pc met meerdere cores is niet meer nodig, gaat de lol er wel een beetje af.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True