Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 37 reacties
Submitter: esse1972

Nvidia heeft het Duitse softwarebedrijf Mental Images overgenomen. De in Berlijn gevestigde onderneming is onder andere verantwoordelijk voor de rendering-engine 'Mental Ray'.

Mental ImagesMental Images is volledig eigendom van nVidia, maar zal wel onder eigen vlag en management verder gaan. Zo blijft oprichter Rolf Herken ceo en cto en blijft het hoofdkwartier van het bedrijf gesitueerd in Berlijn. Welk bedrag nVidia op tafel heeft gelegd voor de software-ontwikkelaar is niet bekend.

Het belangrijkste product van Mental Images is Mental Ray, de renderingtechnologie die onder andere gebruikt wordt in AutoCAD, 3ds Max, Dassault Systems Catia en Avid Softimage. Het bedrijf mag animatiestudio's als DreamWorks Animation, Lucasfilm en Sony Pictures Imageworks tot zijn klanten rekenen. Nvidia heeft zelf al een aantal softwareproducten op renderinggebied: Gelato, Amaretto en Sorbetto. Door de overname van marktleider Mental Images verkrijgt het bedrijf in een klap een centrale plek op de markt voor high-endrenderingproducten.

Mental Images gallery divine
Moderatie-faq Wijzig weergave

Reacties (37)

Mental Images is achter de schermen al geruime tijd bezig met hardware assisted rendering. Hardware assisted rendering wordt binnen de CG industry duidelijk als de toekomst gezien. Eenvoudig voorgesteld worden delen van het renderproces die efficienter op een GPU draaien daarop afgesplitst. Verder is minstens een van de MI developers een ex-Nvidia developer, dus beide partijen kennen elkaar goed en hebben voor elkaar aanvullende technology en kennis in huis.
Ze zitten al erg lang in die markt hoor. Kijk maar naar hun Quadro FX range van kaarten.

http://www.nvidia.com/page/quadrofx.html
Het renderen van dingen via mentalray is compleet iets anders dan waar de Quadro kaarten voor geschikt zijn. Die kaarten zijn vooral geschikt voor het werken in 3D max en autocad... Het renderen van het resultaat (afbeeldingen, filmpjes.) kan nog steeds enkele uren tot dagen tot langer in beslag nemen. En dat gebeurd via de cpu, en niet op de gpu :)
1. Wilde eigenlijk reageren op qurmo:

"Of moeten we nu "schrik" beginnnen krijgen dat Nvidia zijn pijlen op een andere markt richt?"

De quadro fx reeks is gericht naar de professionele CAD en 3D markt, dus het is geen andere markt, het is dezelfde markt als vroeger (renderen is ook een groot onderdeel van 3D toch...)

2. Refererende naar jouw opmerking

"Het renderen van dingen via mentalray is compleet iets anders dan waar de Quadro kaarten voor geschikt zijn.":

Via Gelato kan je renderen met je quadro fx kaart. Ze worden dus al wel gebruikt voor rendering, alleen dan niet met Mental Ray. Het zou me niets verbazen moesten ze mental ray integreren in gelato of gelato stilaan vervangen door het veel populairdere mental ray.

[Reactie gewijzigd door loopy29292929 op 18 december 2007 14:40]

En juist daarom is het een interessante stap van Nvidia. Als ze hardware gaan maken die kan gaan helpen bij het renderen met MR, dan zal dat hoogstwaarschijnlijk alleen in de Quadro range gaan worden geimplementeerd. Je ziet nu dat door de prijsverschillen tussen een 8800 en een high-end Quadro kaart de quadro's aan aantrekkelijkheid verliezen, vooral voor applicaties die geen OpenGL gebruiken (lees Max)
Als een nieuwe lijn quadro's MR rendering versnellen dan heb je daar ineens een USP waar de professionele markt wel gevoelig voor is en dus weer de meerprijs van de quadros gerechtvaardigd ziet.
Wow, had ik zeker niet verwacht, is eigelijk wel een beetje raar dat nvidia software opkoopt.
Wel is het zo dat Mental Ray heel goed is, en heel mooie resultaten geeft.
Ik ben geen expert, maar zou het niet zijn om hun rendering engine (voor een deel) in te bouwen in de drivers?
Zoals hierboven al wordt gesuggereerd kan de cpu een deel van het rekenwerk aan de gpu uit (gaan) besteden. Mental Ray is namelijk een Ray Tracer (What's in the name?) wat betekend dat er (ontiegelijk) veel matrix berekeningen worden gedaan, welke erg goed paraleliseerbaar zijn.

Ik weet jammerlijk genoeg niet veel van al die streamprocessors af, maar als je het via de drivers/firmware voor elkaar kan krijgen dat die allemaal parallel van elkaar de matrix berekeningen uitvoeren zou je deze animaties misschien zelfs wel realtime kunnen renderen. Dit een erg optimistische beeld, toch ik durf er wel een paar handjes voor het vuur te steken. (maar niet voor al te lange tijd ;))


@PrisonerOfPain

Ikzelf zie vectoren als een 1 dimensionale matrix, alhoewel het rekenen met 1d matrices natuurlijk makkelijker is dan met een xd matrices. Maar dan nog blijft de vraag staan of de streamprocessors hier mee om kunnen gaan. (ik hoop stiekum van wel)

[Reactie gewijzigd door Electrowolf op 18 december 2007 16:34]

Matrix berekeningen zijn anders vrij zeldzaam in een raytracer, waar je op doelt zijn waarschijnlijk de vector berekeningen welke enorm goed te parallelliseren zijn. Matrices zijn hebben over het algemeen 3 of 4 vector registers nodig en zijn (dus) minder geschikt.

Matrices worden vooral gebruikt bij verschillende transformaties en rotaties welke je in een statische raytraced scene eigenlijk niet tegen komt. Daar staat tegenover dat je bij het raytracen uit gaat van de ray (welke er een of meerdere, voor anti-aliassing, per pixel zijn). Een ray word opgesteld door middel van de vergelijking R = o + td. Waarbij R de uiteindelijke ray is, o de oorsprong van de ray, d de richting en t de afstand.

Wat een raytracer in grondbeginsel doet is t uitrekenen om de ray-equation op te lossen. o En d worden gegeven, o is tijdens de eerste fase van het trace proces gelijk aan de camera oorspong en d is de richting naar de pixel op je view-plane (een virtueel scherm recht voor de camera dat je scherm voor moet stellen, uiteindelijk word je view-plane op het echte scherm geprojecteerd).

Voor iedere volgende fase is o van de nieuwe ray in de meeste gevallen gelijk aan de oplossing van de ray-equation van de vorige ray en kan d uitgerekend worden door verschillende reflectie of refractie (het breken van licht in een transparante stof zoals glas of water) formules los te laten op de vorige ray. Dit herhaald zicht tot er aan een bepaalde voorwaarde voldaan is en er niet verder getraced hoeft te worden.

Omdat iedere ray eigenlijk compleet onafhankelijk is van andere rays is dit proces uitermate geschikt om parallel uit te voeren; zo kun je er bijvoorbeeld voor kiezen om een scanline (een horizontale rij pixels) of een tile (een vierkant van pixels) in een aparte thread of zelfs op een aparte machine te tracen. Ook kunnen de vector berekeningen nog door SIMD parallel uitgevoerd worden. De voornaamste reden dat dit (nog) niet haalbaar is op een videokaart is de enorme hoeveelheid aan data die tussen de CPU en de videokaart op en neer moet gaan.

[Reactie gewijzigd door PrisonerOfPain op 18 december 2007 16:36]

Voor matrices gelden andere rekenregels als voor vectoren er zijn andere operaties gedefinieerd, voor matrices is er bijvoorbeeld maar een vermenigvuldiging-operator, terwijl een vector beschikt over een in en uitwendig product, nou kun je die wel definiŽren maar dat schept alleen verwarring. Over het algemeen worden namelijk 3D vectoren en 3x3 matrices gebruikt. Ook worden 4D vectoren waarvan het laatste element over het algemeen 1 is in combinatie met 4x4 matrices gebruikt voor het combineren van verschillende transformaties (ook Affine transformaties genoemd). 4D vectoren worden ook nog gebruikt als Quaternions voor rotaties om een arbitraire as, maar dat is verder niet relevant.

SIMD-, of streamprocessors kunnen over het algemeen prima overweg met met vectoren en matrices van die formaten omdat de registers (op een x86) precies 4 floats op kunnen slaan. Maar door de beperkte hoeveelheid registers (8 op een x86 met SSE2) zijn matrices minder populair. Die gebruiken namelijk gemiddeld 4 registers waardoor er niet heel veel meer over blijft. Projecten als Arauna (een realtime raytracer) maken hier dankbaar gebruik van. Er is ook onderzoek gedaan naar raytracen op de huidige generatie GPU's, maar ondanks dat die theoretisch sneller zouden moeten zijn door hun floating point performance blijven ze steken op data overdracht.
Er zijn onderzoekers bezig om Quake raytraced te renderen. Alleen vraagt dat momenteel nog veel te veel cpu-kracht om speelbaar resultaat op normale resoluties te krijgen. Met deze combinatie van bedrijven kan raytraced graphics in games een enorme spurt vooruit krijgen!
Dat zou wel een mooi iets zijn natuurlijk, zeker als we hierdoor weer leukere graphics weten te halen uit de huidige en toekomstige kaarten :)

Daarnaast zie ik ook voordelen voor de quadro kaartjes van Nvidia, die kunnen nu beter worden geoptimaliseerd om met de genoemde softwarepakketten te werken, waardoor je met een highend videokaart helemaal een leuke performance kunt halen bij het 3d renderen.
Normaliter wordt de videokaart totaal niet gebruikt bij het renderen. Dit is puur cpu werk. Dus dat beter kun je weglaten, het moet er eerst nog in :)
Misschien werken ze aan drivers om de GPU mee te laten helpen?
(ik denk even terug aan het artikel over passwords te laten kraken met de hulp van een GPU wat dan slechts 5 dagen duurde, en met enkel een CPU 2 maanden)
http://pro.tweakers.net/n...-keer-sneller-kraken.html

[Reactie gewijzigd door Malantur op 18 december 2007 13:35]

Dat hebben ze al gedaan; Nvidia's Gelato kan gebruikt worden om scenes in 3D Studio MAX uit te renderen met behulp van je GPU, waardoor sommige scenes wel tot 70% sneller gerenderd kunnen worden. Echter heeft Gelato ten opzichte van Mental Ray (dat tot nu toe puur op CPU gaat) veel minder geavanceerde en realistische materialen en rendering methodes.

Ik weet niet wat Nvidia met deze software wil gaan doen; misschien een vervanger maken voor Gelato, dat zou waanzinnig zijn.

Overigens gaat dit niets uitmaken voor games of andere beeldprestaties, zoals hierboven volgens mij hier en daar gesuggereerd word.
Daar heeft nVidia al een paar jaar de Gelato software voor, die zet wel de GPU in voor rendering. :)
cuda is er al een tijd om gpu versnelt te renderen, ik gebruik het icm 3d max (hobbymatig)

het scheelt wel wat maar de resultaten zijn niet te vergelijken met final render en mental ray voor fotorealisme. licht, weerkaatsing, refractie enz zijn veel meer doorontwikkelt in mental ray enz. ik denk dat nvidia hiermee simpel een groot deel van de markt wil veroveren en mental ray kwaliteit rendering koppelen met hun relatief goedkope gpu supercomputers en enkele kaarten en sli setups voor testrenders. Voor poductiehuizen dan een heel interessante keuze.
info over cuda, de gpu systemen is allemaal op de site van nvidia terug te vinden.

denk hierbij nog niet aan realtime gerenderde beelden, het duurt nog wel even voor je zulk detail met 20+ frames per seconde kan renderen.
zoek voor de lol eens de rendertijden gemiddeld per cgi frame op van enkele films :)
tenzij ze als GPGPU wordt ingezet en de rekenkracht van de honderden stream-processors ook kan worden aangewend
Ze kopen het bedrijf... Niet de software zeg maar :) Dus zo heel raar is het ook niet.
Misschien kunnen ze nu GPGPU-computing intergreren in mentalray. Dit zou voor een snelheidsverbetering kunnen zorgen.
Wel kopen ze de IPR's van de software en het recht om deze te optimaliseren voor Nvidia. Hopelijk gaan ze een manier zoeken om bij het renderen ook gebruik te maken van de videokaart.
Die is er al volgens mij, ook van NVidia, de software daarvoor heet gelato dacht ik en werkt ook samen met 3d studio max..
en maya en meeste andere grote packages.
alleen mental ry in combinatie met gu zou ongelofelijk sick zijn. ati zal echter wel de pineut zijn. :(
Helemaal mee eens!
Als Mental Ray geoptimaliseerd wordt voor gebruik in combinatie met nVidia GPU's, dan zijn er in 1 klap erg veel programma's die sneller zullen gaan werken als er een nVidia-kaartje in zit. Reken maar dat dit positieve invloed heeft op de verkoop van hun grafische kaarten!
Zowel AMD/ATI als Intel vissen daarmee achter het net, want deze zullen niet makkelijk (meer) een samenwerkingsverband krijgen met dit bedrijfje.
Dat is helemaal niet raar. De trend is om steeds meer dingen in hardware te doen. Het is echter wel van belang dat men weet hoe dat gedaan moet worden. En precies daar heeft Mental Ray een flinke voorsprong (ook al doen zijn voornamelijk in software).

Met een beetje geluk zien we over een paar jaar weer dingen realtime in onze GPU's terug, die nu nog uren CPU kracht innemen, zoals bijvoorbeeld het bovenstaande plaatje.

Mental Ray gaat ondertussen rustig door met hun eigen software om weer een stap verder te komen :)

[Reactie gewijzigd door voodooless op 18 december 2007 13:27]

Is toch niet zo bizar hoor. Dit betekent dat ze alles kunnen inkijken om bijvoorbeeld hun eigen drivers voor grafische kaarten beter te maken.

Zeggen dat je de snelste bent in benchmarks is veel waard.
Hoewel er zeker kennis van deze technologie gebruikt kan worden om de drivers verder te optimaliseren, kunnen toekomstige versies van Mental Ray ook geoptimaliseerd worden voor het gebruik van videokaarten, en in het speciaal Nvidia-kaarten natuurlijk. ;)

Zo kunnen ze zeggen dat hun kaarten het snelst werken, omdat het programma veel beter werkt op hun kaarten dan die van de concurrentie.
Oeh, als ze Gelato (GPU based renderer, erg snel) weten te combineren met MentalRay, dat zou echt geweldig zijn!
En andersom kunnen ze geavanceerde belichtingstechnieken van MentalRay wellicht doorvoeren naar games (global/inidirect illumination, sub surface scattering (voor realistische huid))
Ik moet sowieso zeggen dat hiermee NVidia's macht in de entertainmentindustrie enorm word vergroot (en hij was al zo groot).

De combinatie van Nvidia's eigen grafische software en hardware gecombineerrd met die van Mental Images zal en verbetering geven in de grafische industrie. Wellicht kan deze technologie gecombineerd worden met de physicskaart wat gisteren hier bij tweakers stond op een enkele kaart in combinatie met een nieuwe GPU waardoor een nieuwe grafische revolutie word ontketend.

Zeker is dat NVidia verlopig nog niet zal vallen.
Leuke zet van NVidia, gaat/kan dit ook voordelen bieden naar hun grafische kaarten? Ik ben hier echt niet in thuis in die dingen. Of moeten we nu "schrik" beginnnen krijgen dat Nvidia zijn pijlen op een andere markt richt?
Leuke zet van NVidia, gaat/kan dit ook voordelen bieden naar hun grafische kaarten? Ik ben hier echt niet in thuis in die dingen. Of moeten we nu "schrik" beginnnen krijgen dat Nvidia zijn pijlen op een andere markt richt?
Nvidia gaat zich echt niet ineens op een andere markt richten en de huidige markt verlaten. Ze zijn marktleider op het gebied van 3d videokaarten en daar verdienen ze genoeg geld mee.

Het is voor een bedrijf echter niet ondenkbaar dat ze naast hun huidige activiteiten ook met andere dingen beginnen.
Nvidia richt zich toch al op professioneel renderen met de Quadro serie? Dit is een mooie stap om de Quadro in dit marktsegment nog verder te pushen. Voor consumenten zal het weinig tot geen effect hebben behalve misschien mooiere filmpjes.
Ik denk dat je "filmpjes" kan vervangen door "spellen" (op de lange termijn)
dit betekent dus voor alle 3d software gebruiukers een Nvidia-kaartje....hele slimme zet van die gasten.

want de bestlopende pakketten zijn maya,3d max en softimage....
bye bye zwaai zwaai ati-kaartjes voor 3ds-max
ps mental ray maakt tegenwoordig ook goed gebruik van opengl hoor.
linkje? Ik heb daar namelijk nog nooit van gehoord (de combinatie van die twee).
Dit is een hele slime zet van Nvidia, met de menal ray engine domineren ze in een keer de markt. Ze kunnen op deze manier genoeg tegengas geven voor DirectX, en op deze manier een eigen platform maken voor 3d rendering technieken.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True