Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties

Het Amerikaanse bedrijf Caustic Graphics claimt dat het raytracing met een factor tweehonderd kan versnellen. Daarvoor heeft het jonge bedrijf een grafische versnellerkaart ontwikkeld die met OpenGL-extensies wordt bediend.

CausticOne-kaartCaustic Graphics, dat is opgericht door een aantal voormalig Apple-medewerkers, heeft de CausticOne-kaart ontwikkeld om het afhandelen van raytracing-opdrachten grotendeels van de cpu over te nemen. De versnellerkaart zou het raytrace-proces - waarbij de weergave van een 3d-omgeving wordt berekend aan de hand van zaken als lichtinval en kijkhoek - met een factor twintig kunnen versnellen. De winst wordt behaald door de benodigde berekeningen efficiënter naar de beschikbare cpu's en gpu's te sturen. Daarvoor heeft Caustic naar eigen zeggen verbeterde raytracing-algoritmen ontwikkeld en deze ondergebracht in een speciale grafische co-processor op de kaart, die nog dit jaar op de markt moet komen. Begin 2010 verwacht het bedrijf met een tweedegeneratie-acceleratorkaart de rendersnelheid zelfs met een factor tweehonderd te kunnen verhogen, wat onder bepaalde omstandigheden betekent dat raytracing-beelden realtime gerenderd kunnen worden.

Om zijn nieuwe raytracing-platform geaccepteerd te krijgen, moet Caustic Graphics proberen om in korte tijd belangrijke spelers uit de game- en 3d-wereld achter zijn CausticRT-platform te krijgen. Daarvoor heeft het bedrijf onder andere de CausticGL-api ontwikkeld, die op OpenGL ES 2.0 is gebaseerd. De api moet ontwikkelaars onder andere in staat stellen om de hardware direct vanuit games aan te spreken. Toch zal het voor de startup nog een hele toer worden om juist deze markt voor zich te winnen, aangezien de belichting in veel spellen pas bij de vertaalslag naar 2d-beelden wordt toegevoegd. Bovendien werd bijvoorbeeld de PhysX-technologie, die in eerste instantie eveneens aparte hardware vereiste, pas succesvol toen Nvidia ontwikkelaar Ageia overnam en de physics-code vertaalde naar gpu-instructies. Overigens is deze fabrikant met de overname van de firma Raytracing ook actief in dit vakgebied.

CausticRT-platform

Moderatie-faq Wijzig weergave

Reacties (50)

Ik snap de meerwaarde van realtime raytracing nog niet echt. Het is misschien natuurkundig gezien een accurater op de werkelijkheid aansluitend model, maar voor ons oog (en hersenen) zijn simpeler te berekenen "truukjes" of "omwegen" (in de vorm van diverse shaders) vaak veel overtuigender. Kijk bijvoorbeeld naar het zogenaamd mooie Quake Wars RT (hierboven gelinked)

Technisch is het misschien knap dat het water alles precies reflecteert/refracteert, maar als je het water op de screenshot vergelijkt met water uit een andere willekeurige game (zonder RT) dan vind ik het water er zeer onovertuigend uit zien. En dan de schaduwen. Een Unreal 3 engine doet al aan schaduw vervaging/verzwakking op afstand. In QW:RT zijn alle schaduwen haarscherp, en kun je zelfs in het donkere silhouet alle polygonen nog tellen. Is dat mooi of sfeervol? Is dat wat je in een game wilt bereiken? Lijkt me niet. Dit ligt hem natuurlijk in het feit dat een wiskundig accurate benadering van de werkelijkheid pas echt overtuigend wordt zodra deze de complexiteit van de werkelijkheid ook werkelijk evenaart. Zolang dat nog niet mogelijk is, kun je beter een "impressie" van de werkelijkheid geven. Ik heb liever dat game designers "vals spelen", en visueel overtuigendere effecten bereiken in veel simpeler te berekenen scenes.
[dit verhaal geldt ook voor johnbetonschaar een paar posts naar beneden]

Je doet nu net alsof het "valsspelen" niet meer mogelijk is met raytracen. Begrijp me niet verkeerd, ik ben het er helemaal mee eens dat het vooralsnog voornamelijk een aardige gimmick is, want ook raytracing is geen heilige graal en rasterization zal altijd simpelweg veel sneller zijn. Het punt is echter wel dat je alle effecten die je nu toe kunt passen met rasterization ook best kunt toepassen met raytracing. Je kunt er idd voor kiezen om de schaduwen echt te tracen, maar voor hetzelfde geld render je gewoon een shadowmap op de traditionele manier die je als texture op de polygonen plakt. Het mooie van raytracing is dat je de keuze hebt. Als je wilt, kun je wel gewoon realistische reflectie en refractie doen, of subsurface scattering, of volumetric fog. Met rasterization daarentegen moet je wel "valsspelen", omdat er gewoon geen andere manier is.

[Reactie gewijzigd door .oisyn op 12 maart 2009 00:58]

Het lijkt mij veel verstandiger dit met huidige kaarten te integreren in plaats van een wildgroei te maken een allerlei extensie kaarten, zoals de Ageia PhysX, welke ook al niet zo'n daverend succes is.
Dit intregeren op een huidige graka PCB zal moeilijk worden. Maar ik blijf het zeggen, met de huidige verandering van de hardware word het gewoon eens tijd dat de formfactor van de hardware op de schop gaat en dat men met ontwerpen gaat komen, MoBo/geheugen/graka zodat er in de kast weer ruimte komt voor all in one ontwerpen en betere koeling. Als ik nu al zie dat er bijna 1kg koelingen letterlijk hangen aan een MoBo dan komt er toch steeds meer een plafond aan.

En gra'ka's zijn ook steeds meer toe aan dubbelzijdige koeling maar daar is met de huidige formfactor gewoon geen ruimte voor. Begrijp dan ook niet dat ze er nog steeds aan de huidige formfactor blijven hangen, die had 2 jaar geleden al op de schop gemogen :)
misschien is waterkoeling dan een oplossing :P dan heb je dat 4x pci-e slot teminste wel vrij. misschien wordt waterkoeling in de toekomst nog wel ooit mainstream. Teminste als er geen rek meer zit in conventionele fan koelingen. maar een graphische Co-processor ja dat zullen we in de toekomst wel meer gaan zien. vooral zodra de IGP in de CPU zit dan verwacht ik dat je gerust een hele zware videokaart kunt hebben die uitgeschakeld kan worden zodra je systeem in idle gaat. eigenlijk zou zo iets nu al kunnen als met de IGP en de uitgang van de videokaart met een soort crossfire bridge aan elkaar zou koppelen zodat het beeld signaal niet meer berekent hoeft te worden door de kaart en de gpu uitgezet kan worden.
Wel Intel had een initiatief met de BTX formfactor, maar dat is een vroege dood gestorven.
Maar ja, eigenlijk de enige reden daarvoor was dat de CPU te heet werd en door het BTX formaat kwam de CPU aan de voorkant van de behuizing, zodat er direct koelere buitenlucht over de CPU gezogen/geblazen kon worden. Voor de rest van de PC maakt het niets uit (en was het eigenlijk slechter omdat de hete lucht van de CPU over een grotere afstand aan de binnenkant van de kast verplaatst moest worden.
Vroege dood gestorven?? Nee hoor...

We hebben hier nu splinternieuwe Dell Optiplex machines staan, die keurig volgens het BTX principe gebouwd zijn... Dus mainboard aan de andere kant, koeltunnel in het midden... Ook de XPS desktop machines zijn volgens BTX formfactor gebouwd. Ik heb zelf een XPS 420 volgens dat format.

Dell maakt nu in ieder geval voor de Optiplex lijn al minstens 4 jaar BTX machines. Tenminste, zolang hebben wij nu hier de bewuste typen in gebruik.

(Optiplex GX620, Optiplex 744, 745 en 360)
Zoek eens een BTX moederbord op dan dat nu te koop is, please... |:(
Dit soort kaarten is voorlopig nog niet bedoeld voor de consument, maar meer voor bedrijven die hun geld verdienen met het maken van 3Dmodellen en animaties. Denk aan pixar en consoorten.
Het lijkt me wel een beetje raar als ze voor Pixar en consoorten zo'n klein kaartje gaan maken zoals die op het plaatje wordt vertoond.

Rendering bij Pixar en consoorten gebeurt gewoon in een Render Farm met misschien wel een oppervlakte van een flink kantoor of een voetbalveld. Wat hebben ze dan in godsnaam aan zo'n kaartje als dit?

Dit product wordt gewoon voor de consument ontwikkelt. Precies zoals .oisyn zegt.
Als je het render process 20-200 keer kan versnellen dan heb je ineens 20-200 minder computers in je renderfarm nodig. Dus dat is zeker wel interesant.

De vraag is natuurlijk of deze kaart goed genoeg programeerbaar is voor bedrijven zoals Pixar.

Met andere woorden, kun je de code die zo momenteel hebben in de kaart stoppen...


PS: Pixars render farm : http://www.flickr.com/pho.../85940484/in/photostream/
Of het is (relatief) 10-150 keer sneller gedaan met rekenen (enkele weken ipv. enkele maanden).

Maar inderdaad momenteel koopt enkel de extreme gamer dit soort kaarten maar vooral bedrijven en researchers die ermee aan de slag willen.

Wij hebben onlangs ook geinvesteerd in een (dure) NVidia kaart enkel maar om met CUDA te kunnen experimenteren. Als de Ageia of deze kaart bepaalde berekeningen enorm snel zou kunnen implementeren (al dan niet los van raytracing) en ze maken een degelijke API en evt. plugins voor andere berekeningsprogramma's (zoals MATLAB of Mathematica) dan zie ik het toch wel mogelijk dat andere toepassingen bedacht zouden worden.

Daarnaast zijn sommige van die bedrijven tot stand gekomen dankzij grote fabrikanten (zoals Intel of NVidia) die een minderheidsaandeel in deze bedrijven hebben. Kleine bedrijven zijn enorm efficient in het bedenken van nieuwe toepassingen en creeren van goede producten. Grote bedrijven zijn nogal sloom en hebben de neiging de de nieuwste chips uit hun lab direct te willen inzetten zonder er goed over na te denken of de markt uit te voelen. Eenmaal zulk klein bedrijf een degelijk product heeft en de markt wil zulke producten dan nemen ze het bedrijf over en implementeren ze het in hun eigen producten. Als het product echter mislukt, dan heeft het 'grote' bedrijf geen schade (financieel, product of imago) onderleden.
Euh nee. Deze kaart is nou weer juist wÚl bedoeld voor de consument. Heb je het artikel gelezen? En het diagrammetje? In beide staat toch vrij prominent het woord gaming.

Voor offline rendering (CGI) is deze kaart alleen interessant als hij alle features bevat die momenteel in traditionele offline raytracing te doen zijn, waarbij image quality een stuk belangrijker is dan snelheid. Echter, het doel van deze kaart is nou juist voornamelijk real-time snelheden halen. Daar geven CGI grafici echt niet om, die kunnen simpelweg wat extra machines aan hun renderfarm toevoegen als ze vinden dat het te lang duurt.
Er zijn genoeg professionele toepassingen te bedenken voor realtime raytracing.
Men zal zich in de eerste instantie voor een groot gedeelte richten op de gaming cultuur omdat het gewoon het meeste potentie heeft om veel geld te verdienen en makkelijk een standaard geaccepteerd te krijgen.
Ik denk niet dat ze zich zullen beperken tot gaming.

Overigens zou het inderdaad wel makkelijker zijn als dit ge´ntegreerd zou worden in bestaande GPU versnellerkaarten of software, maar het feit is dat het nu gewoon nog niet mogelijk is om goed realtime raytracing voor elkaar te krijgen hiermee.
Dit bedrijf lijkt dus potentie te hebben.

[Reactie gewijzigd door fevenhuis op 12 maart 2009 08:29]

Het lijkt mij veel verstandiger dit met huidige kaarten te integreren in plaats van een wildgroei te maken een allerlei extensie kaarten, zoals de Ageia PhysX, welke ook al niet zo'n daverend succes is.
Dat was exact mijn eerste gedachte.
Het lijkt me niet onwaarschijnlijk dat "of" ATI, of NVIDIA de rechten, of gewoon meteen het hele bedrijf zal overnemen binnen niet al te lange tijd, en simpelweg die techniek in de volgende generatie kaarten zal implementeren.

Is ook wel zo logisch, want een gemiddelde consument zit niet te wachten op allerlij extra kaarten.
Sterker nog, NVidia gaat in de loop van dit jaar een raytracing API, genaamd NVIRT, uitbrengen voor hun huidige hardware (gebaseerd op CUDA). Hier claimen ze ook speedups van 100x en meer ten opzichte van CPU. Dit presenteerden ze op het I3D symposium in Boston.
Deze kaart is al achterhaald voordat hij klaar is vrees ik.

[Reactie gewijzigd door wumpus op 12 maart 2009 01:08]

Intel die al jaren roept dat raytracing de toekomst heeft en dat de huidige technieken van Nvidia en AMD toch echt niet veel veder kunnen schalen lijkt dan toch echt gelijk te gaan krijgen. Het zou me dan ook niets verbazen als zij binnen een jaar of anderhalf dit bedrijfje op kopen en de techniek gaan toepassen voor een nieuwe poging de grafische markt en zeker voor de zeer luceratieve games/profi markt.
Als het namelijk echt lukt en de API simpel genoeg is voor developers om te gebruiken dan kunnen graphics nog heel erg veel mooier worden, en zullen effecten veel correcter en natuur getrouw worden weer gegeven.

Natuurlijk op dit moment zijn het nog claims en een hardware kaart die kleine versnelling levert in vehouding tot de claims. Maar als het waar is en de versnelling met een factor 200 blijkt echt te kunnen dan is het op eens een heel erg interesant bedrijfje om in handen te krijgen voor eigenlijk iedere GPU/CPU maker de maker voor natuur getrouwe 3D beelden zal in de alleen maar groter worden en als resultat daar van dus ook technologien die het produceeren van deze beelden kunnen versnellen.
Tenzij ze echt heel erg slimme algorithmen hebben gebruikt die bij anderen onbekend zijn of dat de hardware significant verschilt van andere hardware die geoptimaliseerd is voor parallelle berekeningen (denk voornamelijk aan grafische kaarten), denk ik dat OpenCL hiervoor een heel geschikt platform zou kunnen zijn en dat CausticGL het daardoor erg moeilijk krijgt.

Immers: OpenCL draait op een groot aantal platformen (zowel gpu's als cpu's, als andere hardware die bedoelt is voor parallelle berekeningen), daarnaast is het een open standaard die iedereen mag gebruiken en veel gemakkelijker geaccepteerd zal worden omdat alle grote bedrijven erachter staan.

Zelfs als ze echt een doorbraak hebben gemaakt met behulp van bepaalde algoritmen, lijkt het mij dat diezelfde algorithmen ook in OpenCL te implementeren zullen zijn.
Als je op hun site kijkt lijkt hun edge voornamelijk te komen uit memory bandwidth en hun manier om alle parallelle taken optimaal samen te laten lopen.
oeww z'n kaart zou ik zeker aanschaffen.....Vooral binnen 3d apps (3dmax en Maya) zie ik hier een mooie 'upgrade'
Omdat je dan sneller de uiteindelijke image / animatie kan renderen in een waarschijnlijk inferieure kwaliteit vergeleken met de traditionele software raytracer die vooral gemaakt is om een mooi plaatje te maken en niet om snel te zijn? Ik bedoel, voor de viewports kun je beter de huidige rasterizer-kaarten gebruiken, die zijn daar veel en veel sneller in.

[Reactie gewijzigd door .oisyn op 11 maart 2009 22:45]

joy, quake raytraced voor iedereen!

kijk eens hier
nou, voor "iedereen" zou ik nog maar even wachten, als ik zo al naar de specs kijk wat je nodig hebt om een beetje quakewars raytraced enigszins zinnig wilt draaien, mag de gemiddelde gamer zijn jaarsalaris gelijk op tafel zetten...

[1]
The demo showed at Research@Intel day 2008 runs at approximately 15 - 20 fps at 1280x720 on a Caneland system that has four Tigerton quad-cores in it (total: 16 cores), clocked at 2.93 GHz.


[2]
The enhanced demo showed at the Intel Developer Forum in August 2008 runs at approximately 20 - 35 fps at 1280x720 on a Caneland system that has four Dunnington six-cores in it (total: 24 cores), clocked at 2.66 GHz. Adding 8 more cores compared to the previous demo system increased the frame rate almost linearly.

[Reactie gewijzigd door PhunkOne op 12 maart 2009 08:33]

En ondanks dat alles ziet de video er niet beter uit, dan wat huidige spellen met midrange systemen nu al kunnen.

harde schaduwen op een beperkt aantal objecten, zoals in deze videos te zien is, is tegenwoordig doodnormaal in spellen.

Sterker nog, tegenwoordig beseft iedereen dat de harde schaduwen van raytracers eigenlijk helemaal niet mooi en/of realistisch zijn, en dat je zachte schaduwen wilt.

Als je dat via raytracing wilt doen, storten je prestaties wederom totaal in.


Wat mensen ook niet beseffen is dat de term raytracing vrijwel niets zegt.
Het gaat er om hoeveel reflecties en refracties je meeneemt bij je raytracing. Hoeveel rays je berekent. En om echt realistische resultaten te krijgen moet je diffusse reflecties gaan berekenen en dan loopt de zaak echt totaal uit de klauw.
Factor 20 of 200?
Ik zie beiden terug komen, maar welke is nou leidend?
Raytracing nu 20 of "ooit" 200? Beetje rare aanname

[Reactie gewijzigd door JoohanDePoohan op 11 maart 2009 17:42]

eerst komen de kaarten uit met factor *20,
later (begin 2010) verwacht men een 2e generatie te kunnen publiceren die factor *200 kan halen...

Hiermee is dit weeral commerce omdat men eerst de 20 uitgeeft en als die niet doorbreekt dan komt (waarschijnlijk) ook de factor 200 niet op de markt...
Of misschien omdat de markt nog niet klaar is voor die factor 200 kaarten ? Stel je even de productieprijs voor, en de hoogstwaarschijnlijk lage afname

Dan zou ik ook nog even wachten, om concurrentie tussen je eigen kaarten te vermijden.
die 20 is met de huidige kaart, de 200 zou gehaald kunnen worden met een tweede generatie.
Weer een add-on kaart waar het succes maar een grote vraag blijft. PhysX is bij mijn weten ook nooit echt van de grond gekomen (ken maar 1 game die het had), was bijzonder prijzig en prestatie winst was er niet, enkel wat meer eyecandy.

Kwestie van tijd dat dit gewoon weer wordt gedaan via de GPU, met enkel mischien een efficient API principe.

Het principe lijkt dus simpel, de API stuurt gewoon de data naar beschikbare CPU/GPU's, die op dat moment niets of weinig doen? Werkt de Cell processor van de PS3 niet ook zo?
PhysX is bij mijn weten ook nooit echt van de grond gekomen (ken maar 1 game die het had)
Lijstje: http://en.wikipedia.org/wiki/PhysX#Title_support

Valt dus wel mee met die support. :)

Vooral eye-candy? Misschien, het is aan de developers om iets creatiefs met de rekenkracht te doen, en of het nu eyecandy of essentieel voor het spel is... Maar anderzijds, de meeste ontwikkelingen in games-land zijn toch eye-candy? Het enige wat een beetje innovatief is recent, is de besturing van de Wii.
Valt wel tegen met die support.

Kijk dat lijstje eens wat beter door, en je ziet stapels games die hardstikke oud zijn en totaal geen noemenswaardige physx support hebben.

Dan komt het er op neer dat er een heeeeeeel klein beetje gebruik gemaakt wordt van die hardware kaart.
Zo vreselijk klein dat niemand ooit enig verschil zal merken tussen het wel of niet gebruik maken van die hardware.

Dit zijn lijstjes die door PR afdelingen gemaakt worden om mensen te laten denken dat het de moeite waard is geld uit te geven voor die kaart omdat er al zoveel spellen het "ondersteunen"
staat er toch duidelijk:

NU 20 x en "Begin 2010 verwacht het bedrijf met een tweedegeneratie-acceleratorkaart de rendersnelheid zelfs met een factor tweehonderd te kunnen verhogen..."

Dus nogmaals, NU kunnen ze al 20 x versnellen, en doelstelling voor volgend jaar is om dit te verhogen naar 200x.

Dus zo raar is die aanname niet. Gewoon goed lezen is ook een kunst ;)
Dit lijkt wel een klein beetje op de nog te komen fusion chips van AMD.

[Reactie gewijzigd door Fjerpje op 11 maart 2009 17:47]

In eerste instantie wordt bedoeld met een factor 20. Zoals het artikel zegt; Begin 2010 verwacht het bedrijf met een tweedegeneratie-acceleratorkaart de rendersnelheid zelfs met een factor tweehonderd te kunnen verhogen. Wildgroei? Het ligt eraan hoe je dat interpreteerd, dit lijkt een succesvolle zet. Ik zie het meer als goede concurrentie.

edit:
beetje laat met posten, zoveel berichten in 1 keer..

[Reactie gewijzigd door terbraak op 11 maart 2009 18:07]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True