Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties
Bron: FiringSquad, submitter: player-x

In een interview met FiringSquad heeft ATi's Will Willis verteld dat ATi alle belangrijke physics-engines ondersteunt. Hij reageert daarmee op het rumoer dat nVidia deze week veroorzaakte met de aankondiging van de Havok-engine, waarmee videokaarten kunnen worden ingezet om natuurkundige berekeningen door de gpu in plaats van door de cpu te laten afhandelen. 'Onze X1K-kaarten zijn bij uitstek geschikt voor zulk parallel rekenwerk en we onderzoeken momenteel de mogelijkheden om de physics-berekeningen ook door CrossFire-setups te laten uitvoeren. Havok heeft al laten weten dat ze zich niet uitsluitend op nVidia-producten toeleggen - we willen geen concrete beloftes doen, maar je kan zelf wel nagaan hoe dit zal uitpakken.'

Volgens Willis blinkt de R580-core, die in de X1900-kaarten verwerkt is, uit in natuurkundig rekenwerk omdat de 48 pixelshaders van de chip gebruikt kunnen worden. Het belangrijkste voordeel ten opzichte van nVidia's 7-serie is echter 'Dynamic Flow Control', de branch prediction-technologie van ATi. De chips van het bedrijf kunnen met aanzienlijk kleinere threads overweg dan 'concurrerende producten', waarbij veel minder data hoeft te worden geanalyseerd. Daarom zou ATi-hardware in dezelfde tijd meer en gedetailleerdere objecten kunnen genereren, zoals bijvoorbeeld een weelderige haardos.

ATi's branch execution-structuur

De in natuurkundige berekeningen gespecialiseerde Ageia-processor ziet Willis niet als een serieuze bedreiging. 'Natuurlijk is hun benadering interessant, maar wij kunnen alles wat zij kunnen, en vaak efficiënter en sneller. Bovendien hoef je voor onze oplossing geen extra hardware aan te schaffen, en dat kunnen zij niet zeggen: probeer een Ageia-ppu maar eens een 3D-model te laten renderen.' Het grootste voordeel is volgens hem echter dat de videochips veel verder ontwikkeld zijn. 'Zelfs als de effectiviteit van een R520 lager is dan die van de Ageia-chip, is het aantal instructies dat kan worden uitgevoerd zoveel hoger, dat een X1900 gehakt van de physics-chip maakt.'

Een nadeel van het inzetten van de gpu is uiteraard dat die minder tijd overhoudt voor lijntrekkerij en het plaatsen van puntjes op de i. Dat kan echter ondervangen worden door van meer dan een kaart gebruik te maken, waarbij ATi's CrossFire-drivers het mogelijk zouden moeten maken om bijvoorbeeld een X1900 voor het grafische geweld te gebruiken, terwijl voor natuurkundeberekeningen een veel goedkopere X1600 gebruikt kan worden. Omdat er nog maar weinig software voor de Ageia beschikbaar is, lijkt de ATi-oplossing, die ook voor puur grafisch werk gebruikt kan worden, kostentechnisch voordeliger. Voor nVidia, dat voor SLI gelijkwaardige kaarten nodig heeft, betekent de Ageia-kaart een grotere bedreiging. Toch zal moeten worden afgewacht hoe populaire software met de verschillende alternatieven presteert, voordat er een winnaar van de physics-race kan worden aangewezen.

Futuremark's 'Rag Troll'-test

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (41)

[offtopic] zou een physics kaart niet overloaden als hij een onmogelijke ruimte moest berekenen? (zoals een onmogelijke driehoek, of een altijd oplopende trap, zoals bekend van Escher) Dat een video kaart het 'kan' komt door gezichtsbedrog, hoe zou een PhysX kaart daar mee overweg moeten kunnen?
Een physics chip kent de ruimte niet, hij zal enkel formules die gebruikelijk zijn in de natuurkunde super-super-super-snel kunnen uitvoeren. Hoe die formules gebruikt worden in een onmogelijke ruimte is aan de game-ontwikkelaar.
Dat Escher het kan tekenen wil niet zeggen dat het in 3D ook echt sense maakt. Er is geen wiskundige definitie voor een onmogelijke driehoek, die bestaat alleen doordat de suggestie gewekt wordt op de manier hoe de lijnen op elkaar aansluiten en waar de schaduwen zijn getekend op een 2d plaatje. De vormen waar de videokaart of physicskaart mee werkt zijn geen 2d plaatjes maar de daadwerkelijke 3d representaties van de objecten. Wat je zegt kan dus gewoon niet.
Nou ik vind die animatie nep want de poten komen voor en soms achter te liggen.
Grapjas, dat object is niet zo gedefinieerd maar de polygonen zijn gewoon (expres) verkeerd gesorteert tijdens het tekenen naar een 2d plaatje.
In 3D kan de tekening van Escher misschien niet, maar waarschijnlijk wel in 4D. Dat men normaal niet verder denkt dan in 3 dimensies wil niet zeggen dat je wiskundig beperkt bent tot die dimensies. Het zal enige creativiteit van de programmeur vergen maar onmogelijk is het volgens mij absoluut niet.
Volgens TheInquirer klopt het niet volledig wat Nvidia of ATI (in dit geval Will Willis) kan in vergelijking met AGEIA:
So, the SLI physics engine can make water fall, ripples move, and rocks from the exploding cliff wall bounce off each other in a way that would be damn near impossible to do on a CPU. It can't however make those things interact with your player, the ripples may look like they are washing over your legs, and the rocks bounce off your shins, but it won't cause in game collisions.
Zowel ATI als Nvidia zouden dus mooiere beelden kunnen creeëren door de "natuur-getrouwe" elementen zelf te berekenen, maar interactieve elementen kunnen ze momenteel niet aan. Wat AGEIA wél kan. Dus als je alles op lijstje zou plaatsen, dan heb je SLI Physics, de iets betere ATI oplossing en als absolute physics king: de AGEIA PPU.
Ho ho, niet zo generaliseren.

Wat TheInq zegt gaat alleen op voor Nvidia in combinatie met Havok.
Het hoeft helemaal niet zo dat die beperking ook voor ATI opgaat. ATI biedt namelijk meer methodes om de berekeningen op de GPU te doen dan Nvidia. (Naast de berekeningen via DirectX zoals Nvidia en ATI beiden bieden, geeft ATI ook de mogelijkheid om de GPU rechtstreeks aan te spreken voor de berekeningen)

Overigens ligt de beperking zo te zien helemaal niet aan de gpu:
Unlike other approaches, Havok FX handles physics computations directly on the GPU, allowing it to calculate and render object movement with minimal readback to the CPU. However, Havok FX is limited to what's referred to as "effect physics," or physics that don't affect gameplay. Havok prefers to keep gameplay physics on the CPU, leaving Havok FX with the physics calculations necessary for visual effects and other eye candy.
Ook bij een AGEIA PPU zal de CPU nog een deel van de berekeningen doen. Maar je probeert zoveel mogelijk door die PPU of door een GPU te laten doen.
De truk is echter de juiste afweging te vinden welk gedeelte de CPU nog doet en op welk moment je de CPU niet nodig hebt.
Als je namelijk die PPU veel gameplay physics moet doen dan moet er heel veel communicatie tussen die PPU en de CPU plaatsvinden, omdat die CPU weer de gameplay factoren berekent.

Als nou het overgrote meerendeel van je cpu load gaat zitten in physics berekeningen die niks met gameplay physics te maken hebben, dan is er niks mis met die beslissing om die scheiding zo te maken.
En dan is dat dus echt geen nadeel van die SLI oplossing.

Overigens moet je helemaal niet raar opkijken als bij die AGEIA PPU precies hetzelfde gedaan wordt. Alleen hebben we daar nog zo weinig informatie van dat we dat soort details simpelweg niet weten.

Havok zal wel zijn redenen hebben gehad om het zo te doen (wellicht makkelijker/sneller te implementeren), maar ik zie geen enkele aanleiding om te veronderstellen dat het een keiharde limiet van de gpu's is.
Het is inderdaad zo dat een ATI GPU rechtstreeks aangesproken kan worden voor berekeningen dit is al vanaf de Radeon 9600 zo. Het probleem is echter alleen dat dit vrijwel nergens (goed) gedocumenteerd is wat gewoon erg jammer is. Wat dacht je bijvoorbeeld van mpeg/divx/xvid en weet ik veel wat voor video codecs die tijdens het encoding proces de GPU gebruiken? Dat zou echt aanzienlijk schelen.
Gelul. Zowel de natuurkunde chip als de 3d-kaarten doen geen natuurkunde noch 3d. Ze bieden wiskundige core operaties aan en zijn geoptimaliseerd voor parrelel gebruik. Je zou een webserver kunnen draaien op beide kaarten bijvoorbeeld.

Het verschil tussen een normale CPU en de een GPU is dan ook dat een GPU parrelel (tegelijk) zaken berekent, terwijl de CPU dat sequentieel doet. Zie ook de PS3 waar er geen 3d-kaart en geen natuurkunde kaart inzit, maar een grote parellele cpu/gpu/ding.

De informatie die jij hier aanhaalt is marketing-gelul en slaat in ieder geval niet op hardware matige beperkingen. Hooguit op de stand van zaker mbt de API's.

Helaas staan de reacties hier vol met mensen die denken dat een 3d-kaart echt 3d doet, en een natuurkunde kaart natuurkunde. Ze doen allemaal JUMP, Branch, Plus, Maal etc.
Helaas zijn er ook mensen die anderen meteen van gelul beschuldigen, maar niet even de moeite nemen om het artikel te lezen, zodat ze begrijpen waar het over gaat...
Zie ook de PS3 waar er geen 3d-kaart en geen natuurkunde kaart inzit, maar een grote parellele cpu/gpu/ding.
geen 3D kaart? wat doet die nVidia RSX chip met zijn eigen 256 MB geheugen dan? Kantklossen? Of zou het gewoon een nVidia 3dkaart die voor PS3 ontworpen is zijn?

lastige vragen... ;)
Een nadeel van het inzetten van de gpu is uiteraard dat die minder tijd overhoudt voor lijntrekkerij en het plaatsen van puntjes op de i. Dat kan echter ondervangen worden door van meer dan een kaart gebruik te maken, waarbij ATi's CrossFire-drivers het mogelijk zouden moeten maken om bijvoorbeeld een X1900 voor het grafische geweld te gebruiken, terwijl voor natuurkundeberekeningen een veel goedkopere X1600 gebruikt kan worden.
Dus .. het voordeel van Havok is dat je geen aparte hardware meer nodig hebt.... maar om het te optimaliseren moet je een 2e gpu kopen.... Ben ik de enige die dit tegenstrijdig vind???
het leuke is dat een X1600 naar verwachting de Physics kracht van een Agiea kan evenaren (dachtik), en wanneer je gewoon in 2D bezig bent je ook nog een extra GFX kaartje hebt voor meerdere monitoren.

dus meer flexibiliteit, voor minder geld :)
Wat bedoel je daar mee extra SLI CF kaart ka-ching. 3de 4 de monitor Ka-Ka-ching aangezien een beetje 3Dgfx kaart al twee uitgangen heeft.
Als je 100 á 400¤ al 'n probleem vind dan zal monitoren en extra vidkaartjes ook niet de oplossing zijn. Flexibler? Als 'n midrange al voldeed aan budged, zal SLI overkill zijn ook budged wijs en mensen die op de centjes letten hebben sowie so al vaak geen knots van 'n monitor om wat aan SLI power te hebben.

Ik vind dit helemaal geen goed idee. We staan weer voor zo'n zelfde circus als
Bluray/HD-DVD
PhysicX of HavokFX
Net als toen de VHS/Betamax/VS2000

SLI CF is vaak overkill tenzij je enigzins daar de monitor voor hebt. Of FSAA/AF belangrijk vind 'n enkele midrange of high-end(FSAA) kaart voldoet al.
GR:AW komt deze zomer uit en die gebruikt de PPU.
Dus heb je 'n PPU nodig om die game in vole glorie te spelen.En vind je iets later ook 'n Havok game leuk dus ook 'n favoriet dan kan je 'n extra gPU bij poten voor Physics.

Als je kiest voor de een dan kies je ook voor die kamp aan games. Als gamer kijk ik naar de games en naar mijn budged. En wordt 'n game de favoriet of 'n paar dan overweeg ik daarvoor de hardware aan te passen.

Kom ik nood gedwongen toch ooit aan de SLI/CF met PPU. Aangezien die GR:AW me wel wat lijkt als single player PC game. en e ruiteraard ook wel 'n leuk Havok FX game zal komen.

En games die beide ondersteunen.
verschil is dat je de overige rekenkracht van je SLI/Crossfire opstelling kan gebruiken voor FPS, oftewel je graphics

Je hebt dus altijd iets aan die extra hardware.

de AGEIA is puur voor physics en zal dus compleet nutteloos zijn bij spellen die dit niet ondersteunen.

edit: iets dubbelop twee keer neergezet :o
@liberque

Je hoeft niet perse een 2e gpu te kopen.

Wat dacht je van de optie om je OUDE gpu te gebruiken?
Stel je hebt nu een X1800 en over een half jaar koop je een R600. Dan zou het toch heel erg mooi zijn als je die X1800 als physics kaart kunt gaan gebruiken?

Ik denk dat ATI daar een heel goed punt te pakken heeft.
Dit artikel staat vol met fouten :X
Allereerst was ATi de eerste die antwoorde op de ontwikkeling van een dedicated physics processor (ppu) door aan te geven dat zij de techniek in huis hebben om een 2e gpu de physics te laten berekenen.
zie hier.
In feite hadden ze zelfs al een draaibare demo ontwikkeld.
(lees het stukje van CJ over de crossfire launch hier )
Volgens Willis blinkt de R520-core, die in de X1900-kaarten verwerkt is
.. de R520 core zit in X1800 kaarten en de R580 in de X1900 kaarten

En deze rumor is al sinds oktober 2005 bekend.
Te lezen hier.
'Zelfs als de effectiviteit van een R520 lager is dan die van de Ageia-chip, is het aantal instructies dat kan worden uitgevoerd zoveel hoger, dat een X1900 gehakt van de physics-chip maakt.'
Zou de beste man misschien efficientie bedoelen in plaats van effectiviteit? Of is dit een vertaalfoutje?
Is een vertaalfoutje.
As for performance of the PPU vs. the GPU, the issue is one of efficiency and processing power. We think that even if Ageia’s PPU has 100% processing efficiency and ATI’s GPU has 80% efficiency, if the PPU only has 100 Gflops of processing power, and we have 375 in our GPU, we’ll still have a higher performing solution (those numbers are just examples, not proven stats, but I think you can understand how we’re looking at this).
ATI (en Nvidia) hebben voordeel van de grote aantallen gpu's die ze bouwen en het gebruik en ervaring met de nieuwste productiemethoden.
Daardoor kunnen ze gewoon brute force gebruiken om het efficiency tekort op te heffen. (brute force omdat je bv meer transistors dan Ageia in je chip kunt zetten voor dezelfde kosten)
Ik meen me overigens te herinneren dat SLI niet meer met identieke kaarten hoefde sinds forceware zoveel.........
Niet meer hetzelfde merk, maar wel dezelfde soort kaart (dus bv niet een 6800 met een 6600)
Volgens mij kan het ook met een 6600 en 6800, alleen gaat de 6800 dan als een 6600 draaien...
Ik meen me overigens te herinneren dat SLI niet meer met identieke kaarten hoefde sinds forceware zoveel.........
Ik draaide met de wicked3d drivers al een diamond voodoo2 van 8mb en een trust voodoo2 van 12 mb samen in SLI ;)
Wat dat betreft vind ik het eigenlijk vreemd dat het vroeger nodig was om twee identieke kaarten te hebben voor nvidia sli...
Voortgang der techniek misschien?
De meest indrukwekkend presentatie van PhysX lijkt me toch de Cell Factor video:

http://physx.ageia.com/footage.html (iets naar beneden scrollen)

En dan blijf ik me maar verbazen over de GPU vs. PPU discussie. PhysX is beter dan een GPU + Havok FX oplossing. Read about it:

http://www.theinquirer.org/?article=30434
En jij gelooft blindelings wat spuit 11 "The Inq" schrijft? Die weten soms zelfs niet eens waar ze het over hebben of noemen -tig mogelijkheden zodat ze achteraf kunnen zeggen dat ze gelijk hebben (G71 heeft 32 Pipelines!, G71 heeft 28 pipelines!, G71 heeft toch 24 pipelines!).

Volgens mij weet je het verschil niet tussen effects physics (PhysX van Ageia) en gameplay physics (HavokFX). Naast het feit dat een GPU als PPU gebruiken helpt om de CPU te ontlasten, kan het er ook voor zorgen dat de graphics van bv explosies mooier worden en tegelijkertijd versneld wordt. PhysX van Ageia kan dit dus niet. Die kan alleen maar het physics gedeelte versnellen.

Daarnaast zou het wel enorm dom zijn om meteen een winnaar te verklaren. Je vergeet dat de ATi kaarten enorm sterk zijn in General Purpose Processing, en laat nou net het berekenen van de Physics een vorm zijn van General Purpose, waar het hebben van meer pixelshaders enorm belangrijk hebben voor het doen van parallelle mathemetische berekeningen.

Bij de methode van Havok wordt HydraCore gebruikt wanneer er multi-core GPUs in het spel zijn om de effects physics te offloaden naar de tweede core die anders toch staat te niksen. De GPU kan echter dus ook gebruikt worden om dit te versnellen zoals ATi heeft aangetoond. En daarnaast kan de GPU er voor zorgen dat de effecten er mooier uit zien, wat een PhysX kaart niet kan.

Als het dan mogelijk is om een goedkoper X1600 van ¤149 naast een X1900 te plaatsen ipv een duurdere PhysX kaart van ¤299, dan weet ik wel waar ik voorkeur aan zou geven als het effect toch bijna hetzelfde is.
Zoals altijd zal alles afhangen van de software ,en aangezien Nvidia nog altijd de beste drivers maakt is er mijn inziens weinig speculatie over de uiteindelijke realistische winnaar, meestal komt Ati pas 6 maanden na data met echt bruikbare drivers, en zolang ze dit niet onder de knie hebben zullen zelfs de mindere kaarten van Nvidia beter blijven presteren dan de beste van Ati.
Alle grote professionals,zoals bv. Barco om er maar 1 te noemen, gebruiken meestal Ati maar nooit hun drivers,die maken ze liever zelf omdat die van Ati nooit voldoen.
Waar ben jij de laatste paar jaar geweest?

Het is allang niet meer zo dat Nvidia de beste drivers.
(En eigenlijk is dat nooit zo geweest, alleen was Nvidia altijd een half jaar eerder klaar met zijn high-end kaart, zodat de meeste bugs inmiddels er al uit waren)

Verder heeft dit alles verrekte weinig met de drivers te maken. Het is HAVOK die het mogelijk maakt, door hun berekeningen in SM3 shaders te schrijven.
ELKE kaart die SM3 ondersteunt kan dan die physics uitvoeren. En dat is dan volledig onafhankelijk van de drivers.

Het enige waar de drivers in het spel zullen komen is het verdelen van de load naar een SLI of Crossfire kaart, ipv alles op 1 kaart draaien.

En daar heeft ATI juist 6 maanden voorsprong, aangezien zij maanden geleden zo'n opstelling al werkend hebben gedemonstreerd, terwijl Nvidia op dit moment alleen nog maar een presentatie heeft.
Er is nu ook een filmpje over die physics:
About ATI Physics Video

This video goes through multiple physics demonstrations running on ATI’s hardware. The first is a particle demo that starts with 124,000 particles on screen and goes all the way up to 900,000 as I drag the right tool bar up the side. The second demo shows a piece of cloth on a table that is blowing is varying angles and speeds of wind. The third demo looks at animations of character models that is not really indicative of physics performance but on the pixel shading power of the R580. Finally we have a Mandelbrot application running side by side on the GPU and CPU to see the difference in frame rates as these patterns are built dynamically.
Vanaf Fileshack te downloaden @ 100 KB/s.
Op de website van AGEIA kan je een filmpje zien van GRAW met een truck die opgeblazen wordt MET en ZONDER AGEIA.. nouuww.. zo spectaculier verschil is het ook weer niet.. explosie zelf is natuurlijk heel goed uitgevoerd.. aleen het heeft bijna geen enkele effect op omgeving..palm boom die als plaatje blijft staan, de speler zelf word nie door een 'lucht druk' geraak, alleen bij de groene auto gaat de portier van zelf open... :Z

en dat allemaal is tog wel physyx.. :?
Vraag me toch af of ze het allemaal wel goed kunnen verwerken. 2 complete dingen tegelijk op het beeld toveren. Waarom komen ze daar nu pas mee als ze dat zo overtuigend goed kunnen.

Het is wel waar dat de physics kaart geen beeld kan renderen. Maar om nou te zeggen dat je met een GPU mooiere effecten hebt is ook wel een beetje scheef.
Met de physics kaart heeft je GPU meer kracht over dus de effecten blijven hetzelfde in mijn ogen.

Maar goed. Begin van het verhaal heb je geen extra hardware nodig. Maar toch is het het beste als je er een GFX kaart bijzet bijzet (Dus toch eigenlijk wel een extra kaart).

Dus die Pysics kaart moet wat goedkopen anders redden ze het niet denk.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True