Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 28 reacties

AMD heeft bekend gemaakt dat het de Havok-physics engine gaat ondersteunen. De overeenkomst geldt voor alle producten van AMD, inclusief de ATI-productlijn. Havok werd in september 2007 overgenomen door Intel.

AMD Havok logosVoor AMD was de keuze er ťťn uit twee kwaden. Aan de ene kant probeert het bedrijf te concurreren met Intel op het gebied van cpu's, en laat het bedrijf de continuÔteit en de ondersteuning voor de physics-middleware nu afhangen van zijn grote concurrent. De andere optie zou echter Ageia zijn geweest, dat in februari dit jaar is overgenomen door Nvidia, waarmee AMD in een competitieslag is verwikkeld wat betreft gpu's.

De keuze van AMD voor Havok kan nadeling uitpakken voor Nvidia. Havok was al de dominante middleware voor natuurkundige berekeningen in games en nu ook AMD zich achter de technologie heeft geschaard, kan een onstuitbaar pact ontstaan. Ageia wordt als physics-api door ontwikkelaars nog maar mondjesmaat gebruikt in games, met als uitzondering op de regel Unreal Tournament 3 en Cellfactor.

De verwachting is dat Microsoft physics-ondersteuning voor gpu's en cpu's zal inbouwen in Directx 11, maar deze versie zal pas rond 2009 verschijnen. ATI, nu AMD, en Nvidia zijn al sinds 2006 bezig met hardwarematige versnelling van physics engines via de gpu, maar tot nog toe heeft dit geen tastbare resultaten opgeleverd.

Moderatie-faq Wijzig weergave

Reacties (28)

nVidia moet echter nog steeds hun Cuda gebaseerde physics engine presenteren. Als die klaar is, en ze doen dat ruim voor DirectX 11, dan is de kans groot dat veel meer ontwikkelaars hier gebruik van gaan maken.

Het blijft het kip en het ei verhaal, en te weinig mensen kochten een Ageia-Physics kaart, maar het doel van nVidia is om ondersteuning te maken voor GeForce 8 en 9 kaarten, waardoor er een gigantische markt opent.

Tevens maakt Unreal Tournament 3 gebruik van de Unreal Engine, die door talloze andere games ook gebruikt wordt. En als er dan inderdaad geweldige voorsprongen gemaakt worden, dan zullen vele andere engines snel volgen.

Wat ik me echter tegelijk afvraag is of de consoles hier ook voordeel mee halen, de PS3 maakt namelijk gebruik van een door nVidia ontwikkelde GPU met de naam "RSX" (waarbij de XBox360 een Xenos heeft van AMD/ATi). Maar het is in ieder geval goed nieuws voor de PC gebruiker.
Ik denk dat met name de de besluiteloosheid binnen de soft en hardware fabrikanten er juist voor heeft gezorgd dat de ontwikkeling voor PS games vrij moeizaam gaat. Niet dat we nu volgenseen standaard moeten werken maar laten alle partijen in een open formaat samenwerken, waar het einddoel moet zijn dat iedereen makkelijk kan ontwikkelen en nieuwe dingen toevoegen inplaats alleen maar voor eigen producten te optimaliseren en met name dat laatste zorgt voor onduidelijkheid en marginale vooruitgant.

Tijd zal het leren of ze ooit zo volwassen worden om modellen te maken die een ieder van pas komen, waardoor oa. Linux ook eens wat beter bediend kan worden van ondersteuning. De Mac vind ik niet zo van belang omdat dat een markt is die gestaag groeit onder met name de gamers.
Volgens mij zit de physx api van ageia standaard bij de PS3 SDK dus het is waarschijnlijk zo dat er veel ps3 games zijn die wel gebruik maken van Ageia

even googlen en ik vond dit:
http://www.pluginz.com/developercentral/news/3229
Hier staat dus bij dat de Physx sdk standaard bij de ps3 sdk wordt geleverd
De RSX is een nVidia 7-series GPU. Geen unified shader en dus niet geschikt voor CUDA en GPU gebaseerde PhysX engine. PhysX zal ongetwijfeld gebruik maken van de PS3 SPEs.

De Xenos van ATi is een soort voorloper van de R600. Heeft wel unified shader maar hij heeft maar 48 shader units met 2 ALUs per stuk. Dit levert dan 2 FLOPS * 48 ALUs * 500Mhz = 48 GFLOPS aan shader floating point kracht. Wel even wat minder dan de te verwachten > 1 teraflop van de RV770. Ik denk niet dat dat genoeg is voor games om naast de normale shader operaties gebruik te maken van de GPU voor physics acceleratie.
Volgens de specs op wikipedia kan de Xenox 10 flops per pipeline per cycle leveren, voor een totaal aan 240 GFlops. De RSX heeft zelfs nog iets meer rekenvermogen met een 360GFlops, maar heeft geen unified architecture zoals je al zegt.

De Teraflop kaarten zijn er trouwens al, een 3870X2 haalt in Single Precision iets meer dan een Teraflop. Ik moet nog maar zien dat de RV770 dit inderdaad ook haalt. Als de kaart inderdaad 800 Unified Shaders heeft zoals ťťn van de geruchten, dan zal het wel lukken, anders betwijfel ik het...

[Reactie gewijzigd door knirfie244 op 13 juni 2008 07:57]

Er staat ook duidelijk op wikipedia dat het aantal SHADER FLOPS 2 per ALU is. De andere FLOPS komen van texture adressing.

Het aantal opgegeven GFLOPS van fabrikanten is vaak niet erg nuttig aangezien ze zaken als texture filtering vaak meenemen in de specs om een zo groot aantal FLOPS te bereiken. Deze discussie ging over physics en daarom heb ik puur het aantal shader FLOPS berekend.
Wat voor PPU geld geld ook voor nV.
games die goed dus zinnig dus game verrijkend hun GPU gaan stressen met Physics.

Dus 'n mix van 4 Š 10 Physics features die van 'n Teraflop bakbeest 1/3 snoeped om die features meerwaarde te kunnen geven aan 'n top game.

Tja dat is 'n ander verhaal.

Cellfactor en warmonger zijn geen hoogfliegers en UT3 deed er ook niet veel mee. Dat moest via mods gepushed worden en dat kwam ook niet goed tot uiting.

Maar met GT280 in SLI kan een game tot 'n hele GT200 chip benutten voor PhysX dat is heel wat meer dan 'n PPU en nog veel meer dan CPU.

De hardware is op zijn plaats maar nu gaat TWIMTBP gelobby en dev stalking ook PhysX pushen.
Ik ga hier niet mee akkoord met de stelling
Ageia wordt als physics-api door ontwikkelaars nog maar mondjesmaat gebruikt in games, met als uitzondering op de regel Unreal Tournament 3 en Cellfactor.
Er zijn een heel deel spellen die op het UT3 engine draaien, wat als resultaat heeft dat ge het toch voor een heel deel spellen nodig hebt (de driver dan).


Wel jammer dat er niet 1 standaard is. Van mij mag AIEGA failliet gaan, ik vind hun bewegingen toch niet echt 'wauw', ze zijn eerder Physics gelijk ge ze verwacht in de ruimte, veel trager.

Die van Havok zijn veel natuurlijker, sneller, mooier (denkt aan Max Payne 2, Half - Life 2, enz...)
AIEGA kan volgens mij niet failliet gaan omdat ze overkocht zijn door nvidia.
En een beetje concurrentie kan ook geen kwaad. De evolutie zal zo waarschijnlijk een stuk sneller gaan nu het een "wedstrijd" tussen intel/AMD en nvidia is om de Physics zo goed mogelijk uit te werken.
Zo goed uit te werken? Nee hoor, dit is gewoon om de markt in handen te krijgen. Het gaat niet om de ontwikkelingen maar om keiharde knaken. Want als iedereen 1 standaard gebruikt en er bija geen concurrentie is kan je veel geld vragen voor je product (veel licentiekosten voor de engine).

Zodra AMD of Intel het alleenrecht heeft in psychics-land zal er weinig vernieuwing zijn en mondjesmaat nieuwe technologieŽn.

Wat denk j als destijd de Athlon 64 de Pentium 4 niet aan stukken zou hakken kwa performance? En Intel nog steeds de best cpu had. Dan hadden we nu waarschijnlijk nog steeds als topmodel een Pentium 4 op 4ghz en dan misschien op 65nm....

[Reactie gewijzigd door yori1989 op 12 juni 2008 19:46]

D'r maken dacht plus minus 7 game engine gebruik van Physx en dus een hele hoop games 30+ maar PPU gebruikende 10 stuks En met TWIMTBP erachter kan adoptie 'n stuk hardergaan.
De verwachting is dat Microsoft physics-ondersteuning voor gpu's en cpu's zal inbouwen in Directx 11, maar deze versie zal pas rond 2009 verschijnen.
Dit is zeker gebaseerd op die enkele niet-onderbouwde geruchten die in 2006 op internet rondgingen? En die Microsoft daarna ook snel keihard ontkende?
Ga er maar niet zomaar van uit dat MS zomaar met een physics API zal komen, simpelweg omdat daar geen reden voor is. Direct3D is absoluut noodzakelijk als aansturing van (3D) graphics op je pc, zodat ontwikkelaars niet rechtstreeks de GPU aan hoeven te sturen. Het is een low-level, immediate mode API. Ik weet niet heel veel van de rest van DirectX, maar volgens mij geldt datzelfde voor alle componenten.

Physics APIs zijn daarentegen high-level, retained mode (voor zover je daarover kunt spreken bij niet-graphics APIs), zonder directe interface met wat voor hardware dan ook (hoewel dit bij AGEIA misschien iets anders ligt). Bovendien zijn er al meer dan genoeg libraries voor, en er is geen enkele noodzaak tot een gestandaardiseerde API. Zoals gezegd zie ik geen enkele reden waarom MS zich in die markt zou mengen.

[Reactie gewijzigd door Snoitkever op 12 juni 2008 19:05]

Physics op zichzelf hoeft inderdaad niet in DirectX. Maar om physics bewerkingen op de GPU uit te voeren is het waarschijnlijk wel nuttig om het in DX op te nemen... En daar gaat het natuurlijk om.
"physics" is een hype gecreŽerd door 1 enkel bedrijf. immers daarvoor bestond dit al lang, alleen niet onder die benaming.
Ik herrinner mij vooral van toen ragdoll als key feature ge oppert werd in games.
En halflife (2). Heel heel lang geleden.

Die drukte van laast is Hardware accelerated Physics. Dat kan 'n game aanzienlijk verijken met Physics. Alleen wordt de target markt verdeeld in twee breede performance grade. CPU accelerated 1 2 4 cores dan ergens past de PPU tussen en weer breed power gebied van diverse 4.x shader GPU.

Toch geweldig dat naast GFX ook die andere vaak benadeelde task ook eens meer dan normale gang van verwaarlozing ook de aandacht krijgen.

Ook lees ik dat ze AI ook via de shader willen doen.
Oh? Welk bedrijf dan? Physics middleware gaat terug naar begin 2000. En er zijn behoorlijk wat implementaties geweest.
En welk ene bedrijf is dat? Havok, of Ageia? Aangezien er dus twee bedrijven flink mee aan de weg timmeren, klopt je stelling niet.
Ageia heeft de "hype" gestart met hun PPU kaart. Natuurlijk waren physics (engines) er al, in is de middleware al jaren in ontwikkeling. Maar zonder de Ageia physics kaart zouden al deze ontwikkelingen veel meer op de achtergrond hebben gespeeld.
De verwachting is dat Microsoft physics-ondersteuning voor gpu's en cpu's zal inbouwen in Directx 11
Komt de open source community ook nog met een soortgelijk initiatief of kunnen we voor physics ondersteuning alleen rekenen op commerciŽle bedrijven? Zitten we straks weer met hetzelfde probleem als nu met DirectX en OpenGL

Denk dat dit overigens wel slim is van AMD. Lekker zo veel mogelijk concurreren. Hun kaarten en alles wat daarmee te maken heeft met Nvidia en hun processors enz. met Intel. Wordt alleen lastiger als straks de grens tussen CPU en GPU gaat vervagen. Ze moeten trouwens ook nog zoiets als Cuda hebben, want dat missen ze volgens mij nog.

Blijkbaar heeft AMD/ATI CTM (Close To Metal) wat iets vergelijkbaars als Cuda: http://en.wikipedia.org/wiki/Close_to_Metal

[Reactie gewijzigd door QkE op 12 juni 2008 17:27]

http://en.wikipedia.org/wiki/PAL_%28software%29

En verder denk ik dat het initiatief van Microsoft om physics in DirectX te proppen heel slecht is en ontwikkeling juist zal afremmen. DirectX heeft tot nu toe alleen nog een enigzins generieke interface geleverd (er zijn behoorlijk wat compatibiliteits problemen met de verschillende directx versies) met over het algemeen zeer slecht presterende default implementaties (als je kijkt wat de raserizer van RAD game tools kan ten opzichte van de standaard DirectX rasterizer).

[Reactie gewijzigd door elmuerte op 12 juni 2008 17:12]

met over het algemeen zeer slecht presterende default implementaties
De reference rasterizer van Direct3D is precies dat: ter referentie. Het is helemaal niet bedoeld voor daadwerkelijke runtime performance, het is bedoeld voor correctheid, waar hardware fabrikanten en software rasterizer makers gebruik van kunnen maken om resultaten te vergelijken.
PC gamen wordt grotendeels vertegenwoordigd door windows OS.
Daar is DirectX de standaard en dat is een goed ding 'n standaard binnen windows.
Nu MS vanaf DX10 de Device capability flags overboard heeft gegegooid.
en nu alles wat verplicht is en ondersteund moet worden. en optionele ding ook duidelijk optineel zijn.
Wat Dx10.1 vooral brengt is sommige features wat in dX10 optioneel was nu verplichten. Plus wat optimalisaties.
Dat maakt het makkelijk voor DEV's
ipv kan ie het wel. Wordt nu hoeveel van het kan het aan.
DirectX Physics brengt orde in al die Physics SDK voor windows.
Daar gaat het om.

Het zal dan eerst concureren met Havok en PhysX totdat het volwassen is en Dev's het oppakken.

Nu wordt Physics gebruik om eigen merk te pushen en concurentie buitenspel zetten.

intel CPU vs ATI/nV GPGPU
nV vs ATI.

Nu gaat ook de ronde dat nV PhysX open hield voor ATI maar onder wat voor condities.

iNtel dwarsboomde nV/aTI door havok te overbruggen totdat larrabee beschikbaar is. en havok er op los laat.
Nu nV PhysX heeft komt nV gpgpu physX mogelijk op gang. Door met AMD in ze te gaan kweken ze 'n twee strijd aan op de GPGPU markt.
Totdat DirectX Physics goed de Dev markt is migreerd dan kan er niet veel meer gepushed worden. Afhankelijk welke chips DXPhysX gaat ondersteunen.
Ageia wordt als physics-api door ontwikkelaars nog maar mondjesmaat gebruikt in games
Toch apart, veel ontwikkelaars(en ik ook) vinden de API van Ageia veel fijner werken dan de API van Havok. Beetje de game developer forums langs surfen laat die mening toch duidelijk zien.

De Havok API is soms erg onlogisch en ondoorzichtig.

Ik ben benieuwd wat de verdere ontwikkelingen hiervan zullen zijn. Ik hoop ook dat er in DX11 mogelijkheden zijn om open source initiatieven(die er zat zijn, enkele zijn erg goed zelfs) te gebruiken.
Ik zit me wat af te vragen.
AMD die verzorgt zowel processors als gpu's, en nu zullen beide de ppu's ondersteunen.
Zal een AMD/Ati/Havoc systeem gunstig uitpakken door die drie bij elkaar passende merken?
iNtel chipsets ondersteunen ook CF. Denk dat iNTel ook wel ziet om ATI te ondersteune door even tweedeling in de Physics GPGPU markt.
mooie compromie, intel heeft een multie gpu technologie van amd en amd een extentie op hun game/animatie/wetenschappelijke prestaties.

totdat intel natuurlijk een grote speler op de gpu markt word zoals ze zo graag willen...

en Nvidia lijkt buiten boot te vallen op dit moment. Maar die redt zich natuurlijk wel. zeker als ze een x86 licentie krijgen voor cpu's die ze nu gaan maken... ik ben heel benieuwd

[Reactie gewijzigd door ThePiratemaster op 12 juni 2008 22:12]

Ze hebben al goede videokaarten. Ik kan ati ook niet echt afkraken (nou alleen de xpress 200, maar dat is onboard, daar kan je ook niet veel mee). Als Nvidia nou goede CPU's gaan maken wordt dat wel flinke concurrentie voor AMD.
Ook wel voor Intel.
Ik hoop dat dat iets goeds gaat brengen bij AMD. Die lopen qua CPU's nu achter op Intel. Ik heb eens tabel van een test gezien. Intel met xcore en x GHz is veel beter dan AMD met xcore en x GHz. Zelfde getallen, maar doet toch onder.
Ik zeg niet dat het een slechte processorbakker is, maar qua prestaties zijn de cpu's wel bewezen minder efficiŽnt te zijn.
Flinke concurrentie maakt het harder nodig om daar toch verbeteringen te brengen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True