Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 96 reacties
Bron: FiringSquad

Deze week presenteerde ATi een eigen physicsoplossing, waarmee naast grafisch rekenwerk ook natuurkundige berekeningen uit handen van de cpu kunnen worden genomen. De 'Triple Play'-technologie, zoals de videokaartenfabrikant het noemt, vergt een twee- of drietal kaarten uit de X1000-serie, waarvan er één voor het fysicawerk wordt ingezet. Volgens ATi levert een kaart uit de X1000-serie meer dan genoeg gigaflops om op deze manier ingezet te worden, maar Triple Play werd desondanks met veel scepsis onthaald. Een veelgehoord argument is dat de kostprijs van een drietal kaarten veel te hoog is. Ook de rekenkracht staat ter discussie: 'Zeggen dat meer gigaflops betere physics oplevert, is net zoiets als zeggen dat je auto harder rijdt naarmate er meer wielen onderzitten', schamperde Ageia-topman Michael Steele.

ATi logo (100px, wit) Ageia spint uiteraard garen bij de kritiek: dat bedrijf heeft zelf een dedicated-physicskaart in de aanbieding. 'Ons product wordt door steeds meer spellen ondersteund, en niemand heeft zich nog achter ATi opgesteld', aldus Steele, die er fijntjes op wijst dat de oplossing van de concurrent zelf ook nog niet leverbaar is, en zijn PhysX-kaart wel. Volgens hem is het zinloos om een grafische processor te herconfigureren voor natuurkundesommetjes: 'Het is een totaal andere tak van sport. Een grafische chip is verregaand gespecialiseerd, en als je die zomaar wat anders laat doen krijg je op z'n best dubieuze resultaten.' Het ATi-product is op het moment van uitkomen bovendien al zo goed als achterhaald, denkt Steele: de X1000-serie is DirectX 9-compatibel, terwijl de introductie van DirectX 10 met rasse schreden nadert. Over een ding zijn Ageia en ATi het echter roerend eens: het apart verwerken van physics kan grote prestatieverbeteringen opleveren. Over de manier waarop dat geregeld wordt zullen de twee echter nog wel even van mening verschillen.

ATi Triple Play physicsoplossing

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (96)

'Zeggen dat meer gigaflops betere physics oplevert, is net zoiets als zeggen dat je auto harder rijdt naarmate er meer wielen onderzitten'
Hoe meer gigaflops hoe meer particles, colissions etc. mogelijk worden op je beeldscherm.. toch?
Lijkt mij ook.. Je kan het beter vergelijken "meer gigaflops"="meer PK's" is dus een snellere auto..
Plus een heleboel pk's die in warmte worden omgezet. Er zal handig met een x1900xtx meer rekenkracht in zitten, maar alle extra onbenutte features van de kaart, daar betaal je ook voor.

En zoals sheean zegt: je kunt nog zoveel pk's hebben, maar als je er een caravan achter hangt, heb je toch liever een groter koppel.
Neem eens wat onbenute features?

GPU's zijn tegenwoordig door de vertex en pixel shaders heel flexibel geworden, waardoor er niet veel onbenut zal zijn.
Dat zou geldig zijn als een X1600XT of een goedkope X1900 veel duurder is dan zo'n Ageia. Die Ageia's zitten echter rond de 300 euro dus al zet je er een X1600XT naast waarvan driekwart van de transistors uit de neus zitten te eten, dan nog is het goedkoper en sneller.

Ageia zijn imho gewoon een markt aan het creeren waar consumenten helemaal geen behoefte aan hebben.
Koppel zegt niks. Al heb je een motor met 500 Nm als ie dat levert bij max 100rpm is het niet vooruit te branden. Het gaat om bruikbaar vermogen (een brede powerband).
Dus koppel over een groot toerengebied.
Maar een tractormoter in een sportauto richt niet veel uit... (en andersom)
Grappig dat je dat zegt, Lambourgini is ooit begonnen als tracktor fabrikant.
Hun eerste sportauto's hadden toch echt tracktor motoren ;)
Niet geheel waar, traktormotor in sportauto oké, maar het toerental van een sportmotor kan makkelijk omgezet worden in veel arbeid. :9
Met een enorm efficientieverlies inderdaad.

(reply op Floris B )
Floris B, heb jij ooit wel eens een Ferarri gezien met een trekhaak?
In die sportauto zitten misschien net zoveel PK's als die tractor maar de versnellingsbak en alles eromheen is ingesteld op snelheid en niet op brute kracht.
Je kan die Ferrari motor niet effe in de tractor gooien. Ook met een extra overbrenging zou je die sportauto motor naar eerder naar God helpen.

Het kan wel ... Maar dan moet je eens kijken naar Scrapheap challenge kijken op Discovery Channel, die karretjes rijden en doen het, maar vraag niet hoe. :)

Ik zou bij Ati voor een dedicated reken unit gaan die op de kaart onboard zit en zijn werk voor die kaart afleverd. Dan heb je twee vliegen in 1 klap. Je concurreert tegen nVidia en Ageia in 1 product.
offtopic:
MyCom heeft meerdere Ferarri's gehad waarvan 1 met trekhaak :+

http://tweakers.net/nieuws.dsp?ID=12005
Die AFEIA kaart is ook niks meer dan een programmeerbare chip met vectoreenheden. Een moderne GPU zit stampvol programmeerbare vectoreenheden en heeft bovendien efficiente threading en geheugenbus.
[Offtopic]Een tractor motor heeft een zeer grote cilinderinhoudt, een heel lange slag en draait op een laag toerental. Dat alles samen zorgt voor een enorm koppel bij een relatief laag vermogen. Zo heb je bv. een 5L 6cyl met maar 100pk. Met een auto (als is het maar een diesel) spreek je bij dergelijke cylinderinhoud over motor van rond de 300pk.
Groot verschil is dat die niet "doortrekken" maw als het toerental zakt door zware belasting valt de boel vlug stil. Vooral bij Benzine motoren. Een tractor haalt zijn maximaal vermogen op een 2000tr/min en een maximaal koppel ergens tussen de 1200 en 1500tr/min.
Een benzinemotor haalt makkelijk 7000tr/min.
Enne r.Koppelman, een tractor niet veel power nodig? Met dat standaard model van je (80-120pk wat overigens een kleine tractor is) worden vaak lasten van 20ton gesleept hoor. Of bijvoorbeeld over een breedte van 4m de grond 40cm die loswoelen. Je moet eens 1 pin 40cm in de grond slaan en je wagen ervoor spannen. Eens zien of je niet veel power nodig hebt.
Alleen op de foto: Mycom had het een tijdje als gimmick. klik
Inderdaad, mijn nonkel heeft een echte Lamborghini staan. Ik denk niet dat die tachtig kilometer per uur haalt. :-)
Ik denk dat je met je getalletjes toch ergens verkeerd zit. Ik heb een 4.3L V6 benzinemotor in mijn auto zitten en maar 160pk.
Een terreinwagen die ook veel koppel heeft toevallig?

160 pk in een personenauto assioceer ik eerder met een 2.4L V6.
Een Jet-Engine daarentegen... :Y)
Rijdt best lekker snel.
Offtopic:
Een tractor heeft geen sterke motor (std tractor is 80-120 pk). Een tractor is stevig gebouwd om trekkracht te kunnen leveren bij een lage snelheid -> niet veel power nodig. De motor moet efficient met de diesel omgaan en vuul draaiuren kunnen maken.

Ontopic:
Ik geloof niet dat ATI effe 123 een kaart die er speciaal voor is ontworpen zal inhalen. Een CPU kan ook MPEG comprimeren maar een dedicated stuk hardware doet dat met minder energie (warmte en transistoren).

Maar als upgrade pad lijkt het met wel goed. Koop nu een X1600, koop er een X1900 (of X2xxx) bij als het betaalbaar is en gebruik de X1600 voor extra physics berekeningen. Lijkt me een betere oplossing dan SLI achtige toepassingen.
Zonder koppeling draaien de wielen niet rond.
'Het is een totaal andere tak van sport. Een grafische chip is verregaand gespecialiseerd, en als je die zomaar wat anders laat doen krijg je op z'n best dubieuze resultaten.'
Hmmm, dacht juist dat grafische kaarten zeer geschikt zijn voor dat soort werk. Grafische kaarten rekenen toch veel met vectoren, dacht ik? En veel natuurkunde is ook gewoon rekenen met vectoren. Maar ik kan me vergissen.

Ageia die de producten van de concurrent aanprijst, dat zou pas wat zijn. ;)
Klopt. Huidige grafische kaarten bestaan voor het grootste deel uit bijzonder efficiente vectoreenheden. Ze kunnen ook zeer algemene bewerkingen aan, dus physics vormt geen probleem. Terwijl ATI (en NVIDIA) al op 90 nm technologie zitten en Intel op 65 nm, moet AGEIA het stellen met 130 nm.

Het zal hen nog duur te staan komen om de rechtstreekse strijd aan te gaan met de gevestigde waarden. Zelfs de binnenkort beschikbare Intel Core 2 Duo zou naar alle waarschijnlijkheid een PhysX kaar kunnen verslaan met één core.
Sorry hoor maar als je er zo weinig verstand zeg dan niks. Een Core 2 Duo maakt echt geen enkele kans tegen de PPU van Ageia of waarschijnlijk zelfs niet tegen deze ATI's. De CPU's kunnen gewoon de immense paralleliteit van de PPU niet compenseren met meer GHz. Ook is de geheugen bandbreedte veel te laag voo grotere werelden.

Ook de grafische kaarten zullen weinig tot geen kans maken als het om echte interactive physics simulaties gaat. De architectuur is er niet op gebouwd en ook niet erg geschikt voor. Een GPU is gebouwd voor streaming data, veel (meest sequenteel) lezen en weinig (maar vaak ook sequentieel) schrijven. Niet echt wat je nodig hebt voor 'interactive' physics. Vandaar ook dat de GPU's vooral voor 'eye-candy' physics worden gebruikt waarbij er geen interactie tussen objecten is. Daarvoor is een GPU wel geschikt. Maar dat zien we ook veel al geimplementeerd in standaard vertex shaders.
Jou beschrijving klopt, min of meer, als het je over alles onder de GeForce hebt.

Als er geen interactie tussen objecten is maken we het de Physics chip wel heel erg makkelijk, zelfs in 'eye candy' physics zal interactie zijn.

GPU's, vooral de nieuwste der nieuwste, met render-to-texture, dynamic branching, vertex-texture-fetches, hebben alle hardware die ze nodig hebben om ook physics mee te kunnen doen. Zie dus ook http://www.gpgpu.org.

De x86 CPU maakt de laatste tijd gigantische inhaal slagen, en er is een processor genaamd Cell die zich als General Purpose processor laat inzetten ontwikkeld, en deze veegt de vloer aan met Ageia's Physics.
of nog sterker: een Ageia kaart die als GPU fungeert!

(als jouw theorie tenminste klopt...)
Beetje een zwakke reactie van Ageia vind ik. Zo van, wij hebben een dedicated physics kaart, dus gaan we die van concurrent ATi maar eens afkraken.

En dat verhaal van natuurkundige sommetjes is inderdaad ook onzin, zoals hierboven al genoemd. Een grafische chip rekent inderdaad veel met vectoren en die zijn weldegelijk natuurkundig/wiskundig.

"Niemand heeft zich nog achter ATi opgesteld", logisch dat ding is nog niet eens uit, deze technologie hebben ze net gepresenteerd.
Ik kan mis zijn, maar Havoc zit achter dit project bij Ati & Nvidia. En er zijn genoeg games ( zoals HL2 etc ) die de Havoc Physics engine gebruiken.

Zodus de rekensome is niet so moeilijk. Als er al support ingebouwt is voor de Havoc, zal het voor de nodige game developers puur een zaak zijn van een nieuwe update van de engine erin te stoppen. En sinds de hardware berekening puur gedaan zal worden in de dll's van de Havoc engine, komt het neer op vooral de dll's upgraden, en mechien enkel kleinere aanpassingen ( voor de game developers die een oudere Havoc Engine gebruiken ).

Zodus, men kan stellen, er is nog geen officieel support, maar zodra Havoc met een update uitkomt met support in hun core, zal de lijst van games wel eens enorm snel kunnen groeien ( note: de uitleg hierboven gaat er enkel van uit van developers die de cpu willen ontlasten van het Physics werk, ik spreek niet over extra effects, details etc. Zo een zaken moeten bijgeprogrammeerd worden. En zoals we bij Ageia's supported games zien, hebben de meeste games nauwelijks extra's ( aka, ze hebben niet veel moeite gedaan, en enkel vlug geupgrade ). M.a.w, zo ver staat Ageia niet vooruit ;) ).

Maar ja, PR he ... Ze moeten een tegenoffencief uitspreken want met het bericht van ATI, en ik verwacht Nivida binnenkort ook ( kunnen niet achterblijven van ATI ), is Ageia's plannen dik in het 100 aan het lopen.

Zeg nu zelf, een dedicated physics kaart die duurder is dan een goedkope gpu ( die dan nogwel 2* meer kracht zou hebben ). En al de rest voordelen, zoals mensen die hun oude gpu gewoon kunnen gebruiken bij het upgraden. Je moet goed zot zijn om nu nog maar te denken om zo een "echte" Physics kaart te kopen ;)
Daarmee bevestig je alleen maar dat Ageia gelijk heeft
Weet jij zo hoe een physics kaart werkt dan. Collision detection etc. Kan me voorstellen dat er wel een stukje dedicated hardware in zit voor wat specifieke berekeningen die vaak voorkomen en complex zijn. (wind die door het gras waait, explosies en zo)
ik zit eerder te wachten op spellen die multi threaded zijn, dan kunnen dual core cpu's ook wat zinnigs bijdragen aan game performance.
Spellen zijn al multi-threaded hoor, anders zouden jij en je enemies niet tegelijkertijd kunnen vuren of lopen ;)

Maar ik snap wat je bedoeld. De verschillende threads lopen nog steeds op dezelfde core, waardoor je tweede core vrijwel onbenut blijft. Quake4 heeft dual-core optimalizaties en FPS schieten omhoog.

Ik vind ook dat physics best op je tweede core zouden kunnen draaien. Of AI op 1 core, de rest op de ander. Maar wellicht zijn er nog te weinig dual core desktops dat het rendabel is voor ontwikkelaars om hun games te optimaliseren.
als aanvulling op wat hierboven al gezegd is.

wanneer je game uit 1 proces bestaat kan hij in dat ene proces nog steeds de posities van meerdere spelers (bijvoorbeeld) berekenen, het is echt niet zo dat per speler er een proces is. Wanneer je over multithreaded praat heb je het over een proces dat in meerdere delen opgesplitst kan worden waardoor het door meerdere cores uitgevoerd kan worden waardoor hetzelfde proces sneller afgerond is.
@thekip en @ abraxas:

bekijk toch nog maar eens het verschil tussen processen, lightweight processen en threads, multitasking, multithreading en multiprocessing.

een proces = verzameling van bronnen (incl data en code)
een thread = een uitvoeringspad binnen een proces

multi-tasking = elk proces de indruk geven dat het alleen op een processor draait, terwijl er meerdere op draaien
multi-processing = met meerdere processors draaien
multi-threading = in een proces meerdere uitvoeringspaden "tegelijk" draaien.

multi-threading en multi-tasking kunnen baat hebben bij multi-processing.
Ik ben een zeurpiet, maar om dat er meerdere dingen op je scherm gebeuren hoeft het niet te zijn dat iets multithreaded is. Zeker niet in jouw voorbeeld. Beter voorbeeld is online games, waar verplaatsen van je zelf en je tegenstanders asynchroon is, maar zelfs daar is het niet een eis dat dit multithreaded is...
Je hebt een netwerkverbinding openstaan, dus absoluut heb je 2 threads nodig

Of wil je data verliezen omdat je toevallig je character aan het moven bent zodat de nieuwste data niet gebruikt kan worden..
En dat is dus onzin. Hoewel netwerk-afhandeling idd vaak in een andere thread wordt gedaan, is het niet nodig, en je gaat niet ineens data verliezen als je er niet op tijd bij bent. Met een gameloop dat meestal loopt op 30 of 60 fps kun je dingen als netwerk-afhandeling, maar ook geluid, AI en input gemakkelijk interleaven in dezelfde thread.
@Razzie. Razie denkd dat als alles simultaan gebeurd er extensief van threads gebruikt worden. Vergeet alleen dat voor vloeiende beelden van 30 je 'n paar milli seconde hebt om vanalles achtermekaar te doen terwijl het toch gelijktijdig wordt ervaard.
voor 30fps is dat 33ms voor 'n 2 Ghz zijn dat dus aar dig wat klok tikken omwat te doen. Voor in een Single thread game loopt.
We hebben het dan puur over game code niet implementatie code wat achter 'n API schuild of driver code.
@martijnvanegdom
Ze zien vaak zo'n één zware grafusche game tread aan als één Trhead game dus geen SMP maar d evele support threads als lichte helper threads.
Quke 4 is dus 'n SMP game omdat het de zware load verdeeld en dus de render module SMP maakt. Wat echt mee rperformance leverd. Die helper threads zorgen eerder voor 'n sopele FPS verloop.
De-encoding thread.
Load thread.
Deze hierboven vermelde threads kunnen tijdelijke zijn.
Server thread.
Deze tread loop zolang e reen runtime game draaied.
Wat een onzin, dat heeft niets, maar dan ook niets, met threads te maken. DOS was vroeger niet eens multitasking... kon je daar ook geen games op spelen? Ik wel.

Je snapt ook helemaal niet wat jaapfender1 bedoelt, want als 't wel multithreaded zou zijn, zou het automatisch al over meerdere cores lopen. Daar zorgt het OS wel voor.

Games zijn traditioneel helemaal niet multithreaded, omdat dat een hoop problemen oplevert (in iedere software ontwikkeling levert 't lastigheden op, maar in games des te meer). Traditioneel wordt steeds naar een frame toe gewerkt.

Per frame, worden een aantal taken uitgevoerd (in willekeurige volgorde, maar absoluut sequentieel en niet parallel):
- user input (inlezen en acties ondernemen, zoals het verplaatsen van de camera)
- netwerk player input, indien van toepassing
- physics aan de hand van verplaatsingen in de wereld
- geluid aan de hand van wat er gebeurt in de wereld + muziek
- wereld renderen (laatste stap in de sequentie)
+ meer

Per frame werd dat zo gedaan en daarom zie jij vanalles tegelijk bewegen, maar multithreaded gaat dit systeem natuurlijk niet meer op. Dan gebeuren zaken parallel en die beinvloeden allemaal de frame die gerenderd moet worden... 't Lijkt me een nachtmerrie om een dergelijke engine op te zetten, maar er zijn zonder twijfel al allerlei slimme dingen bedacht die de industrie nu ongetwijfeld al een tijdje toepast in de nieuwe generatie game engines.
Maar het levert al een hele hoop op als je het geluid, video en server proces scheid.

Video en fysica etc. is verreweg de grootste kluif.
Geluid en server proces kunnen dan op de 2e core, of in mijn geval op de 2e CPU.

En ja dat serverproces is inderdaad een hoop rekenwerk.
Ik merk duidelijk een verschil als ik in ut2004 via het ingame menu ga hosten en gamen, of als ik een dedicated server start en die join en ga spelen.
dedicated server is dan een heel appart programma, wat dan door me ene CPU wordt gedaan en me 2e CPU gaat dan het spel draaien.

Remember, ik heb dan "echt" 2 CPU's in me pc, maar met Dual Core is het niet anders als dit. (Dual Core zijn eigelijk 2 CPU's in 1 doosje.)

Nou weet ik dat Dual CPU vrij exotisch is en dat je dat doorgaans alleen in servers tegen komt, maar de Dual Core computers zijn ook aan een flinke opmars bezig dus het wordt nu interresant om het in games te gaan benutten.

(Note dat de Linux versie van Quake3 al een tijdje ondersteuning heeft voor meer als 1 CPU/Core)
maar uiteindelijk start je op dat moment waarschijnlijk 2 single threaded programma's die je laat communiceren

het echt uitsplitsen van user-input, physics, rendering,... is veel lastiger aangezien alle de hele tijd met mekaar moet gesynchroniseerd worden
<delete>

Waren velen mensen al mij voor
Waar basseer jij je uitspraken op? De marketing onzin?
Inderdaad. Nu wordt er voor veel te veel versnippering gezorgd. 2 kaartje voor CF/SLI + nog een kaartje voor Physics en daarnaast heb je ook nog altijd een cpu nodig etc...
Beter zou zijn als ze gewoon een grafische kaart en een multi-core cpu gewoon optimaler gaan benutten. De games zouden zo gemaakt moeten worden zodat deze van meerdere cores gebruik kunnen maken, zodat 1 van de cores de physics bewerkingen voor zich kan nemen. In dat opzicht is de kaart van Ageia ook achterhaald vind ik (kijk ook maar eens naar de prijs). Naast de multi-core cpu die ook de physics vor zich neemt dan ook nog gewoon een goede grafische kaart die het pure renderwerk voor zich neemt.
Nee neit inderdaad. Waar denk je dat Multicore ook voor gebruikt kan worden zie Quake4 om voldoende mee te schalen met CPU power.
Drivers zijn sMP dus de render module kan ook SMP.

ALs dev's minder focused zijn op eyecandy en de game minder grafische lading heeft maar voldoen dan kunnen ze kiezen voor één core voor de andere modules te gebruiken. Alleen zal je dan moeten inleveren op je render module en een game die wel sMP voor render module gebruikt kan dus veel meer grafische pracht toveren op het scherm.

Daarnaast zijn CPU 'n stuk slechter in Physics ook al zou je een hele core ter beschikking hebben.
iig wel meer dan 'n single cor egmae. Maar CPU kunne pas mee concureren als ze SPE on die hebben die diez specializaties in hardware kunnen versnellen.
Zove ris het nog niet. DC is hard nodig niet een extra wat je nu krijgt.
Beetje tendentieus geschreven artikeltje...
Volgens ATi levert een kaart uit de X1000-serie meer dan genoeg gigaflops om op deze manier ingezet te worden, maar Triple Play werd desondanks met veel scepsis onthaald.
Dat werd het helemaal niet. Het werd alleen door Ageia met scepsis onthaald... Tja, dat is ook wel een beetje een open deur he?
Krijgen we straks ook nieuwsitems over Intel die AMDs nieuwe ontwerp met scepsis onthaald?

Dan nog een argument van iemand die ten eerste duidelijk maakt dat ie de ontwikkeling in de videokaart markt niet heeft gevolgd (denkt dat ATI pas na Nvidia een physics oplossing toont, terwijl iedereen die tweakers leest weet dat ATI eerder was) en verder het sterkste punt van ATI's oplossing niet begrijpt:
1. ATI's Radeon X1000-series 3D cards are DirectX 9 parts. By the time any games are out with Havok FX features, Windows Vista, and with it DirectX 10, will either have arrived or will be arriving imminently, rendering the current generation of Radeons obsolete. We're sure ATI will include Havok FX acceleration in its next-gen cards, but you'd be foolish to buy the Radeon X1900 XT card ATI is highlighting now in anticipation of future boosted game physics.
Die man heeft blijkbaar totaal niet in de gaten dat de physics kaart bij ATI niet gelijk hoeft te zijn.
Dus wanneer je DX9 kaart verouderd is, en je dat HavokFX spel met DX10 wilt spelen, dan koop je lekker een DX10 kaart, en zet je die DX9 kaart in als physics kaart.
Dat is een stuk voordeliger dan een Ageia PPU en een DX10 kaart kopen en die DX9 kaart weggooien.


En de argumenten van Ageia zijn ook nogal zwak:
We’re glad that they’ve validated physics as the next big thing in gaming
Niet bepaald. Er lijkt wellicht een markt voor te komen, en ze kunnen het heel makkelijk in hun kaarten inbouwen. Dus uiteraard springen ze er op in.
Maar als het een checkbox feature blijkt te zijn dan zullen ze er geen traan om laten.
The performance claims appear to be based solely on gigaflops of the Radeon chips and an assumption of PhysX gigaflops, but that is not a meaningful way to measure physics performance. That’s like suggesting that the more wheels I have on my car, the faster I will go. Physics requires much more than raw gigaflops.
Een uitspraak die nergens op gebaseerd is.
ATI heeft bovendien al de nodige physics demo's gedemonstreerd, die wat betreft performance indicatie zeker met Ageia konden wedijveren.
[/quote]
Graphics processors are designed for graphics. Physics is an entirely different environment.
[quote]
Typisch een uitspraak gericht op mensen die niet veel kennis van grafische chips hebben.
De rest weet immers dat GPU's tegenwoordig door het gebruik van pixel en vertex shaders super flexibel geworden zijn.
Niet voor niets wordt er tegenwoordig over gpgpu's gepraat.
En dat is al begonnen voordat Ageia met hun PPU kwam.
Why would you sacrifice graphics performance for questionable physics? You’ll be hard pressed to find game developers who don’t want to use all the graphics power they can get, thus leaving very little for anything else in that chip.
Die uitspraak is gewoon niet waar. Er wordt helemaal geen grafische performance opgeofferd aan physics.
Je gebruikt in beide gevallen een dedicated kaart voor physics. Of dat ding nu toevallig Ageia PPU heet, of ATI X1600 maakt daarbij geen moer uit.
“Boundless Gaming” is actually enabled by AGEIA’s Gaming Power Triangle in which the PhysX processor adds true physics to the mix instead of leaving it to a repurposed graphics processor.
pure FUD
In the end, what matters is who develops software for the product. There are games shipping for PhysX today
Yup. Eéntje. En daarbij merk je bijna niets van de PhysX features, anders dan dat het hardstikker traag word.
Bepaald niet iets om trots om te zijn, en zeker geen manier om mensen van je gelijk te overtuigen.
and more than 20 announced for 2006. In addition, over 65 developers of more than 100 games are deep in development for PhysX. No specific games are announced even in development mode for ATI.
Uiteraard nemen ze bij Ageia het woord Havok maar niet in de mond. Want als Havok FX gewoon ondersteunt wordt door de bestaande Havok spellen, dan zijn er ineens wel een heleboel spellen die ATI en Nvidia physics kaarten ondersteunen.
PhysX is here now
Da's waar ja.
Alleen is er nog geen enkel spel op de markt wat mensen van het nut van PhysX kan overtuigen.
Wat mij betreft krijgt deze ook een +5.
Maar je vergeet nog een belangrijk punt. De oplossingen van ATI en nVidia zijn een stuk flexibeler ontworpen dan dit. En zeker in het geval nVidia heb je nog een extra voordeel. Gelato.
Physics en Gelato staan op dit moment misschien nog wel los van mekaar maar voorspellingen gaan uit dat er vrij snel eindige elementen pakketten (zoals ansys, solidworks,... bv.) gaan verschijnen die ook van dergelijke physics oplossingen gebruik gaan maken.
En op dat ogenblik kom je op een punt dat je met 1 extra kaart bijvoorbeeld tijdens je analyses de kaart als Physics engine gebruikt en tijdens het renderproces die 2de kaart (in het geval nVidia) Gelato laat gebruiken om je videokaart te laten helpen in het render proces.
De reactie van deze mijnheer lijkt dan ook meer op een paniekreactie owv dreigende concurrentie dan een werkelijk statement.
PhysX is een veel ruimere Physics ondersteuning en dus ook op grotere schaal gameplay Physics ondersteund.

Dan wie gooid zijn DX9 kaart weg. die wordt normaal doorverkocht zodat je nieuwe inverstering de dx10 kaart 'n stuk minder voor moet neer leggen. Dat si ongeveer het bedrag van 'n PhysX kaart :)

Dit modergegooi is helaas 'n normaal fenomeen. Maar ook zeker terecht.
ATI en nV marketing laat ook alleen de plus punten horen zo ook ageia. Dus beide laten de con's zien over en weer. Zodat de consument wat meer critisch kan kijken naar wat er allemaal wordt gezegd. En als het tegenstrijdig is moet je toch even wat dieper spitten in de materie.

Havok FX met aTI en nV hebben nu vooral een marketings voordeel.

uiteindelijk gaat het om game support en om de eerste Zwaardere hardware accelerated Physic games te draaien in Optimum Physics heb je een ageia kaart nodig. Later als er leuke eyecandy Havok Physics games uitkomen is het tijd voor 'n extra G-kaart.

CF en SLI zie ik niet zitten één goeie kaart is voldoende voor renderen dus heb ik voldoende aan twee PCI-E 16 sloten.

Als je meer 'n hardcore gamer bent dan om helemaal klaar te zijn stop je er 'n PhysX kaart en 'n extra X1600 er bij.

Die Dell quad SLI plus PhysX is helemaal klaar voor beide. SLI voor renderen en sLI voor Physics.
Waar is die +5 optie? ;)
Alleen is er nog geen enkel spel op de markt wat mensen van het nut van PhysX kan overtuigen.
Kennelijk heb jij niet goed opgelet. CellFactor: Combat Training geeft een redelijk beeld van wat je nu van de PhysX kaart kan verwachten. Met de nieuwe SDK (2.5) die eraan zit te komen, zal het tevens mogelijk zijn meer dan 2000
NetRigidBodies te renderen, en ook multi-shape objects zullen eindelijk van de partij zijn, zodat physics eindelijk het niveau van dozen en barrels kan ontvluchten waardoor physics-enhanced gameplay eindelijk een waar begrip wordt. 'Volledig verwoestbare omgevingen' zullen een feit worden, en zich niet beperken tot wat we tot nu toe in games hebben gezien.
Uiteraard nemen ze bij Ageia het woord Havok maar niet in de mond. Want als Havok FX gewoon ondersteunt wordt door de bestaande Havok spellen, dan zijn er ineens wel een heleboel spellen die ATI en Nvidia physics kaarten ondersteunen.
Onrealistisch. Ten eerste zijn Havok en Havok FX twee verschillende producten, en de prijs van een Havok FX licentie begint bij de ton, terwijl de PhysX SDK kostenloos wordt aangeboden aan gamedevelopers. Tevens is het ondenkbaar dat alsnog Havok FX in reeds gelancheerde spellen wordt geïmplementeerd, aangezien zoiets veel tijd en geld kost, en de kans zeer klein is dat die investering wordt terugverdiend (op de spellen die reeds bij mensen thuisliggen wordt niets meer verdiend).

Iets wat ik me eigenlijk meer afvraag..welk moederbord heeft drie PCI-E 16x slots?
CellFActor geeft een aardig beeld wat je kan verwachten ja.
Namelijk physics die je ook prima met een krachtige CPU kan afhandelen....

Er zijn wat mensen aan het rommelen geweest met CellFactor om te kijken wat nou de werkelijke impact is van de PPU. En dat viel nogal zwaar tegen.
Klopt, je kan ook zonder hardware de CF demo draaien. De zogenaamde benchmarks slaan echter nergens op, ze zijn in singleplayer uitgevoerd, zonder cloths en fluids. Het aanzetten van cloths en fluids in software-mode brengt je FPS instantly naar bijna 0. Verder worden er in software-mode minder objecten gespawned. In multiplayer is het spel onspeelbaar zonder de kaart, omdat je dan te maken hebt met objecten die constant in beweging zijn in de scene. Het is echter waar dat wanneer je in software mode, in single player een granaat naar een stel kratten gooit, dit gewoon werkt. Dit is namelijk wat de CPU nog kan afhandelen. Het is echter niet zo dat een CPU hier efficiënter in is.
Er is tot nu toe volgens mijn nog geen mobo met 3 PCI-E slots maaar zie http://www.theinq.net/?article=32190

Dus kan nog komen :D
ik ben nog steeds voor, dat ageia gewoon chips produceerd die dan standaard in videokaarten van nvidia zowel ati worden geintegreerd.

want waarom zou je nou een heel PCI slot opofferen voor iets wat ook ergens bij op kan?
misschien nog beter dat het op bepaalde "game-moederborden" wordt geintegreerd.
dat is ook een helder argument voor onboard graphics, ethrenet sound raid etc.
zo heb je nooit meer een pci slot nodig.
alleen heb je met onboard graphics niet echt de keuze voor gaming of een low budget model, al voor office PC's is het vaak voldoende.

ook geluid wil je wel graag een keuze

maar zo'n phisics chip is gewoon het zelfde en die is nog lekker standaard.
@ the_virus

Wie zegt 3x 250 euro?
Kan ook rustig 3 keer aan 1600xt zijn toch?
Daarbij.. rest gaat wel op.. maar 250 euro is wat kort door de bocht
Eerlijk gezegd ben ik het wel met Ageia eens, physics is echt een andere tak van sport. De nauwkeurigheid is bijvoorbeeld veel belangrijker en zelfs de 32-bit float implementaties van zowel ATI als nVidia voldoen niet aan de eisen van de IEEE standaard. Ook kun je je bij realtime physics geen snelheids wisselingen veroorloven. Bij veel simulaties is de maximale tijdstap die genomen kan worden zeer beperkt wat betekend dat je een constante snelheid moet kunnen garanderen. Wat ik begrepen heb is de PPU van Ageia hier speciaal voor ontworpen en gaan de simulaties op volle snelheid door ook als de CPU even te druk is om de resultaten te verwerken. Dit zie ik bij de ATI (of nVidia) oplossing nog niet zo snel gebeuren.

Edit: Sorry, geen nVidea
Je gaat hierbij uit van wetenschappelijke toepassingen van het berekenen van physics (zoals FEM, wat ik zelf bijna dagelijks gebruik), echter voor een game doet de accuraatheid er minder toe dan de hoeveelheid.
Wil je 1 grassprietje 99,999999% nauwkeurig laten berekenen of 100 sprietjes 95%?

De grafische kaarten zouden best eens (wellicht na een paar optimalisaties) veel meer physics kunnen afhandelen dan ageia's oplossing. Je hoort tegenwoordig ook niemand klagen over de integratie van de co-processor (in de cpu).
Met dit bericht probeert Ageia wat aan hun marketng te doen en hun kaart te promoten, in de hoop dat iedereen omgaat. Doordat ATi een bericht heeft uitgestuurd over een dergelijke oplossing zullen de Ageia verkopen teruglopen, aangezien men nu weer een afwachtnde houding gaat nemen met aanschaf.

Aangezien ze zelf nog niet een ATi kaart werkend hebben gezien kunnen ze er feitleijk nog niets over zeggen. Mogelijk dat ATi met speciale drivers een GPU iets anders kan laten doen waardoor ze, met name, hun eigen kaarten een flinke boost kunnen geven, voor een betaalbaardere prijs.

Wel goed voor de prijs deze ontwikkelingen, aangezien Ageia zich nog steeds alleen zag staan in de markt en niet van concurrentie last had. Nu nog even wachten op ATi's benchmark's, alleen die kunnen een antwoord op de vraag geven of ATi echt iets in handen heeft. Zou ATi wel weer op de kaart zetten als Nvidia achterblijft met een antwoord, zo ver zelfs dat ze misschien straks Nvidia een tijdje achter zich laten, daar Nvidia steeds meer uitbreid naar andere produkten en mogelijk daardoor steeds later aan tafel schuift.
Hoezo Nvidia achterblijven met een antwoord? Nvidia kwam vorige maand al met een soortgelijke oplossing en was dus ATi voor.
http://www.nvidia.com/object/IO_30478.html
Begin je weer over wie eerder was? Dan quote ik mezelf gewoon weer effe uit het andere topic waar je precies hetzelfde beweerde: nieuws: ATi demonstreert physicsengine op CrossFire-configuratie

----

Als je het flauwe spelletje wil spelen wie eerder was... dan moet je echt even je feiten checken. ATi was eerder hoor.

Al tijdens de lancering van de X1800 serie lieten ze demos zien van physicsberekeningen op hun GPUs. Dit was dus al in Oktober 2005. Iedereen zat vanaf dat moment al gespannen te wachten op de officiele introductie.

Zie ook bv:
http://www.xbitlabs.com/n...splay/20051005202331.html

en dit op 11 Oktober 2005:
ATI practically kicked off its press event for the Radeon X1000 series with a physics demo running on a Radeon graphics card. Rich Heye, VP and GM of ATI's Desktop Business Unit, showed off a simulation of rolling ocean waves comparing physics performance on a CPU versus a GPU. The CPU-based version of the demo was slow and choppy, while the Radeon churned through the simulation well enough to make the waves flow, er, fluidly. The GPU, he proclaimed, is very good for physics work, and he threw out some impressive FLOPS numbers to accentuate the point. A Pentium 4 at 3GHz, he said, peaks out at 12 GFLOPS and has 5.96GB/s of memory bandwidth. By contrast, a Radeon X1800 XT can reach 83 GFLOPS and has 42GB/s of memory bandwidth.

This demonstration was more important as a statement of position and direction for ATI than anything else. NVIDIA has been rather enigmatic about any plans for physics processing, and has seemed to step out of AGEIA's way for the most part, welcoming the PhysX effort as another means of improving PC gaming. ATI is clearly ready and willing to take on AGEIA's PhysX card by using its GPUs for physics simulation, and the company believes that the more general programmability of its Shader Model 3.0 implementation in the Radeon X1000 series could make it a viable competitor there. There was talk of a CrossFire dual-GPU config in a split setup, with one GPU handling graphics and the other handling physics for certain games, and somebody present even suggested the possibility of a third GPU on a PCI card dedicated to physics processing. The folks from ATI seemed to like this suggestion.
http://techreport.com/onearticle.x/8887

nVidia sprong hier handig op in door in Maart de boel al te paperlaunchen, maar nog is hun SLi Physics niet flexibeler (alleen gelijke kaarten) noch sneller (X1600 > 7900GTX) dan ATi Physics.
Het hoeft geen X1900XTX te zijn. Kan volgens mij net zo goed een X1600XT zijn die physics berekend.
Klopt, zoals in het bericht al staat, het moet een kaart zijn uit de X1000 serie. Een X1600XT ziet in die serie dus dat zal zeker mogelijk zijn.
Het moet een kaart zijn met SM3.0. (voor HavokFX)
Vandaar dat het een X1000 serie moet zijn.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True