Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 90 reacties
Bron: X-Bit Labs

Raja Kodouri, senior architect bij ATi, heeft tegenover X-Bit Labs laten weten dat de huidige generatie videokaarten prima in staat is om natuurkundige berekeningen uit te voeren. DirectX 9.0-videokaarten zouden dit type berekeningen op zich kunnen nemen door middel van de pixelshaderprocessors in de pipeline. Wanneer videokaartenfabrikanten een dergelijke feature succesvol zouden implementeren zou dit slecht nieuws zijn voor het beginnende bedrijf Ageia dat binnenkort de markt wil bestormen met de PhysX Physics Processing Unit (PPU). Deze unit is gemonteerd op een uitbreidingskaart en kan de processor ontlasten door het overnemen van allerlei natuurkundige berekeningen. Hierdoor zouden effecten zoals haar, water en ontploffingen op een realistischere manier weergegeven kunnen worden.

Ageia logoHet inzetten van de videokaart voor de natuurkundige berekeningen in plaats van de processor biedt verschillende voordelen. Een videokaart heeft onder andere een architectuur die geoptimaliseerd is voor hetzelfde type rekenwerk terwijl de processor generiek is. ATi heeft geen uitspraak gedaan over de winst die geboekt zou kunnen worden door de videokaart op te zadelen met natuurkundige berekeningen, maar het zou potentieel het nut van de 250 dollar kostende PhysX-kaart ernstig kunnen beperken. De videokaart zal echter tegelijkertijd ook druk bezig moeten met de grafische kant van het verhaal waardoor het wellicht niet de best presterende oplossing zal zijn. In hoeverre een losse kaart voor natuurkundige berekeningen een toekomst heeft zal de consument binnenkort moeten bepalen. Ageia heeft in ieder geval enkele grote game ontwikkelaars gestrikt om gebruik te gaan maken van hun technologie.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (90)

Wanneer videokaartenfabrikanten een dergelijke feature succesvol zouden implementeren zou dit slecht nieuws zijn voor het beginnende bedrijf Ageia dat binnenkort de markt wil bestormen met de PhysX Physics Processing Unit (PPU).
Dat valt denk ik wel mee, er zijn genoeg videokaarten die deze functie nog niet ondersteunen. Wel een leuke functie, het scheelt een hoop geld!
Elke video kaart die directx 8 of opengl ondersteund kan dit al. Er is al een speciale library uitgebracht om er gebruik van te maken (brookgpu).

alleen wil je dat ook? want als je de gpu physics laat doen blijft er minder peformance over voor grafisch geweld.
Helemaal mee eens.
De gemiddelde videokaart heeft het op dit moment druk genoeg met zijn core business, het verwerken van de grafische gegevens.
Het is natuurlijk waar dat als je geen games aan het spelen bent die tijd vrij komt. Maarja in windows heb je er dan ook niet zoveel aan. En dat is ook niet waar Ageia zich op richt.
Ik denk dat Ageia een mooi product heeft wat prima kan concureren met videokaarten mocht het zover komen.
Tja maar als dat kaartje toch $250 mag kosten dan weet ik wel wat ik met die $250 ga doen.

Dan neem ik 2 ATI's ens als de 2e dan geen PPU berekeningen te doen heeft kan hij mooi zorgen voor een paar frames extra :)
@bovenstaande heren,

Deze argumenten kwamen mensen ook mee aan toen de eerste 3d accelerator uit kwam(voodoo1).
Ik ben het met jullie eens dat je eerst de benchmarks moet afwachten. Maar het kan best zo zijn dat het toch slimmer wordt om een vid kaart van 200,- en Ageia van 250,- te kopen ipv alleen een vid kaart van 450,-. Daarnaast kan het een leuke upgrade zijn voor iemand met een oudere computer en een middenklasser videokaart.
Afwachten dus, maar dat een videokaart een Ageia gaat verslaan zie ik persoonlijk nog niet gebeuren.
Dan zullen games ook de GPU Physic libary moeten ondersteunen 'n game met novodex zal iig de GPU daarvoor niet gebruiken anders gooied de makes van de Pysix eigen ruiten in. Daarnaast worden games ook steeds zwaarder en de overkill van nu van GPU gebruik je later in de 2de helft van die diensttijd van je kaart in mijn geval 3 tot 5 jaar of meer.
Uit eindelijk komt het neer wat de Dev's prefereren en ik denk dat als GPU physics de nrender kracht weg neemd de dev eerder voor 'n dedicated PPU kiezen.
En twee verschillende Physics API gebruiken houd in ook dubbel werk.
Je GPU is regelmatig idle bij het spelen van games, aangezien bijna alle spellen op dit moment cpu begrensd zijn als je een moderne gpu hebt.
Of bekijk het eens van de andere kant: je koopt zo'n physX voor je haartjes en je watertjes. En als je spel even tijdelijk geen haartjes en watertjes te verwerken heeft, dan wordt je physX (versie 1.2, die Crossfire 2.0 ondersteunt) ingezet om wat polygonen van een kleurtje te voorzien.

Als een GPU physics kan doen (hetzij iets minder efficient), dan kan een PPU net zo goed met grafische taken overweg. Antialiasing bijvoorbeeld, dat is SIMD par excellence.
@netvor:
Een interessante gedachte, maar in de praktijk zal dat niet werkbaar zijn. Het probleem is namelijk bandbreedte.
Voor die physics berekeningen is maar weinig bandbreedte nodig. Maar voor grafische zaken heb je juist wel heel veel bandbreedte nodig. (vandaar ook dat grafische kaarten hun eigen geheugen hebben)

Een PPU heeft die bandbreedte niet beschikbaar, en zal daarom dus geen grafische taken kunnen overnemen.
Daar sluit ik me helemaal bij aan, die PPU is een leuk "hebbeding" naar mijn mening, maar voor 250 euro extra kan ik een beduidend zwaardere grapische kaart, of kaarten, in mijn systeem zetten. Dat liever dan een PPU, tenzij de videokaart het werk natuurlijk beduidend slechter doet, maar dat zal een goede review mogen uittesten :P. Dan een kaart van 200 euro + PPU (=450 euro) en een videokaart van 450. Vergelijk de verschillen :). En zow at meer vergelijken dus.
@darthdrinker:

Het feit dat we eerst een accurate test moeten afwachten gaf ik al aan en ben ik dus zeker met je eens. Maar ook als je een voordeel haalt op het gebied van Physics dan is het nog maar de vraag of je het verlies in Graphics daar voor op wilt overren, als je de videokaart de Physics laat opknappen dan kun je die voor beide doeleinden gebruiken, wat minder voor Physics en meer voor de Graphics, etc etc etc.

Het zal dus eerst gestest moeten worden hoeveel het je scheelt, en belangrijker, een persoonlijke keuze blijven of je de kaart wil aanschafen. De mensen die "the best of the best" willen zullen zeker geintereseerd zijn, de "gemiddelde" gamer waarschijnlijk niet, althans dat vermoed ik. 250 euro verschil met de videokaart van de gemiddelde gamer is gewoon teveel verschil in videokaartklasse. Je gaat dan van mid-range naar high-end.. Als je nu een kaart van rond de 500 euro hebt zul je minder snel 250 euro extra besteden verschilt dat in verhouding weer minder. Anyway, we'll see :)
ik kan me vergissen, maar volgens mij is het momenteel zo dat die PPU je CPU ontlast. Dit artikel beschrijft dat moderne GPU's dit ook zouden kunnen.

Dus als je het al zou gaan vergelijken, vergelijk dan performance van 250 $ PPU kaartje erbij of een 250$ duurdere CPU. Want hoe vaak tijdens het spelen van een game is je GPU idle? psies, nooit.

je kan wel doodleuk een 200$ grafisch kaartje met PPU gaan vergelijken met alleen een 450$ grafisch kaartje, maar dan hebt je nog steeds met die 200$ kaart een stuk meer technische beperkingen tov die duurdere kaart.

leuk dat je dan een PPU erbij hebt, maar toch zal de overall kwaliteit niet beter zijn dan de duurdere kaart
Ik denk dat er synergie voordeel te behalen valt. Ati kan zijn kennis van pipelines en pixelshaders inzetten om een zelfde soort chip neer te zetten als de PPU maar dan met veel minder kosten, waarmee ze zich makkelijk de markt in kunnen vechten. In het simpelste geval heb je alleen een library nodig, maar het moet ook mogelijk zijn om met een (kosten)voorsprong ook zo'n kaart te ontwikkelen. Dit scheelt echter jou niet direct geld, maar Ati wel.
Dat is inderdaad wel een groot risico voor Ageia.

Als je kijkt dat ze nu met een 130nm kaart komen. Stel je eens voor dat ATI een eigen PPU gaat maken, maar door hun grote ervaring het ding meteen op 90nm en hogere frequenties bouwen?

Dan hebben we straks wel allemaal PPU kaarten, maar niet van Ageia...
tja, maar dan reist de vraag mbt patenten en libraries..
Hebben ATI en Nvidia daar problemen mee gehad, toen 3DFX ineens een 3D markt creŽerde?

Ageia kan wellicht proberen een eigen API te claimen, (zoals 3DFX met Glide deed) maar uiteindelijk mislukken dat soort pogingen altijd.
ik geef Ageia twee jaar, en dan zijn ze er niet meer.

dit doet me sterk denken aan vroegah toen er speciale ReelMagic kaarten op de markt kwamen om MPEG1 af te spelen (ten tijde van de CD-i). en zie nu, geheel opgeslokt door de CPU en/of de videokaart.
Die vergelijking gaat niet op.

Mpeg1 decoding bleef evenveel berekeningen vergen. In eerste instantie was dat te zwaar voor een cpu, maar met eerdere nieuwe cpu kwam het punt dichterbij waarop een cpu snel genoeg zou zijn om die berekeningen realtime uit te voeren.
Daardoor kon een cpu en/of videokaart op een gegeven moment zwaar genoeg zijn om dat decoden zelf te doen.

Bij phyiscs berekeningen geldt dat niet. Die zullen in de loop der tijd namelijk steeds zwaarder worden. Spellen zullen immers steeds complexer worden. Daardoor is het voor een cpu een stuk moeilijker om dat op termijn op te slokken.

Tenzij de ontwikkeling van de cpu sneller gaat dan de ontwikkeling van de ppu.
En gezien de veel grotere markt voor cpu's is die kans wel aanwezig.
Ik zei het, ik wist het, ik dacht het. De PPU, dat kan nooit aanslaan. Gezien de komst van dual core en dit soort ontwikkelinger is het gewoon geen rendabele bezigheid voor 99,9% van de gamemakers.
Ik vind dit wel erg kort door de bocht. Daarnaast is het veel te vroeg om een dergelijke conclusie te kunnen trekken. Een jaar of 10 geleden stond de computerwereld precies voor een vergelijkbaar fenomeen, nl.: 3D grafische versnellers!!! Of zijn we dat al vergeten? De reacties destijds waren aanvankelijk exact hetzelfde.

Persoonlijk denk ik dat de PPU wel degelijk toekomst heeft. Indien de resultaten positief zijn, dan gaat dit zeker wel lopen. Het is zelfs niet ondenkbaar dat deze in de toekomst geheel geÔntegreerd gaat worden met een grafische kaart. De PPU zal niet alleen voor spellen, maar ook voor serieuzere toepassingen (zoals: simulatoren) gebruikt kunnen gaan worden.

Het bovenstaande artikel neem ik met een korrel zout. Zoals een echte IT-er zegt indien zijn baas weer iets "vernieuwends" vraagt: "Ja, alles is mogelijk ...". In dit geval zal het de grafische performance absoluut niet ten goede komen. Sterker nog: indien ik naar de videokaarten in de low- en mid-range kijk, hebben deze kaarten geregeld de grootste moeite om nog een acceptabel niveau aan grafische kwaliteit gekoppeld aan de benodigde frames-per-second eruit te persen. Tijd voor ingewikkelde physics berekeningen is er dan echt niet meer bij.

Ik zou zeggen: wacht rustig af.
Het grote verschil met de stap naar 3D kaarten is dat een PPU en pixelshaders in een GPU geoptimaliseerd zijn voor dezelfde soort berekeningen. De CPU en de GPU liggen qua mogelijkheden veel verder uit elkaar waardoor de GPU voor relatief weinig geld grote verbeteringen kon opleveren.

Aangezien de moderne videokaarten ook nog samen kunnen werken (SLI, crossfire) en op dit moment in zo'n configuratie eigenlijk meer dan genoeg performance leveren kan het effectiever zijn de hardware van de GPU voor deze berekeningen te gebruiken. Het is dan namelijk iets flexibiler.
Als echter een PPU van §250,- betere resultaten oplevert dan een extra GPU van §400,- is de PPU natuurlijk wel interessant. Maar zonder benchmarks is dat koffiedik kijken.

Echter, ik verwacht dat Raja Kodouri best wel eens gelijk kan hebben en dat een PPU te weinig voordeel op gaat leveren ten opzichte van GPUs. Zeker als Ati en NVidia hun producten gaan tweaken om het werk van de PPU minder ten koste van het grafische geweld te laten gaan.

Maar inderdaad eerst maar eens zien wat er nu in werkelijkheid van terecht gaat komen
De reacties destijds waren aanvankelijk exact hetzelfde.
Dit nu al de 3e keer of zo dat ik dit in deze thread hier lees. En allemaal zijn het de grootste bullshit kreten sinds lange tijd, ik ben een gamer van het eerste uur, voodoo1, voodoo2 kaartjes etc. en ik kan je verzekeren dat ALLE gamers enthousiast waren als ze ook maar 1 screenshot zagen!! Misschien niet diegenen die in grotten wonen, maar bij de rest wel.

De scepcis over de physics kaart is omdat iedereen op zijn klompen gaat aanvoelen dat die functionaliteit als extra functionaliteit op videokaarten zal worden geimplementeerd.
Ik denk echter dat je er naast zit. Ik heb zo'n vermoeden dat ze er gewoon wat hebben bij gepropt, maar niet het effect zullen evenaren van zo'n extra PPU kaart.

Het zelfde geld voor een Videokaart en een Video Encoder. De videokaart heeft zo'n functie, maar valt in het niets bij een TV kaart die wel zo'n "echte" functie ondersteunt.

Ik ben een van de mensen die wel een PPU kaart zal aanschaffen, naast een Ray-tracing kaart, die ook erg interresant is. De laatste echt moet ik de specs nog van bekijken, maar een PPU heeft zijn nut in mijn ogen al bewezen.

Die moet er namelijk voor zorgen dat die de taken van een Videokaart afnemen, zodat er meer kracht overblijft voor andere zaken. Daarmee kunnen juist betere graphics op een zelfde kaart worden behaald zonder hem over te clocken of andere dergelijke zaken.
edit
De laatste echt moet ik de specs nog van bekijken, maar een PPU heeft zijn nut in mijn ogen al bewezen.
/edit

misschien dat je dit kunt onderbouwen ? benchmarks ofzow ? ik ben er nog jammer genoeg geen enkele tegengekomen en ben dus best geinteresseerd in eentje...
als je anders zegt dat ie zich al bewezen heeft gebaseerd op niets dan kunnen we dat logischerwijze ook wel zeggen van de gpu die dezelfde bewerkingen maakt...
wat je zegt een dualcore zal perfect zijn om de phisics te berekenen met de 2e core
wat je zegt een dualcore zal perfect zijn om de phisics te berekenen met de 2e core
Maar toch minder perfect dan een PPU, en waarschijnlijk ook minder dan een GPU.
Dat roept iedereen wel, maar ik heb daar nog nergens enig bewijs of zelfs maar een indicatie van gezien.

Bedenk ook even dat die PPU een processor op 130nm wordt, terwijl Intel dan al op 65nm zit. Goede kans dat een Intel gewoon op brute force die PPU kan verslaan, voor dezelfde prijs.
het enige nadeel dat ik hierbij zie is dat het vrijwel zeker FPS gaat kosten als de videokaart shaders het werkt moeten doen.
die kunnen dan immers niet meer voor het beeld zelf ingezet worden.
ik kan me goed voorstellen dat die dingen regelmatig wat idle tijd hebben maar of dat genoeg is om de zelfde potentiele prestaties van de ppu neer te zetten blijft de vraag. (sterker het is nog maar de vraag of als die shaders er fulltime aan werken de de ppu kunnen evenaaren.)

het zou wel eventueel een leuk extra features kunnen zijn om mensen zonder (geld voor een) ppu toch een beetje van de extra mogenlijkheden die dat biedt te laten genieten.
Het zou perfect zijn wanneer je een bepaalde minimum framerate kunt instellen en de rest van de rekenkracht aan physics berekeningen kunt toewijzen.
Met de huidige snelle videokaarten zoals de Geforce 7800GT(X) worden vaak framerates van 100 of meer gehaald, terwijl 60 fps misschien wel voldoende is. Dan zou dus iets van 40% van de rekenkracht van de GPU gebruikt kunnen worden voor physics. Dat is een win-win situatie.
Het zou perfect zijn wanneer je een bepaalde minimum framerate kunt instellen en de rest van de rekenkracht aan physics berekeningen kunt toewijzen.
Ok, je stelt een ondergrens van 60fps in, hier volgt een doemscenario waar menig gamer nachtmerries van zal krijgen.. lees en huiver:

De grens van 60 fps wordt net niet gehaald, dus van de 16 pipelines worden er bijvoorbeeld nog maar 4 voor physics gebruikt in plaats van 8..
Tot zover klinkt het leuk, maar: de 4 pipelines van de GPU zijn niet voldoende, dus zal de CPU moeten gaan helpen, daar deze hier niet echt geschikt voor is zakt de framerate. De grens van 60fps wordt dus nog steeds niet gehaald, en de GPU doet daarom helemaal geen physics meer, je CPU krijgt het nog warmer en de framerate zakt nog verder omdat AI ed. ook niet meer op tijd aan de beurt komen.

GELUKKIG heeft de maker van het spel hier rekening mee gehouden, en als de CPU physics moet gaan doen, zijn het geen tienduizenden solids/fluids/ragdolls meer, maar zijn ze op 1 hand te tellen, ook collisions/clipping wordt wat vereenvoudigd om de framerate nog een klein beetje acceptabel te houden. Dus er is niks aan de hand?

Jawel, want bij het omschakelen van ingewikkelde physics voor de GPU naar simpele crap voor de CPU ben je vast blijven hangen in een voorbijvliegend olievat/krat (2 objecten die om een onduidelijke reden achterlijk vaak te vinden zijn in games)
Je ziet geen ene flikker meer en je hoofd steekt nog net aan de bovenkant uit het betreffende object BOEM headshot.. compo verloren en dus geen nieuwe videokaart/dvd-brander mee naar huis.

*jammer*..
Je moet nu al een vrij recente videokaart (lees prijzig) hebben om de nieuwste spellen goed te kunnen spelen. Als die kaart dan een deel van zijn rekenkracht aan natuurkundige berekeningen moet besteden, zal dit ten koste gaan van de beeldkwaliteit.

Dus voor dezelfde beeldkwaliteit moeten we of een snellere videokaart, dus behoorlijk betalen. Of een extra kaart waarvoor je ook moet betalen.

Kortom: hoe je het ook wend of keerd, de gamer mag de portmonnee weer trekken.
Maar hij krijgt er wel betere (nou ja, realistischere) games voor.

En daarnaast, de prijs van een PC, inclusief alle extra kaarten is de afgelopen jaren redelijk gelijk gebleven en zelfs ietsjes afgenomen.

Als je vergelijkt wat je nu voor een bakbeest voor 1500 euro krijgt vergeleken met wat je daar 5 jaar geleden voor kreeg, dan heeft de consument een gigantische vooruitgang in waarde voor zijn geld gekregen
Als dit waar is weet ik wel zeker dat je dan beter een iets duurdere gaka kan kopen. Die 250 dollar voor een PPU vind ik toch al enorm hoog (en je kan er natuurlijk op rekenen dat je binnen de korste keren weer moet upgraden) dan kan je beter 100 euro voor een videokaart meer betalen die dan ook physics doet.
Vergeet even niet dat die PPU:
1. Puur voor physics is ontworpen en het daarom waarschijnlijk per pipeline per mhz iets beter zal doen (een GPU is opzich niet ongeschikt voor dit werk, maar van een dedicated PPU mag je toch wel meer performance verwachten)

2. Ongeveer 125M tranistoren heeft, dat is dus meer dan de helft van een 6800 Ultra of X800XT (ongeveer), hetzelfde effect met een GPU bereiken zou dus ruim de helft van zo'n videokaart leegtrekken (ik gok er hierbij op dat het elkaar qua clocksnelheid niet veel ontloopt) Pas met een SLI systeem zal je het verlies in performance van je videokaart niet meer merken.

3. in Q4 van dit jaar in de winkel ligt, voordat Ati of nVidia met een degelijk alternatief komen zijn we minstens een half jaar verder. nVidia is overigens wel bezig met het gebruiken van de GPU voor andere taken (dus niet alleen physics) maar ook dat komt nog niet echt van de grond voor zover ik weet.

Daarbij komen er nog redelijk grote games aan die op dit moment met de Ageia PPU in het achterhoofd worden gemaakt (UT 2k7 bijvoorbeeld)

Al met al lijkt de Ageia PPU me alles behalve kansloos.
Een paar nuances daarover:
1. Is die PPU puur voor bepaalde physics functies ontworpen of is het meer een algemene cpu die wel vreselijk sterk is op floating point gebied. (Op die manier zou je veel meer flexibiliteit in je physics berekeningen houden)

2. zet 125M transistoren op 130nm eens af tegen 321M transistoren op 90nm. Denk je dat die PPU 625Mhz haalt?
Die PPU moet dan ook wel veel efficienter dan een gpu zijn voor die physics berekeningen, omdat ie eerst die grote achterstand moet goedmaken.

3. Zoals WC-Eend al heeft aangegeven heeft ATI op dit moment al een demo gegeven waarbij een ATi kaart in crossfire opstelling als pyshics processor ingezet werd. Dus wat dat betreft zijn ze al behoorlijk ver gevorderd en komt het wellicht sneller dan je denkt.
http://www.beyond3d.com/reviews/ati/r520/index.php?p=08

Al met al lijkt de Ageia PPU mij ook niet kansloos, maar ik denk wel dat er veel eerder en veel zwaardere concurentie zal komen, dan zij in eerste instantie verwacht hebben.
Precies.... en dat is waarom dit zo'n k**streek is van ATI... een product de nek omdraaien voordat het gelanceerd wordt... :P

Maar ja, misschien wordt hierdoor die PPU dan maar § 100 per kaart :9
Als ATi het voor elkaar krijgt om zijn volgende generatie kaarten dit te laten doen, voor een goedkope prijs, dan is het zeker slecht nieuws voor Ageia. Het kan ze ook de voorsprong geven op nVidia aangezien de mensen die de high-end kaarten kopen, ook de games kopen die het zullen onderstunen.
En ATI kan dit, als DirectX9.0d ofzo bijvoorbeeld enkel en alleen al de te berekenen stof anders naar ATI's kaarten stuurt of de drivers zo'n materiaal accepteren, is het meteen mogelijk.

LET OP: De grafische kaarten van nu, moeten (op hardware niveau) niet meer aangepast worden! Het gaat erom dat de mensen die de drivers maken, het erinsteken. Een soort van API's schrijven speciaal voor ATI's grafische kaarten, om natuurkundige berekeningen verder te verwerken.
En als de GPU dan toch ook al de fysieke eigenschappen van alle objecten weet, waarom dan niet meteen ook een 3d-sound geluidschip er bij integreren? De CPU kan zich dan specialiseren in het regiseren van acteurs (geavanceerdere AI etc.).
3D geluid? dan moet je ook boxen boven en onder je hebben. Voor, zij en achter is geluid in een vlak, dus 2D. Verder moeten er allerlei vervelende componenten extra op zon' kaart komen... bijv versterkers. Wordt die kaart nog groter!
3d geluid kan toch ook met twee 7.1 kaarten in SLI opstelling? 7 rondom je van links naar rechts en 7 rondom je van boven naar beneden.

HŤ net weer een nieuw nut bedacht voor die gigabyte moederbord van een paar dagen geleden. ;)
3d geluid is zelfs met 2 speakers mogelijk...
das inclusief boven en onder..
theoretisch zijn alle vormen van geluid mogelijk met maar 2 boxjes, dit namelijk omdat jij maar 2 oren op je hoofd heb zitten. het nadeel is dat wij zo makkelijk geluid oppakken uit de omgeving en het kunnen localiseren. dit krijgen 2 boxjes niet voor elkaar omdat zij technisch niet zo goed zijn als onze oren.
Dat valt nog best mee hoor. Voor games heb je nu eigenlijk maar 4.1 nodig. Dat zou met echt 3d geluid dus 8.1 worden. Als je nu al kaarten met 8 kanalen (7.1) ziet, dan maakt 1 kanaal extra toch ook niet echt uit denk ik.

Oh, ik zie dat ik zit te blaten. Je hebt het over geluid op de grafische kaart. Je hebt gelijk, de kaart wordt groter. Ik denk ook niet dat je uiteindelijk alles op 1 kaart wil hebben. Je krijgt dan 3 min of meer losstaande technieken op 1 kaart. Dan veroudert hij nog sneller.
Lol.. Je video en geluidskaart samen in een sli opstelling :+
Er kan inderdaad al belachelijk veel met de huidige SM3.0 pixel shader pipeline, maar dat is vooral het massale floating point stampwerk. Geometrische operaties, zoals collision detection en uitvinden welke deeltjes elkaar beinvloeden (voor vloeistof simulatie) zijn erg lastig en inefficient op een graphics processor (maar wel mogelijk, zie www.gpgpu.org).
Je verwacht dat een physics processor ook hierin gespecialiseerd zal zijn. Het ene sluit het andere dus zeker niet uit.
We zullen wel zien, wanneer de eerste kaarten uitkomen met deze optie. interresante ontwikkeling.

Maar aan de andere kant ook beetje makkelijk nieuws van ATI. ben er van overtuigd, dat je de GPU vast ook wel andere dingen kan laten berekenen.
wel typisch dat je het pas kan berekenen wanneer er een ander iets voor ontwikkeld. als Ageia niet aangekomen was met deze feature was Ati waarschijnlijk er niet mee angekomen.
Asus heeft al een PhysX Physics Processing kaart Dus ik hoop dat er snel een review van gaat verschijnen.

En ik denk zelf ook dat deze kaart erg nuttig is. AL sje de VGAkaart ontlast kan je wel degelijkmeer frames halen omdat die daar dan gewoon meer tijd voor heeft. al is het maar 10 a 20 fps extra dat zal een perfecte score zijn icm met een PPU

nieuws: Asus PhysX-kaart op de gevoelige plaat vastgelegd
ha dat zei ik al dat dat ding overbodig zou worden.

tegen de tijd dat die PPU goed en wel is ingebeurgert is hij al overbodig omdat de erst van je pc het allemaal al kan berekenen
integendeel.
Het zou juist heel nuttig kunnen worden. Voor realistische gameplay zal voorloping niet genoeg rekenkracht beschikbaar zijn. Alle extra;s zijn welkom.

Als een video kaart ook physics kan berekenen had hij deze power ook kunnen gebruiken voor graphics. Dus blijft er minder over van de GPU performance.

De vraag is of de toekomstige games deze performace gaan vragen m.b.t. physics. Waar blijven de ultra realische games waar zelfs de houtsnippers van ingeslagen kogels op een houten deur real-time realisch berekend worden.... }>
Alleen zou pas op de generatie na de R580 kunnen worden, ATI is verrast door deze vootreffelijke vonst van AEGIA.
Nee hoor, dat zou al op de huidige generatie kunnen.

ATI is namelijk druk bezig met GPGPU mogelijkheden op de R520.
En dan is het niet zo'n vreemd idee om die mogelijkheden toe te passen voor phsysics berekeningen.

Zoals al eerder aangegeven in deze thread is de hardware er al klaar voor, maar moeten drivers en api's daarvoor nog aangepast worden.
ATi heeft dit al werkend laten zien op een CrossFire opstelling tijdens de launch op Ibiza. Wat ze gedaan hebben was een demo laten zien van een CF opstelling, waarbij de Mastercard de graphics voor z'n rekening nam, terwijl de Slave Card de physics deed.
During a demonstration of Crossfire ATI displayed an interesting demo which put the Crossfire cards to an alternative use. As opposed to having the Crossfire boards increasing performance by distributing graphics workloads across the two ATI has a demo with wave simulations that could be fully calculated on the CPU, have the CPU calculating the physics and the graphics rendering the image, or moving the rendering to one board and the physics of the wave simulation to the second graphics board, effectively turning it into a physics co-processor.
Bron: http://www.beyond3d.com/reviews/ati/r520/index.php?p=08

Ik zag hierboven ergens een reactie staan van "Maar aan de andere kant ook beetje makkelijk nieuws van ATI. ben er van overtuigd, dat je de GPU vast ook wel andere dingen kan laten berekenen." Dat klopt. ATI GPUs worden inmiddels ook gebruikt voor experimenten met supercomputing. Het blijkt dat GPUs (zowel van ATi als nV) veel sneller zijn in dat soort dingen dan P4s of A64s.

Zie bv: http://graphics.stanford.edu/papers/clawhmmer/ waaruit blijkt dat de R520 sneller is dan alle andere CPUs en GPUs die er tot nu toe zijn uitgekomen.
Tja, maar dan heb je eigenlijk ook geen zak aan die 2e video kaart, want je zult die crossfire setup toch echt hebben omdat je betere mooiere graphics wilt, niet om de oude zelfde 1 videokaart graphics te hebben en geweldige physics.. pffff...
Let wel steeds meer bedrijven maken gebruik van die standaard physics libraries en die kunnen weer zelf gebruik maken van welke hardware dan ook..
Of je geen zak hebt aan die tweede kaart is natuurlijk nog maar de vraag. Als een videokaart snel genoeg is om een game met 100fps te draaien op 1600x1200 met AA en AF, dan kan ik me goed voorstellen dat de tweede kaart niet nodig is om er 180fps van te maken.

En in de huidige situatie is het zo dat pixelshaders en vertexshaders op bepaalde momenten gewoon uit hun neus staan te vreten wanneer er bijvoorbeeld een pixel of vertexshaderintensieve scene moet worden gerendert. De multi-threading architectuur (en straks ook de unified) staat het toe om hier efficienter mee om te gaan en die non-actieve pipelines te voeren met physics-data.

Als het dan mogelijk is dat de tweede kaart de physics over neemt, dan kan ik me goed voorstellen dat dit de performance ook ten goede komt, omdat de CPU dan minder te berekenen heeft en zich meer op het berekenen van andere dingen kan richten. Hierdoor zullen bepaalde games ook een boost kunnen krijgen.

Tel daarnaast op dat het waarschijnlijk ook mogelijk zal zijn om een X1800XT aan een X1300Pro te koppelen die op 600Mhz loopt en die laatste kaart de physics te laten berekenen, dan kan het ook nog eens voordeliger zijn om een goedkope videokaart te koppelen aan een dure high end kaart, dan een dure PPU van $250.

In dat laatste geval ga je inderdaad niet voor de dubbele performanceboost met CrossFire, maar daar kies je dan bewust voor omdat je voor physics gaat.
@SuperDre:

Zie het eens als volgt: Er zijn maar heel weinig spellen die iets als een PPU ondersteunen. (en de eerstkomende anderhalf jaar zal dat wel zo blijven)
En dan is §250 euro wel erg veel geld voor zo'n kaart.

Als je echter die 250§ uitgeeft aan een crossfire opstelling (en nog 150§ er bij legt) dan heb je voor de spellen die ppu ondersteunen die tweede kaart voor de physics, en voor het meerendeel van de andere spellen heb je dan een crossfire setup voor hogere AA instellingen etc.

Dan heb je uiteindelijk met zo'n crossfire opstelling wel veel meer waar voor je geld.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True