Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 56 reacties

Videokaartfabrikant EVGA zou een videokaart hebben ontworpen met daarop twee verschillende gpu's. De g200b zorgt voor de video-rendering. Een tweede gpu, een g92b, kan alleen physx-berekeningen uitvoeren.

Op de website van EVGA is een advertentie te vinden waar melding wordt gemaakt van een videokaart die meer doet dan het renderen van een vleermuis. De advertentie verwijst hiermee naar het spel Batman: Arkham Asylum, dat gebruikmaakt van Nvidia's Physx. De videokaart wordt op 30 oktober, tijdens Halloween, gelanceerd.

Volgens brightsideofnews.com gaat het om een videokaart waar twee verschillende gpu's op zitten, met elk een verschillende taak: het renderen van grafische beelden en het uitvoeren van physx-berekeningen. Evga zou hiervoor het pcb van een GTX 295 hebben gebruikt als uitgangspunt, waar één g200b-gpu van werd vervangen, voor een g92b-gpu.

De g200b-gpu heeft 240 shader processors en een 448bit-geheugenbus, waarmee het 896MB ddr3-geheugen aan kan spreken. De g92b-gpu heeft 128 shader processors en spreekt via een 256bit-geheugenbus 512MB geheugen aan. De g92b-gpu kan niet gebruikt worden om videobeelden te renderen en wordt dus alleen gebruikt als er physx-berekeningen uitgevoerd moeten worden.

Het is nog niet bekend hoeveel de videokaart moet gaan kosten. De vraag blijft natuurlijk in hoeverre dit nuttig is, aangezien de g92b-gpu veelal energie zal verbruiken, zonder dat deze gebruikt wordt.

EVGA videokaart aankondiging

Moderatie-faq Wijzig weergave

Reacties (56)

ik zie er geen meerwaarde in.
momenteel is ATi erg goed bezig en het opensource project heb ik veel meer vertrouwen in dat de Agia variant.

http://www.amd.com/us/pre...f-realism-2009sept30.aspx
Ik ben in dit verband wel benieuwd naar het verschil wat er is wanneer PhysX op de CPU gedaan wordt en wanneer de PhysX via een aparte GPU gedaan wordt. Dan kan je volgens mij pas echt beoordelen of dit kaartje toegevoegde waarde heeft.

Op zich wel een goede (PR)zet van EVGA. Als 'Nvidia only'-partner heeft EVGA het de komende tijd natuurlijk best lastig :)

[Reactie gewijzigd door dirkjesdirk op 22 oktober 2009 14:52]

Zelfs PhysX op de hoofd GPU (die ook de rendering voor z'n rekening neemt) heeft al een flink voordeel tenopzichte van PhysX op de CPU. En 2e GPU voor PhysX levert nog meer voordeel.

Bekijk hiervoor bijvoorbeeld eens reviews van PhysX bij Mirror's Edge, de resultaten van PhysX op een PPU zijn vergelijkbaar aan dat van PhysX op een aparte GPU. En vergelijkbaar aan PhysX uitgeshakeld (PhysX op een PPU of aparte GPU draaien heeft dus zo goed als geen invloed op de framerate).
edit: PhysX in Batman

ontopic:
Ik vraag me af wat de meerwaarde is tenopzichte van losse videokaart met een kleine en zuinigere GPU dan de G92b. Bijvoorbeeld een GeForce 9400 of 9600:
• Geforce 9400 is meer dan snel genoeg voor PhysX berekeningen, 9600 is iets sneller
• Zijn beide goedkoop (35 euro / 50 euro, dat is naar alle waarschijnlijkheid minder dan het prijsverschil tussen een GTX285 (of nog beter HD5870) en deze kaart van EVGA)
• Verbruiken beide een stuk minder dan een G92b chip.

Het enige voordeel dat ik me zo snel kan bedenken is dat je met deze kaart maar n PCI express slot gebruikt, dus het is een mooie oplossing voor moederborden met maar n slot. Een snellere GPU levert echter wel iets meer prestaties bij PhysX, maar het verschil is niet meer als een 2fps per GPU stap 9400->9600->9800->GTX260->etc.

@GhostShinigami - Bekijk de review eens, GTX295 + 9600GT voor PhysX scoort 13fps meer als alleen een GTX295 (42 vs 55). Dat vind ik best een groot voordeel. GTX285 + 9600GT presteerd zelfs beter als een losse GTX295.

@S1K - Daar had ik even niet aan gedacht. Met bijvoorbeeld die 9500GT @PCIe x1 is het enige voordeel van deze kaart dus meteen verdwenen. Volledig overbodig product dus (behalve in een kleine mATX/ITX kast).

@SG, natuurlijk doe je physics reviewen op FPS, als je de physics berekeningen op de processor of (primaire) GPU draait, heeft dat immers een directe invloed op je framerate, doordat de CPU bezig is en de GPU niet van informatie kan voorzien, of doordat de GPU meer te doen krijgt. Wat de reviews laten zien is wat het aanzetten van PhysX voor invloed heeft op je spel ervaring, het blijkt dus dat zonder extra kaart je speelervaring zowel positief (physics) als negatief (lagere FPS) beinvloed wordt. Tevens laten beide reviews zien hoe je het negatieve effect kan tegengaan, door een PPU op extra GPU te gebruiken voor PhysX. Daarnaast laat de 2e review nog eens zien hoe goed elke kaart is in de PhysX berekeningen, immers, als de FPS daalt, betekend dat dat er niet genoeg processing power is. Tot er degelijke PhysX (e.a.) benchmarks komen is dit dus weldegelijk een zeer goede manier om te testen en advies uit te brengen.

[Reactie gewijzigd door knirfie244 op 23 oktober 2009 10:29]

edit:
: het vetgedrukte stukje was ik vergeten


je hebt ook graka's op pci-e 1x.

Kijk eens naar deze modellen van club3d:
8400GS
9500GT

Dus het zou echt alleen nut hebben op mobo's met maar 1 PCI-E slot en geen PCI-E1x slots. Dat komt gelukkig bijna nooit voor.

Voordeel van die losse kaarten is dat je ze gewoon uit kunt zetten(device manager), en, met Windows 7, kunt combineren met je ATI kaart.

zo bespaar je energie

[Reactie gewijzigd door F1k op 22 oktober 2009 15:27]

Op een goed moederbord heb je ook gewoon open sloten waardoor je een x16 in een x1 kan steken.
Dus het zou echt alleen nut hebben op mobo's met maar 1 PCI-E slot en geen PCI-E1x slots. Dat komt gelukkig bijna nooit voor.
Of waar je dat ene pci-e 1 slot (meer zitten er vaak niet op een mATX of kleiner) voor iets anders wilt gebruiken.
of zelfs het voordeel tegenover een gewone GTX 295. ik vraag me echt af of je met dit een betere prestatie zal halen.. denk haast van niet namelijk. het is leuk een dedecated unit er voor te hebben, maar je gewone GPU kan dit in feite ook al prima doen. en dan krijg je nog de nadelen als het stroom verbruik en de kosten, ik denk dat dit alles niet opweegt tegen de voordelen er van die (denk ik!) minimaal zijn als die er al zijn.
Het voordeel van een 9400 als PhysX kaart (hoewel ik PhysX wel een toekomst geef, geef ik het meer een toekomst als niet-nVidia exclusief) nst een hoofd GPU is dat je voor de Graphics niet meer vast zit aan nVidia, hoewel het uiteraard altijd een competitie is tussen de 2 reuzen (AMD/nVidia) wie de snelste kaart heeft, is het op dit moment economisch gewoon aantrekkelijker om een Radeon HD5870, HD5970 of HD5950 te kopen (bang for bucks n meeste performance per GPU). Tenzij je Vista draait zul je voor de PhysX een GeForce 9400 er naast kunnen zetten, zodat je tch PhysX hebt.
Men gaat PhysX reviewen op FPS?
PhysX staat voor Physics en de doel van die hardware is mucho physics.
Zou dus ten eerste gerieviewd moeten worden wat PhysX met die hardware aan extra GPGPU Physics brengt.
en dit uiteraard bij soepele FPS.

Als je FPS 15% kelderd dan is dat stuk minder value als het GPU1 vs GPU2 is.
Maar GPU vs GPGPU PhysX is 15% geen probleem als je stuk of 5 PhysX features veel uitgebreider gedetaileerder en interactiever toegepast wordt. Dus een fix hogere dan nondedicated CPU aankan.

PPU werd in 2006 ook als GPU gebench FPS!!??? |:(
Ja, bijzondere combinatie.
Ik vind het wel top dat EVGA zo creatief durft te zijn, en het is geen slecht idee.
Maar ik twijfel aan het nut van de G92b core, het voelt overkill-achtig.

Mij lijkt het me veel beter dat ze een zwaardere game-gpu gebruiken, met een grotere bandbreedte, zoals de gpu van de GTX 285 en die dan combineren met een kleinere, zuinigere physx-gpu. Bijvoorbeeld die van een 9600GT of beter nog, een entry gpu gemaakt met het 40nm procede :)
EVGA kan ook niets anders doen op dit ogenblik. NVIDIA wil zich op de zakelijke markt richten en daar is EVGA niet zo laaiend bekend als onder de tweakers. Een andere optie is zoals xfx ook ATI verkopen. Het zou naam en doel niet verraden.
NVIDIA wil zich op de zakelijke markt richten en daar is EVGA niet zo laaiend bekend als onder de tweakers.
Dit heeft NVIDIA nooit gezegd.
Ik vraag me af of een GTX285 op zich al niet sneller gaat zijn. Er zijn nauwelijks games waarin physx een grote rol speelt, de CPU kan het in veel gevallen al makkelijk af. En als de CPU het af kan staat een extra GPU (vergelijkbaar met de GTS250 geloof ik?) uit zijn neus te vreten, al bij physx-games maar al helemaal met andere games. Dan heb je dus een deel van je grafische kaart die veelal niks staat te doen, en wel stroom verbruikt en gekoeld moet worden.

Bij bijvoorbeeld een GTX285 wordt alle rekenkracht die voor physx nodig is, door de GPU verricht. De rekenkracht die dan over is gaat dan naar de graphics, oftewel 100% benutting van de rekenkracht. Bij deze nieuwe kaart werkt de g200b-kaart altijd op volle toeren voor de graphics, en wat er eventueel aan physx is kan de g92 dan doen. Heeft dit voordelen t.o.v. n snellere GPU dan?
De videokaart is volgens mij vaak de bottleneck. Met dedicated physx ontlast je de cpu alleen maar. (en je haalt nog een graphics core weg ook). Of niet?
Met NVidia-kaarten gaat physx over de GPU. Die ontlast je dus, en dat is opzich wel nuttig. Maar mij had het inderdaad ook nuttiger geleken als ze gewoon 2 cores in SLi hadden gezet, die had alsnog ook extra support voor physx opgeleverd. En belangrijker: Die kan je ook gebruiken bij 99% van de spellen waarin gn physx aanwezig is ;)
momenteel heb ik een GTX260 en een 8800GT in n systeem hangen. Eentje dus voor de physics (8800GT) en eentje voor het 3d renderwerk. Voor het enkele spel dat gebruik maakt van physics loopt het vele malen soepeler dan het over de cpu te laten doen, (E8400, 4.0 GHz ongeveer). Jammergenoeg is er bar weinig ondersteuning voor hardwarematige physics berekeningen. Dat zou een berg realisme aan de spellen toevoegen (zoals bij red faction guerillia bijvoorbeeld, waar je met een tank gewoon door een huis heen kan rijden, en de boel dan ook relatief realistisch in elkaar dondert).
Physics is zoals de rage ervoor wat AI was. Iedereen roept erover, er komt implementatie maar op een bepaald moment bereik je een punt waar het de extra kosten niet meer waard is om er meer van te implementeren.
Imo heeft physics zijn commercieel hoogtepunt bereikt tijdens hl2. Het deed genoeg om je gameplay te benvloeden en het liep voor iedereen lekkere vlot met Havok. En toen hadden veel mensen zelfs nog single core systeempjes. Zoals het in Crysis is zal je niet altijd moeten verwachten, zelfs niet voor games die de CryEngine zouden gebruiken. Dat zie je ook met UE die PhysX heeft maar heel weinig devs die UE gebruiken, hebben tijd om dat volledig te gebruiken.
Wat is hier eigenlijk de meerwaarde tegenover een echte GTX 295? De prijs zal vermoedelijk niet veel verschillen en de GTX 295 zal beter presteren.
Je hebt er een aparte GPU bij voor Physx berekeningen, dus games met Physisx zullen wat meer gedetailleerd natuurobjecten kunnen berekenen aan de hand van die chip. Performance gewijs zal het hetzelfde zijn/blijven.
Mja, spuit 11. Denk na, de GTX295 heeft k 2 GPU's, waar je er een voor PhysX kan gebruiken als je wilt, en de primaire GPU alsnog sneller zal zijn. Op budget na, heeft dit eigenlijk geen meerwaarde boven een GTX295.
Zo'n gekustelde oplossing wordt totaal overbodig met de Fermi architectuur. Die is veel beter in staat om totaal verschillende taken in parallel uit te voeren. Bovendien krijg je dan veel betere 'balancing': de rekenkracht wordt benut daar waar nodig. Met twee afzonderlijke chips is er altijd eentje die minder belast is terwijl de andere overbelast is.

Daar komt nog eens bij dat PhysX op de CPU totaal ongeoptimaliseerd is, om ons te dwingen er dure hardware voor te kopen. CPU's met meerdere cores zijn perfect in staat om die taak op zich te nemen, maar omdat PhysX in handen is van NVIDIA maakt die dat opzettelijk minder aantrekkelijk.

Ik zie dus veel liever een oplossing waarbij de GPU zich volledig toelegt op grafische berekeningen, terwijl m'n multi-core CPU ook goed benut wordt.
Mwah, waarom moet de GPU alleen grafische berekeningen doen? Een GPU is nou eenmaal vele malen krachtiger dan een CPU, en als je iets wilt implementeren wat veel rekenkracht kost is het opzich goed om dat over de GPU te kunnen doen. Maar goed, dan moet je als NVidia zijnde inderdaad niet zo flauw zijn om multi-core ondersteuning weg te laten om Ati-klanten te pesten. Ik hoop daarom dat de toevoegingen van DX11 hier wat aan kunnen verbeteren, dat zullen beide fabrikanten namelijk wel moeten gebruiken.

Als Ati-klant wordt ik van deze acties namelijk alleen maar pissed en heb ik juist minder de neiging om naar NVidia over te stappen.
Een GPU is nou eenmaal vele malen krachtiger dan een CPU...
Dat zou ik niet zo eenduidig stellen. Een GPU is goed in veel dezelfde berekeningen in parallel uitvoeren, maar enkel daarin.Heel wat zaken hebben weinig van dat soort parallelisme in zich. Bovendien is de lengte en complexiteit van de programma's die een GPU kan draaien nog steeds beperkt. Voor vele taken is de CPU dus "vele malen krachtiger" dan de GPU.

Ook krijgen CPUs steeds meer dezelfde mogelijkheden als GPUs. Ze ondersteunen bredere vectorbewerkingen en krijgen meer cores.

Taken die dus niet puur grafisch zijn worden doorgaans goed ondersteund door de CPU en fysische berekeningen van het kaliber dat in games voorkomt horen daar zeker bij. Ik heb ooit naar de assembler van de PhysX software gekeken met een profiler en dat was schamelijk ongeoptimaliseerd. NVIDIA heeft uiteraard veel redenen om daar niet snel iets aan te veranderen...
Ik vind dit wel een grappig verhaal.. Eerst koopt Nvidia Ageia op om hun physx te kunnen embedden, en aan te spreken vanaf de GPU.. nu komt EVGA met een kaart die de boel weer scheidt.

What's next, losse PhysX kaarten? ;P
Ik hoop er eigenlijk wel op dat dat langzaam maar zeker weer kom. =)


Een openere variant waar via een open laag het vrij kan worden gemplementeerd en dat je dan zelf kan kiezen of je hier een GPU, CPU of PPU voor gaat gebruiken. Al ben ik natuurlijk ook geen expert. Ik zat aan een variant van de OpenGL etc te denken. Ik denk dat zeer zal helpen bij ontwikkeling van dit gebeuren. Ook deze stap van EVGA lijkt mij een stap in de goede richting.

edit: wat verdere uitleg en beredenering van mijn mening.

[Reactie gewijzigd door Elonoir op 22 oktober 2009 16:39]

Is de naam GPU (Graphics Processing Unit) dan nog wel gepast, of is het een PPU (Physics Processing Unit)? Of een PCU (Physics Coprocessing Unit)? Of een PSPU (Physics Sub-Processin Unit)?
GPGPU: General Purpose Graphics Processing Unit.
Dit zou wel eens een flinke verbetering in de prestaties teweeg kunnen brengen, maar tot dat er benchmarks zijn is dat niet zeker. Als het wel het geval is het zeker te hopen dat ze dit concept ook op de 300 serie toe gaan passen.
Ben vooral benieuwd hoe de performance tegenover andere dual-gpu kaarten staat, en bijvoorbeeld gewoon 2 kaarten binnen het zelfde budget in SLI of CF. En sowieso zal een kaart met een dedicated physx gpu weinig verbetering laten zien in een game zonder "meant to be played" logotje, zoals bijvoorbeeld World of Warcraft.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True