Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 108 reacties
Submitter: -The_Mask-

De nieuwste videokaarten van Nvidia zouden volgens The Inquirer in 3dMark Vantage valsspelen. Door gebruik te maken van de nieuwste Physx-drivers wordt een cpu-benchmark door de gpu afgehandeld, wat resulteert in een hogere score.

Nvidia heeft onlangs Geforce 177.39 voor de G92-core uitgebracht die ondersteuning biedt voor de nieuwste Physx-drivers, die versienummer 8.06.12 draagt. De nieuwe Physx-stuurprogramma's zorgen ervoor dat bepaalde taken door de gpu afgehandeld worden die normaal gesproken voor rekening van de cpu zijn. Dit is ook het geval in Futuremarks 3dMark Vantage, schrijft The Inquirer. De nieuwe 3dMark bestaat uit twee benchmarks voor de processor en twee benchmarks voor de grafische kaart.

Door gebruik te maken van Geforce 177.39 in combinatie met de nieuwe Physx-driver, wordt een cpu-test in 3dMark Vantage niet door de processors afgehandeld, maar gaat de gpu met de benchmark aan de slag. In deze test zet de gpu, in combinatie met de nieuwe Physx-drivers, een hogere score neer dan de cpu, waardoor de eindscore van 3dMark Vantage hoger uitvalt.

Volgens The Inquirer houdt Nvidia zich niet aan de regels van Futuremark, waaraan fabrikanten zich moeten houden voor een gecertificeerde 3dMark-score. Daarnaast draaien systemen met Physx-versnelling niet dezelfde benchmarks omdat een van cpu-tests niet door de processor wordt afgehandeld. Futuremark heeft in een reactie aan de site aangegeven dat de nieuwe drivers niet door Futuremark zijn getest, en daardoor ook niet door de benchmarkfabrikant zijn goedgekeurd.

Moderatie-faq Wijzig weergave

Reacties (108)

Beetje dubbelzinnig.
Langs de ene kant klopt het wel want vermits dat in games de VGA het overneemt klopt het wel dat de VGA het daar van de CPU overneemt.
Langs de andere kant is dat de bedoeling van de test wel erg rekken.
Dus schokkend genoeg moet ik zeggen dat ik voor 1 keer eens akkoord ga met the inquirer.

Nu moet Futuremark natuurlijk ook niet overdrijven, precies alsof dat het enigste geknoei is dat er met de drivers gebeurd. Ik meen mij te herinneren dat op de releasedate van vantage er nieuwe drivers uitkwamen die de score van vooral nVidia significant be´nvloedde.

Zelf vind ik 3dMark dus geen referentie meer door al dat geknoei, ingame FPS zijn meestal representatiever zolang nVidia of Ati niet te veel inmenging heeft gehad in de ontwikkeling.
Volgens The Inquirer houdt Nvidia zich niet aan de regels van Futuremark, waaraan fabrikanten zich moeten houden voor een gecertificeerde 3dMark-score.
nVidia zou in het driver instellingen menu toch een optie kunnen maken om de ondersteuning van Physx (tijdelijk) uit te schakelen.

Net zoals je nu de profielen voor verschillende games en ook de 3DMark software kunt maken maar dan nu ook met de optie er bij om de Phyxs tijdens het benchmarken naar keuze in of uit te schakelen voor een officiele score.


Edit: Even de Phyxs naar Physx verbeterd ;)

[Reactie gewijzigd door Sunbeam-tech op 25 juni 2008 20:28]

Beter lijkt het me nog om de testen op een flink aantal games (dus niet 5 of 6 maar bijvoorbeeld de top 25 verkochte games) te testen en gewoon de fps per kaart te vermelden in de verschillende resoluties.

Uiteindelijk is dat wat een gemiddelde consument wil weten. Hoe soepel lopen kan ik de spelletjes spelen. Dwingt de fabrikanten ook meteen om hun drivers eens flink te optimaliseren voor de games en klachten eens wat meer serieus te nemen. Nu komt het nog wel eens voor dat een kaart uitstekent scoort op de benchmark testen en de fabrikanten zich meer lijken bezig te houden om de kaart goed af te stellen op de benchmark testen dan de daadwerkelijke games/applicaties.

Ik vergelijk het altijd maar zo. Wat heb je als consument aan een formule 1 monster die specifiek op elke GP worden afgesteld. Geen bal, want die auto is totaal niet geschikt voor de normale weg. Kan je beter een hele vlotte auto (een audi rs6 of zo) hebben die wel op elke weg presteert en onder alle omstandigheden. Tuurlijk wordt die auto eruit gereden op een circuit, maar bij de eerste drempel in de stad ben je klaar :)
Lezen is een vak!

Er word hier een CPU test gedaan en Nvidia heeft in de driver die taak gegeven aan de GPU.

Dat is hetzelfde als dat er word gevraagd hoeveel kilo kan jij bankdrukken ?(Met je armen dus) en jij geeft aan hoeveel jij kan bankdrukken met je benen.

Kortom leuk dat Nvidia dat kan, maar dat is niet de gevraagde test.

[Reactie gewijzigd door Genshin op 25 juni 2008 02:40]

een agaia kaart doet deze test ook zelf. dus een cpu test is het niet. het is een physics test. nvidia heeft dit hardwarematig in zijn kaarten zitten en enabled dit met de nieuwste drivers. de vraag op dit moment is dus: moet er een aanpassing in of de driver of van futuremark komen omdat de videokaart normaal gesproken niet de volledige 100% voor deze test zou kunnen gebruiken tijdens het gamen aangezien hij ook nog het 3d beeld op het scherm moet toveren.

Ik zou zeggen: gooi de knuppel in het hoenderhok en je ziet wel wie van de 2 dit op gaat lossen. beide zijn een mogelijkheid, maar laat ze dat lekker samen uitzoeken.
Ik zie inderdaad niet waarom dit onterecht zou zijn, dat hele idee van dat PhysX is dat de GPU taken van de CPU overneemt die hij beter kan doen als hij hier ondersteuning voor biedt. Als er was gezegd dat het niet een volledig kloppende vergelijking zou geven met andere GPU's was er wel iets voor te zeggen geweest. Maar er is geen reden om geen hogere score te krijgen als een bepaalde configuratie een "probleem" sneller op kan lossen, ook al wordt dat op een andere manier gedaan.
omdat in Futuremark een test is gemaakt die alleen voor de CPU is bedoeld, waarmee de GPU onbelast blijft.

In games ED is dat niet zo, en zal de GPU deze dus NIET over kunnen nemen, of maar voor een kleiner deel.

Hierdoor wordt de score dus te veel groter dan dat het in de werkelijke wereld moet zijn. Eigenlijk moet Futuremark een versie uitbrengen zonder speciale CPU test, maar waarbij deze in de normale benches wordt gedaan. Dan kan de GPU (mits daar ruimte voor is) deze overnemen van de CPU, en krijg je geen vertekend beeld.

Dus ja, het lijkt logisch dat het mag, maar het is ook zo dat je je aan regels moet houden.

bv:
je kan met voetbal ook de bal in je handen pakken, iedereen een beuk geven en dan het doel in rennen. En dan zeggen, tja ik doe aan American footbal daar mag dat wel. Je doet op dat moment aan Voetbal en moet je die regels hanteren, ondanks dat het misschien makkelijker/sneller kan.
Je hebt volkomen gelijk maar Nvidia doet het wederom stilzwijgend, is meen ik nu al de derde keer in hun historie dat ze "cheaten" met de drivers. Nvidia is best wel op de hoogte van de regels van Futuremark. Als hun een ander inzicht hebben of de andere manieren van dataverwerking er op na willen houden kunnen ze uiteraard in conclaaf gaan met Futuremark. Dat ze het dus weer omzeilen zegt in zoverre over Nvidia dat ze hardleers blijven.

Overigens word het eens tijd dat mensen dat benchen wat gaan vergeten en zich wat meer op de specificatie's gaan richten van hardware, die veelal meer zeggen dan een paar "gemanipuleerde" framerates in een progamma die score's maakt aan de hand van bestaande hardware profielen.

Overigens mogen er wel eens consequentie's verbonden gaan worden aan dit soort gedrag. Het feit dat ze iedere keer sanctieloos er vanaf komen brengt ze juist in verleiding om te blijven doen ;)
Futuremark had gewoon een eigen physics engine moeten gebruiken voor de CPU test ipv de Ageia PhysX bibliotheek.

nVidia heeft gewoon een nieuwe feature geintroduceerd die toevallig dus de Ageia PhysX bibliotheek kan accelereren m.b.v. shaders.

dus om nVidia als schuldige aan te wijzen vind ik niet terecht. degene die gewoon de fout zijn ingegaan is futuremark.

wat er op neer komt dat ze geen CPU benchen maar de performance van een physics library die toevallig geacceleerd kan worden door nieuwere nVidia kaarten met de laatste stuurprogramma's.
Futuremark had gewoon een eigen physics engine moeten gebruiken voor de CPU test ipv de Ageia PhysX bibliotheek.

nVidia heeft gewoon een nieuwe feature ge´ntroduceerd die toevallig dus de Ageia PhysX bibliotheek kan accelereren m.b.v. shaders.

dus om nVidia als schuldige aan te wijzen vind ik niet terecht. degene die gewoon de fout zijn ingegaan is futuremark.
Waarom dan Futuremark? Omdat zij een bibliotheek gebruiken, waar juist nVidia schijnbaar een kaart voor heeft gebakken, die juist dÝe bibliotheek met de shaders en deze nieuwe drivers aan kan? :) Misschien heeft nVidia wel dezelfde beweegredenen om het te gebruiken als Futuremark of misschien wel juist omdat Futuremark die gebruikt in 3D Mark.

Een nieuwe feature introduceren is het dan ook niet echt, ja in de drivers, maar moet je het wel overal doen en zoals ik het nu lees, is dat alleen bij 3D Mark het geval...

Het is een CPU-test en dan moet het ook een CPU-test blijven. Leuk dat je dat kan accelereren met je GPU, maar zo zijn er nog meer dingen die je dan beter aan je GPU over kan laten. Floating point uitvoeringen bijvoorbeeld, daar is een GPU veel sneller mee dan een CPU, dus waarom ook maar niet een driver maken, die de floating point berekeningen aan de videokaart overlaat... Hij doet dat toch beter dan de CPU? Als we zo doorgaan, hou je niks meer over voor de beelden van je GPU en daar sta je dan, met je kick-ass PC...

En besides... Denk je nou werkelijk dat andere games hier ook gebruik van maken? Die hebben de resources van de GPU al hard zat nodig voor de beelden in de games zelf... ;) Of ga je liever terug naar games met graphics ala Digger of zo, lekker blokkerig?
Wat er op neer komt dat ze geen CPU benchen maar de performance van een physics library die toevallig geacceleerd kan worden door nieuwere nVidia kaarten met de laatste stuurprogramma's.
Tja, dat heeft nVidia er nu van gemaakt ja, terwijl dat eerst niet het geval was... En dat is nou juist het hele punt... ;) nVidia heeft immers die drivers uitgebracht om die ondersteuning te maken, niet Futuremark of wie dan ook... ;)

Jammer dat een boel tweakers dat niet willen begrijpen...

[Reactie gewijzigd door CH40S op 24 juni 2008 21:26]

Een nieuwe feature introduceren is het dan ook niet echt, ja in de drivers, maar moet je het wel overal doen en zoals ik het nu lees, is dat alleen bij 3D Mark het geval...
Dat lees je dus verkeert, de verbetering is voor aigea physx library die speciaal gemaakt is voor hardware supported phisics berekeningen in games. NVIDIA heeft aigea overgenomen en zorgt er nu dus voor dat er naast de aigea physx kaartjes ook de GPU gebruikt kan worden.

Dat futuremark te lui is om zelf een fatsoenlijke cpu test te bouwen en een speciaal voor hardware acceleratie gemaakte library in emulatie modus gebruikt(door er van uit te gaan dat de gebruiker geen physx hardware heeft) is i.m.h.o. toch echt redelijk dom.

Daarnaast heeft nvidia ook nooit geprobeert om de drivers door 3dmark te laten valideren. En erkent het dat de drivers niet geschikt zijn voor 3dmark en niet aan de regels voldoen. Als 3dmark er niet mee om kan gaan is dat volgens mij meer hun probleem omdat hardware accelerated phisics toch echt de toekomst is. Daarnaast is het nog eens zo dat niet de GPU maar de CPU score omhoog gaat en het dus niet eens lijkt of nvidia het beter doet.
Eigenlijk heeft nvidia gewoon iets moois gemaakt wat sommige games beter laat lopen, dit werkt toevallig niet lekker samen met 3dmark maar dat is het. Het sensationele 'cheaten' verhaal van de inquierer vindt ook erg overdreven omdat niemand beweert dat de scores nog kloppen.(afgezien van wat mensen hier dan)
Jammer dat een boel tweakers dat niet willen begrijpen...
Inderdaad jammer dat je het niet begrijpt. :)

[Reactie gewijzigd door jmzeeman op 25 juni 2008 15:00]

Wat kan nVidia hier dan aan doen?

Dit is gewoon een verbetering van de techniek. Moet nVidia nou opeens bepaalde verbeterde en efficientere features niet doorvoeren in nieuwe drivers omdat een benchmark-programma er niet mee om kan gaan?

Ja, Ati en nVidia scores kun je nu dus niet meer met elkaar vergelijken. En?
Gaat het niet om.

Het gaat er om dat een test volgens de specs van 3d mark geen gebruik mag maken van de physx modus. Dat is zo beschreven na ooit een debacle waarbij dan de ene, en dan weer de andere fabrikant cheatte. Daarom zijn er dus afspraken gemaakt tussen 3dmark en de chipbakkers.

Om dus zuivere scores te hebben van je kaart performance en niet van je feature performance is het dus van belang dat de testen correct worden uitgevoerd.

Er vervelend als je de pipelines iets anders wil laten doen dan beelden genereren, en het blijkt dat de scores die je daarmee wilde halen niet te halen zijn, omdat een gedeelte van de performance uit physx kwam en niet uit de shaders.

Ook voor een gamer is het interessant om te weten of dit soort zaken komen door physx versnelling of niet. Toch vervelend als je 50 euro meer uitgeeft en dan blijkt dat je favo games dus geen gebruik maken van physx.

Ik vraag me alleen niet af of er niet gewoon testen naast elkaar zouden moeten komen, met enerzijds physx/havoc enabled en een ander disabled. Uiteindelijk lijkt dit toch een weg te zijn die verder gevolgd zal gaan worden.
Ik denk dat nVidia hier heel veel aan kan doen. Met alle respect, maar gezien hun history met 3dMark kun je van hen alle mogelijke truuks verwachten die je kunt bedenken...

Een CPU benchmark gaat niet magisch plotseling de physx driver gebruiken. Zo simpel werkt dat niet. Die ondersteuning moet er expliciet door iemand ingezet zijn. Dat kan dus alleen Futuremark, of nVidia zijn.
nVidia zou kunnen regelen dat voor 3dmark hun drivers dit niet doen, zoals je ook per spel de videokaart instellingen in de drivers kan regelen.
Of futuremark moet hun software aanpassen gezien hun het zo'n probleem vinden. Het is eerder slecht van een benchmark programma dat het de hardware waar het voor bedoelt is slecht ondersteunt dan van van een hardware fabrikant die nieuwe features implementeert waar een benchmark programma niet tegen kan. Videokaarten zijn niet gemaakt voor benchmarkprogramma's...
Hoezo onterecht? Er word gewoon terecht gebruik gemaakt van de resources in het systeem.
Waar het om gaat is dat tijdens de 3d test er geen physics nodig zijn --> 100% van de hardware doet 3d. tijdens de physics test is er weinig 3d werk te doen --> een significant deel van de hardware doet physics. Nu is dus voor een significant deel van je hardware 2x een score gekregen. in een game werkt dit niet zo, dan moet het tegelijk (zwaar 3dwerk en zware physics).
Dus is het een voordeel in de test waar je in een game minder van terug ziet, dus oneerlijk!

Als de kaart bijv 80% voor graphics gereserveerd word en 20% voor physics kan dit alleen eerlijk getest worden als de physics en graphics tegelijk getest worden, zoals het ook in elke game zou zijn.

Dit is net zoiets als zeggen mijn auto kan 1 op 25 rijden en ook nog eens 250km/h en dan een testscore geven op basis van de aanname dat hij dat tegelijk kan.

Met andere woorden het is prima dat nvidia bij de physics test meer scoort door deze mogelijkheid! dat kan ik alleen maar toejuichen, alleen moetten ze dan het deel van de rekentijd van de gpu dat voor physiscs gebruikt word tijdens de physics test niet gebruiken tijdens de graphicstest omdat dit tijdens een game ook het geval zou zijn.

edit: verduidelijkt

[Reactie gewijzigd door martijnve op 24 juni 2008 20:47]

& aan welk bedrijf moet je dan optimalisaties/verbeteringen vragen??? Precies Futuremark; want men wil bij ATI "realistische" tests zien, dus laat Futuremark deze specifieke test maar aanpassen op real-time physics via 'n flinke update.
Her-test dan nogn's zou ik zeggen..
Maar dan moet men de benchmarks aanpassen om de realiteit weer te geven. Als de resultaten nu niet kloppen dan kan je 3dMark ook niet representatief noemen.
Nee. 'n CPU test is 'n CPU test en geen GPU test.
zoals ik het zie is 3Dmark vatage al out dated.

Tot Nu 'n CPU + GPU bench. Dan ben je klaar

na nu
Je hebt 3D taak.
Je hebt de PhysX taak wat CPU GPU en PPU kan zijn maar ook 'n mix.
Dan heb je de rest Game logic en AI.

Er hoort naast 'n 3D GPU test
'n PhysX CPU en GPU test.
En normale CPU test.

Daarnaast 'n game mark die alles gecombineerd test. En dan 5 verschillende situaties in game.

De testen zijn zodanig gemaakt dat die zich richten op ÚÚn specifiek component.
games zijn niet zo.

Weet niet of die PhysX test puur shynthetish is de GPU vol benut. wat in een game niet kan. Er moet ook wat leuks gerenderd worden.
En gebruikers van een Ageia Physx kaartje cheaten zeker ook? The Inquirer klinkt hier een beetje als een jaloerse Ati-fanboy.
Nee die cheaten niet. Waarom niet? Omdat je ingame tegelijk de videokaart voor graphics kunt gebruiken en de Ageia kaart voor physics. Ingame kun je niet tegelijk (voor 100%) de videokaart gebruiken voor physics en dezelfde videokaart (voor 100%) gebruiken voor graphics, dan zou je dezelfde resource twee keer voor andere dingen proberen te gebruiken en dat kan nou eenmaal niet.

Als je de game prestaties wilt meten dan zou het eerlijker zijn om aan te geven hoeveel procent van de gpu gebruikt wordt voor graphics (bijvoorbeeld 80%) en hoeveel procent van de gpu gebruikt wordt voor physics (de resterende 20%). Dat zou een beter beeld geven van ingame prestaties van je systeem.

Dat is de reden dat het oneerlijk is, niet dat nVidia iets kan wat Ati niet kan. Het heeft dus niets met fanboy dingen te maken.
Je kan moeilijk van cheaten spreken in dit geval, eerder van een ondoordachte test van FutureMark. Het zat er aan te komen dat NVIDIA PhysX op de GPU ging ondersteunen, dus op dat moment had FM moeten besluiten de hele test te schrappen of anders mee te rekenen in de eindscore.
nVidia had zelf ook gewoon het in de drivers in kunnen bouwen dat het in 3dmark niet gebruikt zou worden, enkel doen ze dat zelf ook niet. Ze doen zelf er ook niks aan om zoiets te voorkomen.
Nu is het niet echt aan nvidia om de testen te ontwikkelen.

Ik zou er als ik de kaart zou hebben niet blij mee zijn, dat er een stuk onnodige code in de drivers ingebouwd zit voor dit specifieke ene gevalletje van een test. De bal ligt bij futuremark.
En zelfs dan, de CPU-test zou erop berekend moeten zijn om meer te testen dan slechts instructies die mogelijk ook op de GPU gedraaid kunnen worden. Een CPU kan namelijk een hele andere instructieset draaien, dus het lijkt me dan onlogisch om alleen een test te draaien die (blijkbaar) ook volledig door de GPU kan worden gedraaid.
Als ze de GPU voor physics willen testen moeten ze er nog een aparte test voor GPGPU-prestaties ingooien ofzo ;)
En gebruikers van een Ageia Physx kaartje cheaten zeker ook? The Inquirer klinkt hier een beetje als een jaloerse Ati-fanboy.
een physics kaartje kan tijdens het gamen 100% gebruikt worden voor die physics, net als tijdens een 3dmark test.
een GPU kan niet 100% gebruikt worden voor physics want hij moet ook gfx doen in games. maar bij deze 3dmark physics test kan hij wel voor 100% ingezet worden voor de physics. en dat geeft dus compleet onrealistische resultaten.

denk eerst eens wat verder zelf na voor je mensen van fanboyisme gaan beschuldigen.
Er zit een physics test in, en je hebt blijkbaar hardware die dat aankan. Dan mag je die gewoon gebruiken.

Het is een test voor wat jou systeem kan, niet die wapenwedloop die ze er graag van maken.

Het is relevant om te weten wat jou systeem kan met je huidige hardware. Dus niet meer dan logisch, en ook volledig eerlijk.
Maar dit kan jou systeem dus niet, aangezien dit een vergelijkingsscore moet zijn. En nu doet je GPU dubbel werk wat dus een totaal onrelevante uitslag geeft, omdat je GPU tijdens spellen nooit zo de physics kan bewerken en dezelfde FPS kan geven op grafisch gebied. Nu zou je met een slechte processor alsnog een goede score halen die misschien wel beter is dan een goede processor met dezelfde kaart op vorige drivers. Enkel in games ga je er echt amper op vooruit.
Enkel in games ga je er echt amper op vooruit.
Bron?
bron: http://en.wikipedia.org/wiki/Physx

Qua grootte lijkt het een beetje op het lijstje van games dat destijds compatible was met de 3dfx Voodoo kaarten.

Maar het is dus (nog) een zeer beperkt lijstje. Zodra de techniek standaard wordt ipv exclusief in veel te dure add-on kaarten zal iedere game het gaan ondersteunen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True