Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 43 reacties
Bron: HardwareOC

Het Oostenrijkse HardwareOC heeft de GeForce 7800 GTX met een flink aantal verschillende drivers getest. De oudste driver die getest is heeft versienummer 77.18 Beta, terwijl de nieuwste driver versienummer 81.26 Beta heeft. Vanaf versie 80.00 zou nVidia optimalisaties voor dual-coreprocessors hebben aangebracht. Dit zou een prestatiewinst van 5 10% op moeten leveren. Dat zou dan ook uit deze test moeten blijken. Van alle drivers werd er in 3DMark03, 3DMark05, Aquamark3, Far Cry, Half-Life 2 en Doom 3 gekeken hoe goed de prestaties waren met standaardinstellingen en op hoge kwaliteit. Ook werd er gekeken naar de beeldkwaliteit.

nVidia ForcewareUit de test blijkt dat de 81.26 Beta-driver met standaardinstellingen vaak meer dan 10% beter presteert dan de andere drivers. Als er echter voor hoge kwaliteit wordt gekozen, dan is de 81.26 Beta-driver alleen nog maar in de spellen het snelste. In de drie synthetische benchmarks moet deze namelijk zijn meerdere erkennen in de 80.40 Beta-driver. Op zich geen slechte resultaten voor de nieuwste driver, ware het niet dat er tijdens het draaien van de cpu-testen van 3DMark 2005 onvolkomenheden in het beeld verschenen. In de overige testen zouden die niet aanwezig zijn. Op het forum van HardwareOC wordt echter wel melding gemaakt van rare toestanden in het beeld als deze versie wordt gebruikt. Het advies op het forum luidt dan ook om met je vingers van deze versie af te blijven. Tenzij je natuurlijk de snelste score in benchmarks wilt neerzetten.

Moderatie-faq Wijzig weergave

Reacties (43)

Ik snap dat die beta's nu nog niet zoveel zin hebben maar het blijven beta's. Blijkbaar lezen de meeste mensen het nieuws niet als het op multithreaded games aankomt. Wat dacht je van Unreal 3 bijvoorbeeld? De UnrealEngine 3 is multithreaded geschreven en kan dus prima overweg met die extra cores! Daarnaast ondersteunt ie ook de Ageia PhysX chip en aanverwante technologieen. Als ik me niet vergis moet ie ergens volgend jaar uitkomen en een aantal uitgevers heeft al licenties gekocht om games met de engine uit te brengen. Het lijkt me dan ook niet zo raar dat NVidia al beta-drivers heeft met multi-core ondersteuning. Vergeet ook niet dat de nieuwe generatie game consoles multi-core is dus het heeft voor ontwikkelaars echt wel zin om om multithreaded te schrijven (makkelijker porten enzo). En ik weet niet hoe het met jullie zit maar ik koop niet elk jaar een nieuwe pc dus als ik nu een nieuwe zou kopen was het echt een dual-core geworden.

oja ook maar wat linkjes
UnrealTechnology
Interview op AnandTech met Tim Sweeney, oprichter van Epic, over Unrea l 3 en multithreading

@aval0ne:
Ik neem aan dat je doelt op dit interview. Ik snap ook wel dat hij er niet op zit te wachten al z'n bestaande code weg te gooien maar de toekomst is toch echt dual/multi-core en dat kun je niet negeren. Natuurlijk zal het een tijd duren voordat het optimale uit die extra cores wordt gehaald, dat is altijd zo, maar stilstand is achteruitgang.
Unreal is maar 1 engine, Gabe Newell heeft bijvoorbeeld het tegenovergestelde gezegd, namelijk dat hij ontwikkelen voor meerdere cpu cores niet zo praktisch vond.
Ik heb gisteren wat tests gedaan met deze driver vs. de 78.03 driver. Getest op een Athlon 64 X2 4400+ en Doom 3 versie 1.03.
De 78.03 driver laat een singlethreaded patroon zien (max cpu gebruik 100% over 2 cores). De 81.26 driver laat een multithreaded patroon zien (max cpu gebruik 200% over 2 cores).
De resultaten zijn te zien op: http://gathering.tweakers...message/24216403#24216403
Alleen de gebruikte benchmarks zijn zelf helaas niet geoptimaliseerd :( Ik ben bang dat die modificaties in de driver dan weer blijven hangen in hun prestatie.
Ik denk dat als dat zo zou zijn je echt leuke resultaten zult gaan zien, maar okay we wachten nog even op 3Dmark200x
Een benchmark dient imho niet meer geoptimaliseerd te zijn dan huidige spellen anders loopt deze zijn nut voorbij. Verder gaat het hier om een driver-optimalisatie en gaat het hier om de performance van de driver. De driver behoeft geen extra ondersteuning van de 3D-applicatie maar heeft zelf meer "ondersteuning" (lees optimalisatie) voor dual core systemen. En het feit is dat tegenwoordig vid. drivers vaker geupdate worden dan de spellen/programma's.
Dat ligt er aan wat het doel van je benchmark is.
3DMark is altijd bedoeld geweest om een idee te geven van de prestaties van toekomstige spellen.
Er is ook met echte games getest.
Maar die zijn toch ook nog niet echt dual core toch ??
Die zijn allemaal nog een beetje van voor DC tijd.
Spelontwikkelaars voor de next-gen consoles moeten anders al een poosje in hun software rekening houden met multiple cores: oa. XBox360 met 3 cores, PS3 met vector units en de CPU van de Nintendo Revolution waarschijnlijk ook.

Met de opkomst van meerdere cores op het PC platform als uitweg voor performanceverbetering zou het vreemd zijn als de spellen die nu in ontwikkeling zijn daar al niet op voorbereid worden. Carmack heeft er zelfs al mee getest ten tijde van Quake 3.
de drivers zijn geoptimaliseerd voor dualcore, zodat je systeem tijdens spelen van games ook de 2e core zal gebruiken.

ik denk dat ze gewoon bepaalde dingen die de videokaart doorstuurd naar de CPU nu de taken ook kan verdelen over de 2 cores.

maar echte dualcore games zullen ook non-graphical taken van de 1e core ontlasten

jammer dat ik geen dualcore heb gekocht ipv een FX 57
hopen dat ie er niet uit wordt getrokken door de X2 4800+
met hedendaagse games
Wees niet bezorgd. Game ontwikkelaars hebben nog totaal geen behoefte om multithreaded te gaan programmeren.
Dat kost tijd en moeite en dus geld. En dat terwijl nog bijna niemand van hun klanten er baat bij heeft. Dat duurt dus nog wel een jaartje of drie.
Inderdaad heeft Carmack er al mee getest in. Maar dat werd een compleet fiasco. Overigens niet door de schuld van ID, maar doordat de drivers niet goed waren. Zo had de Geforce totaal geen baat, maar een TNT2 weer wel. Maar ondertussen werd je systeem totaal onstabiel als je er een soundblaster kaart in had hangen.
Uiteindelijk kon je zo'n 30% snelheidswinst behalen.

Je hebt wel gelijk dat de consoles een impuls kunnen geven. Laten we het hopen, want ik zit al sinds de PentiumII te wachten dat ontwikkelaars eens een keertje multithreading goed gaan toepassen.
(Kunnen mensen zich de BP6 met celerons nog herinneren?)
Ik heb daar met mijn BP6 en 2x celeron 366@550MHz en GeforceDDR erg veel lol aan gehad. Dat systeem was echt rete snel :)
En inderdaad Quake3 haalde niet enorme prestatiewinst, maar hoe dan ook had ik geen last van vastlopers en problemen met de geluidskaart. Het probleem was eerder dat Win2k nog erg nieuw was en nog niet alles helemaal lekker liep. Met een hoop geknutsel draaide het anders wel als een tiet!
Maar had je een soundblaster? Dan zou je echt de eerste persoon zijn waarvan ik heb gehoord dat de soundblaster geen vastlopers veroorzaakte met drivers uit de BP6 periode.
Dat is zo'n mythe, die iedereen hier gretig doorvertelt. Natuurlijk is er wel behoefte, want ook op een single core processor kan het efficienter werken.
Neem bijv. een RTS game als warcraft 3, age of empires/mythology etc. Je kan de units in aparte threads laten pathfinden/bewegen/vechten en dat scheiden van de grafische zooi. Op die manier zou je vanzelf veel soepeler bewegende units hebben als je er 100 hebt rondlopen op een dual core systeem.
Het opsplitsen in aparte threads van de units geeft je geen voordeel op een enkele cpu/core.
Het scheiden van de threads van de units van de grafische zooi geeft je amper voordeel.

Multithreading kan inderdaad bij een single cpu/core een voordeel opleveren. Maar dat gebeurd dan in applicaties waarbij de cpu regelmatig zit te wachten op andere niet-cpu-gerelateerde zaken.
Denk daarbij aan een programma waarbij veel diskIO plaatsvind. Dat is inherent supertraag. Als singlethreaded applicatie hebt, dan zit je cpu te niksen terwijl ie op IO wacht.
Bij een multithreaded applicatie kun je dan in de tussentijd andere threads door laten lopen die niet op die IO hoeven te wachten.

In dat soort situaties voorkom je dus dat je cpu onnodig idle staat.

Bij een spel speelt dat echter veel minder. Daar zit je zelden tot nooit op diskIO te wachten en is de potentiele winst voor multithreading op een single cpu/core automatisch veel en veel kleiner.

Het splitsen van de threads voor de units van de grafische zooi geeft ook weinig voordeel. De grafische zooi moet namelijk wachten op de uitkomsten van de threads van die unites om te bepalen wat er op het scherm getoond moet worden.
Als er echter voor hoge kwaliteit wordt gekozen, dan is de 81.26 Beta-driver alleen nog maar in de spellen het snelste. In de drie synthetische benchmarks moet deze namelijk zijn meerdere erkennen in de 80.40 Beta-driver.
Dit vind ik meer zeggen over de relatie tussen spellen en de synthetische benchmarks eigenlijk.

10% voor alleen dual-core optimalisaties in de drivers lijkt me op zich best goed.

Offtopic maar ik kan trouwens niet zeggen dat die nummering van nVidia me altijd duidelijk is... Een beetje meer logica mag daar best in. (Die van ATi is overigens eigenlijk weer te simpel vergeleken met die van nVidia, maar goed :P)
Maar 20% verlies in 3DMark2003, 3DMark2005 en Aquamark3 zodra je quality mode gebruikt lijkt me op zich best slecht. (vreemd dat dat verzwegen word in het artikel op tweakers)


Ik kan me op zich voorstellen dat er een verschil zit tussen de benchmarks en de spellen, omdat bv de spellen meer cpu-gelimiteerd zijn dan die benchmarks. Als je cpu maar 50% belasting heeft, dan is er niet veel te winnen met het verdelen van de werkzaamheden over meerdere cpu's. Dan staan ze beide op 25% maar de bottleneck is dan nog steeds je gpu en die bepaald dan de score.

Aan de andere kant kan ik daarmee niet het verschil in default en quality mode in de synthetische benchmarks verklaren. Geen winst in quality mode zou ik kunnen verklaren, maar verlies niet.
Verder is bv FarCry met 4xAA volgens mij niet cpu gelimiteerd. Dus daar verwacht je ook niet meteen winst als gevolg van multithreading, en toch is dat er blijkbaar wel.


Er is nog heel wat vreemd gedrag van die driver dat verklaard moet worden. Ik vraag me sterk af of we niet gewoon het gevolg zijn van een complete rewrite van de driver, ipv specifiek de voordelen van het gebruik van meerdere cpu's.

Ik zou bv de cpu belasting wel eens willen zien tijdens die benchmarks. En dan met name het verschil tussen deze driver en andere drivers.
Ik denk dat er wat verwarring is met wat nu precies quality mode is. Wat jij onder quality mode verstaat is niet bepaald wat de quality mode in de drivers is.

Je hebt 2 quality modes in de drivers:
quality: met optimalisaties
high quality: geen optimalisaties

Volgens mij bedoelen ze op de website:
default = zonder AA/AF (quality mode in de drivers, met opts)
quality = met AA/AF (ook quality mode in de drivers, ook met opts)
Er wordt dus niet getest met optimalisaties off (high quality mode in de drivers).

Dus in quality mode zonder AA/AF is er net een winst in de 3dmark scores.
Ik had dat in eerste instantie inderdaad verkeerd gelezen.
Maar het maakt niet echt veel uit voor mijn reactie.

Met AA/AF is bij bijna alle spellen de GPU de bottleneck. En dan verwacht je dus niet dat efficienter CPU gebruik (multithreading) veel invloed heeft op de framerate, aangezien die cpu toch al niet 100% belast was.
Wat er zeker niet zou moeten gebeuren is dat de prestaties ineens met 20% kelderen daardoor.
Daarom kan ik die scores ook niet verklaren.

Maar het is goed dat je me er op wijst dat die optimalisaties in beide gevallen aan staan. Dus waarschijnlijk moeten we het daarin zoeken.

Maar ja, een optimalisatie die gunstig is zonder AA en AF, en niets doet of ongunstig is als je AA en AF aan zet? Ik zou niet het geringste idee hebben in welke hoek ik dat moet zoeken.
In ieder geval een start en redelijk snel. De p4 met hyperthreading cq. dual threading is al 2/3 jaar op de markt terwijl game-developers nog steeds met single threaded games uitkomen. nVidia pakt dit dus veel sneller op, een half jaar na het uitkomen van de dual-core processors. Is natuurlijk ook makelijker een video driver te optimaliseren voor dual core dan een game engine maar, game producenten zouden in ieder geval de IA en eventueel de geluidssampling op een andere thread als de rest van de game kunnen laten draaien. Zelfs dat wordt nu nog niet todegepast bij de nieuwste games. nVidia loopt wat dat betreft echt vooruit: weer als eerste een multithreading driver. Vergelijk ATI de volger.
Ik dacht dat HT P4'tjes er al iets langer als dat waren............Ben je misschien in de war met dual core? (die worden Pentium-D genoemd (kunnen ze naast de Celeron-D in de schappen)). Quake 3 Arena had eventjes multithreading, maar dat hebben ze er naderhand door problemen weer uit-gepatched.

In een wedloop tussen twee grote machten, wisselt de krachtbalans van tijd tot tijd. ATi heeft een tijdje voorop gelopen. nVidia heeft al eens eerder een tijdje voorop gelopen, en ooit was 3Dfx ze allemaal te sterk af....Maar op het moment is het gat tussen de twee erg klein, IMO.
indeed,

ik heb ook van mensen(gameprogrammeurs) gehoord dat multithreaded programeren makkelijker gezegt dan gedaan is. tel daarbij de fexibiliteit van de gemiddelde IT omgeving op en we zitten net zolang te wachten op voordelen uit dual core als op voordelen uit bijvoorbeeld 64 bit (nog steeds niet aanwezig, hoelang hebben we al 64 bit procs ?? )
De reden dat 64bit optimalisaties op zich laten wachten is heel simpel omdat 64bit bijna geen voordelen heeft.

Ja, je hebt wat extra registers ter beschikking en daardoor zijn de cpu's wat sneller. (geldt dan specifiek voor de x64 cpu's). Maar dat heeft niet echt wat met 64bit te maken.

64bit betekents niet meer of minder dan dat je meer dan 4GB geheugen rechtstreeks kan aanspreken. En als je software dat nodig heeft, dan is het ontzettend nuttig.
Alleen is er bijna geen software die dat nodig heeft.
En als het dan toch perse nodig heeft, dan zijn er zelfs methodes om met een 32bit x86 cpu meer geheugen aan te spreken. SQL ondersteunt dat bv. (PAE. Denk hierbij aan een soort EMS voor geheugen boven de 4GB)

Wat betreft het multithreaded programmeren. In elke taal is het tegenwoordig heel simpel om threads aan te maken.
De moeilijkheid zit het 'm daar in dat sommige taken moeilijk over meerdere threads te verdelen is.
Verder moet je dan uitkijken met timing issues, en met name voor deadlocks. (om het heel simpel te zeggen: Thread A wacht op het resultaat van thread B. Thread B wacht op het resultaat vna thread C en thread C wacht weer op het antwoord van thread A. En dan zit je dus vast)


Als ik bv in een spel een kanonskogel af schiet, dan is de berekening waar die kogel neer valt moeilijk op te splitsen.
Maar heb ik in een spel een stel AI spelers die onafhankelijk van elkaar beslissingen nemen, dan kan ik wel weer heel makkelijk voor elke AI speler een aparte thread maken.
En omdat die AI spelers onafhankelijk van elkaar beslissingen moeten nemen, heb ik daar ook totaal geen risico op een deadlock.

Nou zijn gameprogrammeurs erg conservatief en doen ze erg weinig moeite om een goede AI te schrijven. (de AI laten cheaten is immers veel makkelijker) Dus zullen er geen bergen cpu power naar AI gaan, en zullen ze dat dus niet meteen als een kandidaat zien om multithreading in toe te passen.

Maar of het simpel is om te multithreaden hangt er dus maar net van af welke taken je over meerdere threads wilt verdelen.
Nu hebben gelijk alle mensen die nog een single core aanraden voor games niets meer te zeggen :D wat een verschil zeg! vooral met DOOM3 van 75 fps naar 114fps :)
Dit gaat wel erg hard zo, als straks de games zelf ook twee cores willen gebruiken dan is het alweer flink druk op beide cores...en dan zou quad core in theorie weer de beste prestaties neer zetten.. waar zou dit heen gaan? (32 core chips? de nieuwe cores hype! ) :P
Laat ze die drivers eerst maar eens wat beter testen.

Het is namelijk wel zeeeeeer verdacht dat die drivers in 3DMark ineens helemaal geen winst geven in hoge kwaliteit. Is 3DMark een beetje te goed toegerust om verminderingen van beeldkwaliteit te ontdekken?
Volgens mij testen ze dus niet in high quality mode, zie mijn post hierboven.

Maar zou het niet kunnen dat deze drivers enkel hun voordeel doen in cpu limited benchmarks? 3dmark is niet zo cpu limited als bijvoorbeeld D3.

Dit zou verklaren waarom de FPS winst in hogere AA/AF modes lager is dan zonder AA/AF omdat net de videokaart meer belast wordt dan.
Dat zou inderdaad verklaren waarom de fps winst minder hoog is in hogere AA/AF modes. (zie ook mijn eerdere post hierboven)
Maar dat kan geen fps verlies verklaren.

En dan zou je ook verwachten dat de spellen een zelfde beeld laten zien, als de synthetische benches. Die spellen zijn immers in AA/AF meestal ook niet cpu limited. Bij D3 weet ik het niet, omdat ik dat spel totaal niet interessant vind. Maar FarCry zou in AA/AF toch echt gpu-limited moeten zijn. En die heeft net zoveel winst in AA/AF mode.

HL2 is volgens mij met AA/AF op 1280 nog steeds cpu limited, (in ieder geval als je het speelt. Ik verwacht niet dat de benchmark in dat opzicht anders zal zijn) en die heeft juist weer minder voordeel bij AA/AF, terwijl je daar weer zou verwachten dat het voordeel net zo groot is als zonder AA/AF.

Ik kan nog geen logische verklaring vinden voor de resultaten.
ja klopt, maar de driver gebruikt nu gewoon de dual coree mogelijkheden. Alleen is dezae driver nog een beetje in een erge beta fase.
Goed nieuws. Zeker in het begin zijn er nog weinig spellen geoptimaliseerd voor multithreading, dus dan is het mooi dat de driver alvast van de niuwe mogelijkheden gebruik kan maken. Ook voor de liefhebbers van de huidige en oudere game engines.

In de toekomst zullen dit soort optimalisaties wellicht minder belangrijk worden als de game engines ook multi-threaded worden.
Dit zijn hele mooie scores de 81.26 beta driver heeft in veel spellen een echte preformance boost van soms wel 10 fps meer en dat vind ik alleen voor een driver erg netjes.

ik hoop dat dit op de Geforce 6 kaarten ook een goede uitwerking zal hebben.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True