Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 102 reacties, 24.134 views •
Bron: AnandTech

Nu Half-Life 2 eindelijk is uitgebracht, wordt het natuurlijk meteen tijd voor een vergelijking tussen de hedendaagse videokaarten. Net zoals een jaar geleden neemt AnandTech wederom deze taak op zich. Waar er in de vorige vergelijking nog een duidelijke winnaar was aan te wijzen op alle gebieden, is dat beeld nu veranderd. Met de introductie van de NV4x-chips heeft nVidia namelijk een groot deel van zijn achterstand op ATi weer teruggewonnen en soms zelfs ingehaald. ATi levert nog altijd de beste high-performance videokaart, zeker wanneer er gebruikgemaakt wordt van anti-aliasing (AA) en anisotropic filtering (AF). Dat verschil wordt pas echter merkbaar wanneer men op een resolutie van 1600x1200 gamet. Daaronder zijn de prestatieverschillen niet of nauwelijks op te merken en zelfs nihil, wanneer AA en AF worden uitgeschakeld. Het duel tussen de high-end videokaarten nVidia GeForce 6800 Ultra en ATi Radeon X800 XT wordt desondanks overtuigend beslist in het voordeel van de laatste.

Wat betreft de videokaarten met een prijskaartje van zo'n vierhonderd euro, zien we dat de nVidia GeForce 6800 GT en ATi Radeon x800 Pro niet voor elkaar onderdoen. Onafhankelijk van het feit of AA en AF aan- of uitstaan, presteren beide kaarten gelijk. Wat hier uiteindelijk de doorslag zal geven, is hoe de videokaarten bij andere games het er van af brengen. Dus bijvoorbeeld hoe de frames per seconde bij Doom 3, Unreal Tournament 2004 en FarCry zijn. Hier kijken we echter alleen naar de Half-Life 2-prestaties en dat levert dus een gelijkspel op.

Het middenklasse segment van tweehonderd tot driehonderd euro biedt voorlopig weinig keuze. Er zijn namelijk drie PCIe-videokaarten en een AGP-videokaart beschikbaar, waarbij de laatste ook nog pas is geïntroduceerd. Hier is echter de keuze niet zo moeilijk, aangezien de nVidia GeForce 6800 evengoed presteert als de nVidia GeForce 6600 GT en ook nog duurder is. De GeForce 6800 valt dus meteen af. Wanneer we kijken naar de ATi Radeon X700 XT, zien we dat deze iets beter presteert dan nVidia-kaarten op het gebied van AA. Alleen heeft ATi momenteel nog geen AGP-versie van dit product uitgebracht, waardoor nVidia alleenheerser is op AGP-gebied. Een duidelijke overwinning voor nVidia dus, die alleen te niet zal worden gedaan wanneer ATi eindelijk een AGP-kaart voor de middenklasse op de markt brengt. Het is dan wel de vraag of dat niet te laat zal zijn, omdat volgens geruchten de Canadese videokaartbakker pas volgend jaar met een AGP-versie van de ATI Radeon X700 XT op de markt zal komen.

Half-Life 2 screenshot

Lees meer over

Alle 25 producten

Reacties (102)

Reactiefilter:-11020101+177+218+33
Moderatie-faq Wijzig weergave
Ik vind het wel leuk hoor, die benchmarks. Altijd tests op systemen die voor jan-met-de-pet niet te betalen zijn en waarnaar met afgunst gekeken wordt.

Het zou leuk zijn als ze nou ook eens benchmarken met de gemiddelde configuratie... Die zo'n 600 Euro kost, dat heeft toch echt het merendeel in huis en zou ik ook veel representatiever vinden. Maar goed, wie ben ik?

@ rul0r:

Ja, maar dit is wat relatief: wat nu 600 Euro kost, kost 1 jaar geleden met gemak het dubbele. Een fanatieke gamer hoeft geen geld te hebben voor duur(der) spul, iemand die dat wel kan noem ik een gefortuneerde fanatieke gamer. En dat ben ik zeker niet...
Dit is een videokaart test, als je dan gaat benchen met ouwe prut die dan de bottleneck gaat wat meet je dan?
De gemiddelde gamer heeft wel voor iets meer dan 600 euro in huis staan denk ik. Als je een beetje fanatieke gamer bent zal je wat meer investeren in je pc omdat het je dat waard is (hogere fps/mooier beeld is toch wel fijn als je veel speelt)

Maar ook op een bakje van 600 euro draait het prima.
ik wil geen roet in het eten doen, maar kijk hier is even naar:

http://www.driverheaven.net/articles/Half%20life%202/

http://www.theinquirer.net/?article=19707

Nvidia schijnt hier toch echt te falen bij de half life 2 benchmarks. En het varieert tss de 25% en de 50% dat nvidia achterstand heeft. Toch wel raar...
Dat verschil wordt pas echter merkbaar wanneer men op een resolutie van 1600x1200 gamed


Jouw benchmarks van high-end kaarten is enkel voor 1600x1200. Staat ook in het artikel. Gelieve dus eerst heel het bericht te lezen en te letten op de details.
mijn welgemeende excuses ;)
maar nvidia weet dit toch, waarom passen ze de drivers niet aan zodat die ook goed presteren bij 1600x1200, en al dan nie aa en af...??
Netjes gedaan van nVidia. Als je er even bij opneemt dat HL2 een "get in te game" game is medeontwikkeld door Ati/voor Ati. Vergelijkbaar met het "the way its meant to be played" van nVidia.

Ati scoorde niet zo geweldig in Doom3, knap dat nVidia dat wel doet in HL2!

Dit kan natuurlijk iets zeggen over de kwaliteit van nVidia, maar het kan ook iets zeggen op de manier van programmeren door de valve programmeurs. Doom3 was sterk geoptimaliseerd voor nVidia based systems (aanpassingen van shader files gaf een gigantische boost voor ati kaarten). Als dit niet gebeurt is bij de ontwikkeling van HL2 in het voordeel van ATi kan ik alleen maar zeggen petje af voor de valve programmeurs!

@ Tha Killer

Kijk eens rond op de forums van beyond3d

Er was een topic over Doom3, en met enkele simpele aanpassingen in de shaderfiles loopt Doom3 gelijk of zelfs beter in sommige gevallen op een Ati kaart in vergelijking met een vidia kaart. Dit wijst erop dat als de programmeurs iets meer tijd hadden gestoken in het programmeren/optimaliseren dat ze zelf ook tot deze conclusie waren gekomen, en hadden ze passende maatregelen kunnen nemen. (De poster had het zelfs over het vernietigen van het ATi is slecht met OpenGL argument)

Dit is NIET gebeurt, en dus is mijn conclusie dat Doom3 geoptimaliseerd is voor nVidia.
Nou nee nVidia en JC hebben zeer nauw samen gewerkt en Doom3 is zelfs ontwikkeld op nV hardware daarnaast heeft JC voor shadow technieken gevraagd om die door nV te laten implementeren.
zoals een shadow tech in een overdreven donkere game heeft grote invloed op het resultaat en wordt versterkt door de openGL keuze.
hierdoor de grote voorsprong.

HL2 is misschien weer geoptimaliseerd voor ATI alleen géén unieke features die grote invloed hebben.
Kan ook zijn dat HL2 gewoon de standaard volgt en daar was ATI sowieso al sterk in. Sinds de nv40 kan nViia ook redelijk goed meekomen op de standaard path wat het verschil klein maakt.

ATI sterke punt was altijd al High-res met FSAA met DX games.
Wat nou "KAN"

Van HL2 weten we dat het gewoon NIET geoptimaliseerd is voor ATI.

Simpelweg omdat dat geen zin heeft. HL2 is geoptimaliseerd voor DX9. En elke videokaart die generieke DX9 code efficient verwerkt zal HL2 optimaal draaien. Daarom is het zinloos extra tijd in optimalisaties te steken.

Zoals iedere goed geinformeerde tweaker zou moeten weten was de NV3x gewoon erg slecht in het draaien van generieke DX9 code. Het was dus niet dat ATI het zoveel beter deed in HL2, maar dat Nvidia het zoveel slechter deed.

En omdat de NV3x het zo ontzettend slecht deed is HL2 juist een spel geworden dat speciaal voor Nvidia geoptimaliseerd is.
Alleen dan niet in de design fase (zoals bij Doom3 waardoor het uiteindelijk ook sneller werkt) maar nadat de generieke code klaar was, zodat de slechte prestatie wat minder slecht werd.

En de reden dat de NV4x HL2 goed draait is weer simpelweg omdat de NV4x de standaard DX9 code goed draait.

Het is jammer dat er geen ander merk is met sterke DX9 kaarten, want dan had dit niet steeds opnieuw uitgelegd hoeven worden omdat je het dan veel makkelijker zelf kan zien.
ATi heeft miljoenen aan valve gegeven voor HL2. Dat is een feit waar je niet om kunt. Kijk eens op de doos en dvd van HL2. Zie je al die ATI logo's? Hoe komen die daar? Zie nvidia logo's in D3?
Voor al die miljoenen zou ik wel wat performance voordeel willen.
Ze hebben geen miljoenen gegeven.

Ze hebben HL2 licenties gekocht om te bundelen. Van te voren was bekend dat HL2 een grote hit zou worden. Dus uiteraard is het dan een ideale kandidaat om te bundelen en reclame mee te maken met logotjes.

DAT is ruim voldoende reden om zoveel geld er aan uit te geven.
Het is geen reden om complot theorieen te verzinnen dat ze ATI om dat geld een performance voordeel gegeven moeten hebben.

In principe hadden ze ook Doom3 kunnen bundelen. Maar je kiest natuurlijk geen spel uit waarvan je van tevoren weet dat je relatief slecht er in scoort, omdat je weet dat het helemaal op de kaarten van je concurrent is gericht.

Uiteraard wisten ze al van tevoren dat HL2 generieke DX9 code gebruikte en dat dat in hun voordeel was.

Als je werkelijk denkt dat die logotjes betekenen dat de eigenaar van die logo's performance voordelen krijgt, hoe verklaar je dan de vele TWIMTBP spellen die het veel beter doen op ATI kaarten?
vergeet niet dat doom 3 een opengl game is en ati daar over het algemeen niet goed in presteerd en nvidia wel, dus tenzij je een bron hebt waarin de makers zeggen dat het speciaal voor nvidia geoptimaliseerd is, trek ik je concusie in twijfels. HL2 zal waarschijnlijk ook beter presteren op een nvidia kaart als je met de config files gaat rommelen . Maar dat is niet de bedoeling van een banchmark (IMHO)
Die review van driverheaven vergelijkt een X800XT PE met een 6800Ultra


Niet helemaal eerlijk om de snelste kaart van Ati te vergelijken met de niet-snelste kaart van nVidia.

dit geldt trouwens ook voor 6600GT vs X700XT, ook niet helemaal hetzelfde (6600GT staat qua prijs tegenover de X700pro.)

Verder valt het me op dat in een aantal grafiekjes er helemaal geen nVidia kaarten voorkomen, maar bijvoorbeeld alleen de X700/pro/XT, terwijl nVidia hier toch echt gelijkwaardige tegenstander voor heeft.

Bovendien is het in Doom3 (bijvoorbeeld) precies andersom dus volgens mij maakt het op dit moment geen ruk uit of je een Geforce 6 of een Radeon X koopt, in het ene spel zal Ati sneller zijn en in het andere nVidia.
ATI snelste kaart is de X800XT PE
nVidia snelste is de 6800Ultra

6800 U extreem edition is toch geschrapt.

Dan is die vergelijk juist.
Het maakt wel degelijk uit.

Het hangt er namelijk maar net vanaf welk spel het meest representatief is voor de rest van je spellen.

HL2 is representatief voor spellen die generieke DX9 code gebruiken. Maar dan ook echt veel DX9 functies.

Doom3 is representatief voor Doom3.

Daar zit nou net het verschil.
Het kan zijn dat Doom3 ook representatief gaat worden voor andere spellen die de Doom3 engine gaan gebruiken, maar dat hoeft niet. QuakeIII is bv helemaal niet zo representatief voor andere spellen met de QuakeIII engine. Met name de P4 optimalisaties vind je in andere spellen niet terug. Maar het geldt in mindere mate ook voor GPU optimalisaties.
Maar in het algemeen zijn OpenGL shooters wel wat meer gebaat bij een Nvidia kaart.

En uiteindelijk is het dan maar net in welke categorie je de meeste spellen hebt, wat dan voor jou de beste keus is.
Wellicht verklaart dit het e.e.a.: quote Anandtech
The GeForce 6800 Ultra performs very similarly to the X800 XT as long as antialiasing and anisotropic filtering are disabled. With those two features enabled, the X800 XT begins to show a performance advantage that is truly seen at 1280 x 1024 and 1600 x 1200 with 4X AA enabled. If you are running with AA disabled, the two GPUs perform very similar to each other.
We used an Athlon 64 4000+ for all of our tests, as well as 1GB of OCZ DDR400 memory running at 2-2-2-10.
En nog is de CPU soms een limiterende factor :o
De CPU is júíst de limiterende factor in HL2. Zelfs op zeer hoge resoluties is een A64 aanmerkelijk sneller dan een P4, wat erop duidt dat ook op die resoluties de cpu een bottleneck is.
Wat ook nog zou kunnen is dat het geheugen een beperkende factor is, HL2 heeft denk ik (vanwege dikke physics engine ed.) vrij veel geheugen nodig, en ook een beetje flinke bandbreedte en lage latencies.

Ik ben benieuwd wat zoiets doet op DDR500/2-2-2-10 TCCD geheugen (en dan moet de bus van de cpu uiteraard ook 500Mhz zijn)
<dubbelpost t.o.v. PowerToTheUsers>
Dit spel is er prachtig geprogrammeerd. Op een waardeloze PC, Pentium 1.8ghz met geforce 3, draait die nog soepel met alles op medium en 1024*768

Op mijn eigen systeem p4 3ghz 1gb ram, met een geforce 4ti4600 draait die zelfs soepel 60/70 frames en alles op high. Zelfs AA & FA, alleen geen idee of dat effect heeft op een geforce 4.

En qua beeld detail doet het niet veel ten onder aan een geforce 9800 pro.

petje af voor sierra/valve/vivendi
een van deze zijn het ;)
Soepel als je in de wc pot kijkt zeker! Ik hoorde ook iedereen over doom3 "Alles loopt soepel man met een radeon 9600 etc etc" Ja als je tegen de muur aankijkt! Nou heb zelf een gf6800ultra met athlon 64 en soms heb je gewoon serieus 25fps in doom3!!! Vooral met veel monsters, dat is toch belachelijk!! Het is maar net wat je soepel neemt. Vroeger was dit weleens beter, de beste kaarten(welliswaar in combinatie met de cpu) kunnen tegenwoordig een spel nog maar NET (of niet) soepel laten lopen....
Als je de framerate te laag vindt, dan zet je de resolutie of het detailniveau toch wat lager?

Bekijk het 'ns zo: Over een tijdje zijn deze graphics nog steeds "top of the bill", omdat ze nu dus eigenlijk voorlopen op wat de huidige hardware aankan.
Vroeger beter? Hoe kom je er bij?

Van nog voor de tijd van de grafische kaarten:
Grand Prix2. Was zelfs op de allersnelste cpu niet compleet soepel te draaien met alle opties aan.
Wing Commander 3, zelfde verhaal.

Er zijn altijd spellen geweest die de zwaarste machine op de knieen konden dwingen. Dat is nooit anders geweest en zal ook nooit anders worden.

Eén jaar heeft de R300 er voor kunnen zorgen dat een spel een gpu niet meer op de knieen kon krijgen. Maar dat is een uitzonderlijke situatie geweest.
En qua beeld detail doet het niet veel ten onder aan een geforce 9800 pro.

Die bestaat niet...

Maar ff reactie over die performance, het verbaast me dat het zo soepel loopt, zelfs op een 1,2Ghz Celeron met gf2 draait het nog netjes (wel alles low dan, maar toch...)
Draai hier zelf een 2500+ @ 215x11 en een 9800pro @ 435/730. en gaat allemaal super op high.

AA en FA werken voor zover ik weet wel op de gf4.
Vergeet niet dat Halflife 2 een "Ati" spel is en Doom 3 een "Nvidia" spel.

Oftewel...
Toen Doom 3 uit was iedereen gelukkig met een Nvidia-based videokaart omdat ie sneller was dan de concurrent en met HL2 zal het precies omgekeerd zijn :)
Het is helemaal niet omgekeerd. Ik verwijs naar de [H] benchmarks. Daar is het een nek aan nek race. Het is ook de enige review die de goede nv drivers en niet de ATI PR timedemos gebruikt.
In D3 blaast nvidia ATi weg, in HL2 zijn ze aan mekaar gewaagd. Dan is het toch duidelijk dat de 6800u de betere keuze is? Neem daarbij de goede linux performance en ik zie geen reden om nog een ATi te kopen.
Ik wil ook effe melden dat nv nu al goede HL2 drivers heeft iets wat ATi voor D3 pas na een twijfelachtige humus fix en een paar driver updates verder, kon.
Pas op met die [H] benchmarks.

De nvidia kaarten die [H] gebruikt zijn kaarten die overklokt zijn.
Welliswaar overklokt door de fabrikant, dus als je zo'n kaart hebt, dan is het een goede vergelijking.

Maar als je een Nvidia kaart van een ander merk hebt, dan gaat de vergelijking dus niet op!!
Die zijn niet overclocked, het volledig stock kaarten van BFG. Ze lopen aan hogere snelheden dan het reference design maar dat is de keuze van de fabrikant. De BFG's zijn de meest verkochte ultra kaarten, dus de keuze is niet onlogisch.
Ze gebruiken daarentegen ook XT PE kaarten, kaarten die uitgefaseerd worden en vervangen worden door gewone XT's (die lager geclocked zijn).
[H] heeft de "out-of-the-box" experience getest, ze hebben niks aan de kaarten of het spel getweaked. En zo moet het.
Je bevestigt gewoon precies wat ik al zei: Ze zijn door de fabrikant overklokt en dus niet vergelijkbaar met de kaarten van andere merken.

Leuk dat ze in de VS de meest verkocht ultra kaarten zijn, maar daar heb je geen zier aan als je ze niet in Nederland kan kopen.
In pricewatch is er NIET ÉÉN te vinden!!

Verder heeft [H] niet "out-of-the-box" getest. Ze hebben waterreflecties uitgezet. Waarom is een raadsel. (Dit werd geconstateerd op de beyond3d forums)

Mijn waarschuwing blijft dus staan: De kaarten die daar gebruikt zijn niet representatief voor de kaarten die je in Nederland hebt.
Overclocken is manueel de kloksnelheid verhogen. En dat is hier niet gebeurd. De kaart loopt op stock speeds dus dat is niet overclocked. Zo moeilijk om te begrijpen is dat toch niet?
En omdat 1 persoon over waterreflect begint geloof je hem? Er zijn er ook die het tegendeel beweren op b3d. Maar dat verzwijgen we natuurlijk.

En btw een XT PE is ook niet te vinden in Nederland. |:(
Het maakt me geen zak uit hoe je het wil noemen.
Feit blijft dat die kaarten niet in Nederland verkrijgbaar zijn, en dus een verkeerd beeld geven van het verschil tussen ATI en NVidia kaarten, zoals je die hier kan kopen.

Welk gedeelte daarvan kan jij niet begrijpen?

En wat betreft dat waterreflect. Ten eerste is het nivo bij Beyond3D veel hoger dan hier. Dus dat forum hecht ik wel heel wat meer waarde aan dat het geblaat hier.
Ten tweede kan je het bewijs vinden op xbitlabs: bij de water shaders is het verschil tussen Nvidia en ATI gigantisch! Dat blijkt zonder enige twijfel uit de benches van velden met heel veel water.
Als je die waterreflects veel minder maakt, dan is dat duidelijk in het voordeel van nvidia, omdat je daarmee het verschil een stuk kleiner maakt.
mij maken die benches niet zoveel uit, wel leuk natuurlijk om te weten welke kaart het beste is gemiddeld.

maar wat ik toch het beste vind, van de hedendaagse spellen is dat je ze zowat met elke video kaart nog behoorlijk kan spelen.

hier in huis staat nog een 1000mhz waar mn broertje hl2 op speeld, en dat loopt lang zo slecht nog niet, nu zit ik hier met een 9800 pro waar alles op high kan, terwijl het toch een oude kaart is alweer.., ik wil maar zegen, een paar jaar terug had je telekns gewoon het beste nodig, nu word dat steeds wat minder. en gaat je kaart wat langer mee.

ben benieuwd naar de shaders die de ati levels krijgen, ik hoop veel normal mapped materials
http://www.hardocp.com/article.html?art=Njky

Hier gaat het veel meer gelijk op.

Ik heb zelf beide kaarten en zal op got eens posten wat bij mij het verschil is.
Mijn huisgenoot heeft dit spel in 12 uur uitgespeeld! Daar ga ik echt geen nieuwe videokaart voor kopen. dan maar wat mindere graphics.
Mijn huisgenoot heeft dit spel in 12 uur uitgespeeld! Daar ga ik echt geen nieuwe videokaart voor kopen. dan maar wat mindere graphics.
Gabe Newell heeft onlangs aangekondigd dat er extra levels beschikbaar komen via een Steam update, hij noemt ze de zgn. Ati levels waar je de nieuwste high-end kaarten voor nodig hebt om ze op volle pracht te kunnen draaien. (waarschijnlijk wordt hier dus ondermeer X800's 3Dc in toegepast en zwaardere, spectaculaidere shaders.)
Maar ook HDR, iets wat ATI kaarten natuurlijk nog niet ondersteunen.
Pardon????

HDR wordt al vanaf de R300 ondersteunt.
Sterker, Valve heeft toendertijd (anderhalf jaar gelden) al een demo laten zien van HDR in een HL2 level, wat op een R300 hardstikke soepel draaide.

Maar dat werd (wordt?) niet ondersteunt op de Nv3x kaarten. Later heeft NVidia HDR op een andere manier geimplementeerd in de NV4x en vandaar dat nu de Nvidia methode van HDR laatst op tweakers stond. Werd geloof ik in FarCry gedemonstreerd.
Vandaar waarschijnlijk dat je in verwarring was gebracht en abusievelijk dacht dat ATI geen HDR ondersteund.
@darthdrinker Ja, door zeker alleen maar te rushen |:( Zo kun je idd alles op low zetten omdat je niets van de graphische pracht ziet :z
Uitgebreide benchmarksessie met Half-Life 2 in hoofdrol
Door Jeroen P Hira - woensdag 17 november 2004 - 19:05 - Bron: AnandTech

Klikt U op bron, en ziedaar ;)
ik zou graag keiharde cijfers zien over de performance van de verschillende kaarten. Dat verwacht ik van een "uitgebreide benchmarksessie".
kijk eens bij AnandTech zou ik zeggen :)

Op dit item kan niet meer gereageerd worden.



HTC One (M9) Samsung Galaxy S6 Grand Theft Auto V Microsoft Windows 10 Apple iPad Air 2 FIFA 15 Motorola Nexus 6 Apple iPhone 6

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True