Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 53 reacties
Bron: AnandTech

Met alle heisa rond Radeon X800's en GeForce 6600GT's besloot AnandTech de consument even een handje te helpen en met een uitgebreid overzicht van al dat grafisch geweld weer up to date te brengen in videokaartenland. Het artikel wordt echter wel beperkt tot kaarten gebaseerd op ATi- en nVidia-chips, zodat chipsets als die van Intel, VIA en SiS met onboard-graphics buiten de boot vallen. Net als Matrox voldoen die volgens AnandTech sowieso niet aan de kwaliteitseisen die gesteld worden door gamers. Omdat de eerste GeForce- en Radeon-kaarten nog net DirectX 7 ondersteunden werden deze wel nog opgenomen in de vergelijking, in tegenstelling tot hun oudere broertjes de TNT- en Rage-kaarten.

ATi logo (klein)Als eerste krijgen we een overzicht van de verschillende ATi-modellen en hun specificaties, met als topmodel de Radeon X800 XT PE en als hekkensluiter de Radeon VE. Hier zien we dat ATi logischerwijze over allerlei modellen beschikt die ondersteuning bieden voor DirectX 7, 8 en 9 maar zelfs ook de niet-officiële DirectX 9 met SM2.0b ondersteuning. Niet-officieel, volgens AnandTech omdat Microsoft deze 'tussenversie' van DirectX niet echt gecertificeerd heeft. ATi biedt bovendien ook enkele eigenschappen van het Shader Model 3.0, maar implementeert deze niet volledig. Wanneer overigens de 2.0b-eigenschappen aangezet worden op de grafische kaarten, worden ze niet meer WHQL-gecertificeerd. Daarom schakelt ATi deze functies standaard uit.

nVidia LogoVervolgens komen de nVidia-modellen aan de beurt, gaande van de state of the art GeForce 6800UE tot de low-end GeForce 256. Net als ATi heeft nVidia ondersteuning voor DirectX 7, 8 en 9 in huis, maar in plaats van de niet officiële DirectX9b, kiest nVidia voor de Microsoft-standaard DirectX9c. De keerzijde van de nVidia-medaille situeert zich bij de SM2.0a-eigenschappen die bijna volledig ongebruikt bleven. In vergelijking met ATi, waar de grenzen tussen de verschillende productlijnen duidelijk zijn, kent nVidia echter meer overlappingen in zijn productlijn. De GeForce 3 biedt bijvoorbeeld maar een kleine prestatiewinst ten opzichte van de GeForce 2 Ultra en dan nog enkel in moderne games. Dit verklaart meteen ook waarom veel gamers de GeForce 3 overgeslagen hebben en meteen voor een upgrade van de GeForce 2 naar de GeForce 4 kozen.

Na de voorstelling van beide productlijnen gaat men over naar de pure prestaties, waarbij men wel meteen vermeldt dat theoretische prestaties niet altijd een betrouwbare weergave van de praktijk zijn. Voor elke versie van DirectX wordt een tabel weergegeven met alle kaarten en hun specificaties, met telkens een korte toelichting. Hierna komt een bespreking van de die-size aan bod. Hieruit blijkt dat, hoewel er hoofdzakelijk met schattingen gewerkt wordt, de afmetingen van de die exponentieel groeien naarmate de kaarten moderner en beter worden. Dit betekent echter dat er uit één wafer, minder chips gemaakt kunnen worden, wat de kosten in de hoogte jaagt. In de conclusie benadrukt AnandTech nog even dat, hoewel de X800 XT en de 6800 Ultra serieuze high-end kaarten zijn die hun hand niet omdraaien voor de modernste spellen, er nog steeds betere prestaties verwacht worden.

ATi en nVidia chip

Toen nVidia enkele jaren geleden claimde Toy Story 2-afbeeldingen realtime te kunnen renderen weerlegde Pixar deze stelling verontwaardigd met het feit dat de benodigde bandbreedte voor de textures van deze prent zowat 96GB/s bedroeg. Op de dag van vandaag is een derde van die hoeveelheid al mogelijk. In de toekomst moeten we volgens AnandTech niet meteen nieuwe eigenschappen verwachten. Met DirectX 10 dat gepland staat als onderdeel van Longhorn, kan ook die hardware nog wel even op zich laten wachten. Ondertussen kunnen ATi en nVidia zich concentreren op het kleiner maken van de dies en het opdrijven van de productie-aantallen.

Moderatie-faq Wijzig weergave

Reacties (53)

/rantmode on

Ik zie dat Anand zoals gebruikelijk weer allemaal onzin in de wereld brengt. (over videokaarten dan, iedere keer dat hij daar wat over schrijft zit het hele verhaal weer stampvol feitelijke onjuistheden).
Nog vervelender is dat dit hier klakkeloos wordt overgenomen.

De PS2.0b standaard die ATI ondersteund zit gewoon (net als Shader Model 3.0) in DX9c, en is volledig door MS ondersteund en gecertificeerd.
Net zoals de PS2.0a standaard van de Geforce FX kaarten in DX9b volledig officieel is. Dit zijn beiden officiele uitbreidingen op de Shader model 2.0 standaard.

De reden dat ATI misschien wat problemen met WHQL gaat krijgen is dat zij een element van Shader Model 3.0 (instancing, vanaf de radeon 9500 tot de x800 ondersteund) via een onofficiele check aangeven. Zij gebruiken hiervoor een FOURCC texture format, terwijl de spec aangeeft dat dit alleen tezamen met de rest van Shader Model 3.0 ondersteund mag worden. ATI is daarover nu met MS in onderhandeling, tot ik geloof November is het trouwens nog "legaal" om dit in de drivers te ondersteunen.

Pas trouwens ook op bij de review/gegevens die hij heeft van de Geforce 6600, die heeft namelijk geen 8x1 pipeline configuratie zoals hij beweerd, maar een 4x2 (zie Beyond3D.com).

Jammer dat Anand met zijn verhaaltjes hier altijd in de nieuwsposts komt, terwijl bovengenoemde site veel betere reviews schrijft met voor tweakers veel meer interessante informatie.

/rantmode off
Tja, subjectieve reviews en geruchten zijn hier nou eenmaal populairder dan goed onderbouwde verhalen zoals je die bij Beyond3D vind.

Waarom denk je dat the Inquirer hier elke dag vermeld wordt?
Iemand die een beetje op de hoogte is negeert the Inquirer toch ook gewoon?
Vreemd dat men in alle vormen van grafische kaarten tests alleen uitgaat van gamen....net alsof dat de enige toepassing is die telt ?!?!
De kaarten die in het artikel worden genoemd zijn in principe ook alleen maar bedoeld om te gamen.

Voor de standaard surfer en Word tikker heb je in principe genoeg aan een 8 of 16 mb kaartje, voor de professionele markt zijn er hele andere videokaarten zoals de quadro series van nvidia.
Als MS binnenkort met de 3D desktop komt zal de 3d functionaliteit een grotere rol gaan spelen....

Daarnaast zijn er ook andere alternatieven dan DX, ik zie in deze test niets daarover terugkomen.
Tuurlijk daar heb je helemaal gelijk in, maar binnen de 3D van Games (want daar zijn deze kaarten toch eigenlijk wel voor) zijn DX 9.0c en OpenGL 2 toch wel de grootsten. En alles leuk en aardig maar als GPU-bakker moet je toch ergens de lijn trekken aan de features die je ondersteunt anders wordt het toch echt te gek en dan schieten de kosten echt door het dak heen. En die kaarten zijn IMHO al duur genoeg!
nog vreemder dat men bij dat gamen vooral uitgaat van DirectX, terwijl ongeveer de helft van de games OpenGL is... Ze zitten allemaal hun DX9 support te pimpen, maar ik lees eigenlijk nooit welke OpenGL versie de kaart voor gemaakt is.
Van ATI kan je dat verwachten, die lijkt OGL vergeten te zijn, maar van Nvidia had ik dat toch wat beter verwacht. Maargoed, heb net ff op me doos gekeken, en OGL 1.3 wordt wel degelijk genoemd in dezelfde zin als DX8 :)
90% van de games is DX.
Als je toevallig alleen maar shooters met een ID engine speelt heb je wellicht het gevoel dat OpenGL veel gebruikt wordt, maar dat valt dus vies tegen.

Dat er bij OpenGL niet zo duidelijk versie nummers worden gebruikt ligt natuurlijk aan OpenGL zelf. Met al die vreselijke propietaire extensies is het een ramp om aan te geven wat er wel en niet ondersteunt wordt.
DX is wat dat betreft veel duidelijker. (Hoewel de fabrikanten de zaak bij DX9 wel flink zitten te verstieren met het gezeur over SM2 en SM3)
Dat er bij OpenGL niet zo duidelijk versie nummers worden gebruikt ligt natuurlijk aan OpenGL zelf. Met al die vreselijke propietaire extensies is het een ramp om aan te geven wat er wel en niet ondersteunt wordt.
klopt
alleen zijn de ingebouwede features met openGL 2.0 weer gelijk getrokken met dx9.
nu maar hopen dat ze wat sneller met hun volgende versie komen en gelijk blijven aan DX.
Wel de meest belastende voor de normale gebruiker en zo ongeveer de grootste doelgroep....
En toch een NVIDIA voor mij puur omdat ik goede OpenGL prestaties en kwaliteit nodig heb ik 3D applicaties.
@XyritZz
De drivers zijn dan nog beter in het nvidia kamp aangezien ze de leiding nog steeds met overtuigende percentages neerzetten 10 a 15%.
Verder leuk dat die medewerker zegt dat een andere shader betere prestatie voor Ati kaarten neerzet maar hij heeft hier niks op in te brengen aangezien het de keuze van spelmaker is wat voor shader ze gebruiken en op wat voor manier.
FarCry loopt ook stukken beter op geforcefx kaarten als er pixel shader 1.4 ipv 2.0 gebruikt wordt, dus hadden ze het maar op 1.4 moeten zetten voor elke kaart op de markt zeker??
|:(
Doom3 is een zeer goede benchmark die op de toekomst gericht is want er gaan vast tientallen andere games gemaakt worden met deze engine en is dit dus een goede meetlat voor wat er komen gaat.

OpenGL argument is dus meer als waar zeker omdat het geen directx is en dus eigenlijk geen vergelijking mag zijn met die specs die dx9 voert.
Paar dagen gelden is een groot artikel verschenen waaruit blijkt dat het onzin is dat nVidia zoveel betere OpenGL drivers heeft dan Ati.

Mensen baseren dit vaak op de Doom3 performance. Maar de shader van Doom3 is geschreven op een manier waarop nVidia er maximaal gebruik van kan maken. Op beyond3d staat een post van iemand die bij Ati werkt en een aantal aanpassingen voor die shader heeft bedacht waardoor Doom3 op zijn minst net zo goed draait op een Ati kaart.

OpenGL argument is dus onwaar.
@sjekneck.

Het is inderdaad de keuze van de spelmaker om de code van DoomIII speciaal op Nvidia te rechten waardoor de ATI kaarten in het nadeel zijn.

De FarCry situatie is anders. Het mag algemeen bekend zijn dat GeforceFX kaarten langzaam zijn met PS2 code en een stuk sneller met PS1.4 code.
Dat heeft niets met de code van FarCry te maken, maar met de GeforceFX hardware. Die PS2 code kan door Nvidia niet zodanig veranderd worden dat de prestaties wel goed worden (dat hebben ze namelijk al lang geprobeerd)

Doom3 is hoogstwaarschijnlijk geen goede benchmark.
Dat andere games de engine gebruiken zegt niets over de prestaties van die games. Heel veel games gebruiken de QuakeIII engine. Maar de resultaten in die games komen totaal niet overeen met de resultaten van QuakeIII.
(Als je bv op QuakeIII afgaat, dan zou je moeten concluderen dat AMD Athlons slecht zijn bij OpenGL spellen...)
Verder is het maar zeer de vraag of de Doom3 engine wel zo populair wordt als de QuakeIII engine was. Er zijn zeer sterke concurrenten en Doom3 is erg tegengevallen.

Het OpenGL argument is dus niet met Doom3 te onderbouwen. Wel met een heleboel andere spellen, maar daar is het verschil maar minimaal.
(Wat ook al aangeeft dat de verschillen van Doom3 door iets anders komen)
@mjtdevries
D3 tegenvallen??? Man waar kom jij vandaan die game loopt als een tierelier en scoort gemiddeld een 9,4 in alle gamebladen en reviews.
Dat het jouw spel niet is prima maar d3 is absoluut een must voor elke zelf respecterende gamer.
Omdat de games die vandaag de dag ontwikkeld worden uitstekende benchmarks kunnen zijn voor de hedendaagse videokaarten
Plus....de lat word constant hoger gelegd door de ontwikkelaars van spellen, om alles uit de kaart te halen dat er inzit (soms wel es meer...lol)
Inderdaad, of er niks anders is.... ik wil gewoon m´n audio kunnen bewerken/surfen/mailen en als ik een keer NFSU wil spelen moet dat ook kunnen, maar verder... ;)
En voor audio bewerken gebruik jij je videokaart op welke manier?

(Ok, het geeft het beeld weer, maar dat kan een cheap ass kaartje ook)

De videokaarten worden ontworpen en geproduceerd met 1 specifiek doel. Dat je er ook gewone graphics uit krijgt is volgens mij bijzaak voor ATI en NVidea. Vroeger waren het dan ook aparte kaarten weet je nog?

:Y)
Voor audiobewerking kun je inderdaad je videokaart gebruiken, zie dit artikel: http://www.tweakers.net/nieuws/34134
En voor audio bewerken gebruik jij je videokaart op welke manier?
Je wilt waarschijnlijk een hoge resolutie, en daarmee een scherp en stabiel signaal. Als je DVI kan gebruiken, geen probleem, maar bij D-Sub moet je ff opletten dat je geen nVidia of ATi neemt, als je 1920x1440 wil weergeven op je 22" CRT monitor...
Ik vind het jammer dat de (theoretische) vergelijken die in de brontekst gemaakt worden niet meegenomen worden. Er staan daar een aantal tabelletjes, die eenvoudig gecombineerd kunnen worden tot overzichttabellen, waarbij het theoretische verschil tussen bijvoorbeeld een GF 6600UE en X800 XT PE kunt zien.
Dit bericht hierboven is enkel een droge opsomming van wat feitjes die uit de brontekst zijn gehaald, de daadwerkelijke vergelijking wordt niet vermeld.
Ik vind het heel verstandig dat ze niet meegenomen worden.

Zoals Anandtech zelf ook al aangeeft zeggen die theoretische vergelijkingen niets over de daadwerkelijke prestaties van een kaart.
Dat blijkt des te meer omdat ze een subjectieve weging hebben toegepast op de prestaties van bepaalde series kaarten voor de volgorde van de lijst. Omdat anders de volgorde helemaal niet overeen kwam, met wat je in de praktijk aan prestaties ziet.

Het is dus een leuk setje tabelletjes, maar verder totaal nutteloos.
Ik gebruik nu 2.5 jaar een GeForce TI 4200 128 8xAGP.
dit gaat nog redelijk met de nieuwe games. maar wat ik af vraag is gaat het niet alemaal te snel?? ze verzinne telkens wat nieuws maar echt vernieuwingen zie je alleen maar bij kaarten die 3 of 4 versie's hoger zijn.
Je hebt volkomen gelijk. Ik heb ook nog steeds een GF4TI4200 en eerlijk gezegd voldoet dat nog steeds prima. Dat was in de tijd van Voodoo2 (SLI) en de opkomst van nVidia wel anders, toen was elke nieuwe kaart een (bijna) complete vernieuwing. Wat ze nu ook doen zijn hun bestaande series compleet uitmelken (zie nummering Ati / nVidia), maar dit komt ook doordat de ontwikkeling steeds duurder wordt en er alleen maar in de marges gewerkt wordt. Voor echte baanbrekende vernieuwingen zijn we al zeker zo'n 3-5 jaar verder. :'(
Voor welk doel voldoet die GF4 prima?
Om nog genoeg fps te geven? Ja dat zal best wel.

Maar de echt baanbrekende vernieuwing van de laatste tijd is PS1.4/PS2.0. Dat heeft die GF4 niet, en al die mooie effecten die je anders in het spel krijgt mis je dus.
Maar als jij tevreden bent met alleen redelijke fps en geen mooie effecten, dan voldoet die kaart wel ja.
GF4200ti power! naar mijn mening één van de beste G-kaarten ooit gemaakt(onderstaande met AA en AF uit weliswaar):
-cs source met alles op high, 1024x768, dit aan 43fps.
-Doom3 op 800x600 op medium 42fps
-Farcry 800x600 op high (en sommige opties op ultra, voor de insekten en vogeltjes te hebben)45fps
Ik ken er met FX kaarten die dit niet halen. En m'n 1.5Ghz intel proc zal niet de krachtbron zijn hoor!
Ik geloof niet dat je gelezen hebt wat ik heb geschreven.

Jouw GF4200 doet dan wel Doom3 op 800*600 medium 42fps. Maar dat ziet er dan wel heel anders uit dan op een FX kaart.
De FX kaart moet op dezelfde settings veel meer werk verzetten. Die moet namelijk al die PS1.4 shaders uitvoeren, die moet die schaduwen verwerken.
Als je dat bij die FX kaarten ook uitzet dan verslaan ze jouw GF4200 weer.
Helemaal met je eens. Ik heb ook nog steeds een ti4200 128mb en die trekt tot nu toe alle spellen nog.. ok.. Doom III loopt niet altijd supervloeiend maargoed het is wel speelbaar. bovendien vindt ik de huidige kaarten simpelweg te duur. Ik ben ook maar een arme student :'(

Daarnaast gaat gameplay bij mij boven beeldkwaliteit. Ik ben dus best tevreden als een spel er niet zo gelikt uitziet als het eruit zou kunnen zien wanneer ik een andere kaart zou hebben. Zolang het maar lekker speelt.
Gameplay belangrijker dan beeldkwaliteit kan ik begrijpen. Maar wat doe je dan in hemelsnaam met Doom III ? }>
Maar het geeft juist een vette kick dat het er mooi uit ziet!
Als ik op 640x480 a 800x600 moet spelen is voor mij de lol er wel af hoor.
nou van mij mogen ze meer aandacht gaan geven aan gameplay....mooi is leuk, maar het moet gewoon lekker spelen...dat is het belangrijkst
Interessante tekst, alleen jammer dat de andere spelers, ook al doen die het niet al te best, niet meegenomen worden in de vergelijking.

@mxcreep, idd, er wordt zelden gekeken naar output (RGB en TV) kwaliteit gekeken, multimonitor functionaliteit, hardware pivot, progressive scan output voor HD-TV (wat voor ons nederlanders iets minder boeiend is), snelheid in autoCAD en dergelijke, certified drivers voor autocad en dergelijke. Maar gamen is ook wel de grootste drijfkracht achter de voorderingen op videokaart gebied.
Heb de eerste fout al ondekt in het orginele artikel:
GF4 Ti4600 NV25 300 600
Een 4600 loopt standaard op 300 core en 650 voor het geheugen!

:Z
Van welke fabrikant? Daar zitten namelijk ook nog weer verschillen in ;) Dus dat gaat niet op hier
Mss moet jij in het vervolg de nieuwsposts maken dan?
Jij bent zooo goed! En zo oplettend ook! en je draagt ook zoveel bij aan nuttige feedback!
Begrijp ik het nu goed en zijn Nvidea-kaarten meer DirectX compatible volgens deze overzichten?

Ik dacht dat ATI DirectX altijd beter implementeerde. Heeft dit gevolgen voor performance, richting de toekomst? Wanneer spellen de nieuwste directx functies ook daadwerkelijk gaan benutten, bedoel ik.
Er zitten voorlopig geen nuttige DirectX functies in SM3.0 voor spellen die de eerste jaren gaan uitkomen. De paar nieuwe dingen die erin zitten zijn dusdanig veeleisend dat de huidige nieuwe generatie GPU's die dingen niet effectief, (real-time) kan gebruiken.
De nieuwste game engines van dit moment zijn daarom effectief gezien gewoon SM2.0.

Instancing zou interessant kunnen zijn. Dat zit zonder enige reden in SM3.0, maar de Radeons ondersteunen het al sinds de R300. (Radeon9700)

Microsoft heeft de DirectX versies zeer omvattend willen maken. Opzich is daar wel wat voor te zeggen, maar het blijkt gewoon verschrikkelijk onhandig, vooral omdat de DirectX versies steeds langzamer uitkomen. Daarom zie je nu dat er voorzichtig toch dingen uit worden gehaald, en lager ingedeeld (centroid sampling), extra shaders modellen worden geintroduceerd (SM2.0 a,b) en er via omwegen GPU ondersteuning wordt opgevraagd (instancing op R300+)

Uiteindelijk komt het erop neer dat de ATI en NVidia vrijwel dezelfde functionaliteit ondersteunen.
Op papier ondersteund NVidia ook dynamic branching, maar iedere developer weet drommels goed dat GPU's daar absoluut niet meer om kunnen gaan, en je dus waardeloze prestaties krijgt. In vrijwel alle andere gevallen had het ook met meer concentionele branching kunnen doen. Omdat het dus een papieren gimmick is, heeft ATI het simpelweg helemaal niet geimplementeerd.

Kun je je natuurlijk afvragen waarom SM3.0 dan zulke functionaliteit bevat... De reden is dat men ergens in de toekomst naar een situatie wil zoals dat momenteel voor CPU's bestaat. Dus een vrijwel vaststaande feature set, waarmee in principe alles kan, en alleen de prestaties verschillen.
Dat is voorlopig echter in de praktijk nog niet op een zinvolle manier te implementeren.

Omdat de NVidia PR op dit moment uiteraard volop SM3.0 zit te promoten, zal ATI wel mee moeten gaan met de R520. Maar bij de spellen zul je niets merken van nieuwe directx functionaliteit.
nVidia

leert het nou toch eens alstublieft!
Leuke tekst, alleen naar mijn idee te weinig visualitie. Er wordt veel verteld maar je ziet er zo weinig van vindt ik 2 van die tabelltjes vind ik meer dan genoeg. Ik zou dan liever wat van die overzichtelijke grafieken van Tom's hardware zien ;)
Toen nVidia enkele jaren geleden claimde Toy Story 2-afbeeldingen realtime te kunnen renderen reageerde Pixar verontwaardigd dat de textures voor deze prent zowat 96GB/s in beslag namen. Op de dag van vandaag is een derde van die hoeveelheden al mogelijk.
Global Illumination? Sub-Surface Scattering? Mega poly-counts? Raytracing?

Het zwaartepunt van een render zit echt niet bij de textures. Het is maar 1 aspect van het grote geheel. Realtime de kwaliteit van Toy Story 2 nabootsen duurt nog wel even.
Ik heb de indruk dat Nvidia zelf ook door heeft dat hun filmpjes totaal niet overeenkwamen. Net zoals bv die claim over Final Fantasy. Als je hun filmpje ging vergelijken met de orginele render kwam het nvidia filmpje super-zielig over. Dat was geen beste reclame.

Ze hadden waarschijnlijk niet verwacht dat mensen daadwerkelijk gingen vergelijken. Op het eerste gezicht leek het immers toch best aardig? *kuch* *kuch*
overlaatste deze tekst gelezen op theinquirer:
http://www.theinquirer.net/?article=18278

en ik kon me er helemaal in vinden ..

en nu ben ik blij met deze opsomming van alle kaarten en hun key-features... dan heb je toch minstens een grof ID hoe een 9600 XT presteert tov een X600 PRO enz...

de performance-vergelijking vind ik echter maar bij het haar getrokken, en mochten ze van mij gerust weg laten...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True