Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 74 reacties, 59.085 views •
Bron: X-bit Labs, submitter: player-x

Volgens de redactie van X-bit Labs heeft FutureMarks 3dMark-software voorspellende gaven. De snelheid waarmee videokaarten zich ontwikkelen ligt hoog, en gameontwikkelaars doen hun best om de nieuwste foefjes en de enorme snelheden maximaal te benutten. Ook 3dMark06 is weer als geen ander geschikt om te voorspellen welke videokaarten toekomstige games aankunnen, en welke beter in de winkel kunnen blijven liggen. De nieuwste 3dMark kan niet alleen ontzagwekkende hoeveelheden polygonen laten renderen, van belang is ook de beeldkwaliteit. Er wordt gebruik gemaakt van nieuwe technieken om schaduwen te genereren, de HDR-functionaliteit mag zich van zijn beste kant laten zien, en de programmeerbare 3.0-shaders kunnen alles uit de kast halen.

AMD's FX-60 De test beslaat niet minder dan 22 kaarten, variërend van de nVidia GeForce 6600 en ATi's X700 tot topmodellen als de 7800 GTX 512MB en de X1900 XTX. Omdat ook de cpu van belang is, werden liefst 19 chips van Intel en AMD in het onderzoek meegenomen. Als 'instapmodelletjes' werden chips als de Athlon 64 3800+ en de Pentium 4 660 gebruikt, terwijl het high-endsegment vertegenwoordigd werd door chips als de FX-60 en de Pentium XE 955. Uit de 3dMark-benches blijkt zonneklaar dat bijdetijdse gamers een dualcore-systeem willen hebben. Een Athlon 64 X2 3800+ scoorde bijna dertig procent beter dan de beste singlecore-chip, evenveel als het verschil tussen diezelfde Athlon en de snelste chip uit de test, de FX-60.

Bij de grafische kaarten is er een duidelijke winnaar: ATi's X1900 XTX wint vrijwel alle tests. In het mainstreamsegment is het vooral de GeForce 6800 GT/GS die de lakens uitdeelt, hoewel een X1600 XT ook aardig meedoet. Op de hoogste resoluties zien we hier al een aantal nVidia-kaarten die niet meer in staat zijn de tests tot een goed einde te brengen, wat bij de goedkoopste kaarten alleen nog maar duidelijker wordt: 3dMark06 is een loeizware test. Van 'winnaars' mag met framerates die op de laagste resolutie amper boven de 7fps uitkomen eigenlijk niet gesproken worden, maar de GF6600 GT doet het opmerkelijk goed, al biedt de iets minder presterende X1300 Pro meer waar voor zijn geld . De enige kaart van S3, de Chrome 27, doet ook leuk mee, maar ontbeert SM3.0-support.

Xbit Labs 3dMark06 SM3.0/HDR-test

Juist de ondersteuning voor Shader Model 3.0 onderscheidt de blijvertjes van de broddelaars, luidt de conclusie. Kaarten als de S3 Chrome 27, de Radeon X700, de X800 en de X850 hebben daarom 'geen enkele toekomst'. De 6600-serie van nVidia en de X1300 van ATi kunnen er nog net mee door, maar fatsoenlijke gameplay op meer dan 800 bij 600 beeldpuntjes moet niet verwacht worden. De Radeon X1600 XT lijkt minder voordelig dan de GeForce 6800 GS, maar de betere architectuur zou deze kaart wel eens een langere adem kunnen geven. Kaarten die volgens de site volgend jaar ook nog iets voorstellen, hebben 7800 of X1800/X1900 in hun naam. ATi's kaarten hebben echter betere SM3.0-ondersteuning, zodat verwacht mag worden dat zij beter met de volgende generatie games overweg kunnen.

ATi Radeon X1900 XTX

Reacties (74)

Reactiefilter:-174073+153+212+36
Het is jammer dat de techniek zo hard gaat, anders zou het de ontwikkelaars dwingen om wat creatiever met de resources om te gaan.

Je ziet het met de consoles, de 2e en 3e gen spellen zien er altijd veel toffer uit maar dat gebeurt niet bij PC's want dan ben je al weer 2 generaties aan kaarten verder.

maar het leukste voorbeeld vind ik toch altijd wel de commodore 64 met 3 kanalen geluid, 16 kleuren en 64 kb ram. Door creatief geprogrammeer kreeg men 256 kleuren, 5 kanalen geluid en 96 kb ram ( dat laatste door basic te vervangen)..
Het is jammer dat de techniek zo hard gaat, anders zou het de ontwikkelaars dwingen om wat creatiever met de resources om te gaan.
Waarom is dat jammer?
Nu heb je gewoon betere resultaten voor minder geld.

Jij rekent toch ook niet met pen en papier als je een rekenmachine hebt?
Ze schrijven een game nu lui, in plaats van proberen zo efficient mogelijk om te gaan met de hardware. Kijk maar eens naar een playstation, de nieuwste games zien er stukken beter uit dan de oude games, puur doordat men in de jaren alles uit de beschikbare hardware perst. Bij de PC games doen ze dat niet, omdat ze er geen tijd voor hebben doordat er weer 2 generaties kaarten zijn die sneller en meer mogelijkheden hebben.
Vergeet niet dat elke video kaart een andere subset van features ondersteund, dat veel mensen vele verschillende videokaarten hebben en dat spelmakers veel spellen willen verkopen die ook nog eens op zoveel mogelijk systemen moeten werken. Dat nieuwe spellen voor de playstation er beter uitzien dan de oude is vrij logisch. De hardware is sinds de introductie niet veranderd wat ervoor gezorgd heeft dat men bij ontwikkeling geen enkele rekening hoeft te houden met verschillen wat een flinke tijds besparing betekend. Ook hebben ps programmeurs nu een behoorlijke dosis ervaring en weten ze precies waar voordeel te halen valt.
Andersom bij pc's kan het zijn dat een optimalisatie voor de ene videokaart bij een andere negatief uitpakt, wat betekend dat je of geen optimalisatie kunt toepassen of dat je verschillende paden moet maken voor verschillende kaarten met verschillende subsets aan features. Al met al is het ondoenlijk om in zon snel veranderende markt spellen te maken die optimaal gebruik maken van alle beschikbare hardware. Men is gedwongen de gulden middenweg te nemen.
Je vergeet 1 ding: De ene GPU praat niet dezelfde taal als de andere GPU. Om toch ervoor te zorgen dat alle GPU's het spel kunnen draaien zijn daar speciale APIs voor ontwikkeld, de bekendste ken je vast wel: DirectX en OpenGL.

Programmeurs kunnen nu dus alleen nog maar hun DirectX en OpenGL functies optimaliseren, maar ze werken dan nog altijd een laag boven het driverniveau. Hierdoor is het haast onmogelijk om er veel meer kracht uit te persen.

Bij een console heb je maar 1 GPU en kunnen de ontwikkelaars dus veel meer optimalisaties inprogrammeren. Om erachter te komen welk algoritme sneller is en welke mooiere resultaten opleverd heb je eerst een tijdje nodig waarin je de mogelijkheden uitprobeert. Omdat doen de beste manier van leren is besteden ze hun tijd nuttig en gaan gewoon vrolijk aan de slag. Na een tijdje hebben ze alle truukjes door en worden de spellen mooier en sneller.

Het heeft niets met luiheid te maken maar met complexiteit. Zonder DirectX/OpenGL zouden ze gewoon de drivers zelf kunnen aanspreken, maar dan heb je voor elke mogelijke kaart van elke mogelijke fabrikant een eigen subset met programmamethodes. Ga jij maar alvast beginnen met een team, als jij over 10 jaar eindelijk klaar bent met je spel dat ubergoed werkt op alle kaarten wil toch niemand het meer spelen :+
Ik snap eigenlijk niet zo goed wat fabrikanten het let om zelf een API te gaan schrijven? Goed geldbeurende softwarebakkers zoals EA moet dat toch kunnen?
bij een pc kun je ook niet zomaar alles uit de hardware persen..die verschilt bij iedereen en daarnaast heb je nog alle instellingen die je op een console niet hebt waardoor je iets kunt optimaliseren voor díe instelling
Dit heeft zich al veel eerder voorgedaan:

6 jaar geleden had je:
Rendition, met een Verite API
3Dfx, met GLide
Intel i740 (hopeloos ding)
S3 (gave up after a few chipsets)
En nog wat anderen...

Alle kaarten hadden een eigen API en Rendition kaarten kon je al 'programmeren'.

Het probleem was, dat 3Dfx kaarten _veel_ beter presteerden in GLide dan in OpenGL (miniGL, deels geimplementeerd).
Voor Rendition moest je zelfs een speciale .EXE hebben. (vquake)

Sommige programmeurs (iD software) schreven een video driver per kaart en sloten zich soms dagen op in hun kamer om een paar extra FPS uit een kaart te persen.

Na _heel veel_ gedoe tussen OpenGL en DirectX, is uiteindelijk DX tegen versie 7 populair geworden.

De kracht van DX lag in het feit dat het alle funkties die de kaart niet had (T&L) in software deed.
Zo kon de programmeur zich richten op het Game Enigne en niet op de 3D kant.

nVidia en ATi zijn 2 erg verschillende beestjes.
Om ze samen een nieuwe standaard te laten verzinnen wordt niet leuk (zie het V.90 verhaal)
Nu heb je gewoon betere resultaten voor minder geld.
Minder geld?
met een console betaal je 1 keer in de 4-5 jaar voor $400,- max. nieuwe hardware, met de PC $500 per 3 jaar..
Tenminste, als je altijd highend graphics wil hebben, en dan laat ik de CPU er nog buiten..

nee, van mij mogen ze wel wat langer wachten met nieuwe kaarten, laat de game-makers maar een beetje hun best doen.

edit- @aval0ne: Ik vind de graphics van GTA-SA of Tekken 5 op de PS-2 toch wel behoorlijk goed, zeker voor een apparaat van 5-6 jaar oud. Wat mij betreft heb je ongelijk.
De graphics op een console zijn dan ook na een jaartje alweer prehistorisch te noemen.
Het is idd mooier om te wachten met een kaart, dan kan je ook langer gebruik maken van je videokaart(neem een ati radeon 7500 bv).
Maar aan de andere kant is het gewoon zo dat de consument er geld aan uit wil geven. Ati en nvidia kunnen daar dus geld verdienen en springen er dus gretig op in. Het voordeel daarvan is dat nvidia weer geld in games kan investeren en daardoor krijg je weer meer games. Maar of meer games nu staat voor meer kwaliteit is te betwijfelen.
"Het voordeel daarvan is dat nvidia weer geld in games kan investeren en daardoor krijg je weer meer games."

Huh?
Het enige waar Nvidia en ATI in investeren is in developer support: doormiddel van technische support, training enz de game makers overtuigen om de meest geavanceerde features te gebruiken... (Bij voorkeur deze features die minder goed werkt bij de concurrentie. ;) )

Misschien sponseren ook wel wat door een logo aan het spel toe te voegen, zoals de Nvidia 'The way it's meant to be played' trailer in Age of Empires 3.

Maar verder gaat dat 'investeren' niet.
Jij hebt duidelijk nooit op een C64 geprogrammeerd, want je kreeg daar echt niet meer dan 64Kb in. Wat jij bedoelt met dat 'vervangen' van de BASIC rom was niet meer dan de RAM gebruiken onder de gemap'te BASIC ROM. Het is trouwens niet eens 32 maar 8K. Te vinden in elke C64 memory map... A000-BFFF 40960 BASIC ROM (Part) or 8 KB RAM.

Uiteraard zal iedereen dit weer een overbodige post vinden want dit is kennis van een vorige generatie en dat vindt de huidige generatie allemaal niet belangrijk meer...
Precies, het is per definitie ONMOGELIJK om op de C64 meer dan 16 kleuren af te beelden en al even ONMOGELIJK om 5 kanaals geluid uit een SIDchip te persen. Om nog maar te zwijgen over het geheugen.

Met de Amiga kon je wel bepaalde truukjes uithalen (HAM mode, Hold And Modifiy) om er meer kleuren uit te persen, maar dat had dan wel weer z'n beperkingen.

Ik bedoel, begin er dan niet over....
Je kon wel degelijk meer geheugen aanspreken:
Door een 'mapping register' in te stellen, kwam je op een totaal andere geheugen-regio terecht, waar js ook het een an ander kwijt kon.

Vergeet niet dat de C64 'open standaarden' had.
Als je _echt_ meer kanalen wilde op je C64, kon je een 2e SID chip _bovenop_ je ingebouwde plakken en met wat adres-logica kiezen tussen de IC's

Je kon ook extra 'dynamiek' (meer bits) uit je SID persen door het volume ook te gebruiken _binnen_ je soundfeed.
Zo kon je echt hard pompende bassen eruit persen, terwijl de zachte stukken nog steeds even 'zuiver' waren.

Ik heb er zelf geen gehad, maar een collega van mij was 'hardware hacker' op zo'n ding.
Ehm, ergens in het $D000 gebied was wel een stukje ram wat dubbel was uitgevoerd. Dit stukje geheugen was eigenlijk onderdeel van de VIC chip maar kon ook goed gebruikt worden voor andere zaken.

Daarnaast was de SID standaard 3 kanaals en wist men er uiteindelijk een 4e kanaal (het sample kanaal uit te persen) maar inderdaad geen 5. Ook het kleuren gedeelte klopt inderdaad niet. Hoewel je via $D011/$D012 trucs (o nostalgie) een hele hoop rare dingen met de border kon uitvoeren bleef het aantal kleuren beperkt tot 16. Wél kon men op een gegeven moment via interlacing de gebruiker een idee geven dat er meer kleuren beschikbaar waren. Maar dit was een truc. Dus hoewel it0 zijn feiten niet helemaal op een rij heeft werd er wel een hoop door ontwikkeld op de C64. Iets wat ik daarna eigenlijk nooit meer gezien heb.
En als je de zeer dure floppy-drive had met tada weer 64K aan boord (zelfde als in de c64) kon je dat weer wel gebruiken
Ik mis alle SLI en Crossfire opstelling in de test :o

Beetje jammer, dat is juist hetgene waar je de meeste punten op kan winnen lijkt mij..
Jep dat was toen ik het artikel las wat ik ook miste of mijn 2 6600GT's wat langer zullen overleven in het nieuwe geweld of niet :)
Niet dat ik mijn kaarten vervang voor dat ik onder merkbaar speelbaar nivau kom maar toch :+
Overleven??? Met een 66xx reeks in sli????

Ik ben (alweer) blij met mijn 6800GT aankoop van 1 1/2 geleden. }>

Nu nog ff opzoek naar een AGP-Sli bordje en Punica kan weer ff vooruit!! :D :D
AGP en SLI ??? Volgens mij is SLI alleen leverbaar op PCI-E graka's...
Mooie test maar wel jammer dat er niet SLI en Crossfire configuraties worden getest.
Dat mis ik ook zo, want ze testen toch alleen maar kaarten die boven het budget van de meeste mensen ligt, doe het dan meteen goed zou ik zeggen.
Kaarten als de S3 Chrome 27, de Radeon X700, de X800 en de X850 hebben daarom 'geen enkele toekomst'.

heb ik sinds half jaar een x850xt, denk kan ik nog wel effe mee vooruit, net een bak geld voor neergelegd en ondersteund deze geen SM 3.0 dat maakt ati maar dan die ondersteuning zou ik zeggen. |:(
denk kan ik nog wel effe mee vooruit,
Dat die geen SM3 ondersteund wist je toch al voordat je hem kocht?
ook al zou het kunnen, dan deden ze dat natuurlijk nog niet omdat de x1xxx serie ook moet verkopen...toch baal ik er niet eens zo erg van, die 2.0 shaders zijn mooi genoeg, toch?:). wat ik wel weer raar vind is dat ze zitten te zeuren dat de x800/850 geen hdr ondersteund, terwijl ik daar toch van heb kunnen genieten in lost coast. hoe zit dat nou?
Het gaat niet alleen om hoe mooi de shaders zijn maar SM3.0 kan ook een aantal bewerkingen veel sneller uitvoeren dan SM2.0. Maar ik zou niet durven zeggen dat je niet een tijdje voortkunt met je X850 ;) Tenzij je natuurlijk heel hoge eisen stelt.
Als je voor dat geld (voor mij ¤450,-) niet een kaart hebt die het nieuwste van het nieuwste ondersteund, waarom heb je dat geld dan neergelegd :?

Ik ga voorlopig (min 3 jr) echt geen nieuwe videokaart mee kopen. Toch verwacht ik wel dat hij dan nog wel met alle spellen mee kan komen. Anders ga ik echt geen geld meer uitgeven aan de nieuwste van het nieuwste :(

Verder lijkt het me dat deze test wel een beetje zwaar is voor alle kaarten. Dus of dit echt representatief is. :?
Het nieuwste van het nieuste kopen is alles behalve het beste upgradepath ;)
De duurste kaarten zijn eigenlijk onevenredig duur tov de iéts minder presterende kaarten. Net omdat er blijkbaar genoeg mensen zijn die er wél veel geld voor over hebben om "het snelste" te zijn. Eender hoe je het draait of keert, als je echt wil gamen, en de laatse spellen deftig wil kunnen draaien, moet je sowieso om binnen de 2 à 3 jaar (afhankelijk van je eisen) een neiuwe kaart hebben, of je nu 300, 400 of 800¤ voor je kaartje betaalde ;)
Natuurlijk kunnen de zwaarste kaarten nét dat ietsjes langer mee wat betreft speelbaarheid van games (fps), maar de allernieuwste effecten, sja die moet je bij allemaal na een relatief korte tijd "missen" :)
daarom game ik nog steeds op een 9800Pro :P prima kaartje ;), en ik wacht net zo lang tot er niet nieuws meer uitkomt :9
Kan je lang wachten... Of denk je dat Ati of Nvidia ineens zegt: Jongens, het is genoeg geweest, spellen zijn mooi genoeg... :+ :+
De 7800 / 1800 - 1900 chipset , videokaarten
daar kan je volgens mij gerust nog 2 jaar mee voort.
Het komende jaar alles nog op high (1280*960)
en vanaf volgende jaar medium..

Ik ben tevreden over mijn 7800GTX !
SLI en Crossfire spreek voorzich..
Maar die testen vind ik onbelangrijk.
Meeste mensen kopen 1 kaart geen 2 en zeker niet als het om kaarten van 500 - 600 euro gaat.
De 6600GT SLI is toch zeeker voor veel mensen intresant
Was een redelijke kaart toen hij uit kwam, laater met gedaalde prijzen een leuke upgrade met een tweede kaart voor 70% extra FPS.
Ik heb het wel gehad met de high-end 3dkaarten race. Ik heb een ati X800 gekocht voor 120 euro, en deze haalt 700 3dmarks06. En ongeveer 3500 3dmarks05.
Terwijl er nog geen een spel is dat op het niveau van 3dmark06 draait zie ik het nog niet als een goede investering.
Koop eender welke kaart en over 3 maanden wordt hij weer voorbij geknald door de nieuwste generatie. Alhoewel het de laatste tijd wel heel erg is geweest met nieuwe en snellere releases, dus misschien dat de rust een klein beetje terug keert.
Blijft dweilen met de kraan open dat hou je niet tegen. Gewoon een kaart kopen die je nu nodig denkt te hebben en daar lekker mee gamen en als dat niet meer gaat gewoon dan pas overstappen.

Is ook een stukje marketing, tuurlijk willen ze dat je altijd de beste en de duurste hebt, en dat is niet alleen in de pc wereld zo.
De 6600-serie van nVidia en de X1300 van ATi kunnen er nog net mee door, maar fatsoenlijke gameplay op meer dan 800 bij 600 beeldpuntjes moet niet verwacht worden.
Oh? Waarom draai ik dan battlefield2 op 1280x960 medium settings op een 6600GT? (40-50 fps)

Wat een groot verschil tussen de 7800gtx en 7800gtx 512 zeg, ik vraag me af of dat realistisch is..
Het gaat om de spellen die draaien met 3dmark 06 pracht en praal, oftewel, de spellen die over een paar jaar uitkomen.
Denk wel dat het realistisch is, aangezien de 512Mb versie van de 7800GTX ten eerste meer geheugen heeft en ten tweede op een hogere kloksnelheid draait voor zowel core als geheugen. Het ligt veel aan je setup maar in 3dmark 2005 scoort de 512 versie ook stukken beter dan een 256 versie. Maar als je de 256 versie wat overclocked (wat erg goed gaat) trek je er heel wat puntjes bij. Maar goed, of je die paar frames verschil ook echt gaat merken is dan weer de vraag...
Ik draai ook BF2 op Ultra High 1024*768 met m'n X700Pro, maar BF2 is dan ook al bijna een jaar oud.
Tjah, mss gaan ze er wel vanuit dat je de instellingen maximaal zet om van alle pracht en praal te genieten tegen een behoorlijke framerate...
Dat het op medium nog goed draait wilt uiteraard niet zeggen dat het op high nog speelbaar is. Het hangt er gewoon vanaf welke maatstaf ze hanteren. En ze spreken over de toekomstige games.
Kaarten die volgens de site volgend jaar ook nog iets voorstellen, hebben 7800 of X1800/X1900 in hun naam.
Waarom mis ik hier de 6800Ultra? Dat lijkt me ook een kaart die nog wel even mee kan, o.a. door SM3.0 ondersteuning, HDR ondersteuning e.d.

Op dit item kan niet meer gereageerd worden.



Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBWebsites en communities

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True