Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 207 reacties
Bron: The Inquirer, submitter: FFWD

The Inquirer is al in het bezit van de 3DMark05-resultaten van enkele grafische kaarten, zodat we ons al enig beeld kunnen vormen van de meetresultaten van deze nieuwe versie. De kaarten zijn getest op een 3,4GHz Pentium 4-systeem. De hoogste score werd behaald door ATi’s Radeon X800 XT PR met de nieuwste Catalyst 4.10-drivers: 5800 punten. nVidia’s GeForce 6800 Ultra eindigde met de huidige drivers op vijfduizend punten. Viereneenhalfduizend punten waren er voor de Radeon X800 XT PR met de 4.9-drivers en voor de GeForce 6800 GT. De Radeon 9600XT scoorde 1570 punten; de als laatste geëindigde GeForce FX 5950 Ultra belandde op 1270 marks. Vanmiddag om drie uur zal Futuremark zijn nieuwste testprogramma officieel lanceren, op hun site is een teller te zien die aftelt naar het moment suprême.

Kaart3Dmark05-score
ATi Radeon X800 XT PR (Catalyst 4.10)5800 marks
nVidia GeForce 6800 Ultra5000 marks
ATi Radeon X800 XT PR (Catalyst 4.9)4500 marks
nVidia GeForce 6800 GT4500 marks
ATi Radeon 9600XT1570 marks
GeForce FX 5950 Ultra1270 marks
Asus AX800 XT

Update: Inmiddels is 3DMark05 ook voor het gewone volk te downloaden. Ook op GoT loopt een topic over 3DMark05 waar vanalles, waaronder scores, over dit nieuwe benchmarkprogramma besproken wordt.

Moderatie-faq Wijzig weergave

Reacties (207)

1 2 3 ... 11
ach ja de 3dmarks.. waren we er eindelijk vanaf, geef mij maar in game fps metingen.. ;) me 9700 trekt alles nog perfect, maar als 3dmark 05 zegt dat ie nie goed genoeg is vergeleken met nieuwe kaarten dan zal ut wel denken veel mensen..

jammer
Het voordeel van 3dMark scores vind ik altijd is dat ze de nieuwste technieken gebruiken die in games nog niet gebruikt worden. Hierdoor krijg je een beter beeld hoe een kaart in toekomstige games zal gaan presteren, wat ik zeer interessant vind bij de aanschaf van een kaart.
Dus dan ben je slim als je lekker twee jaar wacht, dan koop je de kaart die nu HOT is. En over twee jaar is die kaart pas nodig, omdat games dan pas de mogelijkheden gebruiken.
Inderdaad. De praktijk is gewoon dat de games als DOOM3 en FarCry goed met een ATI 9700pro gespeeld kunnen worden. Tuurlijk haal je geen 120 fps, maar goed daar zit ik niet op te wachten, meer dan 50 is goed genoeg. De huidige games maken namelijk een enorme aanslag op geheugen en op CPU capaciteit. Dus investeer je geld verstandig als je nu een systeem bouwt, koop vooral niet de hotste kaart, want over twee jaar heb je echt weer een nieuwe nodig :)
Wat is dat nouweer voor onzin. Ik heb bijna 2 jaar geleden mijn Radeon 9700 pro gekocht, en kan daar nu nog perfect Doom3/FarCry mee draaien.
Met 1 gb ram heb ik al het idee dat het laden zo lang duurt met farcry en doom3, (doom3 helemaal) maar vaak genoeg zie ik de harde schijf gewoon niks doen tijdens het laden, dus moet de cpu wel te langzaam zijn of nog iets anders. (amd2500+ nforce2 1gb ram 400ddr, 180fsb)

Met 32 kb upload gaat de torent nu met 400KiloByte lekker hier. torrent download
Sorry, maar dan mogen over 2 jaar die technieken wel gebruikt worden, alleen is die kaart te langzaam om er mee om te gaan, zie nu de nieuwste spellen (doom 3, Farcry etc) die al moeizaam draaien op de vorige generatie.
Far cry draait perfect op me radeon 9800pro@XT415/480... Je kan je oude hardware lekker stressen voor je het vervangt, dan kun je er dus ook nog wel een tijdje mee vooruit. (maakt toch niet uit of je oude kaartje 2 jaar korter leeft).
2 jaar lijkt wat overdreven, maar je hebt helemaal gelijk als je zegt dat je beter ff kan wachten.
Dat is geen voordeel. Kijk naar Unreal Engine 3. Komt over 2 jaar uit en maakt dus gebruik van de opties die NU in 3dmark gebruikt worden.

Aangekondigd: Om Unreal Engine 3 spellen met volle details te draaien is een 1024MB Videokaart nodig.

Conclusie: Als jij nu een kaart wil gaan kopen waar je over 2 jaar nog perfect je spelletjes mee wilt spelen sta je voor een onmogelijke opgave.
alsof Futuremark gaat voorspellen welke technieken game-engine builders gaan gebruiken.
En als het allemaal toch gelijk is, waarom dan enorme verschillen tussen de game-engines ?

3dmark zegt niets over de toekomst.
3dmark is een bench, en op basis van die bench alleen zou je kunnen vergelijken, moest het niet zijn dat men niet meer kan spreken van onpartijdigheid.
Daarnaast is 3DMark ook nog eens een DirectX only test en geeft het geen enkel beeld van OpenGL performance... half werk en zelfs die helft verprutsen ze...
WSaeNoTSoCK: jij hebt volgens mij niet echt door wat opengl, 3dfx en voodoo is, maar 't kan aan mij liggen..
Ik denk dat de nummers zelf niet zoveel zeggen... MAAR .... een verdubbeling in score t.o.v. je huidige kaart bij een nieuwe kaart zegt wel veel over de performance.

Een goede test zou echter zijn welke alleen de GPU belast en niet (nauwlijks) de CPU, deze is vaak de bottleneck in performance.

De FPS metingen die jij noemt zijn ook een beetje onzinnig, aangezien deze vrijwel altijd op de duurste high-end systemen worden gemeten van dat moment. Ik denk dat veel mensen op tijd van meten denken .. WOOO 400 FPS in quake 3, maar even niet naar het test systeem kijken welke een opgekrikte PIV 4.6 GHz is met supergetuned geheugen etc etc etc .... laat staan de tests welke op een AMD FX top model gedaan worden...
Als je dan nog eens goed naar 3DMark03 zou kijken, ik heb daar de ervaring mee dat als ik mijn CPU flink over klok 3Ghz @ 3,6 Ghz, mijn 3DMark score amper hoger is,
Maar met B.V. UT2K3 weer wel een boel FPS meer heb.
Wat dacht je van een resultaat van een poosje geleden: P3 800 is sneller dan P4 2,8 :z

3dmark test echt alleen de GPU, alhoewel de processor wel de benodigde data moet aanleveren
[edit]check GoT. Daar hebben verschillende pc's met dezelfde grafische kaart dezelfde score's (ongeveer). Er zit echter wel een CPU benchmark in.
waarom heb je dan nu minimum 2GHz nodig ? dat is toch wat véél .. nuja ik ga testen. Ben benieuwd of mijn scores dan gelijkvallen met mensen met dezelfde 3Dkaart maar een betere CPU.
Ik vind het wel erg vreemd dat ATi's beste waarschijnlijk de hoogste scores haalt (de GF6800 Ultra extreme staat er immers niet bij) aangezien nVidia deze keer toch wel de nieuwste technologie heeft ingebakken. :?

Bij de vorige 3DMark-versie werd nVidia ingemaakt omdat hun Pixelshaderversie bij hun GF4-serie niet up to date was (1.1 ipv 1.4). Echter nu heeft nVidia voordeel omdat ze het theoretisch snellere PS3.0 ondersteunen en ATi nog niet. Zou men dan niet verwachten dat nVidia beter zou moeten presteren in de benchmark die de prestaties van de toekomstige games zou moeten voorstellen? Of heeft Futuremark PS3.0 niet geïntegreerd in haar benchmark (wat me heel onwaarschijnlijk lijkt). Ofwel wordt dit prestatieverlies ruimschoots goedgemaakt door ATi's "wonderdrivers" (waar ook volgens Tomshardware een reukje aan hangt).
As far as the new Catalyst A.I. performance optimizations are concerned, we are left with a bad aftertaste. Due to their adaptive nature, it is next to impossible to judge what is being optimized when and where in what manner. The only control ATi allows the user to have over these optimizations is whether they are turned on or off. Yet even when A.I. is switched off, other optimizations are still present and active. We much prefer NVIDIA's approach, which allows selective deactivation of specifically defined optimizations. Then again, even NVIDIA's driver surely hides some optimization or other that has yet to come to light. NVIDIA began using shader replacement optimizations on a large scale with the GeForce FX line of cards, so it seems only fair that ATi claim the right to do the same.
Meldt er dan wel bij dat Tom zijn vraagtekens zet bij beide makers! En het gaat hem niet om de optimalisaties, maar om het feit ze niet precies kunnen aantonen waneer en hoe er geoptimaliseerd wordt vanwege de adaptieve natuur van de optimalisaties.
Daar werken de fabrikanten denk ook naar toe, zorgen dat de reviewers/gamers niet alles kunnen aan en uitzetten.
Sommige veranderingen zijn zo subtiel dat je die niet eens ziet bij 50+f/s dus worden ze automatisch aangepast.
Door niet het hele screen te renderen hou je gpu-power over om meer frames per seconde eruit te persen. Eerlijk tov van andere makers,
eigenlijk wel, de maker maakt gewoon slimmer gebruik van zijn GPU, en je kunt hem alleen afrekenen op het beeld dat wordt afgeleverd. Daar koop je een videokaar immers voor.
Voor de eindgebruiker is het beeld dat wordt afgeleverd en de prestatie die daarbij geheaald wordt uiteindelijk wat belangrijk is.

Maar voor een reviewer is dat een groot probleem. Zij moeten dan op een objectieve manier de beeldkwaliteit gaan testen. En dat is wat lastiger dan even een benchmarkje draaien en de score opschrijven.
Dat maakt hun werk dus een stuk moeilijker en tijdrovender en dat is de werkelijke reden waarom ze zo tegen dit soort optimalisaties zijn.
Beyond3d Heeft ook al een test met de 4.10 drivers gedaan

http://www.beyond3d.com/misc/catai/
GeForce FX 5950 Ultra 1270 marks

ja wat moet je daar nou van zeggen, is allemaal leuk en aardig die punten, maar ik kan met me kaartje (fx5950 dus ;)) nog steeds alle nieuwe spellen op high res spelen en het draait perfect......

en het is idd vreemd dat je met een andere driver in 1x 1300 puntjes meer haalt.....
En dat heb je te danken aan de game ontwikkelaars die speciaal een geoptimaliseerd render path hebben gemaakt voor de FX serie. Anders had je Doom3 wel kunnen vergeten. Een benchmark tool heeft deze optimalisaties uiteraard niet en dat zie je terug in de score.
Laat ik wel zeggen dat ik NIETS te danken heb aan de gamemakers.
Want wanneer een bepaalde game niet goed draait met een bepaalde videokaart dat die betreffende gamemaker zichzelf in de vinges gaat snijden

Ik ben echt niet van plan om voor 1 game een videokaart te kopen want dan blijft die game mooi in de schappen van de winkel liggen.

Dat wij met ons allen te maken hebben met technologische vooruitgang is simpelweg een feit.
Maar wanneer gamemakers mij gaan voorschrijven wat ik voor MERK hardware moet gaan kopen severeer ik zon game naar de prullenbak.

Als ik een bepaalde game in voor mij aanvaardbare resoluties kan spelen met minimaal 25 fps dan is voor mij de kaart en de game nog goed.

Je zal zien wanneer de bepaalde kaart beter draait in de benchmarks dat die meer verkocht gaat worden terwijl de andere qua technologie mischien weer stukken beter is

wat dat betreft neem ik de benchmarks maar met een korreltje zout
Sinds het uitkomen van 3Dmark03 was volgens dat programma mijn videokaart compleet afgeserveert met nog geen 1400 punten.
Als er een nieuwe game uitkomt en ik koop hem speel ik nog steeds met minimale resoluties van 1024*768 met alle opties aan en op full.
Sinds wanneer zegt het aantal punten of jouw videokaart waardeloos is ?????
De ATi Radeon 9500 of hoger is ook gewoon beter dan de GeForce FX series. Hoe je het ook went of keert, met echte spellen ziet de Radeon er mooier uit én loopt het meestal beter. (Zet maar 2 pc's naast elkaar en vergelijk :))

Hoe het met de 6800 en de Radeon X series zit weet ik niet, die heb ik nog nooit in real life gezien ;)

Van behulpzaam naar overbodig door een overbodige reactie op mijn reactie |:(
De vergelijking die je maakt tussen die 9500 en FX is serie is weel héél erg overdreven, de FX was minder dan de laatste serie van Ati, maar de 9500 mag je toch echt niet vergelijken met die 5950. De 9500 (non pro) kun je qua prestaties in de meeste games vergelijken met de Gf4 ti serie...

Maargoed, dat terzijde, nVidia heeft het inmiddels best goed rechtgetrokken. Qua beeld zien ze er beide (zo goed als) hetzelfde uit, en qua prestaties zie ik toch in de meeste benchmarks (met uitzonderingen van dit vage verschijnsel :?) dat de 6800 ultra en ultra extreme het voortouw nemen..
Ach ik vind het alleen maar mooi, beetje concurrentie is goed om de prijzen een beetje in toom te houden...
Ik vergelijk helemaal geen 9500 met een 5950 o.i.d.

Ik heb er neer gezet 9500 of hoger omdat dát de kaarten zijn met DX9.0.

GeForce FX wil niet zeggen dat het een GeForce FX 5950 is o.i.d., "de GeForce FX" is de hele serie van die kaarten.

Wat ik wil zeggen is dat de GeForce FX gewoon niet mee kan komen de de Radeon. Met sommige dingen mag hij wel evenveel FPS halen, de GeForce FX heeft met de Detonator 5 series nog steeds een lagere beeldkwaliteit. Daarnaast heeft de GeForce FX een veel lompere koeler dan de vergelijkbare Radeon's
Op zich maakt 6800 vs. X800 niet veel uit, in sommige gevallen is de 6800 beter, en in andere gevallen de X800.

De 6800 heeft als voordeel dat shader model 3 erin gepropt zit, ook al hebben we dat voorlopig niet nodig.

Als ik nu zou moeten kiezen zou ik denk ik een 6800GT nemen, niet omdat ik nvidia fanboy ben of dat die kaart echt veel beter is, maar omdat het op dit moment de beste keus lijkt.
De 6800 heeft als voordeel dat shader model 3 erin gepropt zit
De Radeon X heeft als voodeel dat shader model 2b erin gepropt zit, die ongv. even goed is :)
zo proberen ze het wel te brengen.
Het is immers nog zo hoe hoger de punten des te beter je videokaart.
Ik vind futuremark te hard omgeschakeld van betrouwbaar 3D bench programma naar enigzinds partijdig geheel naar de ATI kant toe.

Wanneer een verkoper in de winkel een radeon wil verkopen verwijst hij naar de 3Dmarks van zoveel punten.
Ja meneer die is een stukkie sneller dan die Nvidia want in een test scoort hij meer punten.
En de noob loopt met een radeonkaart de deur uit

En echt dit gebeurd :r

Nu vind ik theinquirer ook een sensatiesite die alles mooi op weet te blazen
en het is idd vreemd dat je met een andere driver in 1x 1300 puntjes meer haalt.....
Dat er door de optimalisaties in 4.10 zo'n 15% winst kan worden behaald wisten we allemaal, is ook al aangetoond.

Maar bijna 30% :? :?

Vraag me toch af hoe betrouwbaar deze scores zijn.. het komt van the inquirer dus ik neem het maar met een korreltje zout (of een emmertje)
behoorlijk verschil tussen versie 4.9 en 4.10...

vraag me af hoe dit te verklaren is
Dat is logisch te verklaren: de 4.10 AI heeft vele optimalisaties ingebakken, die specifiek werken op bepaalde toepassingen en deze zullen waarschijnlijk ingeschakeld worden bij het draaien van de benchmark. Een andere verklaring is er niet, volgens mij.
Dit stinkt dus wel wat naar "verboden optimalisaties" :+ (hier gaan we weer), want nVidia werd afgestraft bij het optimaliseren van de benchmarks van 3DMark2003... Persoonlijk kan deze benchmark mij om die reden niet bekoren: geef mij maar keiharde Doom III, Farcry en Half-life 2 benches!
Joepie, de roddelmachine word weer op gang gezet. Ga toch geen voorbarige conclusie lopen trekken, daar heeft niemand toch wat aan.
Ach, de roddels zaten al in de pinkpipeline en komen er nu met 1 RPS uit. (roddels per second)

Wanneer er hier mensen tienvingerig typen, kom je op 10 FPS uit. Maar dat is voor de meesten onder ons het maximum.
Dit is een test van FutureMark zelf, en volgens mij is 3DMark 2005 nog niet vrijgegeven (kan me niets herinneren van betatest projecten), vraag me dan af hoe men kan optimisen voor deze versie.
Duh, zowel ATi als Nvidia zaten in het testprogramma. Natuurlijk konden ze optimaliseren.
jahoor mag ati ook optimalisatise gebruiken ? nvidia heeft toch allang afspraakjes met futuremark


en ik snap het hele gelul om die optimalisaties niet het is toch alleen maar beter dat de ontwikkelaar de drivers aanpast wat er voor programma op gedraaid wordt? zal nog mooier wezen dat je nooit een nieuwe driver kreeg zat je gewoon met een doodlopend stukje op je uitlaat te rijden (scooters)

nee van mij mogen ze zoveel mogelijk optimalisaties ontwikkelen als ze ook maar ingame worden toegepast zoals battlefield vietnam ofzo
de 'optimalisaties' van NVidea waren eigenlijk cheats. Ze lieten gewoon stukken berekening weg, bijv van stukken die je in het pad van de benchmark niet ziet. Maar wel tijd kosten om te berekenen.
Ook in games werden cheats toegepast: in sommige 'the way it's ment to be played' games werden kwaliteitsinstellingen uitgeschakeld door de driver, bijv Z-buffer omlaag gezet.
Gevolg was dat als je de exe renamed de score ineens veel lager lag. Gelukkig worden dat soort cheats minder toegepast door NVidea en ATi.

Optimalisaties heeft waarschijnlijk niemand problemen mee: je berekent dan dezelfde kwaliteit maar dan op een snellere manier. Graag zelfs, kan ik ook Doom3 op mijn laptop spelen ;)
nvidia heeft toch allang afspraakjes met futuremark
Zoals?
@RuL0R

Zoals de afspraak dat Nvidia weer een grote berg geld in Futuremark zou pompen, als Futuremark beloofd dat ze nooit meer vertellen dat Nvidia cheat, en dat ze de volgende versie van Futuremark gunstig maken voor Nvidia.

En iedereen heeft zich daaraan gehouden.
Nvidia is weer deel van het 3DMark team, met de torenhoge contributie die daar bij hoort. Futuremark heeft stapels driverversies van NVidia afgewezen, maar nooit meer vertelt dat dat was omdat er cheats in zaten. (überhaupt niet verteld waarom)
En Futuremark heeft propïetaire Nvidia features ingebouwd in 3DMark05 zodat ze 10-15% winst hebben tov de concurrentie.
@mjtdevries: wat klets je toch weer uit je nek. FM heeft gewoon dx specs gevolgd en daarom dat er sm3 gebruikt kan worden door nvidia. Dit is geen Nvidia feature, maar een dx9 feature. Dat Ati sm3 niet ondersteund is niet de fout van Nvidia.
En al die beweringen van jou over afspraken zijn typische ATi fanboy uitspraken, waar absoluut geen bewijzen voor zijn. Ik kan hier ook wat uit m'n duim zuigen, bewijzen kan ik toch niet.
ik weet in ieder geval: 1000 3dmarks erbij door een simpele driver update (die uitkomt net op de dag van de 3dmark2005 release) is zeer bedenkelijk.
Ach ja, who cares, binnenkort is SLI daar en spreken we niet meer over ATi in 3dmark (of in elke andere benchmark)
Vergeet niet nog zon erge cheat dat ie de kleuren terug zette naar 16 bit zodra de 3D mark test begon te draaien
(dit kon je vermeiden door de .exe in 3D murk te veranderen of een andere naam)

of de leuke cheat (weet niet meer van ati of van nvidia)
dat ie alles terugzetten naar 16 bit kleuren maar de screenshots wel in 32 bit kleuren maakte zodat je het niet zo snel merkte

maar even terug ontopic
The Inquirer heeft volgensmij wel vaker dingen gezegt dit niet waar zijn
wat ik alleen knap vindt is dat ze zeggen
wat de score is alleen geen screenshots
van mij mogen ze eerst is met echte HARD EVIDENCE komen voordat ze weer dingen zeggen

en als de scores waar zijn dat is naturlijk op een 3.4GHz ik wil ook wel even de scores zien van een AMD 2600+ en een P4 2400 niet iedereen heeft altijd maar Top of the bill staan
Hmm.. en voor die games kunnen ze hun drivers niet optimaliseren ??
Persoonlijk vind ik het gebrek aan bewijs van je aanname (meer is het niet mijns inziens) wat mager: De nieuwe versie is sneller DUS is er gerommeld ?
Verder werd nVidia hard aangepakt omdat ze de eerste fabrikant waren waarbij die truukjes werden gevonden. Dus automatisch kregen ze meer aandacht dan de fabrikanten die sindsdien op dit soort truukjes zijn betrapt.
Nvidia werd hard aangepakt omdat ze truken gebruikte die onmogelijk gebruikt zouden kunnen worden in spellen.

Als ze truuks hadden gebruikt die ze ook in spellen zouden gebruiken was het nooit zo'n grote issue geworden.
Nvidia gebruikt een truc die idd in echte spellen geen effect zou hebben, ati was echter eerder met hun quake3 cheat
Die quake3 bug was juist ook in het spel zichtbaar en werkt niet alleen maar in de benchmark (En was in de volgende driver versie opgelost zonder snelheidsverlies)

Dat kan je er dus absoluut niet mee vergelijken. Vandaar ook dat toen de ophef lang niet zo groot was.
Was het niet ATI die al DX9++ ondersteunde dus mogelijk toekomstige instructies die mogelijk door deze test worden aangeroepen ?
Nee, de nieuwe ATI kaarten zijn niet eens dx9 compatible (wel compliant) omdat niet alle features van dx9 geimplementeerd zijn.
1. je haalt compliant en compatible door elkaar, maar dat is niet zo erg hoor, gebeurt wel meer mensen ;)

2. hoe bedoel je het precies?
niet volledig DX9c of geen SM3 oid?
want ook Nvidia's kaarten ondersteunen niet alle DX9 features... :+
Nee, ze ondersteunen niet eens Hardware Displacement Mapping, wat wel een dx9 feature is, alleen Matrox ondersteund 't maar die hebben er geen drivers voor...
Je haalt verplichtige DX9 features, en optionele features door mekaar.

ATI ondersteunt alle verplichte DX9 features hardwarematig.
Dit is van horen zeggen.

Afwachten tot ik de echte resultaten zien.
BTW het zou niet de eerste keer zijn dat ze een gat in de lucht slaan bij die Prutssite.
Geef mij maar nieuws van de gevestigde waarden.
Misschien weer die foefjes om de score te beinvloeden. Ik kan me moeilijk voorstellen dat het puur de optimalisaties zijn van de driver.
Maar nou vraag ik me toch af waarom een mid range kaart (9600XT) beter scoort als een GeForce FX 5950 Ultra terwijl deze toch wel beter is qua fill rate e.d. Komt dit dus nu echt doordat de 9600XT nou alleen "echte DXD9 support" heeft vergeleken met de GeForce FX 5950 Ultra die daar iets minder goed in is.

Volgens mij is de score voor de X800XTPE hoger bij Cat 4.10 doordat je in deze driver enkele optimalisaties kan aanzetten trouwens... Beetje vreemd dat dat wel 1300 punten meer opleverd...
Ik denk inderdaad dat het zo hard en simpel licht.. Als je bij een game die ondersteuning niet hebt, zie je gewoon iets niet. Als je bij 3Dmark die ondersteuning niet hebt, skipped hij die test en wordt hij hard afgerekend daarop in score..

Ongein, want het is een review tool, en het is gewoon een negatief punt wat reviewers bij een kaart moeten noemen, niet iets wat terugkomt in een benchmarc..
Het is inderdaad misleidend dat de hoogte van de score mede bepaald wordt door het aantal functies dat wordt ondersteund. Ook al omdat het ondersteunen van nieuwere functies meestal geen snelheidswinst geeft, maar IQ winst.

Wat dat betreft kan het ook heel goed zijn dat de 1300 punten winst bij de nieuwe driver niet komt doordat er optimalisaties in aangezet zijn. (dat moeten dan wel hele forse optimalisaties zijn), maar doordat er dan extra functionaliteit ondersteunt wordt dan 1300 punten oplevert.
Omdat dan wellicht DX9.0c opties gebruikt worden, die bij de 4.9 driver niet gebruikt kunnen worden?

Gezien het grote punten verschil lijkt me dat eigenlijk een stuk waarschijnlijker dan die optimalisaties.
Wat een ongelooflijke boost in performace tussen de catalyst 4.9 en (nog niet gereleasde) 4.10 drivers, 1300 punten meer met een driver update.
Dat zo'n 30 procenten betere performance.

Opvallend is dat de 9600XT de 5950 Ultra verslaat volgens het lijstje. Betekend dit dat de 9600XT beter voorbereid is op de nieuwe generatie games dan de 5950 die waarschijnlijk alleen op de oudere/huidige generatie games goed performed ?
De R300 serie is altijd al beter geweest in zware DX9 spellen tov de NV3x serie. Maar de NV3x was wel goed in DX8.1 spellen.

In de vorige 3DMark had je 1 DX7 test, 2 DX8.1 tests en 1 DX9 test.

Als de nieuwe voornamelijk of alleen maar DX9 tests heeft, dan is dat erg nadelig voor de NV3x serie.

Het is niet de eerste keer dat een 9600XT de 5950Ultra verslaat, want in HL2 benchmarks gebeurde dat ook al.
toch niet echt representatief hoor, de fx5950 is echt veel sneller in "real life" performance, behalve HL2 misschien maar verder is er geen game op te noemen waarin de 9600 sneller is.
Dit is gewoon belachelijk. Stel ik bezit een FX5950u en ik wil upgraden. Volgens 3dmark zou ik dan een 9600XT kunnen nemen? In elk 'echt' spel veegt de fx5950u de vloer aan met de 9600XT, wederom een bewijs dat 3dmark geen goed referentiepunt is.
behoorlijk verschil tussen versie 4.9 en 4.10...

vraag me af hoe dit te verklaren is
Dave Baumann van Beyond3d.com vermeld dat de PCI-E versie van de X800XT met 4.9 al op het niveau scoorde wat de AGP versie pas met 4.10b doet.
Ati geeft als commentaar bij de 4.10b dat ze een "memory allocation bug" gefixed hebben bij de 256mb kaarten, misschien dat dit het punt is dat de AGP versie's plots beter scoren.
Zo, me eerste real life test.

Ik heb met mijn XP2400+ @ 2300Mhz en een Club3d Geforce fx5900xt @ 500/900 in combinatie met de 6631 drivers (alles op de high quality stand)

een score van: *tromgeroffel*

1290 3DMarks lol :+

GT1 4.8fps
GT2 4.0 fps
GT3 7.2fps

CPU score 3827
CPU test1 2.2fps
CPU test2 2.9fps

Het pixel shader probleem van de nvidia kaarten komt nu duidelijk naar voren.
Maarja, tis maar een benchmark, zolang ik de echte games nog perfect kan draaien vindt ik het best. :) Geeft overigens wel te denken over de toekomstige games :P

PS: Ben ik de enigste die de graphics niet meer echt zo extreem vernieuwend vindt? Het enigste wat ik wel goed gedaan vond was het water effect van de derde game test.
De is niet cheaten, maar zelf de controle weer in de hand nemen. Ga zo door ATI
Dat begrijp ik niet... Wanneer nVidia zoiets doet, dus optimalisaties inbouwen en ook 3DMark optimaliseren, dan wordt er verontwaardigd op gereageerd en vindt men dat niet fair tov. ATi. Wanneer ATi dan iets soortgelijks uithaalt, met het verschil dat de werknemers van ATi nu niet eens zelf meer weten wat geoptimaliseerd wordt en wat niet, zegt men dat ATi goed bezig is.
Overigens, voor zo ver ik weet, zijn de optimalisaties bij nVidia's drivers ook uit te zetten (als dit je argument "pro-cheating-voor-ATi" was :+ (wedden dat er uit deze zin weer een flamewar ontstaat |:()).
Als ze nou gewoon zeiden wat de optimalisaties zijn..

nVidia heeft dit namenlijk ook ingebouwd, maar daar zeggen ze erbij wat de optimalisaties zijn
Nvidia zette zelf de optimalisaties aan als je een bepaald spel of testprogramma draaide. Hierdoor kon je de kaarten niet onder gelijke omstandigheden vergelijken. Ook het gebruik van deze optimalisaties werd in eerst instantie ontkent door Nvidia.

ATI speelt open kaart.
Jij hebt het over andere dingen. Het gaat hier over het wel of niet bekend maken van de optimalisaties.

Daarnaast zullen beide fabrikanten nog wel verborgen instellingen hebben. Daarnaast hebben beide fabrikanten "gecheat" met de drivers.

en kunnen we nu please PLEASE dat mateloos irritante welles nietes gezever overslaan. Hou het eens bij de feiten, dat moddergegooi is zo puberaal.
1 2 3 ... 11

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True