Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 143 reacties
Bron: Futuremark, submitter: Gulf_5

Enkele maanden geleden werden al de eerste details en screenshots van 3DMark06 bekendgemaakt, maar vandaag heeft Futuremark definitief zijn nieuwe benchmarksuite gelanceerd. De nieuwe versie van het bekende testprogramma biedt diverse verbeteringen ten opzichte van 3DMark05. Zo heeft Futuremark de onderliggende 3d-engine verbeterd, complexere ShaderModel 2.0- en HDR ShaderModel 3.0-tests toegevoegd en substantieel meer polygonen gebruikt. Futuremark verwacht dat games pas over twee jaar hetzelfde aantal polygonen zullen gebruiken als 3DMark06. Ondanks het gebruik van twee ShaderModel 3.0-tests, kunnen eigenaren van ShaderModel 2.0-videokaarten dankzij twee SM 2.0-tests ook een 3DMark06 score verkrijgen. Net als 3DMark05 is het nieuwe Futuremark-programma in verschillende versies beschikbaar. Alle versies ondersteunen aparte tests voor gpu's en cpu's, waarbij ook multithreaded cpu-tests kunnen worden uitgevoerd om het hele spectrum aan processors op waarde te kunnen schatten.

Vergelijking Canyon Flight in 3DMark05 en 3DMark06
Vergelijking Canyon Flight in 3DMark05 en 3DMark06

De volledige benchmark bestaat weer uit een aantal verschillende onderdelen. Zo zijn er vier grafische tests te bewonderen: de SM 2.0-tests 'Return to Proxycon' en 'Firefly Forest' zullen gebruikers van 3DMark05 bekend voorkomen, en ook de SM 3.0-test 'Canyon Flight' is een oude bekende. De laatste grafische test is wederom bedoeld om SM 3.0 te testen en heeft de naam 'Deep Freeze'. Terwijl in de vorige versie van 3DMark cpu's nog getest werden door de eerste drie benches in 640x480 met software vertex shaders te draaien, zijn er nu twee speciale cpu-tests die 'Red Valley' gedoopt zijn. Uiteraard wordt het geheel aangevuld met een batterij synthetische benchmarks. Nieuw hierbij zijn twee SM 3.0-tests, die 'Shader Particles Test' en 'Perlin Noise' zijn genoemd.

Vergelijking Return to Proxycon in 3DMark05 en 3DMark06
Vergelijking Return to Proxycon in 3DMark05 en 3DMark06

3DMark06 is het eerste product van Futuremark dat gebruik maakt van AGEIA's PhysX-software, die wordt ingezet voor de cpu-tests. Omdat nieuwe spellen steeds geavanceerdere kunstmatige intelligentie en complexere physics gebruiken, zullen volgens Futuremark multithreaded processors steeds belangrijker worden. Door de resultaten van de nieuwe cpu-tests met die van de vier grafische tests te combineren, zou met 3DMark06 ook van de prestaties van de komende generaties hardware een goed beeld gegeven moeten kunnen worden.

Naast een gratis editie is er ook een 'advanced'-versie, die net geen twintig dollar kost, en een 'professional'-variant waar 490 dollar voor moet worden neergeteld. Voor een torrent-bestand en een lijstje met mirrors waar de 577MB grote download te vinden is, kan je in de Meuktracker terecht terecht. Om de tests enigszins uit de verf te laten komen, beveelt Futuremark een computer met de volgende specificaties aan:

  • Intel- of AMD-compatibele processor, 2.5GHz or hoger
  • DirectX 9-compatibele videokaart met minimaal Pixel Shader 2.0-ondersteuning, en tenminste 256MB videogeheugen
  • 1GB intern geheugen en 1,5GB ruimte op de harde schijf
  • Windows XP met de laatste Service Packs en updates
  • DirectX 9.0c van december 2005 of later
3DMark06 - Canyon Flight (klein) 3DMark06 - Deep Freeze (klein)
3DMark06 - Return to Proxycon (klein) 3DMark06 - Red Valley (klein)
Enkele klikbare screenshots van 3DMark06

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (143)

1 2 3 ... 6
Ik vind het eigenlijk nogal lomp dat OpenGL niet getest wordt. Al dat gehype over Pixel Shader zoveel, het ziet er wel aardig uit, maar als ik het goed heb is dat beperkt tot DirectX. Terwijl OpenGL het ook erg goed doet! Quake 4, Doom 3, Prey, Enemy Territory: Quake Wars (de graphics van ET:QW zagen er IMO beter uit dan Battlefield 2, van wat ik op screenies heb gezien) iemand? Raar dat die gasten van 3DMark gezellig meedoen met het monopolie van Microsoft.

Waarom wordt OpenGL zo genegeerd, vraag ik mij af?
Open GL ondersteunt ook shading languages. Gewoon even googlen naar "HLSL OpenGL" en een heel nieuwe wereld gaat voor je open! :-)
Ja ok dat snap ik, maar wanneer de woorden "Shader Model" en "Pixel Shader" gebruikt worden, hebben wij het toch uitsluitend over DirectX, toch? Vergelijkbare functionaliteit bij OpenGL heeft toch een andere naam als ik het goed heb?
Neen, Microsoft steld die standaarden verplicht voor een bepaalde versie van DirectX

Zo was HWTnL verplicht voor DirectX7 PS1.0 en VS1.0 voor DirectX8, PS1.3 en PS1.1 voor DX8.1 en PS1.4 en VS1.4 voor 8.1b PS2.0 VS2.0 voor DirectX9 PS2.0a en VS2.0a voor DirectX9.0a(of was het b?) En PS3.0 en VS3.0 voor DirectX9.0c

Het enige wat ze doen, is de standaard die door andere gemaakt is, verplicht stellen voor hun eigen standaard, en zoals hierboven te zien is, kan Microsoft zelfs daar nog een soepzooi van maken.
http://download.microsoft...1b%20Redist%20Package.EXE

:Y) :P :9 }> :+ ;) B-)

EDIT:

En helaas heb ik er geen link van, maar je zit er in ieder geval verder naast dan ik. Kun je zien wat een soepzooi Microsoft ervan heeft gemaakt.
Ik denk dat Pixel Shader specifiek is voor DirectX, terwijl pixel shader generiek is, dus zowel voor DirectX als openGL. ;)

Maar, terugkomend op de originele opmerking, doet dit er eigenlijk wel toe?
Er zijn wel performance verschillen tussen openGL en DirectX drivers, maar al bij al zijn de performantie en de beeldkwaliteit zowiezo heel gelijkaardig...

Als een kaart Pixel Shader 3.0 ondersteunt voor DirectX zal diezelfde functionaliteit ook op openGL werken, al dan niet on der een andere naam. Het verschil tussen PS2.0 en PS3.0 is immers gebaseerd op hardware en men kan net zo goed Cg gebruiken voor OpenGL.
Ahem, JIJ bent degene die er een soepzooi van heeft gemaakt.

PS1.1 en PS1.3 zijn voor DX8.0
Alleen PS1.4 is DX8.1 (tot de GeforceFX5800 had Nvidia geen DX8.1 kaarten)
Er bestaat geen DX8.1b

DX9 heeft SM2 verplicht en SM3 optioneel.
De b en c versies zijn hele kleine wijzigingen om wat meer opties van kaarten van nvidia en ati te ondersteunen, maar veranderen niets aan het optionele karakter van SM3 en het verplicht zijn van SM2.
Uiteindelijk word een pixel shader omgezet naar een GPU Microcode taal die weer naar de gpu wordt gebracht via GPU Commandos..

Het shader model dient dus in de GPU aanwezig te zijn.. en het heeft wel degelijk zeer grote mooie gevolgen voor een plaatje als je een mooie shader maakt.

Je kan met zeer moderne, (zoals bv in de xbox360) ook de gpu gebruiken als een soort van rekenunit.. om bv physics te doen.

Hoe hoger het shader support, hoe meer registers er ook aanwezig zijn in de gpu zelf om handelingen te doen.
QW is niets anders dan de D3 engine (misschien wat opgedirkt) en ik denk dat large scale battles niet te doen is met zon engine. de BF2 engine is speciaal geschreven voor large scale outdoor battle
Quake 4, Doom 3, Prey, Enemy Territory: Quake Wars
Is ALLEMAAL doom3 engine...

En de ET:QW engine is ook speciaal voor large scal outdoor....en het ziet er zo schitterent uit....
Grootste onzin ooit?
Mee eens...mijngod....heeft hij geen idee dat het juist OpenGL is waarop nVidia destijds zowel de TNT als de GeForce voor hebben gebouwd, dat het OpenGL is die Glide te sterk af was.

D3D is altijd trager geweest, heeft altijd vreemde trekjes gehad.
kijk op anandtech, daar moet een X1800Xt onderdoen voor een gewone GTX
en is de GTX512 de absolute overwinnaar
dus juist zoals alle 3D marks, fun om is te doen, daarna prullemand want het is waardeloos
En het is nog erger. Bepaalde dingen zoals FP16 HDR rendering worden op de X1800 gemuleerd.

De vertex pre fetch van ATi wordt ook neit ondersteunt en er was nog iets waarbij ATi in een 32 bit floating ponit pad moest renderen waar Nvidia een compressed 24x8 pad gebruikt ( veel sneller )

En Nvidia heeft hardware versnelling voor de softshadows die de immage quality van de schaduw omlaag brengen maar meer peformance geven.

Dus totaal niet repesentatief.

Ik heb met de Cat 5.13 drivers 3509 gehaald
en met de 6.1 : 3519

Dus dat hielp niet echt. Dit op een X1800 XL @ 560-612 met een 2700 MHz Venice cpu.
de schaduw versnellingenen zorgen ervoor dat de berekeningen worden ingeperkt, zonder verlies van IQ...Maar ze geven wel degelijk meer performance.

Het omgekeerde had ook heel goed gekunt, ze hadden wat shader branching erin kunnen gooien, dan hadden de nVidia SM3.0 kaarten een vreselijk verlies geleden.

Om een paar dingen moet je heen kijken, maar in princiepe blijft 3Dmark altijd waar aan zijn orginele functie, een indicatie geven voor de performance van in systeem voor de aankomende(lees next-gen) spellen.
@Countess:
de hele opzet van deze 3dmark lijkt erg pro nvidia
Ik verderk ExtremeTech er al langer van pro-ATi te zijn (vergelijk hun benchmarksets de afgelopen maanden maar met die van andere sites: nV komt er vrij consequent bekaaider vanaf dan elders), dus het is misschien handig niet alles wat ze roepen direct voor zoete koek aan te nemen.
Dit artikel van hen lijkt een ATi-bias te bevestigen.

Om antwoord te geven op de geplaatste opmerkingen:
zeker omdat bij er geen score word neer gezet als je de benchmark met een nvidia probeerd te running met AA aan.
dat kunnen die kaarten niet goed en dat moet dus geemuleerd worden... maar ipv een lage score neer te zetten krijgt Nvidia beswust geen score.
De nV kaarten ondersteunen hardwarematig geen FP16 HDR + AA. Daar is ook geen workaround voor te bedenken tenzij de boel via de shaders gerenderd wordt. Dan is het echter geen FP16 HDR meer, maar wordt het een geheel andere benchmark. De score is dan totaal niet meer te vergelijken met die van de FP16 HDR test, en van FP16 HDR +AA ondersteunende kaarten... met andere woorden zo'n score zou nergens op slaan.

Een (lage) 6800/7800 score volgens het SM2.0 renderpad - zoals extremetech (en ATi) die graag zou zien - raakt kant nog wal. Dit zou betekenen dat de 6800/7800 serie op 2 totaal verschillende, onvergelijkbare manieren gebenchmarkt zou moeten worden. De "standaard" noAA (SM3.0 path) score is dan op geen enkele manier meer vergelijkbaar met of te relateren aan de AA (SM2.0 path) score, en dat is nou juist het hele doel van een dergelijke test. Zoals hierboven uitgelegd zou een vergelijking met de X1800 score dan ook nergens op slaan gezien dan 2 totaal verschillende renderpaths gevolgd worden.

In beide bovenstaande hypothetische situaties wordt niets anders gedaan dan appels met peren vergelijken, en bij wat Extremetech voorstelt al helemaal. Dat lijkt me nou net niet de bedoeling van een benchmark.
De 0 score van de nVidia 6800/7800 kaarten in de HDR+AA tests is dus juist. Dit staat voor "hardware incompatible" wat exact de juiste definitie hiervan is.
waarom krijgt nvidia die vrijstelling maar ATI niet met de 16bit DST's
16DST is verplicht in dx9.c de 24bit van nvidia is dat niet en toch word je in 3dmark verplicht tot 24, waardoor ATI moet emuleren, maar daar word wel gewoon een score van neer gezet.
Dit is een geheel andere situatie. 16bit DST's worden niet ondersteund door 3DMark06, omdat de precisie hiervan niet voldoende was voor de door Futuremark gebruikte shadowmaps.
De minimale vereiste is dus 24bits. nVidia kaarten (en naar het schijnt ook de ATi X1300 en X1600) ondersteunen 24bits precisie, en dit wordt dus ook op die kaarten gebruikt.
Gezien de X1800 dit 24bits precisie niet ondersteund, wordt de volgende stap na 24bits gepakt, en dat is op de X1800 dus 32bits. Het niet ondersteunen van 24bits is een keuze die ATi zelf heeft gemaakt.

De keuze van FM om minimaal 24bits te vereisen is misschien betwistbaar, maar als zij aangeven dat 16bits onvoldoende was voor het door hun beoogde kwaliteitsniveau kan ik daarin meegaan. Zeker als zij indicaties hebben dat game-ontwikkelaars in de toekomst gebruik gaan maken van shadowmaps hoger dan 16bits... waar de 6800/7800 dan nog de tussenstap 24bits kan nemen wordt de X1800 dan automatisch - vanwege hardwarebeperking - geforceerd naar 32bits, tenzij voor lagere kwaliteit shadows gekozen wordt.

Als je trouwens nu al kijkt naar een game als FEAR waarin SoftShadows kunnen worden aangezet zie je dat 7800 kaarten met die optie aan behoorlijk performancevoordeel hebben t.o.v. X1800 kaarten... na bovenstaand gezien te hebben zou het me niet eens verbazen als dat ook met dit 16-24-32 bits verhaal te maken heeft.
De review van Extremetech is duidelijk ATI-biased:

1. Er wordt gehamerd op het feit van het niet lopen van HDR+AA tests bij NVIDIA...
2. Er wordt gehamerd op het feit dat er 24-bit DST's worden gebruikt, terwijl a major hardware manufacturer (quote van Extremetech) vindt dat 16-bit DST's voldoende zijn om schaduw kwaliteit te behouden...
3. Waarom wordt er niet 1 keer aangehaald dat ATI misschien toch wel beter ook DF24 ondersteuning had moeten implementeren voor de R520? De kwaliteit tussen DF16 en DF24 staat open voor discussie, maar waarom enkel spreken vanuit het gezichtspunt NVIDIA - Futuremark?
4. Extremetech is de enige site met een overall score waarbij de X1800XT wint van een 7800GTX...

Zegt genoeg denk ik hé...
toch mist er een hoop als het om "next gen" spellen gaat

parallax mapping bijvoorbeeld wat we al in FEAR zagen.
elk nieuwe spel gaat dat waarschijnlijk hebben maar 3dmark heeft het helemaal niet.

lees hier maar
http://www.extremetech.com/article2/0,1697,1912123,00.asp

de hele opzet van deze 3dmark lijkt erg pro nvidia.
zeker omdat bij er geen score word neer gezet als je de benchmark met een nvidia probeerd te running met AA aan.
dat kunnen die kaarten niet goed en dat moet dus geemuleerd worden... maar ipv een lage score neer te zetten krijgt Nvidia beswust geen score.

waarom krijgt nvidia die vrijstelling maar ATI niet met de 16bit DST's
16DST is verplicht in dx9.c de 24bit van nvidia is dat niet en toch word je in 3dmark verplicht tot 24, waardoor ATI moet emuleren, maar daar word wel gewoon een score van neer gezet.
Je springt een beetje naar conclusies. Ik kan me niet voorstellen dat Futuremark dit zo laat, 6200 moeten natuurlijk ook kunnen scoren.

ATi's gebrek aan verschillende formaten, en het gebrek aan vertex texturering en alle andere mogelijke dingen, daar moeten ze geen rekening mee houden. Je gooit overgens wel een paar dingen doormekaar, je kan het niet zomaar 24bit noemen.

Om Futuremark gebiased te noemen, nee, dat kan toch echt niet, als dat zo was, dan was Futuremark nooit groot geworden, juist door hun ubereerlijke oordeel, is het nu de standaard die het is. In het verleden hebben Futuremarks producten ook vaak genoeg nadelige resultaten voor nVidia's kaarten van die tijd gegeven, en het niet goed keuren van drivers (terecht overgens) geeft toch wel grote blijk van neutraalheid.
software rendering of raytracing zijn ook workarounds in jou ogen of niet? Het is niet echt presteren wat die kaarten doen en omdat het een situatie is die in spellen NIET voor zal komen, is het terecht daat het niet getest wordt. Dat nvidia kaarten zonder de HDR test geen score krijgen is inderdaad vreemd.

FM loopt ook een beetje op de feiten voor, das juist het hele princiepe erachter, als ze nu zouden doen wat FEAR deed, deden ze het slecht.

Niet alle vormen van HDR, niet alle vormen van diepte mapping kunnen ze erin stoppen, maar dankzei de shader units die erop zitten hoeft dat ook niet, de performance die een kaart zou hebben met parralax mapping is te voorspellen aan de hand van andere tests.
nou, ik weet niet wie er dingen doorelkaar gooit, maar 'vertex texturing' is larie. je texturet polygonen, niet vertices.
Vertex Texture Fetch...

Ik geef je wel wat lees voer

nVidia's Whitepaper SM3.0 Vertex Textures (nVidia)
3.0 Shaders (ATi)
Radeon X1000 series lacks vertex texture fetch (Techreport)

En nu snel weer up-to-date zijn meneer Otis...
Verder kun je niet om het feit heen dat wanneer 16bit fp berekeningen op ati kaarten accelerated zijn en je als benchmark altijd 24 bit kiest, je niet een 'reeel' beeld geeft, omdat het LIJKT alsof ati kaarten traag zijn, maar geen game programmeur gaat 24 bit fp gebruiken domweg omdat de game dan niet goed loopt op een ati.
Een hele tijd gelden gebeurde nVidia preceis hetzelfde met HF2, destijds door en gebrek aan nVidia's (GeForce FX toen) voor een formaat tussen FP16 en FP32, in de standaard die nVidia toen gebruikte (SM2.0a) werd dit prima beschreven, en nVidia leefde het compleet na, enkel liep HF2 voor geen meter...Wat mij nu opvalt, dezelfde mensen die toen beweerde dat het niet bewust door Valve gedaan was, en dat het nVidia's eigen schuld is, zijn nu degene die met de vinger naar ATi wijzen.
@ jan groothuijse
ATi's gebrek aan verschillende formaten, en het gebrek aan vertex texturering en alle andere mogelijke dingen, daar moeten ze geen rekening mee houden. Je gooit overgens wel een paar dingen doormekaar, je kan het niet zomaar 24bit noemen.
nou, ik weet niet wie er dingen doorelkaar gooit, maar 'vertex texturing' is larie. je texturet polygonen, niet vertices.

Verder kun je niet om het feit heen dat wanneer 16bit fp berekeningen op ati kaarten accelerated zijn en je als benchmark altijd 24 bit kiest, je niet een 'reeel' beeld geeft, omdat het LIJKT alsof ati kaarten traag zijn, maar geen game programmeur gaat 24 bit fp gebruiken domweg omdat de game dan niet goed loopt op een ati.
@cheetah
De nV kaarten ondersteunen hardwarematig geen FP16 HDR + AA. Daar is ook geen workaround voor te bedenken tenzij de boel via de shaders gerenderd wordt. Dan is het echter geen FP16 HDR meer, maar wordt het een geheel andere benchmark. De score is dan totaal niet meer te vergelijken met die van de FP16 HDR test, en van FP16 HDR +AA ondersteunende kaarten... met andere woorden zo'n score zou nergens op slaan.
Ik kan me er moeilijk in vinden.

Zoals jij het voorstelt riekt het naar artificial benchmarking, nl. dat je uitgaat van "deze xyz functies worden nu gebruikt en we gaan kijken hoe die performen", maar zo werkt 3D programming niet. Daar kijk je naar:
1) wat wil ik bereiken
2) hoe kan ik dat doen op hardware A, B en C
3) kan ik code sharen voor A, B en C en zo nee, hoe kan ik zo weinig mogelijk special cases bouwen voor die hardware?

je gaat niet beginnen bij "ik ga nu functie xyz gebruiken", het resultaat telt, niet hoe je er komt.

M.a.w.: een benchmark die functies test is 'leuk' maar zegt geen ene reet. Een scene met 1 milj. polies en een vaste set materials, is die te renderen op de hardware naar keuze en zo ja, hoe rap loopt dat dan? dan heb je een benchmark.
Er zijn nog genoeg drivers die de noemer 'not FM aproved' met zich mee krijgen.
Dat begon in 3DMark05 al met propiëtaire Nvidia schaduwtechnieken (die in de toekomst NIET gebruikt gaan worden) toe te passen.
Je hebt het toch niet over ultra shadow? Dat is een acceleratie techniek van nVidia, geen shaduw maak techniek...Waarom zou nVidia zelf een shader schrijven en die vervolgens patenteren?

In mijn ogen is 3Dmark ALTIJD, te vertex processing georienteerd geweest, het telde te zwaar mee in het oordeel, terwijl de meeste spellen al lang pixel processing en geheugenbandbreedte gelimiteerd zijn. En juist vertex processing is iets waar ATi eigenlijk al vanaf de eerste Radeon net iets beter in zijn geweest...


Was het ook niet zo dat X800XTPE's wonnen van 6800Ultra's in 3Dmark05? Terwijl spellen een heel gemixed resultaat gaven?
De nV kaarten ondersteunen hardwarematig geen FP16 HDR + AA. Daar is ook geen workaround voor te bedenken tenzij de boel via de shaders gerenderd wordt.
dat is toch een workaround die je daar noemt? het werkt toch.

waarom zou 3dmark er dan geen score voor neer mogen zetten? de benchmark draaid wel gewoon namelijk.
3dmark moet toch laten zien hoe het "echt" zit?
waarom doen ze dat in dit geval dan niet?
laat de mensen gewoon zien hoe een nvidia kaart presteerd met HDR en AA.
Zeker als zij indicaties hebben dat game-ontwikkelaars in de toekomst gebruik gaan maken van shadowmaps hoger dan 16bits
dat is het nou juist, daar heb ik nog helemaal geen enkel bewijs van gezien, en ik neem aan ATI ook niet.

en FM heeft bijvoorbeeld Parallax mapping compleet genegeeerd, iets wat NU al word gebruikt en in de toekomst waarschijnlijk door de meeste game zal gaan worden gebruikt.

ik heb dus zeker zo mijn twijfels en kanttekeningen over het voorspelend vermogen van FM.
@Jan:

Futurmark biased noemen kan wel degelijk. Sinds de Nvidia FX affaire is Futuremark gewoon niet meer onafhankelijk.
Niet voor niets hebben alle review sites tegenwoordig de nodige reserves bij het gebruik van Futuremark.

Als synthetische benchmark met als doel het verder blootleggen van de architectuur van een kaart dient het nog steeds zijn doel. Maar als benchmark test voor de performance in huidige en toekomstige spellen heeft het grotendeels afgedaan.

Futuremark is inderdaad groot geworden door een eerlijk oordeel te geven (en door een mooie en gratis benchmark tool vrij te geven. Minstens zo belangrijk)
Tot de FX ging dat goed. Maar toen ze merkten dat Nvidia zo schandalig zat te cheaten, en ze dat ook in de openbaarheid brachten ging het mis.
Nvidia ging met rechtzaken dreigen, en futuremark had nog maar twee opties:
1. je blijft eerlijk en onafhankelijk en je gaat failliet door de rechtzaken van Nvidia
2. je slikt je trots in en beschermd de inkomsten van je werknemers en geeft Nvidia z'n zin.

Ik mag hopen dat niemand van jullie ooit voor zo'n keus wordt gesteld.

Sindsdien is FM duidelijk Nvidia georienteerd. Dat begon in 3DMark05 al met propiëtaire Nvidia schaduwtechnieken (die in de toekomst NIET gebruikt gaan worden) toe te passen. Bovendien was de beeldkwaliteit met die techniek een stuk minder. De benchmark ging dus appels met peren vergelijken. Met 3DMark06 wordt die trend doorgezet.

Jammer dat het met een mooie benchmark tool zo moest lopen, maar het is helaas niet anders.
Ik zie - hoe verrassend - langzamerhand Futuremark door sommigen "verketterd" worden voor keuzes die ze gemaakt hebben. Laten we echter wel zijn, het was ATi die de keuze heeft gemaakt deze door futuremark gebruikte onderdelen niet te ondersteunen in hun X1800...

En dan hebben we het over gebrek aan ondersteuning voor:
* FP Filtering: foute keuze i.m.o. dit kost ze over de hele FP16 HDR linie performance (niet alleen in 06, maar tot nu toe alle FP16 HDR games)
* Vertex Texture Fetch: foute keuze i.m.o. ook dit kost de X1800 performance, gezien eerst omzetting naar ATi's proprity R2VB formaat moet gebeuren
* D24X8 textures: betwistbaar, maar eveneens een foute keuze van ATi i.m.o. Waarom ondersteunen RV515 (X1300) en RV530 (X1600) dit wel en R520 (X1800) niet? Als je keuzes maakt doe dat dan in ieder geval consequent (ondersteun het over de hele linie wel of niet).

2 van de 3 issues zijn dus i.m.h.o. onbetwistbaar rechtstreeks ATi's eigen schuld. De 3e is betwistbaar, maar ook hier neig ik meer richting ATi te wijzen:
"Optioneel" betekend dat het wel degelijk kan en mag worden gebruikt door dev's. Verder vind ik het ook geen onlogische keuze van FM... 16bit wordt als niet precies genoeg beschouwd, 32bit is erg precies, maar nogal zwaar, dus de tussenstap 24 bit lijkt me een erg logische, ook al is die officieel niet verplicht binnen DX9. De designteams van RV515/530 vonden dat blijkbaar ook, anders had ondersteuning daarvoor niet in die kaarten gezeten...
Ik vind dat je dan niet moet huilen als je toekomstgerichte high-end GPU de "gebeten hond" is omdat het de feature niet ondersteund, net als nV nu niets te huilen heeft als blijkt dat hun kaarten bagger presteren met stukken DynamicBranching renderwerk, waar zij weer slecht ondersteuning voor bieden. Dat zijn de keuzes die je maakt...

Ik denk dat een groot deel van de "lage" X1800 resultaten namelijk gewoon te wijten is aan ATi's al veel langer spelende HDR problemen, maar ze dit gewoon niet willen erkennen, en nu FutureMark de zwarte piet proberen toe te spelen. D24X8 werd al in 3DMark05 gebruikt, en nu het in 3DMark06 hergebruikt wordt willen bepaalde "elementen" daar plotseling een rel op los laten... typisch he...
Eigenlijk zal het me verschrikkelijk jeuken hoe mijn systeem in 3d mark presteert. Zolang ik de spellen kan spelen die ik wil voldoet mijn kaart. Ook bij aanschaf van nieuwe hardware kijk ik hoe die performed in de door mij gepeelde spellen en gebruikte applicaties..

Fm is hooguit een discutable vergelijkingstool voor hardware. Maar ja de ene hardware presteert nu eenmaal beter op een bepaald gebied, dan de andere. Voor mij altijd beetje appels - peren verhaal geweest. Hoe goed ze het ook proberen. Blijft overeind dat het er wel weer verschrikkelijk gelikt uitziet allemaal...hulde!
nVidia's niet kunnen draaien van de tests met AA, is gewoon een limitatie van de hardware...

Er is niemand die deze tests met AA doet.

Zoals ik al eerder zei, het is FUTUREmark, het boeit niet wat huidige spellen doen, ze proberen zo veel mogelijk, de hardware te testen op volgende generatie spul.
@Countess: Sorry dat ik het zeg, maar je bent wel extreem koppig. Indien de boel ge-emuleerd wordt speelt je grafische kaart geen rol meer. Dan gaat het lekker hangen op je CPU en de boel wat erom heen ligt, geheugen + geheugen controller etc. Ik zal het zo zeggen. Als het een BENCHMARK is om vergelijkingen mee te doen dan is het juist om geen score te geven als het wordt ge-emuleerd. Als ik met mijn Geforce4 4000 MX 3dMark06 doe en alles wordt ge-emuleerd vanuit software en cpu is dat dan eerlijk voor een GRAFISCHE KAART benchmark? Nee. Dan zou je iets moeten hebben wat over-all PC performance meet.

Beetje stomme vergelijking maar zie het zo:
Je doet een ABS test voor autos. Je hebt een auto met ABS en 1tje zonder. Als je die zonder ABS met je voet gaat emuleren door pompend te gaan remmen kan je ze alsnog niet vergelijken toch? Je kunt wel zien dat met ABS veiliger is maar je kunt ze niet vergelijken.

Ik voel wat heel erg pro-ATI aan bij jou. Kijk eens in het verleden. De FX 5 serie van nVidia was een grote flop. Dat zag je duidelijk terug in 3dMark. Dan hoor je mij ook niet jammeren dat FutureMark pro ATI is. Dat is gewoon de huidige stand van zaken. Als min. 24bits de eis is heeft niets met pro-nVidia te maken. Als ATI nu een kaart maakt die ook 24bits aan kan zal 3dMark echt die kaart alsnog met 32bits laten werken. (dan zou het wel vals zijn).
@Jan

In de volgende generatie spellen zal AA met HDR doodnormaal zijn.

Als je dan als FM werkelijk pretendeert de hardware te testen op volgende generatie spul, dan MOET je dat meenemen.

Of moeten mensen met die kaarten dan de volgende generatie spellen maar niet spelen?
Dat is een andere vorm van HDR.

De term HDR is bijna net zo breed als de term 'auto' niet alleen verteld het compleet niets over de beeld kwaliteit, maar ook de manier waarop het tot stand komt kan verschillen. Er zijn vormen van HDR die met AA gewoon kunnen, de HF2 LC uitbreiding bijvoorbeeld, maar Far Cry weer niet.
Of moeten mensen met die kaarten dan de volgende generatie spellen maar niet spelen?
Wat bedoel je daar nou weer mee? Het is de techniek die het niet toestaat, maar andere technieken laten dat wel toe.
dat zeg je wel zo maar d24x8 word in geen een spel gebruik, nog staat het in de plannen.
het is optioneel bij DX9, maar niemand gebruikt het behalve 3dmark. de d16 van ATI is de standaard.

en om het even van de andere kant te bekijken, nvidia kan deze tests niet running met AA aan.
dat kunnen ze wel maar dat moet geemuleerd worden...
maar wat doet 3dmark? die zegt naa dan zetten we gewoon geen score neer voor die nvidia kaarten!
waarom?!?
nvidia lijkt hier duidelijk een veel grote hand in te hebben gehad als ATI.
Dit is ook niet helemaal eerlijk, volgens mij kan je in de trial-versie namelijk geen AA aanzetten, wat oneerlijk is, want Ati krijgt met zijn kaarten AA zonder performance-verlies toch?
Wel als je iets verder kijkt, weet je dat eht vorig jaar net zo was, ati heeft toen zijn drivers moeten vernieuwen en deint dat nu ook te doen... bij mij voldeed een update van 5.11 naar 5.13 catalyst drivers om in 3dmark 05 ruim 100marks meer te halen.
Btw ati.com > nieuwe ati catalyst is ook weer uit, of hij daarentegen zoveel beter presteert weet k wel nog niet, kon er geen info over vinden...
Dit ziet er goed uit! Helaas zijn alle download servers nu al overbelast }:O

Ik raad aan om de bittorent te pakken. Daar trek ik nu 220 kb/s vandaan terwijl me het niet eens lukte om op de server te komen. :z
Kijk, en eigenlijk voor dit soort dingen is Bittorrent uitgevonden ;)

Ik kan ook iedereen die het wil downloaden aanraden om de torrent te pakken, in plaats van die arme servertjes te overbelasten :)

http://files3.majorgeeks....102_installer.exe.torrent

edit: Ah, bovenstaande heeft het ook in z'n post gezet :)
Nou fijn zo'n torrent, haal op de torrent 7kB down en loop ruim 20kB up (nee das niet mijn volledige up breedte)

loopt tegelijk een 100kB langs via winboard.org
Maar het is natuurlijk ook heel handig voor andere hele leuke dingen :P
Toch blijft het blijkbaar moeilijk om de aansluiting tussen de verschillende "layers" echt lijkend te maken. In het schreenshot van de sneeuwschuiver bijvoorbeeld zie je duidelijk dat de sneeuw niet goed gerendered wordt tegen de rupsband van het voertuig.

Hetzelfde gold ook voor Half Life 2, Far Cry en AOE3, waarbij je ook heel duidelijk kan zien dat het water niet echt mooi aansluit op het land. Je blijft van dichtbij altijd een onnatuurlijk recht lijntje zien.

Zou mooi zijn als de volgende generatie videokaarten dat ook getackeld heeft.
Wow! zie al die objecten in die foto linksboven.
ik zou dit niet eens DURVEN voor te schotelen aan mijn FX5500....

edit:
(@ rippance, inderdaad, dat is helemaal niets! :X de core en mem is enigzins hoger geklokt bij een FX5500, maar het is wel de 256MB versie.. :D )
Das een van de testen waarvoor je SM3 nodig hebt, dat gaat dus niet werken.

Je kan met een SM2 kaart alleen Return to Proxycon en Fairy Forest testen.

En natuurlijk de CPU test.
Ik had gelezen in GoT topic dat iemand met een FX5200 (vergelijkbaar aan die FX5500) zo rond de 800 punten zat :P
wahaha ik haalde in 3dmark '05 met mijn oude (heb nu 6800GT) FX5600 256MB nog geen 300 punten
met mijn radeon 9600 128 mb haalde ik 212 punten...
Wat zien die screens er allemachtig mooi uit!

Slimme zet ook om alvast de AGEIA's PhysX software te gebruiken, dit verlaagt de drempel in enige mate voor de verkoop van de hardwarematige processor.

En ook de ondersteuning voor meerdere processoren is een goedeze zet aangezien veel van de high-end systemen tegenwoordig met dual-core CPU's zijn voorzien.

Voor mensen met een fileplanet account:
http://www.fileplanet.com.../3DMark06-v1.02-Installer

Enjoy :Y)
Nu we toch een ageia stukkie hebben heb ik een vraag: Weet iemand wanneer de PPU uitkomt/te koop is?

Edit: Wat is er nou weer grappig aan mijn vraag? :(
Edit2: IPV dat mensen mij bestempelen als grappig en Interessant heb ik liever dat mensen mijn vraag beantwoorden!!! :P :D :)
Die dingen waren iets uitgesteld tot februari/maart voor zover ik weet.
Ze zijn allang geproduceerd maar "de markt is er nog niet rijp voor" ofzo.
Dus De CPU Physic test gebruikt de novodex Physic SDK en in geval van 'n PPU krijg je 'n vlinke boost?
Toch. :)
Das nog maar de vraag, het is niet bepaald CPU gebottlenecked, het is multithreaded, het zou mij niets verbazen als het nog eens zou tegenvallen.
Als ik eerlijk moet zijn, vind ik de voorbeelden hierboven mooier in 2005 dan de nieuwste. De kleuren zien er veel te 'warm' uit.
ben ik met je eens. heeft niets met monitor te maken, want dan zijn ze allebei eventueel warmer, maar dan nog is die ene een stuk roder/warmer als de linker.
Ik vind vooral dat bij de 'Return to Proxycon' test de SF-sfeer er een beetje uit is, juist die lange schaduwen die je in 05 had, zoals je ook in de screen ziet vond ik mooi, deed me denken aan Alien.
Nu is het misschien wel met realistischere schaduwen, maar t wordt er niet stylistischer op zeg maar
ligt dat niet aan de instelling van je monitor? bij mij valt het erg mee, vind alleen rechts onder warm, maar das de geel-rode lamp, dus logisch.
Futuremark heeft die "lat" wel een heel stuk hoger gezet.. Zelfs een SLI Geforce 7800 GTX systeem kreeg er 11 fps erin o.0

@loodgieter - las het hier -> http://www.xtremesystems.org/forums/showthread.php?t=83528
Dat was toch alleen bij een bepaalde test? :?
Wat vooral opvallend is dat kaarten die geen SM 3.0 ondersteunen een slecht score neer zetten wat het vergelijken niet eerlijk maakt een voorbeeld een ATI X800XT is langzamer dan een Geforce 6800 GS |:( Het is een beetje misleidend voor de gewone consument dit grapje is al eens eerder toegepast met de vorige versie van 3Dmark. Op deze manier is het onmogelijk om te vergelijken met oudere kaarten.
als je oudere kaarten wil vergelijken dan is 3Dmark05 of zelfs 03 sowieso een betere keus, omdat dat beter afgestemd is op die kaarten.
En je wilt toch niet met een nieuw benchmark programma alleen oude technieken kunnen testen? Dat is gewoon onzinnig. En je moet niet bij futuremark zijn voor het door ati niet ondersteunen van SM3. Daar kan futuremark niets aan doen, en ik geloof ook niet dat ze dat doen om ati expres een nadeel te geven.
Tevens is deze test juist een test voor de toekomst. Niet voor hoe oude kaarten nu presteren.
Oude kaarten testen bij FutureMark :P
December was de laatste
http://www.microsoft.com/...67DCAA54BF&displaylang=en

Edit: Vaag dat de post hier beland, deze kan weg..
Grap zeker?

Hoezo is dat niet eerlijk; had ATI maar wel SM 3.0 moeten implementeren in hun X800...wat alzo een drama-serie was. Ik heb niks voor niks een 6800GT@Ultra:
Hij wint alles tegenover de X800XT (PE), behalve half-life en misschien nog een game..
Maar ik speel liever alles vloeiend @ 1600*1200 dan dat ik in een enkele game veel meer frames per seconde maak die je toch niet merkt.
ATI sucks gewoon, net als Intel. ze komen vast wel weer een keer met iets beters.. }:O
Volgens mij snap jij het niet helemaal :? Deze versie is gemaakt voor de nieuwe modellen (diegene die bijvoorbeeld ook sm 3.0 ondersteunen) . Dat een kaart dit niet aan kan/ondersteund betekend toch gewoon dat dze kaart te oud (lees als "niet geschikt") is en dat daar de vorige versie's van 3dmark uitkomst voor bieden.

Nu ik even in je profiel heb gekeken zie ik waarom je zo gefrustreerd reageerd en dat is omdat jij een "Connect Radeon X850pro 256MB" hebt. Dat je een extreem lage score haalt.... so be it. Ik haal met mijn Amd 64 bit 3800+ en 7800GT ook geen bijster hoge score maar je hoort mij niet klagen hoor. Ik vind het eerlijk gezegd zelfs boeiend om te zien hoe dit programma zich steeds verder evolueerd.
<mierenneuk mode>Hmm.. Minimale Eisen om de benchmark een beetje te laten draaien beginnen al goed: een CPU van 2,5 ghz of hoger :P

Dus mensen met een AMD CPU (m.u.v. FX-55 en FX 57 vallen hier zowiezo al buiten :P </mierenneukmodus>

Natuurlijk doelt men met die 2,5 ghz op een intel CPU, maar toch staat het er erg slordig imho

Verder....

Hehe, Mooi staaltje werk weer lijkt mij :) Morgen eens kijken wat ik uit mijn 6600GT kan persen.. alle servers zijn nu toch al belast :)
Ze hadden er ook neer kunnen zetten:
((#GFLOPS)/(stages in floatingpoint pipeline))*((1)/(geheugen latency in ns))*(geheugenbandbreedte in GB/s)*(#Mb L1+L2 Cache * ((busbreedte in bits van L1+L2 Cache)/100)) > 200

Maar das ook weer zo lastig...
Een onderscheid maken tussen Intel en AMD cpu's was ook te lastig?

Dat gewone developers dat onderscheid niet maken is slordig, maar voor een benchmark tool is het toch wel belachelijk.
Ik denk dat de eerste week alle servers over belast blijven.
nah... ik ben nu al bezig met dld'n.. 80 kb/sec van de link hierboven.. dan maar even geduld ;)
heerlijk dat usenet... 800KBs :)
hehe ik zie hem nu ook staan :)

660 kB/sec voor mij :P
was leuker geweest dat ze als minimale eisen een 3Dmark'05 score van 7xxx voorstelden B-)
En ik maar denken dat ik met mijn 6800GT en 512 RAM genoeg zou hebben voor de volgende 2 jaar |:(
Dat 512MB RAM niet genoeg is voor de komende 2 jaar dat kon je ook al wel al meer dan een jaar aan zien komen, aangezien de BBG's al lang met 1GB uitgerust worden. En met die 6800GT houd het inderdaad nog wel 2 jaar uit, maar niet alles op de hoogste instellingen natuurlijk.
Om maar niet te praten over mijn 9700PRO waar ik toendertijd 510 euries voor heb geflapt.

Frustrerend om met een P4 2.4Ghz, 1.5Gb DDR 333 en een Radeon 9700 PRO niet eens F.A.I.R te kunnen spelen zonder dat hij om de 15 meter lopen gigantisch hapert.. en dan praat ik over 640 bij 480.. niet leuk!

toch maar eens na een nieuwe pc kijken, kost zoveel knaken.. niet normaal
Tja het is lastig allemaal, 1 voordeel heb je nu wel, je weet iig zeker dat je naar PCI-Express over moet :)
zonde van die 1.5 gig :O
Kan ook :-) Er staat dat games pas OVER 2 jaar dit gaan gebruiken dus over precies die 2 jaar die je gedacht had moet je upgraden.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True