Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 36 reacties
Bron: ATi-News

Het Duitse ATi-News heeft Nicklas Renqvist van Futuremark geïnterviewd. Nicklas Renqvist is Customer & Media Relations Specialist bij Futuremark en produceert ook de geluidseffecten in de producten van Futuremark. Na een korte introductie waarin Renqvist zegt dat hij erg onder de indruk is van FarCry en Doom 3, qua grafische vormgeving, geeft hij zijn kijk op een aantal onderwerpen, variërend van pixelshaders tot de invloed van Futuremark op de spelindustrie.

Futuremark logoHet meest interessante zijn natuurlijk de vragen over 3DMark05 dat over iets meer dan een week zal zijn te downloaden. Nicklas laat weten dat deze snelheidstest voor grafische kaarten ook een specifieke test zal hebben voor PCI Express. Hoewel de test nog niet helemaal af is, weet hij wel te vertellen dat PCI Express een flinke verbetering is ten opzichte van AGP. 3DMark05 zal alleen werken op computers die zijn uitgerust met een grafische kaart die versie 2.0 van de shaders gebruikt. Hierdoor kunnen er in 3DMark05 een aantal grafische effecten worden getoond die niet mogelijk zijn met oudere grafische kaarten.

Renqvist denkt dat Futuremark best een grote invloed heeft op de spelindustrie. Vaak zitten er in een nieuwe versie van 3DMark features die nog niet gebruikt worden in spellen. Het bedrijf is dus vaak de eerste om nieuwe dingen uit te proberen. In hoeverre dit echt invloed heeft op de makers van spellen is moeilijk te zeggen, maar het beschouwt dit toch als een compliment als het effecten die in 3DMark worden gebruikt, terugziet in spellen. Een van de oorzaken hiervan is waarschijnlijk dat Futuremark probeert in de toekomst te kijken bij het ontwerp van een nieuwe 3DMark: hoe zullen spellen er over een jaar uitzien? Dat soort features probeert men dan in 3DMark te verwerken. Het resultaat is dan ook meestal dat 3DMark-scores bij de release erg laag zijn, maar als de hardware sneller wordt, dan schieten de scores flink omhoog. Dit effect zullen we volgens Nicklas ook met 3DMark05 zien.

Lees meer over

Gerelateerde content

Alle gerelateerde content (27)
Moderatie-faq Wijzig weergave

Reacties (36)

vroeger (3dmark2001 en ouder) zei het nog iets over je systeem, maar dit hebben ze met 2003 volledig overboord gegooid...
naar mijn mening heeft dit prog dan ook z'n functie verloren, je kan veel beter een paar vooruitstrevende games (zoals doom3 en far cry) gaan gebruiken in combinatie met een timedemo of zo om te kijken wat een kaart echt kan
3DMark is vooral voor het testen van je beeldkaart, niet je systeem.
Voor je CPU heb je PCMark.

Dus niet echt een slechte zaak dat 3DMark03 minder op het systeem gericht is.
Bij 3DMark01 kan iemand met een zware CPU en minder GPU het halen van iemand met een zwakere CPU en zware GPU.
Niet echt logisch als het hier om een beeldkaart test gaat.

3DMark05 zal echter enkel voor de beeldkaarten zijn die SS 2.0 of hoger ondersteunen en das nieuw.
Voor het eerst een 3DMark waarbij oudere kaarten niet meer kunnen meedoen.
Dit zal denk ik wel doorwegen op het aantal gebruikers van die 3DMark.
Niet iedereen heeft geld om een kaartje te kopen uit de laatste serie.
Maar ja, welke score ging men maar kunnen halen eigenlijk?
Misschien moeten ze ook OpenGL gaan testen in 3dMark, om Nvidia maar vooral ATI bij de les te houden.
Heb om deze reden dan ook al sinds 3dMark01 geen 3dMark's meer geinstalleerd. Ik gebruik toch alleen maar OpenGL als ik kan kiezen, want dat slow-ass DX verlies je echt veel performance mee. In Far Cry was het verschil bij mij ongeveer een factor tussen 1:2 en 1:3, dus daar raad ik zowiezo iedereen aan de OpenGL renderer eens te proberen. Ik vraag me af waarom ze dat spel zowiezo al niet voor OGL hebben geschreven. In UT2004 was het verschil minder, maar de OGL renderer kon er toch echt die paar fps meer uitpersen.
En tis misschien een kwestie van smaak, maar ik vind OpenGL meestal mooier. Bovendien heb ik een Nvidia kaart, dus mensen met een ATI kaart zouden wel es hele andere ervaringen met OGL kunnen hebben. De goeie OGL en Linux support blijft voor mij toch een hele belangrijke reden om voor Nvidia te kiezen. Wat maakt het mij nou uit dat op me linux bak me GF4 maar DX8 is??

@ alle ATI fanboys in deze thread die Nvidia af zitten te kraken: 'cheaten' in een benchmark is idd een beetje lame, maar persoonlijk heb ik er niks op tegen als ze game-specifieke optimalisaties in hun drivers proppen. Als ze het voor elkaar kunnen krijgen om 1 specifiek spel met een of andere rare hack wat fps sneller te laten lopen bij dezelfde beeldkwaliteit, mogen ze die hack er van mij in stoppen hoor!
draai jij toch lekker GLXS? :)
Aan de andere kant ook wel weer een beetje te begrijpen waarom PS2.0 kaarten vereist zijn.
Dit zal wellicht de markt stimuleren of de veeleisende gebruikers die nog met oude grafische kaarten zitten gaan upgraden naar de snellere kaarten.

Ben benieuwd hoe de Ati en Nvidia kaarten het af zullen brengen. Want 3Dmark03 was nog best wel zwaart voor de huidige generatie kaarten met pixel shader 2.0/3.0.Je moet dan een super snel systeem hebben wil je in 3dm05 aardige scores neerzetten.
Waarom zou het nut hebben om nu nog pci express te gaan testen. Op het moment is het nog geen voordeel tov agp 8x. Dit zal in de toekomst wel anders lopen maar omdat de nieuwste genratie kaarten 6800ultra en x800xt nog steeds met een pci-e naar agp8x bridge zitten waardoor vertragingen opkomen. We zullen de benchmarks binnenkort wel zien.
Alleen NVidia gebruikt een bridge, ATI werkt native.

We hebben al een sneak preview gehad waar je prestatie verschillen zag tussen PCI-e en AGP. Voorlopig alleen zichtbaar in synthetische benchmarks omdat game developers die AGP bottleneck mijden als de pest...

Nogal onzeker hoe snel dat gaat veranderen.... In vermoed niet eerder dan met het nieuwe geheugen model in DX10... (of wat de naam daarvan ook gaat worden.)
ATi pci express kaarten gebruiken geen bridge. ATi gaat wel een bridge chip (pci-express -> APG) gebruiken voor zijn toekomstige kaarten voor compatibiliteit.

edit
idd AdV de virtualisering van het videogeheugen in longhorn gaat de ware mogelijkheden van pci-express aantonen
Waarom zou het nut hebben om nu nog pci express te gaan testen.
Omdat ze voorbereid willen zijn op de toekomst. Door deze test in te bouwen wordt de levensduur van deze 3dmark en het belang vergroot. Zodra PCI Express daadwerkelijk gebruikt wordt hoeven ze niet direct met een nieuwe versie te komen.

Bovendien bevinden we ons nu in de fase waarin PCI Express langzaam door begint te dringen. Nu is dan ook de tijd om te kijken wat dat gaat betekenen.
3D Mark heeft spijtig genoeg aan betrouwbaarheid moeten inboeten door het gebruik van cheats door ATI en vooral Nvidia. Maar op het moment dat de drivers van cheats gezuiverd zijn en er eerlijk vergeleken kan worden is de test wel degelijk erg handig.
Je bedoelt het goei maar zegt het een tikkie krom denk ik. 3D Mark is altijd betrouwbaar gebleken maar door het gepruts aan drivers door zowel nVidia en in mindere mate ATI kwamen er wel hele grote score verschillen naar boven maar daar kan 3DMark uiteraard niks aan doen.

Nu deze zo goed als teniet gedaan worden door de zogenaamde approved drivers (exact dezelfde drivers maar met stempel, ok erop is mijn gedachte dan) kan er normaal gesproken weinig mis meer gaan denk ik. Tis misschien wel altijd effe wachten op zo'n approval,maar heb toch het idee dat beide fabrikanten inmiddels wel 2 keer nadenken, voordat ze weer een "cheat driver" op de markt brengen wat ze in een kwaad daglicht kan stellen.
Het probleem is dat 3DMark nog steeds niet wil vertellen of een driver wellicht niet approved is omdat er cheats in zitten.

Het approven van ATI drivers duurt niet zo lang. Maar bij Nvidia drivers duurt het wel erg lang, en sommige versies worden nooit approved. Als je dan heel aandachtig gaat lezen in de reacties van Futuremark dan blijkt dat ze niet approved zijn omdat er cheats in zitten. Maar ze kijken wel uit om dat hardop te zeggen omdat ze dan weer een lading advocaten op hun dak krijgen.

Hierdoor lijkt het dus alsof fabrikanten 2 keer nadenken voor ze weer cheats in drivers zetten, maar de werkelijkheid is anders.
Misschien zit Nvidia nog teveel te spelen met de grens van "optimalisatie" en "cheaten"...
3D Mark heeft spijtig genoeg aan betrouwbaarheid moeten inboeten door het gebruik van cheats door ATI en vooral Nvidia. Maar op het moment dat de drivers van cheats gezuiverd zijn en er eerlijk vergeleken kan worden is de test wel degelijk erg handig.

Ik zou in de toekomst bijvoorbeeld graag zien dat ipv de systeemspecs de minimale 3dmark score die behaald moet worden op de doos van een spel staat. Zo hoef je niet per videokaart aan te geven welke geschikt is e.d. Een toereikende score (en compatibiliteit met een bepaalde 3dmark test) betekent dan automatisch dat je een spel kan spelen.

Nu is het zo dat 3dmark niet de echte "game performance" test, maar als je dit systeem zou combineren met een CPU test bijvoorbeeld (wat inmiddels al in 3dmark zit), dan krijg je een hele betrouwbare manier om de minimale eisen voor een spel aan te geven.

Veel mensen hebben inmiddels een breedbandverbinding en het gratis downloaden van 3dmark kan dan erg handig zijn om te kijken of een spel wel lekker op je systeem draait.
ipv 3dmark downloaden kan je denk ik beter de demo van het spel downloaden, dan kan je meteen zien of het spel goed draait op je pc en kan je ook meteen zien of je het spel wel leuk vind.
Futurmark is voordurend bezig de cheats eruit te halen en er is op het moment geen spraken van cheats in de drivers.

Als je in het overclock contest restulaten gaat kijken zie je sommige mensen in her rood staan deze hebben geen ondersteuning voor de anti cheat.

Ik vind 3dmark het beste benchmark programma voor de grafische kaart en denk wel dat er meer mensen zo denken.
3DMark05 zal alleen werken op computers die zijn uitgerust met een grafische kaart die versie 2.0 van de shaders gebruikt. Hierdoor kunnen er in 3DMark05 een aantal grafische effecten worden getoond die niet mogelijk zijn met oudere grafische kaarten.
Ik kan me voorstellen dat je de processorpijplijn helemaal correct vol wil houden; maar 1 if-then-else kan er toch wel vanaf?

Ik denk dat oudere kaarten gewoon niet zo interessant meer zijn.
Bij de vroegere 3dmark versies konden de wat oudere kaarten ook niet alle tests draaien. Dan kreeg je een iets lagere score, maar wel een bruikbare. Dat zal hier ook wel gelden.

Als je met constructies gaat werken om de test voor de ene kaart anders te doen dan voor de andere begeef je je op glad ijs. Dan kun je beter 2 tests maken, draaien en de resultaten daarvan combineren.
Nee, sommige dingen kunnen gewoon niet zonder nieuwe pixelshaders. Dan moet je dat benaderen met software, maar het resultaat is nooit precies hetzelfde. Ze willen dat de scores gelden voor een bepaalde vaste beeldkwaliteit.
3D mark is een goed programma om een performance indicatie te krijgen...

de ENIGE reden dat 3D mark 2003 zoveel shit over zich heen heeft gehad is vanwege de nVidia cheats (en 1 kleine ATI optimalisatie die GEEN cheat was maar wel op een oneerlijke manieer (handeling van voorkennis) kon optimaliseren (wel fout dus maar het deed alles zoals het moest gebeuren dus een optimalisatie die niet eerlijk was (tevens scheelde het maar 1,9% en bij nVidia waren het HELE VETTE cheats) groot verschil IMO

dat kwam op zijn beurt weer doordat nVidia een onsportieve verliezer was. het was nVidias schuld dat ze geen goede DX9.0 kaart op de markt hadden daardoor voelden ze zich gedwongen te cheaten...

en een klein puntje is dat de CPU weinig tot geen rol had in deze benchmark dat is namelijk belachelijk... iemand die iets weet over hoe dat in de nieuwe versie is ???
Vermoedelijk dat ook in 3Dmark05 de CPU een kleine rol speelt. Niet zo heel erg raar trouwens...

(Pixels) Shaders hebben de toekomst, omdat die hardware makkelijk sneller kan worden gemaakt.
Vrijwel alle overige processen die eerder in het render process zitten lopen continue tegen de geheugen bandbreedte aan. En die geheugen bandbreedte is moeilijk te verhogen. Daardoor dat je daar vanaf wilt, en alles via shaders wilt laten lopen. De laatste ontwikkelingen op dynamische schaduwen gaan ook in die richting.
Dus wordt de CPU die helemaal voor in het render proces zit, dus steeds minder belangrijk voor het grafische gedeelte van een spel.

Wil trouwens niet zeggen dat de CPU voor een spel niet belangrijk is.... maar dat zal vermoedelijk steeds meer een kwestie van AI en physics zijn. Dat test 3Dmark05 niet. In die zin wordt de benchmark steeds meer een GPU benchmark, en geen synthetische games benchmark.
en een klein puntje is dat de CPU weinig tot geen rol had in deze benchmark dat is namelijk belachelijk... iemand die iets weet over hoe dat in de nieuwe versie is ???
Persoonlijk denk ik dat vroegah de keuze van een CPU veel meer van invloed was op de performance van spellen dan vandaag de dag. Blijkbaar vond 3DMark de invloed van processors in mindere mate belangrijk en heeft de 2 CPU tests om die reden stukken minder zwaar laten meewegen in de uiteindelijke score. Ik vermoed dat dit in 3DMark05 niet veel anders zal zijn. (kon dit helaas niet echt uit het interview halen) Ik zeg overigens niet dat meer CPU power ongewenst is, zeker niet hehe.

Door zelf mijn PC te vergelijken met die van mijn broer (zelfde PC alleen andere CPU, XP-2500@3500 en Athlon 1200@1350) moet ik toch zeggen ondanks de verschillen* qua instellingen dan, dat 3DMark er een goeie keuze aan heeft gedaan om CPU's zo'n kleine rol toe te bedelen.

1200@1350 (8x150)
http://service.futuremark.com/compare?2k3=2464792
* Verschillen zijn :
DX : directx 9.0b
VID: catalist 4.6 (geloof ik**)
GPU: 378/338@420/360


1833@2300 (11x210)
http://service.futuremark.com/compare?2k3=3022057
* Verschillen zijn :
DX : directx 9.0c
VID: catalist omega 4.8
GPU: 378/338@430/360

Ik bedoel de enige echte verschillen uiten zich dan ook alleen bij de CPU tests en GT1 - Wings of Fury (kan ik me wel iets bij voorstellen) maar alle overige tests is er nauwelijks verschil in het aantal geproduceerde FPSjes. Denk dat overigens de verschillen nog zelfs iets kleiner kunnen als dit met exact dezelfde instellingen gebeched zou zijn.

--- edit ---
** Tis in ieder geval 6.14.10.6436 maar weet zo gauw effe niet meer welke catalist driver er nu precies bij hoorde hehe. Al die nummers ook :7
Ik vraag me af of de huidige topmodellen weer een ontzettend lage gemiddelde framerate zullen hebben in 3DMark05.

Bij 3DMark03 scoorde een nog niet zo oude high-end GF4Ti4600 ontzettend weinig punten waardoor iedereen klaagde dat de benchmark niet meer representatief was. Maar kijk, nu zitten we weeral met gemak boven de 10000 punten...
Ik vraag me af of de huidige topmodellen weer een ontzettend lage gemiddelde framerate zullen hebben in 3DMark05.

Bij 3DMark03 scoorde een nog niet zo oude high-end GF4Ti4600 ontzettend weinig punten waardoor iedereen klaagde dat de benchmark niet meer representatief was. Maar kijk, nu zitten we weeral met gemak boven de 10000 punten...
nogal wiedus hé die GeForce 4 serie is een DX8 kaart en 3D Mark 2003 is een DX9 benchmark dus dan scoor je al NIETS in de DX9 benchmark (de nature test die zie je dan niet) de Radeon 9700 die +/- evenoud was WEL een goede score neer kon zetten omdat die wel DX9.0 is

en het is nu NIET gemakkelijk om 10000 punten te halen hoor... mogelijk dat wel maar makkelijk is het niet!
2 weken? Ow boyoboyoboy :D

Bijna bijna :D

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True