Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 87 reacties

Futuremark heeft de eerste screenshots van de nieuwe 3dMark-benchmark vrijgegeven. Het programma zal door het leven gaan als 3dMark Vantage en kan alleen gebruikt worden met Windows Vista en een Directx 10-videokaart.

Aan de screenshots en aan de vrijgegeven systeemeisen te zien, zal 3dMark Vantage de huidige generatie videokaarten flink op de proef stellen. Futuremark stelt dat er minimaal een Directx 10-videokaart met 256MB geheugen en een 3,2GHz Pentium D met 1GB geheugen nodig is om de benchmark te draaien. Aangeraden wordt een Core 2 Duo E6600 met 2GB geheugen en een 512MB DirectX 10-videokaart.

Een week geleden kondigde Futuremark aan dat het bedrijf een eigen gamestudio is begonnen en dat het eerste spel in de maak is. Mogelijk geven de screenshots een hint naar het type spel dat door de makers van 3dMark ontwikkeld wordt. Wanneer 3dMark Vantage uitgebracht wordt, is nog onbekend.

3DMark Vantage screenshot 3DMark Vantage screenshot 3DMark Vantage screenshot
Moderatie-faq Wijzig weergave

Reacties (87)

qua grafische weergave is dit weer een overtreffende trap van 3DMark06, net zoals 06 de overtreffende trap was van 05 enz enz.
Ook als je de laatste foto bekijkt, let eens op rechtsbovenin op de 'maan'/planet op het detail (je ziet huizen en lichtjes ed)
masterlijk hoe je met je grafische kaart dit allemaal kan renderen.

Ik hoop ook dat er ooit een benchmark komt die niet Processor afhankelijk is.
Puur de kracht van je GPU/mem/(shaders) en dus ook de kracht van (hybride) Sli en Crossfire (X). Nu wordt ik met mijn 8800GT door iedereen voorbij gestreefd die een C2D of een C2Q heeft op ontdenkbare snelheden waar ik met mijn 4800+ alleen maar van kan dromen.
Of een benchmark die rekening houdt met het feit dat je een AMD of Intel proc hebt!

Nu afwachten wanneer hij uitkomt en kijken of ik up wil graden naar Vista om die bench te draaien (XP atm FTW)
Ook als je de laatste foto bekijkt, let eens op rechtsbovenin op de 'maan'/planet op het detail (je ziet huizen en lichtjes ed)
masterlijk hoe je met je grafische kaart dit allemaal kan renderen.
Dat heet nou een texture. Aan de screenshot kun je totaal niet zien hoe dat gerenderd wordt. Mocht het nou zo zijn dat je na dit shot in het filmpje gelijdelijk helemaal inzoomt op een van die huisjes, ja... dt is grafisch geweld. Anders niet.
Of een benchmark die rekening houdt met het feit dat je een AMD of Intel proc hebt!
Dus omdat je een AMD processor hebt, moet de score maar geboost worden zodat het net lijkt of je niet een langzamere processor hebt? Dan is het hele nut van de benchmark natuurlijk weg. Games gebruiken regelmatig alternatieve shadercode voor bijvoorbeeld nVidia of ATi-kaarten. Een benchmark hoort dat niet te doen, omdat het gaat om het meten van ruwe performance, niet om een zo vloeiend mogelijke ervaring te presenteren.
Dat heet nou een texture. Aan de screenshot kun je totaal niet zien hoe dat gerenderd wordt. Mocht het nou zo zijn dat je na dit shot in het filmpje gelijdelijk helemaal inzoomt op een van die huisjes, ja... dt is grafisch geweld.
Als een game of demo dat zou doen dan is dat meestal vanaf de viewpoint die je hier ziet alsnog een texture. Dat is ten eerste sneller en ten tweede gewoon mooier, omdat je anders enorme aliasing krijgt van al die piepkleine polygonen (waar 16x FSAA je echt niet bij gaat helpen). Oftewel, LODing, en alsnog geen "grafisch geweld"
pardon maar dit is in ieder geval geen enkele texture en ik kan me voorstellen dat de bovenste texture layers realtime gegenereerd zijn en dan is het wel weer grafisch geweld.

Al met al gaat het om het geheel plaatje en dat ziet er verdomd goed uit!

O, en voor iedereen die zegt dat vista nagenoeg geen performance verlies opleverd heeft het goed mis. Ik heb hier een AMD X2 4200+, 2GB DDR2, geforce 8600GT 512MB.
Als ik World of Warcraft onder XP draai: 24-30fps in Mount Hyjal met iedereen aan het aoe-en. Hetzelfde systeem onder Vista 12-16fps. Dit alles met alle detail sliders op max, dus dat is ongeveer 50% reductie in prestaties.
Ik denk niet dat er ook een benchmark komt die CPU onafhankelijk word, of de GPU's moeten nog verder door ontwikkeld worden. Het opbouwen van de 3D wereld is namelijk de taak van de CPU.

De GPU rekent hier verder mee. Wat indertijd zo revolutionair was aan de Geforce 256 dat de T&L fase ook door de GPU werd gedaan (vandaar dat men toen de term GPU heef geintroduceerd).

Pas als ook het opbouwen van de 3D wereld ook door de GPU gaat worden gedaan.. dan zou het minder belasting voor de CPU worden. Wil je puur de kracht van je GPU testen dan heb je toch een 3D wereld nodig..
Ik hoop dat deze 3dmark zwaar rust op de vga en de cpu meer links laat liggen.
Want dat is bij de laatste 3dmark 06 niet goed geregeld.

Bij 06 zie je dat van E6600 naar Q6600 b.v de score verhoging veel groter is als van
7900gtx naar 8800gts.

Terwijl het gaat om een vga bench progje.
En dus niet cpu.

Natuurlijk moet de cpu ook mee genomen worden maar dit is veel te zwaar.

Een E6600+ 8800gtx die minder scoort dan een Q6600+ 8800gts 320mb.
Dat is nou niet echt super voor een vga bench progje.
Ik vraag me af, waarom doen ze dit niet in openGL aangezien dit een minstens zo goede grafische API is als Direct X.

Dan zou het ook echt eens interessant zijn om te zien hoe OpenGL VS DirectX scoort? Of bestaat er al zoiets?
De belangrijkste reden om DirectX te gebruiken, is dat 95% van de games DirectX gebruikt.

Dat alle games DirectX gebruiken, is simpelweg doordat DirectX puur op gaming gericht is, en het daardoor gewoon beter geschikt voor games, dan OpenGL, dat zich ook op andere 3D toepassingen richt.

Vanaf DirectX 9 is OpenGL eigenlijk geen factor van betekenis meer voor gaming. Niet omdat je in DirectX meer kan doen... maar vooral omdat de DirectX standaarden parallel lopen met de hardware. Bij OpenGL lopen de standaarden achter bij de hardware, en moet je daardoor vaak proprietaire extenties gebruiken om de nieuwe mogelijkheden van de kaarten te gebruiken.

Bij DirectX hoef je minder na te denken over welke hardware de gebruiker heeft. En dat is voor game fabrikanten natuurlijk heel belangrijk.
DirectX is er op gericht om een monopoliepositie te krijgen. Om mensen uit te buiten dat ze Windows moeten kopen. Om uit te buiten dat ze een nieuwe videokaart moeten kopen.

OpenGL is prima geschikt voor games. En zolang Microsoft er niet een tussenlaag tussenflikkerd, zoals in Vista, geeft het ook een prima performance. Verder kun je bij OpenGL ook net zo makkelijk nieuwe technieken gebruiken als bij DirectX. En wat heeft de Hardware er mee te maken? Een kaart ondersteund gewoon DirectX versie 9 en lager, net als OpenGL 1.4 en lager. geen enkel verschil.

Verder gaat gamen wat mij betreft nog steeds om gameplay. Er zijn ook zat games die nog met OpenGL zijn geschreven en uitkomen. De nieuwe Id Engine gaat hier ook weer gebruik van maken en krijgt zelfs meer foefjes mee dna met DirectX zoals Megatexture die al in Enemy Territory: QUAKE Wars zit.

Verder heeft OpenGL nog 1 groot voordeel: Het werkt op Linux en Mac OS X zonder meoilijk te moeten doen met een emulator.

Een aantal OpenGL Games die totaal niet onderdoen kwa graphics (of destijds)
- RTCW
- Wolfenstein: Enemy Territory
- Quake3
- Quake4
- Doom3
- Prey
- Enemy Territory: QUAKE Wars

Allemaal grote titels in OpenGL.
Een aantal OpenGL Games die totaal niet onderdoen kwa graphics (of destijds)
Daarover kun je nog discusseren, want Doom3 en alles wat op die engine gebaseerd was, was nou niet bepaald hoogstaand kwa graphics.

Maar daar gaat het helemaal niet om. Je mist het essentiele punt waar het om gaat:
Wat is voor de developers het handigste/snelste/goedkoopste

Bij Doom3 hebben ze op een gegeven moment 3 verschillende renderpaths geschreven. Dat was simpelweg omdat ze in OpenGL van allerlei propietaire extensies van verschillende leveranciers gebruik moesten maken.
Juist omdat er dus geen OpenGL standaard was die alle functionaliteit aan boord had die ze nodig hadden. (en die al wel in de hardware beschikbaar was)

Dat kost veel extra tijd en dus veel extra geld. En het geeft ook nog eens meer bugs.

In Directx schrijf je maar 1 renderpath.
(uiteindelijk was 3 renderpaths zo onhandig dat ze dat in Doom3 op het laatste nog geschrapt hebben ook, maar toen was er al heel veel tijd aan verspild)


Als je je dat realiseert is het ook niet verrassend dat "al die grote titels" uiteindelijk maar van 1 engine fabrikant af komen. En dat het maar een schijntje is bij het aantal grote titels in direct3d.

Als je veel meer winst kan maken (of veel beter rendable kan worden) door Linux te vergeten en minder code te schrijven, dan is de keus duidelijk.
Je kan uiteraard er voor kiezen om vanwege idealistische motieven meer geld in de ontwikkeling te steken. Maar eigenlijk is ID maar het enige bedrijf dat daar voor kiest.
Probleem is eigenlijk dat OpenGL veel kleiner is. In Vista moet deze zelfs nog een vertaalslag maken volgens mij. Dat is behoorlijk te merken in een game als ET:QW. Zo heb ik al spijt van mijn HD 3870. Prima kaartje, prima drivers en voor een goede prijs. Maar ik merk gewoond at ATI zich minder met OpenGL optimalisering bezighoud. Waar de HD3870 in de meeste benchmarks niet vele onderdoet maakt NVIDIA eigenlijk gehakt van mijn kaart in ETQW, een OpenGL game die ik het meeste speel... Zo zijn er ook talloze renderbugs aan ATI kant helaas.

Dus ergens denk ik dat DX toch de betere keuze is omdat de meeste games het gebruiken, het geen vertaalslag nodig heeft (of zoiets in Vista) en de drivers er goed voor zijn geoptimaliseerd. Aan de andere kant zou een OpenGL benchmark ATI en NVIDIA wel dwingen om de drivers daar ook voor te verbeteren.

[Reactie gewijzigd door GENETX op 1 februari 2008 11:34]

Dit is inderdaad waar. Ik heb die ervaring ook met ATI gehad. openGL op Linux voelt altijd wel snel. Daarom vraag ik me dus af waarom er niet een openGL benchmark wordt gemaakt.

Als ik dit zie: http://farm2.static.flick...94627303_fd7ff37d6c_b.jpg dan koos ik toch echt voor openGL...
MS doet er alles aan om opengl te marginaliseren, direct3d is juist uitgebracht om de platformonafhankelijkheid van 3d apps kreupel te maken..

Als benchmark/game developer wordt je zo bijna gedwongen om direct3d te gebruiken omdat ms er alles aan zal doen om te zorgen dat het minder presteert als je niet klakkeloos hun keuzes volgt.
direct3d is uitgebracht omdat de OpenGL API helemaal niet gericht was op games.

Het was en is gericht op professionele 3D applicaties en loopt daardoor niet in de pas met de wensen van de game-industrie.

Benchmark/game developers prefereren daarom juist direct3d.

Zelfs John Carmack heeft jaren geleden al aangegeven dat direct3d (vanaf versie 9) eigenlijk gewoon de voorkeur heeft, maar dat OpenGL bij hun nog de voorkeur heeft omdat je dat makkelijk kunt porten. (dus overzetten naar bv Linux)

Dat laatste is het enige voordeel dat OpenGL heeft voor game developers.

N.B. daarmee zeg ik helemaal niet dat OpenGL slecht is. Voor professionele 3D applicaties is OpenGL juist beter geschikt dan direct3d.
Dit zal wel weer Return to- Return to- Proxycon worden. Jammer hoor, dat vind ik altijd de minst aantrekkelijke test. Firefly Forest uit nummertje 06 was leuk, maar mag er in Vantage weer een nieuwe Nature zoals die ook in 01/03 zat maar dan met de techniek van nu? Dat zou pas echt kwijlen worden.

Dat hij niet te draaien valt met DirectX 9 kan ik begrijpen, maar dan is het wel weer stom dat DX10 alleen draait onder Vista. Welke serieuze gamer gebruikt er nu Vista? Ik ken er een paar en die hebben er allemaai spijt van (Teamspeak dat niet werkt, performance wordt een stuk minder enz.). Futuremark gaat hierdoor zeker 'klanten' mislopen, het zal me niets verbazen als hier uiteindelijk ook nog een spin-off van komt die ook onder XP draait. Ik kan ernaast zitten natuurlijk.
Met voldoende ram in een pc heeft vista totaal geen invloed op de performance van het systeem. XP draait ook niet vlot op een 256MB bakje, dat is net hetzelfde bij vista op 1GB. Vanaf 2GB en meer heeft vista geen merkbare invloed op de performance.

Eigenlijk is vista gewoon beter hoor. Na het gamen bij xp duurde het een lange tijd vooraleer mijn pc terug op snelheid was, bij vista duurt dit ongeveer 1sec. Ik hoor hem even inlezen op de hd om het ram te vullen met mijn favorite programma's en alles draait even snel als voor ik begon met gamen.

De enige problemen die vista gebruikers hebben zijn dat sommige drivers niet worden aangepast, alsook sommige programma's, maar dit kan je niet de schuld van vista noemen.
Nee? Kan je dat niet de schuld van Vista noemen?

Als ze met office een formaat niet meer ondersteunen na een update dan is het rep en roer. Maar dat Vista ineens oude drivers niet meer ondersteund en fabrikanten een onwijze investering moeten doen om oude drivers opnieuw te schrijven is er ineens niks aan de hand.
Stel je kan op Vista alleen Vista-websites draaien, dan zal ik als webdeveloper hoe dan ook de oude websites die ik heb gemaakt moeten omgooien of het erbij laten. Ik zou het niet pikken weet je dat en ik zou denk ik zoiets hebben: toedeledokie met Vista. Maar dan is het niet Vista die daar dan de schuld van krijgt van mijn klanten, maar dan ben ik diegene die daar de schuld van krijgt. Zelfde geld voor die fabrikanten, maar zoiets kan je niet op de fabrikanten aanmerken. Die fabrikant heeft geen rekening gehouden in de kostprijs van het product wat jij van de fabrikant koopt dat ze ineens hun drivers moesten omgooien als Vista uit is.
Bij de update van office heb je een vermindering van de werking van een product dat je gekocht had, wat voor de update wel bepaalde dingen kon doen en erna niet meer. Bij aankoop van je office kon je dus ook niet op voorhand weten dat een update de boel 'om zeep' zou helpen, dus klaag je met reden.

Bij Vista zit je met een nieuw product, waar een documentatie voor te verkrijgen is en waarbij duidelijk vermeld wordt dat bepaalde oudere producten het wel eens kunnen laten afweten.
Als fabrikant van die oudere producten heb je enkel werking onder xp gegarandeerd, niet meer.
Dit soort dingen weet je op voorhand als je je informeert. Als je je niet informeert is het je eigen fout en moet je niet zeuren achteraf.

Zelfde met je website vergelijking: je hebt (als je een beetje hersens hebt toch) een contract afgesloten met je klanten voor websites die werken onder xp. Willen ze er ook vooor vista, dan moeten ze je opnieuw inhuren. (hoe krom die vergelijking ook is, maar dat terzijde)

In het kort: wil/koop je iets nieuws: informeer je eerst en geef niet de schuld aan bedrijven als ze de juiste info verstrekken maar jij niet leest...
Schandalig inderdaad dat we niet nog steeds Windows 98 drivers onder 2000/XP/Vista kunnen gebruiken. :O

Ik vraag me dan ook af wat websites in godsnaam met Vista te maken hebben naast het feit dat het probleem eerder in IE7 zit, die ook gewoon onder XP draait. Snap ook niet goed wat dit nu weer met de performanceverschillen in games te maken heeft maargoed jij zal je woede ook ergens willen uiten.

Daarbij hebben fabrikanten maanden de tijd gehad Vista drivers te ontwikkelen en daar heeft 80% het laten afweten.
Nouja, het is wel gebleken dat in vrij veel testen games een fractie minder goed draaien dan onder XP.

Je praat dan wel over een verschil van een paar FPS, iets wat dus niemand ooit zal merken maar waar de mierenneukers die alleen naar cijfertjes kijken Vista op af kraken. :)
Denk niet dat Futuremark klanten mis gaat lopen. De thusigebruikers schaffen het pakket toch niet aan lijkt me...

De benchmark sites echter wel. En die willen ook direct bij een nieuwe kaart Crysis op Ultra zetten en alle andere DX10 games in de toekomst. Vista zal dus toch al op die bak moeten. En als je een beetje geloofwaardig als benchmark site iwlt overkomen test je straks de GeForce 9800X2 toch echt door hem op de pijnbank te leggen met Crysis en 3DMark08. Klanten zullen ze hier echt niet mee verliezen, juist eerder andersom:

Wat zou de reden zijn om met 08 te gaan testen ipv 06 als beide de kaart toch niet op de pijnbank gaan leggen? Futuremarkt zou veel geld mislopen omdat men dan nog liever met Crysis gaat testen waarschijnlijk. Wat is het nut van een benchmark als je de nieuwe functies niet kan testen? Net zo min als ik het nut van SuperPi op 1 core in zie.... Dat doe ik dagelijks, mn PC SuperPi laten draaien...
Ik bedoelde ook niet dat de gemiddelde thuisgebruiker ervoor gaat betalen, daarom staat klanten ook tussen aanhalingstekens. Wel krijgt Futuremark natuurlijk advertentie-inkomsten en is er wel degelijk een groep mensen die voor de Pro-versie betaalt. Ook bij dure Asus moederborden en videokaarten (RoG spullen) wordt de Pro-versie bijgeleverd, ik vraag me af of dit soort OEM's over zullen stappen naar iets dat alleen maar draait op Vista, al is het maar een extraatje.

Er is uiteraard niet echt een reden om met de allernieuwste 3dmark te gaan testen, ik gebruik zelf ook altijd de versie die het beste past bij het systeem. Ik zeg alleen dat het me financieel niet erg handig lijkt om een nieuw product alleen Vista te laten ondersteunen. Volgens bijvoorbeeld nieuws: Vista en dualcores winnen aan populariteit volgens Steam-statistieken wordt er door Steam-gebruikers, toch wel een beetje de doelgroep voor Futuremark, nauwelijks Vista gebruikt. Maar 15% gebruikt er Vista, en bovendien heeft er maar 8,3 procent Vista en een DirectX 10 videokaart. Ik weet niet precies hoeveel Steam-gebruikers er ook interesse hebben in 3dmark, maar het is duidelijk dat deze versie op wel heel weinig systemen te draaien zal zijn, door dat zowel Vista als DirectX 10 vereist is. Een DirectX 9 versie zou dus aantrekkelijk zijn als hier niet te veel aanpassingen voor nodig zijn, dan is er meteen een goede manier om te zien of DirectX 10 behalve je framerate slopen op het moment wel iets doet.

[Reactie gewijzigd door Groever op 1 februari 2008 17:13]

Ziet er prachtig uit, maar zijn dit nou dingen die niet zouden kunnen met Directx 9?
Futuremark zal vast wel wat effecten hebben meegenomen die alleen onder DX10 kunnen. het gaat er om hoe goed een kaart presteerd en ook in de toekomst. Ze proberen echt de brute kracht er uit te halen en die bereik je alleen door ook de lat hoog te leggen.

Verder zijn de laatste DX9 kaarten al van 2 generaties terug, een GeForce 7950 hoeft wat mij betreft niet nog eens hier mee te worden getest, daarvoor is 3Dmark06 ook prima. Zeker als je bedenkt dat er soms zelfs nog met 2001 wordt getest.

Wat mij betreft een goede keuze van Futuremark. De lat hoort hoog te liggen en die kun je gewoon niet meer bereiken door ook de DX9 kaarten mee te laten doen. Met DX9 zul je de laatste kaarten moeilijk op de pijnbank kunnen krijgen en dat is nou net wat men bij Futuremark wil.

Edit: Zie hieronder.

[Reactie gewijzigd door GENETX op 1 februari 2008 10:17]

Ik weet niet waar jij het over hebt hoor, maar Directx 9 is net iets ouder dan 2 generaties. Vergeet niet dat de Ati Radeon 9700pro de eerste Directx 9 kaart was. En dat Nvidia kort daarna met zijn Geforce 5800ultra kwam. Ook een directx 9 kaart. Deze kaarten stammen uit 2002!! Even denken hoor, maar we zitten nu vrijwel bij de Geforce 9, dus dan is het 4 generaties geleden en geen 2......
Sorry, bedoelde dat de laatste DX9 kaarten nu 2 generaties terug is. De GeForce 7000-serie en de ATI Radeon X1000-serie dus. Die kaarten en daarvoor uit het DX9 tijdperk ga je niet meer onderwerpen aan een nieuwe 3DMark08 test omdat je ze binnenkort toch weinig nieuw zult vinden en al dusdanig oud dat het weinig zin heeft om nog naar de toekomst van de kaarten te gaan kijken met deze test.
Het is geschreven voor directx 10, dus ja dit zijn dingen die niet gerenderd zouden kunnen worden door directx 9.

Dit was zeker een retorische vraag?
Wat een onzin.

Dat het geschreven is voor directx 10, zegt helemaal niet dat het niet gerenderd zou kunnen worden door directx 9.

Maar het is mogelijk dat directx 10 het sneller doet.
Het kan ook simpelweg zijn dat directx10 het alleen anders doet, maar niet beter of sneller. (En dat het dus eigenlijk zinloos is om het in directx 10 te doen. Maar het doel is ook niet een technology demonstrator voor directx10 te zijn. Het doel is een benchmark te zijn voor directx10)

Verder kan het ook gewoon zijn dat het makkelijker is om het in directx10 te doen, ipv in directx9.

Als laatste is het ook goed mogelijk dat het in zowel 9 als 10 kan, maar dat ze gewoon geen zin hebben om twee aparte stukken code te programmeren. Tegen die tijd is directx 9 immers verouderd en waarom zou je dan tijd en geld daarin steken. Ze hebben immers al een directx9 benchmark.
Direct X 10 heeft wel degelijk effecten die direct x9 niet heeft.
Het bedrijf heet FutureMark. Het gaat dus over toekomstige systemen te benchen (en huidige natuurlijk ook). DirectX 9 is dus waarschijnlijk voor hun verouderd.
Het bedrijf heet FutureMark. Het gaat dus over toekomstige systemen te benchen (en huidige natuurlijk ook).
Het bedrijf heet volgens mij gewoon FutureMark omdat het afstamt van de Future Crew.
Damn, dat wist ik niet eens joh.. Future Crew is toch van ScreamTracker?? Daar heb ik nog mee geproduced back in the days :D Aaahhh the memories :)
Dat is niet correct. Er zijn wel enkele ex-Future Crew leden die later bij FutureMark zijn gaan werken, maar het zijn zeker niet de oprichters.
Hun benchmarks leven meestal twee drie jaar. Ik geef hun dus groot gelijk dat ze enkel n product maken ipv twee. 3Dmark gaat nu eenmaal over de nieuwste hardware en de nieuwste software.
Op welke engine draait 3dmark eigenlijk?
Ziet er in iedergeval goed uit.
3dmark draait niet op n commerciele engine.

Wat men probeert te doen, is de verschillende game engines te simuleren. De doom3 engine is volkomen anders qua opzet dan de HL2 engine. In een algemene synthetische benchmark wil je beide methoden meenemen. Daarom had 3dmark vrijwel altijd meerdere type engines gebruikt.

Verder wil 3dmark een benchmark leveren die voorspellingen doet over hoe toekomstige games op je hardware zullen draaien. De engines voor toekomstige spellen bestaan nog helemaal niet. Daarom dat ze dus zelf engines ontwikkelen, die die trends proberen te voorspellen.


Op dit moment lijkt de opzet van de game engines wel weer wat dichter bij elkaar te komen, maar krijg je weer grote verschillen in de soorten berekeningen die gebruikt worden. Dus zelfs al zou je dezelfde engine gebruiken, dan zul je verschillende scenes nemen. Een water wereld produceert een compleet andere GPU belasting dan een dicht bos, ookal gebruik je dezelfde engine.

[Reactie gewijzigd door AHBdV op 1 februari 2008 12:29]

Je zou ook kunnen stellen dat 3dMark liever geen details vrijlaat over de engine, anders zouden GPU-fabrikanten hun product daarvoor optimaliseren. Zoals een paar jaar terug trouwens al gebeurde met 3DMark.
Dat waren 'gewoon' drivers met pre-rendered beelden. Ik denk niet dat ze hun ontwerp gaan veranderen speciaal voor 3DMark.
Ik meen in een oudere versie van 3DMark gezien te hebben dat er een zekere havok engine gebruikt werd. 3DMark03 was dat dacht ik.
Gewoon de 3DMark engine (grootmoeders recept?).
Ik zie dat 3d-mark 06 en nu deze ook toch best veel van de processor vragen. Terwijl oorspronkelijk bijna alleen de 3d-kaart getest werd.

Nu is dat wel logisch aangezien je tegenwoordig zonder een snelle dualcore het eigenlijk wel kan vergeten in spellen.

Ik baal er alleen van dat ik nu vista moet kraken om deze benchmark te kunnen draaien. :(
Als je het alleen gaat om even te benchmarken, dan zou je kunnen volstaan met een trial van Vista te installeren. Dan kun je Vista gebruiken voor 30 dagen!

Overigens als je zegt dat je Vista moet kraken, dan lijkt het mij aannemelijk dat je 3D-Mark ook niet helemaal legaal hebt gekocht ;)
3d- mark is gratis, alleen de Prof. versie. Waarmee je ook je benchmarks kan publiceren en op veschillende resoluties kunt uitvoeren kost geld.
FYI , met de gratis versie kan je ook je benchmarks publiceren..
3Dmark is toch gratis? Zolang je alleen simpele benchmarks wilt uitvoeren?
Hoezo kraken? Je kan hem ook kopen, iets dat eigenlijk zou moeten. Verder wordt je door niemand gedwongen om te benchmarken, je kan ook reviews gaan lezen over je videokaart...

Je moet er wat voor over hebben als je met cijfertjes wilt gaan opscheppen. 1 Voordeel: Kan je direct ook met de Vista rating opscheppen :+
Nou ja, het hele dx10 gebeuren blijft lullig tegenover de XP gebruiker. Ik zit nog heel erg te twijfelen of ik bij mn fresh-up over een maand XP Media center er op ga zetten of Vista Business (die heb ik liggen, iemand ruilen tegen home premium?). De enigste reden om voor vista te kiezen is eigenlijk omdat ik ook meteen naar 64bit wil en omdat ik directX10 wil. Maar voor de rest zie ik er onwijs tegenop.
Draai nu al sinds November 2006 Vista x64. Opzich had ik in het begin al weinig last van performance verlies (zelfs met 1GB geheugen in mn laptop). Na een aantal maanden wachten op betere drivers lagen de 3Dmark06 scores vrijwel gelijk. Het verschil was maar 40 punten tussen XP en Vista x64.

Ik heb ook geen game gezien die niet speelbaar was. het is wel zo leuk om te geilen op een paar cijfers. Maar het verschil tussen 100 en 90FPS ga je ook niet merken zonder FPS meter.

Je moet meer dingen mee nemen dan alleen die scores. Zo vindt ik het driver systeem in Vista x64 veel beter. Maar ook Superfetch merk ik bij grotere apps als Phtoshop. Verde indexed search. Vista is neit het beste OS, maar ik zie toch wel dingen die het dagelijks gebruik toch even wat fijner maken terwijl ik nergens last heb van eventueel mindere performance.

[Reactie gewijzigd door GENETX op 1 februari 2008 10:57]

Hetzelfde geld voor mij. Ik heb een SLI opstellinkje en onlangs nog geformat, maar ik durf het gewoon NIET aan om over te stappen.
nee, niet die driver onzin en Vista-is-onstabiel-praatje, maar gewoon omdat (zie ook de editiorial ergens op de homepage) Vista grafische kracht gigantisch schijnt te bottlenecken.
@Genetx
Dus ik kan Company of Heroes draaien zonder dat-ie gaat hakkelen bij een artillerie-aanval? Ik begrijp dat een spel lekker draait als er niks gebeurt, maar ik ben nogal een actie-junk, en op DIE momenten wil ik alles vloeiend. Sterker nog, mijn XP systeempje heeft moeite met een zware luchtaanval op een grote basis in SupremeCommander. Waarom krijg ik het gevoel dat het alleen maar erger zou worden in Vista? ( persoonlijk noob-vraagje:hoe kun je zien of 64bit mogelijk is op je pc?)
@Poepkop
Ik heb een ongebruikte (gekochte, hihi) Vista Premium liggen, wat heb ik aan Business?

@OT
Futuremark ziet er weer mooi uit. Ben benieuwd, werd een beetje saai van '07.
Als het nu al amper speelbaar is zal het zeker niet beter worden nee. Opzich heb ik niks gemerkt maar speelde ook geen veeleisende spellen (destijds Trackmania Nations). TMN ging zelfs beter lopen nadat er geheugen bij kwam maar dat zal door door dualchannel komen :+ . Echter speelde hij daardoor ook beter dna onder XP. Ik heb daar nooit lagere FPS gezien.

Bij ETQW heb ik wel best slechte performance. Binnenkort ga ik Linux een kans geven en kijken of het daar een stuk beter gaat. Ik ben echter niet iemand die alles op Ultra moet spelen. ETQW staat op low-medium, en dat met een HD 3870. Maar daardoor krijg ik wel een stabiele 60FPS. Het gaat bij mij om de game ervaring in de zin van de gameplay. Ik beoordeel ook geen game op graphics, maar puur op gameplay.

Voor mij persoonlijk was Vista welkom, ik had het wel gezien met XP en kan alles doen wat ik ook onder XP deed. Mede omdat ik helemaal geen XP meer heb kan ik het verschil ook niet merken bij een spel als ETQW. maar het is speelbaar en daar gaat het mij om.

Je kan zien of je CPU 64-bit is door CPU-Z te draaien, maar ik kan het je ook zo zeggen:
AMD Athlon 64, AMD Athlon 64 X2, AMD Phenom X4, AMD Athlon FX, AMD Opteron, AMD Turion 64, AMD Turion 64 X2, en de meeste AMD Sempron's. Verder de Intel Pentium D, Intel Pentium 6000-serie, Intel Celeron D 300-serie (meende ik), Intel Celeron 400-serie, Intel Core 2 Duo, Intel Core 2 Quad.
vista readyniss tooltje downloaden en draaien op je pc levert beeld op welke vista edities je kan draaien.
In principe kan elke core(2?)duo en amd64 cpu over naar 64bit vista.
Vraag is of je games dat ook kunnen (en vooral de duffe security check drivers die de cd zoeken)
Bedankt, ik vind je bericht echt interessant, maar toch heb ik wat vragen...
(hier een degene die vindt dat we (echt iedereen) allang op 64 bit OS moeten overstappen, want 32 bit OS is verouderd!)

Ok, heb je geen problemen met 32 bit programma's op je 64 bit Windows Vista gekregen? Ik hoop echt dat het wel mee valt!

oh bijna vergeten, je hebt nu zeker meer geheugen in je laptop geplaatst, want 1 GB is helaas niet genoeg voor Windows Vista? Of is dat helemaal geen probleem voor 64 bit dan 32 bit?

[Reactie gewijzigd door Dark Angel 58 op 1 februari 2008 16:48]

Zelf weinig ervaring met 64bit, maar het is pas echt 'nodig' als men bijvoorbeeld 4GB RAM wil hebben. Dit is simpelweg niet mogelijk in een 32bit versie.
Nieuwe DirectX 10 op een nieuwe Windows versie, daarvoor kun je de nieuwe 3DMark gebruiken. Voor de oude DirectX 9 op de oude Windows versie, kun je de oude 3DMark gebruiken.

(Zie je een beetje tussen de regels door waar het om gaat?).

DX9 zit nu wel aan z'n end, de nieuwe 3DMark is bedoeld voor de toekomst, waarvan de huidige Win Vista + DX10 opstellingen pas de eerste deelnemers van zijn.
En wie zegt er dat je vista persee moet kraken?
Verder vind ik het er gruwelijk mooi uit zien ^^

[Reactie gewijzigd door 3DDude op 1 februari 2008 08:57]

Kom eens onder die steen vandaan.
Vista is al weer een jaartje uit, de drivers zijn goed (haal betere FPS @ crysis onder vista dan onder xp) de meeste bugs zijn er uit, de beveiliging zetten wij tweakers uit en er is vervolgens prima mee te werken,
heb je uberhaupt ooit vista geinstalleerd gehad en er een maandje aan gewend?

De meeste programma's zijn ook goed te draaien onder vista, zelfs C&C Red Alert (dos) draait nog onder Vista X64 als je even de emulator aanzwengelt.

Ik heb sterk het vermoeden dat je een keer vista hebt gezien bij een vriend, zag dat het niet zo snel draaide op die goedkope pc en zag dat die ene instelling net even ergens anders stond en jouw ene programma niet meteen werkte zonder wat tweaks en vervolgens het product nu al een jaar bagger noemt.

vista heeft voordelen en nadelen, dat ontken ik niet, maar zo langzamerhand wegen de voordelen wel op tegen de nadelen.

Als je vista wil draaien denk dan wel aan dat je een moderne pc nodig hebt om die nieuwe GUI lekker soepel te laten lopen.. Maarja, wacht even je wilt een nieuwe benchmark op een oude xp machine draaien en gaat dan klagen dat die nieuwe benchmarks niet op xp wil draaien?

Je verdoet je tijd, zelfs al werkte hij op xp haal je geen fatsoenlijke scores.

Dit soort next-gen benchmarks zijn voor next-gen systemen en bestuuringssystemen ontworpen. niet voor een kernel uit 2001.

PS.

Als programmeur weet ik dat MS vervelend is geweest met het omgooien van een groot aantal zaken in het besturingssysteem waardoor je als programmeur toch bezig bent een hoop om te bouwen, maar die keuzes zijn niet voor niks gemaakt door MS en het is echt wel een vooruitgang.

Just my 2 cents.
Home of Pro, het blijft XP en dus niet ondersteund :+
wat ik mij afvraag, ziets voor de ps3 / X360 zou ook wel leuk zijn.
Dan kun je evt. meerwaarde aan rekenkracht, consoles en pc / mac etc. naast elkaar zetten.
(David vs. Goliath)
Denk niet dat dat gaat werken. Deze benchmark werkt doordat je elke keer dezelfde software draait en zo dus het verschil in hardware kunt zien. De Xbox360 en de PS3 vereisen andere software - de code moet geschreven worden voor het platform - en daardoor draai je dus niet dezelfde benchmark op alle drie platformen. Dan kun je wel een mooie score krijgen, maar komt dat nou omdat de console zo goed is, of omdat de code beter draait?
Het hele idee van een console is dat er maar 1 configuratie is, en je als klant daar geen zorgen meer om hoeft te maken (hoewel dat de laatste tijd ook een beetje verschuift: wel/geen harddisk in je 360, te weinig USB-poorten op je PS3, wel/geen rumble op je controller). Als je een benchmark voor een console zou maken, zou er eigenlijk altijd 1 score uit moeten komen.

Maar wat wil je vergelijken tussen consoles en pc's? Het zijn appels en peren. Een FutureMark-score is gebaseerd op meerdere onderdelen: video, cpu, geheugen, etc. Het zou compleet pointless zijn om verschillende platformen met elkaar te vergelijken, aangezien je software voor de een toch nooit op de ander kunt spelen.

[Reactie gewijzigd door 19339 op 1 februari 2008 09:46]

Consoles zijn qua hardware gewoon gelijk, afgezien van een dieshrink of een andere HDD. Wat voor 'n nut heeft het dan om te gaan testen?
Het ziet er goed uit, word weer mooie filmpjes kijken (op 2 fps). Ik hoop dat de benchmark features ook goed zijn.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True