Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 78 reacties
Bron: D-Cross.com, submitter: Frietsaus

De Japanse website D-Cross.com heeft de handen weten te leggen op een uitgelekte bčtaversie van 3DMark04 en hier een flink aantal screenshots van gepubliceerd. De screenshots zijn ondertussen verwijderd van de site na aandringen van Futuremark, maar niet geheel verrassend zijn ze momenteel zonder moeite te vinden op een tal van andere sites. Wanneer de benchmark officieel uitgebracht zal worden door Futuremark is nog onbekend, maar de screenshots laten in ieder geval al zien dat een stevige videokaart geen overbodige luxe zal zijn voor een soepele framerate.

3DMark04 beta screenshot 3DMark04 beta screenshot
Screenshots afkomstig van Guru3D
Moderatie-faq Wijzig weergave

Reacties (78)

Wat zijn de minimale eisen hiervan :?. Gaat het ook nog op een GeForce 4 Ti draaien ? (Zoals 3dmark03 nog kon) of weigert het dan te draaien (of dat er maar 1 demo gedraaid wordt zoals bij 3dmark03 & een GeForce 2)

[Offtopic]
Op die plaatjes zie ik zo'n beest uit het water komen. Die zat ook al in 3dmark2001. In de demo, in het begin ;)
Het zal wel weer zo'n direct-3d only test worden, ik vat eigenlijk niet wat het hele doel is van 3dmark! Wat test het nou eigenlijk?

Het is niet voor games een test, want dan had het wel een losse directx 8 en een directx 9 test, en gaf het onafhankelijke resultaten per API.

Het is niet bedoeld voor videokaarten, want het test geen openGL.

Het is geen test voor de snelheid van een PC, want het test de HD er niet bij, geheugen niet, respons niet, en de combinatie lastig script ==> game (lees de test met 3DMark03 op een Pentium II + Radeon 9700).

Imho een programma wat een nummertje berekent, en wat plaatjes laat zien die misschien leuk zijn in de etalage.
Het test de waarschijnlijke prestaties van de videokaart in next-gen games. En logischerwijs word het next-gen stukje steeds minder na het uitkomen van de benchmark, zie 3DMark03.

Het feit dat de benchmark maar 1 api test doet daar weinig aan af. Niet alleen is Dirext3D verreweg de meest gebruikte API; OpenGL en Dirext3D zijn echt niet wezenlijk verschillend. Een driehoekje in OpenGL heeft evenals in Direct3D gewoon drie hoeken die gerenderd moeten worden.

Het programma berekend inderdaad een nummertje en het laat inderdaad wat leuke plaatjes zien. Het programma geeft tevens een idee van de prestaties van de videokaart! (uitspraak logischerwijs gebaseerd op ervaringen met 3DMark03).
Het feit dat de benchmark maar 1 api test doet daar weinig aan af. Niet alleen is Dirext3D verreweg de meest gebruikte API; OpenGL en Dirext3D zijn echt niet wezenlijk verschillend. Een driehoekje in OpenGL heeft evenals in Direct3D gewoon drie hoeken die gerenderd moeten worden.
Je hebt ergens wel gelijk, maar ik kwam mooi bedrogen uit toen ik een snellere graka ging kopen om mijn fps op te krikken in RtCW en ET, die beiden in OpenGL draaien. Ik heb toen Ati gekocht omdat die de vloer aanveegde met nVidia, maar ik heb constant gigantische framedrops, en dit dus omdat blijkbaar Ati zijn OpenGL-driver nu meer dan een jaar verwaarloost... Wat mij betreft mag OpenGL dus ook wel getest worden!
Je zou gelijk hebben dat Direct X hetzelfde is als Open GL als de performance van de verschillende merken ook hetzelfde zou zijn bij Direct X als Open GL.

Helaas is dat niet waar. ATI kaarten presteren gewoon slechter onder Open GL als NVidia kaarten die onder Direct X gelijkwaardig zijn.
Ja, en met dat nummertje gaan we dingen vergelijken. Best wel handig dus als je een cijfertje krijgt wat je kunt vergelijken maar dat dus niet afhankelijk is van speficieke hardware en software
Waar Doomhammer op doelt is het nut van het nummer wat eruit komt. Dat er een nummer uitkomt is leuk maar wat betekend dat nummer. Is een videokaart met een hogere waarde beter dan die met een lagere waarde?

Dat valt te bezien doordat slechts een gedeelte van de eigenschappen getest worden (geen Open GL) en de gebruikte test niet overeenkomt met de werkelijkheid (onnodig veel textures in gebruik)

Je zou het kunnen vergelijken (als je een beetje overdrijft :) ) met een vergelijking tussen auto's op basis van het aantal zitplaatsen en een sprint van 0 tot 100 met aangetrokken handrem. Komt inderdaad een ranglijst uit maar het zegt echt weinig over de kwaliteit en performance van de auto. Een Fiat Multipla kan beter zijn dan een Ferrari Enzo.
Een floating point benchmark is ook een benchmark, ook al test hij alleen de FPU van je PC. In de definitie van een benchmark staat niet dat het een allesomvattende test moet zijn, sterker nog er is praktisch geen enkele die dat wel is, en die paar die het wel pogen te zijn zijn of niet bruikbaar voor de consument of ronduit waardeloos.

OpenGL wordt inderdaad niet getest, het is dus een DirectX benchmark. Voor DirectX8 neem je 3Dmark 99, die is daar prima geschikt voor. Er is geen noodzaak om DirectX8 of lager mee te nemen in deze nieuwe benchmark, omdat daar al een prima benchmark voor is.

Deze bench is bedoeld om te kijken hoe een kaart het doet in de aankomende games. Die zijn geen directx8, het zou (dus) volslagen nutteloos zijn deze te testen.

Als laatste rolt er uit deze bench een getalletje wat je kunt vergelijken met anderen, of met je eigen resultaten met andere instellingen. Dat is de hele clou van een benchmark. Als je dat niet nuttig vind, zie ik niet in wat voor nut een benchmark dan volgens jou zou moeten hebben?

Als je oudere kaarten met de nieuwe wil vergelijken, kun je een eerdere versie 3DMark gebruiken. Dat daar bep. functies niet in zitten die de nieuwe generatie gebruiken, is niet relevant, immers je wilt kaarten eerlijk vergelijken dus met dezelfde instellingen.
Je zou bijna alleen om dit te kunnen draaien een nieuwe videokaart kopen, ik draai momenteel nog met een Radeon 9800pro en wil een generatie overslaan omdat deze kaart nog prima loopt.

maar hier valt je mond toch open, een plaatje zegt op zich niks maar toch.

de onderste zou maar zo een screenshot uit een film kunnen zijn, zo mooi is ie... :o
de onderste zou maar zo een screenshot uit een film kunnen zijn, zo mooi is ie...
Moet je dezelfde scene maar es door een radiosity renderer halen. Videokaarten blijven een "plastic" beeld vormen, omdat licht niet weerkaast op secundaire en volgende oppervlakken.
En nu in normaal nederlands. (ben wel benieuwd wat je bedoelt. Klinkt een beetje als de volgende stap voor videokaarten misschien )
Nou, hij bedoelt (denk ik) dat een videokaart alleen maar kijkt naar de hoek tussen een polygoon en de lichtbronnen, en de camera. (En nog wat dingetjes zoals bumpmapping en whatever).

Maar een videokaart kijkt NIET naar een lichtstraal die eerst een paar keer tussen een paar objecten heen-en-weer stuitert. Dan zou je bijvoorbeeld indirect licht krijgen, doordat de lichtbron eerst via de muur gaat, en dan pas de appel op je tafel belicht, in plaats van alleen de appel. Spiegels en zo zijn dan opeens ook mogelijk in hardware.

Wordt ook wel raytracing genoemd, dit. Kun je geinige dingen mee doen, maar voordat dit realtime kan in een videokaartje van <500 euro, zijn wel denk ik een ijstijd verder.
Een ijstijd verder? Valt wel mee, denk ik. Kijk maar eens op deze site of op deze, ziet er veelbelovend uit.
Het zal sowieso nog maar een paar jaar duren voordat grafische hardware gebaseerd op rasterisatietechnieken (wat nu de standaard is) ingehaald wordt door raytracing hardware. Met raytracing hoef je namelijk geen 'trucjes' uit te halen om fotorealistische beelden te genereren, aangezien raytracing al gebaseerd is op een fysiek correct model van de werkelijkheid.
Reken maar uit hoe lang je over het renderen van 1 zo'n plaatje doet. Heb je zoveel processorpower om dit te doen in 1/25e van een seconde dan heb je ook geen intelligent videokaart meer nodig en poept elke videokaart hetzelfde geweldige plaatje uit. Met cell/parallele processing en flink wat mhz hoger is dit best mogelijk lijkt mij binnen een tijdsbestek van een jaar of 10 :9~

Voordeel is dat je dan geen videokaart meer hoeft aan te schaffen. Weet niet wat nVidia en Ati dan goed in zullen zijn
Strax koop je naast een normale computer gewoon een 2e mega computer als grafische processorbak...??
De eerste regelt de interfacing met een game en de randapparatuur. De 2e berekent alleen maar welke plaatjes er getoond moeten worden.

@Campo:
Ik vindt die ge-raytracede plaatjes niet echt mooi.
@omixium:

Ze zijn inderdaad nog niet echt mooi, omdat dit allemaal nog in ontwikkeling is. Real-time raytracing was sowieso tot een paar jaar geleden toekomstmuziek. Je moet je ook voorstellen dat hier niet twee enorme GPU-fabrikanten achter zitten, die vele $$$ in de ontwikkeling ervan stoppen.
Het gaat om het principe dat raytracing veel dichter bij de werkelijkheid staat dan de technieken die nu de standaard vormen.
Ik vindt die ge-raytracede plaatjes niet echt mooi.
De resolutie is laag en de textures zijn duidelijk plaatjes, maar de lichteffecten zijn verbluffend en dat is waar het hier om gaat. Het is duidelijk te zien dat de QuakeIII engine niet voor raytracing geschreven is.

Je zou het QuakeIII filmpje eens moeten bekijken, de glas in loodramen, draaiende lampen en draaiende spiegel zijn verbluffend realistisch in vergelijking met wat ik tot nu toe gezien heb.
Kort door de bocht betekent het dus dat als je een gele appel op een groene tafel legt, met op een willekeurige plek in de ruimte een lichtbron, dat niet alleen de *hele* kamer verlicht wordt, maar dat het gele van de appel terug te zien is op het tafeloppervlak.

Passief licht wordt het ook wel genoemd. Raytracing dus, Simpelweg de lichtstralen programmatisch volgen terwijl je de normale natuurkunde-wetten in acht neemt, ipv arbitraire berekeningen.
En ik zie nog behoorlijk duidelijk knooppunten met rechte lijnen zo hier en daar.
Zo fantastisch is het ook al weer niet.
Raytracing heeft niets te maken met rechte lijnen of anti-alias etc. Raytracing is enkel een techniek om uit te rekenen welke kleur een bepaalde pixel moet hebben. En daarbij word rekening gehouden met de hoek van inval, afstand tot de lichtbronnen en weerspiegeling.
_Thanatos_ wrote: Moet je dezelfde scene maar es door een radiosity renderer halen

En nu zullen jullie misschien versteld staan maar er zijn (jawel) ondertussen HARDWARE raytracers in ontwikkeling (het zijn nog PCI kaartjes, maar meer bandbreedte hebben ze op dit moment ook nog niet nodig) die al heel behoorlijke kwaliteit realtime graphics renderen voor een fractie van de processor kracht die een gemiddelde polygon->raster renderer heeft (iaw de 'gewone' grafische kaartjes). Stel je voor... videokaarten die de zelfde kwaliteit beeld kunnen vormen als de huidige voor een fractie van de productiekosten... en geen joekels van fans/koellichamen in je PC. Maar helaas zijn de twee technieken totaal niet compatible. Met de huidige kaartjes kan je (bijna) onmogelijk raytracen omdat de processor daar helemaal niet voor is gebouwd.

Links volgen (ff googelen)

Link 1:Saarcor
deeplink naar prototype hardware plaatje

<achtergrondverhaaltje waarom raytracen zo "uber" is...>
Een groot voordeel van raytracen: "Hoeveel polygonen? Geef mij er een paar ***jard en m'n framerate gaat nog niet omlaag..." Waarom? Er wordt hier berekend hoe de lichtstralen lopen vanuit ieder rasterpunt (keer je wereld om: volg een lichtstraal niet waar hij begint, maar waar hij eindigt en volg het spoor terug)
Hoe het bij de huidige kaarten gaat? Bereken van -ieder- poligon wat het resultaat op je raster is. Bij raytracing blijft voor ieder plaatje het aantal te berekenen lichtstralen gelijk terwijl bij normale polygon->raster redering van ieder polygon het effect op het raster berekend moet worden...
@jiriw:
Een groot voordeel van raytracen: "Hoeveel polygonen? Geef mij er een paar ***jard en m'n framerate gaat nog niet omlaag..." Waarom? Er wordt hier berekend hoe de lichtstralen lopen vanuit ieder rasterpunt (keer je wereld om: volg een lichtstraal niet waar hij begint, maar waar hij eindigt en volg het spoor terug)
Kleine kanttekening: je moet er wel rekening mee houden dat objecten getest moet worden op ray-triangle intersectie. Slimme datastructuren moeten ervoor zorgen dat deze tests geminimaliseerd worden (dus alleen wanneer een lichtstraal heel dicht in de buurt van een object komt). De complexiteit van raytracing is O(log n), terwijl rasterisatietechnieken een complexiteit O(n) hebben.
Maar ja... om voor een 'benchmark' een videokaart te kopen???? |:(
Je koopt de kaart ook niet voor de benchmark,
je koopt de kaart omdat hij het goed in benchmarks doet.
Dat zou in principe een aardige richtlijn moeten zijn hoe die kaart in games gaat presteren.
Dus in feite wat jij zegt is dat je hem weldegelijk voor de benchmark koopt.
je koopt de kaart omdat hij het goed in benchmarks doet
Dit betekent niks anders dan dat je hem voor de becnhamrks koopt terwijl het in gam gevoel juist zo belangrijk is., Ik heb iets van 4 jaar met een gforce ddr gedaan, in de tests was hij niks maar het merendeel van de spellen draaide erg soepel hoor. dit soort benchmarks zijn leuk maar zeggen helaasd eigenlijk niks over het ingame gebeuren. Al is het alleen al omdat de verschillende games verschillende engines en dus verschillende technieken gebruiken.
Voor @r!k:

Er worden ook regelmatig game benchmarks gehouden. Je baseert je altijd op een benchmark bij het aankopen van een kaart, bewust en/of onbewust. Als er games gespeeld en getest worden op verschillende videokaarten zijn dit ook benchmarks.

Dergelijke benchmarks dienen btw de kracht te meten van de videokaarten voor toekomstige games. Het heeft niet veel nut een benchmark uit te brengen met technieken die games al lang gebruiken en dus al zwaar beproefd worden imho.

Een benchmark moet gewoon het onderste uit de kan halen op 3D gebied en dan nog liefst door de allerlaarste (verbeterde) technieken te ondersteunen.
Je baseert je altijd op een benchmark bij het aankopen van een kaart, bewust en/of onbewust.
Ik kijk alleen maar of de doos groot of mooi is. Hoe moet ik anders indruk maken op mijn vriendjes?
Zou een benchmark alleen gebruiken om de verschillende tussen kaarten en mb te kunnen testen,,,,,

Je gevoel is nogal onbetrouwbare graadmeter...
Vette screenies gewoon, kheb ze ff snel geript van een site en ff onder mekaar gezet als linkjes, of alle plaatjes zelf ondermekaar

linkjuhss

veel kijk plezier :D
Mooi, maar sommige doen het niet...

Bestand of map niet gevonden van bijv:
http://members.home.nl/t.los/Screenies/Canyon%20Flight%201.jpg

En deze serie geeft bij mij lege schermen:
http://members.home.nl/t.los/Screenies/Firefly%20Forest%201.jpg

Maar verder wel hele mooie plaatjes...
Bij mij werken bijna alle plaatjes op een paar na. Namelijk:

Canyon Flight 1.jpg
Canyon Flight 10.jpg
Canyon Flight 11.jpg
Batch Size Test.gif

Ziet er zeer goed uit! Ben benieuwd naar het uiteindelijke resultaat!
Wanneer de benchmark officieel uitgebracht zal worden door Futuremark is nog onbekend, maar de screenshots laten in ieder geval al zien dat een stevige videokaart geen overbodige luxe zal zijn voor een soepele framerate.
Een soepele framerate heeft 0% belang hier. Het is een benchmark, geen game en dat vergeten veel mensen. Bij een game is de performance niet relevant als je bijvoorbeeld maar 15fps trekt. Bij een benchmark is dat wel zo. Bij 15fps kun je nog perfect een score aan je systeem geven.

Soepele framates zul je toch niet zien btw, misschien in de eerste test (die is vaak het lichtste). Maar in de andere tests verwacht ik dat je met een x800 of 6800serie videocard 20fps trekt. Het is puur om de kracht van je systeem te meten. Dat kan ook bij hele lage framerates.
Niet helemaal. Wat je wilt testen is de perfomance van de videokaart voor een bepaald type applicaties (next-gen games to be exact). Dit betekend automatisch een test met grenzen aan de complexiteit en vloeiende frameraties op next gen hardware. De huidige hardware zal het idd waarschijnlijk niet echt vloeiend kunnen weergeven.
Met next-gen hardware kan je waarschijnlijk wel redelijke framerates halen (niet eens zeker). Maar eer dat games dit niveau gaan evenaren, zijn we werkelijk weer een paar jaar verder. Complexiteit maakt in de benchmark niet uit. Het is in principe een theoretische render. Onderdelen zitten er onnodig veel in (veel textures, veel polygonen, bumbmapping enz).

Bij game engines gaat het om een zo mooi mogelijk enige met zo min mogelijk load op je hardware. Bij benchmark is de framerate niet van belang.
Wat zijn de minimale eisen hiervan. :? Gaat het ook nog op een GeForce 4 Ti draaien ?
Ik denk van wel, want de fps score kan tot achter de komma weergegeven worden. 1 haal je niet, maar bijv. 0,7 fps moet mogelijk zijn. :)
de minimale eisen zijn deze keer een dx9 kaart, geen geforce 4 meer
jammer dat ik zo'n brakke PC en videokaart heb aangezien ik zo'n 1000 3dmarks in 2002 ofzo had dus maar.

Maar welke Beta lekt er nou niet uit. Van alles waar een beta van is komt altijd in de verkeerde handen en dan is er weer een beta uit.
Uhm bedoel je 2001 of 2003 ?
als je het echt in 2002 hebt gehaalt wil ik jouw systeem hebben want die test bestaat helemaal niet :P
(no flame intended)
Is de beta ook nog uitgelekt naar andere sites of p2p netwerken. Of heeft D-Cross.com hem voor zichzelf gehouden?
Zoals Wunderbar ook zegt, waarom toch zo snel upgraden....Ik heb al lang een sapphire 9700 pro en die bolt alles perfect...(in combinatie met PIV 3200/1024 mb ram/..)

Zelfs DOOM III bolt op ultra high zonder al te veel framedrops....Met de tweakings loopt ie ontzettend vlot..... Waarom nou upgraden dan? De gekte is weer toegeslaan blijkbaar...Daar laat ik me niet meer aan vangen

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True