Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 121 reacties
Bron: Beyond 3D, submitter: Thomas H

Op dit moment zijn er nog maar weinig spellen die de volledige functionaliteit van DirectX 9.0 gebruiken. Het recentelijk uitgebrachte spel "Tomb Raider: Angel of Darkness" is zo een spel. Reden genoeg dus voor Beyond 3D om dit spel als benchmark te gebruiken bij het testen van grafische kaarten. Gewapend met een 3GHz Pentium 4, een Intel D865GBF moederbord en 2x512MB aan DDR400-geheugen worden vier verschillende ATi en vier verschillende nVidia grafische kaarten eens flink aan de tand gevoeld. De resultaten van de benchmark zijn echter schokkend, want de Radeon-kaarten weten de meeste benchmarks met een flinke voorsprong op de GeForce FX-kaarten te winnen, als er van alle mogelijke effecten gebruik wordt gemaakt.

De verklaring is volgens Beyond 3D te vinden in versie 2.0 van de pixel shaders waarvan de benchmark veelvuldig gebruik maakt. De ATi-kaarten hebben voor elke pipeline een pixel shader, net zoals de nVidia-kaarten. Het verschil tussen de pixel shaders is echter dat die van de GeForce FX ook nog de adressen van textures moeten berekenen, waardoor ze in sommige situatie niet al hun tijd kunnen besteden aan pixel shader-berekeningen.

Als er echter gebruik wordt gemaakt van de standaard instellingen in Tomb Raider, dan liggen de behaalde scores een stuk dichter bij elkaar. Hier moet echter wel bij worden opgemerkt dat er bij de Radeon-kaarten een aantal extra effecten standaard aan staan. Het is trouwens niet duidelijk of de slechte resultaten van de GeForce FX aan de drivers liggen of aan de architectuur van de GPU zelf. Daarnaast is er hier maar met een spel getest. Of de GeForce FX hetzelfde gedrag vertoond in andere spellen is niet bekend, hoewel Beyond 3D wel aangeeft dat de pixel shader performance van de GeForce FX ook in synthetische benchmarks erg tegenvalt. Het is dus wachten op benchmarks van andere spellen die ook veelvuldig gebruik maken van alle DirectX 9.0-mogelijkheden.

Tomb Raider DirectX 9.0 benchmark resulaten
X-as is de resolutie, die oploopt van 640x480 tot 1600x1200

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (121)

Eindelijk een spel wat eens kan laten zien wat je met DX9 kan doen... En zo te zien moet nVidia nog heel wat bijschaven aan z'n drivers. Wel jammer dat er geen screenshots van de verschillende instellingen bij dit artikel staan, ik zou best wel eens het verschil in beeldkwaliteit willen zien tussen ATi en nVidia bij de default settings (waar de performance niet zo zwaar uiteen loopt tussen alle kaarten). Aangezien ATi default veel meer effecten aan heeft zou het er veel mooier moeten uitzien, dan weet je veel beter waar je je geld aan uit gaat geven.
En zo te zien moet nVidia nog heel wat bijschaven aan z'n drivers.
En dit kan wel eens een probleem zijn. Door de laatste drivers hebben de nvidia GeforceFX series een behoorlijk speedboost gekregen. Ik begin mij eigenlijk af te vragen of dit nog meer kan worden.

Het ziet er naar uit dat de FX architectuur wel eens de bottleneck kan zijn. Ik begin meer het vermoeden te krijgen dat nvidia de ontwikkeling van de kaarten gepushed heeft om te kunnen concureren met de Radeon 9xxx serie. En door deze push is het dus mogelijk dat de GPU niet geheel "af" is. En dit probleem kun je dus niet oplossen d.m.v. drivers.

In het verleden hebben wij dit ook gezien met de S3 Savage 2000 chipset. De GPU was niet af waardoor de S3 T&L unit niet goed werkte (gfx corruptions bij gebruik van T&L) en dit was ook de reden waarom hij in eerste instantie uitgeschakeld was. Wellicht is dit terug te vinden in het shader design/gebruik van de GPU.
Dat gevoel heb ik ook een beetje.

Maar eerlijk gezegd konden ze ook niet anders. De Radeon 9700 is een geweldige kaart en blaast de Ti4600 van tafel. Dus wat doe je dan, je kunt wachten totdat je een goed produkt hebt, of je kunt het model dat ontwikkeld wordt wat eerder op de markt gooien in de hoop dat het goed gaat.
Ik denk dat nVidia verkeerd gegokt heeft.

ATi zat daarvoor in dezelfde situatie. De 8500 kon ook niet op tegen de succesvolle GF4 reeks (met name de Ti4200 was en is nog steed een geweldige kaart met een prima prijs/prestatie verhouding), ook ATi had de 9000 serie de deur uit kunnen pushen. Ze hebben zich niet gek laten maken en gewoon gewacht totdat deze serie er rijp voor was..... en daar plukken ze nu de vruchten van.

Daarbij lijkt het er voorlopig niet op dat ATi de koppositie af gaat geven.
Kortom, nVidia heeft een hoop schade in te halen. Ook al die negative publiciteit (cheaten, verliezen van ATi) helpt daar niet echt bij.

Ik ben benieuwd.....
Er valt vrijwel niks bij te schaven aan de drivers. Het is nu zo langzamerhand toch wel duidelijk geworden dat verreweg de meeste prestatie winst in nieuwe drivers gewoon bullshit was. Dat waren benchmark optimalisaties die bij slechts bij een enkel spel, bij een enkele specifieke situatie tot uiting kwamen. Puur bedoeld om benchmarks mee te kleuren, maar niet voor prestatie winst wanneer je het daadwerkelijk spel speelt. (De complete cheats nog even buiten beschouwing gelaten)

De daadwerkelijke driver optimalisaties beperken zich tot een paar procent. En dat is natuurlijk niet raar. Je moet als programmeur er wel een ongelooflijke puinhoop van hebben gemaakt, wanneer je achteraf in de code van een driver nog zoveel kan optimaliseren. NB: Drivers zijn redelijk straightforward vertaling van generieke instructies naar specifieke GPU instructies.
Drivers? Tja nVidia driver team staat berucht om hun performance optimizing en effectief cheaten..
Maar hardware flawes kun je niet zomaar kompenseren door optimizen je mist gewoon die kracht.

De snelste code is die niet wordt uitgevoerd.
in default feature mode van het spel is er nogal wat uitgeschakeld zodat de FX mee kunnen lopen met ATI alleen blijft er van dX9 features nagenoeg weinig van over vooral voor de budged kaarten die 5200 zou volgens default instellingen dX9 niet gebruiken ivm d eperformance hit. het moet namelijk speelbare blijfen fps halen..

De FX heeft een krachtige DX8 implementatie of de rauwe power daarvoor, maar in DX9 power is de Implementatie daarvan niet zo efficient als die van ATI.

Als nou die nVidia driver bakkers ene driver voor aTI gingen bakken zou het verschil nog groter kunnen worden.


Wat ik mij ook afvraag is hoe de beeld kwaliteiten verschileen tussen al die feature mogelijkheden er uit zien.
Ben benieuwd of er binnenkort weer drivers zullen uitkomen die "optimalisaties" voor deze game zullen hebben en dan "lijkt" het weer alsof de GF5900Ultra sneller is dan de 9800Pro.
Dat is volgens mij ook het verschil tussen Nvidia en Ati: Nvidia heeft een heel team die zich wijdt aan "optimalisaties" van games en Ati steekt zijn energie in de architectuur van een videokaart...
Wat het artikel al opmerkt is dat de "standaard" instellingen voor de game een vergelijkbare performance voor de twee kaarten geeft. De Nvidia settings zijn echter beduidend lager dan die voor de ATI kaartjes. Alhoewel Core dit waarschijnlijk met de beste bedoelingen heeft ingebouwd is het dus niet eerlijk om te benchen op basis van de "standaard" settings.

Door deze grote performance verschillen zullen toekomstige games waarschijnlijk ook een dergelijke tactiek hanteren. Benchen op basis van de "standaard" settings geeft dan een verkeerd beeld van gelijkwaardigheid. Ik hoop niet dat het Nvidia kamp zulke vertekende beelden gebruikt als verdediging: het gaat wel net zo snel, maar ziet er toch een stuk minder mooi uit.
D'r zijn meer games die de hardware testen en dan de meest gangbare playable instelling kies voor die betreffende game rig. dus zeg maar target is minimaal 15fps en 30fps gemiddeld voor gameplay.

De kaart die dat in highmode niet haald krijgt dus een lichtere mode midium of low en in dit geval is dat de FX reeks.
Met alle respect, dit hangt totaal af van wat voor games je doet.

voorbeeld. Nascar 2003, een upgrade van asus v7700 naar radeon 9500 ging ik er op achteruit in fps!!

Feit blijft dat je aan benchmarks niks hebt, of iig niet veel. Bij de een zal die kaart het beter doen bij de andere game weer een andere. Ook al is een ati 'sneller'. Dat is nog eens relatief ook.
Dat hangt ook af of je van een oude midrange of high-end kaart naar ene budged nieuwe kaart overstapt zul je niet veel merken.

9500 NON PRO is nieuwe tech maar budged, zijn rauwe DX9 & DX8.1 performance vallen dus vies tegen net als bij de 5200

Laat je daar 'n dX8 dx7 game op los vergeleken met vorige mid/high-end kaartjes dan kunnen die oude beestjes wel goed presteren omdat die voor DX8 & 7 wel grotere rauwere performance hebben.

Ik zou zeker niet lager dan 'n 9500 Pro FX5600 9600PRO gaan.

maar ja je koopt het niet voor die oude games eerder voor nieuwe DX9 games

De high-end kaarten met dX9 ontsteigen de vorige high-end DX8.1 kaarten op rauwe dx8,1 performance.
Dat is 'n rake klap voor Nvidia zeg. De Radeons doen het echt dik beter tot ongeveer 2 keer zo'n hoge score. Valt me erg tegen. Maar ATI staat er bekend om dat ze op dit moment beter Anistropic filtering hebben. Dat scheelt misschien ook deels.
In de review van Beyond3D hebben ze gekeken in hoeverre zaken als anisotrope filtering een rol speelde, door ook zonder te testen. Het effect is niet significant.

De prestaties bleken voor verreweg het grootste gedeelte door de pixelshaders te worden bepaald. Daarom ook dat het verschil zo enorm groot is.
Je draaid hier de zaken wel om hè.

Je gaat in eerste instantie uit van de performance met alles uit. Maar in het stukje wordt al aangegeven dat bij de ATi standaard zaken aan staan die bij de nVidia niet aan staan en dan nog is de performance redelijk gelijk. Nu gaan we de gadgets aan zetten en wat blijkt. In ieder geval bij deze benchmark ( OK een game, whats in a name ) dat de ATi hier met een enorm verschil de benchmarks wint.

Nou ben ik absoluut geen nVidia fan, maar ik denk dat hier drivers toch wel een hele grote rol spelen. Ati scoort 2 keer zo hoog en dat lijkt me redelijk sterk. En het kan natuurlijk ook in de opbouw van het spel zelf zitten. Er moeten gewoon meer van dit soort vergelijkingen gemaakt worden voor je conclusies kunt trekken.
Je gaat in eerste instantie uit van de performance met alles uit.
Ja, natuurlijk :?

Iedereen koopt zeker een dure grafische kaart van 450+ Euro om alles in low-res en low-detail te spelen? Je koopt zo'n kaart juist om met alle eye-candy aan en in hoge resoluties te kunnen spelen.
Ati scoort 2 keer zo hoog en dat lijkt me redelijk sterk
Het is anders algemeen bekend dat de PixelShader v2.0 implementatie bij de Geforce FX behoorlijk brak is, dus de resultaten verbazen mij eigenlijk helemaal niet zo...
Ja, want als je test eerst zonder eyecandy kun je goed de basis bepalen wát de specifieke verschillen zijn.

Natuurlijk kun je wel standaard met alles aan testen zonder rekening te houden of die instellingen ook visueel effect hebben of praktisch gebruikt worden - maar dat is wel heel erg beperkt en alleen voor de doelgroep die een kaart koopt 'omdat hij het snelst is met alle opties ingeschakeld ook al hebben ze geen nut - maar ik heb geld teveel en ik moet patsen - ook al is er nog geen programma wat die functies gebruikt - zolang er maar een blufkaart inzit'. Maar dan houd je geen rekening met het grotere publiek/markt die mogelijk interesse in een nieuwe kaart hebben met hele andere eissen.

Een goede reviewer, reviewt voor een breed publiek - en al zeker voor een site die inkomsten heeft uit page-views ivm banners/reclame op de site of omdat ze zelf producten verkopen..
Ik denk eerlijk gezecht dat we beter nog even kunnen wachten op een wat beter geprogrameerde benchmark, als je de reviews leest van dat spel is het echt te buggie voor woorden, en dat heeft natuurlijk niet alleen maar invloed op de engine en gameplay, maar netzo goed op de grafische representatie, ik snap niet helemaal waarom ze een spel met zoveel graphical glitches gebruiken voor een benchmark.

voor een benchmark is het belangrijk dat je goeie code draait lijkt me
En rake klap? heeft iemand hier al het spel gespeeld ??
Voor een game dat volledig DX9 is is het echt droevig
Het programmer werk is buggy (bijv. hele slechte collision detection) De grachics zijn achterhaald en het bestuuring is gewoon om te huilen

Dit is denk ik toch echt het slechtste game ooit is om welke benchmark dan ook te testen

Elke review die ik ook tegen kom krijgt het game niet meer als 55 punten(van de 100)

Hadden ze het echt willen testen hadden ze unreal 2 of aquanox 2 moeten gebruiken niet een half afgewerkte game
Dit is totaal geen goed beeld van de prestatie van nvidia
En dont get me wrong ben nu een trotse bezitter van een Radeon 9800 pro 256 mb :)

Het enige wat dit hele test laat zien is dat ati zelfs met een bagger spel nog om weet te gaan
Wat betekent dat ze duidelijk hun drivers goed hebben gedaan deze keer
Op dit moment zijn er nog maar weinig spellen die de volledige functionaliteit van DirectX 9.0 gebruiken. Het recentelijk uitgebrachte spel "Tomb Raider: Angel of Darkness" is zo een spel.
Daarom ;) Het zijn nog wel de eerste 2 regels...
En welke games zijn er dan uit die dat wel allemaal goed doen?

Welk spel heeft zulke mooie reflecties, zoals in de waterplassen op de kaseien in Parijs?

Ik kijk wellicht wat meer naar zaken die tot nu toe niet gedaan werden en nu wel.

Tuurlijk kan het altijd nog weer beter. Vandaar dat we straks ook DX10 krijgen en R500 GPUs etc.
Maar op dit moment zijn die graphics achterhaald zoals jij beweert.

Wat betreft schaduwen. Op de site van Unreal2 zie je diezelfde problemen ook in hun screenshots.

En wat betreft Aquanox2. Ik heb dat spel niet, maar in de stapels screenshots is er niet één waarin dat soort schaduwen voorkomen, laat staan dat je kan constateren of zij het wel perfect afhandelen.
Op dat punt is het door de omgeving waarin je je bevindt ook veel makkelijker voor de programmeurs (en dus de hardware) dan bij TRAOD en Unreal2.

Aquanox ziet er heel mooi uit, maar is IMO nou niet bepaald een showcase wat je met DX9 kan bereiken. Het ziet er naar mijn mening meer uit als een DX8 game met veel details.
Nergens denk ik van: Wow, dat kon tot nu toe niet, dat is mooi zeg. Of wow daar zie je PS in actie.
Daarom ben ik maar eens naar de systeemeisen gaan kijken, en daar staat DX8. Waar haal jij vandaan dat Aquanox2 DX9 volledig gebruikt?

En bij Unreal2 staat dat het DX8.1 is. (Bewijst wel dat je met PS1.4 al hele mooi dingen kan doen)
even een quote van mezelf
Hadden ze het echt willen testen hadden ze unreal 2 of aquanox 2 moeten gebruiken niet een half afgewerkte game
Beide games gebruiken DX9 volledig maar kwa grachics moet ik toch zeggen dat de Krass engine van aquanox 2 bij veruit het mooiste is wat mijn kaart tot nu toe heeft kunnen renderen

En voor mjtdevries dude dat jij geen hoge standaard heb kwa games wil niet zeggen dat je dat niet nodig heb in een benchmark
Leuke voorbeeld volgende keer dat je het game speelt let maar op het paardestaart en kijk wat er gebeurt (slechte collision detection)

Dat zijn namelijk kleine punten in een game wat nogal wat rekenkracht nodig heeft dus als je dat weg laat mis je misschien net een deel wat bij de ene kaart extra goed werkt en bij de ander wat slechter waardoor uiteindelijke prestaties naar elkaar toe getrokken kunnen worden
Maar omdat dit ontbreekt heb je een zeer slechte vergelijken met toekomstige games die wel volop gebruik maken van dergelijke technieken

En verder let maar bijv. op schaduwen die niet overlopen op ander objecten bijvoorbeeld een schaduw die op een muur verschijnt maar niet op een deur in dat zelfde muur
Graphics achterhaald? Heb je het spel uberhaupt al wel gedraaid op jouw machine?
Welk spel dat op dit moment op de markt is vind jij dan zoveel betere graphics hebben?

Ik heb het spel en de graphics zijn erg goed. Mooie schaduwen, prachtige reflecties op de natte straten in Parijs etc.

Die slechte collision detection heb ik nog erg weinig van gemerkt.

De besturing is op een aantal punten inderdaad slecht, en bepaalde zaken missen domweg in het manual. Dat is een slechte zaak voor het spel als geheel en levert ze slechte reviews op. Maar dat heeft helemaal niets te maken met de DX9 prestaties.

Vandaar dat je het dus wel degelijk kunt gebruiken als DX9 benchmark.
ik denk dat nvidia zich erg sterk moet maken en even geen gare FX dingen uitbrengen maar volwaardige kaarten die een beetje kunnen opboksen tegen de furie van Ati...
Want geef toe, dit lijkt toch nergens op? :r

Nvidia heeft nu een achterstand maar ik weet zeker dat ze de capaciteiten hebben om deze weer in te halen. Ze hebben wel een goede achterstand ontwikkeld (denkik) door een fikse tijd aan de XBoX gpu te verspillen (CMIIW)
Ze hebben wel een goede achterstand ontwikkeld (denkik) door een fikse tijd aan de XBoX gpu te verspillen (CMIIW)
Daarom dat ze die deal met Microsoft voor Xbox2 maar al te graag naar ATI zagen gaan ;)
De X-Box GPU was een aangepast Geforce3 ... Men heeft er 400 miljoen $ van gekregen van MS, om deze te ontwikkelen. Denk dat juist de X-BOX gpu geeft meegeholpen aan de ontwikkeling speed. Alsook, zonder de X-Box 1 geld dat ze verdienen, zouden ze nu een verlies draaien, dacht dat de X-Box1 effentjes 60 of 80miljoen $ hun opbracht per quartaal ...

Ze waren mechien geen goede vrienden met MS, maar ze aanvaarde de miljoenen dollars met plezier ... Je mag ze zeker van zijn dat Nvidia niet zo blij is dat ATI gaat lopen met de X-Box 2 GPU. Dit is automatis al gratis reclame, plus dat MS nog eens een hoop geld op tafel left voor de ontwikkeling van de GPU, waarvan men dan dezelfde nieuwe technieken kan hergebruiken op hun eigen mainstreem GPU markt ( PC's & laptops ).
Die Xbox hebben ze echt niet zoveel tijd voor nodig gehad. Gewoon een kleine wijziging op de GPU die ze al hadden.
Nvidia heeft er wel een chipset voor ontworpen, maar je hebt gelijk aan de gpu kan ik me niet voorstellen dat ze veel tijd hebben besteed.
dat moet geen probleem zijn; ze hebben bakken met geld verdient (en doen dat nog steeds) met de xbox gpu, dat geld hadden ze bijvoorbeeld kunnen gebruiken om die achterstand NIET op te lopen
ik snap niet wat iedereen nou loopt te mieren dat de 5900 met niewe drivers wel weer sneller zal zijn dat de radeon's, volgens mij kunnen de Nvidia kaarten gewoon niet meekomen met die van ati! Ik heb al genoeg real-life benches gezien en in allemaal, zodra alles aan word gezet zijn de ati kaarten gewoon sneller, en ik denk niet dat Nvidia dat kan oplossen met niewe drivers. Want als ze al zulke brakke drivers maken dat ze niet eens in de buurt komen met de ati kaarten, dan kna het met de hele FX gpu denk ik wel eens behoorlijk verkeerd zijn gegaan.

het maakt mij niet uit wie de snelste is, maar het is wel duidelijk wie dat op dit moment is! en al dat gezeur dat dat komt door de xbox vind ik ook gelul want ze hebben echt wel meerderde ontwerpers!

@jeroen9: Waarom denk jij dat de Nvidia kaarten het beter doen in doom 3 dan de ati kaarten? als je het mij vraagt worden de ati's daar ook gewoon een stuk sneller in omdat daar juist er veel shaders in worden gebruikt! bij hl2 valt het nog wel mee, maar doom3 pushed je kaart echt tot het uiterste dus dan denk ik dat de ati's toch beter zullen presteren doordat die shaders een stuk sneller zijn.

p.s. Ik las laats een interview met de makers van hl2 en die zeiden dat je met een p4 2Ghz + radeon 9700pro met alle details op hoog +/- 40fps zal halen, dan vraag k me af hoe dat me de fx kaarten gaat worden :S
Wie zal het ooit zeggen , maar wat wel duidelijk is , is dat het verleden al vaak heeft aangetoond , dat je van nvidia wel kan verwachten , dat een nieuwe driver plots wel wonderen doet. Misschien toch ook even vermelden. Sinds mijn fx5900u hier in zit , overclocked , en alle beta drivers te hebben uitgetest , is mijn pc nog geen 1 keer blijven hangen. Is ook wel belangrijk , kan ik niet zeggen van mijn eigen radeon9000, en van de radeon9700pro van een collega op het werk. Het hoeft niet bij iedereen zo te zijn, maar ik hoor weinigen klagen over de stabiliteit van de nieuwe fx series. En is er een game wat niet goed werkt 2 weken erna leaked er weeral een nieuwe bèta driver. DE reden waarom ik nu van ati naar nvidia gegaan ben , was , omdat ik zeker was dat mijn overclockte amd stabiel liep , en toch regelmatig eens vastliep met die ati , en vastlopers vind ik echt onaanvaardbaar !

Hiermee boor ik ati niet de grond in , maar het is gewon mijn reden geweest tot het terugkeren naar nvidia. Ze doen het inderdaad qua performance niet slecht , dat moet men eerlijk kunnen toegeven.
idd... niks aan het handje met nvidia hoor.. ook niet met ati.... als het maar werkt.....

Als de ene kaart sneller is dan de ander... betekend niet dat de ander een slecht ding is.. of dat de fabrikant het niet goed heeft gedaan.

Jullie vergeten echt dat "rake klappen", "Ati pimped Nvidia" en "Hopelijk gaan ze nu eens tenminste echt nadenken en eens afgaan op wat de consument ECHT wilt"............ toch termen zijn die eerder in het tweakers.net wereldje voorkomen dan elders....

tweakers wereldje is niet zo groot..... en de gemiddelde consument denkt niet zo hard na...
ik vind niet dat we daar onder vallen
Driverprobleem voor een spel waaraan Nvidia engineers hun medewerking hebben verleent, en wat dus al 3 tot 4 maand bekend moet zijn bij Nvidia?

Waarom denk jij dat de results niet kloppen? Wat zijn je aanwijzingen daarvoor?

Terwijl er wel aanwijzingen zijn dat de results wel kloppen. Ettelijke synthetische benchmarks hebben namelijk al dezelfde schokkende cijfers laten zien.
Benchmarks die bv de performance van een enkele functie testen, en dat voor een hele lading functies.
Daar is de invloed van drivers nihil. De kans op bugs in ELK van die aparte functies uitgesloten.

Deze performance is alleen een bevestiging van wat je al lang zagen.

Ik zie dus veel meer indicaties dat deze results wel kloppen dan dat ze niet kloppen.

De enige reden om te geloven dat de cijfers niet kloppen, is volgens mij dat zo'n groot bedrijf nooit zo onverwacht in zo'n diepe shit is terecht gekomen.

Begrijp me niet verkeerd, ik hoop niet eens dat het echt zo erg is, want ATI heeft ook een stok achter de deur nodig om innovatief te blijven.
Je ziet nu al dat na de geweldige R300 GPU en het gebrek aan concurrentie van Nvidia de snelheids ontwikkeling bij ATI wat langzamer lijkt te gaan.
De R350 is eigenlijk toch maar een magere verbetering tov de R300.
Ahem...
Als de ATI 120 fps haalde en de NVidia 60 fps dan was er niks aan het handje nee.

Maar met de Nvidia kan je met hun peperdure topmodel niet eens 30 fps halen op een normale resolutie. Je moet terug naar 800*600.

Dan kan je toch werkelijk niet meer beweren dat er niks aan het handje is????

Als dan ook nog blijkt dat een 9600 Pro sneller is, dan wordt het wel heel pijnlijk.

Ik kan me niet voorstellen dat mensen die een FX hebben en TRAOD willen spelen het me je eens zijn dat er niks aan het handje is. Die mensen moeten zich toch vreselijk bekocht voelen?

Het gaat hier niet om een benchmark die toch niemand speelt. Het gaat hier over de daadwerkelijke prestaties in het spel!
mjtdevries, je zegt het zelf al.. De results kloppen gewoon niet.. Het kan niet zo zijn dat deze game compleet onspeelbaar is op Nvidia kaarten (zelfs met 5900Ultra).. Het moet een driver probleem zijn, anders zit Nvidia echt in diepe shit.. Want elke nu uitkomende DX9 game zou dan onspeelbaar zijn.. Geloof je het zelf? Ik niet.. Driverprobleem voor deze game dus..
Hahaaahaaahaaahahaha, we zitten op tweakers.net en met een performance-verschil van meer dan 50% in videokaarten van over de 400 Euro en de reactie is "geeft niet, als het maar werkt"? Heeel apart!
Van Nvidia kan je verwachten dat elke driver die wonderen doet, dat bereikt door te cheaten. (Bij ATI trouwens net zo, aangezien drivers nooit wonderen kunnen verrrichten. Je kan hoogstens een performance bug in een enkele game fixen)

Van ALLE drivers van de afgelopen jaren die grote verbeteringen gaven is inmiddels al gebleken dat het gewoon kwam door cheats.
ALS je hetzelfde ziet.

Maar het punt is juist dat dat in spellen niet gebeurd. OF je ziet niet hetzelfde, of de framerate is veel lager.

(In de meeste van die drivers die wonderen deden waren het namelijk alleen de benchmarks die sneller werden en niet de spellen)
Kijk maar eens naar de TRAOD screenshots op het Beyond3D forum.

Er zijn inderdaad shots waarbij Nvidia en ATI er precies hetzelfde uitzien.
Met één klein verschil: het framerate countertje ziet er wel anders uit. Namelijk bij NVidia minder dan de helft van de frames bij ATI.
mjtdevries, sinds wanneer is je drivers optimaliseren voor games waarvoor ze bedoeld zijn 'cheaten'??

Sorry hoor, maar jouw stelling over optimalisaties in games die heel normaal zijn slaat nergens op.. Ik denk niet dat jij de persoon bent die uitmaakt wat een optimalisatie, bug fix, of cheat is..

Maargoed, ik weet dat het een populair item is bij ATi fanboys om alles wat Nvidia doet in hun drivers om de boel te verbeteren als cheat te zien, zelfs in games.. Maar het zal verder allemaal wel, ik ga me niet in dit soort nutteloze discussies mengen verder..
Bij Nvidia fanboys is het heel normaal om iemand die zijn gezond verstand gebruikt een ATI fanboy te noemen.

Ik behandel ATI en Nvidia precies gelijk, wat al blijkt uit mijn eerste opmerking:
Van Nvidia kan je verwachten dat elke driver die wonderen doet, dat bereikt door te cheaten. (Bij ATI trouwens net zo, aangezien drivers nooit wonderen kunnen verrrichten. Je kan hoogstens een performance bug in een enkele game fixen)
Geen van beide hebben ooit wonder drivers gemaakt. Zodra iets meer dan 10% snelheidswinst gaf bleek het achteraf een cheat te zijn.

Ik daag je uit een driver uit het verleden te vinden die 50% snelheidswinst gaf en niet naderhand een cheat bleek te zijn.

Echte optimalisaties ben ik helemaal voor. Maar optimalisaties die zulke prestatie verbeteringen geven bestaan gewoonweg niet.
(Moet je nog even bij bedenken dat het spel uberhaupt al geoptimaliseerd IS voor Nvidia. Dat maakt de mogelijkheid om nog extra snelheidswinst te vinden nog kleiner)

Mijn stellingen zijn gewoon een kwestie van gezonder verstand gebruiken, realistisch zijn, en goed gevolgd hebben wat er de afgelopen maanden allemaal ontdekt is over drivers die grote verbeteringen gaven.
Ja , maar als jij een screenshot neemt , en ik , en we zien hetzelfde, waar zit iedereen dan over te zagen |:( ?

Laat staan dat je dan nog bewegend een verschil kan zien.
Neem me eens een screeny van iets wat jij denkt dat er anders uitziet op een (jouw ? ) ati , dan op mijn nvidia. Het enige wat men heeft kunnen aantonen is dat in ut2003 met geen stokken trilineaire filtering is aan te krijgen bij een fx met de officiële drivers. En dan nog dergelijke minimaal verschil is echt niet zichtbaar , tenzij men met andere tools de berekeningen van een 3D scene gaat analyseren. Maar dan kan je ook beginnen klagen over het feit dat ati en nvidia een andere soort AA techniek gebruiken. Dat levert ook een verschil in resultaat op. De ene keer vindt men dit er goed uit zien , de andere keer dat. Je moet voor jezelf keuzes maken hee, maar de pers speelt deze mierenneuk-verschilletjes handig uit, en 't is ati en nvia hun eigen schuld, ze zijn er ooit mee begonnen. Maar is dat echt nu een valabele reden voor een gamer om 1 van die 2 kaarten te kiezen ?!
Je ziet hier 1 ding over het hoofd: Doom 3 is OpenGL en gebruikt helemaal geen Direct3D/DirectDraw functies.
so? in opengl modus kan je ook gewoon de pixelshaders enz enz gebruiken voor zover ik weet. Wat heeft dat met d3d/opengl/snelheid te maken?
Je ziet wel dat de FX5900 wel meer prestaties heeft qua DirectX9 ten opzichte van de FX 5800 dus Nvidia boekt langzaam wel per kaart meer prestaties vergeleken met ATI die maar 'n klein stukje stijgen. Natuurlijk loopt Nvidia nog DIK achter maar misschien is de FX5900 een kleine stap naar de goede richting. ATI heeft in ieder geval een erg grote voorsprong qua DirectX9 comaptibiliteit dus daar hoeven zij zich nog niet zoveel op te concentreren maar Nvidia dus wel wat weer tijd kost om zich op andere aspecten te richten.
Dat komt ook omdat de architectuur wel wat veranderd is tussen de FX 5800 en de FX 5900 waar de overgang naar de 9800 pro feitelijk alleen maar nieuwe pixel & shader versies zijn plus een iets hogere kloksnelheid.

Het enige feit wat eigenlijk wordt verteld is dat het hele idee van Nvidia nu gewoon tegen hun beginnen te werken. Sinds de Geforce 1 is er niet echt veel nieuwe dingen geintroduceerd bij nvidia die vernieuwend zijn. Daarnaast borduren ze standard al iets van ruim 2 jaar op dezelfde drivers. Innovativiteit is nou niet echt Nvidia's sterke punten geweest en dat laten ze zien in de nieuwe core die de FX heeft. Het is na ruim 2 jaar van ietsje upgraden dat ze met iets nieuws aan komen zetten en komt men erachter dat ze toch wel wat roestplekjes hebben. Hopelijk gaan ze nu eens tenminste echt nadenken en eens afgaan op wat de consument ECHT wilt wat zeg nou zelf de beeldkwaliteit moest het tenslotte altijd bekopen om maar snel te zijn bij Nvidia.
Ik geef toe dat er niet echt veel grote veranderingen zijn geweest sinds de t&l en pixel en texel shaders. Maar ik denk dat de gfx (ondanks dat ikzelf echt meer neiging heb een ati te kopen) toch geavanceerder en vernieuwender is dan een radeon.
Een gfx heeft als mijn pan me niet in de steek laat vrijer te programmeren shaders (blijkt ook wel aan nvidia's "eigen" shaders). Verder lijkt me ook die texturenummering een extra overhead omdat de shaders vrijer te programmeren zijn. De floating point unit is meer bits en zo'n gfx heeft meer registers. Feit is alleen dat het voor nu niet interessant is aangezien dx9 nog amper gebruikt wordt en nvidia en ms niet zulke vrienden zijn dus een enorme sprong in de specificaties zal niet snel gebeuren.
Verder heeft nvidia cg ontwikkeld.
Dus ik denk niet dat nvidia stilstaat tov ati. Ati probeert de huidige technologie te verbeteren en te versnellen, nvidia probeert het anders te doen (zie buggy drivers, die detonators zijn al tig jaar stabiel en nu vertonen ze ineens bugs) Maar iets echt revolutionairs is er de afgelopen 3 jaar niet gebeurd nee.
Qua DX9 compatibility? Er is getest op performance, niet op compatibility.
Iedereen al gelijk aan het jumpen naar conclusions. Misschien is Tomb Raider wel optimized voor ATi kaarten? Je kunt pas de statement maken dat ATi beter performed op DX9, als je benchmarks gebruikt van meerdere DX9 spellen... dus het is misschien niet onverstandig om ff af te wachten, wat voor benchmarks er nog gaan komen.
Tomb Raider is niet optimized for ATI kaarten, maar juist voor Nvidia. Zo gebruiken ze bv Cg van Nvidia en kan je speciale Nvidia features instellen voor schaduw.

Het is zelfs een "the way it's meant to be played" titel. :)
dan ist helemaal mooi dat die ati gehakt maakt van die way its meant to be played ;)
Het artikel beschijft in-depth welke shaders gebruikt worden, en dat het spel wel degelijk voor beide kaarten is optimized (voor nvidia wordt zelf Cg gebruikt om de shaders te compileren). Ook geeft het artikel de waarschijnlijke oorzaak aan voor het dramatische verschil in performance (is anders dan in de bovenstaande samenvatting):
The performance difference between the two ATI and NVIDIA boards are probably because of the number of DX9 floating point shader execution units. Both the R300 and R350 chips that power the ATI Radeon's have one shader unit for each of the 8 pipelines, and in certain cases these are able to execute two instructions per clock. Testing has shown GeForce FX 5800 Ultra to have four floating point shader units, however these also act as the texture address processors, meaning that in some cases they are not able to dedicate all their time to executing shader instructions.
ATI plankjes hebben dus 2 keer zoveel shader units, zijn dedicated en kunnen soms 2 instructies tegelijk uitvoeren. Tel uit je winst. Nvidia moet héél snel met een nieuw plankje komen, of met een "driver update" ineens 4 nieuwe shader units uit een hoge hoed toveren om hier nog iets aan te doen.
Net zoals dat Half-Life 2 een optimised for nvidia spel zal gaan worden?

Uit de laatste informatie is gebleken dat de Ati Radeon 9xxx serie gehakt maakt van de FX serie met deze titel ;)

Het lijkt mij stug dat de game ATI only of optimised zou zijn. Mede doordat het gebruik van DirectX 9.0(b) nog in kinderschoenen staan. Bovendien zou DirectX een "standaard" implementatie moeten zijn terwijl de drivers de echte optimalisatie doen.
das een flink verschil zeg
en dit keer kan nvidia niet zeuren dat 3dmark ofzo partijdig is, dit is gewoon een spel dat gebruikt maakt van dx9 functies

maarjah, we zullen zien wat nvidia en ATI hier op te zeggen hebben :)
Nvidia zal niets zeggen, dus zullen alleen weer wat Che.... eh Optimalisaties bedoel ik, inbouwen in hun drivers.

Vandaar ook dat Beyond3D hun benchmark niet ter download aanbiedt.
Jouw opmerking slaat ook helemaal nergens op.. Het gaat hier gewoon om een DX9 game, geen benchmark tool als 3Dmark.. Dat Nvidia daar hun drivers voor zal optimaliseren is alleen maar goed voor de mensen die dat spel willen spelen.. Normaalste zaak van de wereld dat men dat doet voor games, want daar worden die kaarten voor gemaakt.. En aan deze test te zien zijn Nvidia's drivers ook wel aan wat verbetering toe voor deze game, want zo'n groot verschil kan gewoon niet..
De ervaring van de laatste jaren bewijst toch overduidelijk dat mijn opmerking wel degelijk ergens op slaat.

Nvidia zit niet alleen drivers aan te passen voor benchmarks maar ook voor spellen. Ooit wel eens van UT2003 gehoord?

In exact dezelfde trend als bij UT2003 zou Nvidia bv in TRAOD de DOF in de driver uit kunnen zetten. Dat scheelt je ontzettend veel in performance.
Nou valt dat wel heel erg op, maar een aantal andere zaken kunnen ze best allemaal een tandje lager zetten zonder dat al te erg opvalt.
Een beetje domme reviewer (het meerendeel) heeft dat dan niet in de gaten, en ziet ineens de performance een stuk beter worden.

Het is in het verleden al talloze malen gebeurd. Een beetje tweaker moet dat toch weten. Geen enkele reden dus waarom het nu niet opnieuw zou gebeuren.

En dat zo'n groot verschil niet kan? Als je naar het ontwerp van de hardware kijkt, dan zijn er genoeg redenen aan te wijzen waarom zo'n verschil wel degelijk kan. Lees het artikel bij Beyond3D maar goed. Die geven die redenen al aan.
Niet in het plaatje te zien maar wel interessant: over de x-as zijn deze resoluties uitgezet:

640x480
800x600
1024x768
1280x960
1600x1200

edit: Ik zie dat het is aangepast, goed werk!

Wat mij hierbij opvalt is dat de radeons goed doorschalen naar hogere resoluties, maar de Geforces een beetje achterblijven
Ik vind et best raar.. hoe hoger de resolutie, hoe hoger de framerate??
Nevermind.. eventjes et artikel gelezen.. ik vond dat grafiekje er al zo raar uitzien..
Geen framerate, maar fillrate... Is iets heel anders!
zo! ik blij dat ik toch een radeon appart heb laten liggen!
Dat verschil is niet normaal meer!
Alleen vraag ik me nu af of het extra geld dat een 9800Pro kost tov. de 9700pro wel echt de moeite waard is. het verschil is eigenlijk een stuk kleiner dan ik verwachtte. (zeker als je je bedenkt dat het financiele verschil ongeveer 100-150 euro is)
Waarschijnlijk is iets anders bijv. de CPU de beperkende factor bij de Radeons in deze benchmark, aangezien er bij meeste andere benchmarks toch een groter verschil is tussen de 9700 en de 9800. Ze liggen iig. verdacht dicht bij elkaar.
Het verschil tussen 9700 9800 protjes is de FSAA performance.
In deze DX9 test worden de PS2.0 unit's vooral zwaar belast en dat dempt dat verschil in fSAA af.

De Game FPS rate is dus afhankelijk grotendeels van de PS2.0 performance van die kaarten andere verschillen hebben geringere invloed gekregen.
"spelling checker" is anders ook slecht Nederlands ;)

een betere spelling begint bij jezelf :Y)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True