Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 131 reacties
Bron: HardOCP

Op HardOCP zijn de eerste officiŽle benchmarkresultaten van Doom 3 verschenen. De tests werden uitgevoerd met de nieuwste drivers en grafische kaarten van zowel ATi als nVidia en geven de frames per seconde weer die gehaald werden met het spel zoals dit ook verkocht zal worden. Aangezien de hardwareboeren geen toegang hadden tot het demomateriaal is John Carmack ervan overtuigd dat er op dit moment geen optimalisaties uitgevoerd werden. Opvallend is echter dat hij van mening is dat overklokkers die elk ander spel probleemloos kunnen spelen, met Doom 3 in de problemen kunnen raken door 'new usage patterns'. Als basis werd een Pentium 4-systeem op 3,6GHz gebruikt in combinatie met 4GB DDR2-geheugen en een i925X-moederbord.

Doom 3De eerste tests werden uitgevoerd met PCI Express-kaarten en om te beginnen zette men de instellingen op 1600x1200, hoge kwaliteit zonder Anti-Aliasing en met 8x AF. Hierin is nVidia duidelijk de sterkste, met 68,5 en 59,6 frames per seconde voor respectievelijk de GeForce 6800 Ultra en de 6800 GT tegenover 51,8fps voor ATi's X800XT-PE. Ook wanneer 4x AA ingesteld wordt blijft de ranglijst ongewijzigd. De 6800 Ultra haalt 42,5fps, de GT-versie volgt op de tweede plaats met 37,2fps en achteraan huppelt de X800XT-PE met zijn 33,5 frames. Vervolgens wordt overgeschakeld naar een resolutie van 1024x768 met 4x AA en 8x AF en meteen begint ATi's kaart aan een inhaalslag. Met zijn 63,3fps volgt hij de 6800 GT van nVidia (65,6fpx) op de voet. De Ultra-kaart van nVidia blijft echter voorlopig oppermachtig met 72,6 frames in een seconde.

Aangezien PCI Express nog niet echt een wijdverspreid verschijnsel is werd ook getest met enkele AGP-kaarten. De eerste test werd weer uitgevoerd op 1600x1200, hoge kwaliteit zonder Anti-Aliasing maar met 8x AF en weer is nVidia de sterkste. De 6800 Ultra en de 6800 GT halen respectievelijk 61,8fps en 56fps terwijl ATi's X800XT-PE en X800Pro blijven steken op 49,8 en 36,8 frames per seconde. Deze trend zet zich nog enkele malen door met als enige uitzondering de test op 1024x768 zonder AA en met 8x AF. Hierin is nVidia slechts nipt de sterkste met 72,3fps voor de GeForce 6800 Ultra, op de voet gevolgd door ATi's x800XT-PE die met zijn 71,5fps de tweede plaats bezet. Onmiddellijk hierop volgt echter alweer de GeForce 6800 GT met 71,2fps en de ATi X800Pro bungelt alweer achteraan met een framerate van slechts 62,5.

ATi x800 (BBG)Wanneer hij tegenover een nVidia 5950 Ultra geplaatst wordt is de 9800XT van ATi dan weer in twee van de drie tests de snelste. HardOCP besluit dan ook dat Doom 3 uitstekend speelbaar blijkt te zijn op zelfs de iets oudere hardware, maar stelt dat ATi pijnlijk tekort komt om de concurrentie met nVidia aan te gaan in de allernieuwste kaarten.

Moderatie-faq Wijzig weergave

Reacties (131)

Speelt iedereen die hier gaat antwoorden op een resolutie van 1600x1200? Ik begrijp dat de "hardcore" lan gamer hier wel mee speelt, maar wat met de tweaker die ook een lcd gekocht heeft en op een resolutie speelt van 1280x1024? of op een 17" CRT die 1024x768 draait?
Vooral de lcd gamer lijkt me niet het beste van het beste nodig te hebben wat betreft hoge resoluties vlot kunnen draaien.
hardcore gamers draaien niet in 1600 x 1200. De meeste draaien max 1024 x 768. ( die aan tournooien meedoen enzo.)
De resolutie van 'Pro-gamers' of gewoon competatief ingestelde gamers ligt vaak zelfs op 800x600 en alle detail uit en getweaked ( picmip 5 anyone?) Het hangt natuurlijk wel van de game af, maar iig is dit bij fps'en vaak het geval (fanatieke ut'ers, quakers, of painkillers)
Dus mocht Doom 3 online ook populair worden dan zitten de gamers met ietwat gedateerde hardware nog wel goed.
Waarom zou iemand op 800x600 spelen?!
Ik heb een ietswat gedateerde ATI 9700tx, nou, ik speel spellen op 1280x960, nou, dat gaat goed genoeg...
Ik kan me niet voorstellen dat een "pro gamer" op zo'n lage resolutie speelt, met de kwaliteit-functies op het laagst. Vooral niet als ze een goede vidiokaart hebben... |:(
Ik wil het altijd zo mooi mogelijk...

PS. Painkiller is een *** spel, zoooohh liniar, niet normaal
hmmm r_picmip 5. nuff said 8-) :Y) 8-)

oke ik leg het even uit
als je spelen op lage detail zet dan krijg je vaak een beter gameplay dit komt doordat je dan:
1) een beter en stabielere FPS hebt
2) beter overzicht over het veld.(op low detail kun je vaak beter het contrast zien tussen enemy en achtergrond)
3) een lage resolutie kan ervoor zorgen dat je kan pixel spotten(dus eerder enemy ziet zitten en lopen)
en de pixels vallen sneller op.

en waarom je het je niet kan voorstellen weet ik niet, maar vraag het maar eens rond aan quakers, ut'ers wat betere cs'ers doen het ook maar die hebben weer wat regels hier een daar anders wordt het cheaten,(rtcw, rtcw: ET etc)
Daarom hebben ze ook tests met 1024x768 gedaan, lezen!

toevoeging: als bij tests met 1600*1200 en 1024*768 de nvidia kaarten beter presteren lijkt het me logisch dat dat in 1280x1024 ook het geval is.
Dat ook beter presteren op lagere resoluties is relatief en niet altijd het geval: architectuurverschillen kunnen heel verschillende resultaten opleveren op verschillende resoluties. Je kaart mag bvb. superieure renderpower hebben zodat ze de concurrentie voorblijft bij lagere resoluties, maar kan bij hogere resoluties (en bij IQ-verhogende features) bvb. achterlopen door een door een gebrek aan geheugenbandbreedte t.o.v. de concurrentie.
Dit spel is dan ook zwaar gesponsort door nVidia. Bij de systeemijsen zie je dat ook terug.

bij aanbevolen stond iets van een FX 5200, of een 9800 serie. Deze kaarten zijn totaal niet met elkaar te vergelijken, omdat de 9800serie in iedere benchmark boven de FX 5200 zal komen. Doom3 is de geschreven om de krachten van nVidia kaarten optimaal naar boven te laten komen.

Wel of geen optimalisaties zal dat verschil nog groter gaan maken.
Voor de ATi kaart wordt gebruik gemaakt van het standaard ARB2 pad om de boel te renderen. Terwijl er speciaal voor Nvidia speciale render paden geschreven zijn.... dit omdat Nvidia met het standaard pad geen fatsoenlijke framerates kan weergeven.

Het spel is dus van top tot teen geoptimaliseerd voor Nvidia videokaarten.

Als er ook voor ATi een geoptimaliseerd pad geschreven was dan waren de resultaten waarschijnlijk totaal anders geweest.
Voor de ATi kaart wordt gebruik gemaakt van het standaard ARB2 pad om de boel te renderen.
Waar staat ARB2 dan voor?
ARB staat voor Architecture Review Board, de organisatie die de OpenGL-standaard definieert en bewaakt. Het ARB2-codepad zou dus zonder specifieke optimalisaties of features voor een bepaalde chip en/of fabrikant moeten zijn. Naast het ARB2-pad zijn er in Doom 3 specifieke paden voor de NV10-, NV20- en R200-families. NV30, NV40, R300 en R420 draaien allemaal dezelfde code.
ARB2 is een set van instructies die het makkelijker maakt een spel op 2 verschillende chips te laten functioneren, in de laatste anderhalf/2 jaar tijd hebben zowel ati als nvidia echter eigen extensies uitgebracht waardoor het allemaal scheefliep, het ene spel doet het sneller op de een, de andere weer op de andere chip etc. nu ze allemaal deze set gebruiken is de vergelijking veel eerlijker
Dat geld dus alleen voor de nv3x.
De 6800 gebruikt ook gewoon ARB2
Sterker nog, ook NV30 gebruikt nu ARB2. Zie hier.
Dit is enkel het geval met de nv3x serie. En dan is nog de vraag of dat in dit geval zo is. De nv40 rendert het net zo als een ati kaart. Dat nvidia hier wint komt door 2 dingen.
1: Nvidia heeft betere openGL performance
2: Nvidia's ultrashadow wordt ondersteunt en Ati heeft dit niet (scheelt de nv40 wat rekenkracht)

Dat nvidia hier wint was al te verwachten en Ati zal het met Hal life 2 winnen hoogst waarschijnlijk omdat dat spel weer technieken voor de radeon gebruikt.
Bij de systeemijsen zie je dat ook terug.
Staat er dan letterlijk: sponsored by nVidia? Neuh.. dus aan de systeem eisen zal het niet liggen.

Klaarblijkelijk maakt Doom3 gebruik van een aantal zaken waar de kaarten van nVidia beter op voorbereid zijn (meer en snellere shaders o.i.d.). Ati heeft deze voorbereidingen niet of slechts gedeeltelijk getroffen (omdat ze geen partner waren van ID?) en ondervindt daarvan nu de nadelen. Wellicht dat Ati nog wel een inhaal slag kan slaan door driver optimalisatie?!

Het lijkt er imho op dat de ietwat complexere GPU van nVidia (complex = meer transistors / aantal lagen pcb etc) die voorheen langzamer leek dan de brute snelheidsmonsters van Ati toch goed uit de verf komt. De hele "nVidia kan Ati niet meer bijhouden" discussie van een tijdje geleden bij de introductie van de X800 lijkt dus een beetje voorbarig te zijn geweest! iig voor het Doom3 verhaal, want hoe het met HL2 gaat lopen is natuurlijk nog maar de vraag :D
grrrrrrrr

systeemeisen
Waarschijnlijk zijn de optimalisaties voor ATI een beetje op een lager pitje komen te staan vanwege het uitlekken van die Alpha versie van Doom III... Zo iets van: "eigen schuld, dikke build?" ;)
* 786562 elpimbo
Doom III zal dan wel een 'The way it's NVidia ment to be played game' zijn :+
Denk je?
Aangezien de hardwareboeren geen toegang hadden tot het demomateriaal is John Carmack ervan overtuigd dat er op dit moment geen optimalisaties uitgevoerd werden.
Die kosten halen ze eruit niet alleen door het spel maar door verkoop van de engine technologie aan anderen. Binnen nu en 2 jaar zullen er zomaar 20 spellen op de Doom3 technologie uitkomen, let maar op! Daarom moet het wel state of the art zijn; het kost tegenwoordig 2 jaar of meer om een beetje fatsoenlijke engine te bouwen die wat langer meekan.

Tweede opmerking: veel mensen zullen upgraden alleen voor dit spel.
was er geen sprake dat Nvidia de polygonen in donkere hoeken niet renderde en daardoor sneller was in tegenstelling tot Ati die alles rendert?
Ik denk dat met de huidige prijsen dat upgraden nog wel even op zich laat wachten. Ik snap overigens ook niet waarom dat spel met zulke onwerkelijke specs getest moet worden ik ken namelijk weinig mensen met 4GB DDR400 ram in hun systeem, misschien dat er hier weinig in de buurt wonen hoor maar het had misschien interessanter geweest als er ook een wat gemiddeld systeem in de test werd mee genomen.
dan moeten we ten eerste eens vaststellen wat er onder gemiddeld wordt verstaan ( bedoel je de gemiddelde thuis pc met een Gf FX 5200 / R 9200SE ? of een gemiddelde tweaker-pc?) .

en volgens mij draait dat met die instellingen hoe dan ook uit op een diashow...
Tweede opmerking: veel mensen zullen upgraden alleen voor dit spel.
Hetzelfde was waar voor Unreal 1
(glide anyone??)
Maar dat was toen de overstap van geen 3d kaart naar een 3d kaart.
Hier is het een ander verhaal, Ik denk niet dat ik voor doom III mijn pc moet upgraden (geforce4 ti en amd 3200+ met 1024 mb ram) aangezien ik de redelijk recente spellen gewoon kan spelen.
Ik denk ook dat veel andrere mensen die spellen spelen niet een veel slechter systeem hebben, en de mensen die geen spellen spelen die zullen waarschijnlijk nooit met de doom III engine in aanraking komen.
( tenzij the sims er mee gaat werken }> )
misschien handig om te vertellen maar heb je wel eens gehoort van de Shadow FX Chip of the FX kaarten en de 6800 Kaarten die Ship zorgt er voor dat schaduw sneller berekent word. is een soort Perspectief beeld Breker.

nou is het zo dat D3 die techniek aan spreekt en die heeft ATI niet en dus zal je daar een flinken boost van krijgen aangezien er veel ligt effecten zijn ;)
maar die extra functie blijkt dus zeer nuttig en maakt de kaart van nVidia superieur qua techniek als ik het zo mag begrijpen
Ati zou het dan moeten hebben van brute kracht en daar zijn ze waarschijnlijk ongeveer gelijkwaardig
Ik denk dat het komt doordat Doom 3 een openGL spel is, geen direct3D spel.

nvidia heeft altijd beter gepresteerd met openGL dan met direct3d, en voor ATi geldt het precies andersom, dus het verbaast me niets dat in dit spel nvidia de bovenhand heeft.
Wacht maar tot HL 2 uitkomt. Vermoed dat we dan opeesn zullen zien dat de ATI's beter zijn.
Stel dat ATI-kaarten beter zijn met HL2, is dat dan bewijs dat ze beter zijn? Dat is namelijk nogal een relatief begrip. Het enige dat voorlopig vaststaat is dat ATI met de huidige generatie de boot dreigt te missen - als iedereen nu een nVidia-kaart koopt voor D3, dan gaan ze niet een ATI-kaart van dezelfde generatie kopen alleen voor HL2. Zeker aangezien dat ook goed te spelen zal zijn met een 6800, hoeveel beter de ATI dan misschien ook zal presteren. En dat staat nog niet eens vast!
Mits je dus een hagelnieuw systeem hebt met een 6800 PCI Express kaart erin.

Al met al zullen de meesten niet gaan upgraden voor 1 game. Dus of nVidia het met deze benchmarks gaat halen, om ATi werkelijk het onderspit te laten delven blijft nog even de vraag. Zeker als inderdaad blijkt dat de ATi's het over het algemeen beter blijken te doen on HL2.

Aangezien beide games binnen afzienbare tijd na elkaar zullen verschijnen, zal 'men' toch deze vergelijking gaan afwachten voor er knopen doorgahakt zullen worden.
lijkt me dat de volgende uitspraak van JC genoeg zegt:
"On the other hand, the Nvidia drivers have been tuned for Doom's primary light/surface interaction fragment program, and innocuous code changes can "fall off the fast path" and cause significant performance impacts, especially on NV30 class cards"
M.a.w. NVidia had wel degelijk toegang tot D3 om te optimaliseren...
al die kracht en zon framerate... hoop dat ze nog ruimte hebben voor optimaisatie..
Wat hier al eerder is gezegd, het is id Software, dus ga er maar vanuit dat dat al gedaan is. Als je naar de oudere engines kijkt, dan zag je ook geen enorme snelheidswinsten na updates. Ze komen nu met een engine op de markt die een behoorlijke tijd mee moet kunnen gaan, en dan ga je je niet richten op huidige low-end systemen maar op de huidige high-end....
Als je naar de oudere engines kijkt, dan zag je ook geen enorme snelheidswinsten na updates.
als je kijk naar hoeveel de framerates bij BV UT2k3 en 2k4 omhoog zijn gegaan sins de introductie van die spellen, zou ik zeggen dat er nog zeker wel ruimte is voor verbeteringen.
Is natuurlijk de vraag of dat ligt aan optimalisaties in het spel of optimalisaties in videokaartdrivers.
UT is niet door id Software maar door Epic ontwikkeld..... Tim Sweeny van Epic heeft toch een iets andere reputatie van John Carmack van id Software.

En wat ik dus probeerde duidelijk te maken is dat de engines van id in het verleden niet enorm verbeterd werden. Uiteraard wil dat niets zeggen over de engines van andere producenten.

Ik kan me overigens nog herinneren dat Tim Sweeny op een forum een probleem had geplaatst waar hij niet uitkwam. Dat staat toch in schril contrast met John Carmack die zich 2 dagen in een hotelkamer opsluit en dan met een complete byte-compiler voor de Quake3 engine er weer uit komt.

Neemt overigens niet weg dat ik voor beide erg veel respect heb aangezien beide op erg hoog niveau hun werk verrichten.
@punisher007: in het spel. Dat was vooral zeer goed te merken in de Linux-versie.
Ik zat ook al te denken, het klinkt wel erg traag allemaal. Ik heb pas nog een 9800SE gekocht, en met §179 vond ik dat meer dan duur genoeg voor een videokaart. En als een spel niet fatsoenlijk op een mid-end kaartje draait, dan ligt dat wat mij betreft gewoon aan het spel.

Trouwens, Doom 3 is/komt ook op de Xbox, en Xboxen zijn lang niet zo snel. Ben benieuwd wat ze daarop verzonnen hebben...
Wat een onzin,

Als je een fiat panda koopt heb je een prima auto. Je hebt echter geen lederen bekleding en hij haalt geen 300 km/uur. Hij kost echter ook een stuk minder dan een ferrari Enzo.

Met videokaarten is het net zo. Als je een "goedkope" kaart koopt wťťt je dat je niet op 1600 bij 1200 met de hoogste settings kan spelen. Dat wil niet zeggen dat het spel onspeelbaar is. Alle waar is naar zijn geld. Een 9800 SE is een prima kaart maar je kan dus betere graphics op je scherm krijgen met een duurdere kaart.
op de xbox zit toch een afgeleide van de geforce 3 of was het zelfds de geforce 4 ???
Enne hou er rekening mee dat een xbox lang geen 1600x1200 hoeft te draaien, of zelfs geen 1024x768 he !! Geen AA en ook geen AF...
Wel degelijk AA, alleen op een resolutie van 720x576 heb je niet zo'n beest nodig...
de XBOX rendert op Tv resoluties, ik zou zeggen, zoek ze maar op.
het concept framerate werkt er anders, namelijk 50 fps is genoeg, het komt toch interlaced op je televisie terecht. Als je ťcht wilt optimalimutsen kun je volgens mij zelfs 25 fps de even beeldlijnen tekenen en op 25 fps de oneven lijnen...

de videokaart in de xbox is een ernstig opgevoedde Geforce chip die ergens tussen de 3 en 4 zwerft: hij is krachtiger en feature-rijker dan de gf3 maar haalt het weer niet naast een gf4.

sowieso heeft een xbox 64mb geheugen aan boord, wat een heel andere afweging nodig maakt: je kan niet dezelfde polycounts hebben op de xbox als op de PC, want dan gaat ie langzaam worden. mooie voorbeelden kun je zien in need for speed: underground op de xbox: als je een beetje gezellige verkeerssituatie nadert begint het allemaal wat te schokken. De enorme polycount is juist de grote vertrager voor de PC.
De Xbox heeft een Geforce3 met een extra Shader pipeline geloof ik en het is niet de polycount waar je afweging over moet maken op de X-Box met zijn 64Mb, maar het texture gebruik moet ingeperkt worden.
Trouwens, Doom 3 is/komt ook op de Xbox, en Xboxen zijn lang niet zo snel. Ben benieuwd wat ze daarop verzonnen hebben...
Een televisie heeft ook lang niet zo'n hoge resulutie (nodig) waardoor daar al een stuur snelheidswinst te boeken valt. Tevens zijn de pixels van een tv zo grof dan AA etc (weet niet of xbox dat kan enzo) weinig extra kwaliteit geeft denk ik = extra framerate.
Ik wil eigenlijk gewoon weten wat de maximale fps is die je kunt halen, met alle toeters en bellen *uit* en een resolutie van 800x600. Dat is namelijk hoe het spel gespeeld zal worden in de multiplayer scene en het is interessant voor huidige pc eigenaren om te weten wat ECHT de minimale eisen zijn om 60+ fps te halen. Kijk maar eens naar de spelinstellingen van die-hard 3dshooter gamers: Quake 3 lijkt dan visueel zo ongeveer op quake 2.

Hebben de doom3 mannen wel gedacht aan de *serieuse* gamer of alleen aan de eye-candy dweepers?

Kan ik, met mijn GF4-4200 en Athlon2000XP nog meekomen? Dat is toch niet zo'n moeilijke vraag?
John Carmack heeft aangegeven dat t.o.v. Quake3 veel minder instellingen niet tweakbaar zijn vanwege de manier waarop hij en z'n team het spel als multiplayer wil heenzetten.

Overigens kunnen mod-teams wel ervoor kiezen om dingen toe te staan, ik wacht dan ook met smart op een OSP voor Doom3 :)
het verschil tussen osp en baseq3 is tamelijk klein qua instellingen. Je kan standaard Quake 3 al helemaal op lego-mode etc zetten. Enige verschil is de brightskins :)
De kern van het probleem is de rommel van een kaartjes die in laptops gestoken wordt.

Een game moet daar rekening mee houden.

Het is triest maar waar.

Overigens zijn die mobile processors vaak niet vooruit te branden.

Laptops worden in toenemende mate verkocht en GEBRUIKT hiervoor.
ik zie de gemiddelde "serieuze gamer" niet op 800x600 spelen hoor :o
Volgens mij kun je met een athlon XP 2000+ en GF4 4200 best op 1024*768 spelen als je de details enzo een beetje terugschroeft.
Dat is namelijk hoe het spel gespeeld zal worden in de multiplayer scene
Denk dat het met die MP scene wel mee zal vallen, met max. 4 man ;)
Maar het verschil tussen 61,8fps/62,5fps en 72,3fps is dat nu echt merkbaar in het spel tijdens het spel? volgens mij ben je dan toch met andere dingen bezig, zoals niet opgevroten/afgeschoten te worden ;)

en 4Gb geheugen!! dat niemand toch?
1GB 2GB of 4GB zal waarschijnlijk geen ruk uitmaken in de benchmarks
maar ze wilde hier de videokaart testen en zorgden er dusvoor dat er geen andere bottleneks waren.
en 4Gb geheugen!! dat niemand toch?
daarom vindt ik het ook geen nuttige test. De 'gewone' mens weet nu nog niet of hij dit spel thuis kan spelen aangezien die geen 3.4 ghz systeem heeft met 4gb ram en een videokaart van E600

Ze hadden best ook even een test mogen draaien met een ati 9700 oid op een 2 ghz bak. Zo veel moeite is dat toch niet ?
I could play DOOM 3 on a GeForce 3 64MB video card and 1.8GHz AthlonXP and have a good gaming experience
cijfers worden er niet bij gegeven...
Die framerates zijn gemiddelden. Het kan best zijn dat de variantie van die gemiddelde vrij hoog is en je dus op sommige stukken slechts 40 fps haalt en op andere stukken 80. Die stukken met 40 fps zijn dan wel merkbaar traag.
Wat voor problemen kunnen overklokkers in raken, en wat zijn 'new usage patterns' ??

Misschien staat het te lezen, maar het gaat even aan mijn oog voorbij in dat geval...
Wilde gok:

Het anders benutten van hardware door de software kan er voor zorgen dat overgeklokte hardware (met name videokaarten) ineens instabiel blijkt. Dit kan komen door net iets andere/hogere piekmomenten.
is dit niet ..dat het spel je kaart nog sneller maakt dan ie eigenlijk kan.. en als je `m dan al overclockt hebt..dat ie dan NOG sneller wil draaien....

en het resulterende effect is dan een BSOD of vastloper??

zoiets was dat toch?
Waarom is er eigenlijk geen benchmark gedraaid met de huidige generatie kaarten die het 'grote' publiek gebruikt?
Ik ben wel benieuwd naar de prestaties van een ATI 9800Pro 128Mb op 1280x1024 (wegens TFT :) )

Volgens mij zijn er meer GoT'ers die dit kaartje hebben.
Helemaal mee eens... en laat ze die processor dan ook eens normaal nemen bijvoorbeeld een Athlon XP 2800+ en dat geheugen lijkt helemaal nergens naar, wie stopt er nou 4GB in z'n computer ? Laat ze maar testen met 512 of misschien zelfs ťťn GB.

Ik denk dat veel meer mensen geinterreseerd zijn in resultaten die vergelijkbaar zijn met een hun eigen hardware.
Volgens mij zijn er meer GoT'ers die dit kaartje hebben.
Ik heb die hopelijk binnen een maand ofzo als het bedrijf waarna ik um naar terug moest sturen eindelijk eens beslist zin te hebben om dat ding van het postkantoor te halen en mij een nieuwe toe te sturen. Tot die tijd zit ik op een Brakke GF4 MX440 SE waar dit dus absoluut niet op zal draaien.
lees eerst de brond dan eens door, dan zie je het.

Verder is dat geoptimaliseerde van doom 3 alleen voor de nv30 voor zover ik weet. Ik denk dat de nv40 hetzelfde pad gebruikt als de ati.
Wat ik me altijd afvraag is waarom niet vermeld is welke refresh resolutie gebruikt wordt.

ATI heeft mega problemen om kaarten boven de 75Hz verticaal te zetten, terwijl het voor de ogen vel beter is om verticaal 100 of nog meer Hz te hebben.

Vooral als er een redelijk EMF om je heen zit om welke reden dan ook, dan is het hebben van 100Hz of meer verticaal vrij cruciaal.

De VESA norm van 75 slaat werkelijk nergens op.

Nu is het mogelijk dat de performance van de kaarten beinvloed wordt door de refresh. Daar lees ik echter nooit wat over in al deze benchmarks...
Wat je wel vaak ziet bij de spec van de testopstelling is "vsync off", oftewel het renderen wordt niet gelinkt aan de vsync. Dat is de beste (enige?) manier om de snelheid van een engine/vga kaart te testen. Is dat niet wat je bedoelt?
Zolang je de vsync af hebt staan , maakt de Hz instelling van uw monitor toch geen zak uit voor uw performantie.

Uw digitale 3D informatie wordt toch omgezet door uw ramdac op uw videokaart ? |:( Hoeveel Hz je instelt op die ramdac maakt geen steek uit voor je performance...
@hardwareaddict

Waar heb jij het in vredesnaam over?
Wat voor mega probleem heeft ATI boven de 75Hz??? (Blijkbaar een probeem waar mijn eigen ATI op 85Hz geen last van heeft...)

Waarom zou jij 100Hz nodig hebben?


Die Vesa norm slaat wel degelijk ergens op, namelijk op de verversings snelheid van de sensoren van je oog. Die liggen afhankelijk van de kleur, tussen de 50 en 70Hz. Daarboven, neem je dus geen flikkering meer waar.
Ik heb zo'n vermoeden dat we net hetzelfde promotiepraatje gaan horen binnenkort, maar dan over ATi kaarten die zo superieur zijn in Half-Life 2. :)

Maar toch een mooi prestatieverschil tussen Nvidia en ATi, zeg maar dat het geÔnvesteerde geld (in partnership met id) nog veel meer kan opbrengen. Dit is natuurlijk schitterend als promotioneel materiaal. Binnenkort op elke Nvidia doos benchmarks van Doom 3? ;)
Dat prestatie verschil tussen ATI en NVidia is zeer slecht voor een game engine. Developers willen geen grote verschillen tussen de prestaties die de consumer krijgt. Leuk voor NVidia, maar slecht voor de verkoop van de engine.

En vooral vervelend wanneer je weet dat 70% van de gamers een ATI kaart heeft. Bij de R3xx een feit, en bij de R420 ook zeer waarschijnlijk, doordat ATI met alle grote OEM's (HP,Dell, IBM, Gateway etc) een deal heeft, en NVidia met geen enkele....

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True