Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 51 reacties
Bron: nVidia

Vandaag heeft nVidia de GeForce FX 5700 Ultra (NV36) en GeForce FX 5950 Ultra (NV38) officiëel aangekondigd. Samen met ForceWare 52.16 (inderdaad, de driver wordt voortaan geen Detonator meer genoemd) is dit de upgrade waar het bedrijf de winter mee door moet komen. Tegelijk met de persberichten zijn ook de eerste reviews verschenen. Uit eerdere tests van AnandTech was al gebleken dat GeForce FX 5950 maar een kleine verbetering is boven de FX 5900, iets wat eigenlijk al direct uit de specificaties blijkt. De core is 25MHz hoger geklokt en het geheugen loopt 50MHz sneller, en de kleine winst die daarmee geboekt wordt is niet voldoende om ATi van de troon te stoten, zelfs niet in combinatie met de ForceWare-driver. Hoewel Gainward met een watergekoelde versie van 900 euro erg goed scoort in de benchmarks van The Inquirer, beamen alle reviewers conclusie van AnandTech met betrekking tot de standaarduitvoering.

Interessanter is de GeForce FX 5700 Ultra, het nieuwe product voor de mainstream dat zich zal moeten meten met de Radeon 9600 XT. De prijs van 200 dollar ligt in ieder geval op hetzelfde niveau, de vraag is alleen nog hoe het zit met de prestaties. De chip is in ieder geval gebaseerd op de NV35-architectuur, terwijl zijn voorganger - de GeForce FX 5600 - nog steunde op het oudere en minder succesvolle NV30-ontwerp. De Ultra-versie van de kaart draait met een core van 475MHz geheugen op 900MHz. Voor de normale uitvoering worden waardes van respectievelijk 425 en 550MHz verwacht. Beide versies gebruiken een 128 bits brede DDR2-bus in plaats van de 256 bits brede DDR-bus die de topmodellen hebben. De reviewers zijn het over eens dat GeForce FX 5700 Ultra en Radeon 9600 XT elkaar niet veel ontlopen. Tom's Hardware neigt meer naar ATi vanwege de betere prestaties van de Radeon met AA/AF ingeschakeld, maar maakt zich wel enigszins zorgen over bepaalde problemen met betrekking tot de beeldkwaliteit van de ATi-kaart in sommige spellen. AnandTech roept nVidia tot winnaar uit:

After testing the GeForce FX 5700 Ultra, we have been very pleasantly surprised by NVIDIA. We mentioned last week that the 5700's new architecture might help to close the gap. In fact, NVIDIA has flipped the tables on ATI in the midrange segment and takes the performance crown with a late round TKO. It was a hard fought battle with many ties, but in the games where the NV36 based card took the performance lead, it lead with the style of a higher end card.

nVidia GeForce FX 5700 Ultra
Moderatie-faq Wijzig weergave

Reacties (51)

De naar mijn mening beste review is te vinden op http://www.hardocp.com

Een duidelijke review, met veel image quality vergelijkingen (inc uncompressed plaatjes), min/maxfps etc. etc.

Kunnen tom en anand nog wat van leren ;)

http://www.hardocp.com/article.html?art=NTM3
Wat ik zo mooi vind aan [H] is dat ze ook de min fps laten zien.
nogmooier is dat ze de fraps graphs laten zien en de min avg max waardes.

in game zijn vooral de min en avg waardes van belang

Bijvoorbeeld in MAxpane is de minfps voor de FX nagenoeg30-35 fps 50% van de tijd. De XT heeft alleen 'n kort dipje twin spike in 10% van de tijd van 60 naar 50fps naar
Tja, als de heren reviewers eens een cursusje signaaltheorie zouden doen dan zouden ze een statistisch signaal als een framerate van een spelletje netjes met een gemiddelde en een variantie beschrijven. Dan zou je pas echt eerlijk kunnen vergelijken.

Een hoog gemiddelde zegt niks als de variantie groot is. De minimale waarde zegt ook niet alles. Gemiddelde en variantie wel.
En jij dan nog een cursusje reviewen en dan is iedereen blij.

Minimale waarde zegt wel bijna alles.
Als de minimale waarde altijd boven de 60 (of 30) fps zit dan maakt het voor dat spel geen ene zier uit wat de rest gemiddelde en maximale waardes zijn.

Als één kaart dat wel presteert en de ander niet, dan is wat je ziet in het spel dat één kaar compleet vloeiend speelt en de ander niet.

DAT is waar we in geinteresseerd zijn. Of een spel wel of niet vloeiend speelt.
ja, die hebben ook een meer DX9 georienteerde bench suite...
Een erg goed (en lange 23 pagina's) review van de nieuwe GeForce FX 5700 ultra en de 5950 Ultra is te vinden op guru3d.com

http://www.guru3d.com/article/Videocards/88/

:9
Wat vindt je er eigenlijk zo goed aan?

Hij gebruikt overklokte 5950 en 5700 kaarten, t.o.v. normaal geklokte overige.
Vrijwel nergens iets over image quality. Alleen die paar Aquamark plaatjes, waarbij er niets vertelt wordt.
Terwijl als je die AA&AF screenshots bekijkt, je zeer duidelijk ziet dat de ATI veel betere AA heeft, (Horizontale randen van de tank) en betere AF. (Zie de rode cikels op de tank, de hor. strepen link er van) De objecten voor de ontploffing zijn bij de ATI ook veel scherper dan de NVidia.
Zoiets mag toch wel vermeld worden...
Verder hoofdzakelijk oude achterhaalde benchmarks, en vrijwel geen moderne.
Dus forceware kan je nu dus nog niet gebruiken in zoals in mijn geval een geforce 4600 TI? Jammer. Misschien een toekomstige update? ;(
hij draait zelf op m'n geforce 2 mx (en ik ben 100 punten omhoog gegaan met Aquamark 3 :Y) ) :*)
Uit releasenotes;
GeForce2 MX and GeForce2 GTS, Windows 2000 and Windows XP: Cannot switch TV format to PAL if resolution is set to 720x480 or to NTSC if it is set to 720x576.
NVidia heeft zelfs nog wat voor je gefixed !
ForceWare werkt wel op Geforce 4 kaarten, heb het hier zelf ook draaien op een Ti4200
Ik weet niet waar je dat vandaan haalt, maar ik heb 'm net probleemloos geïnstalleerd voor m'n Ti4600 :).
Je hebt het stukje over ondersteuning voor de nieuwe modellen verkeerd opgevat. Deze driver bied dus voor dei videokaarten betere ondersteuning, maar op de GF4, 3, 2 (1?) kan ie ook goed werken.
Ik vind de driver een vooruitgang, nview 3.0 is denk ik handiger voor mensen die nog nooit hebben gewerkt hebben met nview
Als je de nieuwe driver update hebt gezien?

nVidia ForceWare 52.16 WHQL

dan zie je ook in het stukje text staan:
nVidia heeft nieuwe drivers uitgebracht voor zijn videokaarten die uitgerust zijn met een TNT-, Quadro- of GeForce-core.
edit:

May ForceWare be with you :)
De prijs van 200 dollar ligt in ieder geval op hetzelfde niveau, de vraag is alleen nog hoe het zit met de prestaties
Ze hebben allebei inderdaad een richtprijs van $199,-, maar je moet niet vergeten dat je bij de ATi kaarten de singleplayer versie van Half Life 2 krijgt (nu als voucher, later in de doos). Die kost ook zo'n $50,-, dus theoretisch gezien kost de 9600XT $149,- en dat is een prijs waar de 5700U zeker niet tegen op kan.

Speculaties gaan er nu al over het feit dat nVidia er nu echt alles aan doet om de mainstream markt niet uit handen te verliezen, en zelfs verlies draait op elke verkochte FX5700Ultra (gezien het dure en hoog geklokte DDR2 geheugen en het FX5800 PCB).

Tel daarbij op dat de uiteindelijke versie van de 9600XT waarschijnlijk hoger geklokt zal liggen dan we tot nu toe gezien hebben, en dan is de conclusie snel getrokken dat de beste prijs/kwaliteit verhouding toch nog bij ATi ligt.
En de shader2.0 performance van beide kaarten is nog steeds niet on par met de ATi's.

Terwijl de DX9 games wel erg hard doorkomen de laatste tijd. Nu is HL2 wel uitgesteld, maar zodra die er is en D3 is er ook, dan weten we welke engines er veel gebruikt gaan worden.. Allemaal DX9 engines, dus DX9 performance lijkt erg belangrijk..

Typisch trouwens dat er eigenlijk geen major DX8 engines zijn.
D3 DX9??? Doom 3 is puur openGL hoor.

Wel eens gehoord van de unreal engine trouwens? Die is DX8. De engine van Morrowind en Pirates of the carribean ook, de commanche 4 engine ook, en daarop is onder andere delta force: black hawk down op gebaseerd.


Vergeet dus ook niet alle games GEBASEERD op de unreal engine.
D3 DX9??? Doom 3 is puur openGL hoor.
Als we het over features hebben die hardwarematig ondersteund worden dan is het gewoon makkelijk om te spreken over DX-.. versie. DX9 is net als oGL 2 een API, dus software.

De hardwareontwikkelaars zijn nauw betrokken bij de ontwikkeling van elke nieuwe Direct-X versie en de daarbij behorende features. Dat vind je zelfs terug in de typenummers van de kaarten. Als de kaarten naar OpenGL versie gerangschikt moesten worden had je dus oGL1 en 2 kaarten. Dat werkt dus niet. Dus je kunt daarom wel degelijk spreken van Doom 3 als DX9 spel ook al gebruikt het OpenGL.

<font color=#786562>* ]eep vind dat dat gezeik over Doom III is OpenGL nou maar eens afgelopen moet zijn.
</font>
Verder denk ik (pers. mening) dat je voor moderne DX9> spelen op resoluties tot 1024 of 1280 nog steeds het beste een Ati 9600pro kunt kopen (shader 2 perf is gewoon beter). Zeker gezien het gesteggel met de drivers bij nVidia.
opengl games met dx games/versies vergelijk is onzin. doom 3 is NIET dx9. doom 3 heeft een aantal features die het uiterste vragen van een radeon 9700 etc maar op lagere videokaarten doet hij het ook perfect zonder eerst 15mb te moeten installen en rebooten.

doom 3 is nou eenmaal opengl en opengl is totaal GEEN directx

mischien in de toekomst maar tot het moment dat directx veeel betere crossplatforum support krijg begin ik daarin te geloven
Ik ben eigenlijk veel meer benieuwd naar hoeveel warmte de 5700U produceert, want qua prestaties zijn ze dus ongeveer gelijk (met voordeel voor Ati in DX9). Van de 9600XT weten we dat deze amper hitte produceert dankzij het verbeterde 0.13u proces, het enige wat ik van de 5700U weet is dat er door (Gainward?) geadverteerd werd met het gebruik van _drie_ fans (alsof dat een wenselijke feature is)... |:(
Er staat me iets bij van dat forceware een soort van BIOS-setup voor in windows zou worden, was zelfs een artikel op de FP...
Thx, shigeru, +1 behulpzaam, ware het niet dat ik niet meer kon modden.
zitten d'r nou twee DVI uitgangen op?
Ja, tegenwoordig krijg je een koppelstukje meegeleverd op toch een analoge monitor te kunnen aansluiten...
Als ze d'r maar 2 van bijleveren, ik draai graag 2 analoge monitoren.
Voor een paar eurotjes weet je alles, maar denk wel dat je twee convertertjes erbij krijgt voor de prijs ;)
dat had mijn gainward ti4600 golden sample ook al, dus das niks nieuws onder de zon. Dat koppelstuk vond ik zelf wel minder trouwens, omdat de kabel vaak toch aardig dik is gaat hij een beetje hangen op de aansluiting van je kaart. Niet dat het ooit problemen heeft veroorzaakt voor zover ik weet maar het gevoel wat ik erbij had was toch minder.
Heb nu zelf een fx5900ultra 256mb (4 sale) en die heeft een dvi en een dsub15 uitgang........
Ik kan trouwens nog steeds de omega 45.23 drivers aanraden voor FX gebruikers, met deze drivers lever je in prestaties nauwelijks in (ik doe 7000+ in 3dmark03) en de kwaliteit is gewoon goed, nergens foutjes te bekennen (tot nog toe iig)
Ik wou dat ze deze drivers eens wat vaker meenamen in benchmarks, net als de omega driver voor ati.
maar maakt zich wel enigszins zorgen over bepaalde problemen met betrekking tot de beeldkwaliteit van de ATi-kaart in sommige spellen.
Ik dacht dat dit een probleem was van de nVidia kaarten. En nu blijkt het bij Ati ook voor te komen. :?
NVidia heeft Tommie wat ingefluisterd...

Meer details erover op: http://www.elitebastards.com/page.php?pageid=2397&head=1&comments=1.

Samengevat: Slechts 1 van de drie genoemde punten lijkt hout te snijden, maar betreft een artefact dat vrijwel nooit voorkomt. Gewoon een daadwerkelijk bug. Voorlopig geen enkele sprake van dat ATI IQ voor prestaties inwisselt.

Wel wonderlijk dat Tom wel deze zeer vage beschuldigingen naar ATI noemt, maar zwijgt over alle IQ issues van de nieuwe NVidia drivers, zoals de unreal cheat, die NVidia nu op alle DirectX spellen toepast...
Eventjes over de die 52.16 drivers, ze doen het niet al te best.

Ontzettend veel corrupte graphics in BF1942.
Moet je ook niet over zagen want nvidia zet het bij hun "known issues" |:(
FFtjes search door de release notes voor 'battlefield'.

2 items:

• GeForce4 MX 440 and GeForce4 Ti 4400, Windows XP: Blue-screen crash
during Battlefield 1942 Desert Combat.

• GeForce FX 5950 Ultra and GeForce4 Ti 4400, Windows XP: Rendering
corruption in Battlefield 1942 Desert Combat.

Ik heb last van het laatste, alleen heb ik een Geforce4 ti4200 :?

Zal wel niet kaart specifiek zijn.
Die hele driver is weer gewoon klote. (Zoals we sinds de 45 versie gewent zijn....)

Ook in deze variant wordt doodleuk tri-lineaire filtering voor alle DirectX spellen door een inferieure variant vervangen, zonder dat de gebruiker dat kan tegenhouden. De oude Unreal cheat wordt nu dus overal toegepast.

En op het gebied van anti-aliasing lopen ze weer mijlenver achter op ATI. In de helft van de spellen lijkt het uberhaupt niet te werken, en de rest is het effect heel erg klein.

AF lijkt soms heel goed, maar soms ook verschrikkelijk slecht. Kijk eens naar die FlightSim screenshots op HardOCP. Ongelooflijk hoe blurry die bij NVidea zijn t.o.v. ATI.
De keus van Anandtech zal bij de jongens van Beyond3d.com niet echt als een verrassing komen :+
http://www.beyond3d.com/forum/viewtopic.php?t=8625 Inderdaad, vooral die conclussie dat de FX 5700U nu de beste midrang kaart is (welke hier boven staat) word helemaal met de grond gelijk gemaakt. ;)
Het is dan ook de vraag hoe ze aan die conclussie komen als met FSAA en AF ze beide evenveel benchmarks winnen.
Ongelooflijk dat Anandtech bezig blijft met die volslagen belachelijke reviews. De NVidia bias druipt gewoonweg van het scherm af.

Na zoveel gelazer over verminderde beeldkwaliteit in de NVidia drivers om de prestaties op te klikken, nog steeds een review doen zonder beeld kwaliteit in acht te nemen....

Leuk dat iedereen (ook bij de Aandtech forums) aangeeft dat de conclusies niet passen bij de review, maar de hele review verdient het niet eens om besproken te worden. Onmiddellijk naar de prullenbak met die troep.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True