Door Redactie Tweakers

XFX GeForce FX 5700 Ultra Dual DVI & Vivo review

19-03-2004 • 10:51

21

Multipage-opmaak

Introductie

Er zijn van die componenten waar je stad en land voor afgaat, die schijnbaar zo zeldzaam zijn dat je bijna denkt dat ze niet bestaan. Betaalbare dual DVI grafische kaarten met voldoende 3d-power om zowel de games van vandaag als morgen mee te kunnen spelen, zijn van die weinig voorkomende hardwareonderdelen. Nu zijn dual DVI-kaarten op zich niets nieuws, ze komen namelijk al geruime tijd voor op de professionele markt. Denk aan bijvoorbeeld de honderden en zelfs meer dan duizend euro kostende kaarten in de nVidia Quadro- en de ATi FireGL-series, of de diverse Matrox-kaarten. Echter, de hoge prijzen en de soms ondermaatse gameprestaties maken deze kaarten ongeschikt voor de consument die thuis zijn digitale TFT's wil aansluiten en er ook mee wil gamen.

* Waarom dual DVI?

DVI is een afkorting voor Digital Visual Interface, een standaard van de DDWG (Digital Display Working Group). In tegenstelling tot de gebruikelijke analoge dataoverdracht van grafische kaart naar monitor vindt bij DVI de overdracht geheel digitaal plaats, zonder conversies van digitaal naar analoog. Hierdoor treden er geen signaalverliezen op en wordt het scherm optimaal aangestuurd. Je kunt zo beter beeld krijgen en hoeft geen moeite meer te doen het beeld goed af te stellen. Dit in combinatie met de sterke stijging van de TFT-verkoop maakt dat er logischerwijze behoefte ontstaat aan kaarten met twee DVI-uitgangen.

Een handjevol fabrikanten is hier gelukkig op ingesprongen en voert betaalbare dual DVI kaarten in het assortiment. Asus heeft de zogenaamde Video Suite-serie bestaande uit nVidia's FX5200 en 5600, en Gainward heeft ook een op de FX 5600 gebaseerde dual DVI kaart. Dit zijn betaalbare kaarten waar mee te gamen is, echter, de 3d-prestaties van de FX 5600 zijn niet meer hoogstaand te noemen en die van de FX 5200 zijn dat nooit geweest. We zochten iets met meer 'punch' en vonden de FX 5700 Ultra. Zowel Gainward als XFX heeft op basis van deze nVidia GPU een dual DVI kaart in het assortiment en dit zijn meteen de snelste dual DVI-kaarten voor de consumentenmarkt. De XFX met de absurd lange typeaanduiding GeForce FX 5700 Ultra 128MB DDRII Dual DVI & Vivo zal het onderwerp van deze review zijn. Een waarschuwing vooraf: dit zal geen 'benchmark galore' worden. Wie op bergen grafieken vol met FPS- en andere 3d-scores kickt, zal niet helemaal aan zijn trekken komen.

* Out of the boX

De kaart wordt geleverd in een bijzondere doos, in de vorm van een driedimensionale X. In de achterkant van de doos zit een opening waarachter de kaart zelf te bewonderen is. De doorzichtige blisterverpakking waar de kaart veilig in opgeborgen zit doet dienst als venster. Al met al een originele verpakking die erg herkenbaar is.

XFX FX 5700 - Dozen

Maken we de doos open dan treffen we naast de kaart de volgende spullen aan: twee manuals, zes cd's, drie kabels en twee DVI->VGA adapters. De manuals zijn voorzien van een glossy kaft; de ene is een quick install guide met enkele Nederlandstalige bladzijden, de andere is volledig in het Engels maar een stuk uitgebreider. De drie kabels zijn voor het Video In- en Video Out-gedeelte (VIVO). De cd's staan naast drivers vol met games, waaronder Comanche4, Ghost Recon en Racing Simulation 3.

XFX FX 5700 - Doosinhoud

Nu de kaart zelf. Er vallen meteen drie dingen op: hij is blauw, heeft twee DVI-I-aansluitingen en heeft de afmetingen van een surfplank zo lijkt het wel.

XFX FX 5700 - Kaartaanzichten

De liniaal mat een PCB van 21,5cm lengte. Hiermee valt deze XFX qua afmetingen in dezelfde categorie als de FX 5900-reeks en de oudere Ti 4600-kaarten. Deze lengte hoeft geen probleem te zijn, maar voor mensen met kleine, volgebouwde behuizingen kan het misschien wel eens lastig zijn. Tijdens het testen waren er hier in ieder geval geen problemen mee. Verder heeft XFX volledig het nVidia-referentieontwerp gevolgd en daar is op zich niks mis mee.

Koeling, temperaturen en geluid

De kaart is aan beide zijdes voorzien van koeling: aan de ene kant worden de GPU en de DDRII-geheugenchips actief gekoeld en op de andere zijde worden de overige geheugenchips passief gekoeld. De koeling heeft normale fysieke afmetingen, dat wil zeggen dat je gerust een PCI-kaart in het slot pal onder de AGP poort kunt steken.

XFX FX 5700 - Koeler close up

Ondanks dat geluidservaringen erg persoonlijk zijn en er niet gemeten is met een decibelmeter, kan het geluid als betrekkelijk rustig worden bestempeld. Om een vergelijking te maken, de Matrox Parhelia en de LeadTek A250 Ultra TD Ti4600 (van beide zijn meerdere exemplaren 'beluisterd') maken meer geluid. Het is zeker geen fluisterstille koeling, daarvoor zijn de 40mm-fans ook niet erg geschikt. In het testsysteem, dat is uitgerust met vrij stille fans, kon er toch nog een geluidsafname waargenomen worden bij het uitschakelen van de GPU-fan. In ieder geval is het geen hinderlijk geluid.

De temperaturen zijn gemeten met zowel nVidia's eigen driver (Temperature Settings tab) en een IR-pistoolthermometer. Tijdens 2d-werkzaamheden draait de core op 300MHz en wordt dan plusminus 45°C. De heatsinks worden dan 36~38°C. Met 3DMark03 versnelt de core automagisch naar 475MHz (de 3d-modus, zie figuur) waarbij de temperatuur kan oplopen tot 70°C en de heatsinks 46~48°C worden. Het geheugen blijft in zowel de 2d- als 3d-modus op 950MHz DDR werken. Zeventig graden Celsius is niet iets om met je handen beet te pakken, maar blijft ruimschoots onder de maximum waarde van 127°C, die default is ingesteld als 'core slowdown threshold'; een waarde waarbij de GPU langzamer zal gaan draaien wanneer deze waarde bereikt wordt.

XFX FX 5700 - Menu 2d
XFX FX 5700 - Menu 3d
XFX FX 5700 - Menu Temp

* Testsysteem, prestaties en overklokken

Het testsysteem bestond uit de volgende onderdelen:

  • CPU: 2x Intel Xeon 2,8GHz FSB533
  • Moederbord: Intel VeroBeach E7505
  • Geheugen: 1536MB Crucial registered ECC PC2100
  • OS: Windows XP Pro SP1
  • Driver: Forceware 53.03
  • Beeldchermen: 2x Eizo L685 via DVI-D kabels verbonden

Over de prestaties van de FX 5700 Ultra is al veel geschreven, zie ondermeer deze Tweakers.net review. Bij de introductie was dit eindelijk weer eens, in tegenstelling tot de GeForce FX 5600, een goed presterende modale kaart van nVidia die het met gemak op kon nemen tegen ATi's snelste middenklasser, de Radeon 9600XT. Echter, nVidia kwam vlot daarna met de FX 5900XT, een kaart die voor slechts een paar euro meer nóg beter presteert. In feite is de 5900XT de betere koop, maar omdat deze niet als dual DVI-variant verkrijgbaar was, valt deze voor een productvergelijking in dit verhaal buiten de boot. Wel relevant zijn de overige dual DVI-kaarten. Een vergelijkende prestatietabel is overbodig omdat de FX 5700 Ultra gewoonweg het snelste is wat er te krijgen is; de FX 5200 en 5600 en de Matrox 550, P650, P750 en Parhelia zijn allemaal duidelijk langzamer. Verder bestaan er geen recente dual DVI-kaarten met andere GPU's. MSI, Gainward en Asus hebben in het verleden dual DVI-kaarten op basis van de GeForce Ti4600 en Ti4200 uitgebracht, maar deze zijn niet meer te krijgen. De duurdere professionele OpenGL-kaarten zijn hier buiten beschouwing gelaten.

Na het toepassen van de illustere Coolbits registry hack is de XFX aan enkele overklokpogingen blootgesteld. De standaard kloksnelheden voor de GPU en het geheugen in 3d-modus zijn respectievelijk 475MHz en 950MHz DDR. Met deze snelheden haalde het testsysteem 3849 3DMark03-punten. Nadat de snelheden waren opgevoerd naar 500MHz en 1000MHz werden dit 4080 punten, een winst van 6% bij een overklok van 5%. Met 525MHz en 1050MHz verschenen tijdens 3DMark03 dingen op het scherm die er niet hoorden te zijn. Daarom werd de kaart handmatig teruggeschakeld naar 500MHz en 1000MHz. Met deze laatste snelheden traden er geen artefacts op, niet tijdens het benchmarken en ook niet in de diverse games. Al met al geen overklokwonder met de behaalde 5%. Dit exemplaar zou wellicht een iets hogere snelheid kunnen halen, maar het is betrekkelijk zinloos om alle settings tussen 500/1000 en 525/1050 te testen, de prestatieverschillen zijn daar te klein voor.

Beeldkwaliteit en DVI

De beide TFT's in de test en de XFX zijn voorzien van DVI-I-connectoren en staan door middel van 1,8 meter lange DVI-D-kabels met elkaar in verbinding. DVI-D-kabels geven alleen een digitaal signaal door en kunnen probleemloos op DVI-I-connectoren aangesloten worden. Het enige verschil tussen DVI-D en DVI-I is dat de laatste ook in staat is analoge signalen te versturen. Daarvoor wordt er gebruikgemaakt van andere pinnen in de connectors (zie afbeelding):

XFX FX 5700 - DVI-aansluitingen

In deze digitale opstelling is het beeld perfect: geen enkele afwijking, schaduw, vertekening of andere anomalie. Dit mag je verwachten van DVI maar je hebt helaas niet altijd de garantie dat je goed beeld krijgt. In de DVI-keten van grafische kaart naar monitor levert de GPU zijn digitale datastroom aan de TMDS (Transition Minimized Differential Signaling) transmitter. Die zet de datastroom met behulp van een encoderingsalgoritme om in een digitaal DVI-signaal en verzendt dit via de TMDS-link (de DVI-kabel) naar de monitor. In de monitor zit een TMDS receiver die de datastroom ontvangt en omzet naar de juiste digitale data om beeld op het paneel te toveren. Hieronder een schema uit de DDWG DVI 1.0 specificaties:

XFX FX 5700 - Schema streams

Naast de gebruikte DVI-kabel (lengte en kwaliteit) is ook de TMDS transmitter van grote invloed op de signaalkwaliteit. De XFX is voorzien van één discrete (losse) TMDS van Silicon Image, wat betekent dat de interne TMDS van de GPU zelf ook wordt gebruikt.

XFX FX 5700 - TMDS close up

Dit laatste temperde enigszins de verwachtingen, omdat nVidia's eigen transmitters - in de GPU - niet bepaald bekend staan om de hoge kwaliteit. Diverse testen hebben aangetoond (zie bijvoorbeeld dit goede artikel op ExtremeTech) dat nVidia's interne TMDS bij hogere frequenties vaak geen zuiver signaal meer genereert, wat bij hoge resoluties een negatieve invloed heeft op de beeldkwaliteit - zoals verspringende pixels en jitter. Dat nVidia op diverse Quadro dual DVI-kaarten twee discrete TMDS-units toepast en zo de eigen interne transmitter buiten spel zet, zegt ook het een en ander over het vertrouwen in de eigen TMDS.

Bij de nieuwe dual DVI Quadro FX 1100 valt er echter maar één discrete TMDS te ontwaren. Dat biedt hoop op verbetering, temeer omdat deze Quadro op dezelfde NV36 core is gebaseerd als de FX 5700 Ultra. De beeldkwaliteit hangt ook af van hoe de TFT met de signalen omgaat en van de kwaliteit van de gebruikte kabels. Bij een resolutie van 1280*1024 valt geen enkele afwijking te ontwaren; op beide DVI-uitgangen is het beeld geheel foutloos. Helaas kon er bij gebrek aan geschikte TFT's niet getest worden met een resolutie van 1600*1200. Bij deze resolutie haalt het DVI-signaal bijna zijn hoogste frequentie (max. 165MHz) en worden signaalonzuiverheden eerder blootgelegd dan bij de 108MHz signaalsnelheid waar een 1280*1024-resolutie om vraagt. Maar nu nVidia duidelijk vertrouwen toont in de eigen TMDS en discrete exemplaren weinig problemen kennen ligt het in de lijn der verwachtingen dat ook bij de hogere 1600*1200-resoluties een prima beeld wordt gegenereerd.

Dual in de praktijk en conclusie

Aansluiten van beide schermen aan de grafische kaart is niet anders dan met de oudere VGA-aansluitingen; gewoon in positie drukken en vastschroeven. Bij het aanzetten is het beeld direct goed ingesteld qua breedte, hoogte, fase, positie en dergelijke, dankzij DVI. De kaart zelf maakt schijnbaar geen onderscheid tussen een primaire en een secundaire monitor, omdat op beide schermen de POST wordt getoond evenals het Windows opstartscherm. Binnen Windows kan ingesteld worden welk scherm het hoofdscherm is.

nVidia levert sinds de ForceWare 50 release inmiddels de derde uitvoering van nView mee. Dit is een robuuste en met vele functies overgoten stuk software, waarmee je twee of meer schermen optimaal kunt gebruiken. Het instellen van dual-monitorgebruik is simpel. Je kunt nu onder Windows XP zelfs on the fly wisselen tussen 'stretched modus' (beide schermen worden als één gezien), Clone (scherm 2 is een exacte kopie van scherm 1) en Dualview (beide schermen hebben onafhankelijk van elkaar een eigen resolutie en refreshrate). Dit kan makkelijk zijn voor bepaalde toepassingen. Hang een 'profile' aan de toepassing en je hoeft alleen van profile te wisselen zonder alle instellingen één voor één langs te gaan. Eigenlijk kun je hier enorm over uitweiden; dat de nView manual 195(!) bladzijden telt geeft wel aan hoeveel je er mee kunt doen. Veel nuttige dingen, maar ook gimmicks. In de praktijk vindt ondergetekende het net zo prettig werken als de software van multimonitorkoning Matrox. Dit hangt natuurlijk af van wat je er mee doet, want beide hebben zo hun eigen unieke features. Het enige dat zo op het oog mist (of het is goed 'verstopt') ten opzichte van de vorige nView-versie is de mogelijkheid de taakbalk in Dualview modus over beide schermen te laten lopen. Met een tooltje als Ultramon is dit zo opgelost maar het is fijner als dit soort zaken standaard ingesteld kunnen worden zonder hulp van buitenaf.

* Conclusie

Zoek je een dual DVI-kaart met de hoogst mogelijke prestaties, dan kun je niet om de XFX FX 5700 Ultra dual DVI heen. Samen met de Gainward 960TV/DVI/DVI is dit de snelste dual DVI-kaart op de markt. Dit zegt tevens het een en ander over de markt. Daar waar je omkomt in de keuzemogelijkheden tussen de letterlijk duizenden grafische kaarten met een analoge VGA-connector, één DVI interface, of beide, is de keuze onder de dual DVI-kaarten enorm beperkt. Van de grote concurrent ATi bestaan er zelfs helemaal geen dual DVI-kaarten. Hopelijk zal hier in de toekomst verandering in komen, want meer keuze is altijd beter. Het begint zo een beetje op een 'In het land der blinden is eenoog koning'-verhaal te lijken. In feite is dat ook zo maar dat neemt niet weg dat je met de XFX FX 5700 Ultra dual DVI een puike kaart in huis haalt met perfect beeld en voor de meerderheid der spellen meer dan genoeg power.

Colofon:
Met dank voor de review en foto's aan Abbadon.

Reacties (21)

21
21
14
1
0
3
Wijzig sortering
Is een DVI aansluiting nu duurder om te maken dan voor een crt?
want als je er toch gewoon een "verloop" stekkertje bij kan krijgen snap ik niet waarom ze nog steeds kaarten maken met 2 verschillende aansluitingen, dat lijkt me dan alleen maar lastiger voor het productieproces.
mja aangezien tft toch de norm wordt, zal het over een jaartje wel allemaal dual DVI zijn, mensen moeten die extra ruimte die op het bureau vrij komt na verwijdering van die lompe 19" CRT toch vullen :D
Nou ja eigenlijk zouden die niet duurder moeten zijn, voor een VGA stekker moeten ze een extra DA-converter op die kaarten plakken, maar DVI is nieuw dus kan je er meer voor vragen denk ik
voor de dvi stekker zit die converter er volgens mij ook op, ik weet niet precies hoe het werkt maar ik gok zo:
er komen 2 signalen van de chip af, 1 gaat direct naar de dvi uitgang, de ander gaat door de filter en dan naar de dvi uitgang. echter de 2e gaat op bepaalde pinnen terwijl de eerste over andere pinnen gaat. in de dvi > analoog stekker worden de dvi signalen niet gebruikt en worden de analoge signalen omgezet op de d-sub 15 pinnen.

immers je kan niet zomaar een dvi signaal over een analoge stekker/kabel sturen want dan snapt de monitor er nix van.

dat maakt ook het verschil tussen dvi-i en dvi-d. de een kan wel dvi>analoog aan en de ander niet puur door een aantal pinnen

zie ook dit dvi plaatje:
verschil dvi-i en dvi-d
Voor een gewoon VGA heb je een DA converter nodig. En uit het artokel blijkt dat je voor DVI ook al een converter nodig hebt.

Dus volgens mij is het duurder omdat je buiten de standaard VGA DA converters ook nog eens DVI converters moet hebben.

Dit houdt ongetwijfeld in dat ze geen gebruik kunnen maken van een reference design van de fabrikant van de GPU. Dus moeten ze alles zelf doen, en dat maakt het ook weer duurder/minder aantrekkelijk.

Ik denk dat als de GPU fabrikanten een reference design maken voor een Dual DVI kaart voor de consumenten markt dat soort kaarten in eens door iedereen geleverd worden.

Nu moet er blijkbaar nog veel zelf ontwikkeld worden, dus nemen minder fabrikanten het risico..
mensen moeten die extra ruimte die op het bureau vrij komt na verwijdering van die lompe 19" CRT toch vullen
Vandaar de mooie doos ;)
Jij moet wel een erg lelijke CRT hebben gehad :P

Vind mijn Samsung 753DFX absoluut niet lomp O+

Bovendien ben ik nog steeds een voorstander van CRT schermen omdat het gewoon mooier beeld geeft ;)

TFT Schermen moeten wel erg goed worden wil je mij zien overstappen op een TFT Scherm :z
Om de temperatuur uittelezen van je nvidia kaart in de display properties, moet je daar ook een soort coolbits.reg voor hebben? Zoals die ervoor de clock frequencies ook is.
Nee, is gewoon een default feature :)
[off topic maar toch]

Werk dit ook met een FX 5600?
(Ik gebruik de 53.03 drivers)

Zo ja, hoe? :Y)
Ik heb al een hele tijd een GF4 Ti4600 met 2DVI.
Dus om nou te zegen dat ze duizenden euro's kosten en op de zware grafische markt voorkomen, vind ik wat overdreven...
Dan lees je dus niet goed. Een Ti4600 is _geen_ professionele kaart zoals een Quadro of FireGL.
snap ik: alleen leek de tekst te suggereren dat 2DVI kaarten langzaam vanuit het zware grafische segment de consumentenmarkt beginnen te veroveren...
Fijne review. Ik kan me zelfs voorstellen dat er T.net bezoekers zijn die 't kaartje aan zouden willen schaffen. Je kan het alleen nergens kopen. De pricewatch gaf ook al nul op het rekest.

Zou het een idee zijn om bij van die exotische apparatski's een melding te maken waar het vandaan kwam of verkrijgbaar is (hoewel, dat zal de importeur wel zijn)? Iig heeft de review wat weinig zin als het product nergens te krijgen is. Ik weet nu dat het er is en ben misschien wel helemaal verlekkerd, maar kan het product dus niet kopen.

* 786562 Yetl
edit: typo
Een uurtje later, en er zijn alweer 3 aanbieders ;)
Als je even langs wat XFX dealers gaat loop je er al snel een op 't lijf. Zo heeft bijvoorbeeld Paradigit deze kaart in het assortiment. Deze kun je daar krijgen voor €229,-.
Ik zit erover na te denken om 2 Samsung 172x TFT's te kopen, maar wat mij tegenhoud is het ontbreken van kaarten met 2 DVI aansluitingen.
Vond het al erg raar dat die niet echt ruim aanwezig zijn.

Hopelijk komen er snel Ati kaarten met 2 DVI-aansluitingen, zodat er een beetje concurrentie komt.

De komende paar maanden kijk ik het wel aan, voordat ik nu meteen naar de winkel ren om 2 TFT's + deze kaart te kopen. Ik denk dat het voor de gewone consument verstandiger is om een tijdje te wachten en kijken wat de verschillende fabrikanten op de markt gooien.
Als iedereen altijd zo denkt, wordt er nooit wat goedkoper hé...
Ik zou zeggen, waar wacht je op? Dan wacht ik wel tot jij ervoor gezorgd hebt dat ik niet meer de hoofdprijs betaal :)
Hoe zit het nu met DVD playback?
Ik zoek al een tijdje een goede kaart voor EN een TFT EN een DVI aansluiting voor de beamer. Tot nu toe altijd aan ATI gedacht (en de beamer dan maar op de VGA) wegens de perfecte DVD weergave van ATI.
Ik zat al de hele tijd te twijfelen om deze kaart te kopen, nu is er eindelijk een review. Alleen jammer dat er niet op 1600x1200 is getest. Op 1280x1024 werkt elke DVI aansluiting wel prima. Maar goed, dit geeft de reviewer ook aan. Waar het mij vooral om gaat is dat er een tweede discrete TMDS transmitter op deze kaart van Silicon zit. Ik heb nu namelijk een GF4 Ti4400 van MSI met zowel een DVI als een VGA aansluiting. Op de DVI aansluiting heb ik een 20" TFT(1600x1200) van Iiyama hangen en op de VGA aansluiting heb ik een 17" TFT(1280x1024) ook van Iiyama hangen. Ik merk heel erg dat de DVI aansluiting veel scherper is. Alleen is de DVI poort niet echt best. Bij bewegende beelden treden er al gauw artifacts op. Volgens ExtremeTech zijn de TMDS transmitters van Silicon ook stukken beter dan die van Nvidia zelf. Ik ga dus m'n 20" scherm aan de DVI poort hangen die wordt aangestuurd door de Silicon transmitter. Het enige waar ik nu nog misschien op wacht is de NV40/45. Deze zal wel een nieuwe betere interne TMDS transmitter hebben. Ook is wel te verwachten dat er meerdere fabrikanten gaan komen met dual DVI.

Wat betreft de Dual View functie, welke ik altijd gebruik zonder doorlopende taakbalk, deze is volgens mij alleen in te stellen via de wizard. Misschien heeft iemand hier nog een tip? Ik heb het overigens niet geprobeerd.
overclocken gaat wel beter hoor...

ik heb deze kaart en ze draait perfect stabiel aan:

535 voor de core en
1020 voor het geheugen..

powerfull beestje...

GreetZ


!!!! Xtra !!!!

ik heb het nog beter gekregen..

core op 550 en geheugen op 1025

prestatiewinst van ongeveer 3 tot 5 % in UT2004demo er extra boven op..

GreetZ

Op dit item kan niet meer gereageerd worden.