Introductie
Er zijn van die componenten waar je stad en land voor afgaat, die schijnbaar zo zeldzaam zijn dat je bijna denkt dat ze niet bestaan. Betaalbare dual DVI grafische kaarten met voldoende 3d-power om zowel de games van vandaag als morgen mee te kunnen spelen, zijn van die weinig voorkomende hardwareonderdelen. Nu zijn dual DVI-kaarten op zich niets nieuws, ze komen namelijk al geruime tijd voor op de professionele markt. Denk aan bijvoorbeeld de honderden en zelfs meer dan duizend euro kostende kaarten in de nVidia Quadro- en de ATi FireGL-series, of de diverse Matrox-kaarten. Echter, de hoge prijzen en de soms ondermaatse gameprestaties maken deze kaarten ongeschikt voor de consument die thuis zijn digitale TFT's wil aansluiten en er ook mee wil gamen.
Waarom dual DVI?
DVI is een afkorting voor Digital Visual Interface, een standaard van de DDWG (Digital Display Working Group). In tegenstelling tot de gebruikelijke analoge dataoverdracht van grafische kaart naar monitor vindt bij DVI de overdracht geheel digitaal plaats, zonder conversies van digitaal naar analoog. Hierdoor treden er geen signaalverliezen op en wordt het scherm optimaal aangestuurd. Je kunt zo beter beeld krijgen en hoeft geen moeite meer te doen het beeld goed af te stellen. Dit in combinatie met de sterke stijging van de TFT-verkoop maakt dat er logischerwijze behoefte ontstaat aan kaarten met twee DVI-uitgangen.
Een handjevol fabrikanten is hier gelukkig op ingesprongen en voert betaalbare dual DVI kaarten in het assortiment. Asus heeft de zogenaamde Video Suite-serie bestaande uit nVidia's FX5200 en 5600, en Gainward heeft ook een op de FX 5600 gebaseerde dual DVI kaart. Dit zijn betaalbare kaarten waar mee te gamen is, echter, de 3d-prestaties van de FX 5600 zijn niet meer hoogstaand te noemen en die van de FX 5200 zijn dat nooit geweest. We zochten iets met meer 'punch' en vonden de FX 5700 Ultra. Zowel Gainward als XFX heeft op basis van deze nVidia GPU een dual DVI kaart in het assortiment en dit zijn meteen de snelste dual DVI-kaarten voor de consumentenmarkt. De XFX met de absurd lange typeaanduiding GeForce FX 5700 Ultra 128MB DDRII Dual DVI & Vivo zal het onderwerp van deze review zijn. Een waarschuwing vooraf: dit zal geen 'benchmark galore' worden. Wie op bergen grafieken vol met FPS- en andere 3d-scores kickt, zal niet helemaal aan zijn trekken komen.
Out of the boX
De kaart wordt geleverd in een bijzondere doos, in de vorm van een driedimensionale X. In de achterkant van de doos zit een opening waarachter de kaart zelf te bewonderen is. De doorzichtige blisterverpakking waar de kaart veilig in opgeborgen zit doet dienst als venster. Al met al een originele verpakking die erg herkenbaar is.

Maken we de doos open dan treffen we naast de kaart de volgende spullen aan: twee manuals, zes cd's, drie kabels en twee DVI->VGA adapters. De manuals zijn voorzien van een glossy kaft; de ene is een quick install guide met enkele Nederlandstalige bladzijden, de andere is volledig in het Engels maar een stuk uitgebreider. De drie kabels zijn voor het Video In- en Video Out-gedeelte (VIVO). De cd's staan naast drivers vol met games, waaronder Comanche4, Ghost Recon en Racing Simulation 3.

Nu de kaart zelf. Er vallen meteen drie dingen op: hij is blauw, heeft twee DVI-I-aansluitingen en heeft de afmetingen van een surfplank zo lijkt het wel.

De liniaal mat een PCB van 21,5cm lengte. Hiermee valt deze XFX qua afmetingen in dezelfde categorie als de FX 5900-reeks en de oudere Ti 4600-kaarten. Deze lengte hoeft geen probleem te zijn, maar voor mensen met kleine, volgebouwde behuizingen kan het misschien wel eens lastig zijn. Tijdens het testen waren er hier in ieder geval geen problemen mee. Verder heeft XFX volledig het nVidia-referentieontwerp gevolgd en daar is op zich niks mis mee.
Koeling, temperaturen en geluid
De kaart is aan beide zijdes voorzien van koeling: aan de ene kant worden de GPU en de DDRII-geheugenchips actief gekoeld en op de andere zijde worden de overige geheugenchips passief gekoeld. De koeling heeft normale fysieke afmetingen, dat wil zeggen dat je gerust een PCI-kaart in het slot pal onder de AGP poort kunt steken.

Ondanks dat geluidservaringen erg persoonlijk zijn en er niet gemeten is met een decibelmeter, kan het geluid als betrekkelijk rustig worden bestempeld. Om een vergelijking te maken, de Matrox Parhelia en de LeadTek A250 Ultra TD Ti4600 (van beide zijn meerdere exemplaren 'beluisterd') maken meer geluid. Het is zeker geen fluisterstille koeling, daarvoor zijn de 40mm-fans ook niet erg geschikt. In het testsysteem, dat is uitgerust met vrij stille fans, kon er toch nog een geluidsafname waargenomen worden bij het uitschakelen van de GPU-fan. In ieder geval is het geen hinderlijk geluid.
De temperaturen zijn gemeten met zowel nVidia's eigen driver (Temperature Settings tab) en een IR-pistoolthermometer. Tijdens 2d-werkzaamheden draait de core op 300MHz en wordt dan plusminus 45°C. De heatsinks worden dan 36~38°C. Met 3DMark03 versnelt de core automagisch naar 475MHz (de 3d-modus, zie figuur) waarbij de temperatuur kan oplopen tot 70°C en de heatsinks 46~48°C worden. Het geheugen blijft in zowel de 2d- als 3d-modus op 950MHz DDR werken. Zeventig graden Celsius is niet iets om met je handen beet te pakken, maar blijft ruimschoots onder de maximum waarde van 127°C, die default is ingesteld als 'core slowdown threshold'; een waarde waarbij de GPU langzamer zal gaan draaien wanneer deze waarde bereikt wordt.



Testsysteem, prestaties en overklokken
Het testsysteem bestond uit de volgende onderdelen:
- CPU: 2x Intel Xeon 2,8GHz FSB533
- Moederbord: Intel VeroBeach E7505
- Geheugen: 1536MB Crucial registered ECC PC2100
- OS: Windows XP Pro SP1
- Driver: Forceware 53.03
- Beeldchermen: 2x Eizo L685 via DVI-D kabels verbonden
Over de prestaties van de FX 5700 Ultra is al veel geschreven, zie ondermeer deze Tweakers.net review. Bij de introductie was dit eindelijk weer eens, in tegenstelling tot de GeForce FX 5600, een goed presterende modale kaart van nVidia die het met gemak op kon nemen tegen ATi's snelste middenklasser, de Radeon 9600XT. Echter, nVidia kwam vlot daarna met de FX 5900XT, een kaart die voor slechts een paar euro meer nóg beter presteert. In feite is de 5900XT de betere koop, maar omdat deze niet als dual DVI-variant verkrijgbaar was, valt deze voor een productvergelijking in dit verhaal buiten de boot. Wel relevant zijn de overige dual DVI-kaarten. Een vergelijkende prestatietabel is overbodig omdat de FX 5700 Ultra gewoonweg het snelste is wat er te krijgen is; de FX 5200 en 5600 en de Matrox 550, P650, P750 en Parhelia zijn allemaal duidelijk langzamer. Verder bestaan er geen recente dual DVI-kaarten met andere GPU's. MSI, Gainward en Asus hebben in het verleden dual DVI-kaarten op basis van de GeForce Ti4600 en Ti4200 uitgebracht, maar deze zijn niet meer te krijgen. De duurdere professionele OpenGL-kaarten zijn hier buiten beschouwing gelaten.
Na het toepassen van de illustere Coolbits registry hack is de XFX aan enkele overklokpogingen blootgesteld. De standaard kloksnelheden voor de GPU en het geheugen in 3d-modus zijn respectievelijk 475MHz en 950MHz DDR. Met deze snelheden haalde het testsysteem 3849 3DMark03-punten. Nadat de snelheden waren opgevoerd naar 500MHz en 1000MHz werden dit 4080 punten, een winst van 6% bij een overklok van 5%. Met 525MHz en 1050MHz verschenen tijdens 3DMark03 dingen op het scherm die er niet hoorden te zijn. Daarom werd de kaart handmatig teruggeschakeld naar 500MHz en 1000MHz. Met deze laatste snelheden traden er geen artefacts op, niet tijdens het benchmarken en ook niet in de diverse games. Al met al geen overklokwonder met de behaalde 5%. Dit exemplaar zou wellicht een iets hogere snelheid kunnen halen, maar het is betrekkelijk zinloos om alle settings tussen 500/1000 en 525/1050 te testen, de prestatieverschillen zijn daar te klein voor.
Beeldkwaliteit en DVI
De beide TFT's in de test en de XFX zijn voorzien van DVI-I-connectoren en staan door middel van 1,8 meter lange DVI-D-kabels met elkaar in verbinding. DVI-D-kabels geven alleen een digitaal signaal door en kunnen probleemloos op DVI-I-connectoren aangesloten worden. Het enige verschil tussen DVI-D en DVI-I is dat de laatste ook in staat is analoge signalen te versturen. Daarvoor wordt er gebruikgemaakt van andere pinnen in de connectors (zie afbeelding):

In deze digitale opstelling is het beeld perfect: geen enkele afwijking, schaduw, vertekening of andere anomalie. Dit mag je verwachten van DVI maar je hebt helaas niet altijd de garantie dat je goed beeld krijgt. In de DVI-keten van grafische kaart naar monitor levert de GPU zijn digitale datastroom aan de TMDS (Transition Minimized Differential Signaling) transmitter. Die zet de datastroom met behulp van een encoderingsalgoritme om in een digitaal DVI-signaal en verzendt dit via de TMDS-link (de DVI-kabel) naar de monitor. In de monitor zit een TMDS receiver die de datastroom ontvangt en omzet naar de juiste digitale data om beeld op het paneel te toveren. Hieronder een schema uit de DDWG DVI 1.0 specificaties:

Naast de gebruikte DVI-kabel (lengte en kwaliteit) is ook de TMDS transmitter van grote invloed op de signaalkwaliteit. De XFX is voorzien van één discrete (losse) TMDS van Silicon Image, wat betekent dat de interne TMDS van de GPU zelf ook wordt gebruikt.

Dit laatste temperde enigszins de verwachtingen, omdat nVidia's eigen transmitters - in de GPU - niet bepaald bekend staan om de hoge kwaliteit. Diverse testen hebben aangetoond (zie bijvoorbeeld dit goede artikel op ExtremeTech) dat nVidia's interne TMDS bij hogere frequenties vaak geen zuiver signaal meer genereert, wat bij hoge resoluties een negatieve invloed heeft op de beeldkwaliteit - zoals verspringende pixels en jitter. Dat nVidia op diverse Quadro dual DVI-kaarten twee discrete TMDS-units toepast en zo de eigen interne transmitter buiten spel zet, zegt ook het een en ander over het vertrouwen in de eigen TMDS.
Bij de nieuwe dual DVI Quadro FX 1100 valt er echter maar één discrete TMDS te ontwaren. Dat biedt hoop op verbetering, temeer omdat deze Quadro op dezelfde NV36 core is gebaseerd als de FX 5700 Ultra. De beeldkwaliteit hangt ook af van hoe de TFT met de signalen omgaat en van de kwaliteit van de gebruikte kabels. Bij een resolutie van 1280*1024 valt geen enkele afwijking te ontwaren; op beide DVI-uitgangen is het beeld geheel foutloos. Helaas kon er bij gebrek aan geschikte TFT's niet getest worden met een resolutie van 1600*1200. Bij deze resolutie haalt het DVI-signaal bijna zijn hoogste frequentie (max. 165MHz) en worden signaalonzuiverheden eerder blootgelegd dan bij de 108MHz signaalsnelheid waar een 1280*1024-resolutie om vraagt. Maar nu nVidia duidelijk vertrouwen toont in de eigen TMDS en discrete exemplaren weinig problemen kennen ligt het in de lijn der verwachtingen dat ook bij de hogere 1600*1200-resoluties een prima beeld wordt gegenereerd.
Dual in de praktijk en conclusie
Aansluiten van beide schermen aan de grafische kaart is niet anders dan met de oudere VGA-aansluitingen; gewoon in positie drukken en vastschroeven. Bij het aanzetten is het beeld direct goed ingesteld qua breedte, hoogte, fase, positie en dergelijke, dankzij DVI. De kaart zelf maakt schijnbaar geen onderscheid tussen een primaire en een secundaire monitor, omdat op beide schermen de POST wordt getoond evenals het Windows opstartscherm. Binnen Windows kan ingesteld worden welk scherm het hoofdscherm is.
nVidia levert sinds de ForceWare 50 release inmiddels de derde uitvoering van nView mee. Dit is een robuuste en met vele functies overgoten stuk software, waarmee je twee of meer schermen optimaal kunt gebruiken. Het instellen van dual-monitorgebruik is simpel. Je kunt nu onder Windows XP zelfs on the fly wisselen tussen 'stretched modus' (beide schermen worden als één gezien), Clone (scherm 2 is een exacte kopie van scherm 1) en Dualview (beide schermen hebben onafhankelijk van elkaar een eigen resolutie en refreshrate). Dit kan makkelijk zijn voor bepaalde toepassingen. Hang een 'profile' aan de toepassing en je hoeft alleen van profile te wisselen zonder alle instellingen één voor één langs te gaan. Eigenlijk kun je hier enorm over uitweiden; dat de nView manual 195(!) bladzijden telt geeft wel aan hoeveel je er mee kunt doen. Veel nuttige dingen, maar ook gimmicks. In de praktijk vindt ondergetekende het net zo prettig werken als de software van multimonitorkoning Matrox. Dit hangt natuurlijk af van wat je er mee doet, want beide hebben zo hun eigen unieke features. Het enige dat zo op het oog mist (of het is goed 'verstopt') ten opzichte van de vorige nView-versie is de mogelijkheid de taakbalk in Dualview modus over beide schermen te laten lopen. Met een tooltje als Ultramon is dit zo opgelost maar het is fijner als dit soort zaken standaard ingesteld kunnen worden zonder hulp van buitenaf.
Conclusie
Zoek je een dual DVI-kaart met de hoogst mogelijke prestaties, dan kun je niet om de XFX FX 5700 Ultra dual DVI heen. Samen met de Gainward 960TV/DVI/DVI is dit de snelste dual DVI-kaart op de markt. Dit zegt tevens het een en ander over de markt. Daar waar je omkomt in de keuzemogelijkheden tussen de letterlijk duizenden grafische kaarten met een analoge VGA-connector, één DVI interface, of beide, is de keuze onder de dual DVI-kaarten enorm beperkt. Van de grote concurrent ATi bestaan er zelfs helemaal geen dual DVI-kaarten. Hopelijk zal hier in de toekomst verandering in komen, want meer keuze is altijd beter. Het begint zo een beetje op een 'In het land der blinden is eenoog koning'-verhaal te lijken. In feite is dat ook zo maar dat neemt niet weg dat je met de XFX FX 5700 Ultra dual DVI een puike kaart in huis haalt met perfect beeld en voor de meerderheid der spellen meer dan genoeg power.
Colofon:
Met dank voor de review en foto's aan Abbadon.