Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties
Bron: Tom's Hardware Guide

XGI heeft aan Tom's Hardware Guide een sample van de Volari Duo V8 Ultra beschikbaar gesteld. Zoals gewoonlijk gaat Tom's Hardware Guide als eerste uitgebreid in op de architectuur van de Volari en voegen weinig nieuws toe aan de bespreking van de Volari door PCStats. Daarna bespreekt Tom's Hardware Guide de kaart zelf, de drivers en als laatste draaien de mannen van Tom's Hardware Guide een aantal benchmarks om te zien hoe snel de Volari is ten opzichte van de actuele nVidia- en ATi-GPU's.

De Volari Duo V8 Ultra is uitgerust met twee GPU's. Dit heeft als consequentie dat er ook twee Molex-connectors voor de voeding en twee ventilators op de kaart aanwezig zijn. Helaas bleken de twee ventilators niet in staat om de kaart onder alle omstandigheden koel te houden. Daarnaast maakten deze ventilators nogal veel geluid. XGI liet echter aan Tom's Hardware Guide weten dat ze van dit probleem bewust zijn en naar een oplossing zoeken. De referentiekaart is uitgerust met DDR2-geheugen dat op een snelheid van 450MHz draait. Het geheugen op het uiteindelijke productiemodel zal echter op 500Mhz zijn werk doen.

Volari driver

XGI heeft de drivers voor de Volari-serie van videokaarten Reactor gedoopt. De menu's van de drivers zijn erg helder en bieden veel mogelijkheden, waaronder de mogelijkheid om over te klokken. Helaas zijn de drivers nog niet helemaal af. Dat blijkt uit het feit dat onder andere anisotropic filtering en FSAA nog niet aangezet kunnen worden. Daarnaast had de driver problemen met enkele scènes van Aquamark en 3DMark 2003 en was het niet mogelijk om trilinear filtering te gebruiken. Er is dus nog flink wat werk aan de winkel voor XGI.

Maar waar het uiteindelijk allemaal om draait zijn de benchmarks. Hoewel de Volari Duo V8 Ultra respectabele scores neer zet in de flyby-demo van Unreal Tournament 2003, is het de hekkesluiter in de Inferno en Magna-timedemo van het spel. Met een 3DMark 2003-score van 5260 punten, doet de nieuwe GPU het niet slecht, ware het niet dat de kwaliteit van de gerenderde beelden te wensen over laten. In Aquamark 3 kan de videokaart van XGI goed meekomen met de snelste kaarten van ATi en nVidia maar in Halo Combat Evolved is het weer de hekkesluiter. Het lijkt er op dat de Volari vooral problemen heeft met PS2.0. Quake 3 is niet de sterkste kant van de Duo V8, hoewel de scores niet slecht te noemen zijn. In Wolfenstein is het echter weer doffe ellende, ondanks dat dit spel op de Quake-engine is gebaseerd. De laatste benchmark die wordt gedraaid is de X2 Rolling demo, waarin de Volari de laatste plaats inneemt. Daar deze benchmark veel gebruik maakt van stencil shadows, lijkt het er dus op dat de kaart ook hier problemen mee heeft.

Gezien het feit dat het hier gaat om een prototype van zowel de kaart als de drivers, is het moeilijk om een conclusie te trekken. Sommige benchmarks tonen aan dat er een hoop potentieel in de nieuwe GPU zit. Andere benchmarks tonen echter aan dat er nog een hoop werk aan de winkel is voor XGI. Hopelijk kunnen alle problemen in de drivers opgelost worden en is het geen hardware probleem, want de eerste kaarten met WHQL-gecertifieerde drivers moeten over één of twee maanden op de markt verschijnen. Met een verwachte introductieprijs van rond de $300, $100 tot $200 goedkoper dan de topkaarten van ATi en nVidia, is de Volari Duo V8 Ultra dus een geduchte concurrent om rekening mee te houden, mits de drivers in orde zijn.

Volari Duo V8 Ultra
Moderatie-faq Wijzig weergave

Reacties (47)

Dit valt me eigenlijk helemaal niet tegen. Er zijn nog wat problemen, maar goed, het is dan ook pas een prototype met halve drivers.
Als je dan nagaat dat de kaart 100 dollar (minimaal) goedkoper gaat worden dan de concurrerende kaarten, dan is het ook niet zo'n ramp als ie niet in alle benchmarks bovenaan draait.

Ik had eigenlijk niet verwacht dat ie echt in de buurt van de toppers van ATI en Nvidia zou komen. Zeker omdat het een eerste product betreft, waarbij de marketing kreten van te voren meestal wat overdreven worden.
Ik denk eerlijk gezegd dat deze kaart behoorlijk wat potentieel nog heeft. Als de drivers optimaal draaien, het geheugen daadwerkelijk op 500 Mhz gaat draaien, dan zou ie het de concurrent nog wel eens moeilijk kunnen maken.

Alleen de overklokbaarheid? Als de huidige koelers (die ik er overigens wel stoer uit vind zien) het ding zónder overklokken al niet koel kunnen houden, wat moet dat dan worden bij wat overklokken. Maar goed, er wordt aan gewerkt zegt men, dus dat moeten we dan maar even netjes afwachten.

Of ze het echt gaan redden in de strijd tegen ATI en Nvidia zal de tijd moeten leren. Voorlopig is het alleen maar positief denk ik. Meer concurrentie houd alle partijen scherp en zal ze ook dwingen om hun prijzen in bedwang te houden, iets wat wij tweakers graag zien lijkt me :)
Omdat hij multi-gpu is zal het wel een nadeeltje met zich meebrengen dat je nog een extra wcblok moet kopen als je hem wc wil koelen :)
één nadeel het zijn nadelen waarvan je er één genoemd hebt die voor normaal gebruik niet relevant is je moet daarvoor eerst WC gaan gebruiken.

nadeel duur PCB voordeel goedkopere cores.
nadeel elke GPU heeft zijn eigen memory nodig dus 256MB Duo is eigenlijk 'n 128MB kaart. tov een uni GPU kaart.

dus om tegend e huidige 256MB kaarten op te boxen moet ie er al met 512MB DDRII komen.

dit is een van de grootste nadelen.

Daarnaast is er nog 'n nadeel dat er maar één gPU direct de AGPbus kan aansturen.

Games zijn blijkbaar zo anders onderling dat er grote verschillen zijn is dus wachten op de retail produkten met drivers die af zijn.
aan de andere kant 2x zoveel oppervlak is vast makkelijker te koelen :)
We kunnen eigenlijk niets zeggen tot de drivers op punt staan.
Je kunt geen conclusies trekken qua performance als de IQ niet gelijk is (of zelfs ongeveer gelijk).
Met de grote en getrainde crew van ATi duurde het 8 maanden om de eerste goede driver(WHQL) voor de R300 te leveren. Die waren van nul opgebouwd maar dat moet je toch met een korreltje zout nemen want het is niet de eerste driver die ze schreven. Met andere woorden als we aannemen dat XGI al 6-7 maanden aan de driver werkt is zal het nog duren tot volgend jaar eer we aanvaardbare drivers zullen zien. Je zult dus pas van je dure Volari kaart kunnen genieten als de R420 en nv40 uit gaan komen. Ik hoop dat XGI nog geld genoeg heeft om een volgende Volari kaart ons te brengen, misschien hebben ze dan een kans.


ps. Ik herinner mij de Xabre en de GeforceFX 5800 (niet 5900) varianten: er komen betere drivers maar ik heb ze nooit gezien. En BTW je moet geen Hi-End kaart maken als je nog geen ervaring hebt met FSAA en Aniso.
Ik hoop dat XGI nog geld genoeg heeft om een volgende Volari kaart ons te brengen, misschien hebben ze dan een kans.
Vergeet niet dat XGI een onderafdeling is van SiS, en die hebben echt genoeg geld om uit te geven aan R&D... Maak je maar niet ongerust! Het kan natuurlijk wel zijn dat het project stilgelegd wordt, maar het lijkt me niet waarschijnlijk dat ze al dit werk zomaar zouden opgeven. Ze zijn nu al zo ver gekomen.

Ik heb er trouwens het volste vertrouwen in dat ze binnen enkele maanden een capabele (daarom geen sublieme) driver kunnen aanbieden, die het gros van de problemen uit de weg ruimt.
Alsof ze dit team nog nooit drivers geschreven hebben :) Daarnaast zal veel zowiezo veel gebaseerd zijn op het werk wat met de Xabre gedaan is. Als je het zo redeneerd zijn die 8 maanden al voorbij..
Ach toen ATI net begon met het maken van snelle GPU's (Radeon series bedoel ik dus), toen waren de drivers in het begin ook niet echt om over naar huis te schrijven, maar we gaven ze een kans door hun kaartjes toch te kopen en nu heeft ATI toch hele strakke drivers gemaakt ook ... ik vind dus dat we sowieso moeten wachten tot de kaarten van XGI daadwerkelijk in de winkel liggen, en als de prijs kwaliteit verhouding dan redelijk is dan koop ik er denk ik wel eentje om ze een kans te geven ... want een beetje meer concurrentie kan geen kwaad met het ook op de prijzen van de duurste videokaarten van nvidia en ati (500-600 euro ...)
Dit heeft als consequentie dat er ook twee Molex-connectors voor de voeding en twee ventilators op de kaart aanwezig zijn.
Wat kunnen 2 Molex connectors meer dan 1 Molex connector als ze beide op dezelfde voeding aangesloten zijn?

Beetje overkill lijkt me... stroom van 2x molex plus nog een keer AGP.
Dan gebruiken ze toch zilveren sporen? Die kunnen nl. meer stroom aan omdat ze een lagere weerstand hebben.
Zo duur hoeft dat ook weer niet te zijn. ;)
Achjah, en ze kunnen ook gewoon eerst brede banen leggen die zich opsplitsen in dunnere banen. Ik moet zeggen dat ik ook absoluut niet snap wat er nou anders is. Ze hadden net zo goed 1 molex kunnen gebruiken. Nu zet je er een Y splitter op en heb je exact hetzelfde idee.
Een aantal kaarten heeft dat nu al hoor, en P4-mobo's ook.
Wat ze meer kunnen dan 1 molex? Het gaat niet om de molex, maar om de banen op de kaart en de draden van de voeding zelf. Als je al het vermogen door 1 zo'n baantje gaat trekken, dan kon dat wel eens teveel zijn. Door het over twee kanalen te verdelen (met ieder hun eigen aansluiting en draden) verdeel je dat vermogen dus over meer kanalen.
Ik vind de vergelijking met de topmodellen van Nvidia en ATi eigenlijk niet zo interessant. De XGI-kaart is 100 tot 200 euro goedkoper, dus zou je ze ook moeten vergelijken met 100 tot 200 euro goedkopere kaarten van Nvidia en ATi. Als je dat zou doen, zou de conclusie waarschijnlijk zijn dat de XGI-kaart de beste prestaties neerzet bij een vergelijkbare prijs.

Natuurlijk heeft XGI wat tijd nodig om op stoom te komen. In de eerste modellen en de eerste drivers zullen ongetwijfeld forse zwakheden zitten, die in volgende versies zullen worden verbeterd. Daarom is deze eerste generatie waarschijnlijk nog niet zo interessant. Veel attractiever wordt volgens mij de tweede generatie XGI-kaarten. Heb nog een jaartje geduld en je weet waar XGI werkelijk toe in staat is.
Als je dat zou doen, zou de conclusie waarschijnlijk zijn dat de XGI-kaart de beste prestaties neerzet bij een vergelijkbare prijs.
De beste kaart :? ?! Bij het gros van de benchmarks wordt de kaart op dit moment gewoon afgemaakt! Vergeet trouwens niet dat de R9700pro al heel wat gezakt is in prijs en dat de prestaties nog altijd uitstekend zijn...
Het wordt wachten op betere drivers, eer we conclusies zoals "de beste kaart" kunnen trekken...

edit: typo
<ot>waar kun jij nog een 9700Pro kopen in Nederland? Ik kan ze nergens meer vinden.</ot>
Als hij goedkoper wordt dan de toppers van Ati en Nvidia is dat op zich wel interessant ja. Alleen moet ik dan wel duidelijkheid hebben over stabiliteit van de drivers. Heel even de kat uit de boom kijken nog voor mij...
Ik zie ook een TV-out zitten... doet die het niet of hebben ze die gewoon niet getest?
Ik snap niet waarom ze niet 1 chip aan de voorkant en 1 chip aan de achterkant van de kaart zetten. Aan de bovenkant van je AGP sleuf is toch nog zoveel ruimte vrij, dan kun je aan beide kanten een grotere en stillere koeler erop zetten.
Bij mij in mijn kast hang er een 80 mm fan boven mij agp slot dus daar is niet zoveel ruimte meer voor over.
Ik neem aan dat er standaarden (maten) zijn waaraan AGP kaarten moeten voldoen. De ruimte boven de AGP slot zal gereserveerd zijn voor andere onderdelen.
tsja niet slecht voor een beginner ....

maar een dubbele core en geheugen bus .....

tsja als nvidia of ATI zo iets doen .... blijft er niets van deze kaart over .....
lijkt me leuk om een keer te zien :D

maar alsnog kan een goed begin zijn
nvidia heeft deze technologie in huis door de overname van 3dfx, ze doen er alleen niets mee! Erg zonde
Dat is wel heel kort door de bocht kijken. 3dfx Zijn technieken waren anders dan die van Nvidia,
AMD's zijn Dual Systemen zijn in verhouding met Intel toch ook veel beter in het samen werken met elkaar.
De technologie die 3DFX gebruikte zijn vandaag waarschijnlijk al verouderd. Intussen zijn immers al snelle verbindingen tss procs als Hypertransport op de markt die veel sneller zijn dan de vroegere verbindingen.
En zoals Dexstar al zei, de architectuur van de nVidiakaarten is heel anders dan van de 3DFXkaarten.
Dat doen ze wel degelijk waarom denk je dat ze nu geforce FX heten dat komt omdat er technieken in zitten die ook in de laatste 3dFX kaarten zaten. Dit heeft alleen nog niet echt een positieve uitwerking op de huidige kaarten gehad tot nu toe....
5800 gebruikt de zelfde drivers als de overige Nvidia kaarten. Dus er zijn wel degelijk nieuwe en betere drivers verschenen voor de 5800. En ik weet niet of je het hele artikel hebt gelezen, maar wat financien betreft gaat het goed met XGI. De reden waarom, moet je zelf maar even opzoeken in het artikel van Tom, want het staat er echt uitgebreid in. Ook zijn er roadmaps van XGi terug te vinden op het net. Ze gaan het iig grootscheeps aanpakken en deze Volari is volgens die roadmaps nog maar het begin. Binnen afzienbare tijd moeten er zelfs DirectX 10 kaarten van XGI op de markt gaan komen, dus blijkbaar hebben ze daar ook al ontwerpen van "klaar".

Ook vind ik het nogal fout om een beta kaart met beta drivers al te gaan afbranden terwijl hij nog niet eens op de markt is. Ik las ergens dat Tom ook niet naar de IQ kijkt als het om nvidia kaarten met cheatdrivers gaat, maar wel bij een nog niet uitgebrachte Betakaart als deze. Als ik XGI was, dan zou ik de volgende keer wel 2 keer bedenken alvorens iets naar corrupte Tommie te sturen.

Valt me ook een klein beetje tegen van Tweakers, om een artikel aan te halen van een site, waarvan het tegenwoordig alom bekend is dat hij corrupte halve gare reviews uitbrengt. Dacht dat iedereen intussen wel wist dat Tom een beetje een sjoemelaar is geworden. Maar goed. :z

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True