Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 59 reacties
Bron: tecChannel

Het Duitse tecChannel heeft een test online gezet waarin de XGI Volari Duo V8 Ultra wordt vergeleken met de huidige high-end en mainstreamproducten van de concurrentie. Gezien de verwachte prijs van 400 euro en de boude uitspraken van het bedrijf over hun nieuwe chip zou de videokaart qua prestaties veel dichter bij de GeForce FX 5950 en Radeon 9800 XT in de buurt moeten zitten dan bij de FX 5700 / 9600 XT, maar de eerste indruk uit de verschillende benchmarks is de kaart van XGI meer in het midden valt. Het beeld dat uit de review ontstaat is echter nog niet bepaald compleet. Het enige echte spel dat getest wordt is Quake III, en de sample die de site ontving was nog een prototype met 900MHz DDR2-geheugen terwijl het eindproduct volgens de specificaties tot 1GHz DDR2-geheugen ondersteunt.

XGI Volari Duo logo Hier valt dus nog wel winst te behalen voor XGI, maar tests met features als anti-aliasing en anisotropic filtering ingeschakeld zouden daarentegen weer in het nadeel van de Volari kunnen gaan uitvallen. Deze worden namelijk nog niet ondersteund in de beta-drivers, maar kosten over het algemeen wel redelijk wat performance. Het lijkt er niet op dat de eerste generatie Volari een flop wordt, de verschillende configuraties die met de chip mogelijk zijn geven kaartenbakkers de vrijheid om verschillende doelgroepen alternatieven te bieden voor ATi- en nVidia-producten. Om echt op het allerhoogste niveau mee te kunnen doen zal echter nog hard gewerkt moeten worden. In de tweede helft van 2004 zal het bedrijf de XG41 en XG42 vervangen voor een tweede generatie chips, XG45 en XG46, die onder andere DirectX 9.1 ondersteunen. Begin 2005 moeten er DirectX 10-chips komen die XG5x gaan heten.

Quake III, 1600x1200x32
nVidia GeForce FX 5950 Ultra 258
ATi Radeon 9800 XT 250
XGI Volari Duo V8 Ultra 204
nVidia GeForce FX 5700 Ultra 157
ATi Radeon 9600 XT 139

3DMark03, default
nVidia GeForce FX 5950 Ultra 6505
ATi Radeon 9800 XT 6482
XGI Volari Duo V8 Ultra 5235
nVidia GeForce FX 5700 Ultra 4040
ATi Radeon 9600 XT 3841
Moderatie-faq Wijzig weergave

Reacties (59)

Valt me niet tegen moet ik zeggen... Helemaal aangezien er nog rek zit in de geheugensnelheid.
En ook met de drivers zal er ongetwijfeld nog een hoop winst te behalen zijn. Het lijkt mij namelijk onmogelijk dat er meteen optimale drivers geschreven worden.
Zie het net als bij ATI... Die begonnen ook met brakke drivers, maar toen dat opgelost was, begonnen ze aan hun opmars...

edit: vraag me trouwens af hoe ze het beestje gekoeld hebben, en waarom ze daar geen plaatjes van beschikbaar hebben gesteld... Op de site is alleen een plaatje te vinden van de sample, zonder koeling...
- @Ernst: Oke, niet goed gezocht, toch een plaatje...
2 molexen zegt nog niet dat er veel stroom verbruikt gaat worden. Misschien is het gewoon moeilijk om 2 aparte processoren en 2 aparte geheugenbanken stabiel van stroom te voorzien dmv een agp poort. Dus voor hetzelfde geld zijn die twee molexen alleen voor de 2e gpu en 2e geheugen bank. Of anders misschien om de processoren stabiel te krijgen, omdat dat de agp poort niet lukt...
Dat er een sis chip opzit zegt niks over de leeftijd (iig heel erg beperkt) aangezien xgi een soort van sis-doorstart is...-
edit2: en het valt me nog op dat er nog ruimte is voor een Volari V3 ultra... Niet iedereen zal zitten te springen om 256mb, maar een hogere core is misschien wel leuk...
edit3: en als ze de directx 9.0 ondersteuning een beetje goed ge´mplementeerd hebben, hebben ze wat mij betreft alweer een streepje voor op iig nVidia...
Er staat wel degelijk een plaatje van de kaart met coolers ( http://www.tecchannel.de/hardware/1271/images/0014161_PIC.jpg )
Opvallend is wel dat een kaart die zeer veel stroom slurpt (zie de 2 molex aansluiting !) genoeg heeft aan 2 kleine koelertjes. Vind het wat twijfelachtig allemaal
Blijkbaar zitten er ook al redelijk oude onderdelen op de kaart want ik links boven zit nog een SIS chip.. zal wel van de TV-out zijn o.i.d. :?
Als die twee molex'n dienen om een stabielere spanning binnen te halen moet je er wel voor zorgen dat je niet twee molex'n gebruikt die aan een powerline uit de PSU hangen.... Bij mijn PSU is het zo dat er 2 molex'n per powerline zitten... (komt wel meer voor dacht ik...)
En zelfs intern zitten alle (gelijke) draden op hetzelfde punt in je voeding aangesloten.

En als 1 voedingsdraad te dun zou zijn voor het vermogen van die kaart dan gaat er volgens mij wel heel veel stroom door heen. :?
dat wist ik niet... :)
Ik dacht die draden elk een eigen stabilisatie zouden hebben... ivm startstromen van HD's enz...
Aan het aantal aansluitingen is het opgenomen vermogen niet te meten. Misschien zitten de molex aansluitingen wel op het board i.v.m. compatibiliteit met oudere mammaplanken. Afgegeven warmte zegt wel iets over het opgenomen vermogen. Ik vind die koelers er niet dramatisch groot uitzien.

Die SIS chip kan inderdaad voor de TV-out of een andere functie zijn. Dit geeft de leeftijd van de chip niet aan. (SIS produceerd nogsteeds veel chips). Of ze nu SIS, BT of philips gebruiken maakt niet uit. Het gaat om de GPU die tegenwoordig XGI heet i.p.v. SIS
Het lijkt me dat dit nog geen produktie exemplaar is, dus het zou natuurlijk ook goed kunnen dat die molexen erop zitten voor allerhande test apparatuur.
Dan zouden ze er op de definitieve produktie kaartjes niet op zitten.
Veel te duur dus.
Waarom zou je zoveel geld uittrekken voor een kaartje dat niet eens als beste presteert?
Omdat dit kaartje met wat betere drivers een stuk beter zal presteren, en 1 verouderde benchmark en 1 synthetische benchmark niet zoveel over de snelheid zeggen.
Het plaatje van deze video kaart is: http://www.tecchannel.de/hardware/1271/images/0014161_PIC.jpg

Ben trouwens wel benieuwd wat er gebeurd als Nvidia en Ati met een dual GPU gaan werken. Want dan worden die kaarten ook sneller (denk ik).

Volgens mijn verbruikt die videokaart best veel stroom. Er zitten twee extra connectors op de kaart om deze van sap te voorzien.
Is waarschijnlijk nog een beta-platine, waarbij de beide GPU/memory constructen gevoed worden uit geheel separate voedingkjes, die met losse molexjes worden gevoerd. Het lijkt me heel sterk dat ze die dubbele aansluiting nodig hebben voor de stroom, zo'n Molex kan meer amperes doorgeven dan de helft van je voeding kan maken.
Wat krijgen we gelijk weer reacties dat ze geblaat hebben over hun snelheid enzo.. Vergeet niet dat deze drivers gewoonweg een hoop opties (die andere kaarten volledig hardwarematig kunnen) nog niet aankunnen en hier dus hoop prestatieverlies mee te verklaren is. Ook zijn het nog nieteens de definitieve versies (trager geheugen en wie weet wat er nog meer anders is bij de launch).

Vergeet niet dat het met kaarten vergeleken wordt die uit "families" komen die al wat langer bestaan, waardoor er veel meer geoptimaliseerd is (zowel hardware, als software matig).

Lijkt me zeer interessant kaartje worden.. en het zal me niet verbazen als de drivers beetje okay zijn en de kaarten in hun uiteindelijke vorm zijn ze best wel eens in de buurt van die andere top kaarten kunnen komen :Y)
En zoals al werdt voorspeld is het niet de snelste kaart maar hij doet het niet slecht. Na de groote praat die xgi heeft verkocht aan hun concurrenten is het wel een lachertje want hadden ze niet gezegd dat ze het snelst zouden zijn??
Als hij nou niet te duur is wordt dit een leuke budget/mid range kaart. Maar high end zal het wel nooit met ze worden daar is de technologische achterstand te groot.
De Duo V8 slaat toch op 2 cores ?? Ik vind het dan triest dat ze 2 cores nodig hebben om de huidige kaarten met 1 core te evenaren. Als ze zo doorgaan dan komen ze met kaarten waar bij wijze van spreken 20 cores op zitten die dan moet gaan concurreren met de high-end van Ati of NVidia .... Lijkt me een dure oplossing.

Dan ook maar een edit doen waarom dit niet zo slim is: joepie, 2 fans op mijn videokaart !!! Een fan maakt al teveel geluid. Verder moeten de cores het geheugen delen wat weer tot ellende kan lijden etc. etc.
Ik vind het dan triest dat ze 2 cores nodig hebben om de huidige kaarten met 1 core te evenaren.
We hebben het hier natuurlijk wel over een relatief nieuwe speler, vind het eigenlijk wel knap dat de kaart zo snel is. Neem als voorbeeld bedrijven als SiS en Intel die ook iedere keer zeggen dat hun nieuwe grafische cores onwijs snel zijn, maar iedere keer blijkt weer dat het toch eigenlijk slecht presterende budget-kaartjes zijn... Nee, doe dan maar gewoon 2 cores en goede prestaties!
XGI bestaat voornamelijk uit mensen die afkomstig zijn van de grafische afdeling van SiS. SiS is nl. uit de videokaartenmarkt gestapt en toen is XGI ontstaan.
Met de nadruk op 'rot' Of misschien ook wel oud.
Aan dat soort zaken heb je niets als je mee wilt draaien op het hoogste niveau.
Wat een ontzettend domme uitspraak zeg.. Alsof de NV1 bij uitkomen meteen op kop lag.. ?
Als je met een nieuwe architektuur boven de middenmoot binnenkomt met een beta board, dan ben ben imho goed bezig.. Deze architektuur heeft blijkbaar nogal wat potentie..
Vergeet niet dat XGI (wat vroeger inderdaad een onderdeel van SiS was) Trident heeft overgenomen, ook een oude rot op graphicsgebied.
tut tut..

XGI mag dan wel uit SiS voortkomen maar aan de Xabre hebben ze volgens mij niet echt veel verdient. Als je dit \[tweakers.net] artikel leest dan heeft SiS 3% van de desktop standalone markt in handen.. niks dus..

Pingels in de lowbudget markt verdien je alleen maar als je een aardige reputaie hebt in de middenmoot en het liefst de performance crown. Daarom is deze introductie best sterk te noemen en schept het perspectieven voor de lowbudget markt.

Intel verdient alleen maar goed aan de celeron door een reputatie die ze te danken hebben aan de performace van de pentiums..

Trident is niet rot. Trident maakt[e] veel vga chippies voor laptops..

* 786562 boesOne
* boesOne vraagt zich trouwens af waar ze de naam Volari vandaan hebben, 't klinkt als een soort pizza.
Over een productnaam wordt meestal heel goed nagedacht. Er gaan dan ook ettelijke uren brainstormen aan vooraf... En waarschijnlijk hebben ze de naam dan ook gevonden na het bestellen van een pizza :P
Wat een ontzettend domme reactie zeg... Wat heeft een 15 jaar oude chipbakker toe te voegen aan de kwaliteit van een huidige videokaart? XGI=SiS en Sis maakte al middenmoot kaarten dus niets nieuws onder de zon. Sis richtte al haar pijlen op het lage segment omdat daar de $$$ te verdienen valt. Intel verdiend meer aan de Celeron dan aan de P4

Misschien eerst eens ff goed lezen voordat je verhit de reply button aanklikt. :(
Dat was precies de insteek van XGI. Ze wilden minder ingewikkelde cores ontwikkelen, om ze dan te koppelen en zo een betere presatie van een ingewikkeldere core te kunnen evenaren/overtreffen. Er heeft een tijdje geleden al een bericht over op tweakers.net gestaan.

-edit- linkje toegevoegd
Zie http://www.tweakers.net/nieuws/28976 waarin de chairman aangeeft dat ze met deze startegie proberen ATi en nVidia te kunnen beconcureren.
Als je ziet wat een enorme winst er doorgaans te halen valt uit het optimaliseren van drivers, dan vind ik de prestaties die we hier zien met eerste generatie beta-drivers eigenlijk wel heel erg goed!
En omdat het hier om een dual GPU gaat, is het waarschijnlijk dat driveroptimalisaties hier nog een groter verschil maken dan bij andere videokaarten.

Kortom, misschien wordt deze kaart nog wel een echte winner......
Begin 2005 moeten er DirectX 10-chips komen die XG5x gaan heten.
dan moeten zij dus nu al weten wat ze aan d3d features kunnen verwachten.. zijn die al bekend dan ?
Voor zover ik weet is er nog geen definitieve standaard gezet, maar discussies over de toekomst van DirectX worden regelmatig gehouden en ik denk dan ook dat men al een aardig idee heeft welke richting het op zal gaan. Dat moet ook wel, want aan het ontwerp van zo'n chip moet lang van te voren begonnen worden.
dat bedoel ik maar net..

ik heb enkel begrepen dat het de bedoeling is om de VS's en PS's op 1 grote hoop te gooien.. ben heel erg benieuwd hoe dat uitpakt als ze dat inderdaad gaan doen.
Scores zijn redelijk voor een beta-kaart. Wat natuurlijk wel een nadeel is en waar ik vreemd genoeg niemand over hoor reppen is dat een dual-core bijna 2x zoveel geheugen nodig heeft. Dit en het feit dat dual-cores met 2x zoveel geheugen grote pcb's vereisen drijft de prijs omhoog.

Of het dus economisch interressant is deze lijn te kiezen moeten we maar afwachten, overklokken word iig lastiger hoe meer cores/geheugen erop zit. Da's alweer nadeel twee.

Het betuigt iig val lef (overmoed?) om dit pad te kiezen, tenslotte zien Ati en Nvidia hier vooralsnog geen brood in; zij hebben geen dual-core designs (iig niet voor de desktop-users). Het lijkt me lastiger om vandaag de dag te scoren met dual-cores, sim-pelweg omdat de single-cores al zo goed presteren.
Hoe kom je er ook in hemelsnaam bij dat dual core twee keer zoveel geheugen nodig heeft?
Elke core heeft zijn eigen texture-set nodig, dat kan niet gedeeld worden.
Worden als het geheugen sneller wordt, beide processoren sneller? Zodanig dat het geheel wel veel sneller wordt dan bv de 9800 XT?
Iedere GPU heeft op deze kaart z'n eigen geheugenbank met z'n eigen bus. Het geheugen sneller klokken zal de kaart als geheel dan ook wel sneller maken, maar verwacht geen wonderen. 100MHz meer bandbreedte op een 128 bits brede bus stelt niet zo heel veel voor, en we hebben ook nog niet gezien in hoeverre de Volari stand houdt met AA/AF ingeschakeld. We weten van de GeForce FX bijvoorbeeld dat die flink terugzakt als dit wordt ingeschakeld, terwijl de Radeon er een stuk beter tegen kan.
2 cores -> 2 koelers -> 2 ventilatoren -> 2 x zoveel herrie. Dat is toch wel minder ipv meer ;)
Of 1 groot koelblok met 1 grote en dus mogelijk langzamer draaiende fan? :) ═k wacht het nog even af.
mm dit beloofd nog wat
toch zie ik wel dat die 2e gpu niet helemaal tot zijn recht komt maar ben wel benieuwd naar de definitieve versie.
en als die het goed doet zal die nog naam moeten gaan maken ondcer de gamers.

nu hebben ze hier het topmodel getest komen die andere modellen ook zo mee met de regerende kaarten van nvidia en ati?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True