Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties
Bron: X-bit Labs, submitter: T.T.

Enkele grote fabrikanten van grafische kaarten zouden overwegen om kaarten op basis van de XGI Volari GPU te gaan maken, zo lezen we bij X-bit Labs. Het gaat om een gerucht dat de ronde doet op de Computex-beurs in Taipei. Geen enkele videokaartenfabrikant heeft het bericht officieel bevestigd, maar X-bit Labs zegt uitgevonden te hebben dat het om Asus, Abit, Gigabyte, CP Technology en Club3D gaat. Volgens X-bit wordt in de branche reikhalzend uitgekeken naar een derde speler die GPU's aanbiedt, omdat de keiharde concurrentiestrijd tussen ATi en nVidia zowel deze twee chipfabrikanten als de producenten van videokaarten uitput. Het gevaar van zo'n titanenstrijd tussen twee in kracht gelijke spelers is namelijk dat deze op een gegeven moment de rust zoeken in kartelafspraken.

XGI Volari Duo logoAls dat zou gebeuren, dan zou daarmee hoogstwaarschijnlijk de dynamiek uit de markt voor GPU's verdwijnen doordat er een soort monopolie ontstaat. Hoewel het juist in zo'n gespannen situatie erg moeilijk is voor een nieuwe aanbieder om toe te treden tot de markt, denkt men bij X-bit Labs dat juist dat een erg wenselijke ontwikkeling zou zijn. Als het XGI zou lukken om met de Volari een product neer te zetten dat de strijd met de huidige grootmachten ATi en nVidia aankan, dan zal uiteindelijk iedereen daar volgens hen van profiteren. Tot slot waarschuwt men nogmaals uitdrukkelijk dat het om een onofficieel bericht gaat en dat er nog geen bevestigingen zijn van fabrikanten die daadwerkelijk met XGI in zee gaan.

Verder zijn bij TweakTown vandaag de eerste testresultaten van de Volari's vrijgegeven. De Volari Duo haalde 5.370 punten in 3DMark 2003. Daarmee bleef de kaart een beetje achter bij de GeForce FX 5900 Ultra en Radeon 9800 Pro, maar het is natuurlijk wel zo dat de XGI zich nog in de ontwikkelingsfase bevindt. De high-end Volari V8 Ultra scoorde meer dan 3.000 punten en de middenmoter Volari V5 Ultra meer dan 2.000 punten. Bij TweakTown verwacht men dat de resultaten hiervan nog zullen stijgen naarmate de drivers verder ontwikkeld worden. De kaarten zouden hiermee inderdaad serieuze concurrenten van de ATi- en nVidia-kaarten in die segmenten kunnen worden.

XGI Volari V8 Duo
XGI Volari V8 Duo
De XGI Volari V8 Duo

Lees meer over

Gerelateerde content

Alle gerelateerde content (26)
Moderatie-faq Wijzig weergave

Reacties (45)

Dit zijn nu goede boodschappen. Ik ga helemaal lachen als straks blijkt dat de DX9 implementatie van de XGI beter is als die van nVidia. Dan haalt die kaart zo de flagships van nVidia in in Half-Life 2...

als die nog uitkomt dit jaar :(

Even een update... De V8 duo, met twee chipjes aan boord haalt dus nu in beta stage ~5600 3dmarks in 3Dmark 2003.
www.ocworkbench.com/ocwb/ultimatebb.php?ubb=get_topic;f=39;t=000015

Dat zet me aan het denken. De helft ervan is ongeveer 2800 3dmarks, en dat is lager dan een ATi 9600 (pro) kaart. Ik zie daarom ook geen markt voor een XGI V5, aangezien deze in ieder geval niet sneller zal zijn.

Maar als ze de V8 single goedkoop op de markt kunnen krijgen, met unified drivers, zoals de detonators, en de catalysts, dan zou het kunnen gaan lukken.
Dit zijn nu goede boodschappen. Ik ga helemaal lachen als straks blijkt dat de DX9 implementatie van de XGI beter is als die van nVidia.
De kans is groot dat dat het geval is, dus ga maar alvast lachen ;) De NV30 en de NV35 presteren behoorlijk slecht in DirectX 9 spellen. nVidia moet met de NV40 wel een heel sterk product op de markt brengen (en dat doen ze heus wel), anders gaat nVidia het nog moeilijker krijgen. De XGI Volari V5 en V8 zijn echte DirectX 9.0 kaarten met ondersteuning voor OpenGL 1.4 zoals te verwachten was. Echter, de zwakte van deze kaarten licht misschien toch wel in de Pixel en Vertex Shaders pipelines. Zowel de Radeon 9800 als de GeForceFX 5900 series zijn waarschijnlijk krachtiger op dit front.
Dat zet me aan het denken. De helft ervan is ongeveer 2800 3dmarks, en dat is lager dan een ATi 9600 (pro) kaart.
Vergeet niet dat dit nog een testversie is, zoals je zelf al zei. Drivers en andere variabelen kan men nog optimaliseren om de prestatie van de videokaart nog verder omhoog te schoppen. Overigens is 5600+ al een hele mooie score aangezien dit niet echt veel minder is dan wat de nVidia en Ati knallers scoren.

Wat wel de moeite waard is om te vermelden, is dat het dus om een dual-core versie gaat. Ik vraag mij af waarom XGI voor een dual-core versie heeft gekozen. Is dit vanuit ecnomische redenen gedaan, of omdat het qua architectuur kan? Het kan natuurlijk ook zijn dat ze niet in staat waren om een sterkere core te ontwerpen. In dat geval zou het niet echt een goede indicatie zijn...
Ik zie daarom ook geen markt voor een XGI V5, aangezien deze in ieder geval niet sneller zal zijn.
De prestatie van de videokaart is niet de grootste factor die hierin meespeelt. Als de XGI Volari V5 nu voor $89 over de toonbank gaat, (en laten we stellen dat het verder met de support etc goed zit) dan zie ik niet waarom dit geen succes zou kunnen worden. Qua prestatie mag XGI dan nog wel geen topkaarten maken, maar de prijs en support kan een hoop goed maken.
euhm, een kaart met 2 gpu's die in beta stage is en 5600 3dmarks scored, dat is mooi!

waarschijnlijk zijn de 2 cores nog niet goed op elkaar ingesteld en zal er nog veel aan verbeterd kunnen worden.

verder kan je ook niet gewoon de score door 2 delen, want dat zou betekenen dat ook de cpu score door de helft moet.. wat erg vreemd is...

dus deze kaarten serie kan je zeker als een concurrent zien.

en dan nog, de Radeon 9600 is nog een mid tot high end kaart, in ieder geval niet de budget kaart die het meest verkocht wordt. Want in het Oem wereldje gaat veel meer geld rond dan in de "performance" kaarten...
het gaat niet helemaal 1+1=2 he?
een single V8 kaartje zou net wat boven de 3000 uit komen en kan dus met een beetje goede wil wel concureren met een 9600...
In videokaart land geld die regel dus wel!
Remember Voodoo 5 6000?
volg die link van K6-mannetje eens
1+1=2 bij de V5 maar niet bij de V8
voodoo5 werk ook op een andere manier.

bij de voodoo5 ging het gewoon puur om de fillrate, wat met 2 cpu's + apart geheugen 2 keer zo groot word natuurlijk.

nu dat GPU's ook stukken meer zelf moeten bereken gaat het veel meer de kant op van de CPU,
met de oude dual CPUs was 1+1 altijd iets van 1.1 of 1.2 ofzo, maar deze vid kaart werk meer zoals de optron dat doet (wat dus ongeveer 1+1=1.5 op levert) maar in videoland is geheugen bandbreedte erg belangrijk, en die word met een dual cpu verdubbeld, dus word 1+1=1.7 1.8

even waarheid check : dit hier boven is namelijk alleen maar mijn veronderstelling.
3000 punten voor de v8 maal 1.8 = 5400.
score van de dual was 5370.
B-) zit ik er met mijn sig werk toch aardig dicht op.
als straks blijkt dat de DX9 implementatie van de XGI beter is als die van nVidia.
Afgaande op de beroerde resultaten van de NV30 is dat helemaal niet zo moeilijk als je lijkt te veronderstellen.
Dit zou erg goed nieuws zijn voor de XGI. Een stel grote hardware leveranciers is erg belangrijk voor de distributie en naamsbekendheid van de chips. Als deze chip echt zo goed word zoals nu word voorspeld dan wil ik er zeker een hebben.

Ik ben alleen wat angstig voor de drivers. Tot nu toe waren de drivers van XGI(SIS) nooit echt geweldig. Eigelijk gewoon bagger te noemen. Als ze dat niet verbetered hebben wanneer hun Volari uikomt dan zou dat een ontzetten grote misstap zijn. Wat heb je immers aan een top grafische kaart zonder goede drivers ???
Het zou best leuk zijn om weer eens een ander merk kaart te proberen ;)
Nou moet deze natuurlijk wel een beetje goed voor games zijn en niet voor pro. grafische applicaties. En natuurlijk betaalbaar zijn voor de gemiddelde jongeren.

Maar vergeet niet dat er ook een radeon met 2x gpu's van de 9800 is gespot (www.tweakers.net/nieuws/28860) en de standaard 9800 zit al boven de xgi op dit moment, dus ik denk dat die radeon toch weer een tikkeltje sneller zal worden. Maarja, die zal ook wel weer niet te betalen zijn... ;(
De radeon werkte niet..
Zoals ThaDiggah hierboven meld werkt die dual 9800 pro inderdaad niet. Het is een prototype dat niet werkt zonder de juiste drivers (die ATI zou moeten schrijven) en vooral veel te duur zou zijn! In een artikel meld men zelfs dat een 10-lagen PCB niet voldoende zou zijn om de twee GPU's met elkaar en het geheugen te verbinden!!
In theorie zou het dus perfect kunnen om deze kaart in productie te brengen maar in de praktijk zal dit niet gebeuren omdat waarschijnlijk toch bijna niemand een videokaart zal kopen die meer dan 1000 EUR zou kosten.

En over XGI, hopelijk kicken ze ass maar hoe lang zal het nog duren totdat deze kaarten op de markt komen? Als ze te lang wachten hebben ATI en nVidia tegen die tijd ook al nieuwere kaarten op de markt terug. Dan zullen de kaarten van XGI enkel gekocht worden als ze heel interessant geprijsd zijn!

edit:
Denk maar aan de ATI Radeon 9800XT en de 9600XT en de nieuwe nVidia NV36 en NV38 (GeForce FX 5950 Ultra). Deze kaarten zullen waarschijnlijk niet lang meer op zich laten wachten!!

Als de kaarten van XGI inderdaad hun verwachtingen inlossen, belooft het een leuke strijd te worden. Maar hoeveel keer werden we al niet teleurgesteld?
Tja, allemaal verhalen over support, prijzen en dergelijken, maar bijvoorbeeld de leverbaarheid van de chips MOET echt goed zijn. Hier is PowerVR met haar Kyro Series 1 kaarten ooit de mist in gegaan: full support aankondigingen, fantastische specs, maar toen bleek de kaart ineens niet goed leverbaar. Pas na maanden, toen de techniek alweer een beetje achterhaald was waren deze videokaarten volledig leverbaar.

XGI moet dus alles heel goed in orde hebben om serieus een bedreiging te vormen voor Ati en nVidia. Haperingen in het productieproces verkleinen meteen de kans als derde grootmacht in 3D land :)
Als de geruchten waar zijn zit dat dus wel snor met een groep grote spelers als Asus, Abit en Gigabyte. Zij hebben genoeg connecties om het allemaal vlot mogelijk te maken :)
Ahum... de "3e speler" was er natuurlijk al lang... Voor Nvidia en ATI zich opdrongen heeft Matrox zich vrijwillig teruggetrokken in de High-end markt. In '97, was Matrox een key-player in deze markt [wie heeft er geen milllennium-kaart gehad??] en nu is de P750/P650 ook niet meer super high-end, dus wie weet zijn ze straks met z'n 4'en?

Kwestie van tijd. Ze komen vanzelf op.

Overigens,kewl plaatje, dat kaartje! Kostie?
" Voor Nvidia en ATI zich opdrongen heeft Matrox zich vrijwillig teruggetrokken in de High-end markt. "

Matros heeft zich niet teruggetrokken, die kon het gewoon niet meer bij benen!! :P
Ze hebben met de parhelia nog geprobeerd terug te komen in de games markt, maar ook die kaart is snel ten onder gegaan in die markt.
De Parhelia is overigens wel een hele prettige dual-screen kaart :)
Beetje voorzichtig met de titels jongens...

Er gaat een gerucht dat een paar grote fabrikanten overwegen om XGI te gaan gebruiken.

Dat zegt dus nog helemaal niets... Het zou kunnen dat iemand van Asus heeft gezegd, "Goh die XGI ziet er goed uit. Die moeten we in de gaten houden!", en niks meer....
Daarom staat het tussen aanhalingstekens. Het is een uitspraak van iemand, geen feit.
zit wat in, dat een derde speler wat rust veroorzaakt.

3DFX was ooit een grootmacht, en nvidia een klein clubje wat opeens opdook met wat niet altijd even goeie videochips.... maar goed, we weten allemaal hoe dat verhaal afliep en dat 3DFX opgeslokt werd door het opeens wel veel grotere Nvidia.

nou zie ik dat niet zo snel gebeuren met ATi en Nvidia, of met een van de 2 en XGI. Maar het kan wel zorgen dat de 2 honden stoppen met vechten om het been zodat nummer 3 er niet opeens met de buit vandoor kan gaan.
zit wat in, dat een derde speler wat rust veroorzaakt.
ik weet niet wat jij leest, maar een derde speler is juist nodig om ONRUST te veroorzaken. er wordt namelijk verteld dat als de 2 hoofdspelers (Ati en nVidia) moe worden van concureren, zij misschien kartelafspraken zouden kunnen maken, waardoor er een 'duopolie' zou kunnen ontstaan.
Hmmm ... nVidia US en Ati Canada die een DuoPolie zouden vormen ... dat gebeurt niet snel lijkt me.
Daarbij lopen ze elkaar dood te concurreren (en plz ... laat ze gaan! ).
De beste en snelste ontwikkelingen komen in tijden van oorlog (disclaimer: ik ben niet voor een fysieke oorlog; echter alleen geinteresseerd in die van technologie).
YES !!

Dit is goed nieuws mensen !!
Ik mag echt HOPEN dat de mensen van XGI nog VOOR kerst een plankje in de rekken van de winkels kunnen hebben liggen !

Me is happy :*)

Zeker niet zo'n slecht idee als het hier om 2 proc's gaat die wellicht iets minder op zich zouden presteren maar samen in werking de strijd goed aan zouden kunnen gaan met Nvidia en Ati......
(SUPER-stoere kaart voor Case-Modders b.t.w. !!)
stop al maar met dromen, er zijn nog geen fabrikanten die officiŽel hebben toegezegd, dus moeten de reference-boards nog worden verspreidt en de grote spelers moeten er productielijnen voor aanleggen, dan moeten de kaarten nog getest worden en verspreid. reken maar dat je die dingen hier niet ziet voor februari, al zal je mss al wel een akiba-pic vinden van de een of andere japanse shop :*)
Ik weet iemand die geen oog dicht doet de nacht voor kerstmis als deze kaart uit is.......

Ik noem geen naam he BITBOOSTER!!

;)
Ik kan me gewoon niet voorstellen dat XGI de moeite heeft gedaan om 2 GPU's op een kaart te krijgen met als resultaat een sub par performance.

Dus ik ben erg benieuwd. :*)
"Als 2 strijden om de bal is het de 3e die er mee vandoor gaat".
Maar ik had nooit gedacht dat XGI zo ver zou komen, maar als er inderdaad een aantal (vooraanstaande) bedrijven overwegen die chip te gebruiken, dan moet XGI toch serieus genomen worden. En helemaal als Gigabyte zich er mee gaat bemoeien dan geeft dat aan dat hij zeker niet traag zal zijn.
De strijd tussen 'de grote 2', ATI en nVidia, is al hevig, maar was het niet zo dat vuur ook drie componenten nodig heeft B-).

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True