Gerucht over volgende generatie XGI Volari

De mensen van VR-Zone hadden het geluk op bezoek te mogen bij kaartenfabrikant XGI waar ze wat informatie bijeen wisten te sprokkelen over de volgende generatie grafische kaarten. De Volari PCIE V3, V5 en V8 zijn allemaal PCI Express x16-kaarten met een bridgechip om het PCI Express-signaal om te zetten naar een AGP-signaal dat verstaanbaar is voor de GPU. Deze bridgechip wordt in tegenstelling tot bij nVidia op de pcb zelf gebouwd en dus niet in de pakking verwerkt. Deze kaarten met een bridge zijn echter slechts een tussenstap. Tegen het einde van dit jaar worden namelijk grafische kaarten met native PCI Express-ondersteuning verwacht. Bovendien zullen deze modellen het Shader Model 3.0 implementeren. Het topmodel in de nieuwe reeks zal twaalf pipelines per GPU bezitten en gebruikmaken van GDDR3-geheugen. Met Volari Duo worden dit in totaal vierentwintig pijplijnen. Tot slot wist men ook nog te vermelden dat XGI chips op de planning heeft staan die in de ovens van UMC gebakken zullen worden op 90nm.

XGI Volari V8 Duo

Door Yoeri Lauwers

Eindredacteur

08-06-2004 • 15:40

39

Submitter: Zeus

Bron: VR Zone

Reacties (39)

39
39
28
15
2
7
Wijzig sortering
Zie ik in het plaatje dat die V8 2 poweraansluitingen in gebruik heeft ????
Ik snap niet waar ze het geld vandaan halen voor weer een nieuwe serie, de laatste was een ramp; veel trager en duurder dan gelijkwaardige producten van NVidia of Ati.
inderdaad... 2 molex aansluitingen. En dan ook nog vlak naast elkaar op de kaart zodat het wel niet zal zijn om de stroom-toevoer lijnen zo kort mogelijk te houden.
Hoeveel power heeft zo'n kaart nodig dan?
Al zou ie 200W nodig hebben, dat kan best uit 1 molex komen... wat onzin zeg die twee molexen. 1 molex is al onzin omdat PCI express veel meer vermogen dan AGP kan leveren.
Anoniem: 78579 @gumkop8 juni 2004 15:54
Ja, maar ik dacht dat XGI weer back from the vergetelheid is. en dan vind ik het knap dat ze met de vorige serie akelig dicht bij kwamen (net niet, maar alle begin is moeilijk :P) Nu is het wachten op de eerste tests van deze kaarten....

Wat ik wel even wil aanmerken hadden ze de PCB niet zwart kunnen maken? Staat mooier bij de coolers.
Ik geloof dat ze dat deden omdat dit een dual-chip kaart was (daarom ook de 2 koelers). Hij zal dan dus ook wel redelijk wat stroom vreten, maar per chip valt het geloof ik wel weer mee.

De laatste tijd zie je toch steeds meer dat een producent eerst een chip of kaart uitbrengt waar uiteindelijk toch het nodige aan veranderd moet worden, maar dat het naderhand weer beter wordt.
Zie de nForce en nForce2, VIA's KT400 chip, en de GeForce FX chips..
Laten we dan maar hopen dat XGI het nu wel goed doet, want de laatste versies waren imo eigenlijk wat teleurstellend.
Anoniem: 78739 @gumkop8 juni 2004 15:59
Dat is een foto van de huidige versie.
Anoniem: 91868 8 juni 2004 15:43
En als ze nu 256 bits ipv 128 bits geheugen gebruiken gaat het de goeie kant op.
Correctie:
- Als de prestaties maar schitterend zijn tegen een lekker prijsje.

Want wat stellen die getalletjes nu eigenlijk voor :)
Bij de vorige versie was die SLI niet zo een succes, als ze toch native pci-express chip gaan maken, zouden ze die SLI dan niet pci-express based kunnen maken, want als we Alienware mogen geloven is dit zeker mogelijk. Alienware heeft namelijk ook een systeem ontwikkeld waarmee je 2 pci-express video kaarten parallel kon laten werken en de prestaties zouden zeer goed zijn. Misschien een idee?

@Arie Nap
Nee, ik bedoel de SLI zelf, dus gewoon het ontwerp zo houden, maar dat de 2 of misschien meet VPU's met elkaar communiceren via een pci-express kanaal en natuurlijk wel via 16x, dus we gaan geen kaartjes in een pci-express 1x slot stoppen, dat schiet helemaal niet op.
Anders is hypertransport misschien een idee, dat is echt ontworpen voor chip-naar-chip communicatie en de hypertransport 2.0 specificaties zijn 22,4GB/s. Je zou daarmee een videokaart modulair op kunnen bouwen, net de opterons, die ook elk één of meerder hypertransport bussen hebben om te communiceren met de northbridge of andere processors. Je zou dan ook kunnen gaan denken aan een geheugencontroller op elke GPU, dan kun je ze echt laten samenwerken.
Als alleen XGI dat gaat gebruiken dan verkopen die mobo's niet, en als het er komt, dan heb 2x hittestokers in je kast, en te weinig PCI (express) sloten over!
Ik hoop dat met PCI Express de SLI wél goed zal werken. Want een single was destijds even snel als een dual :(

Ben benieuwd, toch goed dat nVidia en ATi een potentiele concurrent hebben
Als ze pas over 6 maanden in de winkel liggen zijn ze al weer te laat.
Ik denk dat ze juist wel even goed de tijd moeten nemen om zowel een goede GPU als goede drivers te ontwerpen. Ze kunnen niet NOG een keer falen zoals met de Volari serie, dan gaat XGI geheid over de kop.

Als ze nu eventjes de tijd nemen om een GPU te ontwerpen die de 6800 en X800 overtreft (en dat moet toch kunnen met 24 pipelines), dan kunnen ze een plekje veroveren op de GPU markt. Van ATi en NVidia hoeven we namelijk voorlopig geen grote verbeteringen meer te verwachten (voor zover ik weet alleen de X800 XT Platinum, een opgefokte X800 Pro).

Ik hoop van harte dat het ze lukt...
Daar kon je je wel eens in vergissen. Er zijn de nodige geruchten dat ATI in het najaar met iets heel interessants komt.
Dat zou dan ook de reden zijn dat de R420 niet veel vernieuwends heeft, afgezien van de snelheid.

Maar van XGI verwacht ik voorlopig helemaal niets. Ze zouden de hardware prestaties van hun topmodel met een factor 10 moeten verhogen om uberhaupt in de buurt van de topmodellen van ATI en NVidia te komen.
Dat gaat gewoon niet gebeuren.
Anoniem: 84459 8 juni 2004 15:56
waarom plaatsen ze de chip en koelers niet aan de andere kant,? nu worden de pci sloten weer geblokkerd
Niet zo lekker om zo de warme lucht van de CPU en NB aan te zuigen.

Van beneden de koele lucht lijkt me wat gezonder voor de GPU, ook al gaat dat ten kosten van een PCI slot.
De kans dat een fabrikant de meest gebruiksvriendelijke kaart ontwikkeld is heel klein. Ze hebben maar oog voor twee dingen: een zo laag mogelijke productie kosten tegen een zo hoog mogelijke verkoopprijs.

Dus als een van jouw PCI slotjes dan wordt geblokt zal hun dat een zorg wezen, als ze het volledige productie proces moeten aanpassen zijn ze veel meer geld kwijt!

Maar als we met zijn allen gaan klagen bij de fabrikanten dat er een standaard moet komen in het design willen ze misschien (maar waarschijnlijk niet) luisteren :P
Reactie op barty72: Bij elke nieuwe videokaart zie je dezelfde reacties: 'De PCI-sloten worden geblokkeerd'. Maar wie gebruikt er vijf PCI-sloten? Ik denk nog niet 1 op 100.

Ik heb een geluidskaart, tv-kaart, netwerkkaart en usb-kaart en heb nog plaats over voor een videokaart die een PCI-slot zou blokkeren. Ik zou zelfs twee kaarten kunnen opofferen door onboard netwerk- en usb te gebruiken. Daarbij komt nog dat slechts 1 op 10 videokaarten een PCI-slot blokkeert.
en als je videokaart zn hete lucht in je cpu koeler dumpt word je ook niet vrolijk
vergeet niet dat veel van de huidige moederborden 6 pci hebben
Als ik zo naar mijn moerderbord kijk (Asus A7N8X-E Deluxe en Asus A7N8X-X) en de chips & koelers zouden aan de andere kant zitten, dan zou dat toch echt niet passen ivm met verticale geheugenslots.
hmz, als dit een mooi kaartje wordt met goede prestaties en mid-range prijs, konden ze wel eens een grote markt achter zich krijgen.
Dan zullen ze toch eerst eens serieus aan de drivers moeten gaan sleutelen.

ATI kwam ook pas in de buurt van nVidia toen ze meer aandacht aan de drivers gingen besteden.

Een high-performance kaart is leuk, maar als het voor geen meter of extreem buggy werkt heb je er zo weinig aan ;)

[edit]
Overbodig? Drivers boeien jullie geen ruk dus?
ATI kwam ook pas in de buurt van nVidia toen ze meer aandacht aan de drivers gingen besteden.
ATi kwam in de buurt van nV toen ze de R300 lanceerden. Gewoon een chip die sneller was dan nV.
Als XGI een snellere chip kan maken dan de concurentie, met drivers die ok zijn, dan hebben ze een goed produkt..

Je moet eerst naam hebben, dat doe je met een vlaggenschip dat over alles heen gaat, de midrange verkopen volgen dan vanzelf.

[offtopic @ bosmonster : sorry hoor :P is niet als bashen bedoeld...
Maar toch blijf ik erbij dat ATi pas echt van de grond kwamen door de R300 en dat idd icm de catalysts. Maar als ze kaarten a la de 8500 waren blijven maken dan was t nooit echt wat geworden, niet zoals nu .. ]
[offtopic, maar sommige mensen pakken net weer die regeltjes eruit om je post te bashen]
ATI is pas echt populair geworden toen ze begonnen met een op het nVidia's detonator gebaseerde driver-model (catalyst). Dit hebben ze destijds ook ronduit toegegeven en is ook geen schande.

De kwaliteit van de drivers (waar nVidia bekend om stond en nog steeds staat) van ATI werd hierdoor veel beter.
[/offtopic]

Het moge ook duidelijk zijn dat de drivers van XGI nog ZEER veel te wensen overlaten. Een willekeurige review pakken vertelt je daar alles over.
De chips zijn van groot belang maar als je geen goede software schrijft om deze aan te sturen dan heb je nog niets. Dus drivers zijn wel degelijk van groot belang. Je kunt nog zo`n goede kaart/chip hebben maar als je deze niet goed aanstuurt heb je nog niets en benut je de hardware niet 100%
Nee, de XGI drivers laten niets te wensen over. Die drivers zijn prima. Ze hebben duidelijk Nvidia als voorbeeld genomen en er een heleboel cheats in gestopt. ;)

Het grote probleem van XGI is NIET de drivers, maar is de HARDWARE.

Die dingen presteren gewoon niet, doordat de hardware het niet trekt. De reden dat er zo'n verschil in prestaties lijkt te zijn is omdat ze soms veel gecheat hebben en soms weinig.

Helaas trekken sommigen daaruit blijkbaar de conclusie dat soms de drivers goed werken en er soms een performance bug in zit. Maar als je naar een goede review gaat dan zul je zien dat het gewoon de hardware is die het niet trekt.
Hmm ATI is al jaren een heel goede grafische chip ontwikkelaar.
De 2D kwaliteit van ATI kan nvidia nog steeds niet aan tippen. Het is dan wel geen matrox maar matrox is gewoon duur. Met de rage128 hadden ze al een kaart die in 32-bit kleuren bijna net zo snel was als in 16-bit kleuren, deze kaart was dan ook de snelste toen hij uitkwam in 32-bits kleuren. De 8500 was ook de snelste kaart in zijn tijd (GF3) alleen was ook hier weer het probleem dat het 3d deel van de drivers slecht waren. Net als bij alle voorgaande kaarten. De 8500 wordt trouwens nog steeds gebruikt in de vorm van de 9200 and de integrated chipsets.
http://www.digit-life.com/articles2/over2003/index.html
http://www.guru3d.com/review/ati/radeon8500/
Hij was dus gewoon competatief met de gf3 en daarvoor heb je snellere en kwalitatief betere 2d waarvan de ondersteuning voor oudere zut zoals vesa modi en dergelijke gewoon goed is. (waarom vind je toch altijd ati chipset op server boarden, zelfs van intel? Juist!)
12 pipelines is dus al minder dan Nvidia en ATI met hen topkaarten, ik neem ook aan dat XGI ook niet zoveel power per pipeline kan genereren als de grote 2... misschien dat ze zich gaan richten op de mid-range nu.
Zou ook normaal zijn hé. Een videokaartproducent verdient veel meer aan lowrange en midrange modellen dan aan toprange modellen. Al zijn het wel die laatste die een groot deel van de reputatie bepalen.
Anoniem: 105379 @nAFutro9 juni 2004 01:42
12pipelines per GPU, 2 GPU's = 24 pipelines.
24 > 16

Dus daar zit het wel snor mee lijkt mij zo... Nou maar hopen dat deze toekomstige kaarten flinke prestaties neerzetten en een mooie prijzenoorlog tussen de GPU makers veroorzaakt :)
Ze waren dichtbij succes deze keer, go XGI!
Ooooh XGI toch. Geef mij het refentie modelletje maar, dan hernoem ik 3dmark.exe wel eventjes naar 3dmurk.exe en ga ik de score's vergelijken met de Radeon X800 en GeForce 6800 :).
XGI was toendestijds toch nog erger dan nvidia toen hun cheats uitkwamen... Jammer dat ze zo de top wilden behalen. De kaart was gewoon niet snel genoeg.... Maar ze doen iig hun best.
Anoniem: 58827 @Gody8 juni 2004 20:18
XGI was toendestijds toch nog erger dan nvidia toen hun cheats uitkwamen... Jammer dat ze zo de top wilden behalen. De kaart was gewoon niet snel genoeg.... Maar ze doen iig hun best.
P.S je vergeet ATI die was ook niet mals alleen ATI deed het slimmer gewoon mist en bump mapping uitschakelen Tri-lineair filthering uitschakelen e.d.

Maar om even op het benchmarken terug te komen. 3D mark zegt ook lang niet alles het is vaak nou maar net welke technieken ze gebruikt hebben vandaar dat vele sites op meerdere tests hun mening berusten.

Helaas dat geen site test op de fysieke kwaliteit van een kaart test want dat zou toch iets toevoegen aan een review.
Dan lees je toch echt de verkeerde review sites.
Kijk een volgende keer eens bij Beyond3D.

Overigens was het juist de hardware van XGI die zo ontzettend traag was, dat ze wel cheats moesten maken.
Als je topmodel wat betreft hardware maar 20% van de prestaties van de topmodellen van de concurrent haalt dan begin je nou eenmaal niet veel.
Met cheats in de drivers haalden ze de prestaties dan op naar 80% maar het bleef natuurlijk kansloos.

Op dit item kan niet meer gereageerd worden.