Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 39 reacties
Bron: VR Zone, submitter: Zeus

De mensen van VR-Zone hadden het geluk op bezoek te mogen bij kaartenfabrikant XGI waar ze wat informatie bijeen wisten te sprokkelen over de volgende generatie grafische kaarten. De Volari PCIE V3, V5 en V8 zijn allemaal PCI Express x16-kaarten met een bridgechip om het PCI Express-signaal om te zetten naar een AGP-signaal dat verstaanbaar is voor de GPU. Deze bridgechip wordt in tegenstelling tot bij nVidia op de pcb zelf gebouwd en dus niet in de pakking verwerkt. Deze kaarten met een bridge zijn echter slechts een tussenstap. Tegen het einde van dit jaar worden namelijk grafische kaarten met native PCI Express-ondersteuning verwacht. Bovendien zullen deze modellen het Shader Model 3.0 implementeren. Het topmodel in de nieuwe reeks zal twaalf pipelines per GPU bezitten en gebruikmaken van GDDR3-geheugen. Met Volari Duo worden dit in totaal vierentwintig pijplijnen. Tot slot wist men ook nog te vermelden dat XGI chips op de planning heeft staan die in de ovens van UMC gebakken zullen worden op 90nm.

XGI Volari V8 Duo
Moderatie-faq Wijzig weergave

Reacties (39)

Zie ik in het plaatje dat die V8 2 poweraansluitingen in gebruik heeft ????
Ik snap niet waar ze het geld vandaan halen voor weer een nieuwe serie, de laatste was een ramp; veel trager en duurder dan gelijkwaardige producten van NVidia of Ati.
inderdaad... 2 molex aansluitingen. En dan ook nog vlak naast elkaar op de kaart zodat het wel niet zal zijn om de stroom-toevoer lijnen zo kort mogelijk te houden.
Hoeveel power heeft zo'n kaart nodig dan?
Al zou ie 200W nodig hebben, dat kan best uit 1 molex komen... wat onzin zeg die twee molexen. 1 molex is al onzin omdat PCI express veel meer vermogen dan AGP kan leveren.
Ja, maar ik dacht dat XGI weer back from the vergetelheid is. en dan vind ik het knap dat ze met de vorige serie akelig dicht bij kwamen (net niet, maar alle begin is moeilijk :P) Nu is het wachten op de eerste tests van deze kaarten....

Wat ik wel even wil aanmerken hadden ze de PCB niet zwart kunnen maken? Staat mooier bij de coolers.
Ik geloof dat ze dat deden omdat dit een dual-chip kaart was (daarom ook de 2 koelers). Hij zal dan dus ook wel redelijk wat stroom vreten, maar per chip valt het geloof ik wel weer mee.

De laatste tijd zie je toch steeds meer dat een producent eerst een chip of kaart uitbrengt waar uiteindelijk toch het nodige aan veranderd moet worden, maar dat het naderhand weer beter wordt.
Zie de nForce en nForce2, VIA's KT400 chip, en de GeForce FX chips..
Laten we dan maar hopen dat XGI het nu wel goed doet, want de laatste versies waren imo eigenlijk wat teleurstellend.
Dat is een foto van de huidige versie.
En als ze nu 256 bits ipv 128 bits geheugen gebruiken gaat het de goeie kant op.
Correctie:
- Als de prestaties maar schitterend zijn tegen een lekker prijsje.

Want wat stellen die getalletjes nu eigenlijk voor :)
Bij de vorige versie was die SLI niet zo een succes, als ze toch native pci-express chip gaan maken, zouden ze die SLI dan niet pci-express based kunnen maken, want als we Alienware mogen geloven is dit zeker mogelijk. Alienware heeft namelijk ook een systeem ontwikkeld waarmee je 2 pci-express video kaarten parallel kon laten werken en de prestaties zouden zeer goed zijn. Misschien een idee?

@Arie Nap
Nee, ik bedoel de SLI zelf, dus gewoon het ontwerp zo houden, maar dat de 2 of misschien meet VPU's met elkaar communiceren via een pci-express kanaal en natuurlijk wel via 16x, dus we gaan geen kaartjes in een pci-express 1x slot stoppen, dat schiet helemaal niet op.
Anders is hypertransport misschien een idee, dat is echt ontworpen voor chip-naar-chip communicatie en de hypertransport 2.0 specificaties zijn 22,4GB/s. Je zou daarmee een videokaart modulair op kunnen bouwen, net de opterons, die ook elk n of meerder hypertransport bussen hebben om te communiceren met de northbridge of andere processors. Je zou dan ook kunnen gaan denken aan een geheugencontroller op elke GPU, dan kun je ze echt laten samenwerken.
Als alleen XGI dat gaat gebruiken dan verkopen die mobo's niet, en als het er komt, dan heb 2x hittestokers in je kast, en te weinig PCI (express) sloten over!
Als ze pas over 6 maanden in de winkel liggen zijn ze al weer te laat.
Ik denk dat ze juist wel even goed de tijd moeten nemen om zowel een goede GPU als goede drivers te ontwerpen. Ze kunnen niet NOG een keer falen zoals met de Volari serie, dan gaat XGI geheid over de kop.

Als ze nu eventjes de tijd nemen om een GPU te ontwerpen die de 6800 en X800 overtreft (en dat moet toch kunnen met 24 pipelines), dan kunnen ze een plekje veroveren op de GPU markt. Van ATi en NVidia hoeven we namelijk voorlopig geen grote verbeteringen meer te verwachten (voor zover ik weet alleen de X800 XT Platinum, een opgefokte X800 Pro).

Ik hoop van harte dat het ze lukt...
Daar kon je je wel eens in vergissen. Er zijn de nodige geruchten dat ATI in het najaar met iets heel interessants komt.
Dat zou dan ook de reden zijn dat de R420 niet veel vernieuwends heeft, afgezien van de snelheid.

Maar van XGI verwacht ik voorlopig helemaal niets. Ze zouden de hardware prestaties van hun topmodel met een factor 10 moeten verhogen om uberhaupt in de buurt van de topmodellen van ATI en NVidia te komen.
Dat gaat gewoon niet gebeuren.
Ik hoop dat met PCI Express de SLI wl goed zal werken. Want een single was destijds even snel als een dual :(

Ben benieuwd, toch goed dat nVidia en ATi een potentiele concurrent hebben
waarom plaatsen ze de chip en koelers niet aan de andere kant,? nu worden de pci sloten weer geblokkerd
Niet zo lekker om zo de warme lucht van de CPU en NB aan te zuigen.

Van beneden de koele lucht lijkt me wat gezonder voor de GPU, ook al gaat dat ten kosten van een PCI slot.
De kans dat een fabrikant de meest gebruiksvriendelijke kaart ontwikkeld is heel klein. Ze hebben maar oog voor twee dingen: een zo laag mogelijke productie kosten tegen een zo hoog mogelijke verkoopprijs.

Dus als een van jouw PCI slotjes dan wordt geblokt zal hun dat een zorg wezen, als ze het volledige productie proces moeten aanpassen zijn ze veel meer geld kwijt!

Maar als we met zijn allen gaan klagen bij de fabrikanten dat er een standaard moet komen in het design willen ze misschien (maar waarschijnlijk niet) luisteren :P
Reactie op barty72: Bij elke nieuwe videokaart zie je dezelfde reacties: 'De PCI-sloten worden geblokkeerd'. Maar wie gebruikt er vijf PCI-sloten? Ik denk nog niet 1 op 100.

Ik heb een geluidskaart, tv-kaart, netwerkkaart en usb-kaart en heb nog plaats over voor een videokaart die een PCI-slot zou blokkeren. Ik zou zelfs twee kaarten kunnen opofferen door onboard netwerk- en usb te gebruiken. Daarbij komt nog dat slechts 1 op 10 videokaarten een PCI-slot blokkeert.
en als je videokaart zn hete lucht in je cpu koeler dumpt word je ook niet vrolijk
vergeet niet dat veel van de huidige moederborden 6 pci hebben
Als ik zo naar mijn moerderbord kijk (Asus A7N8X-E Deluxe en Asus A7N8X-X) en de chips & koelers zouden aan de andere kant zitten, dan zou dat toch echt niet passen ivm met verticale geheugenslots.
hmz, als dit een mooi kaartje wordt met goede prestaties en mid-range prijs, konden ze wel eens een grote markt achter zich krijgen.
Dan zullen ze toch eerst eens serieus aan de drivers moeten gaan sleutelen.

ATI kwam ook pas in de buurt van nVidia toen ze meer aandacht aan de drivers gingen besteden.

Een high-performance kaart is leuk, maar als het voor geen meter of extreem buggy werkt heb je er zo weinig aan ;)

[edit]
Overbodig? Drivers boeien jullie geen ruk dus?
ATI kwam ook pas in de buurt van nVidia toen ze meer aandacht aan de drivers gingen besteden.
ATi kwam in de buurt van nV toen ze de R300 lanceerden. Gewoon een chip die sneller was dan nV.
Als XGI een snellere chip kan maken dan de concurentie, met drivers die ok zijn, dan hebben ze een goed produkt..

Je moet eerst naam hebben, dat doe je met een vlaggenschip dat over alles heen gaat, de midrange verkopen volgen dan vanzelf.

[offtopic @ bosmonster : sorry hoor :P is niet als bashen bedoeld... Maar toch blijf ik erbij dat ATi pas echt van de grond kwamen door de R300 en dat idd icm de catalysts. Maar als ze kaarten a la de 8500 waren blijven maken dan was t nooit echt wat geworden, niet zoals nu .. ]
[offtopic, maar sommige mensen pakken net weer die regeltjes eruit om je post te bashen]
ATI is pas echt populair geworden toen ze begonnen met een op het nVidia's detonator gebaseerde driver-model (catalyst). Dit hebben ze destijds ook ronduit toegegeven en is ook geen schande.

De kwaliteit van de drivers (waar nVidia bekend om stond en nog steeds staat) van ATI werd hierdoor veel beter.
[/offtopic]

Het moge ook duidelijk zijn dat de drivers van XGI nog ZEER veel te wensen overlaten. Een willekeurige review pakken vertelt je daar alles over.
De chips zijn van groot belang maar als je geen goede software schrijft om deze aan te sturen dan heb je nog niets. Dus drivers zijn wel degelijk van groot belang. Je kunt nog zo`n goede kaart/chip hebben maar als je deze niet goed aanstuurt heb je nog niets en benut je de hardware niet 100%
Hmm ATI is al jaren een heel goede grafische chip ontwikkelaar.
De 2D kwaliteit van ATI kan nvidia nog steeds niet aan tippen. Het is dan wel geen matrox maar matrox is gewoon duur. Met de rage128 hadden ze al een kaart die in 32-bit kleuren bijna net zo snel was als in 16-bit kleuren, deze kaart was dan ook de snelste toen hij uitkwam in 32-bits kleuren. De 8500 was ook de snelste kaart in zijn tijd (GF3) alleen was ook hier weer het probleem dat het 3d deel van de drivers slecht waren. Net als bij alle voorgaande kaarten. De 8500 wordt trouwens nog steeds gebruikt in de vorm van de 9200 and de integrated chipsets.
http://www.digit-life.com/articles2/over2003/index.html
http://www.guru3d.com/review/ati/radeon8500/
Hij was dus gewoon competatief met de gf3 en daarvoor heb je snellere en kwalitatief betere 2d waarvan de ondersteuning voor oudere zut zoals vesa modi en dergelijke gewoon goed is. (waarom vind je toch altijd ati chipset op server boarden, zelfs van intel? Juist!)
Nee, de XGI drivers laten niets te wensen over. Die drivers zijn prima. Ze hebben duidelijk Nvidia als voorbeeld genomen en er een heleboel cheats in gestopt. ;)

Het grote probleem van XGI is NIET de drivers, maar is de HARDWARE.

Die dingen presteren gewoon niet, doordat de hardware het niet trekt. De reden dat er zo'n verschil in prestaties lijkt te zijn is omdat ze soms veel gecheat hebben en soms weinig.

Helaas trekken sommigen daaruit blijkbaar de conclusie dat soms de drivers goed werken en er soms een performance bug in zit. Maar als je naar een goede review gaat dan zul je zien dat het gewoon de hardware is die het niet trekt.
12 pipelines is dus al minder dan Nvidia en ATI met hen topkaarten, ik neem ook aan dat XGI ook niet zoveel power per pipeline kan genereren als de grote 2... misschien dat ze zich gaan richten op de mid-range nu.
Zou ook normaal zijn h. Een videokaartproducent verdient veel meer aan lowrange en midrange modellen dan aan toprange modellen. Al zijn het wel die laatste die een groot deel van de reputatie bepalen.
12pipelines per GPU, 2 GPU's = 24 pipelines.
24 > 16

Dus daar zit het wel snor mee lijkt mij zo... Nou maar hopen dat deze toekomstige kaarten flinke prestaties neerzetten en een mooie prijzenoorlog tussen de GPU makers veroorzaakt :)
Ze waren dichtbij succes deze keer, go XGI!
Eerst zien, dan geloven. De laatste XGI kaarten waren simpelweg waardeloos

Alleen door op ongekende schaal te lopen cheaten konden ze onnozele review sites nog laten geloven dat het redelijk was. In de praktijk zaten ze op minder dan een kwart van de snelheid van de concurrentie.

Net als bij hun oude GPU zou ik me maar niet teveel van die aantallen pipelines e.d. aantrekken.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True