XGI reageert op kritiek op Club3D Volari Duo V8 Ultra

Afgelopen maandag schreven wij over de eerste review van de Club3D XGI Volari Duo V8 Ultra. De conclusies van de review van het Duitse Hardware-Tweaker waren niet onverdeeld positief. Er waren drie voorname punten van kritiek. Ten eerste was de snelheid van de processors en het geheugen lager dan die van de sampleversie. Ten tweede wisten de processors tijdens 3d-werk temperaturen tot 80 graden Celcius te bereiken. Ten derde was de conclusie dat alhoewel de prestaties op sommige onderdelen de Radeon 9800 Pro wisten te overtreffen, dit met FSAA ingeschakeld of in een pixel shader test geheel niet het geval was.

XGI Volari Duo logoTweakers.net vroeg XGI om een reactie en ontving deze van woordvoerder Wei-Wei Yin. Wat betreft het eerste punt, de lagere kloksnelheden, is de reactie dat de uiteindelijke versie van de videokaart is uitgerust met DDR2-geheugen in plaats van DDR-geheugen. Dit zou meer stroom verbruiken maar niettemin het verschil van 100MHz goedmaken. Zoals echter hier te lezen is, gebruikt DDR2 juist minder stroom en kent het bij gelijke kloksnelheden nauwelijks betere prestaties. Naar de ware reden van het lager klokken blijft het dus raden. De processors zelf zijn om redenen van stabiliteit 20MHz lager geklokt, wat volgens XGI nauwelijks invloed zou moeten hebben op de prestaties.

Wat betreft de warmteontwikkeling wordt gesteld dat voor het komende jaar de stap naar een kleiner procédé gepland staat, wat de enorme hitte zou moeten doen afnemen. Voor de huidige generatie videokaarten wordt er gewerkt aan een programma dat het stroomverbruik moet inperken. Wat betreft de sterk wisselende prestaties weet de woordvoerder te melden dat komende week versie 1.01.05 van de Reactor-driver zal uitkomen waarmee de FSAA en pixel shader prestaties naar verwachting zullen verbeteren:

The Club3D graphics board you referred to incorporates high speed DDRII technology, which consumes more power than regular DDR memory. Without suffering performance loss, the engine clock of graphics processors was reduced by 20 MHZ to enhance the stability of graphics board. This way, users who are using Club3D Volari Duo board can enjoy both fast and stable performance while playing heavy 3D applications. [...]

Regarding the issues with FSAA and Pixel Shader speeds, we have made an improvement with driver version 1.01.05, which will be released next week.
XGI Volari

Door Willem Kerstholt

10-12-2003 • 19:51

57

Reacties (57)

57
57
50
31
10
0
Wijzig sortering
ik begrijp die kritiek toch niet hoor. Blijkbaar vergeten velen dat XGI geen grote speler is die met rivisie 27 van zijn topmodel nog steeds geen prestaties weet neer te zetten. Dit gaat hier over een compleet nieuwe kaart die zo maar eventjes in sommige gametests de referentiekaart (nl. de radeon 9800) achter zich weet te laten.
Persoonlijk vind ik dit heel knap. Het feit dat er komaf gemaakt gaat worden met het verouderde 0,18 productieprocede belooft veel goeds. Want met koelere chips kan gelijk de kloksnelheid weer omhoog. En tel daar nog eens verbeterde drivers bij op en je hebt een kaart waarmee je al een flink eind op weg kan.
Ben ik het helemaal mee eens

Mensen vergeten blijkbaar dat nVidia nog geen jaar geleden enorme probelmen had om haar FX serie op de markt te brengen, om nog maar te zwijgen over het ge-emmer met de drivers :Z

Als buiten de hitte de kaart van XGI verder in orde is, is het slechts een kwestie van de drivers goed door ontwikkelen.

Het is best mogelijk dat in de huidige drivers veel zaken nog niet naar de kaart worden gestuurd. Een test van de shaders e.d. waarbij ook naar de CPU belasting wordt gekeken zou zo maar eens een hoop kunnen verklaren. Dat betekend dat ze dat nog moeten aanpassen in de drivers en optimaliseren.
Anoniem: 76313 @Boushh11 december 2003 11:45
Voor mij betekent dit wel weer wachten op een optimalisatie.... Ben al aan het twijfelen om dan toch maar een 9800pro te kopen...

(Of zelfs een el cheapo 9600pro in afwachting tot beter...)

edit: DT typo :o
Achter zich weet te laten?

Tja in bepaalde tests... ja... maar in de belangrijke tests... zoals de pixel shaders ( je weet wel, waarop de FX serie zulke problemen had ) is het resultaat duidelijk minder.

De kaart is duidelijk niet volwassen, met wat meer tijd zal xgi vast wel een kaart op de markt zetten die zeker interrestant is, maar de Duo 8 Ultra is gewoon te duur voor de prestaties.

Daartegen, de 5 Ultra en de 8 Ultra, als goed geprijsd kan interrestant zijn!

XGI heeft een aardig product geleverd helaas met nog wat kinderproblemen, volgende rivisies en versies zullen beter werken :-)
Dit gaat hier over een compleet nieuwe kaart die zo maar eventjes in sommige gametests de referentiekaart (nl. de radeon 9800) achter zich weet te laten.
Nieuwe naam. Dat wel. Maar reken maar dat XGI een hoop kennis heeft mogen meenemen van SiS.
Dus ze beginnen zeker niet volledig van scratch..
Dat ze goed binnenkomen met deze kaart ben ik volledig met je eens.
XGI bestaat tevens uit de grafische afdeling van Trident, een oude bekende uit de grafische wereld die zich meer is gaan toeleggen op de LCD's en HDTV markt waarvoor ze IC ontwikkelen enzo.
De grafische afdeling houdt zich voornamelijk bezig met de mobiele kaarten van XGI maar ze zullen zeker technieken uitgewisseld hebben.
Tevens bestaat het management uit een aantal veteranen uit de grafische markt waarmee ze dus een top positie willen gaan behalen binnen het segment.
nog maar ff afw88 tot die nieuwe drivers er zijn... en een kleiner productieproces (waarom gebruiken ze nou eigelijk nog in godsnaam 180nm?? :S)

die 400 euro is voornamelijk vanwege belastingen en ik denk ook wel wat hebberigheid van nederlandse winkeliers, in de us kost'ie zo'n 300 dollar. (wat ergens rond de 270 euro is ofzo) en voor die prijs is het een zeer goeie kaart (als je de 50 euro verzendkosten meerekend ook nog steeds)

Nog maar eventjess afw88 tot er reviews zijn van die nieuwe drivers, misschien dat FSAA en pixel shader dan wel fatsoenlijk draait.

verder hoop ik natuurlijk dat ze het vol gaan houden, hoe meer concurrentie hoe beter (zowel voor de prijs als voor de kwaliteit)
[quote]

(waarom gebruiken ze nou eigelijk nog in godsnaam 180nm?? :S)
Goedkoop en weinig opstartproblemen omdat er al heeeeel veel ervaring is met het productieprocess.
die 400 euro is voornamelijk vanwege belastingen en ik denk ook wel wat hebberigheid van nederlandse winkeliers, in de us kost'ie zo'n 300 dollar. (wat ergens rond de 270 euro is ofzo) en voor die prijs is het een zeer goeie kaart (als je de 50 euro verzendkosten meerekend ook nog steeds)

Ook resellers betalen verzendkosten en niet zo'n beetje ook. Belasting komt er nog bij + invoerechten. In Noorwegen is de drank duurder dan hier, hoor je daar iemand over klagen?
het gaat er iig om dat je beter zo'n ding kan bestellen uit verweggistan dan dat je'm hier koopt(tenzij je haast hebt natuurlijk). Over die verzendkosten:die zijn voor resellers per kaart een stuk lager (bv 50 euro voor 1 kaart of 150 euro voor 10 kaarten, ik noem maar wat, het is iig goedkoper)

En hier hoor je idd niemand klagen over de drank in noorwegen, maar daar mischien wel, ze zullen in de VS ook wel nix merken van ons geklaag over de prijzen.
Daar staat tegenover dat precies hetzelfde ook voor Ati kaarten geldt: die zijn is de VS ook goedkoper. Al is het wel zo dat de verzendkosten daarvoor lager zijn, omdat ze in grotere hoeveelheden komen.
Ik snap nooit niet waarom sommige mensen de temperatuur van een computer zo zwaar meerekenen. Al wordt deze 80 graden en hij werkt stabiel en snel, dan boeit dat toch niet?

Ik vind deze kaart wel stoer, hij is snel niet zo duur dan een Radeon 9800XT of vergelijkbare Geforce en hij ziet er bruut uit. Al ben ik zelf meer geinteresseerd in de wat goedkopere producten van XGI, omdat ik toch geen 400 euro kan opbrengen. Dus ik ben zeer benieuwd naar benchmarks van die kaarten.

Reactie op Beaves: de warmte HOEF je niet af te voeren, als we veronderstellen dat deze kaarten bij 80 graden nog gewoon netjes hun werk doen.
Wel een gehoord de vuistregel dat bij iedere 10 graden verhoging van de gemiddelde bedrijfstemperatuur de levensduur van electrische componenten halveert?
En hoelang gaat een normale videokaart mee? Laten we zeggen 15 jaar @ 60 graden? (ik zie ook stokoude cpu's, die vanwege de temperatuur beter te vergelijken zijn, ook nog prima draaien)

Dan zou deze kaart dus bijna 4 jaar meegaan... Tegen die tijd is ie iig wel zover verouderd dat je er toch nooit meer meer dan 25 euro voor zou kunnen vangen.
Ik snap nooit niet waarom sommige mensen de temperatuur van een computer zo zwaar meerekenen. Al wordt deze 80 graden en hij werkt stabiel en snel, dan boeit dat toch niet?
Omdat je die warmte ook weer afgevoerd moet worden en dat is gewoon irritant. Om die warmte af te voeren heb je namelijk weer fans nodig en die maken weer lawaai. En lawaai bij een pc is gewoon irritant, je hebt continue een randgeluid wat niet echt fijn is.

Dus hoe minder warmte een chip afgeeft, hoe fijner het is, ook voor de stroomrekening. Al die extra fans + de kaart zelf verbruiken ook stroom.

Ik zou zelf geen videokaart willen hebben die 80 graden wordt, puur door de extra (luide) fans die je nodig hebt.
Ik snap nooit niet waarom sommige mensen de temperatuur van een computer zo zwaar meerekenen. Al wordt deze 80 graden en hij werkt stabiel en snel, dan boeit dat toch niet?
Daar zou ik het een jaar geleden helemaal mee eens geweest zijn. Maar de warmte van die videokaart moet ook ergens heen. Dat komt in de meeste gevallen binnen in de kast terecht. Dus deze videokaart zal niet bepaald interesant zijn voor mensen met een kleine kast met niet zoveel ventilatie.. dan wordt het een sauna ;)

Trouwens, "nooit niet" betekend dat je het dus altijd wel snapt ;)
Trouwens, "nooit niet" betekend dat je het dus altijd wel snapt
Alleen volgens de regels van de wiskunde, volgens de regels van taalgebruik is het gewoon een extra sterke ontkenning
Reactie op Beaves: de warmte HOEF je niet af te voeren, als we veronderstellen dat deze kaarten bij 80 graden nog gewoon netjes hun werk doen.
Dat deze kaart goed op 80 graden werkt, wilt nog niet zeggen dat je overige hardware het hier mee eens is... ;)
KORTOM : het verschil tussen 45 en 50 graden boeit niet zo.

80 graden is te extreem.

Je hebt een zeer warme videokaart, een warme northbridge en daarboven een warme cpu en daar weer een warme voeding.....warmte stijgt ook nog eens.

Met andere woorden en zit een boel warmte bij elkaar. Zo'n extreem warmte videokaart zorgt er dus voor dat alle onderdelen warmer worden, en dat is weer minder fijn
Ook die kunnen er tegen, mits jij je spullen niet overklokt. Dat iedereen hier zijn spullen boven de specificaties laat draaien is natuurlijk niet iets waar de fabrikanten rekening mee hoeven te houden. Ja ze doen het wel, maar dat is dan mooi meegenomen. Iemand die z'n brommertje opvoert kan het de fabrikant toch niet kwalijk nemen dat de remmen de hogere snelheid niet aankunnen. En als er een concurrent is die standaard een brommertje levert waarvan de remmen het wel aan kunnen, dan is dat mooi meegenomen. Maar dat maakt het brommertje van fabrikant A niet minder goed.

Kortom: iemand die z'n pc gewoon volgens de specs laat draaien hoeft zich met 80'c nergens druk om te maken. En als je een P4 2 a 3ghz icm die XGI hebt is overklokken sowieso nergens voor nodig. Vergeet niet dat het gros van de mensen nog nooit van overklokken heeft gehoord, dus die hoeven zich sowieso niet druk te maken om de temperatuur. En het kleine groepje mensen dat wel overklokt, nou ja, die kopen maar een ander merk.
natuurlijk is het brommertje van fabrikant A wel minder goed, die andere heeft immers betere remmen zoals je zegt. zo kan je het ook zien voor videokaarten.
Laten we het zo zeggen, er is een verband tusse hitte, koeling, en herrie.

Ik heb een pc in mijn slaapkamer staan, en zou het fijn vinden als m'n grafische kaart niet zoveel koeling nodig heeft dat ik m'n boxen moet upgraden om het geluid van m'n spellen te horen
Vergelijk deze kaart met de alle eerste Radeon. Overtreft de concurrent nog niet, maar het is een bewijs dat het bedrijf knappe chips kan ontwikkelen.

De eerste Radeon was echter wel gunstig geprijsd, het was voor mij destijds een goede deal. Deze kaart is toch vrij prijzig.
Ik vergelijk dit meer met m'n eerste (en laatste) Cyrix processor based PC.
In sommig etest haalde deze dezelfde of betere resultaten dan een gelijk geklokte intel 486 en de eerste p60 die ik in handen kreeg deed het zelfs niet veel beter in sommige tests, maar zodra je het toaal pakket ging bekijken bleek het toch een miskoop te zijn. de volgende pc had gewoon een intel pentium aan boord en het verschil tussen mijn p166 en de P233+ cyrix chip van m'n buurman was dusdanig dat hij bij mij kwam Quaken...

Dát is de vergelijking die je moet trekken. Als een Compaq die 3 ghz P4-HT chips in een van SDRAM voorziene pc gooit. Eén of twee dingetjes geweldig, maar het totaal pakket haalt bedroevende resultaten.
En dan is goedkoop ineens weer duurkoop.
De eerste radeon was kwa hardware superieur aan de gf3, het zou alleen nog een poos duren voordat de drivers fatsoenlijk zouden worden. (Toch was die kaart niet slecht om mee te beginnen)

Ik denk dat over pakweg 6 maanden de drivers van de XGI kaarten volwassen zoniet fatsoenlijk zijn.
Ik weet wel zeker dat ze zo snel mogelijk aan de performance van deze kaart werken met drivers... er komt geen opvolger als deze kaart dik flopt.

Dus ik denk dat je niet te negatief moet doen... dit dingetje moet zich eerst nog bewijzen.

[edit]
Ik haal iets doorelkaar.. De Radeon8500 zou superieur zijn aan de GF3... neemt niet weg dat de rest van de post nog wel klopt en typfout weggehaald. :)
Waarop baseer jij dit man, die radeon waar jij het over hebt is helemaal niet superieur aan de gf3. Das ook de rede waarom die van nvidia ruim 30% sneller is. Als je praatjes maakt doe het dan goed.

Ik denk dat ik wel kan bedenken waarom de cores en geheugen lager geklokt zijn, hij wordt nu al 80 graden maar dus nog warmer als hij hoger geklokt zou zijn.
De eerste Radeon was superieur aan de GF2 kwa wat hij kon maar niet kwa snelheid, hier had de GF2 een te hoge kloksnelheid voor.
De eerste radeon had zelfs een soort pixel shader... Ati had er pixel shader ingestopt op basis van de beta versies van microsoft, maar microsoft paste op het laatste moment een aantal zaken aan, waardoor de pixel shader unit op de radeon niet overweg kon met de huidige pixelshader 1.1 standaard.

De radeon was dus op veel fronten superieur aan de geforce 2, maar idd door slechte drivers en (bijna) geen developer support is ie nooit echt sneller als de geforce2 geweest....
De eerste Radeon, de Radeon256 was de directe concurrent van de Geforce256. Deze is dus niet superieur aan de volgende generatie kaarten zoals de Geforce2. En al helemaal niet superieur aan de Geforce3 met z'n directx 8 ondersteuning. Hier wordt dus overduidelijk de boel door elkaar gehaald.
ATI 8500 was zeker superiuer aan de GF3
Waarom DX8.1 in hardware met PS1,4.
MAar het voordeel had nVidia refresch met de GF4 em
nVidia was toen en is nu nog markt leider en toen echt wel de markt leider en dat houd in dat developpers richten zich op de massa target platform en dat is toen de features die er op nVidia kaarten zitten.

PS1,4 werdt niet gebruikt veel game problemen met aTI omdat er puur voor nVidia werd gecode ATI komt hooguit in die tijd in de beta test om de hoek kijken.

Dus superiuer kan zeker maar dat is geen gegeven voor sucses.
MS windows is ook markt leider met OS'en maar superieur is het niet
VHS is ook niet superiuer dan betamax of VSS2000 maar heeft de strijd wel gewonnen.

iN die periode verkochten veel Pc bedrihven vooral nVidia en geen aTI.

Dat beeld is nu enigzins verandert en ATI heeft nu wel support denk aan Half-liveII.

Betere hardware is dus ook niet alles naast drivers. Software developers support is nog belangrijker en dat krijg je pas als je markt aandeel niet verwaarloosbaar is maar al van een belangrijke grote is zoals 20 of 33 %

De Radeon klassic is zeker een hele sterke kaart alleen het is een 32bit kaart dus sterk in 32bit kleur dieptes zijn 16bit is gebasseerd op intern 32bit dus de perormance verschil tussen 16 en 32bit laag.

GF2 zijn hybrides met pure 16 & 32 bit aansturing hierdoor liepen ze zwaar voor op 16bit

Als FPS belangrijk was vs beeld kaliteit is nvidia beter voor de bench marker ati beter voor beeldkwaliteit in 32bit modus.

Ook het driver team van nVidia was toen al op hoog niveau dus driverteam compenseerd ook nogal wat mindere trekjes van de hardware.

low resolutie 640x480x16 en 16bit performace is over wegend CPU dependand en dat houd in mede driver dependant dat is nVidia sterke punt.

Gezien nVidia klok voordeel door 0,13 vs 0,15 nu en ook bandbreedte voordeel nu, maar magere DX9 performance wat met D5x.x wel verbeterd is zegt ook wel iets over hun dx9 core.

Vooral nu ATI ook wat meer support krijgt in de game developers markt.
Dit is ook het top-model en deze is wel een stuk goedkoper dan de ATI of Nvidia model.
idd, ze moeten nu door een gustige prijs die kaart veel verkopen, Je zou wel geschift zijn wil je deze kopen, de snellere kaarten zijn goedkoper. En bekender.
Wat mij betreft verdienen ze een pluim omdat ze op zo'n korte tijd zo'n redelijk goede kaart op de markt hebben kunnen brengen.

Het kan nog veel beter, maar XGI is nog maar net begonnen en hopelijk wordt het een geduchte concurrent zodat nVidia en ATI niet op hun lauweren gaan rusten of kartels gaan afspreken.

Concurrentie is in veel gevallen goed voor de consument.
De v8duo is al 24-18 maanden in ontwikkeling, ongeveer even lang als de R300 (nv30 was 36m tot november paperlaunch, dus eigenlijk nog 4m erbij). Hij is wat de Xabre 2 van SiS. Dus een normale productiecyclus voor een dx9 kaart. De drivers zijn in een goed georganiseerd hardware bedrijf op hetzelfde moment werkend (bèta) als de eerste sample, hier is het waarschijnlijk fout gelopen. Nu is 1 iets duidelijk: XGI heeft gewoon nog niet de elite ervaring van nVidia en ATi en dat scheelt een stuk. En inderdaat dat is vergelijkbaar met het sukkelen van ATi met de radeon, doch de radeon was gewaagder en technologisch stukken interessanter dan de XGI processors.

PS. De fillrate en de vertex processors zijn in orde (puik werk echt waar!!) , meer moet je eigenlijk niet hebben om alle spelletjes te kunnen spelen die je maar wenst. XGI moet nog groeien en wat er uit komt kan niemand voorspellen. Eigenlijk wacht ik af maar ik sluit een xgi aankoop (v8 niet duo) zeker niet uit, zelfs van deze serie.
Sja, dan mag ik toch hopen dat die drivers echt een verbetering zijn, anders is deze kaart door zijn prijs/kwaliteitsverhouding toch echt geen optie wat mij betreft, dan koop ik liever een mooie Radeon of Geforce voor dat geld!
Dx9 begint nu al redelijk belangrijk te worden in de game markt.
D'r zijn al aardig wat Dx9 titels in aantocht.

Aangezien deze kaarten nog uit moeten komen verbaasd mij de tegenvallende resultaten mij niks.

Als je kijkt naar nVidia met hun resease en driver achterstand was het ook heel erg maar nVidia had het geluk dat in die Periode DX9 totaal irrelevant was de game markt was nog puur DX8.1
Dx9 optimale performance heeft de nV30 compleet overgeslagen en was pas op niveau toen de nV35 er al 'n tijdje was en daar de refresh van nV38 Detonator 5x.x
Hardware zondere goede drivers heb je niks aan want je loopt dan op de handrem dus in de begin periode van de eerste DX kaarten waren de dX9 prestaties rond uit bagger of helemaal niet optimaal in de drivers aan wezig of helemaal niet.

XGI heeft gewoon een driver achterstand dat is gewoon als je later dan de concurentie komt met 'n dX9 kaart.

nVidia heeft ook er lang voor moeten doen om ATI in dx9 performance bij te blijven.

nu maar hopen dat de XGI driver team de taak aan kan in redelijke tijd 'n maand ofzo?.
Anoniem: 50893 @SG11 december 2003 18:59
Nvidia heeft helemaal niet meegdeaan aan de DX9 platform en was zijn eigen weg ingeslagen. De standaarden voor DX9 werd in een aantal lijnen wel gehanteerd maar verder koos Nvidia voor andere richtingen, vandaar dat ze dus oon veel problemen hebben met een aantal games. Wel bij de feiten blijven als je iets schrijft :Z
Laten we hopen dat XGI niet een voorbeeld aan Nvidia neemt, en driver optimalisaties gaat maken zonder te cheaten en zonder de beeldkwaliteit omlaag te halen.

Maar ja, meestal zijn dan de prestatie verbetering ook niet zo geweldig meer, zoals Nvidia ook gedemonstreerd heeft.
wat dacht je het voorbeeld van S3, op papier blijft en is de savage2000 chip een pracht-chip! maar knappe drivers voor dat ding schrijven... ho maar!
Misschien zou het toch de beste oplossing zijn voor een bedrijf in nood. Niet dat ik het dan goed praat, maar ze moeten minstens zorgen dat alle spelen speelbaar zijn.
Ik vind het wat overdreven dit eerste produktje. Tuurlijk, cocurentie is welkom maar om nu ook al te komen met 2 gpu's op 1 plank die allebei een extra molex aansluiting hebben vind ik wat te ver gaan.

Misschien over een aantal jaren dat ze mee kunnen draaien maar voor alsnog zie ik er nog geen hijl in, zal wel ff duren voor ze een goed werkende/geoptimaliseerde kaart in hun bezit hebben en dat ze dan wat meer kansen hebben. Kzie het maar als lesgeld voor ze, zal zich wel een keer uit betalen.

Off Topic : Het lijkt me sowieso denk ik beter voor de snelheid dat verschillende effecten over ieder zijn eigen cpu lopen of core. Als ik zie dat Sony dit ook gaat doen met zijn PS3 zou dit kunnen betekenen dat we meer optimalisatie krijgen waardoor iedere core onafhankelijk beter werkt, afw8ten maar.
maar om nu ook al te komen met 2 gpu's op 1 plank
Wie herinnert zich trouwens dat zo'n kaart ook allang bestond... Toen ik deze kaart het eerst zag moest ik eigenlijk meteen denken aan de Voodoo 5 5500 O+

Helaas, dual gpu werkt niet echt.. Het is te lomp, zuipt teveel stroom. Ze hadden zich imho beter kunnen focussen op een single gpu oplossing. Maar wat ik vermoed, is dat ze die niet snel genoeg konden maken met de kennis die ze hadden. Dus dan maar een mindere GPU ontwerpen met SLI(-achtige) mogelijkheid. Ten tijde van de Voodoo 5 kon dat nog wel, maar met de gpu's en hun stroomverbruik van tegenwoordig..
Zoiets kan je best perfectioneren.. net zoals powercolor het tilerendering goed onder de knie kreeg.

SLI met 2 losse agp kaarten is niet mogelijk op het moment.
Als er al een chipset is die wel 2 agp sloten ondersteund zijn er nog geen moederborden..
Zoiets kan je best perfectioneren.. net zoals powercolor het tilerendering goed onder de knie kreeg.
Tile-based rendering, dat was toch een techniek van de ST Kyro (II)? Powercolor is alleen maar een kaartenmaker, die doen niets aan de GPU zelf. Ze bouwen er alleen een kaartje omheen terwijl ze de GPU's inkopen bij b.v. ATi/nVidia/ST/XGI/etc ;).
SLI met 2 losse agp kaarten is niet mogelijk op het moment.
Nee, maar wat heeft dat ermee te maken :? Met 2 chips op één kaart kan je ook SLI draaien. Als beide chips beeldlijnen om en om berekenen heb je SLI, of dat nu met 2 chips op een kaart zit of op 2 kaarten. Maar ik weet natuurlijk niet met wat voor techniek de Volari's gekoppeld zijn, heel misschien is het ook SLI, waarschijnlijk hebben ze iets anders verzonnen.
Wat mij het meeste opvalt is de nogal naieve houding van XGI die de boel een beetje simpeltjes wilt ontkrachtigen. Ze schepen T.Net een beetje af met hele vage en nogal domme opmerkingen wat mij eerder de impressie wekt dat ze nog een hele lange weg te gaan hebben willen ze de boel echt goed willen werken.

Het lijkt mij nou niet echt de beste strategie om te volgen als nieuwkomer. Wat meer openhartigheid en wat meer diepgang zou XGI in mijn ogen een betere promotie zijn dan de weg die ze nu inslaan.
Wat mij het meeste opvalt is de nogal naieve houding van XGI die de boel een beetje simpeltjes wilt ontkrachtigen. Ze schepen T.Net een beetje af met hele vage en nogal domme opmerkingen.
Zeggen dat je volgende product volgens een moderner procede gemaakt gaat worden is inderdaad oliedom. Zeggen dat er een nieuwe driver aankomt waarmee de snelheid opgekrikt wordt is idd ook erg oliedom. Zeggen dat je chip 20mhz lager is geklokt omwille van de stabiliteit is ook al ontzettend dom. Zeggen dat er DDR2 geheugen is gebruikt ipv DDR1 is ook verschrikkelijk onvergeeflijk DOM! En hoeveel domme chipsetfabrikanten telt ons planeetje dan? Juist, zoveel als er bestaan. Dus niet alleen XGI..
cut them some slack .. ze zijn goed bezig en hun kaarten zijn zeker aan te raden als je het moet verkopen aan iemand die niets van PC's weet en enkel goeie performance wilt in oudere games .. al bij al goeie kaart .. hoop dat hun drivers beter en beter worden en dat het een goede concurent wordt ergens in de loop van volgend jaar :)
ja deze introductie lijkt een beetje op de introductie van de FX
goed maar nog lang niet af.

ik ben benieuwd en wens xgi veel succes

Op dit item kan niet meer gereageerd worden.