Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 29 reacties
Bron: The Inquirer, submitter: airliner

Grafische chipmaker XGI heeft moeite om met zijn Volari marktaandeel te veroveren maar is al wel bezig met een nieuwe chip die voorlopig de codenaam XGI XG45 draagt, zo meldt The Inquirer. Aangezien er vertragingen zijn geweest bij het leveren van de chip aan kaartenfabrikanten worden er alleen door Abit, Chaintech en PowerColor nog videokaarten met de XGI Volari gemaakt. De nieuwe XG45 zal PS3.0-compliant zijn en wordt voor zowel het 130nm- als 90nm-procedé ontworpen, dit laatste om technologische barrières voor te zijn. De chip zelf zal evenals de V8 op het dual graphics-chip ontwerp gebaseerd zijn en zal zowel DDR als DDR2-geheugen ondersteunen. De eerste test-samples worden midden komende zomer verwacht, zo meldt het artikel.

XGI Volari
Een XGI Volari V8 Duo Ultra kaart
Moderatie-faq Wijzig weergave

Reacties (29)

Waarom weer een dual core kaart? Het lijkt mij dat dit veel prijziger om te produceren? Zo maak je per verkochte chip minder winst! Of hebben ze niet de kennis/recourses om een snelle GPU te ontwikkelen, zodat dit de enige modelijkheid is?

@Parody:
De kosten van het produceren (en niet te vergeten ontwerpen!) van twee verschillende chipontwerpen (één voor low/mid-end, één voor high-end) wegen voor hun waarschijnlijk op tegen de kosten van het produceren van één chipontwerp.
Toen de 9500/9700 serie van Ati uitkwam, waren deze ook maar op één chip gebaseerd. Ze hoefden dus maar één GPU te ontwerpen en fabriceren. De beste chips gingen naar de 9700 (pro) en de misbaksels gingen naar de 9500. Op die manier hoef je dan ook veel minder mislukte GPUs weg te gooien, gewoon wat pipelines uitschakelen en voor een andere type kaart gebruiken! Ik vind dat persoonlijk een betere strategie (ben verder geen kenner, maar t lijkt me goedkoper voor de fabrikant).

@EoG:
Wat dacht je van stabiliteit?
\

Is een dual core oplossing dan stabieler? Lijkt me dat de communicatie tussen de 2 GPUs eerder instabiliteit kan veroorzaken dan stabiliteit? Die problemen heb je niet met single GPU oplossingen.
De kosten van het produceren (en niet te vergeten ontwerpen!) van twee verschillende chipontwerpen (één voor low/mid-end, één voor high-end) wegen voor hun waarschijnlijk op tegen de kosten van het produceren van één chipontwerp. Je moet er misschien meer van bakken, maar per stuk zijn ze weer goedkoper. En niet te vergeten: low/mid-end wordt vééél meer verkocht dan high-end. Daarnaast is 2x warm makkelijker te koelen dan 1x heet.

De twee belangrijkste nadelen van een 2-chip ontwerp zoals de Volari zijn de overhead door communicatie tussen de chips (performance) en het verdubbelen van de hoeveelheid geheugen op de chip (prijs).

Aan de andere kant: om dezelfde totale bandbreedte te halen kun je toe met minder snel geheugen, omdat je gebruik kan maken van twee geheugenkanalen i.p.v. één. Dat drukt de kosten weer, omdat je minder hoog geklokt RAM nodig hebt voor dezelfde prestaties. Uiteraard hangt dit allemaal erg af van het chipontwerp, want een dual-channel single-chip oplossing lost het probleem op dezelfde manier op.

@Master Yoda:
het is inderdaad een leuk dilemma voor de fabrikanten:
Optie 1: maak je één relatief simpele, kleine en in meervoud uitvoerbare chip (goedkoop), die je weg moet gooien als er tijdens de productie iets stuk aan is (kost geld, maar er gaan meer kleine chips op een wafer, waardoor de totale uitval in aantallen beperkt blijft t.o.v. grotere chips), en in meervoud uitvoert als je hogere prestaties wilt (kost geld);
Optie 2: maak een complexe en grote chip (relatief duur), die je kunt "downgraden" als je er achter komt dat een paar schakelingen niet naar behoren werken (scheelt geld, maar bij een grotere chip is er wel een grotere kans op beschadiging, en er gaan er minder op een wafer). Daarnaast kan de vraag naar het low-end product ervoor zorgen dat chips die wél geschikt zijn voor het high-end product toch als low-budget verkocht moeten worden (duur). Je maakt wel makkelijk naam met deze constructie als de high-end chip snel genoeg is. :)
Optie 3: bouw een complexe chip (duur) en leidt daar een simpele chip van af (relatief goedkoop). Beide chips moeten geproduceerd worden, waarvoor je dus twee types masker moet maken (duur). Voor massaproductie (echt grote aantallen dus) de beste optie, maar voor een relatief kleine serie erg duur.

ATI is met optie 2 begonnen, en na het overweldigende succes van de R300 overgestapt naar optie 3. Het feit dat je 9500's vaak kon modden naar een 9700 gaf al aan dat ATI veel R300's als 9500 verkocht (goedkoop voor de consument, duur voor ATI) die toch het potentieel hadden om als 9700 op de markt te komen (de yields waren "te" goed). Komt bij dat ATI niet bepaald arm is (grote speler met een redelijk brede reeks van producten), en dus wel wat kan lijden als een chip niet goed aanslaat.

XGI begint met optie 1. Uit kostenoogpunt (vooral als je niet weet of je veel gaat verkopen) waarschijnlijk het verstandigst. Mochten er niet zo veel van die chips verkocht worden blijven de kosten ook beperkt. XGI heeft niet zo veel alternatieve producten om op terug te kunnen vallen. Het zou me ook niet verbazen als ze bij succes later overstappen naar optie 3, want bij grote hoeveelheden is dat gewoon goedkoper.

Verder blijf ik bij het statement dat je veel meer low/mid-end kaarten verkoopt dan high-end kaarten. Investeren in een low/mid-end chip is dus kostenefficiënter dan investeren in een high-end chip, maar niet zo goed om naam te maken: prestaties tellen! Om ook de prestaties te kunnen leveren hebben ze dus een chip ontworpen die paarsgewijs kan werken. Misschien riskant (nog nooit echt succesvol gedaan), maar wel goed gejat. ;)
Wat dacht je van stabiliteit? En ik denk niet dat ze de prijs zover gaan opvoeren, videokaarten kosten in vergelijking met vroeger niet zo veel meer, dus dat zal geen probleem worden!
Wat versta jij dan onder vroeger? Want videokaarten zijn juist een stuk _duurder_ dan 'vroeger'.

In 1995 betaalde ik voor een high-end Diamond kaart met S3 968 en VRAM erop (ja, S3 was toen nog een topper) 580 gulden. In 1998 was een Asus 3400 TNT ViVo kaart bij MyCom 365 gulden. Pas toen de 3D hype echt los kwam schoten de prijzen met de GeForce Ultra's ineens richting de 1300 gulden. Omgerekend zitten high-end kaarten daar nu zelfs nog iets boven.
valt volgens mij wel mee, de enige kaarten die weer wat uitschoten zijn de gf3 (1000-1100 gulden toen deze net uit was) en de v5 6000 (niet uitgekomen maar had een richtprijs van rond de 1600-1700 gulden>zal wel mede de reden zijn dat 3dfx er niet meer mee doorging)
Daarna waren de meeste top kaarten niet meer dan 399$ vaak, wel duurder dan helemaal in het begin maar er was dan ook een veel breder aanbod (zodat je al heel makkelijk een kaart met een veel betere prijs/prestatie dan vroegah kon kopen)
Club 3D valt onder Powercoler.

En die staat in het artikel:

Abit, Chaintech en PowerColor

Als reactie op Muhlenbaumer: Vrijwel elk vgamerk is een 'merkenplakker'. Al die kaarten zijn identiek, het enigste verschil zit m in het geheugen en het koelertje wat ze erop plakken.

Er zit natuurlijk een verschil in de losse meuk die erop zo een kaart geplakt zit maar dat is allemaal oem spul dus wat voor merk condensator erop zit maakt niks uit. ik moet de klant nog tegenkomen die op zijn vga kaart perse een outputfilter van het merk X wil.

CLub 3D heeft ook moederborden ja, waarvan iedereen weet dat die van Albatron afkomen wat op zijn beurt weer een 'splintergroepering' is van Gigabyte en die heeft weer vga kaarten die identiek zijn aan die van Club 3D.....
En de verschillen in gebruikte componenten, zoals condensatoren, spoelen, ic's, opbouw voedingsregelaars en outputfilters en DVI/TDMS-encoders, svideo/composiet encoder etc.
Wat al die fabrikanten doen is gewoon een zooi chips bij Nvidia, Ati, XGI, etc. bestellen met een boardlayout en materiaallijst. En alle fabrikanten geven precies aan aan welke specs een bepaalde component moet voldoen wil je een werkende kaart krijgen.

Trouwens is het tegenwoordig zo dat alle kritische onderdelen al in de gpu zelf zitten. Het enige wat nog een beetje uitmaakt is het analoge vga output filter, maar dat is sinds de gf4 serie ook al minder kritisch. De rest is voeding en bufferelco's en dat is niet echt kritiek.
volgens mij zijn jullie club 3d in het rijtje vergeten , zijn zijn de eerste die volari's leverden, zoals links onderin te zijn is bij de pricewatch shortcuts
Op dit moment is Club3d blijkbaar geen kaartenbakker meer wat betreft de XGI Volari, zie ook het bronartikel. Aangezien daar Club3D niet genoemd wordt, noem ik het ook niet in het nieuwsbericht :)

edit: en wat Michiel Muhlenbaumer hierboven noemt moet ook niet vergeten worden, Club3D bouwt idd zelf zijn kaarten niet, vandaar ook ;)
Club3D = Powercolor = Colour Power Technology ;)
En van wie denk je dat Club3D z'n XGI Volari kaarten koopt? ;) Juist, Club3D is geen chip/videokaartmaker, maar een logo-plakker (kaarten inkopen bij producent, eigen logo erop en doorverkopen...)

Uiterst lucratieve business.. Dell is zo ook begonnen en kijk waar ze nu zijn ;)
Doet dell toch nog steeds ;)
Club3D verkoopt nogal buget achtig.. Vaak ook niet echt lekkere kaarten, kaarten die niet goed werken. althans dat is mijn ervaring. 2 kaarten van ze gehad, allebij defect.
Misschien wil XGI niet aan zo'n zooitje verbonden worden.
Dat is dus echt niet waar! Je wilt niet weten hoeveel tweakers CLUB 3D Radeons hebben draaien! Ik heb een 9800non Pro @ Pro > :) en ben zeer te spreken over de kwaliteit en degelijkheid van deze kaarten!

En waarom! Ze relabelen alleen maar wat van Ati of nVidia zelf komt! Je krijgt dus gewoon een gerelabeld fabrieks-OEM product!

Club3D is dus niet : Zo'n zooitje! :r

Club3D ;)
Ze relabelen alleen maar wat van Ati of nVidia zelf komt!
:?
nVidia maakt al lang zelf geen videokaarten meer! Behalve prototypes enzo :P
En voor zover ik weet, ATI ook niet meer:
http://www.tweakers.net/nieuws/27336
Dan wil ik niet weten wat jij ermee gedaan hebt, want ik werk nu al 2 jaar met dezelfde kaart en het werkt nog perfect! (tsja, wat traag, maargoed!) Programma's als Truspace/3d studio werken perfect, zelfs met het renderen van Truspace objecten geven die dingen geen problemen!
powercolor = club3d.
of althans, vroeger heette het in nederland ook gewoon powercolor, volgens mij heet het in de usa nu nog steeds powercolor. het kan ook zijn dat club3d hun stickertjes op powercolor kaarten plakt. dat doen ze ook met moederborden namelijk. ze hebben een paar bordjes in hun assortiment en dat zijn albatron borden.

overigens is er imo erg weinig mis met club3d. ik verkoop het bijna alleen maar en het werkt echt altijd prima, en een erg lage uitval.
Dat ben ik met je eens, 7 van de tien kaarten die ik verkoop zijn idd club 3d. De uitval van die kaarten is gering en de kaarten zijn van goede kwaliteit, ik laat in het midden of ze die kaarten nu zelf maken of dat een ander bedrijf het doet, wel weet ik dat als je de pc's opstart met een club 3d kaart erin het bios ervan door club 3d is gemodificeerd
Ik weet wel zeker dat Club3D andere kaarten beplakt en verkoopt. Ik heb een aantal ATI kaarten gehad, en als je daar het Club3D stickertje (op de achterkant) vanaf trekt, zie je de bekende ATI-101 code op een barcode sticker.

En die code, volgens ATI, bewijst dat je een uniek 'Built By ATI' product hebt en geen 'Powered by ATI' (dus van een andere fabrikant).

Je kunt de code ook invullen op ati.com en ook dan bedankt ie je weer voor het kopen van een origineel ATI product :)
ATI maakt toch zelf geen kaarten meer?
http://www.tweakers.net/nieuws/27336
ATi verkoopt nog wel "Built By ATi" kaarten, maar puur en alleen op de Noord-Amerikaanse markt. De rest van de wereld is aangewezen op "Powered By ATi" kaarten, maar die worden doorgaans ook gemaakt door de huisfabrikant van ATi, Sapphire, die ook de "Built By ATi" kaarten maken.
Vraag me dan wel af wat de gemiddelde framerate wordt onder spellen als ut2k3, en het is natuurlijk geniaal om mee te werken met bijvoorbeeld Truspace!
Voor een kaart waarvan de samples pas midden 2004 worden verwacht, en die dus pas eind 2004 goed verkrijgbaar zal zijn, ben ik meer benieuwd naar de Half-Life 2 en Doom III performance. UT2K3 performance is al prima op een GF4 Ti.4200 kaartje van 50 euro, daar hoef je het niet voor te doen.
Sorry, 50 euro?

Overbodig?.. Ik corrigeer alleen maar iemand, zucht |:(
Niks te klagen over club 3d. leveren prima kaarten. Ben benieuwd of XGI nu een goede performer weet te produceren voor een redelijke prijs. :)
Club 3D labelplakker?

Hmm eenvoudige business.

Zeg iemand interesse in een Tankeriv Volari Duo? :Y)
Ze moeten wel snel zijn, want ATi en Nvidia staan op het punt hun nieuwste kaarten uit te brengen (zie tweakers nieuws) en dan lopen ze nog meer achter :(
Weer een dual core setup?
Daar kan ik niet echt vertrouwen in hebben. Als ze nu nog denken dat een dual core de beste ATI's en nVidia's moet benaderen qua performance zijn ze erg fout bezig. Laat ze eerst een goede architectuur ontwikkelen voordat ze met dual core beginnen.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True