XGI's Chris Lin: 'waar twee honden vechten om een been...'

Chris Lin, de topman van XGI, heeft tegenover ZDNet enkele pittige uitspraken gedaan over zijn bedrijf. Zo verwacht hij dat XGI in 2005 zwarte cijfers zal schrijven, waarna in 2007 het marktleiderschap in handen van de videokaartenproducent zal komen. Volgens hem biedt de verstikkende greep waarin nVidia en ATi elkaar vasthouden een goede gelegenheid om er als derde speler met het spreekwoordelijke been vandoor te gaan. De vijfhonderd miljoen dollar die het bedrijf in de ontwikkeling van de Volari stopt is minder dan wat nVidia verbruikt, maar volgens de topman meer dan genoeg: de eenvoudigere ontwikkeling van een dual-GPU zou de ontwikkelingskosten omlaag brengen.

Een beetje twijfel over de grote woorden lijkt gerechtvaardigd, gezien de afkomst van het bedrijf: SiS had ook grote plannen met de Xabre, maar moest uiteindelijk zijn meerdere kennen in het snelheidsgeweld van de grote twee. Voorlopig lijkt het er echter goed uit te zien voor XGI, gezien de geruchten dat AsusTek, Club3D, CP Technology en Gigabyte plannen hebben de chips te gaan verkopen. Over de prijzen van de kaarten is nog altijd niets met zekerheid bekend, maar volgens Lin zullen die op het niveau van concurrerende ATi-kaarten liggen.

XGI Volari V8 Duo

Door Jonathan Brugge

Nieuwsposter/Frontpage-admin

29-09-2003 • 21:21

59

Submitter: T.T.

Bron: ZDNet

Lees meer

XGI: geen cheats in Reactor-driver
XGI: geen cheats in Reactor-driver Nieuws van 18 december 2003
Computex dag 4 verslag bij AnandTech
Computex dag 4 verslag bij AnandTech Nieuws van 27 september 2003

Reacties (59)

59
58
36
7
0
11
Wijzig sortering
Wat ik me afvraag he... Als ze nú even snel zijn als de huidige GPU's, hoe willen ze dan over 2 jaar concurreren? Want dan hebben ze nu wel een core, maar die kunnen ze geen 2 jaar blijven uitknijpen.
Of hebben ze deze als test, en dat ze dan gewoon een compleet nieuwe core ontwikkelen voor over die 2 jaar?
lees de bron... Eind november aaanstaande komen ze uit...
Ze blijven gewoon zoveel GPU's op dat PCB bouwen tot de kaart te zwaar is voor een AGP-Slot :P
Tja, dit werd 3 jaar geleden ook van PowerVR gedacht. Prachtige uitspraken van dit Britse bedrijf over hun Kyro, fantastische specs, en toen ging er iets mis. Haast niemand kocht die dingen, ondanks toch goede bedrijven als Hercules de deze chips aanboden.

XGI moet toch echt eerst vertrouwen bij bedrijven en consumenten winnen/goede deals sluiten om in de eerste plaats al aansluiting te krijgen bij Ati en nVidia. Daarna kunnen ze pas verder kijken.
iemand die 2! aansluitingen voor op de voeding gezien?

lijkt mij dat ze een powersaving mode hebben ingebouwd, waarbij je 1 van de twee gpu's kan uitschakelen. Anders lijkt mij dit overbodig, aangezien ze beide op de zelfdee voeding worden aangesloten ...
Misschien dat voor 2D 1 core volledig wordt uitgezet.
Hij heeft een grote mond voor een nieuweling.

Met twee GPU's niet kunnen bereiken wat ATi en nVidia met een enkele GPU al maanden kunnen. Als je door deze feiten 'gesteund' volhoudt dat het slecht zal gaan met nVidia en ATi, maak je jezelf toch belachelijk.

Overigens: Houden nVidia en ATi elkaar in een verstikkende greep? Volgens mij houdt ATi nVidia in een verstikkende greep.
Deze vergelijking raakt kant noch wal. De hele opzet is juist dat je bij gebruik van meer GPU's de enkele GPU's simpeler/goedkoper kan houden. Hier is het hele produkt omheen gebouwd

ATi en nVidia proberen juist met een enkele chip zo snel mogelijk te zijn, een compleet andere filosofie. Die ATi in het verleden, niet zonder problemen, ook geprobeerd heeft!
ach ja Shappire heeft ook al een dual gpu ATI 9800 (ik weet het niet werkend maar ze zijn er zeker mee bezig) En nu XGI met dual gpu volari, hum nou Nvidia nog ben benieuwd.
Hebben we straks videokaarten op de markt die het gewone cpu kunnen verslaan ???
Probleem is dat de GPU's op de vid-kaarten enkel dienen om video-instructie's uit te voeren en geen "gewone" berekeningen.
Ik heb toch al gehoord van plannen om in de toekomst grafische kaarten een deel van het werk van de CPU te laten verrichten op momenten dat de grafische kaart geen werk heeft.
Ik wil met deze vergelijking laten zien dat XGI met 2 GPU's kan wat ATi en nVidia met 1 GPU kunnen, als zij naar de 2 GPU's toe werken, zal het verschil tussen XGI en de concurrentie nog verder toenemen.
Dan snap je blijkbaar echt niet hoe het in elkaar steekt.

ATI en Nvidia zitten met dure complexe GPU's.
Als je er daar van twee op een kaart zet dan heb je wel meer prestatie, maar je kaart wordt veel te duur voor je klanten. (Zoals iemand van Intel ooit zei: Een snelle CPU maken is niet moeilijk. 'm ook betaalbaar houden, dat is de kunst)

Die XGI gpu moet simpel en goedkoop zijn. Dan kan je voor dezelfde prijs er twee van op een kaart zetten.

Vanwege die simpeler opzet zal het waarschijnlijk ook makkelijker zijn meerdere gpu's op een kaart te zetten. Met name als je daar in je ontwerp rekening mee houdt.

Bij de Radeon is daar ook wel rekening mee gehouden, maar dan meer voor de professionele kaarten, en niet echt voor de consumenten kaarten.
Waar haal je precies vandaan dat de Volari met 2 GPU's langzamer is dan de top-end nVidia en ATi kaarten? Er zijn namelijk nog geen geloofwaardige objectieve benches, en ook al zouden die er zijn, dan mag je van de kant van de Volari nog veel snelheidswinst verwachten in de nabije toekomst doordat de drivers worden geperfectioneerd, iets waar nVidia en ATi al ruim de tijd voor hebben gehad.
Je vergeet dat dat R300/R350 cores van ATi nu op pure DX9 brute kracht draaien. Ze gaan nu nog beginnen met het optimaliseren van de compilers, zodat je straks pas echt nog vooruitgang kan zien. :)
Zeker, maar kun je 1 zinnige reden geven waarom dat niet ook voor de XGI kaarten op zou gaan ?

Zeker blazen ze behoorlijk hoog van de toren. Maar deed nVidia dat niet ook met de FX5800 ? En die is dus nooit lekker van de grond gekomen.

Laten we eerst maar es afwachten wat XGI te bieden heeft. De benchmarks goed bekijken, en who cares, dat zijn de ATi danwel nVidia performance pas met meer dan 1 GPU op de kaart kunnen bereiken. Zo lang ze het maar doen, maakt het natuurlijk niet uit hè. Zeker als die GPU ook nog es een stuk goedkoper geproduceerd kan worden en goedkoper in ontwikkeling is.

Het enige dat onder de streep telt, is performance en de prijs die daarvoor betaald moet worden.
de kaart ziet er wel een pak eenvoudiger uit, desondanks de dual-gpu opstelling: de bovenste (zichtbare) layer is proper opgeruimd en de printbanen zijn naar beneden verplaatst.

hopelijk koelen ze het memory tesamen met de gpu's, want die 2 middelste chipjes zullen warm worden met die gpu's naast hen :P
maar hoopenlijk niet onder het zelfde koelblok. dan kunnen de GPU's de memory chips "lekker" opwarmen.
die fout word wel vaker gemaakt
vraag me af waarom ze die middelste eigenlijk niet naar links hebben verplaatsts.
mmm dan zouden ze trouwens de GPU ook 90 graden draaien wat misschien lastig is ivm de aansluitingen
of ze moeten 2 verschillende (gespiegelde) GPU's bakken... tja daar druk je de kosten ook niet echt mee.
ach.. deze dingen worden per chip veel minder warm, gezien er voor 2 chips evenveel performance is als 1 ati chip, en zoals je weet zit daar ook niet echt een superkoelblokje op.
dat zou je denken, maar niemand weet eigenlijk nog hoe heet ie chips worden. Eigenlijk een onzinnge uitspraak zolang er nog geen echt materiaal is waarop we kunnen testen....
Als ze die chipies nu rechtop zetten dan past er een hele rits op zo'n plank (32 ??) :+
dan hebben ze jammer genoeg een cooling probleem met de huidige technologieen ben ik bang
nee dat niet.. zo warm worden deze chippies niet gok ik... zo complex zijn ze namelijk niet, de helft van een 9800PRO ongeveer, om dat even als gemakkelijk voorbeeld te pakken... de radeon 9600 wat dan "die helft" moet zijn kan al passief gekoeld worden. als je genoeg ruimte overhoud en er 1 fannetje aan de zijkant zet ben je al klaar.

Die chips zelf zijn niet zo groot! alleen de verpakking is wat groot.
Fijn om weer een concurrent erbij te hebben. Hierdoor zullen later de prijzen zakken. Tevens zal er een snellere ontwikkeling van videokaarten zijn. Dus sneller en meer geavanceerd.

Woohooooo :P

We zullen zien.
1) BENCHIES!
2) BugLoos!
3) StaBiel!
4) ROELEEEEER :)

Altijd probleem met nieuwe spullen die met veel tamtam aangekondigd worden. Ze hadden we al een hele serie 'supersnelle' videokaarten. Alleen jammer dat ze een jaar of 5 te laat kwamen :+
jup, en dus mag je ook veel sneller gaan upgraden, meer geld uitgeven, .....
grafische pracht mag er zijn, maar toch niet tegen elke prijs, wat ze nu bereiken vind ik al realistisch genoeg!
Het is wel een langwerpig ding zeg....
mijn voodoo5 is langer, en die past ook makelijk.
Met een Research budget van zo'n 500 miljoen moet je toch echt wel een eindje zien te komen lijkt me dus mischien gaat het ze nog echt lukken ook!
Ferrari pompt jaarlijks 20/40 miljoen euro in de F1, zolang ze niet de juiste man in de auto hebben is dat geen garantie op succes. M.a.w.; ze kunnen wel een leuk budget hebben, als ze de juiste mensen niet hebben word het nog niks.....

Mikeyman; het is maar een vb, als ze niet Schumacher hadden maar bv. een Wilson zouden ze nog geen kampioen worden . . .
20/40 miljoen??? man... Schumi krijgt al 70 miljoen per jaar... maak er maar 400/600 van...
En als je er een wereldkampioenschap formule1 mee kunt winnen met alle computertechniek van dien, zou je er toch ook een grafische chip van moeten kunnen ontwerpen... IMHO....

Op dit item kan niet meer gereageerd worden.