Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 59 reacties
Bron: ZDNet, submitter: T.T.

Chris Lin, de topman van XGI, heeft tegenover ZDNet enkele pittige uitspraken gedaan over zijn bedrijf. Zo verwacht hij dat XGI in 2005 zwarte cijfers zal schrijven, waarna in 2007 het marktleiderschap in handen van de videokaartenproducent zal komen. Volgens hem biedt de verstikkende greep waarin nVidia en ATi elkaar vasthouden een goede gelegenheid om er als derde speler met het spreekwoordelijke been vandoor te gaan. De vijfhonderd miljoen dollar die het bedrijf in de ontwikkeling van de Volari stopt is minder dan wat nVidia verbruikt, maar volgens de topman meer dan genoeg: de eenvoudigere ontwikkeling van een dual-GPU zou de ontwikkelingskosten omlaag brengen.

Een beetje twijfel over de grote woorden lijkt gerechtvaardigd, gezien de afkomst van het bedrijf: SiS had ook grote plannen met de Xabre, maar moest uiteindelijk zijn meerdere kennen in het snelheidsgeweld van de grote twee. Voorlopig lijkt het er echter goed uit te zien voor XGI, gezien de geruchten dat AsusTek, Club3D, CP Technology en Gigabyte plannen hebben de chips te gaan verkopen. Over de prijzen van de kaarten is nog altijd niets met zekerheid bekend, maar volgens Lin zullen die op het niveau van concurrerende ATi-kaarten liggen.

XGI Volari V8 Duo

Lees meer over

Gerelateerde content

Alle gerelateerde content (24)
Moderatie-faq Wijzig weergave

Reacties (59)

Wat ik me afvraag he... Als ze n even snel zijn als de huidige GPU's, hoe willen ze dan over 2 jaar concurreren? Want dan hebben ze nu wel een core, maar die kunnen ze geen 2 jaar blijven uitknijpen.
Of hebben ze deze als test, en dat ze dan gewoon een compleet nieuwe core ontwikkelen voor over die 2 jaar?
lees de bron... Eind november aaanstaande komen ze uit...
Ze blijven gewoon zoveel GPU's op dat PCB bouwen tot de kaart te zwaar is voor een AGP-Slot :P
Tja, dit werd 3 jaar geleden ook van PowerVR gedacht. Prachtige uitspraken van dit Britse bedrijf over hun Kyro, fantastische specs, en toen ging er iets mis. Haast niemand kocht die dingen, ondanks toch goede bedrijven als Hercules de deze chips aanboden.

XGI moet toch echt eerst vertrouwen bij bedrijven en consumenten winnen/goede deals sluiten om in de eerste plaats al aansluiting te krijgen bij Ati en nVidia. Daarna kunnen ze pas verder kijken.
iemand die 2! aansluitingen voor op de voeding gezien?

lijkt mij dat ze een powersaving mode hebben ingebouwd, waarbij je 1 van de twee gpu's kan uitschakelen. Anders lijkt mij dit overbodig, aangezien ze beide op de zelfdee voeding worden aangesloten ...
Misschien dat voor 2D 1 core volledig wordt uitgezet.
Hij heeft een grote mond voor een nieuweling.

Met twee GPU's niet kunnen bereiken wat ATi en nVidia met een enkele GPU al maanden kunnen. Als je door deze feiten 'gesteund' volhoudt dat het slecht zal gaan met nVidia en ATi, maak je jezelf toch belachelijk.

Overigens: Houden nVidia en ATi elkaar in een verstikkende greep? Volgens mij houdt ATi nVidia in een verstikkende greep.
Deze vergelijking raakt kant noch wal. De hele opzet is juist dat je bij gebruik van meer GPU's de enkele GPU's simpeler/goedkoper kan houden. Hier is het hele produkt omheen gebouwd

ATi en nVidia proberen juist met een enkele chip zo snel mogelijk te zijn, een compleet andere filosofie. Die ATi in het verleden, niet zonder problemen, ook geprobeerd heeft!
ach ja Shappire heeft ook al een dual gpu ATI 9800 (ik weet het niet werkend maar ze zijn er zeker mee bezig) En nu XGI met dual gpu volari, hum nou Nvidia nog ben benieuwd.
Hebben we straks videokaarten op de markt die het gewone cpu kunnen verslaan ???
Probleem is dat de GPU's op de vid-kaarten enkel dienen om video-instructie's uit te voeren en geen "gewone" berekeningen.
Ik heb toch al gehoord van plannen om in de toekomst grafische kaarten een deel van het werk van de CPU te laten verrichten op momenten dat de grafische kaart geen werk heeft.
Ik wil met deze vergelijking laten zien dat XGI met 2 GPU's kan wat ATi en nVidia met 1 GPU kunnen, als zij naar de 2 GPU's toe werken, zal het verschil tussen XGI en de concurrentie nog verder toenemen.
Dan snap je blijkbaar echt niet hoe het in elkaar steekt.

ATI en Nvidia zitten met dure complexe GPU's.
Als je er daar van twee op een kaart zet dan heb je wel meer prestatie, maar je kaart wordt veel te duur voor je klanten. (Zoals iemand van Intel ooit zei: Een snelle CPU maken is niet moeilijk. 'm ook betaalbaar houden, dat is de kunst)

Die XGI gpu moet simpel en goedkoop zijn. Dan kan je voor dezelfde prijs er twee van op een kaart zetten.

Vanwege die simpeler opzet zal het waarschijnlijk ook makkelijker zijn meerdere gpu's op een kaart te zetten. Met name als je daar in je ontwerp rekening mee houdt.

Bij de Radeon is daar ook wel rekening mee gehouden, maar dan meer voor de professionele kaarten, en niet echt voor de consumenten kaarten.
Waar haal je precies vandaan dat de Volari met 2 GPU's langzamer is dan de top-end nVidia en ATi kaarten? Er zijn namelijk nog geen geloofwaardige objectieve benches, en ook al zouden die er zijn, dan mag je van de kant van de Volari nog veel snelheidswinst verwachten in de nabije toekomst doordat de drivers worden geperfectioneerd, iets waar nVidia en ATi al ruim de tijd voor hebben gehad.
Je vergeet dat dat R300/R350 cores van ATi nu op pure DX9 brute kracht draaien. Ze gaan nu nog beginnen met het optimaliseren van de compilers, zodat je straks pas echt nog vooruitgang kan zien. :)
Zeker, maar kun je 1 zinnige reden geven waarom dat niet ook voor de XGI kaarten op zou gaan ?

Zeker blazen ze behoorlijk hoog van de toren. Maar deed nVidia dat niet ook met de FX5800 ? En die is dus nooit lekker van de grond gekomen.

Laten we eerst maar es afwachten wat XGI te bieden heeft. De benchmarks goed bekijken, en who cares, dat zijn de ATi danwel nVidia performance pas met meer dan 1 GPU op de kaart kunnen bereiken. Zo lang ze het maar doen, maakt het natuurlijk niet uit h. Zeker als die GPU ook nog es een stuk goedkoper geproduceerd kan worden en goedkoper in ontwikkeling is.

Het enige dat onder de streep telt, is performance en de prijs die daarvoor betaald moet worden.
de kaart ziet er wel een pak eenvoudiger uit, desondanks de dual-gpu opstelling: de bovenste (zichtbare) layer is proper opgeruimd en de printbanen zijn naar beneden verplaatst.

hopelijk koelen ze het memory tesamen met de gpu's, want die 2 middelste chipjes zullen warm worden met die gpu's naast hen :P
maar hoopenlijk niet onder het zelfde koelblok. dan kunnen de GPU's de memory chips "lekker" opwarmen.
die fout word wel vaker gemaakt
vraag me af waarom ze die middelste eigenlijk niet naar links hebben verplaatsts.
mmm dan zouden ze trouwens de GPU ook 90 graden draaien wat misschien lastig is ivm de aansluitingen
of ze moeten 2 verschillende (gespiegelde) GPU's bakken... tja daar druk je de kosten ook niet echt mee.
ach.. deze dingen worden per chip veel minder warm, gezien er voor 2 chips evenveel performance is als 1 ati chip, en zoals je weet zit daar ook niet echt een superkoelblokje op.
dat zou je denken, maar niemand weet eigenlijk nog hoe heet ie chips worden. Eigenlijk een onzinnge uitspraak zolang er nog geen echt materiaal is waarop we kunnen testen....
maar als ze net zo duur worden als vergelijkbare ati kaarten en ati wordt overal ondersteund en misschien bepaalde instructies van de XGI kaarten niet (goed) dan kun je toch beter een ati kaart kopen?
Maar als ze nou bedoelen vergelijkbare kaarten zijn net zo duur, maar de top kaart die beter is dan die van ati is net zo duur als de top kaarten van ati en nvidia bij elkaar, dan is dat ook weer niet leuk...
Zo beredeneert had iedereen in het verleden ook beter een NVidia dan een ATI kaart kunnen kopen vanwegen minder driverproblemen, zo werkt dat nou eenmaal niet. :*)
Zo werkt dat eenmaal wel.

Maar je vergeet een heel belangrijk punt wat in het verleden meespeelde. De prijs was namelijk niet het enige sterke punt van ATI. Daarnaast had ATI ook een veel betere 2D kwaliteit, en vaak ook betere 3D kwaliteit. DAT was een heel belangrijke reden voor veel mensen om toen ATI te kopen.

Als XGI net zo snel en net zo duur als ATI is, en verder geen voordelen tov ATI heeft, dan zullen mensen bij ATI blijven. Dat heeft zich inmiddels bewezen.

Maar XGI zal neem ik aan wel zorgen dat ze de prijzen laag houden om marktaandeel te veroveren.
Als ze die chipies nu rechtop zetten dan past er een hele rits op zo'n plank (32 ??) :+
dan hebben ze jammer genoeg een cooling probleem met de huidige technologieen ben ik bang
nee dat niet.. zo warm worden deze chippies niet gok ik... zo complex zijn ze namelijk niet, de helft van een 9800PRO ongeveer, om dat even als gemakkelijk voorbeeld te pakken... de radeon 9600 wat dan "die helft" moet zijn kan al passief gekoeld worden. als je genoeg ruimte overhoud en er 1 fannetje aan de zijkant zet ben je al klaar.

Die chips zelf zijn niet zo groot! alleen de verpakking is wat groot.
Hoe komen jullie erbij dat xgi en ati straks de grootste zijn?? Dat is wel de meest grote onzin die ik ooit gehoord heb.Nvidia heeft nog steeds de grootste markt onder zich en het is meer dan logisch dat de nv 40 volledig dx 9 zal zijn want die fout maken ze echt niet meer.
Daar komt nog eens bij dat nv veel meer geld heeft dan ati en xgi samen dus desnoods kopen ze gewoon technologie die ze nodig hebben.
Het was ook meer dan logisch dat de NV30 volledig DX9 zou zijn. (Nvidia beweert ook nog steeds dat het dat is)
Het was verder meer dan logisch dat de NV35 volledig DX9 zou zijn. (Nvidia beweert weer dat ie dat ook is. De integer pipelines zouden zijn vervangen door floating point pipelines)

En het is ook weer meer dan logisch dat de NV40 volledig DX9 zal zijn.

Allemaal totaal niet interessant. Wat echt telt is de prestatie in DX9 en wanneer de NV40 daadwerkelijk op de markt komt.

En over dat vele geld: Ze hebben met de Xbox deal een heel groot deel van hun omzet verloren. Ze hebben bovendien een boel geld verloren op de NV30 en NV35 familie (wel veel R&D en weinig inkomsten == veel geld kwijt)
De problemen omtrent de DX9 compatibiliteit waren toch rond de 16-, 24- of 32-bit shaders? Om DX9 compatibel te zijn moet ze minimaal 24-bit kunnen, dat doet ATi en nVidia prima. Nadeel voor nVidia is dat in 32-bitmodus het retetraag is en ze op 16-bit terug moeten vallen - 24 bit ondersteunen ze niet. Maar hier het probleem, 16-bit is niet DX9 compatibel. Dus wat ik begrepen heb is dat de NV30 wel DX9 compatibel is, maar dat het practisch niet te gebruiken is...
Fijn om weer een concurrent erbij te hebben. Hierdoor zullen later de prijzen zakken. Tevens zal er een snellere ontwikkeling van videokaarten zijn. Dus sneller en meer geavanceerd.

Woohooooo :P

We zullen zien.
1) BENCHIES!
2) BugLoos!
3) StaBiel!
4) ROELEEEEER :)

Altijd probleem met nieuwe spullen die met veel tamtam aangekondigd worden. Ze hadden we al een hele serie 'supersnelle' videokaarten. Alleen jammer dat ze een jaar of 5 te laat kwamen :+
jup, en dus mag je ook veel sneller gaan upgraden, meer geld uitgeven, .....
grafische pracht mag er zijn, maar toch niet tegen elke prijs, wat ze nu bereiken vind ik al realistisch genoeg!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True