XGI komt in 2004 uit met PCI Express-videokaarten

De Franstalige site Clubic bericht dat XGI van plan is om in het tweede kwartaal van volgend jaar verschillende PCI Express-videokaarten te introduceren. Waarschijnlijk betreft het hier de opvolgers van de huidige Volari-serie GPU's waarmee XGI momenteel aan de weg timmert. XGI zal zowel desktop als notebook chips introduceren die gebruik maken van de PCI Express x16-standaard. Deze standaard biedt 100 procent meer bandbreedte dan AGP 8x en daarnaast mag er meer stroom verbruikt worden door de videokaart. XGI zal in 2004 niet de enige fabrikant zijn met PCI Express-videokaarten; ook ATI, nVidia, 3DLabs en VIA zullen de nieuwe standaard ondersteunen.

XGI Volari
XGI Volari AGP-videokaart

Door Hielko van der Hoorn

24-10-2003 • 14:30

34

Bron: Clubic

Reacties (34)

34
34
22
8
1
5
Wijzig sortering
Maar hoe lang zal het duren tot de PCI-express tot de thuismarkt doordringt. De gemiddelde PC-gebruiker vervangt zijn PC om de 3 jaar. Gezien de stroom van nieuwe producten en de stijgende verkopen van PC's zal het nog wel even duren voordat iedereen die dit jaar een PC koopt weer een andere haalt.

Maar de features van PCI-express zijn wel goed; betere stroomvoorziening, hogere bandbreedte :9. Als die kaart daaar goed gebruik van maakt met dan kan het best wel eens een racemonster zijn.
Anoniem: 90479 @AtleX24 oktober 2003 14:40
Maar de features van PCI-express zijn wel goed; betere stroomvoorziening
jaja, daarom zitten er ook 2 molex aansluitingen op :+
Laten ze eerst maar een kaarten fabriceren die vol gebruik maken van de AGP8X bus, dat zijn er op het moment niet veel
Het gaat niet alleen om bandbreedte en het gaat ook niet alleen om de AGP bus (lees videokaart').

ALLE PCI bussen en de AGP bus worden compleet vervangen door pci-express.

De manier waarop de CPU gaat communiceren met insteekkaarten gaat dus ook veranderen waardoor allerlei voordelen behaald kunnen worden. Denk aan belasting van processor e.d.

Verder is dit een seriele busstructuur ipv parallel.

Dit is nodig om in de toekomst idd meer bandbreedt e te kunnen leveren en de gehele pc efficient te kunnen laten werken.

Dit is ongeveer zoiets als de transitie van ISA naar PCI een jaar of tien geleden.

Klote he dat we die ISA bus niet meer hebben... ;)

Oh ja, zo rond het 2e kwartaal 2004 wordt niet alleen
AGP en PCI vervangen door PCI- express
maar ook:
wordt ATX formfactor vervangen door (ff naam kwijt)
dus nieuwe layaout moederborden en andere kasten.
en
DDR zal vervangen worden door DDRII


Het mooie van dit al is dat het ongeveer gelijktijdig gaat gebeuren.
Stel je stopt er ook nog ff zo'n mooie Athlon 64 (FX) in. Volgensmij heb je dan een leuke upgrade te pakken. :) :P

(Hopelijk gaan de kinderziektes meevallen)
en over een paar jaar is de PCI express niet meer genoeg voor de videokaarten van dan en krijg je een AGP express ofzo, 256x AGP ofzo
Laten ze eerst maar een kaarten fabriceren die vol gebruik maken van de AGP8X bus, dat zijn er op het moment niet vee
het idee is juist om er klaar voor te zijn al er kaarten komen die zoveel bandbreedte nodig hebben.
het zomaar vervangen van een standaart is namelijk niet nix, hoe meer overcapasitijd je hebt hoe langer je dat kan uit stellen (kijk maar naar pci, gaat al bijna 10 jaar mee, en word voor de thuis gebruikt nu pas krap (op de vid-kaart na dan, die moet een AGP poort krijgen)
offtopic:
ik kon het niet laten: Het is echt standaard en overcapaciteit
In het stukje staat toch duidelijk "
daarnaast mag er meer stroom verbruikt worden door de videokaart
En hoe kan jij zien dat het molex-en zijn :?? Kan jij de achterkant zien dan?
het zijn molex connectors, en de extra hoeveelheid stroom van pci express zal niet genoeg zijn voor deze kaart (die op de photo is trouwens nog gewoon AGP hoor)
Als je ook maar een beetje met computers werkt weet je dat dat molexen zijn, de vorm, de kleur, tìs een connector.
Dus molex offcourse, en waar zouden ze anders voor zijn ?

{Edit} Countess was me al voor
[zeikmodus]
Het zijn standaard voedingsconnectoren, Molex is een fabrikant die dat type connector produceert :)
Net zoals Bahco een merk is van verstelbare moersleutels ;-)
[/zeikmodus]
Die kaarten die de volledige bandbreedte nodig hebben zullen er niet gauw komen... Tenzij er iets nieuws word ontwikkeld.

De bandbreedte word voornamelijk gegeten door het gebrek aan texturegeheugen. (en evt iets anders)
Een tijdje geleden had een 3d kaart minder geheugen en moest daardoor via de agp poort systeem geheugen aanspreken wat dus traag was...
(Als dat zelfs al nodig was, de spellen van die tijd hadden zowieso lagere kwaliteit textures)

In zo'n soort geval wil je dus de agp poort sneller hebben om daar een bottleneck weg te nemen.
(3d kaarten met veel geheugen waren er niet een paar jaar geleden, kwa verhouding ligt het nu anders)

Tegenwoordig heb je videokaarten van 128 en 256megabyte geheugen, dus alleen als je een videokaart hebt met weinig geheugen, bijv 32 en je probeerd op 'holy shit' detail te spelen dan zal het naar gelang de hoeveelheid systeem geheugen je de computer laat lenen (agp aperture) ietwat gecompenseerd worden.
Laten ze eerst maar een kaarten fabriceren die vol gebruik maken van de AGP8X bus
Mijn tip van de dag: :)

Zoek de traagste agp8x videokaart met 16 of 32megabyte geheugen.
Prik het geheel in een moederbord met agp3.0 ondersteuning en druk er nog een dimmetje van 256 of liever 512 in.(agp aperture 128MB instellen)

Pak een willekeurig modern 3d spel en zet de kwaliteit redelijk tot zeer hoog.... en voila! Je hebt optimaal gebruik van de agp8x bus :P (de arme pc zal wel moeten :) )

No flame intended ofcourse :)

edit:
qoute werkt natuurlijk niet
Anoniem: 21894 24 oktober 2003 14:39
Wat ik me nou afvraag. Op deze foto zie je mooi 2 gpu's zitten. maar geen koeling. Is het zou dat ze dat niet nodig hebben, of is het er af om duidelijk te laten zien dat er 2 gpu's op zitten. Die 2 molexen aan het einde, suggereren het laatste.
Tevens ben ik wel benieuwd naar hoe ze de koeling aan gaan pakken ALS die er op komt. Nemen ze het geheugen ook meteen mee.. etc..
Maar XGI komt in iedergeval heel erg ambiteus over. Ik hoop van harte dat ze dat waar maken.
als fabrikanten hun kaarten in pre-productie tonen doen ze dat vaak zonder koeling... omdat je dan duidelijker kan zien dat het wel degelijk hun kaart is (de namen op de chips), en omdat ze er misschien zelf nog niet helemaal uit zijn hoe ze het ding gaan koelen.
ik kan je garanderen dat er alvast -iets- van koeling op moet...
Ze hebben deze foto zo neer gezet omdat het maar ff is om te laten zien dat er 2 cpu's op zitten...verder niets meer en niets anders...uiteraard moet ook hier een heatsink (lees: heatsinks) op.
Daarbij zijn de geheugenchips ook zo geplaatst dat ze óók onder de koeler van de gpu('s) kunnen vallen en dus ook actief gekoeld kunnen worden.Tenminste, als er alleen aan deze kant memory zit. Als ze die 2 condensators aan de bovenzijde van de gpu's zeg maar in het midden ook een ander plekje kunnen geven, dan kun je gaan koelen met 1 groot element met 2 koelers (immers stroomvoorziening mag ruimer zijn met PCI Express).
(immers stroomvoorziening mag ruimer zijn met PCI Express)
Ach... desnoods krijgen de ventilators een eigen molex... :D
Zoals verwacht gaat XGI met de grote jongens meedoen. Het kan alleen maar betekenen dat de prijzen wat scherper blijven :D

Ik ben alleen bang dat het wel leidt tot nog hogere verbruiken van de GPU's zodat je binnenkort nog niet genoeg hebt aan een 1000 Watt voeding om je ATi / NVidia / XGI te voorzien van de nodige electronen

* 786562 Ravhin
edit: tiepvaud
Anoniem: 61352 24 oktober 2003 14:34
Zie ik dat goed ?!?! 2 molex aansluitingen voor de AGP kaart. khoop dat die 2 toch mooi zullen verdwijnen als er PCI Xpress komt...
lijkt me niet eigenlijk.
met PCI-express mag de vidkaart nogsteeds "maar" zo'n 60-70 watt trekken.
daar gaat de high end van ATI en Nvidia al overheen.

en deze dual GPU zal ook niet helemaal nix zuipen.
al snap ik de reden voor 2 molex connectors niet echt. zou nix uit moeten maken.
enige wat ik me kan bedenken zijn de spoordiktes op het PCB die nu dunner kunnen...
Zie ik dat goed ?!?! 2 molex aansluitingen voor de AGP kaart. khoop dat die 2 toch mooi zullen verdwijnen als er PCI Xpress komt...
Zoals eerder gezegd zullen high-end kaarten evengoed nog een extra molex nodig hebben voor voldoende stroom toevoer. En als er dan toch een stroomkabeltje naar de videokaart loopt, dan is het ook niet heel erg als er vlakbij de kaart een klein splittertje zit voor de 2 molexen lijkt mij. Op deze manier krijgen wel beide GPU's en hun geheugen direct stroom uit een eigen voorziening (elk een eigen molex). Kan me voorstellen dat dat de meest eenvoudige/efficiente weg is wanneer beide GPU's van stroom moeten worden voorzien.

Echter begrijp ik verder het idee niet helemaal van PCI-Express. Molexen zullen nodig blijven en de bandbreedte van AGP 3.0 wordt ook niet volledig benut!

EDIT: Waarschijnlijk om PCI-Express de tijd te geven om mainstream te worden voordat het wél nodig is bedenk ik me net. Maar voor de eerste tijd zal het waarschijnlijk niet heel veel nut hebben.
XGI zal in 2004 niet de enige fabrikant zijn met PCI Express-videokaarten; ook ATI, nVidia, 3DLabs en VIA zullen de nieuwe standaard ondersteunen.
En de Bitboys natuurlijk :P
de bitboys zullen het wel bedacht hebben en hiervoor bergen geld gehad hebben zodat ze verder kunnen gaan met nix
Mm lijkt me nou toch niet echt bevordelijk voor de accu's van een laptop...

Als er meer stroom verbruikt mag worden tja

Natuurlijk wel fijn dat je beter kan gamen op een laptop, als deze chip het tenminste waar gaat maken. :)
-laat maar, niet goed gelezen-
De notebook versie zal er uiteraard totaal anders uitzien.

De kaart op het plaatje is sowieso te groot. Met de stroomvoorziening zullen ze dan vast ook wel rekening gaan houden wellicht gaat men chips maken voor notebook mobo fabrikanten?

En bij het notebookkaartje zal men vast wel genoegen nemen met mindere specs zodat men met minder stroom toekan.
Pffff, teveel engels gepraat de laatste tijd, was al mijn vraag in het engels aan het typen :?

Maar zijn er al vergelijkingen geweest tussen de 3 vidkaarten op identieke systemen. Ik denk dat ik ze gemist heb.
Anoniem: 83181 24 oktober 2003 17:23
Voor de personen die willen weten hoe ze gekoelt worden, ik heb ff een site opgezocht met de benchmarks, en hier is een
plaatje

site:
http://www.hardwareonline.dk/nyheder.asp?nID=6063

De dual-cpu card haalt dus 5618 3dmarks (2003)
Anoniem: 72328 24 oktober 2003 15:16
laat XGi zichzelf maar eerst eens bewijzen door een goede GPU op de markt te brengen met een redelijke prijs.
Dat lijkt mij ook slimmer dan meteen 6 verschillende modellen op de markt te brengen. 3 stuks lijkt me zat en dat houdt het overzichtelijk, zeker handig als je nog geen naamsbekendheid hebt.

Ik had ook gelezen van XGI zich van de low-budget klasse langzaam wilde opbouwen naar verkoop van highend kaarten (door winst in het budget/midden segment), aan deze strategie wordt zo te lezen niet vastgehouden.
Juist door wel high-End kaarten te verkopen krijg je naamsbekendheid. Als XGI het voor elkaar krijgt om ATI en Nvidia kont te schoppen, dan is dat goed voor de naamsbekendheid en dit zorgt voor een betere verkoop van de minder snellere varianten.

ATI en Nvidia werken ook gewoon volgens dit principe, want de meeste winst is te halen in de minder snelle modellen.

Op dit item kan niet meer gereageerd worden.