Details over gpu Xbox 360 bekend

ATi heeft nieuwe documentatie vrijgegeven over de Xenos, de videoprocessor die ontwikkeld werd voor de Xbox 360. De chip is geklokt op 500 MHz en beschikt over 48 shader pipelines, waarmee dit meteen de eerste commerciële grafische chip is die een 'unified shader architecture' heeft. Dit betekent dat er niet langer gewerkt wordt met een afzonderlijke vertex shader en pixel shader, maar dat één onderdeel beide shaders verzorgt.

De twee cores zijn samen goed voor 232 miljoen transistors op de 'parent die' en nog eens 100 miljoen op de dochter-die die onder andere als frame buffer dient. Deze kleinere die wordt overigens geproduceerd door NEC Electronics en wordt op 90nm gebakken. Voor de communicatie met deze dochter-die beschikt de gpu over een 32GBps-kanaal, terwijl de communicatie met de processor via twee lijnen die elk goed zijn voor 10,8GB per seconde loopt. Om het GDDR3-geheugen aan te spreken beschikt de gpu over een verbinding die 128 bits breed is en op 700MHz geklokt is, zodat een doorvoer van 22,4GBps mogelijk is.

Architectuur gpu Xbox 360

Door Yoeri Lauwers

Eindredacteur

14-10-2005 • 09:35

65

Bron: Team Xbox

Reacties (65)

65
65
37
20
2
8
Wijzig sortering
Wat ik me nou afvraag is waarom zo'n videoprocessor niet voor "normale" pc's beschikbaar is.... Technisch moet dat makkelijk kunnen dus.
Binnen een dik jaar komen ze ook voor PC uit. MS en ATI hadden een deal gesloten om deze een jaar exclusief voor de Xbox 360 te houden geloof ik.
En is er ook enig bewijs voor zo'n deal?

Er zijn namelijk veel logischer redenen om nog een jaar te wachten met deze gpu voor de PC.
Bv dat DX9 geen unified shaders ondersteunt, en DX10 over een jaar gepland staat, en die het wel ondersteunt.

Maar ik ben wel benieuwd naar de performance van dit ding in vergelijking met een X1800XT. Als je bedenkt dat het aantal transistoren in totaal ongeveer gelijk is.
Sorry, maar de R500 zal nooit voor de PC uitkomen, de architectuur is gewoon te verschillend, ook heeft de R500 een hele andere instructieset dan dat een videokaart voor DX9 of DX10 moet hebben.

Unified Shader architectuur zal echter wel naar de PC komen, waarschijnlijk met de R600...
en wat als nvidia hier roet in het eten gooit?
de GPU van de originele XboX was toch van NVidia?
dus die zullen MS en ATi wel een loer willen draaien omdat ze veel geld misgelopen hebben
of ben ik nou in het wilde weg aan het fantaseren :+
dont worry, PC GPU's zullen binnenkort de Xbox360 gpu overtreffen
Wat ik me nou afvraag is waarom zo'n videoprocessor niet voor "normale" pc's beschikbaar is.... Technisch moet dat makkelijk kunnen dus.
De ATi R600 chip wordt het "PC equivalent" van deze Xbox360 Xenos (ATi R500).

De R520 (Radeon X1800) is nu net uit voor de PC. Deze heeft nog veel weg van de R420/R480 (Radeon X8x0) architectuur. Hierna komt nog de R580, die een verbetering van R520 is.
Vervolgens staat de R600 op de planning, vermoedelijk eind volgend jaar. R600 is gebaseerd op de R500 Xenos architectuur :)
juist en das toch gek?

Ze hebben een reeks die draait op de R420>R520>R580 opvolgings reeks.. en pas vanaf de R600 gaan ze R500>R600 stap maken.. als de architectuur al bestaat die beter is dan de huidige R520 dan kunnen ze toch beter vanuit de R500 door bouwen ipv de R520 die dus technisch minder sterk is?!?!?!?

ik zie dit meer als een simpele manier om de consument nog meer van zijn geld te ontdoen :(
Anoniem: 44995 @Cheetah14 oktober 2005 12:54
@ ultimasnake

Wat denk je hoeveel geld er gemoeid is met het ontwerpen en fabriceren van een nieuwe chip? Als ze steeds de nieuwste chip 'in de verkoop' gooien omdat het de meest geavanceerde is zonder kapitaal te slaan uit hun vorige paradepaardjes, is het geld gauw op. Op den duur zal er dan dus steeds minder geinvesteerd kunnen worden in de ontwikkeling van nieuwe chips.
En waarom niet?
Je zegt alsof het een slecht ding is dat bedrijven zo lang en goedkoop mogelijk hun producten willen slijten, maar dat is juist het punt van kapitalisme.
als je het maar niets vind dan moet je die Open Source GPU kopen :P
(Maar dat doe je niet, want die doet zélfs voor de huidige kwalitatief mindere Ati's onder ;) )

Als jij een bedrijf was zou je hetzelfde doen :)
@ultima
Dat ding van xbox360 moet jaren meegaan.
Nog langer als de huidige xbox.

Dan moet je er iets groots en duur in stoppen.
Voor je pc zou je zo iets kunnen hebben, maar het is nog zo duur en groot.
Daar is geen markt voor.

MS, moet het hebben omdat ze op lange termijn plannen.
Waarom? Heel simpel te verklaren, de investeringen van de huidige productielijnen moeten eerst genoeg geld opgebracht hebben vooraleer ze allemaal worden omgetoverd naar de nieuwe lijnen + ik denk niet dat ATI nu genoeg productiecapaciteit heeft om de R500 zowel voor xbox als voor pc te kunnen leveren...
En dan kun je weer 500 euro van je rug af plukken.
Hoezo heb jij flinke korting dan? :+
Anoniem: 120859 @sSkoEziE14 oktober 2005 10:05
Hoezo binnenkort, op he EDRAM na zijn huide generatie verder als deze, deze is ook bedoelt om goedkoop te zijn natuurlijk heh.
In welk opzicht dan verder?
Tegen een achtelijk hoge prijs en natuurlijk, een PC waar je steeds je hardware kunt/moet veranderen kan sneller weer updaten.

Tegenwoordig game ik liever op een machine waar ik van weet dat als 3 of 4 jaar later nog games uitkomen voor het ding ik ze ook nog gewoon kan spelen. Zonder wederom 300 Euro in een nieuwe kaart te moeten investeren!
Ga er maar vanuit dat deze techniek in de volgende generatie videokaarten terug is te vinden :)
Anoniem: 120859 @S1W14 oktober 2005 10:04
Unified shader model is er niet op pc, zodra die er is komt een van R500 afstammende chip naar de pc.
Anoniem: 87819 @S1W14 oktober 2005 09:42
Komt snel genoeg, generaties videokaarted volgen elkaar erg snel op. Gewoon even geduld, de XBox360 is ook nog niet uit.
Gpu lijkt me dik in orde maar waarom kiest ati voor 128bit verbinding naar geheugen???? 22.4GPps lijkt me akelig weinig als je weet dat het ding nog lang mee moet |:(

@GJ-tje ok maar ik denk niet dat er nog games uitkomen op lage tv resolutie alles wordt op zijn minst 720p HDTV. Plus daar komt nog bij dat microsoft hoopt om 2 tot 4x FSAA te draaien by default en dan kom je er niet met je framebuffer en moet het gewone geheugen toch bijspringen hoor.
Volgens mij komt dit omdat er bijna alleen maar data naar het geheugen geschreven/geschreven hoeft te worden voor de textures en het uiteindelijke beeldje voor de TV. De interne berekeningen en frame buffers maken gebruik van het EDRam, welke een veel hogere doorvoersnelheid heeft dan naar het gewone geheugen.
128 bit bus werd gekozen om kosten te besparen. Dat is de enige reden. Daarom dat PC GPU's met een 256 bit bus en 512 bit bus zoveel duurder zijn. De RSX heeft trouwens ook een 128 bt bus.

Offtopic: Wat een onzin wordt hier toch altijd verkocht, als je het niet weet zeg dan gewoon niets.
Waarom zou je hoger willen hebben?
Bedoel, de televisie gebruikt een lage resolutie en gebruikt dus weinig geheugen. Heeft dus ook geen nut, om de resolutie binnen de game te verhogen, omdat de TV het gewoonweg niet kan... :)

Dus is 128bit (22.4gbps) voldoende...
Anoniem: 126212 @CH4OS14 oktober 2005 10:20
Ja, de normale tv's wel. Maar ik dacht toch ergens gelezen te hebben dat de XBOX360 HDTV resolutie deed. En daarmee dus ook de Amerikaanse 1920*1080
Om precies te zijn 1080i (interlace).
Maar goed, voor dubbelbuffered kom je dan inderdaad (met 32 bit per pixel) op ongeveer 16MB schermbuffer, dat nog wat groter is dan het EDRAM.
Wil je FSAA gaan doen, dan heb je een nog groter buffer nodig, en zal je dat EDRAM moeten swappen naar gewoon geheugen, maar daar heeft de R500 dus nog weer een mooi systeem voor door verschillende stukken van het scherm per keer te verwerken.
Anoniem: 93317 @CH4OS14 oktober 2005 10:15
Vergeet je niet dat de Xbox 360 ook HDTV ondersteund?
HDTV gebruikt helemaal geen lage resolutie.
Anoniem: 139546 14 oktober 2005 09:59
De games worden specifiek ontwikkeld voor deze hardware. Deze games zullen de GPU en z'n features dus optimaal benutten, waardoor het mogelijk is het maximale uit de GPU te halen. Met lagere specificaties kun je zo dus veel meer performance behalen, omdat het er speciaal voor geoptimaliseerd is.
Ziet er zeer brute en snel uit...
Leuke eraan is dat de EDRAM ervoor zorgt dat je gratis FSAA 4x krijgt wegens oa zijn hoge bandbreedte.

Naar mijn idee gaat minimaal nog een jaar duren wil je dit redelijk terug vinden in je pc. Tuurlijk de specs zullen het dadelijk wel hebben alleen ben ik bang nog niet de performance van dit monster. Gewoon weg omdat het verder niks hoeft te doen dan games renderen.. zelfde voor het systeem....enige taak is zorgen dat de game draait, geen achtergrond progs ala pc.
Bedoel... ik heb geen 700Mhz systeem memory hoor. Laat staan een dual core.. en als je al een dual core cpu hebt. geen game die het ondersteund..wat bij deze xbox dus wel het geval gaat worden...
Tuurlijk heeft het een positieve effect... verwacht dat juist hierdoor dual core cpu games eerder op de pc terecht komen door het poorten..
Anoniem: 97020 14 oktober 2005 11:47
Krijg zo langzamerhand het idee dat MS deze keer met de Xdoos wel eens een aardige klapper kan gaan maken tov de PS3. Als je de specificaties zo leest, het aantal games dat klaar staat en in het achterhoofd de loze beloftes van Sony ook in het verleden met de PS1 en PS2 die achteraf altijd mindere kwaliteit leverden...

Ben zeer benieuwd naar december... Wacht alleen ff een tijdje tot de prijs gedaald is naar 250 respectievelijk rond de 200 pleuro voor een standaard doos. En die HD prop ik er zelf wel in ;)
Hd er inzetten kan niet, want het is een extern kastje, of je moet je xbox echt flink modden.
Anoniem: 127218 14 oktober 2005 09:43
Niet verkeerd 48 Pipelines! Lekkere snelle doorvoer zo, alleen vind ik vreemd dat de snelheid van het geheugen niet erg hoog geklokt is. Of hoeft dit in verhouding niet hoger dan 700MHz?
Dat zijn 48 shader pipelines, ze zitten met zijn 16'en bijmekaar gegroepeerd. en dus krijg je 3 grote groepen, die iedere cycle vertex shaders OF pixels shader gaan zitten berekenen.
DDR, Double Data Rate, dus zowieso al 1400Mhz, maar 700mhz effectief. De X1800 heeft 1500mhz geheugen, en de 7800 heeft dacht ik 1200, maar het effectieve geheugen is altijd de helft ervan.
1400Mhz, maar 700mhz effectief
Nee, andersom. Het werkt op 700MHz, maar komt effectief op 1400MHz uit... Anders zou de performance omlaag gaan zoals jij het stelt.
precies andersom: als bv de werkelijke frequentie 700 MHz is, dan is de effectieve frequentie bij DDR 1400 MHz
dit is DDR dus verdubbel die 700 mhz maar ;)
Das leuk dat je dat verbubbeld, maar je mag het ook meteen we door tweeen delen, met dank aan de 128bit geheugen bus die gebruikt wordt.
Ik ben ook wel erg benieuwd hoe lang het duurt voordat de games uitkomen welke echt gebruik gaan maken van de hardware.. Voor de ps2 duurde het wel ffies voordat er games kwamen welke er echt weer stunning uitzagen...

Ik verwacht dat het voor de 360 vast gemakkelijk programeren is, dit zullen ze vast als voordeel hebben t.o.v. de ps3.

@themart:
Ik moet zeggen dat de ps2 (voor mij) al zijn beloftes waar heeft gemaakt hoor, veel (vette) games, veel ondersteuning door 3rd party dev etc. Alleen de online mogelijkheden vallen tegen vergeleken met de XBOX.
Ik doelde erop dat Sony voor de launch altijd roept dat de GPU super presteert, met beelden die op andere hardware zijn geprogrammeerd dan er uiteindelijk in de console zit.

Met resultaat dat de verwachtingen vooraf te hooggespannen zijn en na uitkomst van de console het toch weer tegenvalt met de prestaties en beeldkwaliteit.
Ben bang dat het met de PS3 weer zo gaat zijn. En dat de prijs te hoog gaat liggen, aangezien Sony's financiële structuur een stuk anders is dan die van Microsoft. De 360 zal mijns inziens zwaarder gesubsideerd zijn -dus goedkoper voor de eindconsument- dan de PS3. Als de 360 'slechts' 299 Euro gaat kosten, reken ik voor de PS3 minstens 400 tot 500 pleuro...

En die afweging, icm het feit dat de 360 eerder op de markt is, dus door de afroompolitiek tzt met de launch van de PS3 reeds wederom goedkoper zal zijn geworden, geeft de 360 de goede kans als enorme winner uit deze consolestrijd te komen
@Swopdark:
"Ik moet zeggen dat de ps2 (voor mij) al zijn beloftes waar heeft gemaakt hoor, veel (vette) games, veel ondersteuning door 3rd party dev etc. Alleen de online mogelijkheden vallen tegen vergeleken met de XBOX."

En vergeet ook niet de erbarm slechte ondersteuning voor HDTV modes.
Op de XBOX kan je toch lekker spelen op 480p op 720p en dat wordt op de ps2 nauwelijks ondersteunt terwijl elke XBOX game dat ondersteunt. En dat zie je echt wel....
Ik heb hier een xbox en een gamecube staan en zelfs resident evil 4 is nog mooier op een cheap ass gc dan op die oude ps2 die grafisch echt niet om aan te zien is!
Waarom vermijd iedereen het volgende:

"het is een feit dat een unified pipeline wat shader operaties betreft nooit zo efficient zal zijn als een 'dedicated pixel pipeline'. (eens gelezen op een got forum).

48 lijkt heel erg indrukwekkend, maar als die net 2 shadereffecten per klok kunnen doen, dan heb ik liever een fatsoenlijke 16 pixelshader pipelines gpu.

stel dat het wel "the next best thing is", dan hoef je het nog jaren niet op de pc te verwachten.
Waarom? omdat ze spelletjes ontwikken voor de massa.
Je zal best heel trots zijn op je 7900 super pro, maar mijn 9700 van al 3 jaar oud kan nog steeds fear spelen (medium dan), of je het leuk vind of niet.
Als fear alleen op een 7900 super pro kon draaien dan zou niemand het kopen, althans niet tot eind 2006 als die 7900 super pro mainstream is. En dan nog, ze zullen eerst de "normale" structuur zo ver mogelijk uitbuiten, net zoals ze al jaren x86(edit)-32 in leven proberen te houden, terwijl ze weten dat het per mhz weinig performance heeft, en niet verder omhooggepusht kan worden. Amd had al jaren 64 bit, maar bijna niemand ontwikkelde ervoor. Zelfs de nieuwe Pentium M gebruikt nog 32 bit, wat toch al minstens 10 jaar er is.(Ze stoppen er nu zelfs 2 in 1 core in de hoop dat het systeem sneller lijkt. Ipv dat ze krachtigere cores ontwikkelen, echt lame dit btw.) Een 64 bit only versie van iets zo vele malen krachtiger kunnen zijn.
Spellen voor DX 10 hoef je pas over jaren te verwachten.

edit: hmm, 5 % he?
dat bedoel ik dus ;) je zou niet met een getal zoals 30 of 50 gaan komen maar dat was wel te verwachten idd. Ook zeg je dat het niet waar is, vervolgens dat het wel waar is. Ik ga er maar van uit dat die 5% uit de lucht gegerepen is.

Kan iemand het mss technisch onderbouwen ofzo?

quote: "Hoe het in de praktijk uitpakt weten enkel ATI en NVidia" hoe kan jij dan zeggen dat de stelling niet waar is? (en vervolgens met je 5/10% voorbeeldje komen) Misschien was je dat nog niet opgevallen...
Anoniem: 61096 @Faust14 oktober 2005 11:17
Omdat die stelling niet waar is. :)

Een dedicated shader kan zijn werk (waarschijnlijk) efficienter doen dan een unified shader. Dat is logisch. Maar daar staat tegenover dat bij een dedicated shader architectuur sommige shaders niets staan te doen als er bijvoorbeeld veel vertecshaders nodig zijn en weinig pixel shaders. Bij een unified shader architectuur kun je altijd alle shaders optimaal gebruiken.

Als een 5% effectievere shader 10% van de tijd uit zijn neus staat te eten ben je dus slechter af dan als de tragere shader altijd volledig belast kan worden

Tot slot nog even over de x86 architectuur. Die wordt in leven gehouden simpelweg omdat er een hoop bestaande programma's op moeten draaien. Bij GPUs is dat minder relevant. Iedereen maakt gebruik van een zeer beperkt aantal APIs (DirectX, OpenGL en misschien nog een paar) Als jou GPU daarmee om kan gaan ben je klaar. Dus als er een andere architectuur beter is kunnen ze zo overstappen.

edit
dit: hmm, 5 % he?
dat bedoel ik dus je zou niet met een getal zoals 30 of 50 gaan komen maar dat was wel te verwachten idd. Ook zeg je dat het niet waar is, vervolgens dat het wel waar is. Ik ga er maar van uit dat die 5% uit de lucht gegerepen is.
Zucht. Ik geef alleen maar aan dat er situaties mogelijk zijn waarin een pipeline sneller wordt van unified shaders vs dedicated. Let bijvoorbeeld eens op het woord "als". Ik beweer nergens dat het verschil 5% is. Punt is dat de stelling niet algemeen geldig is en de 5% en 10% getallen daar een bewijs van zijn. (Bewijs door een tegenvoorbeeld) Hoe het in de praktijk uitpakt weten enkel ATI en NVidia. En ATI lijkt ervoor gekozen te hebben om naar unified shaders over te stappen.

En voor de duidelijkheid. Er zit een verschil tussen een shader en een pipeline van shaders Misschien was dat je nog niet opgevallen......

edit 2
Je bent al naar 0 gemodereerd maar goed.

Lezen "Punt is dat de stelling niet algemeen geldig is" Het 5 vs 10 voorbeeld bewijst dat. Maar ik begrijp dat jij dan niet wil of kan snappen. Prima.
Anoniem: 56794 @Faust14 oktober 2005 11:33
Ik weet niet waar jij was tijdens de ontwikkelingen in x68 CPU's maar voor zover ik weet is elke generatie krachtiger geworden per Mhz (op de P4 na). De 8086 cpu was bv 8 bits.
Volgens mij zitten we bij 64 inmiddels. Het enige dat overigens hetzelfde is zijn de x86 instucties. Die zijn er nog (Aangevuld door AMD's x86-64 en 3dNow instructies en niet te vergeten Intels SSE en MMX).
Edit: Interessante edit ELiA.net
De 8086 cpu was bv 8 bits.
Jij gaat iig niet door voor de koelkast. de 8086 was en is een volledige 16-bit processor. De 8088 was de budgetvariant ervan met een 8-bit datapad naar buiten toe. Intern was ook deze CPU 16-bit.

Voortaan beter je huiswerk doen. ;)

Op dit item kan niet meer gereageerd worden.