Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 88 reacties
Bron: Bit-tech.net, submitter: TommyDJ

In een interview met Bit-tech.net heeft ATi's Richard Huddy zich uitgelaten over de grafische capaciteiten van de Xbox 360 en de PlayStation 3. Volgens hem zou de ATi Xenos-chip in de Xbox 360 tot 100% beter presteren dan de nVidia RSX-chip in de PlayStation 3, ondanks dat de RSX op een 10% hogere kloksnelheid draait. Dit zou komen omdat de Xenos gebruik maakt van een unified shader architectuur en de RSX niet. Hiermee bedoelt Richard Huddy dat elke pipeline in de Xenos een volledige shader heeft, die alle shader-instructies aan kan. De pipelines van de RSX van nVidia zijn echter uitgerust met verschillende shaders die niet allemaal alle instructies aankunnen. Uiteraard moet dit met een korreltje zout genomen worden daar Richard Huddy van beide chips nog niet het eindresultaat heeft gezien.

Behalve deze uitlatingen over de 'superieure' grafische kracht van de Xbox 360 maakt Richard Huddy ook nog wat opmerkingen over het spelen van Xbox-spellen op de Xbox 360. Dit zou geheel met emulatie gaan gebeuren, waarbij er emulatieprofielen op de harde schijf opgeslagen kunnen worden. Volgens Richard zou het geen probleem moeten zijn om een 733MHz Pentium 3 te emuleren op de Xbox 360, daar deze uitgerust is met drie 3GHz PowerPC-cores. Echter met alleen het emuleren van de processor is het werk nog niet af. Ook de grafische processor zal geëmuleerd moeten worden. Dit betekent dat API-calls voor de nVidia GPU in de Xbox vertaald moeten worden naar API-calls voor de Xenos. Volgens Richard is dat voor het gros van de API-calls geen moeilijke taak. Voor spellen die echter van specifieke functies van de Xbox GPU gebruik maken is dit echter een stuk moeilijker.

Playstation 3 en Xbox 360

Lees meer over

Gerelateerde content

Alle gerelateerde content (29)
Moderatie-faq Wijzig weergave

Reacties (88)

Sja, je gaat je concurrent natuurlijk niet de hemel inprijzen, dus je mag dit wel met een korreltje (vaatje) zout nemen.

Bovendien zeggen specs op papier ook lang niet alles. Misschien heeft de nvidia GPU wel andere features die compenseren of sneller zijn op een ander vlak, maar dat zal dhr. Huddy natuurlijk nooit zomaar vermelden.

Nog even afwachten op Real World tests dus :)
Alleen zou je dan wel verwachten dat je al iets zou hebben gehoord over dergelijke features.

En tot nu toe lijkt de PS3 eigenlijk een vrij normale gpu te krijgen zonder spectaculaire features.
Terwijl die gratis FSAA van ATI best wel eens die 100% performance winst zou kunnen veroorzaken.
Tegerlijkertijd lijkt de ATI gpu wel een stuk complexer en dus een stuk duurder om te maken dan de NVidia gpu.
Tja, als ik zo naar de PS3 techdemo kijk dan heeft die met de Cell processor al zoveel rauwe power dat het echt ongeloofelijk mooi graphics (eg ontploffende tank-station) liet zien, ook maar enigszins gebruik te maken van de grafische kaart.
De GPU van de PS3, teld maar liefst 300 miljoen transistors. Ook al is deze dan op 90nm gebakken, het zal een enorme chip zijn die ook nog eens op een relatief gezien behoorlijke kloksnelheid, wat de yields niet verbazingwekkend hoog zal leggen. Ik denk dus dat het best wel eens zo zou kunnen zijn dat de nVidia GPU best duur te produceren zal zijn, duurder dan ATI's GPU.
R500/Xenos telt maar liefst 332 miljoen transistoren, dus meer dan RSX.

Parent die: 232 miljoen
Daughter die: 100 miljoen

In de daughterdie zit de AA unit, eDRAM en extra math logic. Die daughter-die zorgt voor de "gratis AA". Er is maar een performance verlies van 1 tot 4% maximaal. Dus die ATi chip kan best wel eens veel duurder uit komen te vallen, vooral aangezien het eigenlijk een multi-die chip is.
Theoretisch is het niet mogelijk om ineens FSAA enorm snel te maken
10MB EDRAM lost niet het probleem op dat voor iedere pixel bij 2xAA 2 subpixels nodig zijn om de uiteindelijke kleur te bepalen, dus de kleuren van die subpixels zullen appart moeten worden gerendered, en hebben dus 2 maal zoveel pipeline passes nodig als gewone pixels zonder AA en dus kost AA altijd performance, tenzei de bottleneck iets anderes dan het graphisch subsysteem is.
Zoiets dacht ik ook al, of het nu 2x door dezelfde chip heengaat, of door 2 chips achter elkaar...

Verder weet ik niet of die unified pipeline architectuur sneller is, ik heb verhalen gezien dat de standaardvorm (dus een x aantal pipelines, en een x aantal vertex shaders) sneller is.
@Jan Groothuijse
Tja, ik vind het niet bijster interessant dat jouw theorie zegt dat het niet mogelijk is, terwijl de praktijk ondertussen bewijst dat het wel mogelijk is.

In dat geval heb ik dus lak aan de theorie, want die klopt dan klaarblijkelijk niet.

(overigens geeft MSAA op de huidige gpu's ook al een veel kleinere performancehit dan jij met je "2 maal zoveel pipeline" passes suggereert.)
@NoepZor

Een unified architectuur is uiteraard niet altijd sneller. (anders zou iedereen het al lang gebruiken).

Een standaardvorm werkt erg goed zolang je applicatie daarop afgestemd zijn. Dat betekent dus dat zowel je pixel als je vertex shaders bezig gehouden worden, en ze geen duimen zitten te draaien.

Een probleem daarbij is dus dat dat lang niet altijd het geval is, omdat dat afhankelijk is van de applicatie.
Zo gebruiken CAD applicaties bv veel meer vertex shaders.(om maar even een extreem voorbeeld te noemen)

Bij een unified architectuur heb je het voordeel dat je je daar geen zorgen over hoeft te maken. Je unified pipelines staan nooit duimen te draaien.

Dat maakt je design op zich weer simpeler wat weer gunstiger kan zijn bij het ontwerp om het ding op wat hogere frequentie te laten draaien.

Afhankelijk van je applicatie kan het dus erg voordelig zijn.
(En waarschijnlijk zal een game gpu met unified architectuur het dan ook zonder wijzigingen ook erg goed doen bij CAD werk)


En ander losstaand voordeel van een unified architectuur is dat je nieuwe dingen in je shaders kunt inbouwen die tot nu toe niet mogelijk waren. (Waarbij je zowel pixel als vertex functies in dezelfde shader gebruikt)
Het enige wat je kan doen zonder extra pipeline passes te creeen is bijvoorbeeld Quincunx-achtige, simpelweg het hele plaatje blurren, maar het mooie van fatsoenlijke AA is dat het niet alleen zonder kartels is, maar ook nog bijzonder scherp is, al deze scherpheid gaat al verloren met Quincunx, en dan is het hele idee van HDTV resoluties alweer omzeep geholpen.

Mijn theorien zouden inderdaad niet boeien, als er praktijk was, maar er is nog geen praktijk.

Huidige generatie kaarten doen er alles aan om extra passes te voorkomen, door ook subpixels van buurpixels te mengen voor de uiteindelijke pixel, dit zorgt dus ook weer voor blur, omdat iedere subpixel over meerdere uiteindelijk pixels worden heen gesmeerd. Quincunx achtige technieken zoals ik al zei dus.
http://www.gamesindustry.biz/news.php?aid=9451
Developers die van beide systemen kits in huis hebben, stellen dat de PS3 krachtiger is.
Of course, neither the RSX nor the Xenos exists in final silicon form yet
Dit is direct uit de bron die jij net vermeld. Dus hoe kunnen kun ooit al kits in huis hebben??
Als de hardware nog niet af is, maakt dat niets uit als de API maar vast ligt. De driver-laag zal wellicht nog aangepast moeten worden, maar ontwikkel versies kunnen er al best zijn. Wellicht zonder enkele functies, en/of een stuk trager (of als emulatie op andere hardware), maar in ieder geval goed genoeg om mee te kunnen ontwikkelen.

Het is eigenlijk hetzelfde als games die drie jaar duren in ontwikkeltijd, en wel voor de nieuwste generatie grafische kaarten gemaakt zijn - die dan pas een half jaar of minder uit zijn.
En wat zegt de API dan over de kracht van de gpu?

Er zit bv niets in die API wat ook maar het geringste te maken heeft met de "gratis" FSAA van de ATI gpu.

Maar dat hangt er dan ook maar vanaf wat je definitie van krachtig is. Je kan dan alleen naar programmeer features kijken en dan is de API voldoende, maar als ik kijk dan ook naar performance.
Sja, je gaat je concurrent natuurlijk niet de hemel inprijzen, dus je mag dit wel met een korreltje (vaatje) zout nemen.
Als dit dezelfde Richard Huddy is die enige tijd geleden nog bij nVidia werkte, zal hij toch wel een beetje objectieve vergelijkingen kunnen trekken denk ik. Hij is bij mijn weten niet met ruzie vertrokken, maar wilde weer eens wat anders ofzo.
Die Richard Huddy heeft wel praatjes. Neem bv deze quote:
That mere 10 per cent clock speed that RSX has on Xenos is easily countered by the unified shader architecture that we've implemented
Ja hij vergeet daar alleen bij dat nVidia's architecturen bijna altijd meer shaders per kloktik kunnen verwerken. Neem bijvoorbeeld de 6800Ultra, loopt op 400mhz, terwijl de x850XT PE op 540mhz loopt! Maar liefst 140mhz verschil in kloksnelheid voor nagenoeg dezelfde performance. Aangezien de RSX gpu gebaseerd is op de G70, kan deze PS3 gpu dus ook meer shaders per klok uitvoeren dan Ati's gpu. Als je dan ook nog eens bedenkt dat nVidia met zo'n architectuur nog eens bóven de snelheid zit van Ati's Xenos gpu, denk ik dat hij wel mag oppassen met zijn "maar 10% extra kloksnelheid" uitspraken. Hetzelfde idee als AMD nu een processor zou lanceren die op 4ghz loopt, en Intel roept dat ze 'maar' 200mhz boven hun snelste model zitten.

En dan zijn uitspraak over USA:
This time around, they don't have the architecture and we do, so they have to knock it and say it isn't worthwhile
Duidelijk dat deze beste man geleerd heeft van z'n eigen fouten. Zelf hadden ze namelijk precies hetzelfde probleem met Shader Model 3.0. Dat was volgens Ati ook niet nodig, maar nu zijn ze toch hard op weg het te implementeren in hun next-gen gpu's.

Ik denk dat wij, en deze beste man eerst eens moeten afwachten totdat beide consoles uitzijn en dan pas mogen praten. Nu heeft hij naar mijn mening alleen maar grote praat.
> Ja hij vergeet daar alleen bij dat nVidia's architecturen bijna altijd meer shaders per kloktik kunnen verwerken. Neem bijvoorbeeld de 6800Ultra, loopt op 400mhz, terwijl de x850XT PE op 540mhz loopt!
Dat waren de keuzes van beide. nVidia koos direkt SM3.0 en maakte daarbij hoop marketing lawaai dat het DE technologie was terwijl er in de markt (zelfs nog een jaar daarna) absoluut GEEN spel was die de SM2.0b tot zijn nok toe vol kon stoppen met instructies dus het absoluut niet nuttig was om over te stappen op SM3.0. Daarentegen koos ATI het zekere pad en kon daardoor voor veel meer adem zorgen in de MHZ-en.

Nu is het tijdperk wel aangebroken voor SM3.0 en omdat deze architektuur aangeeft veel meer performance te kunnen geven bij veel shaderinstructies kan ook ATI dit gebruiken in zijn producten. En dan maakt het niet meer uit dat nVidia een hogere efficientie gehaald heeft want ATI zit er nu ook bij en kan dat tenminste even goed.

Maar hij praat zoals een verkoper en dat moet in ieder geval altijd met een korrel(tje) zout genomen worden.

De toekomst is wel generieke hardware acceleratie, en dat geldt ook voor de CPU-cores.

Over een week zijn alle ogen gericht op de onthulling van de G70 en dan zullen veel mensen natuurlijk zeggen dat nVidia weer DE GPU-maker is.
En dan komt ATI...en ik denk dat ze iedere nVidia fan laten schokken met de R520
Duidelijk dat deze beste man geleerd heeft van z'n eigen fouten. Zelf hadden ze namelijk precies hetzelfde probleem met Shader Model 3.0. Dat was volgens Ati ook niet nodig, maar nu zijn ze toch hard op weg het te implementeren in hun next-gen gpu's.
En hij heeft toch gelijk gehad ... Hij sprak dat het onnodig was voor SM3.0 in deze generatsie. Men heeft nooit ontkend dat de R520 SM3.0 zou hebben. En wat zien we dat SM3.0 gebruikt ... 3 games zoiets? En games die uitkomen in de toekomst tellen niet mee in de discussie, heb dat argument al maanden geleden gehoort sinds de x800/6800 launch date's, hoe xxx games gingen uitkomen met SM3.0, terwijl er nu, zoveel tijd later, bijna geen uit zijn met SM3.0. En de games die Sm3.0 ondersteunen, moet je nog eens speciaal console commando's voor ingeven om de SM3.0 ondersteuning te activeren ...
That mere 10 per cent clock speed that RSX has on Xenos is easily countered by the unified shader architecture that we've implemented

Ja hij vergeet daar alleen bij dat nVidia's architecturen bijna altijd meer shaders per kloktik kunnen verwerken. Neem bijvoorbeeld de 6800Ultra, loopt op 400mhz, terwijl de x850XT PE op 540mhz loopt!
En jij vergeet daarbij dat een unified shader architectuur niet te vergelijken is met de oude ATI designs, en dat verschillen in aantal shaders per kloktik op oude designs dus ook geen argument meer zijn.

Je vergeet ook even te vermelden waarom Huddy dat beweerd:
"Providing developers throw instructions at our architecture in the right way, Xenos can run at 100 per cent efficiency all the time, rather than having some pipeline instructions waiting for others," Huddy explained. "For comparison, most high-end PC chips run at 50-60% typical efficiency. The super cool point is that 'in the right way' just means 'give us plenty of work to do'. The hardware manages itself."
Uiteraard is dat wat overdreven, maar in de kern is het gewoon waar wat ie zegt. En zelfs als maar de helft waar is van wat ie zegt, dan hebben ze die 10% ruim goedgemaakt.
Het is merkwaardig dat de concurrentie het nooit heeft over de (bijna) dubbele performance van de Cell tegenover de tri-core CPU van de Xbox360. Gemakshalve wordt dan gezegd dat de consoles 'gelijkwaardig' zijn in rekenkracht.
Niet zo merkwaardig als je bedenkt dat die Cell prestaties vreselijk gehyped worden.

Een cell processor is heel snel voor een heel beperkt aantal functies. Helaas is dat niet toerijkend voor een general purpose cpu zoals je die in een console (en een desktop) nodig hebt.
De geweldige prestatie waartoe Cell in theoretisch in staat is zal dus ook nooit in de praktijk gehaald worden in een console.
De cell is wel specifiek voor consoles ontworpen. Er zullen niet veel achtergrondprocessen lopen zoals bij een normale pc, spelintelligentie en dergelijke zal best wel het e.e.a. vereisen van de resources en wellicht niet al te efficient op dat gebied zijn, als je ziet dat op highend pcgamesystemen de cpu de beperkende factor is voor de graphics zal een cell dus enorm moeten profiteren van dat gedeelte en voor de inefficientie in andere delen ruimschoots zal compenseren.

Een game dat bijvoorbeeld heel veel AI vereist zal vanuit mijn redenering dan ook beter moeten gaan lopen op een 360 dan op een ps3, terwijl de 'simpelere' games dus beter op de ps3 zouden moeten lopen. Slecht programmeer werk en slechte ports van xbox naar ps3 zouden dan wel eens funest kunnen worden voor sony. Omgekeert zou de xbox360 hier minder last van moeten hebben, waardoor de ps3 wel eens de standaard ontwikkelbak kan gaan worden, waardoor releases op ps3 veilig worden gesteld.

In ieder geval interessante zaken, de clash of the titans is nog niet gespeeld we kunnen nog heel wat in het voorprogramma verwachten, nu maar hopen dat de hoofdact ook zo spectaculair is :)
zou me verwonderen, aangezien hij juist ontworpen is voor multimedia, vermoed ik juist dat veel meer gaat halen uit een ontwerp dat speciaal gemaakt is voor zijn doeleinde.

Een powerPC blijft een powerPC, ook al zat je er 3 bij elkaar. Deze is krachtig, ook grafisch, maar is niet ontworpen met doel een grafisch monster te zijn

Dit geeft geen enkele garantie voor prestaties, bij geen één van beide.
De Cell is naar alle waarschijnlijkheid inderdaad overhyped. Sony heeft sowieso een handje van overhypen van hun consoles: dat gebeurde ook met de PSX en later de PS2, die op papier qua rekenkracht ook iets van 2x zo snel zou zijn als de Xbox. Theorie en praktijk bleken elkaar daar echter behoorlijk te bijten ;)

De Xbox360 heeft 3 general purpose 3.2Ghz PowerPC cores. De PS2 heeft één 3.2Ghz PPC, die wordt ondersteund door 7 SPE Cell units, welke alleen zeer specifieke berekeningen kunnen uitvoeren.
De toekomst zal moeten uitwijzen welke architectuur sneller is, gezien ik de specs (in MIPS en FLOPS) die Sony opgeeft met het oog op het verleden niet echt vertrouw ;)

Verder is het ook nog eens zo dat in de huidige systemen de grafische kaart verreweg het meest te vertellen heeft over de gameprestaties, vooral op hoge resoluties met AA/AF ingeschakeld.
Een Athlon64 3000+ met een X800XT PE is in games bijvoorbeeld een stuk sneller dan een Athlon64 4000+ met een X700 Pro...

Hoewel de CPU performance t.o.v. elkaar nog discutabel is, is het mij in ieder geval wel al vrij duidelijk dat de Xbox360 GPU sneller is dan de PS3 GPU. Echter again, hoe dat in de praktijk uitpakt zullen we nog moeten zien :)
ik vraag me af of ATI dmv die API calls of andere gegevens
ook stukken implementatie-details van de nVidia chip teweten komt die ze anders niet zouden hebben...

ze kunnen het natuurlijk niet rechtstreeks gebruiken, maar een ID hebben van de manier van werken van de concurrent kan soms wel een voordeel zijn...
Ik geloof dat in de Xbox een Geforce 4 verwante GPU zat. Ondertussen zijn we weer 2 (bijna 3) generaties verder, en deze chips lopen óók nog eens op de zaken vooruit. Ondertussen is er zoveel veranderd in videoland met nieuwe shadermodels, compleet nieuwe renderarchitecturen en API-compatibiliteit (DirectX en OpenGL versies) dat ATI zogoed als niks zal hebben aan het onderzoeken naar dit soort informatie. De gpu is te oud en zelf hebben ze natuurlijk ook niet stil gestaan dus zijn met hun eigen GPU ook al véél verder dan die GPU die in de Xbox 1 zat. Het zal doe moeite niet eens waard zijn :).
NV2A was een GeForce ~3,5, zat ergens tussen GeForce 3 en 4 Ti in. Zeg maar 4 Ti effecten en techniek, met snelheid van 3.
Ik ben benieuwd of je bijvoorbeeld oude xbox games, zoals HALO dan zonder haperingen of FPS drops kan gaan spelen, zodoende elk oude XBOX spel op 60+ FPS kan gaan spelen, dit zou wel erg lekker zijn.
Richard Huddy is een ex nvidia werknemer die overgelopen is naar ATi. Hij was het die de beroemde woorden sprak over nvidia's SLI: "it's crazy". Zie waar sli nu staat en wat ATi ermee gedaan heeft.

Men kan natuurlijk niet verwachten dat hij de PS3 gpu beter gaat vinden :)
Laat Richard Buddy maar een eind doorlullen.

Het is dezelfde man die ooit beweerde dat shader model 3 overbodig is. En nu doet hij alsof zijn bedrijf de 'high tech' -lakens uitdeelt... :Z


Ik ben blij dat de PS3 Nvidia hardware heeft (heb trouwens zelf een 9700 pro), zeker in verband met dit nieuws:

http://tweakers.net/nieuws/37643

( :9~ ik kan niet wachten om mijn 3Ghz Pc bij het oud vuil te zetten :9~ )

edit: ( @ onder mij)
Jij hebt duidelijk nog nooit ati drivers (en hun prestaties) onder linux mogen 'genieten'.

SM3, dat maakt me echt niet uit hoor. Een PC heeft shader model 2 of 3, en nog is er geen enkel spel wat bij gran turismo 4 in de buurt komt. Doom3 op de xbox1 heeft alle 'dx9 effecten', terwijl hij maar dx8 hardware heeft.
Ik noemde SM3 om te laten zien dat deze ati man wel meer dingen zegt, en dat je niet alles zomaar moet geloven.
Richard Huddy heeft dat nooit gezegd.

Wel heeft ie gezegd dat het in de huidige generatie gpu's (6800/X800) overbodig is, en dat klopt ook omdat die gpu's gewoon niet snel genoeg zijn voor de geavaneerde SM3 functies waarbij je wel verschil gaat zien met SM2.

Waarom je dan overigens blij wordt dat de PS3 Nvidia hardware heeft is mij overigens een raadsel aangezien de Xbox360 gpu qua features een stuk verder lijkt te zijn dan de nvidia gpu in de PS3. De ATI gpu zal qua features lijken op de WGF2.0 specs, terwijl de Nvidia gpu meer op de G70 zou lijken. (WGF1.0)

Of je daar veel van merkt in spellen moet je natuurlijk maar afwachten, (zal imo wel meevallen) maar als jij het zo'n ramp vind dat ATI in de X800 serie geen SM3 heeft gestopt, dan zou je met die Nvidia gpu toch niet tevreden moeten zijn.
Blijft het nog steeds een rare stelling van meneer,
WGF 2.0 is speciaal gebouwd voor windows, wat praktisch betekent dat het voor x86 is, terwijl de Cell een totaal ander systeem is.

Natuurlijk zou het kunnen dat je bepaalde functies kunt aanroepen die je kunt gebruiken, maar vind het een rare port, en zet zeker vraagtekens bij het verhaal dat de Ati al bij voorhand sneller is, en de stelling dat deze beter is.
En de PS3 wordt een halfjaar later gelanceerd dan de Xbox 360 dus hebben ze ruim de tijd om de prestaties van de concurrent voor te kunnen blijven.

@Elite_Dead: Je hebt gelijk het kwam iets anders op me over ik heb de quote en het argument verwijderd.
ehh, dat stukje gaat over de emulatie van xbox spelen op de xbox360, dat heeft niks te maken met dat de spciefieke functies van de xbox360 ook lastig te emuleren zijn 8)7
Goeiendag wat kletst die kerel een eind uit zijn nek............

Dit is voor een promo-man nog erg fout, hij noemt gewoon dingen op die niet kloppen. bovendien hecht hij veel te veel waarde aan dat unfied shader model, nVidia heeft al aangegeven, ze hebben het zlef getest, en ze kunnen het separate model op dit moment sneller maken dan het unified model, dan gaan ze dus voor seperate.

Zeggen dat 2xAA 18.5% fps kost is onzin.

Zeggen dat de Cell niet geweldig is klopt niet (en zeker in verhouding tot de Xenon)

En op basis van een shader model en de clocksnelheid een verglijking maken......mijn god, aan zo'n kerel heb je gewoon helemaal nix.
De unified shader architectuur is een voordeel maar de op de GPU geintegreerde framebuffer is het echte voordeel van de Xbox 360 over de PS3. De onderstaande discussie noemt een aantal interessante voordelen:
First, do not downplay the power of the 10 MB daughter die. It is an amazing and revolutionary new design, which places 192 floating-point co-processors in tight unison with the memory itself. As a result, you get z-testing, alpha testing, alpha blending, stencil testing, and anti-aliasing virtually for free (because the memory is Smart, and handles these tests all by itself). The 10MB of EDRAM is useful for a number of reasons:

* As you stated, it allows you to have anti-aliasing at high resolutions basically for free

* It allows you to have an assortment of floating point operations applied to data just before it is stored in memory, basically for free

* It allows you to draw many things, without becoming bandwidth bound (bottlenecked). This means you can render to 4 render targets, a depth surface, an HDR surface, etc, as much as you want during a frame without stalling. The PS3 has a mere 22 GB/sec to VRAM. It must be noted that 52 GB/sec is the amount you would need to maintain a consistent frame rate with a 1080 frame buffer and depth buffer (we will ignore 4x FSAA and HDR for now). As a result, Major Nelson's charts were attempting to highlight this severe bottleneck/deficiency in the PS3 design. The reasons for this design in the PS3 are simple, cost.

* The EDRAM mitigates the consequences of overdraw (which will severely impact the PS3).
http://spaces.msn.com/members/jeromeontech/?partqs=ayear%3D2005%26amon th%3D5&_c11_blogpart_blogpart=blogview&_c=blogpart

Het lijkt erop dat Sony tegen een redelijk bottleneck gaan oplopen als ze 720p willen draaien met 4x FSAA.
Tegen eenzelfde bottleneck zal XBOX360 ook oplopen, niet de hele frame past in 10MB, dus zal er naar het gewone geheugen geschreven moeten worden, en wordt geheugen op meerdere plaatsen een bottleneck, als die EDRAM core klaat is, moet hij eerst nog even zijn huidige gegevens kwijt raken, dan moet hij naar het gewone geheugen (waarschijnlijk terweil de Xenos core gewoon doorgaat met pixels renderen, en dus texturelookups en andere dingen op het geheugen uitvoert), en als dat klaar is, moeten die gegevens ook weer naar de framebuffer.
Een 720p/1080i frame past prima in 10Mb. In de framebuffer wordt het plaatje bewerkt en dan pas doorgestuurd naar de rest van het systeem. Vandaar de keuze voor 10Mb grootte en maarliefst 256GB/sec throughput. De Xbox 360 is verder opvallend vrij van bottlenecks. Over het algemeen kan je stellen dat het hele systeem z'n 22Gb/sec optimaal gebruikt.

Daarom ondersteunt MS ook geen 1080p (ondanks dat de ATI GPU dat makkelijk aankan). 1080p past niet in 10Mb en zal dus een performance bottleneck opleveren als je er 4 x MSAA en andere effecten op loslaat. De onderscheidende factor van de X360 die Microsoft wil uitnutten t.o.v. de PS3 is HDTV. De X360 kan door zijn architectuur makkelijker een 4 x MSAA plaatje neerzetten zonder de rest van het systeem te belasten. Bij de PS3 gaat dit ten koste van de bandbreedte van het systeem. Vandaar dat MS er zo op hamert. Sony zegt wel 2 schermen met 1080p resolutie simultaan te ondersteunen maar "vergeet" daarbij dat je daar met de huidige bandbreedte van de PS3 geen fatsoenlijk AA plaatje op kan zetten.
Volgens Beyond3D gaat het inderdaad niet in de EDRAM passen.
Maar wat je even vergeet er ook bij te zeggen is dat dat volgens Beyond3D geen enkel probleem is, omdat ze daar bij het ontwerp rekening mee gehouden hebben en dat het daarom nog steeds geen bottleneck is.
jij vergeet compression, en jij vergeet dat RSX zijn eigen geheugen krijgt, in tegen stelling tot Xenos, die zijn geheugen moet delen met Xenon.

Volgens Byond3D ging het overgens niet in de EDRAM passen.
Nee, want Sony laat de instructies die door de ATI gpu gedaan worden door zijn cell processor doen. Floating point operations kunnen bijvoorbeeld perfect door 1 van 7 cores van de cell gedaan worden.

Unified shaders hebben in bepaalde gevallen een voordeel maar zeker in evenveel een nadeel. Het is gewoon iets wat ms wou en daarom zit het erin. Denk je nu echt dat als unified shaders zoveel prestatiewinst zou leveren, nvidia het niet zal implementeren??
Een Cell is slecht in shader instructies. Dat is de reden dat Sony gekozen heeft voor een GPU. In het oorspronkelijke model was de Cell ook bedoeld voor graphics. Sony heeft nvan afgezien en (vrij last-minute) Nvidia betrokken bij het PS3 ontwerp. En als ze dit soort zaken (4 x AA, z-buffering, stencil mapping) door de Cell laten afhandelen gaat dit ten koste van hun 25Gb/sec bandbreedte (terwijl de Xbox 360 dezelfde bandbreedte volledig overhoudt omdat dit soort effecten afgehandeled worden door de framebuffer zonder de rest van het systeem te belasten).
En jij hapt even toe zeg. Je laat je wel kennen zo.

Als je hem uitfoetert dat hij zoveel onzin uitkraamt waarom kom jij dan niet met harde tegenargumenten?

En als nVidia geen efficiente Unified Shaders kan maken wil niet zeggen dat ATI dat dan ook niet kan. Als pixel en/of vertex shader berekeningen om een stel hardwarematig geimplementeerde wiskundige berekeningen vraagt kan dit ook gedaan worden met bijvoorbeeld geoptimaliseerde meer algemene wiskundige berekeningen (met misschien wel iets meer overhead).
En dan kan dat gelijk gebruikt worden voor bijvoorbeeld hardwarematig ondersteunde codering van...H.264????

Als je in de huidige GPU's AA aanzet kost dat fps, dit kan alleen opgelost worden door die 10M embedded ram zodat de AA berekeningen door iets anders gedaan kan worden. De geclaimde 18.5 procent lijkt me echter wel teveel.

Beide cellprocessors hebben hun voor- en nadelen, ga maar lezen op www.arstechnica.com
Arstechnica is mijn lievelings site (op tweakers.net na natuurlijk dan hè?) en dat artikel heb ik van voor to eind bestudeerd (inclusief alle andere cpu geralateerde materie) en inderdaad heeft de Cell zijn nadelen, maar die nadelen worden gedeeld met de Xenon, dus het is geen voordeel voor de XBOX 360 (zo blijkt uit het Xenon Part II artikel) ookal vind ik mr Stokes wel erg pessimistisch er tegenaan kijken....

Vool algemene berekeningen hebben we een cpu, en als je met algemene berekening graphics renderd dan noemen we dat "Software rendering".

10MB EDRAM lost niet het probleem op dat voor iedere pixel bij 2xAA 2 subpixels nodig zijn om de uiteindelijke kleur te bepalen, dus de kleuren van die subpixels zullen appart moeten worden gerendered, en hebben dus 2 maal zoveel pipeline passes nodig als gewone pixels zonder AA en dus kost AA altijd performance, tenzei de bottleneck iets anderes dan het graphisch subsysteem is.

Hardware matig coderen, dat hoeft niet bij consoles, en hardware matig decoderen dat hoeft in ieder geval niet als er een Cell processor in de buurt is, dus hoef je daar geen transistors meer aan uit te geven op de video kaart.

Er is maar een Cell processor, IBM heeft hem samen met (lees voor) Sony en Toshiba gemaakt, dat ding heeft 1 PPC core en 7 (dus niet 6 zoals die kerel zegt) SPE oftewel vector cores (die SIMD dingen doen (hetgeen waarvoor op MMX 3DNow! SSE SSE2 SSE3 voor x86 zijn)) De Xenon is iets anders, dat zijn 3 PPC cores opmekaar geplakt.
eDRAM lost misschien niet alleen het probleem op. Maar de daughter-die heeft speciale logic aanboord om die "gratis AA" mogelijk te maken. Dat zie je even over het hoofd hier volgens mij.

Quote uit een nieuw artikel over Xenos van B3D:
As we can see, with these bit depths, all the resolutions will fit into the 10MB of eDRAM without FSAA and at 640x480 a 4x FSAA depth will stay within the eDRAM memory size, with these colour and Z depths. However, at HDTV resolutions nothing can fit into the 10MB of eDRAM with any mode FSAA enabled. Xenos was specifically designed to perform very well in these cases by dividing the screen into multiple portions that fit within the eDRAM render buffer space. This is similar to prior tile-based renderers, but with a much larger base tile and with additional functionality to optimize the tiling approach.
Bron: http://www.beyond3d.com/articles/xenos/index.php?p=01

ATi gebruikt dus Tile Based Rendering in de daughter-unit om 4xAA for Free te bewerkstelligen.
maar het KAN niet, die daughter die maakt niet een tweede subpixel op basis van die eerste toch? dus moet de mother chip 2 subpixels berekenen, en dat kost nu eenmaal 2 keer zoveel tijd als het berekenen van 1 pixel............het enige wat deze daughter die kan doen is het samen voegen va de twee subpixels, zodat de main core dat niet hoeft te doen, maar ik had nooit gedacht dat het samenvoegen zoveel werk was, verbgleken bij het 2 maal renderen (te zien aan het feit dat wanneer het graphisch subsysteem de bottleneck is de performance gehalveerd wordt wanneer men van geen AA nar 2xAA gaat). De enige manier om gratis AA te doen met dat EDRAM ding, is door Quincunx te doen, en ik mag hopen dat nVidia daar toch wel patent op heeft.

Normaal gesproken ben ik het wel met Byond3D eens, maar in dit geval niet, het zal toch niet zo zijn dat de Xenos ophoud met rekenen op het moment dat het EDRAM vol zit? Het enige wat mij dan logisch zou lijken is dat de rest van de subpixels in het gewone geheugen komen te staan, die kan het EDRAM er dan zelf weer uithalen en de frame afmaken, maar dit voldoet niet aan de term Tile Based Rendering.

Het is goed mogelijk dat ik iets over het hoofd zie, maar blijf niet constant herhalen dat het gratis is en vertel gewoon waarom.
Als de uitgebreide uitleg in het artikel van Beyond3D niet duidelijk genoeg is, dan stel ik voor dat je op de forums van Beyond3D om extra uitleg vraagt.
Genoeg developers daar die je daar bij kunnen helpen.

Een nog diepgaander discussie gaat veel te ver voor hier.

(En je moet het me maar niet kwalijk nemen, dat ik wat meer waarde hecht aan Beyond3D dan aan jouw mening)
De gpu in de Xbox 360 mag dan wel krachtiger zijn dan die in de Playstation 3, maar de Cell processor in de Playstation 3 is weer velen malen krachtiger als de cpu in de Xbox 360. Al met al is de Playstation 3 de krachtigere console van de twee, meerdere gamedevelopers die met beide hebben kunnen werken hebben dit al bevestigd.
Dat is nog maar de vraag. De Cell is goed in floating point berekeningen maar op andere vlakken minder sterk. FP is leuk voor video decoding maar een game maakt meer gebruik van "general purpose instructies" dan van FP.De 3-cores van de Xbox 360 zijn daartoe beter uitgerust. Bovendien heeft de Xbox 360 3 volledige CPU cores vs. 1 core voor de Cell (met 7 sub-cores).

Een interessante quote die vandaag verscheen was die van Apple (Steve Jobs):

Apple Boss Slams Cell Processor
http://c.moreover.com/click/here.pl?b334845021&r=MSNnews
But Jobs reportedly knocked Kutaragi back, claiming he was not impressed by the performance of the IBM-built Cell processor and stating that he felt the PowerPC chip - also built by IBM - would eventually offer better performance.
Ik denk dat de Xbox 360 sneller is dan de PS3. Maar om daar echt zeker van te zijn zal je eerst alle specs + mogelijkheden (instructiesets) en bottlenecks naast elkaar moeten leggen. En dan nog is hardware maar een derde van de puzzel (hardware-software-services).
Wouw, floating point berekeningen zijn niet langer General purpose, wanneer is dat gebeurt?

Ooit werd Quake 3 als FP performance meter gebruikt voor CPU's (tegenwoordig is het compleet gebottlenecked door het geheugen)

Neen, fp is zo general purpose als het maar kan. Floating point is een datatype, net als integer, alleen een integer is een geheel getal, terwijl een floating point een zwevende punt (komma) heeft.

Wat jij WAARSCHIJLIJK bedoelt, is het vector gedeelte, de Cell heeft 7 werkende vector cores (eigenlijk volledige vector processors en als je het aan de juiste persoon vraagd zal die zeggen dat het een volledige vector computer is) die doen SIMD instructies, wij kennen SIMD van MMX 3DNow! en SSE (Streaming SIMD Extensions), Vector processing/SIMD zorgt ervoor dat niet een enkel getal maar een hele rij van getallen in een keer bewerkt kan worden. En zoals wij weten maakt SSE in spellen ERG veel uit, en zal het ook de performance van de Cell erg ten goede komen, mede ook dankzei de gigantische hoeveelheid registers die daarbij hoort.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True