Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 192 reacties, 55.513 views •
Submitter: witeken

De esram-geheugenprestaties van de Xbox One zouden bij de uiteindelijke productie-exemplaren hoger liggen dan waar Microsoft rekening mee hield. Optimalisaties van het 32MB embedded esram-geheugen in de Xbox One-processor zouden voor de snelheidswinst zorgen.

Microsoft had aanvankelijk een snelheid van circa 102GB/s voor het embedded esram verwacht, maar uit metingen met de chips in productie-exemplaren zouden aanzienlijk hogere doorvoersnelheden mogelijk blijken, zo meldt Eurogamer. Snelheden tot 192GB/s zijn theoretisch mogelijk, aldus anonieme developers, circa 88 procent sneller dan eerder werd gedacht.

De snelheidswinst in de soc van de Xbox One zou mogelijk zijn doordat is gebleken dat de chip gelijktijdig uit het esram kan lezen en schrijven door lege cpu-cycles beter te benutten. Dit is met name nuttig voor de geïntegreerde grafische kern. In de praktijk zou dankzij doorgevoerde optimalisaties de geheugensnelheid schommelen rond de 133GB/s wanneer gebruik wordt gemaakt van zogeheten alpha transparency blending-operaties.

Met de mogelijke snelheidswinst die Microsoft zou kunnen boeken, lijkt de Xbox One terrein terug te winnen op de PlayStation 4. De console van Sony maakt voor het reguliere werkgeheugen gebruik van 8GB gddr5-geheugen, dat draait op 5500MHz, en zou goed zijn voor een snelheid van 176GB/s. De Xbox One moet het doen met 8GB ddr3-werkgeheugen op 2133MHz. Uit eerdere metingen zou zijn gebleken dat de Xbox One langzamer zou zijn dan de PS4.

Binnenkant Xbox One

Reacties (192)

Reactiefilter:-11920168+1117+213+30
Theoretische nummers vergelijken heeft geen zin, kijk maar naar current-gen hardware.

De Xbox 360 had ondanks slechtere hardware betere prestaties bij multi-platform games.
Dat kwam simpel weg omdat de games werden developed op de Xbox 360 en vervolgens gepord werden naar ps3 en pc (blijkend uit de native support voor xbox 360 controllers in games)
blijkend uit de native support voor xbox 360 controllers in games
Dat is alleen maar omdat sony geen pc drivers maakt en microsoft wel...
dat was vooral omdat xbox de betere hardware had. De GPU was beter dan deze van de PS3 en de Cell was zo non-conform dat eigenlijk enkel first party ontwikkelaars zoals naughty dog zich hierin volledig hebben bekwaamd
Dat is dus niet 'beter', maar 'meer conform'. Het was simpelweg makkelijker. Puur naar de hardware kijkend was/is die van de Ps3 superieur aan de xbox360. Maar, 'beter' wint niet altijd...
Daarom is Sony daar met de PS4 ook van terug gekomen, en zit iedereen weer netjes in het PC architectuur-stramien. (behalve Ninti, maar die is nu eenmaal altijd afwijkend :-) )
Dit is gewoon weg niet waar, de hele reden waarom de PS3 zo veel slechter was de cell architectuur en het feit dat de GPU die er in zit niet voor de PS3 was ontwikkeld. Daarnaast had de 360 een unified memory architecture en de PS3 niet. Hierdoor kon je dus Sysmem resources delen met de GPU op een 360, op de ps3 moest je van sys->vram kopieren.

Daarnaast was de 360 makkelijker om voor te programmeren omdat het symetrical multithreading bevate en de PS3 niet. Symettrical multithreading is wat in supercomputers wordt gebruikt om alle cores aan te kunnen spreken, hier is dus veel meer ervaring mee.

De PS3 zou sneller zijn geweest als je alles in sequence en parralel zou kunnen uitvoeren, waarbij alle SPU's een taak na elkaar uitvoerden. Dit kan gewoon weg niet, en levert zelfs problemen op bij het ontwikkelen van een spel.

Daarnaast was 4x MSAA ongeveer gratis op de GPU in de 360 dankzij het 10MB EDRAM geheugen, op de PS3 zit vaker niet meer dan 2x MSAA en dat merk je behoorlijk.
4x MSAA was alleen goedkoper bij een forward renderer, zodra je deferred renderd zit je EDRAM gewoon vol met render targets. 2x MSAA op de PS3 is iets wat het tot redelijk ver in de cycle heeft volgehouden maar is daarna vervangen door MLAA op de SPU omdat dat async tijdens het volgende frame kon. Het ESRAM wat er nu ligt zou prima dezelfde problemen kunnen krijgen zodra we meer gbuffers voor rendering gaan gebruiken.
De enige zwakte van de PS3 is de moeilijke programmeerbaarheid.

Al die "problemen" die jij noemt kan je omheen werken.

De PS3 kan heeft nog wat potentieel over mits je er alles uit kan halen door goed te programmeren.
De PS3 viel kwa hardware "programmeerbaarheid" enorm mee ten opzichte van de generaties die er voor kwamen, het was zeker niet zo makkelijk als de 360 maar goed daar heb je professionals voor die daar mee om kunnen gaan. Het zwaktepunt van de PS3 was gewoon de GPU en het non-unified geheugen. Een hoop van de taken van de GPU zijn daarom ook in de loop van tijd naar de SPUs verhuist simpelweg om daar meer plaatst te maken. Verder zijn mensen dingen in het GPU geheugen gaan stoppen die daar niet echt hoorden (audio, streaming pools) om zo maar het main geheugen vrij te houden voor andere dingen.
Das niet waar Mark Cerny (lead systemarchitect voor de ps4) had het bij de Ps3 over een ''Time to triangle" (tijd die het duurde om een werkende engine te krijgen) van 6-12maanden voor de Ps3 itt tot de 3-6 maanden bij PS2 en 1-2maanden voor de PS1 en PS4.

Kan je hier terugkijken: https://www.youtube.com/watch?v=xHXrBnipHyA aanrader!
Marc Cerny is wat betreft PS4 uitspraken gewoon een PR-mannetje van Sony. PrisonerOfPain heeft volgens zijn bio ervaring met game development voor de PS3 en vind ik daarom een betrouwbaardere bron.
Mark Cerny is heel wat meer dan maar een PR mannetje, en ik wil hem mij best ongelijk laten geven :)
Verder zijn mensen dingen in het GPU geheugen gaan stoppen die daar niet echt hoorden (audio, streaming pools) om zo maar het main geheugen vrij te houden voor andere dingen.
nou, echt niet thuis hoorden? een echte developer gebruikt elke stukje van de hardware voor wat men het kan gebruiken ongeacht de originele bedoeling, dus als het ze daarmee lukt om nog meer uit de PS3 te krijgen zijn ze dus goed bezig ;) en DAT is nu de kracht van consoles, omdat developers veel langer de tijd krijgen om de hardware echt te leren kennen in tegenstelling tot bij PC's waar de hardware vaak eigenlijk zwaar onbenut blijft omdat er toch wel weer snellere varianten binnen een paar maanden tijd op de markt komen, EN doordat er bij drivers met zoveel configuraties rekening gehouden moet worden..

maar je hebt gelijk, het grootste probleem met de PS3 is het geheugen, ik begrijp ook nog steeds niet waarom ze zich indertijd zo beperkt hebben op het geheugen (gelukkig zijn ze daar dit keer op teruggekomen), 256MB extra had een wereld van verschil kunnen betekenen maar de prijs nog steeds niet aanzienlijk doen stijgen (op langere termijn), maargoed, de hardware had sony toen al meer gekost dan dat ze op gerekend hadden..
De PS3 was gewoon sneller en "beter". Alleen was het moeilijker om ervoor te programmeren en die moeite nemen de ontwikkelaars niet. Al helemaal niet voor een multiplatform game.
dat draagt toch niets af aan de spelervaring op de xbox 360? wat je noemt is gewoon nog een factor die bepaald of een spel vlot loopt of niet.
Wat bedoel je precies?
Dat wanneer je 2 platforms hebt en er in de eerste instantie een aantal games ontwikkeld worden voor platform A, en deze code later geport word naar platform B met als resultaat dat het op B minder goed draait, dat niet wegneemt dat A een betere speel ervaring biedt omdat de software beter loopt.

[Reactie gewijzigd door ErwinPeters op 30 juni 2013 21:51]

Dit kwam vooral omdat er voor de 360 werd ontwikkeld. Kijk bijv. naar KZ3 en halo. Killzone zag er een paar jaar terug al beter uit als je de laatste halo en het zelfde geld voor uncharted en last of us. Geen een 360 spel zag er zo "goed " uit.
Ik vond Crysis 3 en Gears of War Judgement er anders ook prima uit zien op de Xbox 360 hoor? Halo 4 was overigens ook niet slecht, maar had vaak wat saaie omgevingen.

Toch kun je niet ontkennen dat het merendeel van de multi-platform games (de games die doorgaans toch het meest verkopen ondanks platform) er op de 360 beter uitzagen of vloeiender op draaien.
Exclusives zijn ook niet echt te vergelijken qua hardware, buiten 'wat ziet er mooier uit'.

Uiteindelijk zal het rond de crossgames gaat zitten, Fifa, BF4 (met PC erbij), games die aan beide kanten uitgebracht worden en 1 op 1 kunnen worden vergeleken. GTA4 op de huidige consoles was een mooi voorbeeld.
Het zijn JUIST de exclusives die de kracht van een console laten zien, zeker tegen het einde van de levensduur van de consoles..
Bij multiplatform games zou het alleen zo zijn als men ook echt goede aandacht besteedt om de game op elke platform optimaal te laten draaien, maar dat gebeurd zelden omdat het gewoonweg teveel geld kost..
Zolang het exclusieve titels zijn blijven de grafische prestaties lastig vergelijken tussen de verschillende consoles. Met de Xbox One en PS4 is dat niet anders, zoals SinergyX al aangeeft kun je in de praktijk alleen vergelijken met hulp van crossgames.
punt was ook dat die 2 consoles veel dichter bij elkaar lagen,
en dat de GPU van de 360 geavnaceerder en ensller was,
en de CPU van de PS3, de 360 1 gedeelde geheugenpool had en de ps3 niet.
vooral kwam het er op neer dat in de eerste jaren de PS3 te moeilijk was, (dit is ook toegegeven door Sony) dit zorgde voor een zwakke lineup en zorgde ervoor de 360 lead platform werd voor de games...

Kortom de ps3 is alleen sneller als je echt moeite deed om er iets mee te doen.
Nu zijn er 2 nagenoeg identieke architecturen, en strikt genomene heeft de 360 nu meer bandbreedte, maar dat is maar voor 32 mb en met 16 GB/s


dat is niet een enorm verschil, echter de rest van het geheugen heeft de PS4 een 107,7 GB/s voorsprong. dat is wel een flink getal verder is de GPU in de PS4 is 50% sneller,
en de rest is gelijk.
Wederom het verschil ga je wss vooral zien in exclusives, maar gezien de architecturen zo vergelijkbaar zijn kan je zeker verwachten dat de PS4 wel dingen gaat krijgen als betere post processing, meer particles (toch extra gpu over) hogere PFS, etc.
oftewel geen betere modellen (want het moet draaien op de lowest common denominator, maar wel andere features die extra GPU tijd kosten maar geen artist creatie tijd.

Maargoed laten we nu maar eens wachten tot de systemen af zijn, met Tiled resources zou Microsoft die 32 MB wel eens heel efficient kunnen gaan gebruiken, so who knows...
maar in dit geval lijkt er een relevanter verschil te bestaan alleen gebaseerd op de GPU al.
Waar haal jij vandaan dat de GPU 50% sneller is in de PS4? Graag een bron.

Waarom wordt een simpele vraag weggemod?

[Reactie gewijzigd door Frustus Maximus op 30 juni 2013 18:40]

Ja dat heb ik ook ergens gelezen. En eigenlijk wel logisch.

Ms gaat voor esram waar sony gaat voor sneller ram en daarme ipv esram meer shader cores in dezelfde diespace kwijt kan.
Sony heeft ook nog eens 7GB mem effectief beschikbaar vs de 5GB was MS heeft.

Maar ja het is geen hemelsbreed verschil het is toch wel subtiel. Ben eerder naar het praktische verschil..Dat kan je dan het beste zien aan de hand van cross dev games.
Alleen nadeel crossdev behoud men vaker de experience per platform gelijk aan de meest gemene deler. Al het extra wordt vaker niet gebruikt.
Sony is voor meer shaders gegaan en MS voor eSram. Geheugen is door Sony later pas op 8gb GDDR5 gekomen, waar ze eerst uitgingen van 4gb.

En over hoeveel geheugen effectief beschikbaar is, moet nog blijken. Die 7vs5gb gaat over een dev-kit uit februari. Kan nu helemaal anders zijn. De kans is groot dat het OS van de PS4 lichter is, maar die van de X1 is dan ook uitgebreider.
Je gezwets raakt helaas kant noch wal. Misschien volgende keer maar wegzappen voor je begint te schrijven.
Hahahha wtf heb je gerookt man :D
hier een bron: http://www.extremetech.co...he-hardware-specs-compare

Xbox one > HD7790 performance
PS4 > HD7870 XT performance

http://www.trustedreviews.com/opinions/xbox-one-vs-sony-ps4
Ongeveer 50% snellere gpu PS4 (zie "gpu and ram")

The PS4, in comparison, has an 8-core Jaguar AMD CPU, with a GPU that’s around the same level as the Radeon 7870 (which is significantly more powerful than the 7790). The PS4 has 8GB of GDDR5 RAM, providing 176GB/s of bandwidth to both the CPU and GPU. The Xbox One mostly ameliorates this difference with 32MB of high-speed SRAM on the GPU, but it will be a more complex architecture to take advantage of.
http://www.itproportal.co...-hardware-specs-stack-up/

[Reactie gewijzigd door Madrox op 30 juni 2013 19:36]

De PS4 presteert gelijk aan een HD 7850 (1,7 TFLOP vs 1,8 TFLOP).
Wat betreft de Xbox One heb je wel gelijk.

Een HD 7870 doet 2,5 TFLOP en een 7870XT doet zo'n 2,8 TFLOP.

Overigens is het aantal TFLOPS en de daadwerkelijke graphics in een game geen lineair verband.
Ey, ik geef alleen maar bronnen weer, wie er gelijk heeft weet ik niet maar daar was ik niet naar op zoek. Iemand vroeg bronnen, veel plezier ermee :)
Extremetech heeft het daar toch echt aan het verkeerde eind, de 7790 is qua shader aantal misschien wel vergelijkbaar aan de Xone, maar qua geheugenbandbreedte totaal niet. Een beter vergelijking zou zijn HD7850 vs HD7870, twee GPU's met dezelfde architectuur alleen minder shaders op de HD7870, dit is ook precies wat er bij de Xone aan de hand is, 33% minder shaders als de PS4.

Lees maar eens een gedailleerde vergelijking.
Begrijp niet goed waar je heen wil:

System Memory Bandwidth 22.4 GB/s 68.3 GB/s 176.0 GB/s
Wederom scoort de PS4 hier het hoogst. Wel heeft de Xbox One 32MB Esram, maar in hoeverre dat het gat gaat dichten is zeer de vraag.

Het gaat dus verder dan een simpel HD7850 vs HD7870 vergelijk.

Hieronder, dat is dus maar zeer de vraag, daar het systeemgeheugen van de PS4 ook al veel sneller is dan de Xbox One.

[Reactie gewijzigd door Madrox op 1 juli 2013 02:19]

Ook al heeft de PS4 een snellere GPU, er zullen altijd scenarios zijn waarin de Xbox One beter zal presteren omdat sommige games of scenes in games zullen profiteren van de ESRAM.

Dat is in alle computer architecturen het geval.

Er zijn altijd applicaties die beter presteren op een specifieke soort hardware.
Gaan we nou alweer trollen?

PS3 heeft Cell-processors tegenover de PowerPC van de xbox360. Het kost meer moeite en tijd om voor de PS3 te schrijven dan voor de xbox360.

Nu hebben ze allemaal x86_64 processors. Dus nu is het niet meer appels met peren vergelijken. Alleen gebruiken ze weer andere type geheugen, dus dat is het enige wat verschilt. Dus nu kunnen we daadwerkelijk zien ( als de game-developers zin hebben) welke type geheugen beter is voor gamen!
En om het maximum uit de Xbox One te halen moet je enorm specifiek optimaliseren en alles binnen 32 MB ram zien te krijgen.

Dat is natuurlijk wishful thinking. Het generieke geval op de PS4 haal je met 2 vingers in de neus tegen de 200GB/s en bij de Xbox One alleen als je in de S-RAM zit van 32MB. IK bedoel maar, dat gaat bijna geen developer lukken om alles binnen die 32 MB te houden...

Een paar superkleine games maybe...
Het is maar de vraag waar die 200gbps voor gebruikt gaat worden. Je zit nog altijd vast aan de kloksnelheid van de CPU en GPU om alles te verwerken, ook al heb je 3 miljard yottabyte per seconde tot je beschikking.

Vooralsnog heeft de huidige 360 een gelijk systeem, dus zoveel anders gaat dit niet zijn om uit te brengen op de Xbox One.
Xbox 360: http://en.wikipedia.org/wiki/Xbox_360_hardware

"The memory interface bus has a bandwidth of 22.40 GB/s and the Southbridge a bandwidth of 500 MB/s."

Dus Xbox One zal tegen de factor 4 sneller zijn dan de Xbox 360
en de PS4 dus factor 8 sneller dan de Xbox 360. Dit in hoge resoluties natuurlijk @ veel fps. Meer fps is beter voor je ogen natuurlijk.

Snelheid van spelletjes is compleet bandbreedte afhankelijk van de GPU.

In dit geval levert GDDR5 dus meer bandbreedte dan de DDR3 dus ramt PS4 die Xbox one compleet weg.

Vrij simpel hoor.

Het voordeel van DDR3 boven GDDR5 is dat de latency sneller is doordat je sneller kunt aborten.

Echter als je hier leest dat de SRAM (ESRAM??) enkel en alleen prefetched ingezet wordt, dan is enige wat je hoeft te vergelijken de bandbreedte.

Als die theoretisch al tot 133GB/s is gelimiteerd versus een echte 176 GB/s voor de PS4 dan weet je dus dat de PS4 die Xbox One enorm wegblaast.

Want die 133GB/s haal je dus niet continue, terwijl de ps4 dus een continue bandbreedte van 176GB/s heeft.

Overigens dat is ongeveer gelijk aan de Radeon HD6970 kaart die ik hier heb en die is al wat jaartjes oud ondertussen. De 7970 is er ook al eventjes...

Programmeren voor de Xbox One is dus stuk lastiger terwijl je praktisch dus factor 2 bandbreedte minder hebt dan de PS4.

Factor 2 verschil dus, zelfs voor geoptimaliseerde spelletjes!

Ter vergelijking het verleden: de ps3 had in theorie 25GB/s bandbreedte. Dus in theorie meer dan de Xbox 360. Echter, dat is een theoretisch getal dat van die ps3, want je moest je hele game dus voeden met 1 supertrage slak van een powerpc core. Een japanner klaagde steen en been daarover tegen mij, dat hij de game niet sneller kreeg doordat die ene core zo pokketraag was en gewoon de 6 vectorunits (PE's - processing elements) niet gevoed kreeg.

Dan is verder de vraag of je wel 25GB/s had, want je had dus maar 6 vector units en niet 8.

25 GB * 6 / 8 = 75% van 25GB = 18.75 GB/s.
Dus Xbox 360 was dan al sneller dan PS3, terwijl die ellende van 1 trage core die 'm voedt er dan nog bovenop komt.

Niet eenvoudig programmeren dus!

Dat is met deze x64 cores een stuk simpeler zowel voor de xbox one als ook de ps4.

De bandbreedte van de ps4 wint het dan van de xbox one. En hoe!
Alleen al OP PAPIER lijkt het nu al factor 2 te zijn!

Dat is wel zo'n megaverschil!

Overigens dat klagen was begin 2007. We zitten nu in 2013. Dus 6 jaar verder. Dat zijn 4x18 maanden. De oude wet van Moore over verdubbeling in transistors elke 18 maanden, remember? Die zou dan factor 2 snelheidswinst moeten geven.

2 * 2 * 2 * 2 = factor 16 en dit ding is factor 8 sneller...

Sony loopt dus achter op de wet van Moore. Dat blijkt dan ook wel, want de gpu die ze gaan gebruiken heeft zelfde bandbreedte als iets wat al meer dan 1 generatie achterloopt.. ...en binnenkort 2 natuurlijk.

Zeer de vraag dus of ze 100 miljoen van die ps4 consoles gaan slijten. Wel gok ik dat ze factor 2 meer slijten dan microsoft, maar we zullen zien. Microsoft is geniaal in marketing meestal!

[Reactie gewijzigd door hardwareaddict op 30 juni 2013 17:37]

"Snelheid van spelletjes is compleet bandbreedte afhankelijk van de GPU."

Dat is dus juist totaal niet het geval. Precies wat Martinspire zegt: je kan wel een gigantische databandbreedte hebben, als je GPU/CPU het niet kan handlen, heb je er niks aan. Sowieso, wat heb je aan 16K textures op een <2K resolutie? Om maar wat voorbeelden te noemen.

Volgens mij is de grootte en de snelheid van het geheugen vooral handig voor developers: je hoeft veel minder geheugenallocatie in te stellen. Het is simpeler, niet per s sneller.

Daarnaast zet ik mijn vraagtekens bij de 256-bit geheugenbus van die 8GB geheugen. Je ziet namelijk dat videokaarten met 6GB aan GDDR5-videogeheugen al vaak 384-bit of 512-bit hebben.
Je moet feiten niet verwarren met wat jij denkt.

Feit is dat spelletjes bandbreedte afhankelijk zijn. Dus de bandbreedte van de GPU's. De GDDR5.

Die bandbreedte van de ps4 is soortgelijk aan de Radeon HD 6970.

Dit waar we weten dat nieuwere gpu's zoals de 7970 die vet meer bandbreedte heeft, megasneller is dan die 6970.

Er is dus nog wel wat rek mogelijk in de bandbreedte die je nodig hebt om nog sneller spelletjes te spelen.

Want dat is al jaren geleden gebenchmarked!

Xbox One is dus factor 2 trager dan PS4 ongeveer.
Wat is er niet feitelijk dan? Wat heb je aan een enorme bandbreedte als je er een brakke GPU aanhangt? En wat heb je aan enorme textures (grootste lastenpost in het videogeheugen) als je resolutie toch maar bij 1080p blijft?
De PS4 komt bij mij over als een HD 7850 met 8GB geheugen. Als je het over de benchmarkboeg wilt gooien: http://images.anandtech.com/graphs/graph6359/50609.png

Het perfecte voorbeeld van dat games NIET (volledig) bandbreedte-afhankelijk zijn is de PS3 zelf. Hier zat namelijk XDR-RAM in, wat sneller is dan GDDR5. En we kunnen toch wel duidelijk stellen dat PS3 games het niet halen bij PC games. Dat komt door de inmiddels gebrekkige GPU.
Zie ook de X360, die vaak betere graphics bood, ondanks het veel tragere geheugen (zelfs de 10MB EDRAM was trager).

Vind het raar dat je steeds de HD 6970 (anno 2010) erbij moet pakken. GDDR5 heeft sowieso weinig evolutie meegemaakt de laatste tijd.
De HD 7970 heeft helemaal niet 'vet meer bandbreedte', dat geheugen loopt namelijk (net als in de PS4!) op 5,5 GHz. Echter zit dat geheugen gekoppeld aan een 384-bit geheugenbus in plaats van de 256-bit bus uit de PS4, waardoor het op de HD 7970 veel meer nut heeft (wat ook nuttiger is, omdat de GPU meer aan kan dan de videochip van de PS4)

Ik zie het als volgt:
- 8GB GDDR5 is een leuke marketingsterm van Sony waar eigenlijk geen touw aan vast te knopen is.
- De PS4 GPU is 1,5x krachtiger en dat maakt inderdaad de PS4 een stuk sterker. Echter:
-> theoretische GFLOPS zeggen niet alles
-> 1,5x krachtigere GPU betekent niet 1,5x beter beeld, dat is geen lineair verband

Volgens mij trek je veel te voorbarig conclusies, en ben je bovendien enorm optimistisch over de PS4 en extreem negatief over de Xbone.

[Reactie gewijzigd door Richh op 30 juni 2013 18:04]

Natuurlijk haalt een PS3 het niet bij hedendaagse games, het ding heeft 256MB RAM en een GPU op 550Mhz, DX9 en shader model 3 ondersteuning. Dat is behoorlijk antiek.
Voor zover ik weet heeft een PS3 geen DX maar OpenGL?
DX9 is een GPU feature level, het heeft niet lekkerlijk de DX9 API.
Het ligt dus alleen aan de bandbreedte, en niet het feit dat de 7000 serie een compleet andere GPU is?

Volgens jou zouden dus 4 Pentium 1's geklokt op 3.2 GHZ precies evengoed presteren als een Core i5 2500? Want alles draait toch om GHz?
De logica is ver te zoeken.
AMD verhoogt de bandbreedte met 50%
AMD verhoogt het aantal cores met 33% en klokt ze iets hoger.

In totaal zijn dus aantal cores (frequentiegecorrigeerd) en geheugenbandbreedte met ca. 50% verhoogt.

Daaruit trek je de conclusie: "Dus de corecount is echt niet belangrijk nu ze er al duizenden hebben."

Het door jou genoemde voorbeeld maakt het heel waarschijnlijk dat de GPUs op moment precies genoeg bandbreedte hebben, met meer cores hebben ze ook meer bandbreedte nodig. Als cores niet nodig waren zou AMD er ook geen geld aan uitgeven, lijkt me. Tenzij jij beter GPUs kunt ontwerpen dan AMD natuurlijk.
Feit is dat spelletjes bandbreedte afhankelijk zijn. Dus de bandbreedte van de GPU's. De GDDR5.
Onzin. als je op een HD 7870 alleen de snelheid van het geheugen verdubbeld zal die gemiddeld misschien 5% of 10% betere prestaties leveren. in veel scenario's zal het nauwelijk effect hebben omdat het geheugen niet de bottleneck is maar de GPU zelf.

[Reactie gewijzigd door hAl op 1 juli 2013 11:05]

Jouw vergelijking met de 6970 gaat niet echt op, de bandbreedte van dat ding is super en heeft veel meer unified shaders, toch presteert een GTX660 met veel minder bandbreedte en shaders veeel beter! Heb ze hier naast elkaar gedraaid. Laten we het kort houden,getalletjes zeggen gewoon vrij weinig totdat we het werkelijk met eigen ogen aanschouwen. Waarom zolang doorspeculeren over deze onzin, als puntje bij paaltje komt gaat er nauwelijks verschil zijn tussen deze twee consoles. Het is verdoen van je tijd om je hier mee bezig te houden.
Excuus, maar je bent wel extreem optimistisch in alle vergelijkingen. Laten we even in de cijfers van het artikel vergelijken:

De Xbox One haalt met het ESRAM (wat staat voor embedded static RAM, om gelijk je vraag te beantwoorden) een theoretische doorvoer van 192GB/s; praktijkvoorbeelden zijn er met 133GB/s. De PS4 haalt een theoretische doorvoer van 176GB/s, maar er zijn nog geen praktijkvoorbeelden. Sowieso wordt er dus niet 'met 2 vingers in de neus' 200GB/s gehaald op de PS4 en bovendien is op papier de Xbox One nu sneller. Let wel, dit zijn allemaal theoretische beschrijvingen, ik heb nog geen vergelijkende game kunnen zien (niemand).

Daarnaast wordt er werkelijk waar niets bekend gemaakt over de SDK/ontwikkelarchitectuur. We weten niet in hoeverre de Xbox One zelf bepaald wt er in het ESRAM zit en/of ontwikkelaars dat zelf moeten bepalen. Er is ook niet bekend of er nog compressie of tiling plaatsvind op de resources in het ESRAM; de inzet is compleet onbekend, buiten dat het de doorvoer moet verhogen. Microsoft heeft in het verleden bewezen dat hun SDKs erg sterk zijn, wat hoop geeft dat het ESRAM ten volle wordt benut.

Hetzelfde geldt overigens voor de PS4, er is niets bekend over de SDK en ook niets bekend over hoe makkelijk je de volledige 176GB/s kan gebruiken. Dit hangt van dusdanig veel stappen af dat pas bij echte games geoordeeld kan worden welke console beter is.

Nogmaals: We zijn (ondanks zelfde processor) nog steeds de beschrijving van appels met die van peren aan het vergelijken.

@hardwareaddict Helaas is de architectuur van de PS4 anders dan de PC die bij jou (of bij een reviewer) thuis staat en dus zijn die benchmarks niet te vergelijken. Het is misschien een indicatie, maar dat was die 176GB/s ook; meer niet.

[Reactie gewijzigd door KilZone op 30 juni 2013 17:51]

Okeej als je alles weer geef dat is een voorbeeld van een pc waar benchmarks op gedraaid zijn waarbij de computer en de videokaart op een unifeid 8gb GDDR5 pool draaien, als die heb mag je verder praten nu praat je alleen maar onzin
Ik bedoel hier mee; Dat je niet weet hoe een Computer/Console of welk ander apparaat presteert met een pool van GDDR5, je kan je niet blindstaren op bandbreedtes deze apparaten bestaan nog niet (computers niet) en zijn dus geen benchmarks van, maar toch neem jij aan dat het zoveel keer sneller is. Wacht gewoon af totdat ze beide uitzien en vel dan je oordeel op wie er sneller is. Het is al vaker gebleken dat software optimalisaties meer uithalen dan de meeste mensen verwachten.

Overigens heb ik al je comments gelezen en wat ik daar van uit kan opmaken is dat je al geen flauw idee hebt wat een cache geheugen doet, naast het gegeven dat je op je profiel bijna alle mogelijke opties hebt aangevinkt en schijnbaar veel van hardware zou afweten vind ik zelf dat je toch een beperkte kennis hebt van beide software en hardware.

[Reactie gewijzigd door TunefulDJ_Mike op 30 juni 2013 21:01]

Nou, ik ben van mening dat games vaker meer op GPU leunen dan CPU. En in dat opzicht is kiezen voor betaalbare 8 core wel begrijpelijk.
Nintendo met WiiU pleurt er iets in wat nog zwakker is dan huidige gen cpu. Zij geven dus ook preoriteit aan GPU.

Dan bandbreedte. De GPU moet uiteraard wel deze bandbreedte kunnen verwerken. Dus native FHD. PS4 heeft extra groot memory voordeel. Dus kan grotere texture varriatie aan. Scenes frames kunnen minder repetive zijn.

Xboxone is directx 11.2 die tiled recources ondersteund. En er was een demo die 16meg benutte voor 3GB mega texture.

5 of 7 GB bescikbaar nou het is beide ruim voldoende om niet al te memory belemmert te zijn.

Dus ondanks gemeenscappelijke maar ook verschillen zal het resultaat toch dicht bij elkaar liggen.
Crossplatform gaat vooral ook voor gelijke game experiences.

Dus om daar zo druk om te maken nou nee.
Op papier is de Xbox One niks sneller, dat maak jij ervan omdat je de Esram als maatstaaf neemt. Belachelijk natuurlijk, want dat is slechts 32MB ipv de 8GB Videoram. Technisch gezien is de architectuur van de PS4 bovendien makkelijker te coden voor de dev's. dan de dubbel-gelaagde videoram oplossing van MS.

Je kan op je klompen aanvoelen dat dat ESram regelmatig gevuld moet worden, via? Juist, ja. Het veel tragere DDR geheugen. Die +2 mag er wat mij betreft dan ook wel vanaf.

[Reactie gewijzigd door Madrox op 1 juli 2013 13:43]

Ik denk persoonlijk dat geheugen behoorlijk overrated is. Ja, dat van de PS4 is sneller, maar vergeet niet dat Microsoft dus het ESRAM heeft want ng weer sneller is. Ik had begrepen dat dit vooral zeer nuttig kan zijn bij dingen zoals anti aliasing. Hierdoor spaar je dus ook al een hoop bandbreedte uit richting het RAM van de Xbone. Daarnaast is de latency van DDR3 lager, waardoor het Xbone-geheugen sneller zal zijn bij het gebruik als systeemgeheugen ipv videogeheugen.

Maar volgens mij is het verschil in GPU prestaties veel belangrijker. De Xbone heeft een GPU die 1,2 TFLOPS uitpoept en de PS4 heeft er een die 1,8 TFLOPS aankan. Dat is een enorm verschil en dat is de reden waarom de PS4 beter is. De snelheid van het geheugen is denk ik niet enorm belangrijk.

Overigens zijn de specs voor de next-gen consoles abonormaal laag voor next-gen systemen. Waar de PS3 nog een enorm snelle serverprocessor had en de X360 de snelste videokaart bevatte van die tijd, krijgen we nu twee consoles met een opgefokte tabletprocessor en een zeer average videochip (HD 7790/7850). Een kaart als de GTX 770/HD7970 is krachtiger dan alle drie de next-gen consoles bij elkaar...

[Reactie gewijzigd door Richh op 30 juni 2013 17:11]

De snelheid van het geheugen is toch wel echt het belangrijkste; het is de laatste jaren de primaire bottleneck bij iedere game. De cycle-counts maakte al jaren niet meer uit (behalve op de SPUs want... daar was je LS praktisch gratis). Het feit dat al het geheugen in de PS4 bloedsnel is gaat het verschil maken.

Verder was het gemiddelde huishouden ook niet blij geweest met een 770 of een 7970 in je console, want die machines eten bakken met stroom. Men heeft deze generatie een stuk meer naar performance per watt gekeken dan daarvoor.
Vraag blijft of de snelheid van het geheugen bij de X1 eigenlijk wel de bottleneck gaat worden. Die bij de PS4 ligt inderdaad hoger, maar het hangt er net vanaf of ze niet last hebben van andere problemen (dat de GPU toch wat te langzaam is of dat de Processor met teveel andere zaken bezig is).
Denk dat ze allebei die 7970 wel gewild hadden, maar 'm gewoon niet onder de 100 dollar per stuk konden krijgen.

Microsoft lijkt iets te willen bouwen wat ze rond de 70 dollar aan productiekosten gaat kosten per Xbox One en Sony een paar tientjes daarboven, maar niet veel.

De verkoopprijs is een economische verkoopprijs. Je moet het heel goedkoop inslaan anders kun je nooit meer zakken met je prijs als je concurrenten gaan stunten en natuurlijk hoofdreden is meer winst per console :)
Met een blu ray erin en een controler erbij zal het wel iets meer zijn dan 70 dollar aan productiekosten
Nou als games overwegend gpu afhankelijk zijn en gpu meer bandbreedte afhankelijk tenzij het voor die resolutie geen flessehals is. Is latency niet het probleem.
De cpu heeft ook caches. Dus latency gaat grotere rol spelen in de cpu belasting als er vaker cache misses zijn. Dit is deels met memory management en alignment van data structuren op te lossen.

Ik verwacht dus dat de meer GPU afhankelijke games het goed doen op de PS4.
Ik verwacht dat games die wel wat cpu afhankelijk zijn en complexe datastructuren gebruikt vele malen groter dan L2/L3 caches. Dat dan xbone well de ps4 kan bij houden. In andere gevallen extreme zelfs voorbij kan gaan.
Geheugensnelheid was helemaal niet de bottleneck (hell, de PS3 had sneller XDR-RAM, sneller dan het huidige GDDR5...), de geheugengrootte was het probleem. Dat is met 8GB wel opgelost, of dat nou DDR3 of GDDR5 is.

Overigens, stel jouw case: dat iets voorheen de primaire bottleneck was, betekent helemaal niet dat het deze generatie ook een primaire bottleneck blijft. Wie zegt dat DDR3 dan nog niet genoeg is, zeker gecombineerd met ESRAM? GDDR5 is een overkill, getuige de kleine geheugenbus van 256 bit.

Nintendo heeft ook gekeken naar de performance per watt verhouding gekeken, en dat is ze op veel core-gaming fora niet in dank afgenomen. Daarnaast vind ik het ook een raar argument:
- De eerste PS3 Fat had een Cell CPU met een TDP van 110 watt en een 7800GTX met een TDP van 108 watt. Dat is samen 218 watt. Daadwerkelijk gebruik lag ook rond de 200 watt. En daar had niemand problemen mee.
- De PS4 heeft een HD 7850 met een TDP van 110 watt en een processor van 30 watt (2x 15w). Dat is samen 140 watt.
- Een HD 7950 met dezelfde processor zou samen 230 watt zijn, iets wat makkelijk mogelijk moet zijn met de (eveneens verbeterde) koelingstechnieken die vandaag beschikbaar zijn.

[Reactie gewijzigd door Richh op 30 juni 2013 20:16]

Je zult mij niet horen zeggen dat geheugen snelheid de grootste bottleneck van het systeem is. Maar het is de bottleneck van praktisch iedere C++ functie die er geschreven word. Dat het geheugen de snelste van z'n generatie is maakt het alleen maar minder erg ;)
@Richh, vergeet de TFLOPs. Kijk alleen naar de bandbreedte die de GPU levert, want de x64 cores kunnen de gpu in beide consoles met 2 vingers in de neus bedienen.

Het is natuurlijk frappant dat Sony vorige keer hard gokte op een chip met compleet onbekende architectuur (de CELL cpu), terwijl het nu Microsoft is die hard gokt op het enorme prestatieverschil van tegen de factor 4, proberen op te krikken naar factor 2 trager zijn dan Sony.

Wat de onbekende factor is, is tegen welke prijs deze consoles verkocht gaan worden op de lange termijn.

Uiteindelijk verkoopt een fabrikant pas heel veel als hij de zaak gaat lopen dumpen... ...wat je niet moet verwarren met de introductieprijs wat altijd een afroomprijs is (dat heet in de economie afromen).
Overigens zijn de specs voor de next-gen consoles abonormaal laag voor next-gen systemen. Waar de PS3 nog een enorm snelle serverprocessor had en de X360 de snelste videokaart bevatte van die tijd, krijgen we nu twee consoles met een opgefokte tabletprocessor en een zeer average videochip (HD 7790/7850). Een kaart als de GTX 770/HD7970 is krachtiger dan alle drie de next-gen consoles bij elkaar...
Ik denk dat het abnormaal lage wel meevalt. Als je kijkt naar 2006 toen de PS3 launchde. Men had toen Athlon 64 chips, 3 jaar later kwam de Core i van Intel, gigantische performance boost ineens. Ook de GPU's zijn van 8600GT's via GTX260's naar 660's gegaan. Dat zijn immense sprongen. Nu van Sandy-Bridge naar Ivy-Bridge en van Ivy-Bridge naar Haswell. Dit waren geen grootse sprongen in performance, dit zal denk ik ook niet veranderen als we naar Broadwell of Skylake kijken. Gewoon 5 10 procent performance voor minder stroom. Dus wat ik probeer te zeggen is dat het niet nodig is om GTX770's en Xeon's in de consoles te doen want die zullen over 6 jaar nog steeds een high-end pc bij kunnen houden. Als toch alles geoptimaliseerd wordt dan is een 'Opgefokte tabletchip' met een HD7790 een goede keuze om zo de prijs wat betaalbaarder te houden.
Conclusie, de hardware zal over 6 jaar nog steeds wel ok meegaan en niet zo achterlopen zoals de PS3 en Xbox 360 nu doen. Dit komt dus doordat de nieuwe generaties elke keer maar een klein beetje sneller zijn t.o.v. vorige generaties.
Ik denk juist het tegenovergestelde. In voorgaande consoles van MS en Sony zat altijd de allernieuwste hardware, en je ziet dat die (natuurlijk) na 8 jaar wel flink achter begint te lopen.

In deze generatie loopt de hardware zelfs voor de release al flink achter, moet je voorstellen hoe het er over 8 jaar uit ziet...
Toen ging de PC-hardware ook sneller. Nu is er bij elke generatie een klein verschil en verouderen de consoles dus ook langzamer. In ieder geval, zo zie ik het veranderen.
Zolang de Wet van Moore nog stand houdt, is het juist zo dat de beschikbare rekenkracht van een chip nog sneller evolueert, in plaats van langzamer. En voor zover ik weet houd de Wet van Moore nog altijd stand, ook de laatste generatie, en ik verwacht ook de komende generatie.
Ik denk dat juist omdat consoles zulke geoptimaliseerde games zullen krijgen je het verschil juist niet zal merken over 8 jaar.

Over 8 jaar zullen games waarschijnlijk net beginnen met het optimaal benutten van quad core CPU's en 64 bit.

En zelfs dan zal het niet even optimaal zijn als een console en die hebben dus 8 64 bits cores en een GPU waar de developers alles uit kunnen trekken.

Terwijl er op de PC's Direct X 11 games nog niet eens gemeengoed zijn.

[Reactie gewijzigd door Dark_man op 1 juli 2013 05:16]

wishfull thinking

sony directeur sprak al over een 5 jaar levens cycli voor de consoles

8 jaar ga je echt niet redden met 8 trage jaguar cores en een HD7850/HD7790.
hoogstens 5 en dan zit je echt al met de hakken over de sloot
Niet helemaal, vergelijk 3 spellen van de ea-stal
Fight night is een pareltje op de xbox tov ps3
Madden en nhl zijn daarin tegen mooier op de ps3
Vergeet de games op Frostbyte trouwens niet. Zowel NFS als Battlefield 3 draaien beter (of in ieder geval op een hogere resolutie) dan op de PS3.
Al ooit een PS3 exclusive vergeleken met een 360 exclusive? De 360 geeft echt geen betere prestaties dan de PS3. Enkel bij multiplatform games is dat zo maar dat ligt enkel aan de ontwikkeling (Lees: slechte port).
Ja dag. Exclusives kun je juist niet met elkaar vergelijken omdat er simpelweg verschillende teams met verschillende budgetten werken. Je zult er nooit achter komen hoe een uncharted er op de 360 uit zou zien en een Gears op ps3. Het enige vergelijkingsmateriaal dat je hebt zijn juist multiplatform games, en om nou te zeggen dat ps3 multiplatform games er slechter uitzien/slechter draaien omdat het allemaal slechte ports zijn is gewoon dom.
Absoluut niet.... Bovendien zijn ze hiermee nog niet vezekerd van betere prestaties dan de PS4 aangezien er veel meer aan vasthangt dan al die nummertjes prietpaat. Maar tis wel bewezen dat de PS4 sneller is en daar zal dit verhaal dan ook weinig tot niks aan veranderen....
Dit is gewoon een desperate bericht van Microsoft in de hoop dat het snellere geheugen van de PS4 te kunnen beconcureren met marketing.
Het geheugen mag dan wel sneller zijn dan verwacht, maar het is nogsteeds slechts 32MB tegenover de volledige 8GB van de PS4 die slechts 7% daar onder presteerd. Die 32MB is ook nogsteeds afhankelijk van de 8GB "traag" geheugen in de Xbox one.
Leuk marketing verhaal, grappig dat zelfs tweakers er in stinken, maar dit gaat er niet voor zorgen dat de xbox one sneller gaat zijn dan de PS4.
De 360 had ook gewoon een krachtigere GPU. De hardware van die twee ging gewoon vrijwel gelijk op (waarbij voor de PS3 heel lastig te developen viel), nu is dat niet meer het geval. De PS4 is toch flink krachtiger, gaan we zeker merken.

[Reactie gewijzigd door Wolfos op 30 juni 2013 21:19]

Theoretisch nummers vergelijken heeft weldegelijk zin omdat de architectuur van de Xbox One en PS4 heel veel op elkaar lijken. Bij de Xbox 360 en PS3 was het is niet zo.
Theorie VS Praktijk..
Dat zijn twee verschillende dingen... (als het goed is)
Als het goed is zijn ze exact hetzelfde. In theorie zijn theorie en praktijk hetzelfde. In de praktijk is dat niet altijd zo.

Maar goed, uiteindelijk zijn deze voorspellingen lastig zonder tests, en zelfs bij duidelijke tests kan de praktijk wel eens niet erg eenduidig zijn. Zowel voorspellen als interpretatie van tests zijn lastig omdat er zoveel factoren meespelen. Snelheden van diverse bussen, snelheden van diverse processoren, aantallen transistoren, ga zo maar door. Het speelt allemaal een bepaalde rol. Hierdoor moet je bij het voorspellen rekening houden met veel variabelen en kan de ene console in de praktijk in bepaalde aspecten sneller/beter zijn dan de ander, maar in andere aspecten juist minder sterk. Het kan goed zijn dat misschien de PS4 beter is op grafisch gebied dan de Xbone, en de Xbone weer beter is in AI (ik meen dat dit doorgaans een CPU taak is, en niet (GP)GPU), of juist andersom. Ook is de ene GPU beter geschikt voor GPGPU-taken en daarmee bijvoorbeeld physics dan de andere GPU. Veel variabelen...
Theorie kan gelijk zijn aan de praktijk.
Dat hangt ervan af hoe compleet je theorie is en of je alle factoren in acht neemd.
Probleem is dat er factoren niet zijn meegnomen die toch een redelijke invloed op het resultaat kunnen hebben.

Er is veel gemeenschappelijk maar ook verschillend. Dus je heb factoren en bariabelen waarvan zelfs de invloed niet duidelijk in te schatten zijn.

Dus in dit geval kan de praktijk zwaar afwijken.
De theorie is dat je bandbreedte-intensieve gameonderdelen in het ESRAM stopt. Anti aliasing is een goed voorbeeld: kost een hoop bandbreedte maar weinig data.

Bij de PS4 kost je dat een smak bandbreedte en bij de Xbox One niet.
Jij laat (in die vele posts die je hier spamt) dat je er TOTAAL geen verstand van hebt. Ben blij dat jij in het PS kamp zit, want je haalt behoorlijk wat geloofwaardigheid van het kamp naar beneden.
Mja er zijn nog niet veel vergelijkingen te maken over hoeveel effect bepaalde zaken hebben. GDDR5 vs DDR3 voor CPU en GPU bv. En hoeveel helpt die eSram nou eigenlijk (op de 360 volgens mij toch nog best veel, gezien daar de voorloper in zit).
En wat voor kloksnelheid gaan de definitieve versies nou draaien? Allemaal vragen waar we momenteel nog geen antwoord op hebben, waardoor het vrij nutteloos is om puur op specs te gaan kijken.

Ik denk dat de games toch wel weer belangrijker gaan zijn voor de eerste aankoop en we zullen dan ook op Gamescom wel weer wat mooie nieuwtjes gaan krijgen. Welke datum het precies wordt, of er nog wat gaat veranderen aan prijs of inhoud en er zouden nog wat nieuwe launchgames gepresenteerd kunnen worden.
"Theorie VS Praktijk..
Dat zijn twee verschillende dingen... (als het goed is)"


Theorie en praktijk zijn theoretisch hetzelfde. :+
ach qua echte preformance zegt dit nog altijd niets.
het is en blijft een compleet ander stuk hardware dan de playstation met andere software dus pas over 3 jaar wanneer er echte zware games komen kunnen we zien hoe het daadwerkelijk zit.
maar als bijde bedrijven slim zijn werken ze nu al aan een systeem dat downwards compatible is mar alle ps4 en xbox one games zodat ze dan makkeijk een nieuwe console op de markt kunnen zetten met snellere hardware mocht het nodig zijn.
ik denk namelijk dat deze 2 consoles de pc niet kunnen bijbenen.
Arnoud Wokkel? Playstation fan? Tja, een fanboy is nog moeilijker van gedachte te veranderen dan de baan van de aarde rond de zon.

Ik vind dit wel goed nieuws. Als de Devs hier goed gebruik van kunnen maken, wat ik wel verwacht, zal hier toch wel een leuke winst behaald kunnen worden.

Microsoft heeft gewoon extreem veel software kennis, waardoor er veel mogelijk is met (relatief) minder resourses.
Je bedoelt tech-geneuzel? Dit is toch juist leesvoer voor de tweaker?
Je wordt weggemod, maar ik denk dat je een goed punt hebt. "Oh, nee, ons ESRAM is toch zo en zo snel."

Je maakt mij niet wijs dat men dit voorheen niet zou hebben geweten. Het lijkt erop dat Microsoft alle zeilen aan het bijzetten is om de Xbox One aantrekkelijker te maken tegenover de PS4. Blijkbaar kwam de PS4 toch een beetje sterker voor de dag als bij Microsoft gedacht. Ook het aanpassen van de punten "altijd online moeten zijn" en "tweedehands spelletjes" wijst in die richting.

Ik mag hopen voor Microsoft dat ze erin slagen hun console op die manier aantrekkelijker te maken, maar ik als console-noob zou op intuitie nu eerder voor de PS4 gaan dan voor de Xbox One.
Ik denk dat ik Esram nog niet helemaal snap maar als je iets wat veel sneller is dan iets anders aansluit op iets wat langzaamer is kan het toch nooit zijn snelheid behouden?
Zie het eerder als buffer- of cachegeheugen.
Het ESRAM is eigenlijk een groot en snel cache gedeelte van de CPU/GPU binnen de Xbox One; hierin worden alle game onderdelen geladen die vaak, snel of abrupt nodig zijn. Je hebt in basis gelijk met zeggen dat een keten zo langzaam is als de traagste schakel in de keten, dus wat dat betreft verhoogt de ESRAM op zichzelf de performance van de hele keten niet, maar er zitten echter wel wat slimme trucs in de software kant van het verhaal.

Versimpelde weergave
Stel je voor dat je in een spel door een gang loopt, op een deur af, en jouw missie is om die deur te openen en de volgende ruimte in te stappen. Een console dient dan de huidige textures en gang op het scherm te tonen (geladen te hebben) en zodra de deur opengaat de kamer erachter te laden en tonen. Voor de PS4 gebeurd dit laden uit het GDDR5 geheugen met 176GB/s (ook hier zullen software optimalisaties inzitten, maar laat ik even achterwegen) en bij de Xbox One uit DDR3 geheugen op 2133MHz (68.3 GB/s). Echter, de software van de Xbox One (theoretisch!) kan anticiperen dat jij door die deur gaat lopen en een deel van de textures alvast in het ESRAM zetten; zodra de deur dan opengaat kan de Xbox One de volgende ruimte met 133GB/s (of misschien zelfs 192GB/s) uit het ESRAM trekken.

Dat het laden van de textures van het DDR3 geheugen naar het ESRAM dan langer duurt, is in praktijk niet meer zo belangrijk, de perceived speed is gelijk aan die van GDDR5.

@xian05 Afhankelijk van de software optimalisaties is het inderdaad mogelijk dat de praktische doorvoer op de Xbox One 133GB/s is (theoretische doorvoer 192GB/s). Voor de PS4 is het theoretisch 176GB/s, ik heb nog geen praktijkcijfers voorbij horen/zien komen.

@Martinspire Er zijn inderdaad meer opties voor het ESRAM; ik ben erg benieuwd naar uiteindelijke implementatie van alles, tot die tijd zijn we (ondanks zelfde processor) nog steeds de beschrijving van appels met die van peren aan het vergelijken.

@PrisonerOfPain Je hebt gelijk, maar het is voor het voorbeeld wel makkelijker. Quote: "Microsoft tells developers that the ESRAM is designed for high-bandwidth graphics elements like shadowmaps, lightmaps, depth targets and render targets."

[Reactie gewijzigd door KilZone op 30 juni 2013 18:30]

Dus bij de Xbox One zal het in de praktijk meer rond de 133GB/s zijn?

Is dan de 176GB/s bij de ps4 ook de (waarschijnlijke) praktische snelheid of theoretische snelheid?
Theoretische snelheid.
Het is maar de vraag of het voor textures gebruikt gaat worden en niet voor de frames zelf.

Overigens is de 176gb/s bij de PS4 dus de theoretische maximum. Bij de X1 is dat 192, waarvan 133 nu in de praktijk gehaald is.
Bij de Xbox One is het geen 192, dat is te simpel gesteld. Het haalt in het optimale geval 192GB, maar dan slechts tijdelijk. Zie het meer als een Cache-SDD voor je harddisk; De Harddisk prestaties zullen omhoog gaan, soms zal het als een SSD aanvoelen, soms ook niet.

Datzelfde ga je nu ook zien met dat Esram. Ze zeggen tegelijkertijd dat het gemiddelde zo rond de 133GB/s zal liggen, ey, dat is al een stuk minder dan de 192GB/s en dat geld nog steeds slechts voor een klein beetje geheugen.

Ze winnen wellicht terrein terug, maar in het best-case scenario (voor beiden) blijven ze qua geheugenbandbreedte nog steeds zo'n 30% overall achter.

Alle reviewers beamen ook dat het lastiger/complexer is om dat ESram goed te benutten en er dus max. prestaties uit te halen. Alle mooie verhalen hieronder dat Esram heel veel gaat bijdragen neem ik dan vooralsnog met een korreltje zout.
Laten we de benchmarks maar eens afwachten, maar ik voorspel nu al; het kan weleens tegenvallen.

[Reactie gewijzigd door Madrox op 1 juli 2013 13:56]

Bij de X1 is de theoretische maximum 192 gb/s van 32 mb. Van de PS4 is het theoretisch maximum 176 gb/s van 8gb!

Erg belangrijk (en groot) verschil.
Mooie uitleg, maar hoeveel textures passen in 32MB ESRAM?

Kan me steeds meer vinden in de opmerking van PuDy :)
Het ESRAM is niet voor textures, er moet meer in het videogeheugen dan alleen textures hoor :p sowieso heb je voor textures niet zo'n enorm hoge bandbreedte nodig.

Ik denk daarnaast dat het je nog zou verbazen hoe klein textures kunnen zijn.
Er wordt een vlinke hoop soorten en verschillende textures in memory pool per frame verwerkt. Dat is veelvoud wat triple chain framebuffer in neemt
Denk eerder aan Anti Aliasing. Extreem veel bandbreedte nodig, maar niet veel MB's. Dus dit kan het eSram mooi verzorgen, terwijl dit bij de PS4 volledige van het RAMGeheugen moet komen.
Textures komen niet in ESRAM te staan, daar zet je je render targets.

Edit: Was makkelijker geweest als je gewoon op mijn reactie had gereageerd, maar goed. Textures zijn een compleet andere resource dan shadow map, render targets en depth targets (light maps horen daar niet echt in het rijtje). Het zijn namelijk resources die onafhankelijk van je positie in de wereld altijd hetzelfde blijven, textures moeten in gestreamed worden en zijn dus van variabele grote. De buffers die ik bedoel zijn van vaste grote en kunnen dus met wat gepuzel in ESRAM gepast worden.

[Reactie gewijzigd door PrisonerOfPain op 30 juni 2013 18:55]

grap is wat MS vooral doet is gebruik maken van de nieuwe Tiled resources API,
waardoor men heel efficient die 32MB gebruikt, (in theorie iig)

als je scherm full hd is heb je in essentie maar 1920-1080 aan texture informatie nodig (in essentie ik ga hier flink kort door de bocht maargoed) dat doet tiled resources dus, alleen in de 32MB zetten wat strikt noodzakelijk is,

shadowmaps/rendertargents/depth targets wat spul voor AA mogelijk vor postprocessing op je frames die er toch al staan etc.

maargoed. we moeten gewoon zien hoe dit uitpakt,
kan prima zijn, of een complete ramp.
We zullen zien wat tiled resources ons brengen.
Grof gezegd: SRAM is hetzelfde als Level3 cache.

Dus als je toevallig een game hebt waar de objecten die je continue hergebruikt, binnen die 32 MB SRAM passen of in dit geval ESRAM, dan hoef je dat niet uit het trage grote gigabytes geheugen te halen en kun je 't snel laden uit de ESRAM.

Zo iets lukt natuurlijk alleen perfect voor benchmarks. Als je echt gaat gamen dan lukt het voor geen meter meer natuurlijk :)
Net als dat de caches van je cpu in de praktijk voor geen meter werken zeker? Het lijkt wel of niemand hier feiten en meningen genuanceerd kan neer zetten.
Het is ook nog eens on_die en samen met cpu en gpu.
Dus ja voor de cpu kan het een L3 cache zijn.

Als esram de framebuffers gebruikt kan rest nog voor andere cpu of gpu taken gebruikt worden.
Je moet de 32mb dan ook niet vergelijken met normaal geheugen, maar eerder als een grote L1/2/3 cache. En die zijn bij de huidige processoren ook nog niet gigabytes groot.
Het nut van L3 cache op huidige CPUs is iets dat je gigantisch onderschat zo te horen. Met een groote van 8-30MB en een latency van 48 cycles op een moderne CPU weegt het absoluut niet op tegen de 300-500 cycles die het duurt om naar RAM te gaan. Verder word het geshared tussen cores. Overigens is ESRAM iets wat primair voor GPU resources is, dus met de L3 cache vergelijken is sowieso niet heel erg van toepassing.
Door mijn bedrijf ontwikkelde game die gebenchmarked worden altijd op de laatste cpu's, is het nut 0% precies.

Nu mag ik niet over alle grote gamebedrijven die beursgenoteerd zijn openlijk spreken, wegens lopende NDA's.

Wel kan ik in 't algemeen spreken.

Bij grote games werkt het zo. De bandbreedte van de RAM is compleet de belemmerende factor. Dus als er dan een L3 tussenzit, dan zorgt dat er alleen voor dat je spel dus TRAGER is, want het zorgt er wel voor dat je extra cycles kwijt bent voor je iets uit het geheugen gehaald hebt, want de KANS dat het in de L3 zit is bijzonder klein.

Bij de eerste quadcore cpu's zag je dat ook, vooral de eerste quadcores van AMD was het goed zichtbaar die extra latency toen ze er een L3 tussenstopte.

Deze ESRAM wordt apart benaderd zo lijkt het.

Echter je moet het hoofddoel niet uit het oog verliezen. De werking van de games is zo dat je dus zaken laadt en dan op het beeldscherm laat zien.

Dat gaat in principe via de RAM.

Op het moment dat je nu dus de zaak hard limiteert tot 32 MB ESRAM heb je 2 keuzes voor de game engine.

Of je brengt een jaren 90 spel uit en je verkoopt geen drol, of je brengt logica aan in je game die checkt of iets eerst in de ESRAM zit en zo niet dan ga je richting de DDR3.

Eerst check je dus of iets in de ESRAM zit. Zo niet dan haal je het op uit het normale geheugen.

Kortom in geval van behoorlijke mispredictieratio dan is de ESRAM dus een belemmering en geen versnelling. Precies net zoals de L3 dat is.

Dus alleen doen alsof het een enorme versnelling is, is niet in alle gevallen zo.

Het checken of je object wel in die SRAM zit daar verlies je ook tijd aan.

Daar komt dan bij dat de bandbreedte dus gewoon stuk trager is dan van de GDDR5.

Overigens de GDDR5 van de AMD 6000 series kon prefetchen. Het is dus niet zo dat je bij de Xbox One iets kunt prefetchen wat je niet bij de PS4 niet kunt prefetchen.

Verschil is dat bij de Xbox One het stuk trager gaat en in sommige gevallen is het enorm trager want dan is er dus een mispredictie in je eigen software logica, wat gewoon EXTRA CODE is en je dus EXTRA TIJD kost, terwijl je het dan ALSNOG uit de trage DDR3 moet halen.

Het is dus dezelfde ellende als met de L3 cache!
Je hoeft mijn niet uit te leggen over de werking van games van "grote gamebedrijven". L3 cache komt vooral je CPU ten goede zodra je data gaat sharen / accessen over meerdere cores. Meeste game code is inderdaad geoptimaliseerd voor L1/L2 access (omdat we vooralsnog geen L3 cache hebben gehad).

ESRAM word niet gebruikt zoals jij zegt / denkt, omdat je daar handmatige controle over hebt. Je zult dus, daar je rendertargets en shadowmaps in willen stoppen. En dan zit je met een CSM met 3 1024x1024 splits al op 12MB, dan wil je d'r het lieft ook nog minimaal 10.5MB aan gbuffers in hebben zitten en dan hou je nog wat over voor je depth buffer (3.5MB) en dan zit je al op 26MB, waar je nog net misschien 1 extra gbuffer in kwijt zou kunnen of een extra split voor je CSM.

Ik bedenk me net dat je wellicht je splits tijdelijk uit je ESRAM kunt halen als je deferred shadow mapping doet. Dan zou je d'r andere data in kunnen plempen (dikkere gbuffers, hogere res, msaa) etc.

Nogmaals, ESRAM is geen L3 cache, het is net als EDRAM voor de 360.

[Reactie gewijzigd door PrisonerOfPain op 30 juni 2013 19:14]

Een hogere resolutie is toch helemaal niet nodig? Hoeveel TV schermen accepteren een hogere resolutie dan Full-HD (1980x1080)?

In de praktijk zal vooral de ervaring van het programmeer team de belangrijkste factor gaan spelen. Op papier hebben wij ook zo'n beetje de beste voetballers ter wereld, maar toch kwamen ze niet verder dan de eerste ronde. In de auto sport wint ook niet altijd de auto met de beste specificaties..

Daarbij zou het mij ook niet helemaal verbazen als de eerste lichting games voor de nieuwe consoles helemaal niet zoveel sneller zijn dan de huidige consoles, want daar wordt nu het uiterste uitgehaald, terwijl men voor de next-gen nog eigenlijk moet gaan beginnen..
Klopt, maar de brekeningen die ik deed gingen uit van 720p, 1080p zal meer geheugen in nemen. Verder kun je ook de shadow maps op een hogere res renderen bijvoorbeeld (al is dat waarschijnlijk niet helemaal nodig). Maar goed, het is gewoon een gepuzzel wat er uiteindelijk in dat geheugen komt te staan.

Verder wacht ik inderdaad de markting campagnes lekker af, al heb ik het idee dat sony er op het moment gewoon heel sterk voor staat.
L3 cache van de huidige processoren is vergelijkbaar met die eSram van de X1 maar niet hetzelfde. De vergelijking met de Xbox 360 is makkelijker, maar ook niet helemaal gelijk.
Feit blijft dat die L3 toch wel wat voordelen brengt, anders hadden ze hem niet toegevoegd ;)
um, naam = hardware addict, beroep = programmeur & opleiding = informatica en jij denkt dat dit gewoon geheugen is ipv cache geheugen? :X
Ja SRAM zit ook op veel processoren tegenwoordig.
Dat heet daar L3 cache.

Dat is stukje snel geheugen. Niet te verwarren met L1 en L2 wat totaal anders werkt.

Op GPU's, ja die programmeer ik ook als spelletjesfabrikant, is het zo dat je dingen dus met de hand moet doen.

Dat maakt het programmeren er voor de Xbox One niet eenvoudiger op.

Daar ik dit keer geen NDA getekend heb voor Sony noch Microsoft kan ik hier openlijk over pennen in dit forum.

Het lijkt me dat Microsoft dit keer zichzelf hard genaaid heeft door met AMD zaken te doen.

Microsoft's insteek is meestal iets neerzetten wat dan 'ongeveer' even snel kan zijn, of net iets trager, of net iets sneller als je wat geluk hebt en je lobbywerk richting zo'n bedrijf werkt ok, maar het wel stevig goedkoper te verkopen.

Die strategie gaat compleet mis natuurlijk op het moment dat je concurrent factor 2 sneller is en het maar de vraag is of je die factor 2 gaat halen en dat het geen factor 4 wordt.

32 MB ESRAM is vrij goedkoop natuurlijk.
@hardwreaddict
Nou daar Ben ik het niet mee eens.
Je kan in bepaalde mate iets langzaams maskeren door snellere buffers.
Cachen.
Dat werkt niet altijd net zo zo effectief maar wel voor de meeste gevallen haal je toch een flinke verbetering.

De voorbeeld is hybride HHD.
Een convetionele harddisk met SSD cache geintergreerd.

Ten eerste hoefd een informaticus geen hardware logic architektuur specialist te zijn. Dus kan net zo goed geen flauw benul van ESRAM hebben. Dat terzijde.

Maar Is het wel een cache. Je kan het ook zien zoals in de xbox360 als een stukje heel snel werkgeheugen met deels eigen compute logic.

Voor De performance hit arme postprocsesing slag. Dat de PS3 niet zo even kan nadoen.

Je verhaal is ook tegen strijdig.
L1 L2 etc zijn allemaal caches. Ze werken iets anders en er zijn verschillende implementaties maar het doel is het zelfde bufferen.

Intel laat met hun grote 256bit caches en grote L3 zien dat het wel degelijk grote invloed heeft op performance. AMD implementatie is wat beperkt, lagere bandbreedte en kleiner.

Maar game engine ontwikkelaars zullen met de tijd deze platformen onder hun knie krijgen.

De kloe van bufferen is dat de software vaak maar een fractie van wat in gehuegen zit op bepaalde tijd nodig heeft. Met slimme memory management en data structure keuses en alignment kan zorgen dat de caches wat minder vaak geflushe worden door cache misses tr mijden.
De eerste games zullen uiteraard nog niet het maximale eruit halen dat komt met de tijd.

Dit ESRAM als werkgeheugen lijktmmij dit voordeel te hebben voor frame buffer.
GPU is op dezelfe chip net als de esram. Daarmee lowlatency. En de gpu out put kan als low latency schrijf actie naar dit werkgeheugen ook snel gebeuren.
De flippingchain pointer verwijst naar de aktieve frame. Ipv een adress in uma geheugen.

Dan nog deze oplossing is MS en de game devs bekend mee xbox360 had het ook al. Ze kiezen er weer voor deze oplossing.
"SRAM zit op veel processoren tegenwoordig" :D *proest*.

De laatste intel processor zonder SRAM was de 80386. Elke CPU daarna had tenminste een L1 cache. Die is altijd in SRAM uitgevoerd; DRAM heeft botweg teveel latency.

Als je formeel bekijkt, dan is de Instruction Queue van de 8088 - een gespecialiseerde vorm cache - uitgevoerd met dezelfde transistoren als een SRAM geheugencel.

"L1 en L2 wat totaal anders werkt (als L3)". Nee hoor. Er zijn behoorlijk wat variaties mogelijk, maar L1, L2 en L3 zegt alleen iets over het aantal cache lagen tussen CPU en main memory. Mijn ASUS P54 moederbord bijvoorbeeld had L2 of L3 cache. Dat hing er vanaf of je er een CPU met L2 cache gebruikte, dan werd de moederbord cache automatisch L3.

Die Instruction Queue van de 8088 is wel fundamenteel anders, die is namelijk intern in de CPU, na de instruction decoder. L1 cache zit voor de instruction decoder.
Was hetzelfde als met de 360 ;) niks nieuws aan de horizon.
ben benieuwd het is ook allemaal een kwestie van programmeren en problemen omzeilen of verhelpen door slimme oplossingen erop bedenken..

al met al zie ik zelf wel wat ik koop (als ik het uberhaupt koop)
ben in ieder geval benieuwd wat deze generatie consoles ons brengt :)
Ik ben ook zeer benieuwd, elke keer komen nieuwsberichten die me weer laten twijfelen, en triggere om naar een bepaalde console te gaan. Dit artikel voelt voor mij weer aan als reclame zoals de laatste 2 maanden wekelijks gebeurt. Ik ben zelf xbox fanaat, maar bij elk PS4 of XBOX ONE artikel ben ik geneigd te twijfelen...

Dit soort artikelen maken mensen als mij ( die maar 1 console in de woonkamer willen ) onzeker, ik zal dus 1-2 maanden wachtten na release om een ''eerlijk'' oordeel te kunnen nemen en mijn aankoop te maken..
Nu is het non stop een wellus-nietus spelletje, heb ik in ieder geval geen zin in:D

Net als nu dat MS verteld positief verrast te zijn dat hun esram 88% hoger ligt qua prestaties dan verwacht... Moet ik dit nu serieus geloven of zoals ik in alinea 1 zeg: als reclame zien?????????
Tja deadlines en optimizen.
Ja er is vaker geen tijdvoor om hele maal optimaal en bugvrij te maken.
Men focust zich dan ook op de critical code sesies. Met profilimg tools zien ze waar in de source er de boel bezig mee is en waar dus winst te behalen valt.
En zo werken ze het lijstje af tot de tijd op is.
Bij de next titels op die engine gaan ze verder met features enook optimalisaties.
Ik koop de console die "blast processing" heeft, nou goed? ;)

Een console koop je om de games, niet om de specs van het apparaat. Als je een game voor een console uitbrengt, draait hij in alle gevallen optimaal. De studio die dat verprutst verdient een draai om de oren.
Dit snelle geheugen moet dus vooral als buffer gaan fungeren voor de GPU. Is 32MB dan niet volledig ontoereikend? Fijn dat je het in minder dan een milliseconde kunt uitlezen, maar daarna moet het weer gevuld worden vanuit het trage DDR3. Staat de GPU alsnog te wachten.
Je gaat niet je hele game in die 32mb stoppen. Het gaat om acties die sneller dan normaal moeten worden ingeladen of uitgeladen.
Nee, je hele game ga je niet in 32MB stoppen. Dat is ook het punt, je kan erg weinig kwijt in 32MB.

En in dit hele verhaal gaan we ervan uit dat programmeurs dit zelf kunnen beinvloeden en dat het OS niet zelf onder water beslist wat gecached wordt en wat niet. Als de programmeurs gewoon tegen directx aan programmeren en het OS onafhankelijk beslist wat in het ESRAM gebufferd wordt, is het maar de vraag wat de uiteindelijke snelheidswinst is.
Ik denk eerder dat esram 32GB als framebuffer gebruikt wordt.
FHD is 2Mega aan pixels x RGBA 4Byte is 8MB x aantal buffers 3 is dat 24MB.

Ik zie eerder dat ze native met de xboxone op FHD willen renderen. Met overscan optie.
Mooi nieuws dit. Hopelijk geeft dit dadelijk ook weer wat snelheidswinst aan de kant van MS.

Helemaal nieuw is eSram trouwens niet. In de Xbox 360 zit de voorloper daarvan (eDram) en daar hebben de programmeurs van diverse grote studio's natuurlijk al ervaring mee.

Ik ben vooral benieuwd wat voor games ze nu nog meer gaan aankondigen. Gamescom gaat erg leuk worden zo, eind augustus :)
Uiteindelijk hangt het allemaal af van wat de developers leren gebruiken. De PS4 heeft het voordeel dat developers de GPGPU computing mogelijkheden later in de cycle zullen leren exploiteren.
Nou met MS en hun C++amp is gpgpu computing zelfs stuk toegankelijker dan cuda of opencl of CS.

Op dit item kan niet meer gereageerd worden.



Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBWebsites en communities

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True