Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 192 reacties, 55.623 views •
Submitter: witeken

De esram-geheugenprestaties van de Xbox One zouden bij de uiteindelijke productie-exemplaren hoger liggen dan waar Microsoft rekening mee hield. Optimalisaties van het 32MB embedded esram-geheugen in de Xbox One-processor zouden voor de snelheidswinst zorgen.

Microsoft had aanvankelijk een snelheid van circa 102GB/s voor het embedded esram verwacht, maar uit metingen met de chips in productie-exemplaren zouden aanzienlijk hogere doorvoersnelheden mogelijk blijken, zo meldt Eurogamer. Snelheden tot 192GB/s zijn theoretisch mogelijk, aldus anonieme developers, circa 88 procent sneller dan eerder werd gedacht.

De snelheidswinst in de soc van de Xbox One zou mogelijk zijn doordat is gebleken dat de chip gelijktijdig uit het esram kan lezen en schrijven door lege cpu-cycles beter te benutten. Dit is met name nuttig voor de geïntegreerde grafische kern. In de praktijk zou dankzij doorgevoerde optimalisaties de geheugensnelheid schommelen rond de 133GB/s wanneer gebruik wordt gemaakt van zogeheten alpha transparency blending-operaties.

Met de mogelijke snelheidswinst die Microsoft zou kunnen boeken, lijkt de Xbox One terrein terug te winnen op de PlayStation 4. De console van Sony maakt voor het reguliere werkgeheugen gebruik van 8GB gddr5-geheugen, dat draait op 5500MHz, en zou goed zijn voor een snelheid van 176GB/s. De Xbox One moet het doen met 8GB ddr3-werkgeheugen op 2133MHz. Uit eerdere metingen zou zijn gebleken dat de Xbox One langzamer zou zijn dan de PS4.

Binnenkant Xbox One

Reacties (192)

Reactiefilter:-11920168+1117+213+30
Moderatie-faq Wijzig weergave
Volgens Mark Cerny, lead architec ps4, zouw een 32MB embedded esram 1000gb/s + moeten doen, theoretisch dan.

Hoe dan ook een zeer intresent filmpje, verder legt hij uit waarom ze hebben gekozen voor vaste Ram en geen esram, bij playstation.

vanaf 39min : http://www.youtube.com/wa...mbedded&v=JJW5OKbh0WA
Ja theoretisch het hangt van de implementatie van de hardware boer.
Ze komden toen nog voor intel gaan en hun edram esram. Of ibm edram esram oplossing.

Gezien xbox360 een andere tech edram van ? Ibm. Los of ook ondie?
Vs ondie amd esram?

Vervuld het ook exact dezelfde rol?
Zelfde rol, zit al sinds de eerste versie onder de heatspreader, en sinds de Slim-edition on-die.

En het maakt niet uit wie het product maakt , want het word gemaakt naar specificaties die een fabrikant(in dit geval microsoft oplegt), en het moet daar aan voldoen. Dat de ene fabrikant kwalitatief beter is dan een andere heb je alleen buiten je garantie iets aan, je koopt een xbox, niet de som van zijn onderdelen.
ja, maar alleen voor kleine hapjes aan code.. (en tijdelijke programma's/tasks)
je moet dus kiezen en dingen opgeven in je game, je kan niet gewoon 2GB aan texture data gebruiken zonder een gigantische performance hit te krijgen (als je de edram niet wilt gebruiken)

[Reactie gewijzigd door stewie op 30 juni 2013 17:59]

Dit is omdat Sony kwaliteits edram zou gebruiken. De Edram is de Xbox One is slechter als die in de X360, die had een bandbreedte van 256GB/s
Heeft iemand zich al afgevraagd waarom het 88% snelheidswinst oplevert tov de oorspronkelijke specs?

Op Neogaf zoemde het namelijk al rond van de slechte yield die MS haalt door de ESRAM die op de die moet van de SoC. Daardoor is te verwachten dat de 800 MHz bijgesteld gaat worden naar 750 MHz. Dus inclusief de verlaging van de overall snelheid, maar tweemaal is het een winst van 88%...

http://m.neogaf.com/showthread.php?t=606971

Not possible. Because that means the GPU clock rate is doubled (Calm your shit Kotaku, I'm using this as an example). They are saying they are doing a read AND write at the same time. So it "doubles" the bandwidth... (102x2 = 204GB/s)

Except they said 88% increase... = 192GB/s... but... where the fuck did that number come from? Why wouldn't it be able to be a 100% increase? Well... because you'd have things trying to right and read to conflicting spots at the same time.

So that's why they say "realistically" it's 133GB/s....

But wait... if the 88% increase isn't account for those conflicts and data misses... then how did they make up that number?

So...currently.. they say:
128 (bit) x 800 (clock rate) = 102.4GB/s
Well.. downclocking the GPU from 800 to 750 (going down 50) will get you...
128 (bit) x 750 (clock rate) = 96GB/s
Double that since they are saying you can read/write at the same time...
96 x 2 = 192GB/s

So... several of us are thinking this 88% thing is just a bullshit number they came up with after changing around their GPU clock and "double accessing" the RAM.
Ik denk dat ik Esram nog niet helemaal snap maar als je iets wat veel sneller is dan iets anders aansluit op iets wat langzaamer is kan het toch nooit zijn snelheid behouden?
Het ESRAM is eigenlijk een groot en snel cache gedeelte van de CPU/GPU binnen de Xbox One; hierin worden alle game onderdelen geladen die vaak, snel of abrupt nodig zijn. Je hebt in basis gelijk met zeggen dat een keten zo langzaam is als de traagste schakel in de keten, dus wat dat betreft verhoogt de ESRAM op zichzelf de performance van de hele keten niet, maar er zitten echter wel wat slimme trucs in de software kant van het verhaal.

Versimpelde weergave
Stel je voor dat je in een spel door een gang loopt, op een deur af, en jouw missie is om die deur te openen en de volgende ruimte in te stappen. Een console dient dan de huidige textures en gang op het scherm te tonen (geladen te hebben) en zodra de deur opengaat de kamer erachter te laden en tonen. Voor de PS4 gebeurd dit laden uit het GDDR5 geheugen met 176GB/s (ook hier zullen software optimalisaties inzitten, maar laat ik even achterwegen) en bij de Xbox One uit DDR3 geheugen op 2133MHz (68.3 GB/s). Echter, de software van de Xbox One (theoretisch!) kan anticiperen dat jij door die deur gaat lopen en een deel van de textures alvast in het ESRAM zetten; zodra de deur dan opengaat kan de Xbox One de volgende ruimte met 133GB/s (of misschien zelfs 192GB/s) uit het ESRAM trekken.

Dat het laden van de textures van het DDR3 geheugen naar het ESRAM dan langer duurt, is in praktijk niet meer zo belangrijk, de perceived speed is gelijk aan die van GDDR5.

@xian05 Afhankelijk van de software optimalisaties is het inderdaad mogelijk dat de praktische doorvoer op de Xbox One 133GB/s is (theoretische doorvoer 192GB/s). Voor de PS4 is het theoretisch 176GB/s, ik heb nog geen praktijkcijfers voorbij horen/zien komen.

@Martinspire Er zijn inderdaad meer opties voor het ESRAM; ik ben erg benieuwd naar uiteindelijke implementatie van alles, tot die tijd zijn we (ondanks zelfde processor) nog steeds de beschrijving van appels met die van peren aan het vergelijken.

@PrisonerOfPain Je hebt gelijk, maar het is voor het voorbeeld wel makkelijker. Quote: "Microsoft tells developers that the ESRAM is designed for high-bandwidth graphics elements like shadowmaps, lightmaps, depth targets and render targets."

[Reactie gewijzigd door KilZone op 30 juni 2013 18:30]

Mooie uitleg, maar hoeveel textures passen in 32MB ESRAM?

Kan me steeds meer vinden in de opmerking van PuDy :)
Het ESRAM is niet voor textures, er moet meer in het videogeheugen dan alleen textures hoor :p sowieso heb je voor textures niet zo'n enorm hoge bandbreedte nodig.

Ik denk daarnaast dat het je nog zou verbazen hoe klein textures kunnen zijn.
Er wordt een vlinke hoop soorten en verschillende textures in memory pool per frame verwerkt. Dat is veelvoud wat triple chain framebuffer in neemt
Denk eerder aan Anti Aliasing. Extreem veel bandbreedte nodig, maar niet veel MB's. Dus dit kan het eSram mooi verzorgen, terwijl dit bij de PS4 volledige van het RAMGeheugen moet komen.
Textures komen niet in ESRAM te staan, daar zet je je render targets.

Edit: Was makkelijker geweest als je gewoon op mijn reactie had gereageerd, maar goed. Textures zijn een compleet andere resource dan shadow map, render targets en depth targets (light maps horen daar niet echt in het rijtje). Het zijn namelijk resources die onafhankelijk van je positie in de wereld altijd hetzelfde blijven, textures moeten in gestreamed worden en zijn dus van variabele grote. De buffers die ik bedoel zijn van vaste grote en kunnen dus met wat gepuzel in ESRAM gepast worden.

[Reactie gewijzigd door PrisonerOfPain op 30 juni 2013 18:55]

grap is wat MS vooral doet is gebruik maken van de nieuwe Tiled resources API,
waardoor men heel efficient die 32MB gebruikt, (in theorie iig)

als je scherm full hd is heb je in essentie maar 1920-1080 aan texture informatie nodig (in essentie ik ga hier flink kort door de bocht maargoed) dat doet tiled resources dus, alleen in de 32MB zetten wat strikt noodzakelijk is,

shadowmaps/rendertargents/depth targets wat spul voor AA mogelijk vor postprocessing op je frames die er toch al staan etc.

maargoed. we moeten gewoon zien hoe dit uitpakt,
kan prima zijn, of een complete ramp.
We zullen zien wat tiled resources ons brengen.
Dus bij de Xbox One zal het in de praktijk meer rond de 133GB/s zijn?

Is dan de 176GB/s bij de ps4 ook de (waarschijnlijke) praktische snelheid of theoretische snelheid?
Het is maar de vraag of het voor textures gebruikt gaat worden en niet voor de frames zelf.

Overigens is de 176gb/s bij de PS4 dus de theoretische maximum. Bij de X1 is dat 192, waarvan 133 nu in de praktijk gehaald is.
Bij de Xbox One is het geen 192, dat is te simpel gesteld. Het haalt in het optimale geval 192GB, maar dan slechts tijdelijk. Zie het meer als een Cache-SDD voor je harddisk; De Harddisk prestaties zullen omhoog gaan, soms zal het als een SSD aanvoelen, soms ook niet.

Datzelfde ga je nu ook zien met dat Esram. Ze zeggen tegelijkertijd dat het gemiddelde zo rond de 133GB/s zal liggen, ey, dat is al een stuk minder dan de 192GB/s en dat geld nog steeds slechts voor een klein beetje geheugen.

Ze winnen wellicht terrein terug, maar in het best-case scenario (voor beiden) blijven ze qua geheugenbandbreedte nog steeds zo'n 30% overall achter.

Alle reviewers beamen ook dat het lastiger/complexer is om dat ESram goed te benutten en er dus max. prestaties uit te halen. Alle mooie verhalen hieronder dat Esram heel veel gaat bijdragen neem ik dan vooralsnog met een korreltje zout.
Laten we de benchmarks maar eens afwachten, maar ik voorspel nu al; het kan weleens tegenvallen.

[Reactie gewijzigd door Madrox op 1 juli 2013 13:56]

Bij de X1 is de theoretische maximum 192 gb/s van 32 mb. Van de PS4 is het theoretisch maximum 176 gb/s van 8gb!

Erg belangrijk (en groot) verschil.
Grof gezegd: SRAM is hetzelfde als Level3 cache.

Dus als je toevallig een game hebt waar de objecten die je continue hergebruikt, binnen die 32 MB SRAM passen of in dit geval ESRAM, dan hoef je dat niet uit het trage grote gigabytes geheugen te halen en kun je 't snel laden uit de ESRAM.

Zo iets lukt natuurlijk alleen perfect voor benchmarks. Als je echt gaat gamen dan lukt het voor geen meter meer natuurlijk :)
Net als dat de caches van je cpu in de praktijk voor geen meter werken zeker? Het lijkt wel of niemand hier feiten en meningen genuanceerd kan neer zetten.
Het is ook nog eens on_die en samen met cpu en gpu.
Dus ja voor de cpu kan het een L3 cache zijn.

Als esram de framebuffers gebruikt kan rest nog voor andere cpu of gpu taken gebruikt worden.
Zie het eerder als buffer- of cachegeheugen.
Theoretische nummers vergelijken heeft geen zin, kijk maar naar current-gen hardware.

De Xbox 360 had ondanks slechtere hardware betere prestaties bij multi-platform games.
Dat kwam simpel weg omdat de games werden developed op de Xbox 360 en vervolgens gepord werden naar ps3 en pc (blijkend uit de native support voor xbox 360 controllers in games)
Dit is gewoon weg niet waar, de hele reden waarom de PS3 zo veel slechter was de cell architectuur en het feit dat de GPU die er in zit niet voor de PS3 was ontwikkeld. Daarnaast had de 360 een unified memory architecture en de PS3 niet. Hierdoor kon je dus Sysmem resources delen met de GPU op een 360, op de ps3 moest je van sys->vram kopieren.

Daarnaast was de 360 makkelijker om voor te programmeren omdat het symetrical multithreading bevate en de PS3 niet. Symettrical multithreading is wat in supercomputers wordt gebruikt om alle cores aan te kunnen spreken, hier is dus veel meer ervaring mee.

De PS3 zou sneller zijn geweest als je alles in sequence en parralel zou kunnen uitvoeren, waarbij alle SPU's een taak na elkaar uitvoerden. Dit kan gewoon weg niet, en levert zelfs problemen op bij het ontwikkelen van een spel.

Daarnaast was 4x MSAA ongeveer gratis op de GPU in de 360 dankzij het 10MB EDRAM geheugen, op de PS3 zit vaker niet meer dan 2x MSAA en dat merk je behoorlijk.
4x MSAA was alleen goedkoper bij een forward renderer, zodra je deferred renderd zit je EDRAM gewoon vol met render targets. 2x MSAA op de PS3 is iets wat het tot redelijk ver in de cycle heeft volgehouden maar is daarna vervangen door MLAA op de SPU omdat dat async tijdens het volgende frame kon. Het ESRAM wat er nu ligt zou prima dezelfde problemen kunnen krijgen zodra we meer gbuffers voor rendering gaan gebruiken.
De enige zwakte van de PS3 is de moeilijke programmeerbaarheid.

Al die "problemen" die jij noemt kan je omheen werken.

De PS3 kan heeft nog wat potentieel over mits je er alles uit kan halen door goed te programmeren.
De PS3 viel kwa hardware "programmeerbaarheid" enorm mee ten opzichte van de generaties die er voor kwamen, het was zeker niet zo makkelijk als de 360 maar goed daar heb je professionals voor die daar mee om kunnen gaan. Het zwaktepunt van de PS3 was gewoon de GPU en het non-unified geheugen. Een hoop van de taken van de GPU zijn daarom ook in de loop van tijd naar de SPUs verhuist simpelweg om daar meer plaatst te maken. Verder zijn mensen dingen in het GPU geheugen gaan stoppen die daar niet echt hoorden (audio, streaming pools) om zo maar het main geheugen vrij te houden voor andere dingen.
Das niet waar Mark Cerny (lead systemarchitect voor de ps4) had het bij de Ps3 over een ''Time to triangle" (tijd die het duurde om een werkende engine te krijgen) van 6-12maanden voor de Ps3 itt tot de 3-6 maanden bij PS2 en 1-2maanden voor de PS1 en PS4.

Kan je hier terugkijken: https://www.youtube.com/watch?v=xHXrBnipHyA aanrader!
Marc Cerny is wat betreft PS4 uitspraken gewoon een PR-mannetje van Sony. PrisonerOfPain heeft volgens zijn bio ervaring met game development voor de PS3 en vind ik daarom een betrouwbaardere bron.
Mark Cerny is heel wat meer dan maar een PR mannetje, en ik wil hem mij best ongelijk laten geven :)
Verder zijn mensen dingen in het GPU geheugen gaan stoppen die daar niet echt hoorden (audio, streaming pools) om zo maar het main geheugen vrij te houden voor andere dingen.
nou, echt niet thuis hoorden? een echte developer gebruikt elke stukje van de hardware voor wat men het kan gebruiken ongeacht de originele bedoeling, dus als het ze daarmee lukt om nog meer uit de PS3 te krijgen zijn ze dus goed bezig ;) en DAT is nu de kracht van consoles, omdat developers veel langer de tijd krijgen om de hardware echt te leren kennen in tegenstelling tot bij PC's waar de hardware vaak eigenlijk zwaar onbenut blijft omdat er toch wel weer snellere varianten binnen een paar maanden tijd op de markt komen, EN doordat er bij drivers met zoveel configuraties rekening gehouden moet worden..

maar je hebt gelijk, het grootste probleem met de PS3 is het geheugen, ik begrijp ook nog steeds niet waarom ze zich indertijd zo beperkt hebben op het geheugen (gelukkig zijn ze daar dit keer op teruggekomen), 256MB extra had een wereld van verschil kunnen betekenen maar de prijs nog steeds niet aanzienlijk doen stijgen (op langere termijn), maargoed, de hardware had sony toen al meer gekost dan dat ze op gerekend hadden..
De PS3 was gewoon sneller en "beter". Alleen was het moeilijker om ervoor te programmeren en die moeite nemen de ontwikkelaars niet. Al helemaal niet voor een multiplatform game.
blijkend uit de native support voor xbox 360 controllers in games
Dat is alleen maar omdat sony geen pc drivers maakt en microsoft wel...
dat was vooral omdat xbox de betere hardware had. De GPU was beter dan deze van de PS3 en de Cell was zo non-conform dat eigenlijk enkel first party ontwikkelaars zoals naughty dog zich hierin volledig hebben bekwaamd
Dat is dus niet 'beter', maar 'meer conform'. Het was simpelweg makkelijker. Puur naar de hardware kijkend was/is die van de Ps3 superieur aan de xbox360. Maar, 'beter' wint niet altijd...
Daarom is Sony daar met de PS4 ook van terug gekomen, en zit iedereen weer netjes in het PC architectuur-stramien. (behalve Ninti, maar die is nu eenmaal altijd afwijkend :-) )
dat draagt toch niets af aan de spelervaring op de xbox 360? wat je noemt is gewoon nog een factor die bepaald of een spel vlot loopt of niet.
Wat bedoel je precies?
Dat wanneer je 2 platforms hebt en er in de eerste instantie een aantal games ontwikkeld worden voor platform A, en deze code later geport word naar platform B met als resultaat dat het op B minder goed draait, dat niet wegneemt dat A een betere speel ervaring biedt omdat de software beter loopt.

[Reactie gewijzigd door ErwinPeters op 30 juni 2013 21:51]

Dit kwam vooral omdat er voor de 360 werd ontwikkeld. Kijk bijv. naar KZ3 en halo. Killzone zag er een paar jaar terug al beter uit als je de laatste halo en het zelfde geld voor uncharted en last of us. Geen een 360 spel zag er zo "goed " uit.
punt was ook dat die 2 consoles veel dichter bij elkaar lagen,
en dat de GPU van de 360 geavnaceerder en ensller was,
en de CPU van de PS3, de 360 1 gedeelde geheugenpool had en de ps3 niet.
vooral kwam het er op neer dat in de eerste jaren de PS3 te moeilijk was, (dit is ook toegegeven door Sony) dit zorgde voor een zwakke lineup en zorgde ervoor de 360 lead platform werd voor de games...

Kortom de ps3 is alleen sneller als je echt moeite deed om er iets mee te doen.
Nu zijn er 2 nagenoeg identieke architecturen, en strikt genomene heeft de 360 nu meer bandbreedte, maar dat is maar voor 32 mb en met 16 GB/s


dat is niet een enorm verschil, echter de rest van het geheugen heeft de PS4 een 107,7 GB/s voorsprong. dat is wel een flink getal verder is de GPU in de PS4 is 50% sneller,
en de rest is gelijk.
Wederom het verschil ga je wss vooral zien in exclusives, maar gezien de architecturen zo vergelijkbaar zijn kan je zeker verwachten dat de PS4 wel dingen gaat krijgen als betere post processing, meer particles (toch extra gpu over) hogere PFS, etc.
oftewel geen betere modellen (want het moet draaien op de lowest common denominator, maar wel andere features die extra GPU tijd kosten maar geen artist creatie tijd.

Maargoed laten we nu maar eens wachten tot de systemen af zijn, met Tiled resources zou Microsoft die 32 MB wel eens heel efficient kunnen gaan gebruiken, so who knows...
maar in dit geval lijkt er een relevanter verschil te bestaan alleen gebaseerd op de GPU al.
Waar haal jij vandaan dat de GPU 50% sneller is in de PS4? Graag een bron.

Waarom wordt een simpele vraag weggemod?

[Reactie gewijzigd door Frustus Maximus op 30 juni 2013 18:40]

hier een bron: http://www.extremetech.co...he-hardware-specs-compare

Xbox one > HD7790 performance
PS4 > HD7870 XT performance

http://www.trustedreviews.com/opinions/xbox-one-vs-sony-ps4
Ongeveer 50% snellere gpu PS4 (zie "gpu and ram")

The PS4, in comparison, has an 8-core Jaguar AMD CPU, with a GPU that’s around the same level as the Radeon 7870 (which is significantly more powerful than the 7790). The PS4 has 8GB of GDDR5 RAM, providing 176GB/s of bandwidth to both the CPU and GPU. The Xbox One mostly ameliorates this difference with 32MB of high-speed SRAM on the GPU, but it will be a more complex architecture to take advantage of.
http://www.itproportal.co...-hardware-specs-stack-up/

[Reactie gewijzigd door Madrox op 30 juni 2013 19:36]

Extremetech heeft het daar toch echt aan het verkeerde eind, de 7790 is qua shader aantal misschien wel vergelijkbaar aan de Xone, maar qua geheugenbandbreedte totaal niet. Een beter vergelijking zou zijn HD7850 vs HD7870, twee GPU's met dezelfde architectuur alleen minder shaders op de HD7870, dit is ook precies wat er bij de Xone aan de hand is, 33% minder shaders als de PS4.

Lees maar eens een gedailleerde vergelijking.
Begrijp niet goed waar je heen wil:

System Memory Bandwidth 22.4 GB/s 68.3 GB/s 176.0 GB/s
Wederom scoort de PS4 hier het hoogst. Wel heeft de Xbox One 32MB Esram, maar in hoeverre dat het gat gaat dichten is zeer de vraag.

Het gaat dus verder dan een simpel HD7850 vs HD7870 vergelijk.

Hieronder, dat is dus maar zeer de vraag, daar het systeemgeheugen van de PS4 ook al veel sneller is dan de Xbox One.

[Reactie gewijzigd door Madrox op 1 juli 2013 02:19]

De PS4 presteert gelijk aan een HD 7850 (1,7 TFLOP vs 1,8 TFLOP).
Wat betreft de Xbox One heb je wel gelijk.

Een HD 7870 doet 2,5 TFLOP en een 7870XT doet zo'n 2,8 TFLOP.

Overigens is het aantal TFLOPS en de daadwerkelijke graphics in een game geen lineair verband.
Ey, ik geef alleen maar bronnen weer, wie er gelijk heeft weet ik niet maar daar was ik niet naar op zoek. Iemand vroeg bronnen, veel plezier ermee :)
Ja dat heb ik ook ergens gelezen. En eigenlijk wel logisch.

Ms gaat voor esram waar sony gaat voor sneller ram en daarme ipv esram meer shader cores in dezelfde diespace kwijt kan.
Sony heeft ook nog eens 7GB mem effectief beschikbaar vs de 5GB was MS heeft.

Maar ja het is geen hemelsbreed verschil het is toch wel subtiel. Ben eerder naar het praktische verschil..Dat kan je dan het beste zien aan de hand van cross dev games.
Alleen nadeel crossdev behoud men vaker de experience per platform gelijk aan de meest gemene deler. Al het extra wordt vaker niet gebruikt.
Sony is voor meer shaders gegaan en MS voor eSram. Geheugen is door Sony later pas op 8gb GDDR5 gekomen, waar ze eerst uitgingen van 4gb.

En over hoeveel geheugen effectief beschikbaar is, moet nog blijken. Die 7vs5gb gaat over een dev-kit uit februari. Kan nu helemaal anders zijn. De kans is groot dat het OS van de PS4 lichter is, maar die van de X1 is dan ook uitgebreider.
Je gezwets raakt helaas kant noch wal. Misschien volgende keer maar wegzappen voor je begint te schrijven.
Hahahha wtf heb je gerookt man :D
Ook al heeft de PS4 een snellere GPU, er zullen altijd scenarios zijn waarin de Xbox One beter zal presteren omdat sommige games of scenes in games zullen profiteren van de ESRAM.

Dat is in alle computer architecturen het geval.

Er zijn altijd applicaties die beter presteren op een specifieke soort hardware.
Exclusives zijn ook niet echt te vergelijken qua hardware, buiten 'wat ziet er mooier uit'.

Uiteindelijk zal het rond de crossgames gaat zitten, Fifa, BF4 (met PC erbij), games die aan beide kanten uitgebracht worden en 1 op 1 kunnen worden vergeleken. GTA4 op de huidige consoles was een mooi voorbeeld.
Het zijn JUIST de exclusives die de kracht van een console laten zien, zeker tegen het einde van de levensduur van de consoles..
Bij multiplatform games zou het alleen zo zijn als men ook echt goede aandacht besteedt om de game op elke platform optimaal te laten draaien, maar dat gebeurd zelden omdat het gewoonweg teveel geld kost..
Zolang het exclusieve titels zijn blijven de grafische prestaties lastig vergelijken tussen de verschillende consoles. Met de Xbox One en PS4 is dat niet anders, zoals SinergyX al aangeeft kun je in de praktijk alleen vergelijken met hulp van crossgames.
Ik vond Crysis 3 en Gears of War Judgement er anders ook prima uit zien op de Xbox 360 hoor? Halo 4 was overigens ook niet slecht, maar had vaak wat saaie omgevingen.

Toch kun je niet ontkennen dat het merendeel van de multi-platform games (de games die doorgaans toch het meest verkopen ondanks platform) er op de 360 beter uitzagen of vloeiender op draaien.
Niet helemaal, vergelijk 3 spellen van de ea-stal
Fight night is een pareltje op de xbox tov ps3
Madden en nhl zijn daarin tegen mooier op de ps3
Vergeet de games op Frostbyte trouwens niet. Zowel NFS als Battlefield 3 draaien beter (of in ieder geval op een hogere resolutie) dan op de PS3.
Al ooit een PS3 exclusive vergeleken met een 360 exclusive? De 360 geeft echt geen betere prestaties dan de PS3. Enkel bij multiplatform games is dat zo maar dat ligt enkel aan de ontwikkeling (Lees: slechte port).
Ja dag. Exclusives kun je juist niet met elkaar vergelijken omdat er simpelweg verschillende teams met verschillende budgetten werken. Je zult er nooit achter komen hoe een uncharted er op de 360 uit zou zien en een Gears op ps3. Het enige vergelijkingsmateriaal dat je hebt zijn juist multiplatform games, en om nou te zeggen dat ps3 multiplatform games er slechter uitzien/slechter draaien omdat het allemaal slechte ports zijn is gewoon dom.
Dit is gewoon een desperate bericht van Microsoft in de hoop dat het snellere geheugen van de PS4 te kunnen beconcureren met marketing.
Het geheugen mag dan wel sneller zijn dan verwacht, maar het is nogsteeds slechts 32MB tegenover de volledige 8GB van de PS4 die slechts 7% daar onder presteerd. Die 32MB is ook nogsteeds afhankelijk van de 8GB "traag" geheugen in de Xbox one.
Leuk marketing verhaal, grappig dat zelfs tweakers er in stinken, maar dit gaat er niet voor zorgen dat de xbox one sneller gaat zijn dan de PS4.
De 360 had ook gewoon een krachtigere GPU. De hardware van die twee ging gewoon vrijwel gelijk op (waarbij voor de PS3 heel lastig te developen viel), nu is dat niet meer het geval. De PS4 is toch flink krachtiger, gaan we zeker merken.

[Reactie gewijzigd door Wolfos op 30 juni 2013 21:19]

Theoretisch nummers vergelijken heeft weldegelijk zin omdat de architectuur van de Xbox One en PS4 heel veel op elkaar lijken. Bij de Xbox 360 en PS3 was het is niet zo.
Gaan we nou alweer trollen?

PS3 heeft Cell-processors tegenover de PowerPC van de xbox360. Het kost meer moeite en tijd om voor de PS3 te schrijven dan voor de xbox360.

Nu hebben ze allemaal x86_64 processors. Dus nu is het niet meer appels met peren vergelijken. Alleen gebruiken ze weer andere type geheugen, dus dat is het enige wat verschilt. Dus nu kunnen we daadwerkelijk zien ( als de game-developers zin hebben) welke type geheugen beter is voor gamen!
Ik denk persoonlijk dat geheugen behoorlijk overrated is. Ja, dat van de PS4 is sneller, maar vergeet niet dat Microsoft dus het ESRAM heeft want nóg weer sneller is. Ik had begrepen dat dit vooral zeer nuttig kan zijn bij dingen zoals anti aliasing. Hierdoor spaar je dus ook al een hoop bandbreedte uit richting het RAM van de Xbone. Daarnaast is de latency van DDR3 lager, waardoor het Xbone-geheugen sneller zal zijn bij het gebruik als systeemgeheugen ipv videogeheugen.

Maar volgens mij is het verschil in GPU prestaties veel belangrijker. De Xbone heeft een GPU die 1,2 TFLOPS uitpoept en de PS4 heeft er een die 1,8 TFLOPS aankan. Dat is een enorm verschil en dat is de reden waarom de PS4 beter is. De snelheid van het geheugen is denk ik niet enorm belangrijk.

Overigens zijn de specs voor de next-gen consoles abonormaal laag voor next-gen systemen. Waar de PS3 nog een enorm snelle serverprocessor had en de X360 de snelste videokaart bevatte van die tijd, krijgen we nu twee consoles met een opgefokte tabletprocessor en een zeer average videochip (HD 7790/7850). Een kaart als de GTX 770/HD7970 is krachtiger dan alle drie de next-gen consoles bij elkaar...

[Reactie gewijzigd door Richh op 30 juni 2013 17:11]

De snelheid van het geheugen is toch wel echt het belangrijkste; het is de laatste jaren de primaire bottleneck bij iedere game. De cycle-counts maakte al jaren niet meer uit (behalve op de SPUs want... daar was je LS praktisch gratis). Het feit dat al het geheugen in de PS4 bloedsnel is gaat het verschil maken.

Verder was het gemiddelde huishouden ook niet blij geweest met een 770 of een 7970 in je console, want die machines eten bakken met stroom. Men heeft deze generatie een stuk meer naar performance per watt gekeken dan daarvoor.
Geheugensnelheid was helemaal niet de bottleneck (hell, de PS3 had sneller XDR-RAM, sneller dan het huidige GDDR5...), de geheugengrootte was het probleem. Dat is met 8GB wel opgelost, of dat nou DDR3 of GDDR5 is.

Overigens, stel jouw case: dat iets voorheen de primaire bottleneck was, betekent helemaal niet dat het deze generatie ook een primaire bottleneck blijft. Wie zegt dat DDR3 dan nog niet genoeg is, zeker gecombineerd met ESRAM? GDDR5 is een overkill, getuige de kleine geheugenbus van 256 bit.

Nintendo heeft ook gekeken naar de performance per watt verhouding gekeken, en dat is ze op veel core-gaming fora niet in dank afgenomen. Daarnaast vind ik het ook een raar argument:
- De eerste PS3 Fat had een Cell CPU met een TDP van 110 watt en een 7800GTX met een TDP van 108 watt. Dat is samen 218 watt. Daadwerkelijk gebruik lag ook rond de 200 watt. En daar had niemand problemen mee.
- De PS4 heeft een HD 7850 met een TDP van 110 watt en een processor van 30 watt (2x 15w). Dat is samen 140 watt.
- Een HD 7950 met dezelfde processor zou samen 230 watt zijn, iets wat makkelijk mogelijk moet zijn met de (eveneens verbeterde) koelingstechnieken die vandaag beschikbaar zijn.

[Reactie gewijzigd door Richh op 30 juni 2013 20:16]

Je zult mij niet horen zeggen dat geheugen snelheid de grootste bottleneck van het systeem is. Maar het is de bottleneck van praktisch iedere C++ functie die er geschreven word. Dat het geheugen de snelste van z'n generatie is maakt het alleen maar minder erg ;)
Denk dat ze allebei die 7970 wel gewild hadden, maar 'm gewoon niet onder de 100 dollar per stuk konden krijgen.

Microsoft lijkt iets te willen bouwen wat ze rond de 70 dollar aan productiekosten gaat kosten per Xbox One en Sony een paar tientjes daarboven, maar niet veel.

De verkoopprijs is een economische verkoopprijs. Je moet het heel goedkoop inslaan anders kun je nooit meer zakken met je prijs als je concurrenten gaan stunten en natuurlijk hoofdreden is meer winst per console :)
Met een blu ray erin en een controler erbij zal het wel iets meer zijn dan 70 dollar aan productiekosten
Nou als games overwegend gpu afhankelijk zijn en gpu meer bandbreedte afhankelijk tenzij het voor die resolutie geen flessehals is. Is latency niet het probleem.
De cpu heeft ook caches. Dus latency gaat grotere rol spelen in de cpu belasting als er vaker cache misses zijn. Dit is deels met memory management en alignment van data structuren op te lossen.

Ik verwacht dus dat de meer GPU afhankelijke games het goed doen op de PS4.
Ik verwacht dat games die wel wat cpu afhankelijk zijn en complexe datastructuren gebruikt vele malen groter dan L2/L3 caches. Dat dan xbone well de ps4 kan bij houden. In andere gevallen extreme zelfs voorbij kan gaan.
Vraag blijft of de snelheid van het geheugen bij de X1 eigenlijk wel de bottleneck gaat worden. Die bij de PS4 ligt inderdaad hoger, maar het hangt er net vanaf of ze niet last hebben van andere problemen (dat de GPU toch wat te langzaam is of dat de Processor met teveel andere zaken bezig is).
Overigens zijn de specs voor de next-gen consoles abonormaal laag voor next-gen systemen. Waar de PS3 nog een enorm snelle serverprocessor had en de X360 de snelste videokaart bevatte van die tijd, krijgen we nu twee consoles met een opgefokte tabletprocessor en een zeer average videochip (HD 7790/7850). Een kaart als de GTX 770/HD7970 is krachtiger dan alle drie de next-gen consoles bij elkaar...
Ik denk dat het abnormaal lage wel meevalt. Als je kijkt naar 2006 toen de PS3 launchde. Men had toen Athlon 64 chips, 3 jaar later kwam de Core i van Intel, gigantische performance boost ineens. Ook de GPU's zijn van 8600GT's via GTX260's naar 660's gegaan. Dat zijn immense sprongen. Nu van Sandy-Bridge naar Ivy-Bridge en van Ivy-Bridge naar Haswell. Dit waren geen grootse sprongen in performance, dit zal denk ik ook niet veranderen als we naar Broadwell of Skylake kijken. Gewoon 5 á 10 procent performance voor minder stroom. Dus wat ik probeer te zeggen is dat het niet nodig is om GTX770's en Xeon's in de consoles te doen want die zullen over 6 jaar nog steeds een high-end pc bij kunnen houden. Als toch alles geoptimaliseerd wordt dan is een 'Opgefokte tabletchip' met een HD7790 een goede keuze om zo de prijs wat betaalbaarder te houden.
Conclusie, de hardware zal over 6 jaar nog steeds wel oké meegaan en niet zo achterlopen zoals de PS3 en Xbox 360 nu doen. Dit komt dus doordat de nieuwe generaties elke keer maar een klein beetje sneller zijn t.o.v. vorige generaties.
Ik denk juist het tegenovergestelde. In voorgaande consoles van MS en Sony zat altijd de allernieuwste hardware, en je ziet dat die (natuurlijk) na 8 jaar wel flink achter begint te lopen.

In deze generatie loopt de hardware zelfs voor de release al flink achter, moet je voorstellen hoe het er over 8 jaar uit ziet...
Toen ging de PC-hardware ook sneller. Nu is er bij elke generatie een klein verschil en verouderen de consoles dus ook langzamer. In ieder geval, zo zie ik het veranderen.
Zolang de Wet van Moore nog stand houdt, is het juist zo dat de beschikbare rekenkracht van een chip nog sneller evolueert, in plaats van langzamer. En voor zover ik weet houd de Wet van Moore nog altijd stand, ook de laatste generatie, en ik verwacht ook de komende generatie.
Ik denk dat juist omdat consoles zulke geoptimaliseerde games zullen krijgen je het verschil juist niet zal merken over 8 jaar.

Over 8 jaar zullen games waarschijnlijk net beginnen met het optimaal benutten van quad core CPU's en 64 bit.

En zelfs dan zal het niet even optimaal zijn als een console en die hebben dus 8 64 bits cores en een GPU waar de developers alles uit kunnen trekken.

Terwijl er op de PC's Direct X 11 games nog niet eens gemeengoed zijn.

[Reactie gewijzigd door Dark_man op 1 juli 2013 05:16]

wishfull thinking

sony directeur sprak al over een 5 jaar levens cycli voor de consoles

8 jaar ga je echt niet redden met 8 trage jaguar cores en een HD7850/HD7790.
hoogstens 5 en dan zit je echt al met de hakken over de sloot
@Richh, vergeet de TFLOPs. Kijk alleen naar de bandbreedte die de GPU levert, want de x64 cores kunnen de gpu in beide consoles met 2 vingers in de neus bedienen.

Het is natuurlijk frappant dat Sony vorige keer hard gokte op een chip met compleet onbekende architectuur (de CELL cpu), terwijl het nu Microsoft is die hard gokt op het enorme prestatieverschil van tegen de factor 4, proberen op te krikken naar factor 2 trager zijn dan Sony.

Wat de onbekende factor is, is tegen welke prijs deze consoles verkocht gaan worden op de lange termijn.

Uiteindelijk verkoopt een fabrikant pas heel veel als hij de zaak gaat lopen dumpen... ...wat je niet moet verwarren met de introductieprijs wat altijd een afroomprijs is (dat heet in de economie afromen).
En om het maximum uit de Xbox One te halen moet je enorm specifiek optimaliseren en alles binnen 32 MB ram zien te krijgen.

Dat is natuurlijk wishful thinking. Het generieke geval op de PS4 haal je met 2 vingers in de neus tegen de 200GB/s en bij de Xbox One alleen als je in de S-RAM zit van 32MB. IK bedoel maar, dat gaat bijna geen developer lukken om alles binnen die 32 MB te houden...

Een paar superkleine games maybe...
Het is maar de vraag waar die 200gbps voor gebruikt gaat worden. Je zit nog altijd vast aan de kloksnelheid van de CPU en GPU om alles te verwerken, ook al heb je 3 miljard yottabyte per seconde tot je beschikking.

Vooralsnog heeft de huidige 360 een gelijk systeem, dus zoveel anders gaat dit niet zijn om uit te brengen op de Xbox One.
Xbox 360: http://en.wikipedia.org/wiki/Xbox_360_hardware

"The memory interface bus has a bandwidth of 22.40 GB/s and the Southbridge a bandwidth of 500 MB/s."

Dus Xbox One zal tegen de factor 4 sneller zijn dan de Xbox 360
en de PS4 dus factor 8 sneller dan de Xbox 360. Dit in hoge resoluties natuurlijk @ veel fps. Meer fps is beter voor je ogen natuurlijk.

Snelheid van spelletjes is compleet bandbreedte afhankelijk van de GPU.

In dit geval levert GDDR5 dus meer bandbreedte dan de DDR3 dus ramt PS4 die Xbox one compleet weg.

Vrij simpel hoor.

Het voordeel van DDR3 boven GDDR5 is dat de latency sneller is doordat je sneller kunt aborten.

Echter als je hier leest dat de SRAM (ESRAM??) enkel en alleen prefetched ingezet wordt, dan is enige wat je hoeft te vergelijken de bandbreedte.

Als die theoretisch al tot 133GB/s is gelimiteerd versus een echte 176 GB/s voor de PS4 dan weet je dus dat de PS4 die Xbox One enorm wegblaast.

Want die 133GB/s haal je dus niet continue, terwijl de ps4 dus een continue bandbreedte van 176GB/s heeft.

Overigens dat is ongeveer gelijk aan de Radeon HD6970 kaart die ik hier heb en die is al wat jaartjes oud ondertussen. De 7970 is er ook al eventjes...

Programmeren voor de Xbox One is dus stuk lastiger terwijl je praktisch dus factor 2 bandbreedte minder hebt dan de PS4.

Factor 2 verschil dus, zelfs voor geoptimaliseerde spelletjes!

Ter vergelijking het verleden: de ps3 had in theorie 25GB/s bandbreedte. Dus in theorie meer dan de Xbox 360. Echter, dat is een theoretisch getal dat van die ps3, want je moest je hele game dus voeden met 1 supertrage slak van een powerpc core. Een japanner klaagde steen en been daarover tegen mij, dat hij de game niet sneller kreeg doordat die ene core zo pokketraag was en gewoon de 6 vectorunits (PE's - processing elements) niet gevoed kreeg.

Dan is verder de vraag of je wel 25GB/s had, want je had dus maar 6 vector units en niet 8.

25 GB * 6 / 8 = 75% van 25GB = 18.75 GB/s.
Dus Xbox 360 was dan al sneller dan PS3, terwijl die ellende van 1 trage core die 'm voedt er dan nog bovenop komt.

Niet eenvoudig programmeren dus!

Dat is met deze x64 cores een stuk simpeler zowel voor de xbox one als ook de ps4.

De bandbreedte van de ps4 wint het dan van de xbox one. En hoe!
Alleen al OP PAPIER lijkt het nu al factor 2 te zijn!

Dat is wel zo'n megaverschil!

Overigens dat klagen was begin 2007. We zitten nu in 2013. Dus 6 jaar verder. Dat zijn 4x18 maanden. De oude wet van Moore over verdubbeling in transistors elke 18 maanden, remember? Die zou dan factor 2 snelheidswinst moeten geven.

2 * 2 * 2 * 2 = factor 16 en dit ding is factor 8 sneller...

Sony loopt dus achter op de wet van Moore. Dat blijkt dan ook wel, want de gpu die ze gaan gebruiken heeft zelfde bandbreedte als iets wat al meer dan 1 generatie achterloopt.. ...en binnenkort 2 natuurlijk.

Zeer de vraag dus of ze 100 miljoen van die ps4 consoles gaan slijten. Wel gok ik dat ze factor 2 meer slijten dan microsoft, maar we zullen zien. Microsoft is geniaal in marketing meestal!

[Reactie gewijzigd door hardwareaddict op 30 juni 2013 17:37]

Excuus, maar je bent wel extreem optimistisch in alle vergelijkingen. Laten we even in de cijfers van het artikel vergelijken:

De Xbox One haalt met het ESRAM (wat staat voor embedded static RAM, om gelijk je vraag te beantwoorden) een theoretische doorvoer van 192GB/s; praktijkvoorbeelden zijn er met 133GB/s. De PS4 haalt een theoretische doorvoer van 176GB/s, maar er zijn nog geen praktijkvoorbeelden. Sowieso wordt er dus niet 'met 2 vingers in de neus' 200GB/s gehaald op de PS4 en bovendien is op papier de Xbox One nu sneller. Let wel, dit zijn allemaal theoretische beschrijvingen, ik heb nog geen vergelijkende game kunnen zien (niemand).

Daarnaast wordt er werkelijk waar niets bekend gemaakt over de SDK/ontwikkelarchitectuur. We weten niet in hoeverre de Xbox One zelf bepaald wát er in het ESRAM zit en/of ontwikkelaars dat zelf moeten bepalen. Er is ook niet bekend of er nog compressie of tiling plaatsvind op de resources in het ESRAM; de inzet is compleet onbekend, buiten dat het de doorvoer moet verhogen. Microsoft heeft in het verleden bewezen dat hun SDKs erg sterk zijn, wat hoop geeft dat het ESRAM ten volle wordt benut.

Hetzelfde geldt overigens voor de PS4, er is niets bekend over de SDK en ook niets bekend over hoe makkelijk je de volledige 176GB/s kan gebruiken. Dit hangt van dusdanig veel stappen af dat pas bij echte games geoordeeld kan worden welke console beter is.

Nogmaals: We zijn (ondanks zelfde processor) nog steeds de beschrijving van appels met die van peren aan het vergelijken.

@hardwareaddict Helaas is de architectuur van de PS4 anders dan de PC die bij jou (of bij een reviewer) thuis staat en dus zijn die benchmarks niet te vergelijken. Het is misschien een indicatie, maar dat was die 176GB/s ook; meer niet.

[Reactie gewijzigd door KilZone op 30 juni 2013 17:51]

Op papier is de Xbox One niks sneller, dat maak jij ervan omdat je de Esram als maatstaaf neemt. Belachelijk natuurlijk, want dat is slechts 32MB ipv de 8GB Videoram. Technisch gezien is de architectuur van de PS4 bovendien makkelijker te coden voor de dev's. dan de dubbel-gelaagde videoram oplossing van MS.

Je kan op je klompen aanvoelen dat dat ESram regelmatig gevuld moet worden, via? Juist, ja. Het veel tragere DDR geheugen. Die +2 mag er wat mij betreft dan ook wel vanaf.

[Reactie gewijzigd door Madrox op 1 juli 2013 13:43]

Nou, ik ben van mening dat games vaker meer op GPU leunen dan CPU. En in dat opzicht is kiezen voor betaalbare 8 core wel begrijpelijk.
Nintendo met WiiU pleurt er iets in wat nog zwakker is dan huidige gen cpu. Zij geven dus ook preoriteit aan GPU.

Dan bandbreedte. De GPU moet uiteraard wel deze bandbreedte kunnen verwerken. Dus native FHD. PS4 heeft extra groot memory voordeel. Dus kan grotere texture varriatie aan. Scenes frames kunnen minder repetive zijn.

Xboxone is directx 11.2 die tiled recources ondersteund. En er was een demo die 16meg benutte voor 3GB mega texture.

5 of 7 GB bescikbaar nou het is beide ruim voldoende om niet al te memory belemmert te zijn.

Dus ondanks gemeenscappelijke maar ook verschillen zal het resultaat toch dicht bij elkaar liggen.
Crossplatform gaat vooral ook voor gelijke game experiences.

Dus om daar zo druk om te maken nou nee.
Okeej als je alles weer geef dat is een voorbeeld van een pc waar benchmarks op gedraaid zijn waarbij de computer en de videokaart op een unifeid 8gb GDDR5 pool draaien, als die heb mag je verder praten nu praat je alleen maar onzin
Ik bedoel hier mee; Dat je niet weet hoe een Computer/Console of welk ander apparaat presteert met een pool van GDDR5, je kan je niet blindstaren op bandbreedtes deze apparaten bestaan nog niet (computers niet) en zijn dus geen benchmarks van, maar toch neem jij aan dat het zoveel keer sneller is. Wacht gewoon af totdat ze beide uitzien en vel dan je oordeel op wie er sneller is. Het is al vaker gebleken dat software optimalisaties meer uithalen dan de meeste mensen verwachten.

Overigens heb ik al je comments gelezen en wat ik daar van uit kan opmaken is dat je al geen flauw idee hebt wat een cache geheugen doet, naast het gegeven dat je op je profiel bijna alle mogelijke opties hebt aangevinkt en schijnbaar veel van hardware zou afweten vind ik zelf dat je toch een beperkte kennis hebt van beide software en hardware.

[Reactie gewijzigd door TunefulDJ_Mike op 30 juni 2013 21:01]

"Snelheid van spelletjes is compleet bandbreedte afhankelijk van de GPU."

Dat is dus juist totaal niet het geval. Precies wat Martinspire zegt: je kan wel een gigantische databandbreedte hebben, als je GPU/CPU het niet kan handlen, heb je er niks aan. Sowieso, wat heb je aan 16K textures op een <2K resolutie? Om maar wat voorbeelden te noemen.

Volgens mij is de grootte en de snelheid van het geheugen vooral handig voor developers: je hoeft veel minder geheugenallocatie in te stellen. Het is simpeler, niet per sé sneller.

Daarnaast zet ik mijn vraagtekens bij de 256-bit geheugenbus van die 8GB geheugen. Je ziet namelijk dat videokaarten met 6GB aan GDDR5-videogeheugen al vaak 384-bit of 512-bit hebben.
Je moet feiten niet verwarren met wat jij denkt.

Feit is dat spelletjes bandbreedte afhankelijk zijn. Dus de bandbreedte van de GPU's. De GDDR5.

Die bandbreedte van de ps4 is soortgelijk aan de Radeon HD 6970.

Dit waar we weten dat nieuwere gpu's zoals de 7970 die vet meer bandbreedte heeft, megasneller is dan die 6970.

Er is dus nog wel wat rek mogelijk in de bandbreedte die je nodig hebt om nog sneller spelletjes te spelen.

Want dat is al jaren geleden gebenchmarked!

Xbox One is dus factor 2 trager dan PS4 ongeveer.
Wat is er niet feitelijk dan? Wat heb je aan een enorme bandbreedte als je er een brakke GPU aanhangt? En wat heb je aan enorme textures (grootste lastenpost in het videogeheugen) als je resolutie toch maar bij 1080p blijft?
De PS4 komt bij mij over als een HD 7850 met 8GB geheugen. Als je het over de benchmarkboeg wilt gooien: http://images.anandtech.com/graphs/graph6359/50609.png

Het perfecte voorbeeld van dat games NIET (volledig) bandbreedte-afhankelijk zijn is de PS3 zelf. Hier zat namelijk XDR-RAM in, wat sneller is dan GDDR5. En we kunnen toch wel duidelijk stellen dat PS3 games het niet halen bij PC games. Dat komt door de inmiddels gebrekkige GPU.
Zie ook de X360, die vaak betere graphics bood, ondanks het veel tragere geheugen (zelfs de 10MB EDRAM was trager).

Vind het raar dat je steeds de HD 6970 (anno 2010) erbij moet pakken. GDDR5 heeft sowieso weinig evolutie meegemaakt de laatste tijd.
De HD 7970 heeft helemaal niet 'vet meer bandbreedte', dat geheugen loopt namelijk (net als in de PS4!) op 5,5 GHz. Echter zit dat geheugen gekoppeld aan een 384-bit geheugenbus in plaats van de 256-bit bus uit de PS4, waardoor het op de HD 7970 veel meer nut heeft (wat ook nuttiger is, omdat de GPU meer aan kan dan de videochip van de PS4)

Ik zie het als volgt:
- 8GB GDDR5 is een leuke marketingsterm van Sony waar eigenlijk geen touw aan vast te knopen is.
- De PS4 GPU is 1,5x krachtiger en dat maakt inderdaad de PS4 een stuk sterker. Echter:
-> theoretische GFLOPS zeggen niet alles
-> 1,5x krachtigere GPU betekent niet 1,5x beter beeld, dat is geen lineair verband

Volgens mij trek je veel te voorbarig conclusies, en ben je bovendien enorm optimistisch over de PS4 en extreem negatief over de Xbone.

[Reactie gewijzigd door Richh op 30 juni 2013 18:04]

Natuurlijk haalt een PS3 het niet bij hedendaagse games, het ding heeft 256MB RAM en een GPU op 550Mhz, DX9 en shader model 3 ondersteuning. Dat is behoorlijk antiek.
DX9 is een GPU feature level, het heeft niet lekkerlijk de DX9 API.
Feit is dat spelletjes bandbreedte afhankelijk zijn. Dus de bandbreedte van de GPU's. De GDDR5.
Onzin. als je op een HD 7870 alleen de snelheid van het geheugen verdubbeld zal die gemiddeld misschien 5% of 10% betere prestaties leveren. in veel scenario's zal het nauwelijk effect hebben omdat het geheugen niet de bottleneck is maar de GPU zelf.

[Reactie gewijzigd door hAl op 1 juli 2013 11:05]

Jouw vergelijking met de 6970 gaat niet echt op, de bandbreedte van dat ding is super en heeft veel meer unified shaders, toch presteert een GTX660 met veel minder bandbreedte en shaders veeel beter! Heb ze hier naast elkaar gedraaid. Laten we het kort houden,getalletjes zeggen gewoon vrij weinig totdat we het werkelijk met eigen ogen aanschouwen. Waarom zolang doorspeculeren over deze onzin, als puntje bij paaltje komt gaat er nauwelijks verschil zijn tussen deze twee consoles. Het is verdoen van je tijd om je hier mee bezig te houden.
Het ligt dus alleen aan de bandbreedte, en niet het feit dat de 7000 serie een compleet andere GPU is?

Volgens jou zouden dus 4 Pentium 1's geklokt op 3.2 GHZ precies evengoed presteren als een Core i5 2500? Want alles draait toch om GHz?
De logica is ver te zoeken.
AMD verhoogt de bandbreedte met 50%
AMD verhoogt het aantal cores met 33% en klokt ze iets hoger.

In totaal zijn dus aantal cores (frequentiegecorrigeerd) en geheugenbandbreedte met ca. 50% verhoogt.

Daaruit trek je de conclusie: "Dus de corecount is echt niet belangrijk nu ze er al duizenden hebben."

Het door jou genoemde voorbeeld maakt het heel waarschijnlijk dat de GPUs op moment precies genoeg bandbreedte hebben, met meer cores hebben ze ook meer bandbreedte nodig. Als cores niet nodig waren zou AMD er ook geen geld aan uitgeven, lijkt me. Tenzij jij beter GPUs kunt ontwerpen dan AMD natuurlijk.
Absoluut niet.... Bovendien zijn ze hiermee nog niet vezekerd van betere prestaties dan de PS4 aangezien er veel meer aan vasthangt dan al die nummertjes prietpaat. Maar tis wel bewezen dat de PS4 sneller is en daar zal dit verhaal dan ook weinig tot niks aan veranderen....
Snelheden tot 192GB/s zijn theoretisch mogelijk, aldus anonieme developers, circa 88 procent sneller dan eerder werd gedacht.
Ik ben geen hardware-ontwikkelaar, maar ik snap niet helemaal hoe een stuk hardware sneller kan zijn dan eerder gedacht werd... Ik bedoel, je hebt een bepaalde set specificaties, daar wordt een design van gemaakt, dan hebben ze een productie-exemplaar in hun handen... Hoe kan die nou sneller zijn dan gedacht? Hoe kan een stuk hardware zich in het echt nou anders gedragen dan zoals het gedesigned is?
Precies dit. Alsof je er ineens achter komt dat je chip naast lezen ook in dezelfde cycle kan schrijven o.i.d. Dat is nota bene een feature waarvoor je als designer moeite doet. Het lijkt me dus inderdaad een stukje FUD.
Misschien is er een productie procedé verbeterd waardoor er beter kwaliteit geheugen beschikbaar was voor dezelfde prijs. Kan al zoiets simpel zijn.
Bij het doorrekenen van een complexe chip worden er simplificaties gemaakt. Dat zijn altijd pessimistische aannames, omdat onterecht optimisme kan leiden tot het niet halen van de specificaties - m.a.w. hij doet het niet.

De werkelijke chip heeft het complexe, niet gesimuleerde gedrag, en valt altijd dus iets beter uit. Vaak is het verschil te verwaarlozen, als de aannames een goede benadering waren.

Hier lijkt het er bijvoorbeeld op dat de "tijd tussen write en daaropvolgende read" te pessimistisch is ingeschat. Dat is niet triviaal te bepalen; een behoorlijk deel van de read&write logica is gedeeld tussen geheugencellen en zit dus duizenden nanometers van de daadwerkelijke cel af.
Ja het is raar,
Het is alsof ze de feature dat esram kan lezen en schrijven naastmekaar gedaan worden. Even gemist hebben. Zoals in het artikel staat.
Dit snelle geheugen moet dus vooral als buffer gaan fungeren voor de GPU. Is 32MB dan niet volledig ontoereikend? Fijn dat je het in minder dan een milliseconde kunt uitlezen, maar daarna moet het weer gevuld worden vanuit het trage DDR3. Staat de GPU alsnog te wachten.
Je gaat niet je hele game in die 32mb stoppen. Het gaat om acties die sneller dan normaal moeten worden ingeladen of uitgeladen.
Nee, je hele game ga je niet in 32MB stoppen. Dat is ook het punt, je kan erg weinig kwijt in 32MB.

En in dit hele verhaal gaan we ervan uit dat programmeurs dit zelf kunnen beinvloeden en dat het OS niet zelf onder water beslist wat gecached wordt en wat niet. Als de programmeurs gewoon tegen directx aan programmeren en het OS onafhankelijk beslist wat in het ESRAM gebufferd wordt, is het maar de vraag wat de uiteindelijke snelheidswinst is.
Ik denk eerder dat esram 32GB als framebuffer gebruikt wordt.
FHD is 2Mega aan pixels x RGBA 4Byte is 8MB x aantal buffers 3 is dat 24MB.

Ik zie eerder dat ze native met de xboxone op FHD willen renderen. Met overscan optie.
ach qua echte preformance zegt dit nog altijd niets.
het is en blijft een compleet ander stuk hardware dan de playstation met andere software dus pas over 3 jaar wanneer er echte zware games komen kunnen we zien hoe het daadwerkelijk zit.
maar als bijde bedrijven slim zijn werken ze nu al aan een systeem dat downwards compatible is mar alle ps4 en xbox one games zodat ze dan makkeijk een nieuwe console op de markt kunnen zetten met snellere hardware mocht het nodig zijn.
ik denk namelijk dat deze 2 consoles de pc niet kunnen bijbenen.
Mooi nieuws dit. Hopelijk geeft dit dadelijk ook weer wat snelheidswinst aan de kant van MS.

Helemaal nieuw is eSram trouwens niet. In de Xbox 360 zit de voorloper daarvan (eDram) en daar hebben de programmeurs van diverse grote studio's natuurlijk al ervaring mee.

Ik ben vooral benieuwd wat voor games ze nu nog meer gaan aankondigen. Gamescom gaat erg leuk worden zo, eind augustus :)
anders wachten we gewoon even totdat beide consoles er zijn en wat er het beste uit lijkt te zien (al is dit ook weer subjectief).

Het mag duidelijk zijn dat de specs vrij dicht bij elkaar zitten en ik vermoed dat de average gamer geen substantieel verschil gaat merken...

amen
Ik zie nog steeds natte elco's ... das echte een no go in deze tijd. Paar centen proberen te besparen op een console van 0.5K euro. Zet er toch alsjeblieft droge in om kortsluiting op een voedingslijn te voorkomen.

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True