Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 232, views: 61.984 •
Submitter: witeken

Sony zou spelontwikkelaars zoveel mogelijk aanmoedigen en pushen om games voor de PlayStation 4 te ontwikkelen die bij een resolutie van 1080p rond de 60 frames per seconde kunnen renderen, zo meldt een gamedeveloper.

In een interview met Eurogamer naar aanleiding van de introductie van de Xbox One komt developer Stewart Gilray, die voor Just Add Water aan een nog onbekende PS4-titel werkt, aan het woord. Volgens Gilray zal de PS4 soepeler gameplay gaan bieden op hogere resoluties. Bovendien zou Sony ontwikkelaars zoveel mogelijk aanmoedigen en helpen om games op 1080p-resoluties met 60fps soepel te laten draaien. Dit zou tot consequentie kunnen hebben dat in bepaalde gevallen de graphics iets achter zouden blijven op de Xbox One, of er moet gekozen worden om tijdelijk 30fps te gebruiken.

Gilray stelt verder dat een game die het uiterste vergt van de hardware van de PlayStation 4, de developer de code voor de Xbox One vermoedelijk zal moeten tweaken. Als een Xbox One-titel gemiddeld 60fps scoort, dan zou de game deze verversingssnelheid ook probleemloos op de PS4 moeten kunnen behalen. Volgens de developer is vermoedelijk het 8GB gddr5-werkgeheugen in de PS4 daar de oorzaak van; de Xbox One is uitgerust met trager 8GB ddr3-werkgeheugen.

Sony PlayStation 4

Reacties (232)

Reactiefilter:-12320206+1128+28+30
Want oh oh oh je zou eens wachten tot de E3...
Het performanceverschil moet nog blijken en verder moeten we uberhaupt nog ingamebeelden zien op de X1 waarvan je weet dat ze ook gewoon erg mooi gaan zijn.

Waar het om gaat in dit artikel is dat ze bij Sony voor hun games een minimumresolutie van 1080p en een minimumfps van 60fps hanteren voor hun games. MS zal waarschijnlijk hetzelfde eisen, waardoor het idee van 30fps al meteen tenonder gaat. Mogelijk gaat de PS4 wel andere zaken beter doen (meer AA of hogere drawdistance), maar niet meer dan dat.

En serieus, 72x -1 ongewenst? Fanboys much?

[Reactie gewijzigd door Martinspire op 27 mei 2013 00:54]

dat is al bekent loller1

anandtech heeft de xbox one al open geschroeft en naar de hardware gekeken

http://www.anandtech.com/...mpared-to-playstation-4/2
ontopic: 1080p begint dat nou niet ook al een beetje oud te worden voor de tv's boven de 50 inch?
Hoeveel mensen hebben een tv boven de 50 inch? Zo kan je bezig blijven.
Ik wil in elk geval ook nog wat van mijn muur zien... :)

[Reactie gewijzigd door Jack Flushell op 27 mei 2013 15:53]

Mag ik niet enthousiast zijn over de Xbox One dan? Ik heb een 360 en ben er uitermate tevreden mee en ook deze zie ik wel zitten. Ik ben misschien wel fan, maar geen fanboy. Ik zie ook wel dat ze wat fouten hebben gemaakt met de presentatie, het kleine aantal games wat ervoor bekend is en dat de hardware iets (met de nadruk op iets) minder is.

Maar waarom mag ik het niet opnemen voor een apparaat wat door velen onterecht wordt afgekraakt en waarvan de performance nog helemaal niet bekend is (ja er zijn specs bekend maar nog niet hoe de games eruit zien). Men lijkt nu te doen alsof er een pentium 1 in zit en in de PS4 een i27. Dat is gewoon niet terecht.

Overigens gaat dit bericht over wat voor minimumeisen sony stelt aan games: 60fps bij 1080p. De kans is groot dat de X1 dat ook wel gaat krijgen.

[Reactie gewijzigd door Martinspire op 27 mei 2013 00:56]

Begrijp dit niet verkeerd; ik vind de x1 n fucking mooi ding en zal dit met liefde onder mijn tv plaatsen. Maar voor als nog zal ik de x1 niet halen en dit niet door ram of omdat het apparaat minder kan dan de ps4 want dat is met de huidige games ook al zo, dit zoals we weten heeft niet echt effect op de games want die zien er toch we ongeveer het zelfde uit. Nee de echte redenen voor mij om weg te blijven zijn

1. Games behind a paywall.
2. Xbox one has to be online once every 24 hours in order to play games.

Kijk het geen dat mij n console doet kopen ( ook al ben ik al meerdere jaren aan de pc kant) is dat ik games kan lenen bij vrienden. Met de nieuwe xbox is dit princiepe compleet weg gesloopt want als jij mijn game komt lenen mag je nog wel even bij-lappen om de game te kunnen spelen. En laten we het beestje gewoon bij de naam noemen dit is gewoon moneys geil zijn. Waarin de ps4 dit systeem niet heeft. Tevens koop ik tegen de tijd van gta 6 wel een ps4 aangezien die toch pas maanden later als een kutte port naar de pc komt terwijl dit toch de game is die ik direct wil spelen.
Dat zijn dus allemaal punten waar we niet alles 100% van weten. MS heeft hun persconferentie behoorlijk verknalt door deze info niet duidelijk te maken.

Ik ben er zelf van overtuigd dat als MS dit heeft dat de PS4 precies hetzelfde heeft. De publishers zijn niet gek en hebben hierin veel te zeggen.
Uit de beperkte info van de presentatie konden we op maken dat de X1 dit zou hebben van uit MS zelf.
Daar waar Sony dit tenstelligste ontkend heeft dat zij dat eisen.
Ze kunnen echter niet tegengaan dat EA en andere "krapuul" van uitgevers dit per spel eisen.

Echter zou je bij Sony het spel van uit de doos moeten kunnen spelen zonder online te gaan, iets wat weer al niet kan bij MS.

Dit zijn de feiten zoals beide bedrijven mommeteel aangekondigd hebben.
Tenzij ze die voorwaarden nog aanpassen.
en we weten allemaal dat beide sales & marketing goed zijn in het veranderen van die voorwaarden.
De paywall zal niets meer betekenen dan dat games gekoppeld worden aan een account. Dat is met de PS3 en XboxLive niet anders op dit moment.

De grote vraag is juist of games weer 'ontkoppeld' kunnen worden zodat tweedehands verkoop mogelijk is. Dat je een paar games van 5 euro koppelt aan je account (op dit moment is dat het geval met de PS Store, hoewel ook daar dure titels te krijgen zijn) en die niet kan overdragen is op dit moment nog geen mega-issue. Maar straks is het dus zo dat jouw account gegevens (die je nu naar hartelust kan delen met vrienden en fora om zo toegang te hebben tot allerlei games, op de PS3 ga je daarna offline en gamen wat je wilt) op een zodanige manier met jouw persoon verbonden zijn dat er geen mogelijkheid is om games te verkopen of 'lenen' aan anderen.

Voor het gamen bij vrienden zie ik geen problemen- je kunt gewoon inloggen met je account en jouw aankopen overal spelen.
buiten 1 EA game hangt geen enkele van mijn PS3 games aan een account, en kan ik die zo uitlelen.
En die hangt dan aan een stom EA account zelfs niet aan een origin account, maar dus niet aan mijn PS3, noch PS3 account.
Vrijwel elke game die je van de PS Store haalt, is gekoppeld.

Wel even goed lezen he
Vrijwel elk spel dat je uit de store haalt mag je op 5 verschillende gebruikersnamen spelen op andere consoles.
Toch niet op verschillende accounts. Je mag het 5 keer downloaden, maar wel binnen 1 account.

Dat zou wat zijn... Of is er onlangs iets veranderd? ben al een poosje niet op de PS Store geweest.
Heb geen ps3, maar 5 keer downloaden lijkt me sterk. Dat is niet van deze tijd.
Ps4 gpu > xb3
Gddr5 vs ddr3+edram buffer.

Die mindere rende power zal je wel merken.
Maar is afhankelijk hoe edram die gddr3 langzaam geheugen efficent kan maskeren.
Maar ook mgelijk dat met edram bepaalde postprocses zonder hit mogelijk is.
Free AA

Maar ps4 heefd dit voordeel complexe scenes behoud het zijn performance. Bij xbox moet het wel binnen de edam buffer passen.

Toch te veel verschillen waar het nietbhelemaal duidelijk is hoe dat inpraktijk uit gaat pakken.

Iig mooier dan dat de huidige consoles bieden.
Ps4 gpu > xb3?

Mooi, waar heb jij dan al officiële specificaties gezien van de Xbox One?
Ja, hier bijvoorveeld. Daar wordt meteen goed in gegaan op de specificaties.

Uiteindelijk heeft de PS4 GPU gewoon meer GPU cores, als er een complex beeld gerenderd moet worden zal de PS4 hier gewoon een technisch voordeel hebben.


Één ding wat uit zal maken voor hoe goed games presteren en wat niet wordt meegenomen in de eerdere reacties is de devkit en de dev-tools/compilers/OS/kernel/drivers/etc. Vooral met ontwikkel tools, compilers, OS, etc heeft Microsoft gewoon veel meer ervaring, uiteindelijk hebben de compiler, OS, drivers, etc ook gewoon invloed op de prestaties.

CPU: PS4 = Xone
GPU: PS4 > Xone
RAM: PS4 = Xone (naar alle waarschijnlijkheid zal de eSRAM een hoop compenseren, in het ergste geval een zeer klein voordeel voor de PS4)
Dev-tools: Xone > PS4

Verder heeft Microsoft eventueel nog een voordeel met Live. Updates van spellen en het OS via het PlayStation netwerk zijn altijd zo ontzettend traag (in ieder geval op de PS3). Dit zorgt niet echt voor een performance verschil maar zal zeker meespelen in mijn keuze voor één van de twee consoles.

[Reactie gewijzigd door knirfie244 op 27 mei 2013 09:18]

Quote
"Note that unlike the Xbox 360 vs. PS3 era, Sony's hardware advantage here won't need any clever developer work to extract - the architectures are near identical, Sony just has more resources available to use."

En de PS3 en XBOX360 spelen allebei hun games op 720p af.
Ik ben het met je eens dat mensen even moeten wachten op wat er komt. De PS4 heeft dan wel DDR5 maar met een stuk hogere "latency" voor zover ik weet. Dus ik vraag me af of de PRESTATIEverschillen (niks performance 8)7 ) zo ver uiteen lopen.

Ben voor beide benieuwd wat er uit komt. Misschien doneer ik mijn 360 dan nog aan het kinderdagverblijf waar ik 15 jaar geleden heb gezeten :)

@Sentry23
Ah dat zou goed kunnen. Ik heb nog geen exacte getallen gezien behalve DDR3 & 5. Maar op basis daarvan alleen zou ik niet durven oordelen.

[Reactie gewijzigd door EliteGhost op 27 mei 2013 10:54]

De latency van DDR5 is relatief hoger dan DDR3, alleen in dit geval is de kloksnelheid zo veel hoger van de DDR5 dat de latency (absoluut gezien) gelijk is.
Ben nu ik dit zo lees ook eigenlijk benieuwd of men ook Dolby Tru HD en , Thx en 7.1 surround sound gaat inbouwen of blijft het bij 5.1 ?

Stereo is zo achterhaald in mijn ogen en geluid kan zoveel sfeer aan een spel / film toevoegen !

Maar wel goed dat men eindelijk eens goed gebruik gaat maken van Full HD .
Dat valt nog wel zeer hard mee, iedere degelijke koptelefoon ooit is nog steeds stereo en het grootste deal van de mensen met een speaker set up heeft dit ook nog als stereo. Voor spellen die op films lijken kun je denk ik beter bij de PS One zijn.
Waar baseer je dat nou weer op? Het grootste deel van de mensen heeft een 2.0 setup? Feiten graag en bronnen, want daar geloof ik dus niks van :) Ik heb geen cijfers en stel dus niks maar mijn vermoeden is dat de meeste gamers inmiddels toch wel een 5.1 setje gebruiken.
stereo word nogsteeds door de meeste gamers gebruikt

en dat zeker als je naar game headsets kijkt vrijwel allemaal stereo met 5.1 virtueel surround
In mijn vriendenkring binnen de gamers-kring heeft iederen een 5.1 speaker set voor de computer maar gebruiken we die geen van allen...zijn allemaal overgestapt op goede headset (sommige 5.1)
Nou nee. Ik ken in mijn omgeving slechts een enkeling die dat doet. En dan is het eerder 7.1, want als je het doet kun je het beter goed doen. Maar het is vooral 2.0, en dan meestal via de koptelefoon wat het slaat(En dat klinkt prima in vergelijking met 5.1 geluid hoor, als er maar een beetje rekening mee word gehouden).

Het hangt ook een beetje van je situatie af, in veel appartementen of banen als kok waar je in de avond werkt en dan laat thuiskomt, kleine kinderen in huis heb, een vriendin die onregelmatig werkt als verpleegster, een vrouw die niet zit te wachten op een kabelbrei, etc. dan zit het er vaak niet in dat je een denderende subwoofer kan gebruiken met een mooie 5.1 set.
Het lijkt me een erg, heel erg sterk verhaal dat de meeste gamers een 5.1 setup gebruiken.

Ik heb persoonlijk een wel een verse 5.1 receiver, maar gebruik het bijna alleen maar met virtual headphone surround. En als ik de speakers aandoe is het 4.0 met zelfgebouwde gevalletjes, geen subwoofer of center. En het enige surround wat ik hiervoor had was een Creative 4.1 set toen dat nog net nieuw was, en dat is onderhand ook 20 jaar terug.
ik heb al van voor de eerste xbox een 5.1 digital surround set, en heb die indertijd ook speciaal gekocht omdat ik meer plezier zou hebben van films die ik toen via de pc afspeelde op m'n tv (geluid via s/pdif naar de receiver)...


voor de xbox had ik nog een sega dreamcast gehad en de playstations heb ik ook gehad ...

ik ben van sega & sony naar microsoft omgeschakeld speciaal omdat die juist dolby surround hadden voor hun games... dat voegt echt véél toe, zeker bij racegames is dat niet te vergelijken met een dom stereogeluidje...
Ook het xbox live gebeuren sprak me enorm aan natuurlijk want ik was ook een pc gamer sinds jaar en dag. het online gebeuren van de sega dreamcast was maar vrij mager en met microsoft hoopte ik dat het van een heel ander kaliber zou zijn, en dat was het ook...

Ik zou nu zeker géén console meer kopen waarvan de games niet in dolby (digitaal uiteraard) surround zijn; daarom heb ik ook geen wii enzo in huis gehaald; die dingen zijn duidelijk voor kids op een gewone tv...

Er zijn trouwens ook echte dolby surround koptelefoons hoor. En dan bedoel ik niet '3D Sound' of 'Virtual Surround' of 'Dolby Prologic' koptelefoons maar échte volwaardige Dolby Digital full surround koptelefoons die volledig 5.1 weergeven door meerdere speakers in de oorstukken te plaatsen (de frontspeaker is dan dubbel uitgevoerd; 1x in elk oor). Eigenlijk is het verwerkte geluidsspoor 5.0 want een LFE-speaker (low frequency effects/subwoofer) past niet in je headset. (het afgespeelde geluidsspoor is 5.0, het signaal in de headset is 6.0 want de frontspeaker is 2x uitgevoerd, anders zou je maar aan 1 oor een 'voorzijde' hebben)

[Reactie gewijzigd door bogy op 26 mei 2013 17:49]

Ik weet niet hoor maar de PS3 had al True-HD en Dts HD-MA ondersteuning dus lijkt me wel dat dit ook met de PS4 gaat kunnen....
Maar word het ook gebruikt in games?
Waarom zouden games dat gebruiken ? Games genereren gewoon uncompressed PCM audio. Waarom zou je dit naar DTS-MA of Dolby TrueHD encoden ? Zorgt alleen maar voor extra latency in de audio en bied exect 0 voordelen.
Maar word het ook gebruikt in games?
Moet je wel een set hebben die dat soort dingen ondersteund en ik denk niet dat er veel mensen zijn die dat hebben. Vraag me af of er serieus mensen zijn die dat speciaal voor de PS4 zouden doen. ;)
Ik heb verschillende spellen die in 7.1 vanuit de PS3 gestuurd worden, dus ja, meer kanaals audio wordt zeker gebruikt in games!
Niet in games, zelfs DTS wordt erg weinig gebruikt bij games, en al helemaal niet op de 360. Ik zou een Dolby TrueHD/DTS-HD verplichting wel kunnen waarderen :)
DTS weinig gebruikt op de 360 klopt inderdaad (vrijwel alleen Dolby Digital), maar voor de Playstation is dat simpelweg niet waar...

Een greep uit de laatste Digital Foundry Face Offs:

Resident Evil Revelations
X360: Dolby Digital (stereo)
PS3: Dolby Digital (stereo)

Metro: Last Light
X360: Dolby Digital
PS3: Dolby Digital, DTS, 5.1LPCM, 7.1LPCM

Far Cry 3: Blood Dragon
X360: Dolby Digital
PS3: Dolby Digital, DTS, 5.1LPCM

Dead Island Riptide
X360: Dolby Digital
PS3: Dolby Digital, DTS, 5.1LPCM, 7.1LPCM

Bioshock Infinite
X360: Dolby Digital
PS3: Dolby Digital, DTS, 5.1LPCM

Zo kan ik nog wel even doorgaan...

[Reactie gewijzigd door NewDust op 26 mei 2013 18:12]

Lijkt me een logisch gevolg van de keuze van DVD vs Blu-Ray...

Ik verwacht dat bij de komende generatie dit veelal meer gebruikt zal worden, sowieso 5.1 ipv 2.0/2.1.

HD audio neemt nu eenmaal redelijk veel ruimte in beslag. Op DVD was dit simpelweg niet mogelijk zonder een extra DVD te gaan gebruiken. 90-98% van de mensen zou dit erger vinden dan een wat mindere audiotrack.
Waarom? Wat is er mis met PCM?

Red Dead Redemption doet hier 7.1 PCM als ik het me goed herinner.

[Reactie gewijzigd door JackDashwood op 26 mei 2013 18:26]

Red Dead Redemption
X360: Dolby Digital
PS3: Dolby Digital, DTS, 5.1LPCM
Dat was alleen bij de jongere modellen. Alle modelen van voor 2010 deden het niet helemaal er werd een software truuk uitgehaald.
(en we hebben het dan alleen over de BD afspeel mogelijkheden)

First-generation PS3s can output in TrueHD and DTS-HD MA, but they can only do so through linear PCM

[Reactie gewijzigd door Dj Neo Ziggy op 26 mei 2013 18:40]

Via HDMI had je all 5.1 op de PS3, en Dolby Digital en DTS-audio.

http://manuals.playstation.net/document/nl/ps3/current/settings/audiooutput.html

Zo veel beter klinkt DTS-HD Master niet dan DTS, of je moet dure Versterker van ¤600 a ¤1000 kopen en een dure 5.1 Bi-amp Speakers van ook rond de ¤600,- a ¤1000,-

Dan ben je all op zijn goedkoop ¤1200,- kwijt, en dan hoor je misschien als je het geluid aardig hard kan zetten (zonder last van de buren), het verschil.

En het zelfde met Dolby Digital en Dolby Tru HD, al geef ik de voor keur aan DTS a DTS-HD Master.

Maar ja het lijkt mij dat de PS4 Dolby Digital en Dolby Tru HD en DTS en DTS-HD Master gewoon zal hebben.


Edit: PS3 heeft Dolby Digital en DTS alleen via Optisch digitaal, niet via HDMI.

Bij gebruik van een HDMI-kabel wordt alleen [Lineaire PCM 2 kanalen]-audio uitgevoerd van PlayStation®2- en PlayStation®-software. Om Dolby Digital of DTS-audio uit te voeren moet u het PS3™-systeem met het audioapparaat verbinden door middel van een digitale optische kabel en [Optisch digitaal] instellen onder [Instellingen audio-uitvoer].

[Reactie gewijzigd door AmigaWolf op 26 mei 2013 19:51]


Edit: PS3 heeft Dolby Digital en DTS alleen via Optisch digitaal, niet via HDMI.

Bij gebruik van een HDMI-kabel wordt alleen [Lineaire PCM 2 kanalen]-audio uitgevoerd van PlayStation®2- en PlayStation®-software. Om Dolby Digital of DTS-audio uit te voeren moet u het PS3™-systeem met het audioapparaat verbinden door middel van een digitale optische kabel en [Optisch digitaal] instellen onder [Instellingen audio-uitvoer].
Huh! Wat? Je quote:
PS3 heeft Dolby Digital en DTS alleen via Optisch digitaal, niet via HDMI.
is dus onjuist volgens je eigen quote van de handleiding. Dat geldt alleen voor PS1/PS2 spellen. Niet zo'n ramp aangezien ik volgens mij maar 1 PS2 spel in bezit heb welke 5.1 is (FF XII).

PS3 spellen en bluray films kunnen gewoon tot en met 7.1 (PCM) over HDMI. Optisch slechts tot en met 5.1 (en dan alleen DD/DTS).
Nee volgens de handleiding kan je alleen via Optisch digitaal (OPTICAL) Dolby Digital en DTS krijgen, en dat is NIET via HDMI.

Dus ik zeg niks fout, want ik heb het over Dolby Digital en DTS en niet hoeveel kanalen de HDMI aansluiting kan hebben, ik zij dat je al op de PS3 via HDMI 5.1 heb, natuurlijk kan je ook 7.1 doen, maar via HDMI mis je 2 grote dingen en dat is Dolby Digital en DTS.

Om Dolby Digital of DTS-audio uit te voeren moet u het PS3™-systeem met het audioapparaat verbinden door middel van een digitale optische kabel en [Optisch digitaal] instellen onder [Instellingen audio-uitvoer].

http://manuals.playstation.net/document/nl/ps3/current/settings/audiooutput.html

Maar je kan lossless LPCM via HDMI sturen naar de versterker.

The PS3 is decoding the lossless audio and sending to the receiver as LPCM. So even though you're not seeing the fancy lights that you might have paid for, you're getting higher quality audio. What you really want to check out is the PS3's info, which should now show that you are indeed getting the lossless audio.

Dan heb je volgens deze site de zelfde kwaltijd audio als Dolby TrueHD en DTS-HD MA, maar dan als LPCM.

http://www.engadget.com/2009/04/21/hd-101-how-to-use-dolby-truehd-and-dts-hd-with-your-ps3/

[Reactie gewijzigd door AmigaWolf op 26 mei 2013 23:54]

Je leest te selectief:
Bij gebruik van een HDMI-kabel wordt alleen [Lineaire PCM 2 kanalen]-audio uitgevoerd van PlayStation®2- en PlayStation®-software. Om Dolby Digital of DTS-audio uit te voeren moet u het PS3™-systeem met het audioapparaat verbinden door middel van een digitale optische kabel en [Optisch digitaal] instellen onder [Instellingen audio-uitvoer].

De PS3 kan ook PS1 en PS2 spellen afspelen, maar schijnbaar alleen in DD/DTS over optisch. Er staat niet dat de PS3 geen DD/DTS over HDMI kan.

Kijk goed bij het screenshot bij punt 5. Daar staat gewoon DD/DTS ter selectie.
Maar goed, effe snel wat screenshots van mijn ps3:
http://imgbucket.net/images/ps3output.jpg
Wat je ook wilt beweren, optisch kent minimaal even veel opties als hdmi als type output. Mocht je AAC missen, dat ondersteunt mijn tuner niet en die zie je dan ook niet bij automatische selectie.

"Dan heb je volgens deze site de zelfde kwaltijd audio als Dolby TrueHD en DTS-HD MA, maar dan als LPCM."

Dat komt omdat DD TrueHD en DTS-HD dus niet ondersteunt worden (vandaar ook mijn opmerking 7.1 in PCM). Het rare is dat de PS3 wel voldoende tijd overheeft om het signaal te decoderen en in PCM over te sturen ipv gewoon het orginele signaal op de kabel te zetten.
De eerste modellen konden inderdad niet bitstreamen, maar het uitpakken naar PCM is ook weer niet zo intensief..

Maar optisch is toch wel een heel stuk beperkter dan wat er over HDMI kan, HDMI heeft gewoon veel meer bandbreedte ter beschikking, over SPDIF (optisch of coax) ben je gewoon bepertk tot stereo ruwe audio (PCM) of compressed max 5.1 DD/DTS
Volgens mij heeft de helft geen flauw idee wat de verschillen zijn tussen DTS/Dolby Digital en vooral dat PCM eigenlijk het beste signaal is dat je kan hebben... Uncompressed, rauwe audio. Simpel versterkertje ertussen met gewenst aantal kanalen en je hebt een audiobeeld dat zoveel mogelijk klinkt als het bedoeld is. EQ, virtual surround en dito technieken zorgen alleen maar voor vervorming en voegen vrij weinig toe. Het enige dat je kan doen om je audio kwaliteit sterk te verbeteren (buiten het hebben van een goed setje speakers/versterker natuurlijk) is aansluiten met een toslink kabel. Een wereld van verschil met tulpjes of minijack / spdif en daarmee heb je ook toegang tot lossless en is je hele audio verhaal digitaal wat een groot voordeel is voor de helderheid en kwaliteit.

Er valt verder op audio gebied echt niet zo gek veel te doen. 7.1 is een luxe item dat alleen is weggelegd voor mensen met een goede akoestische ruimte die ook nog eens groot genoeg is. 7.1 op je zolderkamertje heeft namelijk totaal geen zin omdat het dan klinkt als stereo (spul staat te dicht op elkaar) en is ook maar een verbetering in de marge als je al 5.1 hebt. En al die audiocodecs doen meer fout dan goed -uncompressed is altijd beter.
De eerste modellen konden inderdad niet bitstreamen, maar het uitpakken naar PCM is ook weer niet zo intensief..
Die eerste modellen zijn dan niet in Europa op de markt gekomen. Bitstream is gewoon een optie op een nederlandse launch date ps3.

Overigens zijn de volumes van kanalen van een DTS-HD bitstream en de PCM opslitsing door de ps3 totaal anders op mijn tuner. Indien een bluray beschikt over dts 5.1 of uncompressed 5.1 pcm is de laatste inderdaad een betere keuze.
Stuur maar eens lossless uit over toslink, dan kan je met de meeste versterkers echt tot aan de absolute max qua volume en vergeleken met tulp gaat het bijna twee keer zo hard uit je speakers :P. Je *voelt* bijna dat het signaal robuuster en helderder is.

Voor kwaliteit audio is toslink zonder meer de beste consumenten oplossing. HDMI, tulp, spdif heeft allerlei beperkingen. Sowieso een ondergeschoven kindje, Toshiba had toslink toen het uitkwam veel meer moeten marketen... Gelukkig zit de aansluiting tegenwoordig wel vrijwel overal op waar het relevant is.

[Reactie gewijzigd door Vayra op 27 mei 2013 18:24]

Dat zal best, maar ik stuur toch echt lossless audio uit over de HDMI, want iedere redelijke Grafische kaart heeft een onboard audio controller tegenwoordig, en dan kan je gewoon lossless Audio uit zenden over HDMI, of Bitstreaming noemen ze het ook wel.

En dan is er geen verschil in audio, en heb je geen toslink nodig, scheelt weer een kabel.

[Reactie gewijzigd door AmigaWolf op 28 mei 2013 20:35]

Mijn versterker geeft gewoon Dolby Digital aan hoor op het scherm bij BF3 op mijn PS3 via HDMI...
Op zich een goede zaak, maar je maakt mij niet wijs dat ze dat trekken met een degelijke AA en overige specs open. Mijn i5/8GB/HD7850 trekt Crysis3 met 2x MSAA op high al amper op een constante 50 FPS.
Gedurende de jaren zullen de ontwikkelaars beter leren programeren voor de PS4 en zullen ze er wel nog dat extra uithalen.
Dat extra halen ze op de huidige consoles er uit door de resolutie naar beneden te trekken en meer compressie/lagere reso textures te gebruiken.
Allemaal goed en wel een gespecialiseerde console maar je blijft wel bepert aan de "beperkte" hardware. Vergeet niet dat we met mid-end game pc specs te maken hebben en de consoles zijn nog niet uit.
Niet echt correct. Kijk maar naar de evolutie in de Uncharted games. Die games gingen er op elk front op vooruit.

Daarnaast PC's hebben een enorme overhead waardoor er heel veel capaciteit niet benut wordt alleen al vanwege het onderling compatible maken.
Nou ik ben het een de PC hardware in de upper class die GFX standaard hebben we al, die consoles brengen niks nieuws. Tenzij je puur op consoles gamed.
Maar PC gamers vergeten wel dat je met je brede setting opties de vrijheid hebt met wat voor FPS je wilt spelen en wat voor eye candy je wilt hebben. Zover je hardware budged dat toelaat.
Zoals hardware review die gewoon kijken tot wat voor soepele game ervaring je de settings kan opschroeven.

60FPS FHD goal is niks anders dt de console devs de game kwa engine content en settings zodanig tweaken en optimizen dat het gehaald wordt. Die setting wordt dan fixed.
Die vogel gaat niet echt meer op aangezien het gewoon een x86 CPU met een relatief courante GPU (in de vorm van een APU) betreft. Programmeurs zijn al erg gewoon om hiervoor te programmeren. Ik denk dat we heel snel de volle pracht en praal van de next gen consoles kunnen bewonderen. Ook weer omdat zowel de Xbox One als de PS4 bijna dezelfde hardware gebruiken.

Vroeger duurde het inderdaad jaren voor programmeurs goed weg waren met de 'exotische' architecturen in de consoles. Er zaten vooral PowerPC-variaties in de consoles van de vorige generatie. De Cell van de PS3 was een bijzonder harde noot voor ontwikkelaars.

[Reactie gewijzigd door Lorefice op 26 mei 2013 17:03]

Die vogel gaat meer dan prima de lucht in ;)

Kijk maar naar de Xbox1. Wat gewoon een Pentium 3 700 was met een geforce 1 achtige gpu. Bestond volledig uit PC hardware. Ten eerste zagen de games er op vergleijkbare hardware er veel minder uit op de PC vanwege de overhead en ten tweede zagen latere games er weer veel beter uit dan eerder omdat ze toch hardware specifieke foefjes wisten te vinden en hierop optimaliseerden. Iets wat met een PC simpelweg niet kon door alle variaties van hardware.
Mijn indruk (als voornamelijk pc gamer) is toch gewoon dat na een korte tijd die optimalisaties nog maar weinig gebeuren/weinig effect hebben, eigenlijk stond alles kwa graphics al gewoon vele jaren stil. (uitgaande van bijvoorbeeld de ps3 die ik hier nog ergens heb staan onder het stof)

En dan heb ik nog niet eens over de traagheid (ik kan wel 10x mn pc rebooten in de tijd die de ps3 ervoor neemt gebruiksklaar te zijn)

[Reactie gewijzigd door blouweKip op 26 mei 2013 19:58]

Je zou eens moeten kijken naar de evolutie in spellen op de PS2. Van GT3 naar GT4 en van FF-X naar FF-XII zijn er gigantische verbeteringen binnen de zelfde producent te vinden. Alleen maar omdat men beter de weg heeft kunnen vinden binnen het platform, dat aanvankelijk toch als een moeilijk te programmeren werd ingeschat. Voor de PS1 was er een redelijk vergelijkbare evolutie. Ook op de PS3 als je spellen als TES: Oblivion en TES: Skyrim vergelijkt.

Maar of dat voor de nieuwe consoles nog het geval zal zijn? Deze lijken toch wel verdomt veel op een generieke PCs.
En dan pak je nou net TES: Skyrim het spel wat zo ongeveer het meeste moeite had met de PS3 hardware :P
Ik vraag me af of je op beperkte (of wellicht juist bekende) hardware wel kunt spreken over foefjes en nieuwe dingen ontdekken.

Een software ontwikkelaar bouwt een of andere engine die wat kan en daar bouwen ze een spel omheen.

En in het volgende deel bouwen ze weer een andere engine en dan denken ze ineens "Heey, we kunnen ook dit of dat toepassen"...

Dat kan toch niet? Het lijkt me meer een beperkende factor van de ontwikkelaar en de hoeveelheid tijd die ze er in steken om de textures en de models een beetje mooi te ontwerpen. Of een betere engine te bouwen.

Een spel waar je 10 dagen over doet en 1000 euro kost ziet er misschien leuk uit, maar door inkomsten heb je voor het volgende deel 30 dagen en een budget van 10.000 euro en kun je ineens veel meer tijd en geld steken in het mooier maken van de game.
Je benut wellicht meer functies, maar het kan toch niet zo zijn dat je ineens tijdens het coden denkt "Maar we kunnen ook nog de AA gebruiken, dat is nog nooit gedaan"...

En als ze het gebruiken loopt de game voor geen meter meer.

Zelfs met de nieuwe consoles moeten ontwikkelaars alweer werken met de rem er op. Je kan wel 1080P@60FPS willen, maar op een APU tover je dat echt niet op het scherm.
Daarom haalde ik ook het voorbeeld van de originele Xbox aan die volledig uit PC hardware bestond. Het verschil tussen Halo 1 en Halo 2 is gigantisch.

Het gaat niet erom of de architectuur wel of niet al bekendis. Maar dat ze kunnen inspelen op hardware specifieke kwaliteiten. Zeg maar ale shaders optimaal aanspreken. Het geheugen efficient benaderen etc.

Dit is dan ook het grootste probleem met PC gaming. Elke game moet op zoveel mogelijk verschillende hardware configuraties draaien waardoor er nauwelijks individuele optimalisaties uitgevoerd worden. Je gooit sowieso al ongeveer een derde van de kracht kwijt vanwege de DirectX abstractie laagop Windows PC's.
Nee Sony bestelt hem bij AMD, net zoals meerdere mensen via een tussenhandel doen.
Dat gebeurde bij zowel de xbox-360 als de PS3. Echter zijn de extra cores van de Cell cpu van de PS3 maar in een paar games volledig benut zoals in de Uncharted serie. Het bleek erg moeilijk te zijn om deze extra kernen te benutten. Destijds werd er ook gehoopt dat programmeurs dit zouden leren en dat de PS3 later volledig benut zou worden. De enige games die de PS3 volledig benutten zijn in samenwerking met Sony ontwikkeld.

Gezien de grote gelijkenissen van beide next-gen consoles verwacht ik niet dat ontwikkelaars op de PS4 later vanwege het beter leren kennen van de console er meer uit zullen halen. Microsoft heeft bij de huidige consoles dan wel een voorsprong op de ontwikkelomgeving, maar toch heb ik als gamer dat nooit direct kunnen ervaren in de kwaliteit van de games.

Het zullen eerder andere verschillen zijn die de performance in de toekomst bepalen. De PS4 krijgt sneller geheugen en een snellere grafische chip, maar in het begin is het goed mogelijk dat vanwege slechte scalability (Niet elke engine zal dit goed kunnen) de PS4 grafisch op het niveau van de One zal blijven.
Je vergeet daarbij wel een belangrijk element: Software. De prestaties van een PC zijn altijd gebonden aan de juistheid van de drivers en wat er op de achtergrond allemaal meedraait.
Spellen voor consoles als de XBOX one en de PS4 kunnen veel beter worden geoptimaliseerd omdat de gebruikte hard/(en - software) altijd gelijk is.
Optimaliseren is inderdaad enorm. Maar mensen verwachten geloof ik hetzelfde als bij de PS3/360, en ik verwacht dat dus niet.

De PS3 beschikte over een 7800GTX. Als de console niet was uitgesteld, was dat de sterkste NVIDIA-kaart toen beschikbaar. Hetzelfde geld voor de 360, die console was gebaseerd op de sterkste GPU.
De One heeft een GPU die 1,2 TFLOPS doet (HD 7770-niveau) en de PS4 eentje die 1,8 TFLOPS doet (HD 7850 niveau). Ter vergelijking: de sterkste videokaarten van dit moment doen 7 TFLOPS. Als je rond hetzelfde niveau zit als 8 jaar terug (HD 7970/GTX 680 (GTX 780)) zit je rond 3-4x het niveau van de GPU's van de PS4/One.
Om dan maar niet te beginnen over de processor van die systemen. Waar de PS3 een zelf ontworpen Cell-processor had (uberkrachtige serverchip) bezitten deze systemen een AMD Jaguar 8-core. Die komt in 4-core vorm naar tablets en ultra-low-voltage budget netbooks.

Nogmaals, met optimaliseren gaan ze heus wel wat bereiken, maar bedenkend dat dit 4-8 jaar mee moet, en de Wet van Moore stand houdt, ga je het met optimaliseren echt niet rekken. Ik vind de specificaties van de next-gen systemen schrikbarend laag en ik denk echt wel dat dat gevolgen gaat hebben.
Je vergeet echter dat het grootste gebruik op dit moment van de consoles niet de GPU was maar het beperkte geheugen. Zeker ook omdat je bij de 360 als ontwikkelaar niet kon uitgaan van een HD en ook nog ondersteuning voor lage resolutie tv's moest toevoegen.
Meer geheugen, meer en krachtigere processors, gegarandeerde schijfruimte en een beter geoptimaliseerd proces (data heeft minder hindernissen dan bij een pc) zorgen echt wel voor een flinke boost hoor. Bovendien zijn het aantal transistors van de CPU ook behoorlijk hoog.

Tuurlijk de graphics zullen de komende tijd vooral in het oog springen bij de nieuwe consoles, maar zaken als AI, gameplay elementen, customizability, aantal spelers per map e.d. zullen ook allemaal uitgebreid worden. Graphics zijn bepalend geweest voor de huidige generatie, maar de andere elementen bij games zijn ook steeds verder uitgebreid. Kijk naar de customization in COD, kijk naar de animaties van Battlefield, naar de gezichten van LA Noire en naar de schaal van een Planetside of MAG. Dat soort zaken zullen de komende tijd alleen maar beter worden en het zal dan ook eerder afhangen van hoeveel tijd een ontwikkelaar in een game kan en mag steken.

Even transistorverhaal verbeterd

[Reactie gewijzigd door Martinspire op 26 mei 2013 18:57]

Wat ik las heeft de Xbox One 5 miljard transistors (ps4 kon ik zo gauw niet vinden), een GTX780 heeft er al 7.1 miljard, dus volgens mij klopt wat je daar zegt niet.
trijn
ik vind hem origineel. overigens is paardenkracht 1 woord.

Maar je hebt wel gelijk. ik kan nog zoveel transistoren erin gooien, het gaat erom hoe ze gebruikt worden. Zelfs als twee autos evenveel paardenkracht hoeft dat nog niet te betekenen dat ze hetzelfde rijden.
Microsoft heeft toch een behoorlijke dosis rekenkracht beschikbaar per Xbox One. Veel meer dan er in dat doosje in je huiskamer zal zitten. Je hebt straks met de Xbox One nog de beschikking over de rekenkracht van 3 extra virtuele Xbox One CPU's en opslag. Zie ook hier op Tom's Hardware.
Mooie ontwikkeling lijkt me voor gebieden waar een goede internetverbinding aanwezig is.
Microsoft heeft toch een behoorlijke dosis rekenkracht beschikbaar per Xbox One. Veel meer dan er in dat doosje in je huiskamer zal zitten. Je hebt straks met de Xbox One nog de beschikking over de rekenkracht van 3 extra virtuele Xbox One CPU's en opslag. Zie ook hier op Tom's Hardware.
Mooie ontwikkeling lijkt me voor gebieden waar een goede internetverbinding aanwezig is.
Wel een beetje een reclamepraatje moet ik zeggen. CPUs in de "cloud" kan je niet zomaar optellen bij lokale CPUs. Je blijft altijd met latencyproblemen zitten. Kijk maar naar Gaikei en OnLive! Het werkt misschien aardig in sommige genres, maar in een FPS of race game heb je er niets aan imho.
Als je van tevoren al een heleboel licht en omgevingen kunt berekenen voordat de map helemaal geladen is, dan is het daarna niet zo heel moeilijk meer om nog wat extra lichtbronnen te laten berekenen maar het merendeel kun je zeker in de cloud doen. Niet alles natuurlijk (bepaalde zaken blijven dynamisch) maar statische berekeningen of grootschalige berekeningen (troepenbewegingen bv) die kun je prima vooraf doen.
En hoe goed werkt dit met offline gaming? :) En de latency, al is het maar 50 ms. dan nog is dat veel te veel.
Lol, nu komt het Cloud verhaal langs om de X1 te redden.

Nog even, jongens... alsjeblieft. Niet al het geouwehoer van MS klakkeloos overnemen. Cloudbased performance is echt een doodgeboren kindje.

Geloof je me niet? SimCity. I rest my case. Het gaat nooit soepel werken, de snelste UPC lijn heeft al 19ms voordat die extra performance aan de poort van je Xbox staat. Worthless.

[Reactie gewijzigd door Vayra op 27 mei 2013 11:58]

Je hebt wat betreft de Wet van Moore wel gelijk, maar de andere kant van het verhaal is dat de beschikbare kracht niet makkelijk benut gaat worden. Er zijn op internet verschillende grafieken te vinden van ontwikkelingskosten per console. Uit deze grafieken kun je concluderen dat naarmate een console 2 a 3x zo krachtig wordt als de vorige generatie, de ontwikkelingskosten ook exponentieel omhoog gaan. Als een ontwikkelaar 95% van de beschikbare kracht van een Xbox-360 gebruikte, zal de ontwikkelaar 2x zoveel tijd in een game voor de Xbox One moeten stoppen om hetzelfde percentage van de beschikbare kracht van de One te benutten. Hoe meer complexiteit, hoe meer beschikbare kracht, hoe meer mensen er nodig zijn om deze kracht in vorm van detail te benutten.

Je zou er vanuit kunnen gaan dat naarmate de nieuwe consoles er een tijdje zijn, een ontwikkelaar dus twee keer zoveel ontwikkelingskosten heeft. Echter zal de markt niet verdubbeld zijn. GTA4 had een budget van 100 miljoen dollar mede vanwege de nieuwe engine (LA noir kostte 50 miljoen). Het zou zomaar kunnen dat GTA6 die wel puuur voor de next-gen consoles ontwikkeld zal worden 200 miljoen gaat kosten, terwijl de markt vraag maar met 10% is gestegen. De bevolkingsgroei kan namelijk nooit op tegen de groei van de Wet van Moore.

[Reactie gewijzigd door ownage maxim op 26 mei 2013 18:28]

Wat ik ermee wilde zeggen is dat om te ontwikkelen op de consoles maar ook de PC het steeds duurder wordt om meer detail in het spel te krijgen.Er is meer detail mogelijk maar een ontwikkelaar moet wel de resources en geld hebben om dit te realiseren. Als de kosten verdubbelen om alles uit een console te halen maar de markt amper groeit is het dus goed mogelijk dat games niet heel snel veel grafischer worden. Met relevantie op dit artikel: 60FPS op 1080P is goed mogelijk omdat er vanwege de hoge kosten van veel detail de eerste 2 a 3 jaar toch niet veel meer detail gebruikt zal worden dan bij de xbox-360 of PS3.
Is dat zo? Kan men nu al alles uit een Titan halen? Die drivers moeten ook geoptimaliseerd worden. De meeste grafische kaarten worden ook pas 2 jaar na dato optimaal gebruikt.
Verder zit je met een behoorlijke overhead vanwege het OS. Bij de PS4 en X1 kan het OS veel minder impact hebben op de performance. Bij de X1 gaat het 2e OS zelfs in slaapstand om meer performance te kunnen gebruiken.
PC markt is minder belangrijk. Consoles hebben de focus. Zelfs Crysis 3 is 2x zoveel verkocht op consoles dan op de PC. Dit artikel gaat ook over consoles.
Bovendien kun je grafisch opdelen in vele onderwerpen. In GTA4 had je op afstand weinig detail omdat dit met opzet weggelaten werd. De map had echter wel deze detail. Op de PC werd deze detail in de verte veel beter weergeven omdat de PC dit wel aankon. Echter op de ontwikkelingskosten zal dit geen invloed hebben. Misschien krijgen de nieuwe consoles wel beter view distance waardoor deze spellen grafischer lijken dan op de vorige consoles, maar is eigenlijk het detail in de map niet veel hoger.

En bovendien zijn de huidige console games vaak maar 5xxP en niet 1080P of hoger waarop je met een Titan een game zou spelen.

[Reactie gewijzigd door ownage maxim op 26 mei 2013 18:12]

Meeste console games worden gewoon 7xxP gerenderd en niet 5xxP zoals jij stelt (bron
Wat nog steeds zeer zwak is vergeleken een PC. ;)
We leven ook in andere tijden dan 8 jaar geleden. Vroeger bleven game-pc's relatief bescheiden. Pas met de ATI 2900xt en Nvidia 8800GTX(2007) kwamen echt de grote GPU's met hoge tdp's. Toen waren de console's al uit en moesten spellen als crysis nog uitkomen.

Crysis kwam uit met DirectX 10 ondersteuning, blies de console graphics van de kaart, maar bleek op geen enkel systeem speelbaar. Sindsdien is GPU enorm doorontwikkeld. Om met het product hiervan te concureren moet je echt goed in de buidel tasten. 7 jaar geleden was er simpelweg niet zo iets belachelijks als een Nvidia Titan.

Een kaart van 150euro in een console van 400euro is best interessant IMO. Het ligt er voor mij vooral aan hoe duur de consoles worden. Wat wel meespeelt is de initiele vorm van vermeerderende meerwaarde. Wat we allemaal weten is dat je al snel 300euro kwijt bent aan kast etc.. Het idee dat ze met een 50euro duurdere chip echt enorme prestatie winst hadden kunnen halen is een beetje jammer. Dwz dat een console van 450euro echt een stuk krachtiger zou kunnen zijn dan eentje van 400euro.

Ik denk dat met een apu Sony een microsoft een simpel platvorm proberen te creëren. Dat beperkt sowieso al de mogelijkheden. Verder spelen dingen als energieverbruik en warmte een rol. Iets waar de pc geen last van heeft. Ik begrijp de keuze van Sony en Microsoft dus wel.
De economische situatie is anders. Een console van 600 euro op de markt brengen waar vervolgens ook nog eens verlies opgemaakt wordt gaat niet meer gebeuren. Vandaar dat ze iets wat matige hardware voor deze tijd hebben genomen. Daardoor blijven de kosten binnen de perken.
En vergeet ook niet dat je met deze hardware al aardig mooie plaatjes kunt leveren.
Bovendien, als je nog steeds games hebt als Fast & Furious 6 (wat op het oog een PS2 game is), dan maakt de hardware ook weinig uit.
Je vergeet een belangrijke factor in de rekenkracht, namelijk de instructieset. Als deze efficient is,. maakt het niet uit de het "maar" 1.8TFLOPS doet.
Tuurlijk maakt dat wel uit.

Ik vraag mij af of een 1,8 TFLOPS videokaart waar extreem efficient voor geprogrammeerd is, het vol kan houden tegenover videokaarten die 18 GFLOPS gaan doen. Want dat is waar we over 4-8 jaar zeker tegenover staan.
Je bedoelt waarschijnlijk 18 PFlops (peta is 10x meer dan tera). Maar het is de vraag of de grafische chips die richting in gaan. Ik denk eerder dat ze zuiniger en stiller gaan worden dan dat ze weer gigantisch veel sneller zullen worden. 200 Petaflops is leuk, maar dan moet je ze ook wel gaan benutten met gedetailleerde omgevingen en dat is gewoon veel teveel werk. Dan kost je het je geen 100 miljoen om een game te maken maar 2 miljard of meer.
Ik denk eerder dat er meer automatisch gedaan wordt door GPU's. Dat developers niet iedere polygoon apart hoeven te plaatsen, maar dat systemen detail zelf gaan berekenen. Technieken als tesselation, bijvoorbeeld. Ik denk dat we nog meer van dat soort dingen gaan zien.
tesselation heeft nog wel een base model nodig . als die niet gedetailleerd genoeg is kan je er nog zoveel tesselation op afvuren... het is meer dat je vanaf een model ziet dat er op lijkt maar veel minder polygons nodig heeft. Dat wordt automatisch gedaan. Hoeven ze niet meerdere modellen te maken voor LOD

[Reactie gewijzigd door boto op 27 mei 2013 09:22]

DDR3 haal je 20 GB/s mee.

GDDR5 haal je simpeltjes met evenveel memory channels 80GB/s mee.

De Radeon HD6970 die ik hier heb haalt het dubbele hiervan.

Alleen die bandbreedte gaat bepalen hoe goed de meeste games presteren.

1+ Tflop single precision betekent intern dat je bandbreedte nodig hebt van 12 TB/s.
Dus 80GB/s gooi je er zo mee vol in een game.

Op eerste gezicht lijkt het alsof Microsoft One een kat in de zak is.

[Reactie gewijzigd door hardwareaddict op 26 mei 2013 18:09]

Je moet ook rekening houden dat het betaalbaar moet blijven.

Geen van beide fabrikanten kan het zich nog vertoorloven om nog een generatie zijn console te verkopen met een verlies.
Als ze schrikbarend laag zijn, dan zou het mij niet verbazen dat ze juist over 3 jaar weer met een nieuwe snellere console komen..? Want wat Apple lukt met hun snellere hardware, waarom zou MS en Sony dit dan ook niet gaan lukken? Want let wel, zoals eerder wordt opgemerkt, ze maken beiden van vrijwel reguliere verkrijgbare x86 technieken. Ontwikkel trajecten zullen vast enorm korter zijn dat met de vorig versies.

Zou mij niet verbazen wanneer de volgende hardware versie *wel* backwards compatibel zullen zijn. Want het verdienmodel zou niet langer meer gebaseerd zijn op aanschaf, maar een maandelijkse abonnement. En de studios krijgen naar ratio speeluren betaald. Wij als consument zou alles kunnen spelen tegen een fixed maandbedrag. Lijkt mij wel wat, spotify voor games.
Hoeveel maandabonnementen en vaste lasten wil je hebben? Ik heb daar dus echt helemaal geen behoefte aan. Ben je 4 weken op vakantie, kun je toch dertig tot vijftig euro aftikken voor je games. Fijn!
Mijn i5/8GB/HD7850 trekt Crysis3 met 2x MSAA op high al amper op een constante 50 FPS.
Crysis 3 is dan ook niet geoptimaliseerd voor jouw specifieke specs, maar voor PC's in het algemeen d.m.v o.a DirectX voor Windows PC's. DirectX kan overigens gewoon worden gezien als een abstractielaag; je maakt een enkele set technieken beschikbaar voor willekeurig welke grafische kaart, zolang deze de technieken maar ondersteund. Wat weer de reden is waarom men DirectX versies promoot bij het verkopen van grafische kaarten.

Ik denk dat de mogelijke optimalisaties (en dus ook het adresseren van zeer hardware specifieke afwijkingen in processing) er voor kunnen zorgen dat zelfs een spel als Crysis 3 soepeler op een PS4 zal gaan lopen dan op je PC :)
Ondanks dat ik je gelijk geeft met dat als je goed optimised je waarschijnlijk meer uit een ps4 kan halen dan uit een zwaardere gaming pc, denk ik niet dat dit lang aan zal houden. Voor het eidn van hat jaar hebben we bijvoorbeeld een nieuwe serie videokaarten van amd en nvidia op de markt en een nieuwe set cpu's van intel en amd. Binnen 2 jaar zijn de consoles weer zwaar underpowered, daarom is het een beetje jammer dat er niet iets meer is ingezet op de gpu's.
Binnen 2 jaar zijn de consoles weer zwaar underpowered, daarom is het een beetje jammer dat er niet iets meer is ingezet op de gpu's.
Ben ik volledig met je eens, maar dat neemt het punt niet weg ;)
Het lijkt er overigens op dat beide kanten iet wat teveel naar Media Center achtige praktijken aan het neigen zijn...

Het is overigens ook om deze exacte reden dat ik een voorstander ben van PC-gaming tov console-gaming. Naar mijn mening zorgen de consoles voor onnodig oponthoud wat betreft de grafische ontwikkelingen, maar ik kan wel begrijpen dat mensen ze graag gebruiken. Het speelt wel lekker vanaf de bank op een TV met je controller in de hand... :)
Die nieuwe consoles gebruiken geen 3d api's meer?
Maar gebruiken ze wel efficienter :)
Op zich een goede zaak, maar je maakt mij niet wijs dat ze dat trekken met een degelijke AA en overige specs open. Mijn i5/8GB/HD7850 trekt Crysis3 met 2x MSAA op high al amper op een constante 50 FPS.
PC heeft dan ook te maken met api's die alles aan elkaar moeten plakken en daardoor krijg je gigantische overhead. Console kan tot wel 10 keer efficiënter omgaan met hardware als men direct de instructie set gebruikt, maar buiten dat is de api van console ook al veel efficiënter . Meestal moeten ontwikkelaars even wennen aan console en gebruiken ze in begin vaker de api's en later als ze de hardware beter kennen gaan ze over op directe instructies waarmee ze alles uit de hardware kunnen halen.

PC die hetzelfde op beeld kan toveren op je beeldscherm als PS4 en xbox one dat straks kunnen bestaat nog niet, daar is krachtigere hardware voor nodig al dat er nu bestaat voor de pc, al lijkt de pc ver voor te liggen qua hardware, maar dat is appels en peren. Crysis 3 kan als die geport word naar ps4 en in direct to metal geprogrammeerd is bijvoorbeeld wel 200 fps(is maar voorbeeld) halen waar je op de pc blijft hangen op 50fps.

[Reactie gewijzigd door mad_max234 op 26 mei 2013 17:55]

Crysis 3 kan als die geport word naar ps4 en in direct to metal geprogrammeerd is bijvoorbeeld wel 200 fps(is maar voorbeeld) halen waar je op de pc blijft hangen op 50fps.
Waarom hebben ze dergelijk optimalisaties dan bij lange na niet gehaald op de huidige generatie consoles?
Iedereen snapt dat je bij statische hardware meer ruimte voor optimalisaties hebt maar deze worden bij consoles toch wel schromelijk overdreven als ik na de graphics kijk op mn ps3, die zijn echt niet 4x beter dan een vergelijkbare pc van tig jaar geleden.

[Reactie gewijzigd door blouweKip op 26 mei 2013 19:52]

Ik denk dat dat komt omdat veruit de meeste games de afgelopen jaren gemaakt zijn op brakke multi-platform engines.
Games voor een console zijn over het algemeen helemaal geoptimaliseerd voor de hardware van de console, waar je op een PC rekening moet houden met een enorm breed aanbod aan hardware waar je spel mogelijk op moet draaien. Dat betekend dus dat de performance van een console spel altijd veel beter is/
maar de specs van beide consoles is beter dan de specs die jij noemt, en dan ook nog eens speciaal geoptimaliseerd zonder rekening te hoeven houden met miljoenen verschillende configuraties. en de specs van de ps4 zijn zelfs nog net iets beter dan die van de xboxnone...
i5/8GB/HD7850
Maar een PS4 krijgt betere hardware (8GB GDDR5 unified mem!) en geen zware Windows kernel en -services tussen de hardware en het spel.

Het verschil tussen wat een systeem *theoretisch* zou kunnen en wat er daadwerkelijk uitkomt is gewoon veel kleiner bij een console dan bij een PC. Om dezelfde graphics te halen uit een PC mag je rustig de console specs x 2 doen.
Dus jij denk dat de PS4 een veel lichtere kernel krijgt dan de XBOX One? Ik denk dat je je daar snel op verkijkt, PS4 ondersteunt ook allemaal social media en heeft waarschijnlijk ook een kinect tegenhanger dus ik denk dat het elkaar niet zoveel verschild. Gakai en het live opnemen enz... hebben ook allemaal services nodig om te kunnen draaien.
ja echter heeft de PS4 geen 3 Operating systems tegelijk op het systeem draaien
dat in tegen stelling tot de Xbox one

en dan kun je wel gaan zeggen dat ze in slaapstand staan zelfs dannog vreten ze werkgeheugen/eenergie van je hardware

[Reactie gewijzigd door firest0rm op 27 mei 2013 02:05]

Maar live opnemen gebeurd bij de PS4 middels een externe chip, niet door de gpu/cpu zelf. Maar dan nog, die services zijn beter geoptimaliseerd omdat ze nergens anders rekening mee hoeven te houden dan de specifieke hardware in de PS4 zelf..
"Op zich een goede zaak, maar je maakt mij niet wijs dat ze dat trekken met een degelijke AA en overige specs open. Mijn i5/8GB/HD7850 trekt Crysis3 met 2x MSAA op high al amper op een constante 50 FPS."

Ja, maar dat wisten we al. De next-gen consoles zullen graphics hebben die tussen die van BF3 en Crysis 3 zitten. Dat is een enorme stap vooruit ten opzichte van de PS3 en Xbox 360 maar niet beter dan een degelijke game PC nu al kan laten zien. Ik weet ook niet waarom mensen anders verwachtten: een console heeft een limiet van ~200W aan energieverbruik, alleen al de videokaart van een degelijke PC verstookt tegenwoordig hetzelfde, soms zelfs meer. Natuurlijk zit er bij consoles wel wat optimalisatie bij maar daar moet je geen wonderen van verwachten en mochten programmeurs ineens nieuwe methoden ontdekken om bv. tesselation of AA veel minder intensief te maken dan profiteren PC's daar net zo goed van en blijven ze voorliggen op de consoles.
Omdat er geen 1 game is die geoptimaliseerd is voor jou setup, en dat is het grootste nadeel van pc gaming. Indien je kijkt naar de ps4/xbox one/wii u, daar worden de games voor gemaakt, elke gebruiker heeft diezelfde hardware en dus diezelfde resultaten.
Neem de xbox360 en bekijk die hardware specs ( lachertje anno 2013 ), en bekijk de graphics van de top titels op een full hd tv met de juiste kijk afstand. Dat is onmogelijk op de pc met diezelfde of iets wat betere hardware.

Maar dat zou jij als tweaker wel moeten weten toch? Bij pc-gaming draait het om betere/duurdere hardware aanschaffen, op consoles draait het om betere software optimalisatie.

@computerjunky
Uhm duidelijk heb jij er niet zoveel ervaring mee, maar de graphic optimalisatie word alsmaar beter op de xbox/playstation. De ps3 is inderdaad een blunder geweest voor ontwikkelaars dankzij de cel-cpu die daarin zit. Bij de ps4 zijn er veel meer ontwikkelaars met ervaring voor die hardware.
Neem de eerste 360/ps3 games en de uiteindelijke toppers, een wereld van verschil toch?
"Neem de xbox360 en bekijk die hardware specs ( lachertje anno 2013 ), en bekijk de graphics van de top titels op een full hd tv met de juiste kijk afstand. Dat is onmogelijk op de pc met diezelfde of iets wat betere hardware."

Console games draaien op een lagere resolutie en gebruiken geen of nauwelijks AA. Als je je console aansluit op een PC monitor en er net zo dichtbij gaat zitten als je doet bij je PC zie je duidelijk de verschillen. Die geweldige optimalisatie waar mensen altijd over praten is voor een groot gedeelte gewoon gezichtsbedrog (je zit ver van de tv af dat je de jaggies niet meer ziet).
Heb liever 3D stereo support in elke game, het laatste waar druk om maak is 1080p 60hz gezien ps4 toch al heel wat sneller is.
Ze ondersteunen het allebei, maar voegt het altijd wat toe? Ik denk dat het bij games waar je geen eigen karakter ziet het al een stuk minder boeiend is. Ook games als Fifa zal het waarschijnlijk weinig toevoegen. Maar ga er maar vanuit dat op den duur veel games het gaan supporten als er ook meer 3d schermen worden verkocht.
Een lagere res met wat antialiasing ziet er ook prima uit, 1080p en 60fps roepen is leuk voor marketing, maar op een normale maat tv op een paar meter afstand kan je je gpu power denk beter besteden aan betere belichting. Het is geen pc monitor waar je met je neus bovenop zit.
Pushen? Gewoon verplichten die 1080p, 60fps en een fatsoenlijke vorm van antialiasing.
We hebben het over Next-Gen hoor Sony!!! Waar breng je anders een nieuwe console voor uit?
Dat vind ik nou ook! Tijd voor een flinke nieuwe stap vooruit qua graphics (zoals het altijd al is geweest met next-gen consoles)!!! _/-\o_
Zelf merk ik de aliasing toch best nog wel af en toe. Ik heb een PS3 met een 42" plasma scherm, en games op 720p - hoe mooi ze nu ook al zijn - zouden best nog wel wat kunnen winnen door naar 1080p op te schalen. Vergeet ook niet dat goede antialiasing nog zwaarder is dan de resolutie simpelweg op te krikken.

60fps ben ik ook een groot voorstander van. Al zou het alleen maar zijn zodat je het dan minder merkt als je toch een keer een framerate drop hebt in een zware scene. Je hoeft maar minimaal onder de 30fps te droppen voordat het echt merkbaar storend wordt. Als de game standaard rond de 60fps zit heb je tenminste nog een beetje speling :)
Denk er ook aan dat als games in 3D gerendered moeten worden, dit ook een halvering van de framerate inhoudt (bij actieve 3D). Dan is het dus fijn als de game standaard op 60fps draait, dan hoe je nog een zeer acceptabele 30 fps per oog over in actieve 3D.

Bij passieve 3D wordt juist de verticale resolutie gehalveerd (per oog) waardoor die 1080p weer belangrijk wordt. Ook dan hou je weer een heel respectabele 1920 x 540 per oog over.

(Zie ook mijn blog post over passieve vs actieve 3D.)

Ik vermoed dus dat Sony dit ook wil om deze mogelijkheden open te houden voor de toekomst. Als games nu al op lagere framerates / resoluties mikken dan kan dit straks niet makkelijk meer gedaan worden zonder dat je slechte resultaten krijgt.

[Reactie gewijzigd door OddesE op 26 mei 2013 21:13]

Niet als je op 720p 3D gamen'd dan krijg je gewoon 60 fps per oog, 24 fps op 1080p.
Het verschil tussen 30 en 60 fps ga je zeker merken, ook het verschil tussen 720 en 1080p, ook al zit je verder weg. Kun je zelf proberen, als je slepen wilt, door je PC aan je TV aan te sluiten.

60FPS geeft toch wel een aanzienlijk beter gevoel van controle en precisie, ook al is het met een controller ipv kb+muis. Als je een console hebt die 'een beetje minder' uitziet maar daarvoor wel veel soepeler is om op te spelen heb je alsnog een groot voordeel.

Als 30 fps genoeg was zou niemand ooit zijn PC updaten :P

[Reactie gewijzigd door ChromeBallz op 26 mei 2013 17:15]

ach, als je niet onder de 30 fps komt en een steady framerate hebt (geen grote variatie) dan zal het moeilijk worden om het verschil nog te merken met nog hogere framerates (zeker met al die motionblur tegenwoordig),
Dat is niet waar, zodra je 60 fps gewend bent voelt 30 fps stroperig aan. Zeker als er wel af en toe 40 of 50 fps gehaald wordt.

Steady framerate scheelt een beetje, maar toch is het een onmiskenbaar verschil of je speelt op 30 of 60 fps. 60 fps voelt smooth, 30 fps voelt toch alsof je beweging, vloeiendheid mist. Vond ik ook een groot manco van de last gen consoles; heel veel 30 fps. Speel je op een PS3 opeens een potje Wipeout Pure (60fps) dan heb je het gevoel op een andere console te zitten...
Je *ziet* het niet direct, maar je *voelt* het wel. Het verschil in hoe de controls aanvoelen tussen 30 en 60 fps is enorm.
720p en 1080p kan je idd zien, maar het ziet er niet per definitie beter uit als je 1080p spel karige belichting en een kale wereld heeft.
ik vind het geen verkeerd streven, helemaal gezien 1080p zo'n beetje de huidige norm is. en daarnaast 60fps voor shoots of snel bewegende spellen eigenlijk wel een must is.
per oog ligt het overigens gemiddeld op 25fps. oftewel 50fps voor beide ogen met een beetje is 60fps dus geen verkeerd streven nogmaals ;-)

[Reactie gewijzigd door SteZZz op 26 mei 2013 16:50]

per oog ligt het overigens gemiddeld op 25fps. oftewel 50fps voor beide ogen met een beetje is 60fps
Heb je het hier over stereoscopische 3D? Of waarom denk je dat 25fps per oog klopt en dat je die bij elkaar op zou moeten tellen?

Volgens mij haalt het oog (ook één oog) veel hogere fps dan 25. Niet voor niks neemt men tegenwoordig ook bioscoopfilms op 60hz op. Die 24 (23.75?) fps 'van vroegah' is volgens mij gewoon de waarde waar je net mee weg komt. Bij snelle actiescenes wordt alles 'uitgesmeerd' en wazig omdat de beweging te snel is. Dan zie je bij 60fps toch een duidelijk verschil. Als het oog maar 25 fps aankon zou je dat nooit kunnen zien.

Ook hoger dan 60fps zie je, op onbewust niveau, nog steeds. Ik weet dit omdat ik vroeger zo'n ouderwetse CRT monitor had en als die op 60hz stond dan zag ik in mijn ooghoeken 'geknipper'. Boven de 100hz was dit weg.
Ik weet niet waar je dat van haalt, maar daar klopt niets van.
"Niet voor niks neemt men tegenwoordig ook bioscoopfilms op 60hz op."

Bron? Want dat is niet waar, voorzover ik weet. Die 48fps van The Hobbit is de uitzondering.
Het verschilt echt per persoon en soms zelfs per oog hoeveel beeldjes je kan verwerken. Maar het getal is in principe oneindig. Je kunt je ogen trainen en er meer gaan zien, net zoals Eskimo's veel meer 'kleuren' wit kennen dan wij dankzij hun omgeving.

Het verschil tussen gamen op 60 en 120 hz is bijvoorbeeld echt duidelijk voelbaar. Je kunt misschien wel stellen, dat boven de 60 fps/hz het verschil niet meer echt 'zichtbaar' is, maar wel 'voelbaar'. Je ervaart die beeldjes wel, maar je ziet ze niet meer bewust. Je hersenen hebben juist met hogere refresh rates MINDER te doen omdat ze de gaten niet hoeven in te vullen. What you see is what you get.
Je zou eens verstelt kunnen staan hoe (ter voorbeeld) spectaculair de fx8350 scoort als alle 8 cores WEL gebruikt worden.

Voorbeelden zijn echter inderdaad aan de schaarste kant.

Dus vandaar dat Sony deze push dan ook doet.
@egnappahz de bulldozer architectuur heeft juist uiterst zwakke memory controller. Dus bij 4 cores als die gescheduled worden op 4 modules, dan is dat even snel als 8 cores @ 4 modules, qua bandbreedte naar de memory controller.

Die bandbreedte is pak hem beet praktisch rond de 20GB/s, dus je kunt dat heel goed vergelijken met GPU's die 20GB/s leveren nu.

De top gpu's zitten nu ver boven de 200GB/s. Zelfs de 6970 die ik hier heb, die al jaren oud is, die haalt hier al als ik de bandbreedte in opencl test, zo rond de 150GB/s. In theorie zou hij de nog 15% meer moeten halen, maar dat kan ik niet bevestigen.

Dat is het verschil tussen GDDR5 en DDR3 qua bandbreedte en dubbel zoveel memory channels.

PS4 potentieel dus 4x sneller dan Xbox One.
Nutteloos gefilosofeer. Als je nu gewoon de feiten erbij pakt:

http://www.anandtech.com/...mpared-to-playstation-4/3

PS4 = 176.0 GB/s
XONE = 68.3 GB/s + 102 GB/s = 170 GB/s read / 102 GB/s write (]bron)

Potentieel 4x zo snel? Bullshit.
Die +100 die je doet is compleet absurd, want slechts een klein deel van de lookups krijgt een hit uit de SRAM.

Dat getal van 68GB/s is een theoretisch getal dat nog niet gehaald is met DDR3, daar de snelheid ook afhankelijk is van de memory controller en die is weer gelimiteerd door de tragere CPU die Microsoft heeft ingeslagen. 1.6Ghz naar verluidt.

Dat is een kwestie dus van Anandtech die echt filosofeert en natuurlijk graag de verschillen beperkt ziet.

Die 68GB/s zie ik 't echt niet halen hoor.

Verder gaat 't ook uit van enorm snel DDR3 geheugen wat ook gewoon niet realistisch is, want het zal dan weer tragere latencies hebben etcetera.

Die 1.6Ghz van de CPU die is dus factor 2+ trager dan de meeste bulldozers die tot wel 3.9Ghz draaien qua snelheid. Dit terwijl GDDR5 compleet bandbreedte geoptimaliseerd is, dus meer past bij zo'n architectuur.

Als je gpgpu draait dan is lezen uit de cache simpelweg niet altijd mogelijk. Bovendien kost het extra tijd om dit te doen als je dan geen hit hebt.

Verder is de cache ook gelimiteerd in grootte, terwijl de AMD gpu's dus anders werken dan Nvidia.

Elke thread op AMD gpu's pakt 256MB en dan is 32MB SRAM cache ineens niet zoveel voor de meeste games. Dat vereist een 3d engine die echt geniaal gebruik maakt van caching, terwijl we juist ZIEN dat de games simpelweg op de bandbreedte beuken.

Slechts 1 van de huidige games die populair zijn, is meer afhankelijk van de GPU crunching power dan van de bandbreedte van de GPU naar de RAM.

Per saldo zitten we dan nog steeds op een factor 2 a 3 die praktisch overblijft in het voordeel van Sony's PS4 in snelheid, zoals de kaarten nu geschud lijken te liggen.

Dat is immens veel sneller.

Dit terwijl de productieprijs van de ps4 versus de xbox one, maar in totaal tientje scheelt in prijs.

Xbox one zal zo rondom de 70 dollar liggen qua productieprijs versus ps4 zo tegen de 80 dollar als we realistische prijzen nemen.

De keuze voor DDR3 is dan compleet onbegrijpelijk, want als we kijken naar 't verleden dan kun je 20% snelheidsverschil nog wel maken. Vanaf 50% dan pleeg je harakiri.

Zelfs in de meest pessimistische vergelijking, vanuit Sony gezien, die je hier maakt zitten we op 50GB/s DDR3 versus 150GB/s GDDR5.

Tel wat hits erbij op in de cache, dan kom je uit op nog steeds meer dan factor 2 verschil in snelheid ten faveure van de PS4.

Dat is dus de meest optimistische manier van kijken ernaar en dan lijkt Microsoft toch been beetje als schlemiel te gaan verkopen, want alle games die op Xbox One kunnen draaien kunnen prima draaien op PS4 en vice versa, alleen dan 2x - 4x trager op Xbox One.

Wie koopt dan nog Xbox One?
Die +100 die je doet is compleet absurd, want slechts een klein deel van de lookups krijgt een hit uit de SRAM.
U werkt bij EA? zo nee, welke andere game-fabrikant dan? Anders kan je dat onmogelijk weten.

Overigens moet je in mijn ervaring behoorlijk je best doen om minder dan 50% L3 cache hit ratio te halen op de CPU. Een CPU met meer cache (shared tussen CPU en IGP) levert bij mij een snelheidswinst op van 20% in Cinebench OpenGL.
Dat getal van 68GB/s is een theoretisch getal dat nog niet gehaald is met DDR3, daar de snelheid ook afhankelijk is van de memory controller en die is weer gelimiteerd door de tragere CPU die Microsoft heeft ingeslagen. 1.6Ghz naar verluidt.
Toevallig is de CPU in de PS4 ook 1.6Ghz. Daarnaast is het al een decennium zo dat de memory bandwidth los staat van de kloksnelheid van de CPU.

In hoeverre is de bandwidth van de PS4 trouwens geen theoretisch getal???
Xbox one zal zo rondom de 70 dollar liggen qua productieprijs versus ps4 zo tegen de 80 dollar als we realistische prijzen nemen.
Ahh. U werkt ook bij AMD zie ik. NDA gemist?
Zelfs in de meest pessimistische vergelijking, vanuit Sony gezien, die je hier maakt zitten we op 50GB/s DDR3 versus 150GB/s GDDR5.
Ahh. Dus sony kan 85% van de theoretische bandwidth halen en de XONE 75% met 0% cache hits. Wat een bullshit. Nee echt.
Dat is dus de meest optimistische manier van kijken ernaar en dan lijkt Microsoft toch been beetje als schlemiel te gaan verkopen, want alle games die op Xbox One kunnen draaien kunnen prima draaien op PS4 en vice versa, alleen dan 2x - 4x trager op Xbox One.
Nu doe je het weer. 2-4x. Die 2x een totaal onzinnig getal. Laten we het over 4x maar niet hebben. De enige manier waarop je ooit op 2x uit gaat komen is als de developers bij microsoft massaal het memory gaan lopen trashen op zowel de CPU als de GPU.

Je hebt in deze thread nu al 10 keer genoemd dat de PS4 4x zo snel is als de XONE. Dat is totale bullshit. Zelfs een bewering dat-ie 10% sneller is zou ik afdoen als bullshit zonder zinvolle benchmarks of uitgebreide technische analyses.

En FYI: ik heb een wii.

[Reactie gewijzigd door Darkstone op 27 mei 2013 00:45]

Volgens: http://www.eurogamer.net/...ry-spec-analysis-xbox-one

Heeft het niet zozeer te maken met GDDR5 vs. DDR3, maar is de GPU ook gewoon minder. Ze komen tot de conclusie dat de One wel eens 50% trager zou kunnen zijn dan de PS4 hierdoor.
Op het gebied van de grafische hardware liet een medewerker van Microsoft per ongeluk weten dat de GPU van Microsofts console 768 operations per clock haalt. Hieruit kan volgens Digital Foundry, gegeven de architectuur van de One, gehaald worden dat de Xbox One 12 compute units bevat die ieder 64 operations per clock halen. Hiermee wordt duidelijk dat de PlayStation 4, welke 18 van deze compute units bevat, vijftig procent meer aan grafisch vermogen bevat.
Bron: http://www.gamersnet.nl/n...ger_dan_die_van_xbox_one/

Edit:

50% minder grafisch vermogen inderdaad. In hoeverre dit zich uit in het totale vermogen gaan we zien.

[Reactie gewijzigd door rickyy op 26 mei 2013 21:27]

Je moet alleen niet 50% sneller verwarren met 50% langzamer, daar zit een heel groot verschil tussen!

Auto A kan 100km/uur
Auto B kan 200km/uur

Auto A is 50% langzamer dan Auto B
Auto B is 100% sneller dan Auto A
Niet helemaal het geval, lees anders dit:
http://www.anandtech.com/show/6972/xbox-one-hardware-compared-to-playstation-4

Hier vergelijkt anandtech de xbox one en de ps4, met name dingen zoals het gebruikte geheugen zijn belangrijk omdat in het geval van de Xbox One de cpu veel profijt heeft van DDR3 geheugen terwijl de gpu van de PS4 veel profijt heeft van GDDR5. Hou er ook rekening mee dat de Xbox One eSRAM heeft en als dat goed wordt gebruikt als gedeelde cache tussen cpu en gpu dan kan dit erg veel voordeel opleveren.

Je hebt gelijk dat de xbox one een tragere cpu/gpu heeft, ik ben benieuwd hoeveel dit uiteindelijk gaat uitmaken.
je/anandtech vergeet alleen wel even blijkbaar dat de architectuur/memorycontroller van deze jaguar niet te vergelijken is met een normale pc architectuur. en hierdoor is de gddr5 net zo goed te gebruiken door de cpu als bij een normale pc architectuur ddr3 is.
maarja, het gddr5 geheugen is nog steeds zoveel sneller alsdat esdram dat het daarmee dat voordeel van die 32mb esdram weer teniet doet.
Je krijgt niet alles uit de SRAM cache. Verder is Anandtech beetje naief t.a.v. moderne GPU's. Die prefetchen namelijk al de RAM (bij AMD sinds de 6000 series).

Dus de prefetching richting de SRAM heeft nog steeds als bottleneck de bandbreedte van de DDR3 dan, terwijl de GDDR5 toch ook al geprefetched wordt.

Verder gaat iedereen ervan uit dat de game companies de besilssing nemen alles enorm te optimaliseren voor de Xbox One, terwijl ze al tevoren weten dat hun game op zowel xbox one als ps4 draait.

Waarom dat geld dan uitgeven om het maximum eruit te halen?

Het lijkt al alsof bij voorbaat ps4 dus factor 2 sneller gaat zijn dan Xbox One, wat zelfs kan oplopen tot factor 3 of meer.

Extra SRAM laag ertussen brengt ook extra latency met zich mee als hij niet goed functioneert!

We zien dat al bij CPU's natuurlijk. In principe is SRAM hetzelfde als de L3 en bij de games die wij geproduceerd hebben helpt de L2 wel enorm, maar helpt grotere L3 geen drol.
@rickyy in games is bandbreedte naar RAM het allerbelangrijkste.

De 6970 heeft hier 24 SIMD's. Elke SIMD heeft 64 processing elements.

De definitie van wat een compute core is, is heftig aan herdefinitie onderhavig.

Een compute core bij AMD is in achtereenvolgende jaren eerst geweest 1 SIMD.
Dus 1SIMD = 1 compute core = 64 processing elements

Later was het 1 SIMD = 16 compute cores = 64 processing elements.

We hebben van hun Indische helpdesk die heel hard altijd dingen herdefinieert dus al heel wat gezien in dat opzicht.

Het is dus wel handig om te weten hoeveel Processing Elements dit keer een compute core is.

Verder nog een andere definitieverwarring. 1 instructie op de GPU namelijk multiply-add, wat in games compleet niet gebruikt wordt, die wordt gezien, ja zelfs gedefinieerd, als zijnde 2 instructies.

Dus 1 processing element kan dus 2 instructies per clock uitvoeren omdat het een 'combinatie instructie is', terwijl in werkelijkheid je heel blij mag zijn als je 1 fysieke instructie per clock kunt uitvoeren.

De flops die iets haalt kun je dus eigenlijk altijd door 2 delen.
Hohoho, je moet de bron wel goed quoten.
Ze komen tot de conclusie dat de One wel eens 50% trager zou kunnen zijn dan de PS3 hierdoor.
Dat is iets HEEL ANDERS dan:
vijftig procent meer aan grafisch vermogen bevat.
En dan bedoel ik niet het verschil tussen '50% trager' en '50% sneller', maar het feit dat jij zegt dat het hele systeem wel eens 50% trager zou kunnen zijn op basis van niets meer dan 1 specifieke specificatie.

[Reactie gewijzigd door Darkstone op 26 mei 2013 21:34]

Ik vind 1080p en 60Hz juist een erg goede zaak. 720p van de huidige consoles ziet er niet uit en de enige logische stap is dan om naar 1080p te gaan. Vervolgens heb ik dan liever 60frames/sec dan betere settings. Shaduwen rederen bijvoorbeeld is erg zwaar werk, zet dat maar op 'low' wat mij betreft.

Ik hoop dat de nieuwe hardware 4-player splitscreen op 1080/60p kan produceren. Al zou het er grafisch uit zien als mw2, dan zou een pot cod met z'n vieren online nog steeds er gaaf zijn. Iets wat nu absoluut onmogelijk is. Als je 720p door vieren deelt blijft er sowieso weinig over.

Ik denk dan ook dat sony en microsoft juist hierop moeten inspelen en de splitscreen mogelijkheden moeten uitbreiden. Waarom zou je een nieuwe console kopen voor dezelfde pot fifa of cod maar dan met betere graphics? Voor graphics zijn er immer pc's.
uhm, splitscreen is imho alleen interessant als je met zn 2en/4en op de bank zit achter dezelfde tv, anders is splitscreen alleen alleen maar zeer irritant doordat je maar een klein stukje ziet.. voor online gaming zal men echt niet splitscreen gaan toevoegen...
Wij spelen hier wel vaak met z'n tweeën CoD online, maar we hebben wel een vaker dat we dit best met z'n drieën, of vieren willen doen. Onze TV is groot zat hiervoor. (vroeger was mariokart splitscreen 4 man ook nog erg leuk op een 37 cm, al zorgde je wel dat je er dan niet meer dan 2 meter vanaf zat.)

Ik zou dat wel echt een fijne toevoeging vinden voor games, vooral als je eens ergens met z'n allen zit en even online wil spelen. Anders moet je steeds wachten op elkaar, of besluit je om dan maar even offline te gaan spelen met z'n drieën of vieren.
Waarom precies? De PS3 is ook krachtiger dan de 360 en daar zijn ze aan elkaar gewaagd. Ik verwacht dat dat zo gaat blijven.
misschien omdat bij de nieuwe generatie de architectuur hetzelfde gaat zijn? Bij PS3 en X360 is het programmeren voord de PS3 veel te lastig. Verder is er natuurlijk nog helemaal niets te zegen over marketing, spellen en verkoopcijfers maar ok.
AMD levert een APU. Dat functioneert anders dan wat je gewend bent op console gebied.

DDR5 heeft 4x meer bandbreedte dan DDR3.

Dus voor veeleisende spellen is het precies factor 4 sneller, daar gros net zo snel is als de bandbreedte naar het geheugen.

Dus ik zet sterke vraagtekens bij wat Microsoft gekocht heeft in dat opzicht - wel zijn niet alle specificaties nog duidelijk. Bijvoorbeeld of de APU dus 2 geheugens heeft, in welk geval ze allebei ddr3 en ddr5 gaan krijgen.

Hoeveelheid RAM is niet zo belangrijk. Default bij AMD gpu's programmeer je in OpenCL met buffers van 256MB. Meer dan dat alloceren kan niet zo best (er is wel truuk om dat te doen, maar dat is voor games niet fijn). De hoeveelheid geheugen is het probleem dus niet.

In werkelijkheid zijn de meeste objecten grafisch een stuk kleiner hoor.Ze echter continue verplaatsen/modificeren op het scherm, dat doen de meeste developers vrij bot en lomp met als gevolg dat de bandbreedte van het geheugen het belangrijkste is wat een GPU te bieden heeft.

Als het echt zo is dat microsoft alleen en enkel en alleen DDR3 heeft ingekocht en geen SRAM buffer ergens die groot genoeg is noch DDR5, dan hebben ze kat in de zak gekocht.
aangezien we nog totaal niet weten wat het effect is van het eSram, is het wel heel voorbarig om te besluiten dat de PS4 4x meer bandbreedte heeft

laten we gewoon afwachten
die dingen worden gebouwd door extreem slimme mensen, ik ben er dus heel gerust in dat beide systemen goed gaan werken
SRAM is zelfde als L3 cache bij CPU's.

Ja dit valt goed in te schatten. Namelijk als ik aan hoofd zou staan van de gamebedrijven waarmee ik zaken deed, dan zou ik dat geld niet uitgeven.

Zij kopen game engines in. Er is geen reden voor hen om een game engine in te kopen die utmost optimized is voor Xbox One, als je ding prima loopt op Xbox One EN de PS4.

Als de PS4 dus factor 2-4 sneller is, dan kopen de kids je game toch wel voor de ps4 of niet?

L3 helpt geen bal op het moment dat je working set size groter is dan 32 MB. Op de gpu's stream je alles. Dus dat is dan complete ellende voor een grotere L3.

Vandaar dat de GPU's kleine L2 caches meestal hebben. Groter heeft toch geen nut.

In dit geval zou je dus heel specifiek moeten optimaliseren voor Microsoft. Ik zie dat niet gebeuren.
Maar sinds wanneer kun je met 50% meer shaders dan ook 100% meer FPS laten zien? Dat klopt al helemaal niet. Bovendien bestaat een GPU uit meer dan alleen shaders.

Het is mogelijk om bepaalde dingen door te rekenen op dit moment, maar je kunt nog geen enkele vergelijking maken op graphics gebied, puur omdat er nog geen ingame beelden van de X1 zijn vrijgegeven. Verder lijkt het me sterk dat ze op zaken als FPS gaan downsizen, dat lijkt me als ontwikkelaar ook helemaal niet zinvol. Beter is het om zaken als drawdistance, max shadows en andere zaken te downsizen om dezelfde performance te halen.

50% sneller is wat theoretisch mogelijk is, maar wie zegt dat dat helemaal haalbaar is?
Plus dat de CPU optimaler werkt met het DDR3 geheugen (GPU is er trager mee, maar CPU dus niet). Kijk de Best Buy van Maart/Mei maar eens, daar zit geen GDDR5 als geheugen op het moederbord.
Ik weet niet zoveel van het interne van CPU's, maar een ding weet ik mij wel te herinneren is dat de nieuwe memory controller van AMD wel gebouwd is om GDDR5 geheugen optimaal te gebruiken.

Dat er geen Best Buy systemen zijn met GDDR5 geheugen lijkt mij logisch gezien er nog geen systemen zijn die dat ondersteunen. Maar blijkbaar komt het er wel aan en zal het wel zijn voordeel bieden t.o.v. DDR3. http://www.brightsideofne...hitecture-gets-gddr5.aspx
Als het echt zo is dat microsoft alleen en enkel en alleen DDR3 heeft ingekocht en geen SRAM buffer ergens die groot genoeg is noch DDR5, dan hebben ze kat in de zak gekocht.
Meen ergens in een technisch artikel te hebben gelezen dat het grote verschil tussen beide veelal heeft te maken dat het ene is ontworpen met games in gedachte en het andere om een meer bredere multimedia machine te bouwen. Dan maak je blijkbaar andere designkeuze's.

EDIT : vond ik ook nog interessant
Microsoft never had the luxury of this moving target. With multimedia such a core focus for its hardware, it set out to support 8GB of RAM from day one (at the time giving it a huge advantage over the early PS4 target RAM spec) and with serious volume of next-gen DDR4 unattainable in the time window, it zeroed in on supporting DDR3 and doing whatever was necessary to make that work on a console. The result is a complex architecture - 32MB of ESRAM is added to the processor die, along with "data move engines" to courier information around the system as quickly as possible with bespoke encode/decode hardware to alleviate common bottlenecks. Bottom line: if you're wondering why Xbox One has a weaker GPU than PlayStation 4, it's because both platform holders have similar silicon budgets for the main processor - Sony has used the die-space for additional compute units and ROPs (32 vs. 16 in One), while Microsoft has budgeted for ESRAM and data move engines instead. From the Xbox perspective, it's just unfortunate for Microsoft that Sony's gamble paid off - right up until the wire, it was confident of shipping with twice the amount of RAM as PlayStation 4.
http://www.eurogamer.net/...ry-spec-analysis-xbox-one

[Reactie gewijzigd door simplicidad op 26 mei 2013 19:06]

Op dit item kan niet meer gereageerd worden.



Populair: Tablets Mobiele netwerken Gamecontrollers Smartphones Sony Microsoft Apple Games Consoles Politiek en recht

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013