'Sony pusht actief PS4-ontwikkelaars voor games met 60fps op 1080p-resolutie'

Sony zou spelontwikkelaars zoveel mogelijk aanmoedigen en pushen om games voor de PlayStation 4 te ontwikkelen die bij een resolutie van 1080p rond de 60 frames per seconde kunnen renderen, zo meldt een gamedeveloper.

In een interview met Eurogamer naar aanleiding van de introductie van de Xbox One komt developer Stewart Gilray, die voor Just Add Water aan een nog onbekende PS4-titel werkt, aan het woord. Volgens Gilray zal de PS4 soepeler gameplay gaan bieden op hogere resoluties. Bovendien zou Sony ontwikkelaars zoveel mogelijk aanmoedigen en helpen om games op 1080p-resoluties met 60fps soepel te laten draaien. Dit zou tot consequentie kunnen hebben dat in bepaalde gevallen de graphics iets achter zouden blijven op de Xbox One, of er moet gekozen worden om tijdelijk 30fps te gebruiken.

Gilray stelt verder dat een game die het uiterste vergt van de hardware van de PlayStation 4, de developer de code voor de Xbox One vermoedelijk zal moeten tweaken. Als een Xbox One-titel gemiddeld 60fps scoort, dan zou de game deze verversingssnelheid ook probleemloos op de PS4 moeten kunnen behalen. Volgens de developer is vermoedelijk het 8GB gddr5-werkgeheugen in de PS4 daar de oorzaak van; de Xbox One is uitgerust met trager 8GB ddr3-werkgeheugen.

Sony PlayStation 4

Door Dimitri Reijerman

Redacteur

26-05-2013 • 16:23

232

Submitter: witeken

Reacties (232)

232
206
128
8
0
25
Wijzig sortering
Volgens: http://www.eurogamer.net/...ry-spec-analysis-xbox-one

Heeft het niet zozeer te maken met GDDR5 vs. DDR3, maar is de GPU ook gewoon minder. Ze komen tot de conclusie dat de One wel eens 50% trager zou kunnen zijn dan de PS4 hierdoor.
Op het gebied van de grafische hardware liet een medewerker van Microsoft per ongeluk weten dat de GPU van Microsofts console 768 operations per clock haalt. Hieruit kan volgens Digital Foundry, gegeven de architectuur van de One, gehaald worden dat de Xbox One 12 compute units bevat die ieder 64 operations per clock halen. Hiermee wordt duidelijk dat de PlayStation 4, welke 18 van deze compute units bevat, vijftig procent meer aan grafisch vermogen bevat.
Bron: http://www.gamersnet.nl/n...ger_dan_die_van_xbox_one/

Edit:

50% minder grafisch vermogen inderdaad. In hoeverre dit zich uit in het totale vermogen gaan we zien.

[Reactie gewijzigd door rickyy op 24 juli 2024 15:57]

Niet helemaal het geval, lees anders dit:
http://www.anandtech.com/show/6972/xbox-one-hardware-compared-to-playstation-4

Hier vergelijkt anandtech de xbox one en de ps4, met name dingen zoals het gebruikte geheugen zijn belangrijk omdat in het geval van de Xbox One de cpu veel profijt heeft van DDR3 geheugen terwijl de gpu van de PS4 veel profijt heeft van GDDR5. Hou er ook rekening mee dat de Xbox One eSRAM heeft en als dat goed wordt gebruikt als gedeelde cache tussen cpu en gpu dan kan dit erg veel voordeel opleveren.

Je hebt gelijk dat de xbox one een tragere cpu/gpu heeft, ik ben benieuwd hoeveel dit uiteindelijk gaat uitmaken.
je/anandtech vergeet alleen wel even blijkbaar dat de architectuur/memorycontroller van deze jaguar niet te vergelijken is met een normale pc architectuur. en hierdoor is de gddr5 net zo goed te gebruiken door de cpu als bij een normale pc architectuur ddr3 is.
Je moet alleen niet 50% sneller verwarren met 50% langzamer, daar zit een heel groot verschil tussen!

Auto A kan 100km/uur
Auto B kan 200km/uur

Auto A is 50% langzamer dan Auto B
Auto B is 100% sneller dan Auto A
Anoniem: 303530 @rickyy26 mei 2013 21:19
Hohoho, je moet de bron wel goed quoten.
Ze komen tot de conclusie dat de One wel eens 50% trager zou kunnen zijn dan de PS3 hierdoor.
Dat is iets HEEL ANDERS dan:
vijftig procent meer aan grafisch vermogen bevat.
En dan bedoel ik niet het verschil tussen '50% trager' en '50% sneller', maar het feit dat jij zegt dat het hele systeem wel eens 50% trager zou kunnen zijn op basis van niets meer dan 1 specifieke specificatie.

[Reactie gewijzigd door Anoniem: 303530 op 24 juli 2024 15:57]

@rickyy in games is bandbreedte naar RAM het allerbelangrijkste.

De 6970 heeft hier 24 SIMD's. Elke SIMD heeft 64 processing elements.

De definitie van wat een compute core is, is heftig aan herdefinitie onderhavig.

Een compute core bij AMD is in achtereenvolgende jaren eerst geweest 1 SIMD.
Dus 1SIMD = 1 compute core = 64 processing elements

Later was het 1 SIMD = 16 compute cores = 64 processing elements.

We hebben van hun Indische helpdesk die heel hard altijd dingen herdefinieert dus al heel wat gezien in dat opzicht.

Het is dus wel handig om te weten hoeveel Processing Elements dit keer een compute core is.

Verder nog een andere definitieverwarring. 1 instructie op de GPU namelijk multiply-add, wat in games compleet niet gebruikt wordt, die wordt gezien, ja zelfs gedefinieerd, als zijnde 2 instructies.

Dus 1 processing element kan dus 2 instructies per clock uitvoeren omdat het een 'combinatie instructie is', terwijl in werkelijkheid je heel blij mag zijn als je 1 fysieke instructie per clock kunt uitvoeren.

De flops die iets haalt kun je dus eigenlijk altijd door 2 delen.
maarja, het gddr5 geheugen is nog steeds zoveel sneller alsdat esdram dat het daarmee dat voordeel van die 32mb esdram weer teniet doet.
Je krijgt niet alles uit de SRAM cache. Verder is Anandtech beetje naief t.a.v. moderne GPU's. Die prefetchen namelijk al de RAM (bij AMD sinds de 6000 series).

Dus de prefetching richting de SRAM heeft nog steeds als bottleneck de bandbreedte van de DDR3 dan, terwijl de GDDR5 toch ook al geprefetched wordt.

Verder gaat iedereen ervan uit dat de game companies de besilssing nemen alles enorm te optimaliseren voor de Xbox One, terwijl ze al tevoren weten dat hun game op zowel xbox one als ps4 draait.

Waarom dat geld dan uitgeven om het maximum eruit te halen?

Het lijkt al alsof bij voorbaat ps4 dus factor 2 sneller gaat zijn dan Xbox One, wat zelfs kan oplopen tot factor 3 of meer.

Extra SRAM laag ertussen brengt ook extra latency met zich mee als hij niet goed functioneert!

We zien dat al bij CPU's natuurlijk. In principe is SRAM hetzelfde als de L3 en bij de games die wij geproduceerd hebben helpt de L2 wel enorm, maar helpt grotere L3 geen drol.
Ben nu ik dit zo lees ook eigenlijk benieuwd of men ook Dolby Tru HD en , Thx en 7.1 surround sound gaat inbouwen of blijft het bij 5.1 ?

Stereo is zo achterhaald in mijn ogen en geluid kan zoveel sfeer aan een spel / film toevoegen !

Maar wel goed dat men eindelijk eens goed gebruik gaat maken van Full HD .
Via HDMI had je all 5.1 op de PS3, en Dolby Digital en DTS-audio.

http://manuals.playstation.net/document/nl/ps3/current/settings/audiooutput.html

Zo veel beter klinkt DTS-HD Master niet dan DTS, of je moet dure Versterker van €600 a €1000 kopen en een dure 5.1 Bi-amp Speakers van ook rond de €600,- a €1000,-

Dan ben je all op zijn goedkoop €1200,- kwijt, en dan hoor je misschien als je het geluid aardig hard kan zetten (zonder last van de buren), het verschil.

En het zelfde met Dolby Digital en Dolby Tru HD, al geef ik de voor keur aan DTS a DTS-HD Master.

Maar ja het lijkt mij dat de PS4 Dolby Digital en Dolby Tru HD en DTS en DTS-HD Master gewoon zal hebben.


Edit: PS3 heeft Dolby Digital en DTS alleen via Optisch digitaal, niet via HDMI.

Bij gebruik van een HDMI-kabel wordt alleen [Lineaire PCM 2 kanalen]-audio uitgevoerd van PlayStation®2- en PlayStation®-software. Om Dolby Digital of DTS-audio uit te voeren moet u het PS3™-systeem met het audioapparaat verbinden door middel van een digitale optische kabel en [Optisch digitaal] instellen onder [Instellingen audio-uitvoer].

[Reactie gewijzigd door AmigaWolf op 24 juli 2024 15:57]


Edit: PS3 heeft Dolby Digital en DTS alleen via Optisch digitaal, niet via HDMI.

Bij gebruik van een HDMI-kabel wordt alleen [Lineaire PCM 2 kanalen]-audio uitgevoerd van PlayStation®2- en PlayStation®-software. Om Dolby Digital of DTS-audio uit te voeren moet u het PS3™-systeem met het audioapparaat verbinden door middel van een digitale optische kabel en [Optisch digitaal] instellen onder [Instellingen audio-uitvoer].
Huh! Wat? Je quote:
PS3 heeft Dolby Digital en DTS alleen via Optisch digitaal, niet via HDMI.
is dus onjuist volgens je eigen quote van de handleiding. Dat geldt alleen voor PS1/PS2 spellen. Niet zo'n ramp aangezien ik volgens mij maar 1 PS2 spel in bezit heb welke 5.1 is (FF XII).

PS3 spellen en bluray films kunnen gewoon tot en met 7.1 (PCM) over HDMI. Optisch slechts tot en met 5.1 (en dan alleen DD/DTS).
Nee volgens de handleiding kan je alleen via Optisch digitaal (OPTICAL) Dolby Digital en DTS krijgen, en dat is NIET via HDMI.

Dus ik zeg niks fout, want ik heb het over Dolby Digital en DTS en niet hoeveel kanalen de HDMI aansluiting kan hebben, ik zij dat je al op de PS3 via HDMI 5.1 heb, natuurlijk kan je ook 7.1 doen, maar via HDMI mis je 2 grote dingen en dat is Dolby Digital en DTS.

Om Dolby Digital of DTS-audio uit te voeren moet u het PS3™-systeem met het audioapparaat verbinden door middel van een digitale optische kabel en [Optisch digitaal] instellen onder [Instellingen audio-uitvoer].

http://manuals.playstation.net/document/nl/ps3/current/settings/audiooutput.html

Maar je kan lossless LPCM via HDMI sturen naar de versterker.

The PS3 is decoding the lossless audio and sending to the receiver as LPCM. So even though you're not seeing the fancy lights that you might have paid for, you're getting higher quality audio. What you really want to check out is the PS3's info, which should now show that you are indeed getting the lossless audio.

Dan heb je volgens deze site de zelfde kwaltijd audio als Dolby TrueHD en DTS-HD MA, maar dan als LPCM.

http://www.engadget.com/2009/04/21/hd-101-how-to-use-dolby-truehd-and-dts-hd-with-your-ps3/

[Reactie gewijzigd door AmigaWolf op 24 juli 2024 15:57]

Je leest te selectief:
Bij gebruik van een HDMI-kabel wordt alleen [Lineaire PCM 2 kanalen]-audio uitgevoerd van PlayStation®2- en PlayStation®-software. Om Dolby Digital of DTS-audio uit te voeren moet u het PS3™-systeem met het audioapparaat verbinden door middel van een digitale optische kabel en [Optisch digitaal] instellen onder [Instellingen audio-uitvoer].

De PS3 kan ook PS1 en PS2 spellen afspelen, maar schijnbaar alleen in DD/DTS over optisch. Er staat niet dat de PS3 geen DD/DTS over HDMI kan.

Kijk goed bij het screenshot bij punt 5. Daar staat gewoon DD/DTS ter selectie.
Maar goed, effe snel wat screenshots van mijn ps3:
http://imgbucket.net/images/ps3output.jpg
Wat je ook wilt beweren, optisch kent minimaal even veel opties als hdmi als type output. Mocht je AAC missen, dat ondersteunt mijn tuner niet en die zie je dan ook niet bij automatische selectie.

"Dan heb je volgens deze site de zelfde kwaltijd audio als Dolby TrueHD en DTS-HD MA, maar dan als LPCM."

Dat komt omdat DD TrueHD en DTS-HD dus niet ondersteunt worden (vandaar ook mijn opmerking 7.1 in PCM). Het rare is dat de PS3 wel voldoende tijd overheeft om het signaal te decoderen en in PCM over te sturen ipv gewoon het orginele signaal op de kabel te zetten.
De eerste modellen konden inderdad niet bitstreamen, maar het uitpakken naar PCM is ook weer niet zo intensief..

Maar optisch is toch wel een heel stuk beperkter dan wat er over HDMI kan, HDMI heeft gewoon veel meer bandbreedte ter beschikking, over SPDIF (optisch of coax) ben je gewoon bepertk tot stereo ruwe audio (PCM) of compressed max 5.1 DD/DTS
Volgens mij heeft de helft geen flauw idee wat de verschillen zijn tussen DTS/Dolby Digital en vooral dat PCM eigenlijk het beste signaal is dat je kan hebben... Uncompressed, rauwe audio. Simpel versterkertje ertussen met gewenst aantal kanalen en je hebt een audiobeeld dat zoveel mogelijk klinkt als het bedoeld is. EQ, virtual surround en dito technieken zorgen alleen maar voor vervorming en voegen vrij weinig toe. Het enige dat je kan doen om je audio kwaliteit sterk te verbeteren (buiten het hebben van een goed setje speakers/versterker natuurlijk) is aansluiten met een toslink kabel. Een wereld van verschil met tulpjes of minijack / spdif en daarmee heb je ook toegang tot lossless en is je hele audio verhaal digitaal wat een groot voordeel is voor de helderheid en kwaliteit.

Er valt verder op audio gebied echt niet zo gek veel te doen. 7.1 is een luxe item dat alleen is weggelegd voor mensen met een goede akoestische ruimte die ook nog eens groot genoeg is. 7.1 op je zolderkamertje heeft namelijk totaal geen zin omdat het dan klinkt als stereo (spul staat te dicht op elkaar) en is ook maar een verbetering in de marge als je al 5.1 hebt. En al die audiocodecs doen meer fout dan goed -uncompressed is altijd beter.
De eerste modellen konden inderdad niet bitstreamen, maar het uitpakken naar PCM is ook weer niet zo intensief..
Die eerste modellen zijn dan niet in Europa op de markt gekomen. Bitstream is gewoon een optie op een nederlandse launch date ps3.

Overigens zijn de volumes van kanalen van een DTS-HD bitstream en de PCM opslitsing door de ps3 totaal anders op mijn tuner. Indien een bluray beschikt over dts 5.1 of uncompressed 5.1 pcm is de laatste inderdaad een betere keuze.
Stuur maar eens lossless uit over toslink, dan kan je met de meeste versterkers echt tot aan de absolute max qua volume en vergeleken met tulp gaat het bijna twee keer zo hard uit je speakers :P. Je *voelt* bijna dat het signaal robuuster en helderder is.

Voor kwaliteit audio is toslink zonder meer de beste consumenten oplossing. HDMI, tulp, spdif heeft allerlei beperkingen. Sowieso een ondergeschoven kindje, Toshiba had toslink toen het uitkwam veel meer moeten marketen... Gelukkig zit de aansluiting tegenwoordig wel vrijwel overal op waar het relevant is.

[Reactie gewijzigd door Vayra op 24 juli 2024 15:57]

Dat zal best, maar ik stuur toch echt lossless audio uit over de HDMI, want iedere redelijke Grafische kaart heeft een onboard audio controller tegenwoordig, en dan kan je gewoon lossless Audio uit zenden over HDMI, of Bitstreaming noemen ze het ook wel.

En dan is er geen verschil in audio, en heb je geen toslink nodig, scheelt weer een kabel.

[Reactie gewijzigd door AmigaWolf op 24 juli 2024 15:57]

Mijn versterker geeft gewoon Dolby Digital aan hoor op het scherm bij BF3 op mijn PS3 via HDMI...
Ik weet niet hoor maar de PS3 had al True-HD en Dts HD-MA ondersteuning dus lijkt me wel dat dit ook met de PS4 gaat kunnen....
Niet in games, zelfs DTS wordt erg weinig gebruikt bij games, en al helemaal niet op de 360. Ik zou een Dolby TrueHD/DTS-HD verplichting wel kunnen waarderen :)
DTS weinig gebruikt op de 360 klopt inderdaad (vrijwel alleen Dolby Digital), maar voor de Playstation is dat simpelweg niet waar...

Een greep uit de laatste Digital Foundry Face Offs:

Resident Evil Revelations
X360: Dolby Digital (stereo)
PS3: Dolby Digital (stereo)

Metro: Last Light
X360: Dolby Digital
PS3: Dolby Digital, DTS, 5.1LPCM, 7.1LPCM

Far Cry 3: Blood Dragon
X360: Dolby Digital
PS3: Dolby Digital, DTS, 5.1LPCM

Dead Island Riptide
X360: Dolby Digital
PS3: Dolby Digital, DTS, 5.1LPCM, 7.1LPCM

Bioshock Infinite
X360: Dolby Digital
PS3: Dolby Digital, DTS, 5.1LPCM

Zo kan ik nog wel even doorgaan...

[Reactie gewijzigd door NewDust op 24 juli 2024 15:57]

Lijkt me een logisch gevolg van de keuze van DVD vs Blu-Ray...

Ik verwacht dat bij de komende generatie dit veelal meer gebruikt zal worden, sowieso 5.1 ipv 2.0/2.1.

HD audio neemt nu eenmaal redelijk veel ruimte in beslag. Op DVD was dit simpelweg niet mogelijk zonder een extra DVD te gaan gebruiken. 90-98% van de mensen zou dit erger vinden dan een wat mindere audiotrack.
Waarom? Wat is er mis met PCM?

Red Dead Redemption doet hier 7.1 PCM als ik het me goed herinner.

[Reactie gewijzigd door JackDashwood op 24 juli 2024 15:57]

Red Dead Redemption
X360: Dolby Digital
PS3: Dolby Digital, DTS, 5.1LPCM
Maar word het ook gebruikt in games?
Waarom zouden games dat gebruiken ? Games genereren gewoon uncompressed PCM audio. Waarom zou je dit naar DTS-MA of Dolby TrueHD encoden ? Zorgt alleen maar voor extra latency in de audio en bied exect 0 voordelen.
Ik heb verschillende spellen die in 7.1 vanuit de PS3 gestuurd worden, dus ja, meer kanaals audio wordt zeker gebruikt in games!
Maar word het ook gebruikt in games?
Moet je wel een set hebben die dat soort dingen ondersteund en ik denk niet dat er veel mensen zijn die dat hebben. Vraag me af of er serieus mensen zijn die dat speciaal voor de PS4 zouden doen. ;)
Dat was alleen bij de jongere modellen. Alle modelen van voor 2010 deden het niet helemaal er werd een software truuk uitgehaald.
(en we hebben het dan alleen over de BD afspeel mogelijkheden)

First-generation PS3s can output in TrueHD and DTS-HD MA, but they can only do so through linear PCM

[Reactie gewijzigd door Dj Neo Ziggy op 24 juli 2024 15:57]

Dat valt nog wel zeer hard mee, iedere degelijke koptelefoon ooit is nog steeds stereo en het grootste deal van de mensen met een speaker set up heeft dit ook nog als stereo. Voor spellen die op films lijken kun je denk ik beter bij de PS One zijn.
ik heb al van voor de eerste xbox een 5.1 digital surround set, en heb die indertijd ook speciaal gekocht omdat ik meer plezier zou hebben van films die ik toen via de pc afspeelde op m'n tv (geluid via s/pdif naar de receiver)...


voor de xbox had ik nog een sega dreamcast gehad en de playstations heb ik ook gehad ...

ik ben van sega & sony naar microsoft omgeschakeld speciaal omdat die juist dolby surround hadden voor hun games... dat voegt echt véél toe, zeker bij racegames is dat niet te vergelijken met een dom stereogeluidje...
Ook het xbox live gebeuren sprak me enorm aan natuurlijk want ik was ook een pc gamer sinds jaar en dag. het online gebeuren van de sega dreamcast was maar vrij mager en met microsoft hoopte ik dat het van een heel ander kaliber zou zijn, en dat was het ook...

Ik zou nu zeker géén console meer kopen waarvan de games niet in dolby (digitaal uiteraard) surround zijn; daarom heb ik ook geen wii enzo in huis gehaald; die dingen zijn duidelijk voor kids op een gewone tv...

Er zijn trouwens ook echte dolby surround koptelefoons hoor. En dan bedoel ik niet '3D Sound' of 'Virtual Surround' of 'Dolby Prologic' koptelefoons maar échte volwaardige Dolby Digital full surround koptelefoons die volledig 5.1 weergeven door meerdere speakers in de oorstukken te plaatsen (de frontspeaker is dan dubbel uitgevoerd; 1x in elk oor). Eigenlijk is het verwerkte geluidsspoor 5.0 want een LFE-speaker (low frequency effects/subwoofer) past niet in je headset. (het afgespeelde geluidsspoor is 5.0, het signaal in de headset is 6.0 want de frontspeaker is 2x uitgevoerd, anders zou je maar aan 1 oor een 'voorzijde' hebben)

[Reactie gewijzigd door bogy op 24 juli 2024 15:57]

Waar baseer je dat nou weer op? Het grootste deel van de mensen heeft een 2.0 setup? Feiten graag en bronnen, want daar geloof ik dus niks van :) Ik heb geen cijfers en stel dus niks maar mijn vermoeden is dat de meeste gamers inmiddels toch wel een 5.1 setje gebruiken.
Nou nee. Ik ken in mijn omgeving slechts een enkeling die dat doet. En dan is het eerder 7.1, want als je het doet kun je het beter goed doen. Maar het is vooral 2.0, en dan meestal via de koptelefoon wat het slaat(En dat klinkt prima in vergelijking met 5.1 geluid hoor, als er maar een beetje rekening mee word gehouden).

Het hangt ook een beetje van je situatie af, in veel appartementen of banen als kok waar je in de avond werkt en dan laat thuiskomt, kleine kinderen in huis heb, een vriendin die onregelmatig werkt als verpleegster, een vrouw die niet zit te wachten op een kabelbrei, etc. dan zit het er vaak niet in dat je een denderende subwoofer kan gebruiken met een mooie 5.1 set.
Het lijkt me een erg, heel erg sterk verhaal dat de meeste gamers een 5.1 setup gebruiken.

Ik heb persoonlijk een wel een verse 5.1 receiver, maar gebruik het bijna alleen maar met virtual headphone surround. En als ik de speakers aandoe is het 4.0 met zelfgebouwde gevalletjes, geen subwoofer of center. En het enige surround wat ik hiervoor had was een Creative 4.1 set toen dat nog net nieuw was, en dat is onderhand ook 20 jaar terug.
stereo word nogsteeds door de meeste gamers gebruikt

en dat zeker als je naar game headsets kijkt vrijwel allemaal stereo met 5.1 virtueel surround
In mijn vriendenkring binnen de gamers-kring heeft iederen een 5.1 speaker set voor de computer maar gebruiken we die geen van allen...zijn allemaal overgestapt op goede headset (sommige 5.1)
Op zich een goede zaak, maar je maakt mij niet wijs dat ze dat trekken met een degelijke AA en overige specs open. Mijn i5/8GB/HD7850 trekt Crysis3 met 2x MSAA op high al amper op een constante 50 FPS.
Je vergeet daarbij wel een belangrijk element: Software. De prestaties van een PC zijn altijd gebonden aan de juistheid van de drivers en wat er op de achtergrond allemaal meedraait.
Spellen voor consoles als de XBOX one en de PS4 kunnen veel beter worden geoptimaliseerd omdat de gebruikte hard/(en - software) altijd gelijk is.
Optimaliseren is inderdaad enorm. Maar mensen verwachten geloof ik hetzelfde als bij de PS3/360, en ik verwacht dat dus niet.

De PS3 beschikte over een 7800GTX. Als de console niet was uitgesteld, was dat de sterkste NVIDIA-kaart toen beschikbaar. Hetzelfde geld voor de 360, die console was gebaseerd op de sterkste GPU.
De One heeft een GPU die 1,2 TFLOPS doet (HD 7770-niveau) en de PS4 eentje die 1,8 TFLOPS doet (HD 7850 niveau). Ter vergelijking: de sterkste videokaarten van dit moment doen 7 TFLOPS. Als je rond hetzelfde niveau zit als 8 jaar terug (HD 7970/GTX 680 (GTX 780)) zit je rond 3-4x het niveau van de GPU's van de PS4/One.
Om dan maar niet te beginnen over de processor van die systemen. Waar de PS3 een zelf ontworpen Cell-processor had (uberkrachtige serverchip) bezitten deze systemen een AMD Jaguar 8-core. Die komt in 4-core vorm naar tablets en ultra-low-voltage budget netbooks.

Nogmaals, met optimaliseren gaan ze heus wel wat bereiken, maar bedenkend dat dit 4-8 jaar mee moet, en de Wet van Moore stand houdt, ga je het met optimaliseren echt niet rekken. Ik vind de specificaties van de next-gen systemen schrikbarend laag en ik denk echt wel dat dat gevolgen gaat hebben.
Je vergeet echter dat het grootste gebruik op dit moment van de consoles niet de GPU was maar het beperkte geheugen. Zeker ook omdat je bij de 360 als ontwikkelaar niet kon uitgaan van een HD en ook nog ondersteuning voor lage resolutie tv's moest toevoegen.
Meer geheugen, meer en krachtigere processors, gegarandeerde schijfruimte en een beter geoptimaliseerd proces (data heeft minder hindernissen dan bij een pc) zorgen echt wel voor een flinke boost hoor. Bovendien zijn het aantal transistors van de CPU ook behoorlijk hoog.

Tuurlijk de graphics zullen de komende tijd vooral in het oog springen bij de nieuwe consoles, maar zaken als AI, gameplay elementen, customizability, aantal spelers per map e.d. zullen ook allemaal uitgebreid worden. Graphics zijn bepalend geweest voor de huidige generatie, maar de andere elementen bij games zijn ook steeds verder uitgebreid. Kijk naar de customization in COD, kijk naar de animaties van Battlefield, naar de gezichten van LA Noire en naar de schaal van een Planetside of MAG. Dat soort zaken zullen de komende tijd alleen maar beter worden en het zal dan ook eerder afhangen van hoeveel tijd een ontwikkelaar in een game kan en mag steken.

Even transistorverhaal verbeterd

[Reactie gewijzigd door Martinspire op 24 juli 2024 15:57]

Wat ik las heeft de Xbox One 5 miljard transistors (ps4 kon ik zo gauw niet vinden), een GTX780 heeft er al 7.1 miljard, dus volgens mij klopt wat je daar zegt niet.
trijn
ik vind hem origineel. overigens is paardenkracht 1 woord.

Maar je hebt wel gelijk. ik kan nog zoveel transistoren erin gooien, het gaat erom hoe ze gebruikt worden. Zelfs als twee autos evenveel paardenkracht hoeft dat nog niet te betekenen dat ze hetzelfde rijden.
Je vergeet een belangrijke factor in de rekenkracht, namelijk de instructieset. Als deze efficient is,. maakt het niet uit de het "maar" 1.8TFLOPS doet.
Tuurlijk maakt dat wel uit.

Ik vraag mij af of een 1,8 TFLOPS videokaart waar extreem efficient voor geprogrammeerd is, het vol kan houden tegenover videokaarten die 18 GFLOPS gaan doen. Want dat is waar we over 4-8 jaar zeker tegenover staan.
Je bedoelt waarschijnlijk 18 PFlops (peta is 10x meer dan tera). Maar het is de vraag of de grafische chips die richting in gaan. Ik denk eerder dat ze zuiniger en stiller gaan worden dan dat ze weer gigantisch veel sneller zullen worden. 200 Petaflops is leuk, maar dan moet je ze ook wel gaan benutten met gedetailleerde omgevingen en dat is gewoon veel teveel werk. Dan kost je het je geen 100 miljoen om een game te maken maar 2 miljard of meer.
Ik denk eerder dat er meer automatisch gedaan wordt door GPU's. Dat developers niet iedere polygoon apart hoeven te plaatsen, maar dat systemen detail zelf gaan berekenen. Technieken als tesselation, bijvoorbeeld. Ik denk dat we nog meer van dat soort dingen gaan zien.
tesselation heeft nog wel een base model nodig . als die niet gedetailleerd genoeg is kan je er nog zoveel tesselation op afvuren... het is meer dat je vanaf een model ziet dat er op lijkt maar veel minder polygons nodig heeft. Dat wordt automatisch gedaan. Hoeven ze niet meerdere modellen te maken voor LOD

[Reactie gewijzigd door boto op 24 juli 2024 15:57]

Als ze schrikbarend laag zijn, dan zou het mij niet verbazen dat ze juist over 3 jaar weer met een nieuwe snellere console komen..? Want wat Apple lukt met hun snellere hardware, waarom zou MS en Sony dit dan ook niet gaan lukken? Want let wel, zoals eerder wordt opgemerkt, ze maken beiden van vrijwel reguliere verkrijgbare x86 technieken. Ontwikkel trajecten zullen vast enorm korter zijn dat met de vorig versies.

Zou mij niet verbazen wanneer de volgende hardware versie *wel* backwards compatibel zullen zijn. Want het verdienmodel zou niet langer meer gebaseerd zijn op aanschaf, maar een maandelijkse abonnement. En de studios krijgen naar ratio speeluren betaald. Wij als consument zou alles kunnen spelen tegen een fixed maandbedrag. Lijkt mij wel wat, spotify voor games.
Hoeveel maandabonnementen en vaste lasten wil je hebben? Ik heb daar dus echt helemaal geen behoefte aan. Ben je 4 weken op vakantie, kun je toch dertig tot vijftig euro aftikken voor je games. Fijn!
We leven ook in andere tijden dan 8 jaar geleden. Vroeger bleven game-pc's relatief bescheiden. Pas met de ATI 2900xt en Nvidia 8800GTX(2007) kwamen echt de grote GPU's met hoge tdp's. Toen waren de console's al uit en moesten spellen als crysis nog uitkomen.

Crysis kwam uit met DirectX 10 ondersteuning, blies de console graphics van de kaart, maar bleek op geen enkel systeem speelbaar. Sindsdien is GPU enorm doorontwikkeld. Om met het product hiervan te concureren moet je echt goed in de buidel tasten. 7 jaar geleden was er simpelweg niet zo iets belachelijks als een Nvidia Titan.

Een kaart van 150euro in een console van 400euro is best interessant IMO. Het ligt er voor mij vooral aan hoe duur de consoles worden. Wat wel meespeelt is de initiele vorm van vermeerderende meerwaarde. Wat we allemaal weten is dat je al snel 300euro kwijt bent aan kast etc.. Het idee dat ze met een 50euro duurdere chip echt enorme prestatie winst hadden kunnen halen is een beetje jammer. Dwz dat een console van 450euro echt een stuk krachtiger zou kunnen zijn dan eentje van 400euro.

Ik denk dat met een apu Sony een microsoft een simpel platvorm proberen te creëren. Dat beperkt sowieso al de mogelijkheden. Verder spelen dingen als energieverbruik en warmte een rol. Iets waar de pc geen last van heeft. Ik begrijp de keuze van Sony en Microsoft dus wel.
De economische situatie is anders. Een console van 600 euro op de markt brengen waar vervolgens ook nog eens verlies opgemaakt wordt gaat niet meer gebeuren. Vandaar dat ze iets wat matige hardware voor deze tijd hebben genomen. Daardoor blijven de kosten binnen de perken.
En vergeet ook niet dat je met deze hardware al aardig mooie plaatjes kunt leveren.
Bovendien, als je nog steeds games hebt als Fast & Furious 6 (wat op het oog een PS2 game is), dan maakt de hardware ook weinig uit.
Je moet ook rekening houden dat het betaalbaar moet blijven.

Geen van beide fabrikanten kan het zich nog vertoorloven om nog een generatie zijn console te verkopen met een verlies.
Microsoft heeft toch een behoorlijke dosis rekenkracht beschikbaar per Xbox One. Veel meer dan er in dat doosje in je huiskamer zal zitten. Je hebt straks met de Xbox One nog de beschikking over de rekenkracht van 3 extra virtuele Xbox One CPU's en opslag. Zie ook hier op Tom's Hardware.
Mooie ontwikkeling lijkt me voor gebieden waar een goede internetverbinding aanwezig is.
Microsoft heeft toch een behoorlijke dosis rekenkracht beschikbaar per Xbox One. Veel meer dan er in dat doosje in je huiskamer zal zitten. Je hebt straks met de Xbox One nog de beschikking over de rekenkracht van 3 extra virtuele Xbox One CPU's en opslag. Zie ook hier op Tom's Hardware.
Mooie ontwikkeling lijkt me voor gebieden waar een goede internetverbinding aanwezig is.
Wel een beetje een reclamepraatje moet ik zeggen. CPUs in de "cloud" kan je niet zomaar optellen bij lokale CPUs. Je blijft altijd met latencyproblemen zitten. Kijk maar naar Gaikei en OnLive! Het werkt misschien aardig in sommige genres, maar in een FPS of race game heb je er niets aan imho.
Als je van tevoren al een heleboel licht en omgevingen kunt berekenen voordat de map helemaal geladen is, dan is het daarna niet zo heel moeilijk meer om nog wat extra lichtbronnen te laten berekenen maar het merendeel kun je zeker in de cloud doen. Niet alles natuurlijk (bepaalde zaken blijven dynamisch) maar statische berekeningen of grootschalige berekeningen (troepenbewegingen bv) die kun je prima vooraf doen.
En hoe goed werkt dit met offline gaming? :) En de latency, al is het maar 50 ms. dan nog is dat veel te veel.
Lol, nu komt het Cloud verhaal langs om de X1 te redden.

Nog even, jongens... alsjeblieft. Niet al het geouwehoer van MS klakkeloos overnemen. Cloudbased performance is echt een doodgeboren kindje.

Geloof je me niet? SimCity. I rest my case. Het gaat nooit soepel werken, de snelste UPC lijn heeft al 19ms voordat die extra performance aan de poort van je Xbox staat. Worthless.

[Reactie gewijzigd door Vayra op 24 juli 2024 15:57]

Je hebt wat betreft de Wet van Moore wel gelijk, maar de andere kant van het verhaal is dat de beschikbare kracht niet makkelijk benut gaat worden. Er zijn op internet verschillende grafieken te vinden van ontwikkelingskosten per console. Uit deze grafieken kun je concluderen dat naarmate een console 2 a 3x zo krachtig wordt als de vorige generatie, de ontwikkelingskosten ook exponentieel omhoog gaan. Als een ontwikkelaar 95% van de beschikbare kracht van een Xbox-360 gebruikte, zal de ontwikkelaar 2x zoveel tijd in een game voor de Xbox One moeten stoppen om hetzelfde percentage van de beschikbare kracht van de One te benutten. Hoe meer complexiteit, hoe meer beschikbare kracht, hoe meer mensen er nodig zijn om deze kracht in vorm van detail te benutten.

Je zou er vanuit kunnen gaan dat naarmate de nieuwe consoles er een tijdje zijn, een ontwikkelaar dus twee keer zoveel ontwikkelingskosten heeft. Echter zal de markt niet verdubbeld zijn. GTA4 had een budget van 100 miljoen dollar mede vanwege de nieuwe engine (LA noir kostte 50 miljoen). Het zou zomaar kunnen dat GTA6 die wel puuur voor de next-gen consoles ontwikkeld zal worden 200 miljoen gaat kosten, terwijl de markt vraag maar met 10% is gestegen. De bevolkingsgroei kan namelijk nooit op tegen de groei van de Wet van Moore.

[Reactie gewijzigd door ownage maxim op 24 juli 2024 15:57]

Is dat zo? Kan men nu al alles uit een Titan halen? Die drivers moeten ook geoptimaliseerd worden. De meeste grafische kaarten worden ook pas 2 jaar na dato optimaal gebruikt.
Verder zit je met een behoorlijke overhead vanwege het OS. Bij de PS4 en X1 kan het OS veel minder impact hebben op de performance. Bij de X1 gaat het 2e OS zelfs in slaapstand om meer performance te kunnen gebruiken.
PC markt is minder belangrijk. Consoles hebben de focus. Zelfs Crysis 3 is 2x zoveel verkocht op consoles dan op de PC. Dit artikel gaat ook over consoles.
Bovendien kun je grafisch opdelen in vele onderwerpen. In GTA4 had je op afstand weinig detail omdat dit met opzet weggelaten werd. De map had echter wel deze detail. Op de PC werd deze detail in de verte veel beter weergeven omdat de PC dit wel aankon. Echter op de ontwikkelingskosten zal dit geen invloed hebben. Misschien krijgen de nieuwe consoles wel beter view distance waardoor deze spellen grafischer lijken dan op de vorige consoles, maar is eigenlijk het detail in de map niet veel hoger.

En bovendien zijn de huidige console games vaak maar 5xxP en niet 1080P of hoger waarop je met een Titan een game zou spelen.

[Reactie gewijzigd door ownage maxim op 24 juli 2024 15:57]

Meeste console games worden gewoon 7xxP gerenderd en niet 5xxP zoals jij stelt (bron
Wat nog steeds zeer zwak is vergeleken een PC. ;)
Wat ik ermee wilde zeggen is dat om te ontwikkelen op de consoles maar ook de PC het steeds duurder wordt om meer detail in het spel te krijgen.Er is meer detail mogelijk maar een ontwikkelaar moet wel de resources en geld hebben om dit te realiseren. Als de kosten verdubbelen om alles uit een console te halen maar de markt amper groeit is het dus goed mogelijk dat games niet heel snel veel grafischer worden. Met relevantie op dit artikel: 60FPS op 1080P is goed mogelijk omdat er vanwege de hoge kosten van veel detail de eerste 2 a 3 jaar toch niet veel meer detail gebruikt zal worden dan bij de xbox-360 of PS3.
DDR3 haal je 20 GB/s mee.

GDDR5 haal je simpeltjes met evenveel memory channels 80GB/s mee.

De Radeon HD6970 die ik hier heb haalt het dubbele hiervan.

Alleen die bandbreedte gaat bepalen hoe goed de meeste games presteren.

1+ Tflop single precision betekent intern dat je bandbreedte nodig hebt van 12 TB/s.
Dus 80GB/s gooi je er zo mee vol in een game.

Op eerste gezicht lijkt het alsof Microsoft One een kat in de zak is.

[Reactie gewijzigd door hardwareaddict op 24 juli 2024 15:57]

i5/8GB/HD7850
Maar een PS4 krijgt betere hardware (8GB GDDR5 unified mem!) en geen zware Windows kernel en -services tussen de hardware en het spel.

Het verschil tussen wat een systeem *theoretisch* zou kunnen en wat er daadwerkelijk uitkomt is gewoon veel kleiner bij een console dan bij een PC. Om dezelfde graphics te halen uit een PC mag je rustig de console specs x 2 doen.
Dus jij denk dat de PS4 een veel lichtere kernel krijgt dan de XBOX One? Ik denk dat je je daar snel op verkijkt, PS4 ondersteunt ook allemaal social media en heeft waarschijnlijk ook een kinect tegenhanger dus ik denk dat het elkaar niet zoveel verschild. Gakai en het live opnemen enz... hebben ook allemaal services nodig om te kunnen draaien.
ja echter heeft de PS4 geen 3 Operating systems tegelijk op het systeem draaien
dat in tegen stelling tot de Xbox one

en dan kun je wel gaan zeggen dat ze in slaapstand staan zelfs dannog vreten ze werkgeheugen/eenergie van je hardware

[Reactie gewijzigd door firest0rm op 24 juli 2024 15:57]

Maar live opnemen gebeurd bij de PS4 middels een externe chip, niet door de gpu/cpu zelf. Maar dan nog, die services zijn beter geoptimaliseerd omdat ze nergens anders rekening mee hoeven te houden dan de specifieke hardware in de PS4 zelf..
Mijn i5/8GB/HD7850 trekt Crysis3 met 2x MSAA op high al amper op een constante 50 FPS.
Crysis 3 is dan ook niet geoptimaliseerd voor jouw specifieke specs, maar voor PC's in het algemeen d.m.v o.a DirectX voor Windows PC's. DirectX kan overigens gewoon worden gezien als een abstractielaag; je maakt een enkele set technieken beschikbaar voor willekeurig welke grafische kaart, zolang deze de technieken maar ondersteund. Wat weer de reden is waarom men DirectX versies promoot bij het verkopen van grafische kaarten.

Ik denk dat de mogelijke optimalisaties (en dus ook het adresseren van zeer hardware specifieke afwijkingen in processing) er voor kunnen zorgen dat zelfs een spel als Crysis 3 soepeler op een PS4 zal gaan lopen dan op je PC :)
Ondanks dat ik je gelijk geeft met dat als je goed optimised je waarschijnlijk meer uit een ps4 kan halen dan uit een zwaardere gaming pc, denk ik niet dat dit lang aan zal houden. Voor het eidn van hat jaar hebben we bijvoorbeeld een nieuwe serie videokaarten van amd en nvidia op de markt en een nieuwe set cpu's van intel en amd. Binnen 2 jaar zijn de consoles weer zwaar underpowered, daarom is het een beetje jammer dat er niet iets meer is ingezet op de gpu's.
Binnen 2 jaar zijn de consoles weer zwaar underpowered, daarom is het een beetje jammer dat er niet iets meer is ingezet op de gpu's.
Ben ik volledig met je eens, maar dat neemt het punt niet weg ;)
Het lijkt er overigens op dat beide kanten iet wat teveel naar Media Center achtige praktijken aan het neigen zijn...

Het is overigens ook om deze exacte reden dat ik een voorstander ben van PC-gaming tov console-gaming. Naar mijn mening zorgen de consoles voor onnodig oponthoud wat betreft de grafische ontwikkelingen, maar ik kan wel begrijpen dat mensen ze graag gebruiken. Het speelt wel lekker vanaf de bank op een TV met je controller in de hand... :)
Op zich een goede zaak, maar je maakt mij niet wijs dat ze dat trekken met een degelijke AA en overige specs open. Mijn i5/8GB/HD7850 trekt Crysis3 met 2x MSAA op high al amper op een constante 50 FPS.
PC heeft dan ook te maken met api's die alles aan elkaar moeten plakken en daardoor krijg je gigantische overhead. Console kan tot wel 10 keer efficiënter omgaan met hardware als men direct de instructie set gebruikt, maar buiten dat is de api van console ook al veel efficiënter . Meestal moeten ontwikkelaars even wennen aan console en gebruiken ze in begin vaker de api's en later als ze de hardware beter kennen gaan ze over op directe instructies waarmee ze alles uit de hardware kunnen halen.

PC die hetzelfde op beeld kan toveren op je beeldscherm als PS4 en xbox one dat straks kunnen bestaat nog niet, daar is krachtigere hardware voor nodig al dat er nu bestaat voor de pc, al lijkt de pc ver voor te liggen qua hardware, maar dat is appels en peren. Crysis 3 kan als die geport word naar ps4 en in direct to metal geprogrammeerd is bijvoorbeeld wel 200 fps(is maar voorbeeld) halen waar je op de pc blijft hangen op 50fps.

[Reactie gewijzigd door mad_max234 op 24 juli 2024 15:57]

Crysis 3 kan als die geport word naar ps4 en in direct to metal geprogrammeerd is bijvoorbeeld wel 200 fps(is maar voorbeeld) halen waar je op de pc blijft hangen op 50fps.
Waarom hebben ze dergelijk optimalisaties dan bij lange na niet gehaald op de huidige generatie consoles?
Iedereen snapt dat je bij statische hardware meer ruimte voor optimalisaties hebt maar deze worden bij consoles toch wel schromelijk overdreven als ik na de graphics kijk op mn ps3, die zijn echt niet 4x beter dan een vergelijkbare pc van tig jaar geleden.

[Reactie gewijzigd door blouweKip op 24 juli 2024 15:57]

Ik denk dat dat komt omdat veruit de meeste games de afgelopen jaren gemaakt zijn op brakke multi-platform engines.
Games voor een console zijn over het algemeen helemaal geoptimaliseerd voor de hardware van de console, waar je op een PC rekening moet houden met een enorm breed aanbod aan hardware waar je spel mogelijk op moet draaien. Dat betekend dus dat de performance van een console spel altijd veel beter is/
maar de specs van beide consoles is beter dan de specs die jij noemt, en dan ook nog eens speciaal geoptimaliseerd zonder rekening te hoeven houden met miljoenen verschillende configuraties. en de specs van de ps4 zijn zelfs nog net iets beter dan die van de xboxnone...
Anoniem: 276318 @Division26 mei 2013 23:22
"Op zich een goede zaak, maar je maakt mij niet wijs dat ze dat trekken met een degelijke AA en overige specs open. Mijn i5/8GB/HD7850 trekt Crysis3 met 2x MSAA op high al amper op een constante 50 FPS."

Ja, maar dat wisten we al. De next-gen consoles zullen graphics hebben die tussen die van BF3 en Crysis 3 zitten. Dat is een enorme stap vooruit ten opzichte van de PS3 en Xbox 360 maar niet beter dan een degelijke game PC nu al kan laten zien. Ik weet ook niet waarom mensen anders verwachtten: een console heeft een limiet van ~200W aan energieverbruik, alleen al de videokaart van een degelijke PC verstookt tegenwoordig hetzelfde, soms zelfs meer. Natuurlijk zit er bij consoles wel wat optimalisatie bij maar daar moet je geen wonderen van verwachten en mochten programmeurs ineens nieuwe methoden ontdekken om bv. tesselation of AA veel minder intensief te maken dan profiteren PC's daar net zo goed van en blijven ze voorliggen op de consoles.
Omdat er geen 1 game is die geoptimaliseerd is voor jou setup, en dat is het grootste nadeel van pc gaming. Indien je kijkt naar de ps4/xbox one/wii u, daar worden de games voor gemaakt, elke gebruiker heeft diezelfde hardware en dus diezelfde resultaten.
Neem de xbox360 en bekijk die hardware specs ( lachertje anno 2013 ), en bekijk de graphics van de top titels op een full hd tv met de juiste kijk afstand. Dat is onmogelijk op de pc met diezelfde of iets wat betere hardware.

Maar dat zou jij als tweaker wel moeten weten toch? Bij pc-gaming draait het om betere/duurdere hardware aanschaffen, op consoles draait het om betere software optimalisatie.

@computerjunky
Uhm duidelijk heb jij er niet zoveel ervaring mee, maar de graphic optimalisatie word alsmaar beter op de xbox/playstation. De ps3 is inderdaad een blunder geweest voor ontwikkelaars dankzij de cel-cpu die daarin zit. Bij de ps4 zijn er veel meer ontwikkelaars met ervaring voor die hardware.
Neem de eerste 360/ps3 games en de uiteindelijke toppers, een wereld van verschil toch?
Anoniem: 276318 @LopendeVogel27 mei 2013 16:38
"Neem de xbox360 en bekijk die hardware specs ( lachertje anno 2013 ), en bekijk de graphics van de top titels op een full hd tv met de juiste kijk afstand. Dat is onmogelijk op de pc met diezelfde of iets wat betere hardware."

Console games draaien op een lagere resolutie en gebruiken geen of nauwelijks AA. Als je je console aansluit op een PC monitor en er net zo dichtbij gaat zitten als je doet bij je PC zie je duidelijk de verschillen. Die geweldige optimalisatie waar mensen altijd over praten is voor een groot gedeelte gewoon gezichtsbedrog (je zit ver van de tv af dat je de jaggies niet meer ziet).
Gedurende de jaren zullen de ontwikkelaars beter leren programeren voor de PS4 en zullen ze er wel nog dat extra uithalen.
Die vogel gaat niet echt meer op aangezien het gewoon een x86 CPU met een relatief courante GPU (in de vorm van een APU) betreft. Programmeurs zijn al erg gewoon om hiervoor te programmeren. Ik denk dat we heel snel de volle pracht en praal van de next gen consoles kunnen bewonderen. Ook weer omdat zowel de Xbox One als de PS4 bijna dezelfde hardware gebruiken.

Vroeger duurde het inderdaad jaren voor programmeurs goed weg waren met de 'exotische' architecturen in de consoles. Er zaten vooral PowerPC-variaties in de consoles van de vorige generatie. De Cell van de PS3 was een bijzonder harde noot voor ontwikkelaars.

[Reactie gewijzigd door 6129(15) op 24 juli 2024 15:57]

Die vogel gaat meer dan prima de lucht in ;)

Kijk maar naar de Xbox1. Wat gewoon een Pentium 3 700 was met een geforce 1 achtige gpu. Bestond volledig uit PC hardware. Ten eerste zagen de games er op vergleijkbare hardware er veel minder uit op de PC vanwege de overhead en ten tweede zagen latere games er weer veel beter uit dan eerder omdat ze toch hardware specifieke foefjes wisten te vinden en hierop optimaliseerden. Iets wat met een PC simpelweg niet kon door alle variaties van hardware.
Mijn indruk (als voornamelijk pc gamer) is toch gewoon dat na een korte tijd die optimalisaties nog maar weinig gebeuren/weinig effect hebben, eigenlijk stond alles kwa graphics al gewoon vele jaren stil. (uitgaande van bijvoorbeeld de ps3 die ik hier nog ergens heb staan onder het stof)

En dan heb ik nog niet eens over de traagheid (ik kan wel 10x mn pc rebooten in de tijd die de ps3 ervoor neemt gebruiksklaar te zijn)

[Reactie gewijzigd door blouweKip op 24 juli 2024 15:57]

Je zou eens moeten kijken naar de evolutie in spellen op de PS2. Van GT3 naar GT4 en van FF-X naar FF-XII zijn er gigantische verbeteringen binnen de zelfde producent te vinden. Alleen maar omdat men beter de weg heeft kunnen vinden binnen het platform, dat aanvankelijk toch als een moeilijk te programmeren werd ingeschat. Voor de PS1 was er een redelijk vergelijkbare evolutie. Ook op de PS3 als je spellen als TES: Oblivion en TES: Skyrim vergelijkt.

Maar of dat voor de nieuwe consoles nog het geval zal zijn? Deze lijken toch wel verdomt veel op een generieke PCs.
En dan pak je nou net TES: Skyrim het spel wat zo ongeveer het meeste moeite had met de PS3 hardware :P
Daarom haalde ik ook het voorbeeld van de originele Xbox aan die volledig uit PC hardware bestond. Het verschil tussen Halo 1 en Halo 2 is gigantisch.

Het gaat niet erom of de architectuur wel of niet al bekendis. Maar dat ze kunnen inspelen op hardware specifieke kwaliteiten. Zeg maar ale shaders optimaal aanspreken. Het geheugen efficient benaderen etc.

Dit is dan ook het grootste probleem met PC gaming. Elke game moet op zoveel mogelijk verschillende hardware configuraties draaien waardoor er nauwelijks individuele optimalisaties uitgevoerd worden. Je gooit sowieso al ongeveer een derde van de kracht kwijt vanwege de DirectX abstractie laagop Windows PC's.
Ik vraag me af of je op beperkte (of wellicht juist bekende) hardware wel kunt spreken over foefjes en nieuwe dingen ontdekken.

Een software ontwikkelaar bouwt een of andere engine die wat kan en daar bouwen ze een spel omheen.

En in het volgende deel bouwen ze weer een andere engine en dan denken ze ineens "Heey, we kunnen ook dit of dat toepassen"...

Dat kan toch niet? Het lijkt me meer een beperkende factor van de ontwikkelaar en de hoeveelheid tijd die ze er in steken om de textures en de models een beetje mooi te ontwerpen. Of een betere engine te bouwen.

Een spel waar je 10 dagen over doet en 1000 euro kost ziet er misschien leuk uit, maar door inkomsten heb je voor het volgende deel 30 dagen en een budget van 10.000 euro en kun je ineens veel meer tijd en geld steken in het mooier maken van de game.
Je benut wellicht meer functies, maar het kan toch niet zo zijn dat je ineens tijdens het coden denkt "Maar we kunnen ook nog de AA gebruiken, dat is nog nooit gedaan"...

En als ze het gebruiken loopt de game voor geen meter meer.

Zelfs met de nieuwe consoles moeten ontwikkelaars alweer werken met de rem er op. Je kan wel 1080P@60FPS willen, maar op een APU tover je dat echt niet op het scherm.
Nee Sony bestelt hem bij AMD, net zoals meerdere mensen via een tussenhandel doen.
Dat extra halen ze op de huidige consoles er uit door de resolutie naar beneden te trekken en meer compressie/lagere reso textures te gebruiken.
Allemaal goed en wel een gespecialiseerde console maar je blijft wel bepert aan de "beperkte" hardware. Vergeet niet dat we met mid-end game pc specs te maken hebben en de consoles zijn nog niet uit.
Niet echt correct. Kijk maar naar de evolutie in de Uncharted games. Die games gingen er op elk front op vooruit.

Daarnaast PC's hebben een enorme overhead waardoor er heel veel capaciteit niet benut wordt alleen al vanwege het onderling compatible maken.
Nou ik ben het een de PC hardware in de upper class die GFX standaard hebben we al, die consoles brengen niks nieuws. Tenzij je puur op consoles gamed.
Maar PC gamers vergeten wel dat je met je brede setting opties de vrijheid hebt met wat voor FPS je wilt spelen en wat voor eye candy je wilt hebben. Zover je hardware budged dat toelaat.
Zoals hardware review die gewoon kijken tot wat voor soepele game ervaring je de settings kan opschroeven.

60FPS FHD goal is niks anders dt de console devs de game kwa engine content en settings zodanig tweaken en optimizen dat het gehaald wordt. Die setting wordt dan fixed.
Dat gebeurde bij zowel de xbox-360 als de PS3. Echter zijn de extra cores van de Cell cpu van de PS3 maar in een paar games volledig benut zoals in de Uncharted serie. Het bleek erg moeilijk te zijn om deze extra kernen te benutten. Destijds werd er ook gehoopt dat programmeurs dit zouden leren en dat de PS3 later volledig benut zou worden. De enige games die de PS3 volledig benutten zijn in samenwerking met Sony ontwikkeld.

Gezien de grote gelijkenissen van beide next-gen consoles verwacht ik niet dat ontwikkelaars op de PS4 later vanwege het beter leren kennen van de console er meer uit zullen halen. Microsoft heeft bij de huidige consoles dan wel een voorsprong op de ontwikkelomgeving, maar toch heb ik als gamer dat nooit direct kunnen ervaren in de kwaliteit van de games.

Het zullen eerder andere verschillen zijn die de performance in de toekomst bepalen. De PS4 krijgt sneller geheugen en een snellere grafische chip, maar in het begin is het goed mogelijk dat vanwege slechte scalability (Niet elke engine zal dit goed kunnen) de PS4 grafisch op het niveau van de One zal blijven.
Die nieuwe consoles gebruiken geen 3d api's meer?
Maar gebruiken ze wel efficienter :)
Een lagere res met wat antialiasing ziet er ook prima uit, 1080p en 60fps roepen is leuk voor marketing, maar op een normale maat tv op een paar meter afstand kan je je gpu power denk beter besteden aan betere belichting. Het is geen pc monitor waar je met je neus bovenop zit.
Zelf merk ik de aliasing toch best nog wel af en toe. Ik heb een PS3 met een 42" plasma scherm, en games op 720p - hoe mooi ze nu ook al zijn - zouden best nog wel wat kunnen winnen door naar 1080p op te schalen. Vergeet ook niet dat goede antialiasing nog zwaarder is dan de resolutie simpelweg op te krikken.

60fps ben ik ook een groot voorstander van. Al zou het alleen maar zijn zodat je het dan minder merkt als je toch een keer een framerate drop hebt in een zware scene. Je hoeft maar minimaal onder de 30fps te droppen voordat het echt merkbaar storend wordt. Als de game standaard rond de 60fps zit heb je tenminste nog een beetje speling :)
Denk er ook aan dat als games in 3D gerendered moeten worden, dit ook een halvering van de framerate inhoudt (bij actieve 3D). Dan is het dus fijn als de game standaard op 60fps draait, dan hoe je nog een zeer acceptabele 30 fps per oog over in actieve 3D.

Bij passieve 3D wordt juist de verticale resolutie gehalveerd (per oog) waardoor die 1080p weer belangrijk wordt. Ook dan hou je weer een heel respectabele 1920 x 540 per oog over.

(Zie ook mijn blog post over passieve vs actieve 3D.)

Ik vermoed dus dat Sony dit ook wil om deze mogelijkheden open te houden voor de toekomst. Als games nu al op lagere framerates / resoluties mikken dan kan dit straks niet makkelijk meer gedaan worden zonder dat je slechte resultaten krijgt.

[Reactie gewijzigd door OddesE op 24 juli 2024 15:57]

Anoniem: 211516 @OddesE27 mei 2013 01:45
Niet als je op 720p 3D gamen'd dan krijg je gewoon 60 fps per oog, 24 fps op 1080p.
Het verschil tussen 30 en 60 fps ga je zeker merken, ook het verschil tussen 720 en 1080p, ook al zit je verder weg. Kun je zelf proberen, als je slepen wilt, door je PC aan je TV aan te sluiten.

60FPS geeft toch wel een aanzienlijk beter gevoel van controle en precisie, ook al is het met een controller ipv kb+muis. Als je een console hebt die 'een beetje minder' uitziet maar daarvoor wel veel soepeler is om op te spelen heb je alsnog een groot voordeel.

Als 30 fps genoeg was zou niemand ooit zijn PC updaten :P

[Reactie gewijzigd door Khrome op 24 juli 2024 15:57]

ach, als je niet onder de 30 fps komt en een steady framerate hebt (geen grote variatie) dan zal het moeilijk worden om het verschil nog te merken met nog hogere framerates (zeker met al die motionblur tegenwoordig),
Dat is niet waar, zodra je 60 fps gewend bent voelt 30 fps stroperig aan. Zeker als er wel af en toe 40 of 50 fps gehaald wordt.

Steady framerate scheelt een beetje, maar toch is het een onmiskenbaar verschil of je speelt op 30 of 60 fps. 60 fps voelt smooth, 30 fps voelt toch alsof je beweging, vloeiendheid mist. Vond ik ook een groot manco van de last gen consoles; heel veel 30 fps. Speel je op een PS3 opeens een potje Wipeout Pure (60fps) dan heb je het gevoel op een andere console te zitten...
Je *ziet* het niet direct, maar je *voelt* het wel. Het verschil in hoe de controls aanvoelen tussen 30 en 60 fps is enorm.
720p en 1080p kan je idd zien, maar het ziet er niet per definitie beter uit als je 1080p spel karige belichting en een kale wereld heeft.
Pushen? Gewoon verplichten die 1080p, 60fps en een fatsoenlijke vorm van antialiasing.
We hebben het over Next-Gen hoor Sony!!! Waar breng je anders een nieuwe console voor uit?
Dat vind ik nou ook! Tijd voor een flinke nieuwe stap vooruit qua graphics (zoals het altijd al is geweest met next-gen consoles)!!! _/-\o_
Sowieso die hele specificaties naast elkaar houden is mijns inziens onzin.
Games draaien wat mij betreft nog steeds om de gameplay en in mindere maten om de graphics.
Zo speel ik nog steeds counter-strike en dod uit het jaar nul omdat de gameplay van bv counterstrike nog steeds tot de top behoort
Dat mag gedeeltelijk wel waar zijn, de consument die straks een 500 euro gaat uitgeven wil niet een product wat qua hardware niet up to date is in vergelijking met zijn concurrent. Een console wordt gemaakt om lang mee te gaan en als het nu al niet indrukwekkend is, hoe zal het dan zijn 4 jaar na uitgave?

Ik heb sinds 2006 een Xbox 360 en speel er nog elke dag op. Xbox Live werkt als een tiet en ik zou er graag mee door gaan op de X1, maar als blijkt dat het echt zo'n zwak product wordt als nu begint door te schemeren dan moet ik er nog eens goed over nadenken.
Dat ben ik wel met je eens.
Echter gaat het er ook om wat een console je nog meer biedt in 2013.
Behalve games is er een enorm sociaal gebeuren om heen gebouwd , 2 Apps draaien middels snap , tv ondersteuning (afwachten voor NL) ingebouwde mediacenter etc...
Kijk ik terug naar de Wii dan had ik daar niet m'n geld op durven te zetten maar Nintendo heeft toch mooi het tegendeel bewezen met hun matige graphics maar hun enorm hoge fun factor
Ik kijk naar de X1 als een game console, het sociale gebeuren kan mij gestolen worden en zo schijnen er nog wel wat mensen over te denken. Prima hoor, dat er zoveel op kan en als mensen dat willen gebruiken is het alleen maar mooi meegenomen.

De Wii was een succes omdat het iets nieuws deed, kinderen vonden het geweldig en paps en mams kochten dat ding voor hun kroost. Ik geloof dat de nieuwprijs zo rond de 250 euro lag en dat was nog in de periode voor de crisis.
Anoniem: 181786 @ChrisLNFF26 mei 2013 20:53
De Wii was een succes omdat het iets nieuws deed, kinderen vonden het geweldig en paps en mams kochten dat ding voor hun kroost. Ik geloof dat de nieuwprijs zo rond de 250 euro lag en dat was nog in de periode voor de crisis.
Binnen mijn kennissenkring was de Wii ook een doorslaand succes en dat betrof eigenlijk voornamelijk volwassenen zonder kinderen of met zulke jonge kinderen dat die er geen gebruik van gingen maken.

De Wii heeft gaming voor een veel breder publiek toegankelijk gemaakt en dat voor een redelijk aantrekkelijke prijs. Er zijn vele factoren in het spel geweest die van de Wii een succes hebben gemaakt. Het heeft wat mij betreft wel bewezen dat technische specificaties niet doorslaggevend zijn voor het plezier hebben in gaming.
Goed punt van Nintendo, maar gemakshalve vergeet je wel dat de huidige WiiU voor geen meter loopt en nul komma nul toevoegt, zwaar achterloopt op zelfs current-gen en dat de Wii een compleet anders ingestoken apparaat was dat handig heeft meegelift op de casual gaming hype van de afgelopen jaren. Dezelfde hype die we op tablets en smartphones zagen; snack games voor een half uurtje. Motion controlled gaming. Dat trucje lukt je maar 1 keer...

Verder wat betreft die social integration en vooral ook het 'snappen' van apps... het is een CONSOLE en geen fucking smartphone waarmee je onderweg vooral interessant bezig moet zijn. Ik heb echt nul komma nul behoefte aan een Twitter of Facebook dat over de schouder mee doet. Skype zie ik nog wel meerwaarde van want voor je TV liggen bellen is helemaal zo gek niet en het kan direct ook een goede vervanger zijn van teamspeak-achtige oplossingen. Maar dat zet je aan en dat loopt op de achtergrond. Of ik nou met de PS3 op de home-toets druk, of dat ik mijn multitasking als een gesplitst beeld kan uitvoeren boeit natuurlijk helemaal niemand iets. Het is in de praktijk hetzelfde.

En zo maakt Microsoft een gigantische fout: door nu pas in te zetten op de Home Theater/Mediacenter console nadat de PS3 dat al heeft gedaan zetten ze zichzelf buitenspel. Men heeft dit allemaal al een keer gezien. Sony doet het slim en zet vol in op games en hogere performance met een GPU die voldoet aan de eisen van vandaag met GDDR5. Grote kans dat Microsoft gewoon in het hele designproces zijn zinnen op de verkeerde aspecten van een console heeft gegooid. De PS3 voegde die home theater functionaliteit namelijk gewoon EXTRA toe aan een reeds complete en krachtige console. Bij de X1 is het een balanceer act waarbij in mijn optiek de balans compleet scheef is en teveel is doorgeslagen naar randzaken ten koste van gaming.
Je zou eens verstelt kunnen staan hoe (ter voorbeeld) spectaculair de fx8350 scoort als alle 8 cores WEL gebruikt worden.

Voorbeelden zijn echter inderdaad aan de schaarste kant.

Dus vandaar dat Sony deze push dan ook doet.
@egnappahz de bulldozer architectuur heeft juist uiterst zwakke memory controller. Dus bij 4 cores als die gescheduled worden op 4 modules, dan is dat even snel als 8 cores @ 4 modules, qua bandbreedte naar de memory controller.

Die bandbreedte is pak hem beet praktisch rond de 20GB/s, dus je kunt dat heel goed vergelijken met GPU's die 20GB/s leveren nu.

De top gpu's zitten nu ver boven de 200GB/s. Zelfs de 6970 die ik hier heb, die al jaren oud is, die haalt hier al als ik de bandbreedte in opencl test, zo rond de 150GB/s. In theorie zou hij de nog 15% meer moeten halen, maar dat kan ik niet bevestigen.

Dat is het verschil tussen GDDR5 en DDR3 qua bandbreedte en dubbel zoveel memory channels.

PS4 potentieel dus 4x sneller dan Xbox One.
Nutteloos gefilosofeer. Als je nu gewoon de feiten erbij pakt:

http://www.anandtech.com/...mpared-to-playstation-4/3

PS4 = 176.0 GB/s
XONE = 68.3 GB/s + 102 GB/s = 170 GB/s read / 102 GB/s write (]bron)

Potentieel 4x zo snel? Bullshit.
Die +100 die je doet is compleet absurd, want slechts een klein deel van de lookups krijgt een hit uit de SRAM.

Dat getal van 68GB/s is een theoretisch getal dat nog niet gehaald is met DDR3, daar de snelheid ook afhankelijk is van de memory controller en die is weer gelimiteerd door de tragere CPU die Microsoft heeft ingeslagen. 1.6Ghz naar verluidt.

Dat is een kwestie dus van Anandtech die echt filosofeert en natuurlijk graag de verschillen beperkt ziet.

Die 68GB/s zie ik 't echt niet halen hoor.

Verder gaat 't ook uit van enorm snel DDR3 geheugen wat ook gewoon niet realistisch is, want het zal dan weer tragere latencies hebben etcetera.

Die 1.6Ghz van de CPU die is dus factor 2+ trager dan de meeste bulldozers die tot wel 3.9Ghz draaien qua snelheid. Dit terwijl GDDR5 compleet bandbreedte geoptimaliseerd is, dus meer past bij zo'n architectuur.

Als je gpgpu draait dan is lezen uit de cache simpelweg niet altijd mogelijk. Bovendien kost het extra tijd om dit te doen als je dan geen hit hebt.

Verder is de cache ook gelimiteerd in grootte, terwijl de AMD gpu's dus anders werken dan Nvidia.

Elke thread op AMD gpu's pakt 256MB en dan is 32MB SRAM cache ineens niet zoveel voor de meeste games. Dat vereist een 3d engine die echt geniaal gebruik maakt van caching, terwijl we juist ZIEN dat de games simpelweg op de bandbreedte beuken.

Slechts 1 van de huidige games die populair zijn, is meer afhankelijk van de GPU crunching power dan van de bandbreedte van de GPU naar de RAM.

Per saldo zitten we dan nog steeds op een factor 2 a 3 die praktisch overblijft in het voordeel van Sony's PS4 in snelheid, zoals de kaarten nu geschud lijken te liggen.

Dat is immens veel sneller.

Dit terwijl de productieprijs van de ps4 versus de xbox one, maar in totaal tientje scheelt in prijs.

Xbox one zal zo rondom de 70 dollar liggen qua productieprijs versus ps4 zo tegen de 80 dollar als we realistische prijzen nemen.

De keuze voor DDR3 is dan compleet onbegrijpelijk, want als we kijken naar 't verleden dan kun je 20% snelheidsverschil nog wel maken. Vanaf 50% dan pleeg je harakiri.

Zelfs in de meest pessimistische vergelijking, vanuit Sony gezien, die je hier maakt zitten we op 50GB/s DDR3 versus 150GB/s GDDR5.

Tel wat hits erbij op in de cache, dan kom je uit op nog steeds meer dan factor 2 verschil in snelheid ten faveure van de PS4.

Dat is dus de meest optimistische manier van kijken ernaar en dan lijkt Microsoft toch been beetje als schlemiel te gaan verkopen, want alle games die op Xbox One kunnen draaien kunnen prima draaien op PS4 en vice versa, alleen dan 2x - 4x trager op Xbox One.

Wie koopt dan nog Xbox One?
Die +100 die je doet is compleet absurd, want slechts een klein deel van de lookups krijgt een hit uit de SRAM.
U werkt bij EA? zo nee, welke andere game-fabrikant dan? Anders kan je dat onmogelijk weten.

Overigens moet je in mijn ervaring behoorlijk je best doen om minder dan 50% L3 cache hit ratio te halen op de CPU. Een CPU met meer cache (shared tussen CPU en IGP) levert bij mij een snelheidswinst op van 20% in Cinebench OpenGL.
Dat getal van 68GB/s is een theoretisch getal dat nog niet gehaald is met DDR3, daar de snelheid ook afhankelijk is van de memory controller en die is weer gelimiteerd door de tragere CPU die Microsoft heeft ingeslagen. 1.6Ghz naar verluidt.
Toevallig is de CPU in de PS4 ook 1.6Ghz. Daarnaast is het al een decennium zo dat de memory bandwidth los staat van de kloksnelheid van de CPU.

In hoeverre is de bandwidth van de PS4 trouwens geen theoretisch getal???
Xbox one zal zo rondom de 70 dollar liggen qua productieprijs versus ps4 zo tegen de 80 dollar als we realistische prijzen nemen.
Ahh. U werkt ook bij AMD zie ik. NDA gemist?
Zelfs in de meest pessimistische vergelijking, vanuit Sony gezien, die je hier maakt zitten we op 50GB/s DDR3 versus 150GB/s GDDR5.
Ahh. Dus sony kan 85% van de theoretische bandwidth halen en de XONE 75% met 0% cache hits. Wat een bullshit. Nee echt.
Dat is dus de meest optimistische manier van kijken ernaar en dan lijkt Microsoft toch been beetje als schlemiel te gaan verkopen, want alle games die op Xbox One kunnen draaien kunnen prima draaien op PS4 en vice versa, alleen dan 2x - 4x trager op Xbox One.
Nu doe je het weer. 2-4x. Die 2x een totaal onzinnig getal. Laten we het over 4x maar niet hebben. De enige manier waarop je ooit op 2x uit gaat komen is als de developers bij microsoft massaal het memory gaan lopen trashen op zowel de CPU als de GPU.

Je hebt in deze thread nu al 10 keer genoemd dat de PS4 4x zo snel is als de XONE. Dat is totale bullshit. Zelfs een bewering dat-ie 10% sneller is zou ik afdoen als bullshit zonder zinvolle benchmarks of uitgebreide technische analyses.

En FYI: ik heb een wii.

[Reactie gewijzigd door Anoniem: 303530 op 24 juli 2024 15:57]

Ik vind 1080p en 60Hz juist een erg goede zaak. 720p van de huidige consoles ziet er niet uit en de enige logische stap is dan om naar 1080p te gaan. Vervolgens heb ik dan liever 60frames/sec dan betere settings. Shaduwen rederen bijvoorbeeld is erg zwaar werk, zet dat maar op 'low' wat mij betreft.

Ik hoop dat de nieuwe hardware 4-player splitscreen op 1080/60p kan produceren. Al zou het er grafisch uit zien als mw2, dan zou een pot cod met z'n vieren online nog steeds er gaaf zijn. Iets wat nu absoluut onmogelijk is. Als je 720p door vieren deelt blijft er sowieso weinig over.

Ik denk dan ook dat sony en microsoft juist hierop moeten inspelen en de splitscreen mogelijkheden moeten uitbreiden. Waarom zou je een nieuwe console kopen voor dezelfde pot fifa of cod maar dan met betere graphics? Voor graphics zijn er immer pc's.
uhm, splitscreen is imho alleen interessant als je met zn 2en/4en op de bank zit achter dezelfde tv, anders is splitscreen alleen alleen maar zeer irritant doordat je maar een klein stukje ziet.. voor online gaming zal men echt niet splitscreen gaan toevoegen...
Wij spelen hier wel vaak met z'n tweeën CoD online, maar we hebben wel een vaker dat we dit best met z'n drieën, of vieren willen doen. Onze TV is groot zat hiervoor. (vroeger was mariokart splitscreen 4 man ook nog erg leuk op een 37 cm, al zorgde je wel dat je er dan niet meer dan 2 meter vanaf zat.)

Ik zou dat wel echt een fijne toevoeging vinden voor games, vooral als je eens ergens met z'n allen zit en even online wil spelen. Anders moet je steeds wachten op elkaar, of besluit je om dan maar even offline te gaan spelen met z'n drieën of vieren.
Als dit toch eens waar zou kunnen zijn!

Hier wacht ik al jaren op. GTA op 60fps?!
Dan mogen ze er voor mij ook rustig 720p van maken....
Het punt is dat het verschil tussen PS4 en Xbox One behoorlijk groot is. De grafische performance in benchmarks van vergelijkbare GPU's ligt wel meer dan 2x hoger. Daarom kan Sony zeggen dat ze in plaats van dat games net ietsje mooier zijn op PS4 (meer AA, hogere res textures, meer tessellation, etc) graag zouden zien dat alle PS4 games op 60FPS draaien. Wat gewoon zou betekenen dat alle cross-platform games gewoon lekkerder spelen op PS4.
Maarja als de Xbox goedkoper blijkt te zijn (hier is nog niks over bevestigd door beide partijen) kan het alsnog zo zijn dat de consument massaal voor de xbox gaat.
Anoniem: 211516 26 mei 2013 16:31
Heb liever 3D stereo support in elke game, het laatste waar druk om maak is 1080p 60hz gezien ps4 toch al heel wat sneller is.
Ze ondersteunen het allebei, maar voegt het altijd wat toe? Ik denk dat het bij games waar je geen eigen karakter ziet het al een stuk minder boeiend is. Ook games als Fifa zal het waarschijnlijk weinig toevoegen. Maar ga er maar vanuit dat op den duur veel games het gaan supporten als er ook meer 3d schermen worden verkocht.
Wat ik vaak gemerkt heb is dat de meeste games gemaakt worden voor de console met de minste hardware en deze game gewoon porten naar de console met de betere specs. Ik heb zowel een Xbox 360 als een ps3 en vaak merk ik dat de games op de Xbox net wat mooier / vloeiender zijn. Dit komt denk ik omdat ontwikkelaars een game niet optimaliseren voor de console met de betere specs.

Dus eigenlijk maakt het specs wise helemaal niets uit wat je gaat kopen, misschien lopen een paar exclusives beter maar meer dan dat ook niet.
Ja omdat de PS3 exotische hardware heeft welke moeilijk te programmeren was. Nu de PS4 en Xbox dezelfde architectuur hebben is het een klein kunstje om de kracht van de PS4 wel te benutten.
ge hebt gelijk. Ik blijf bijvoorbeeld fifa mooier vinden op de xbox dan op de ps3. zelfde tv :) terwijl de specs van de ps3 beter zijn.

Op dit item kan niet meer gereageerd worden.