Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 209 reacties

De AMD-cpu van de PlayStation 4 zorgt er volgens Sony Online Entertainment soms voor dat PlanetSide 2 met lage framerates kampt. De consoleversie doet volgens de ontwikkelaar in grafisch opzicht weinig voor de pc-versie onder, maar de PS4-processor werkt soms belemmerend.

De ontwikkelaars zijn tevreden over de grafische vermogens van de PlayStation 4, zo wordt in een interview met Eurogamer beschreven. Het spel zou op de console ogen alsof de hoogste instellingen op de pc worden gebruikt. Sony Online Entertainment geeft echter toe dat het spel met framerate-problemen kampt en de uitgever claimt dat de processor het probleem veroorzaakt en niet de grafische kaart.

Op momenten dat veel spelers op een scherm te zien zijn, heeft de processor moeite om alle data te verwerken. "Al die animatie en alle audio die bij de personages die rondrennen hoort, alle projectielen die in de client gesimuleerd moeten worden; al die dingen belasten de cpu, niet de gpu", zegt Matt Higby, creative director van Sony Online Entertainment. De optimalisaties die de ontwikkelaar doorvoert zijn dan er dan ook op gericht om, in de woorden van Higby, 'de cpu sneller te laten draaien zodat het spel op een consistentere framerate op de PS4 draait'. Hij wijst daarbij op de mogelijkheid om de game in 30fps in plaats van de gewenste 60fps te draaien.

Er wordt vaker gesproken over framerate-problemen op de consoles. Assassin's Creed Unity werd vastgesteld op dertig frames per seconde, maar uiteindelijk bleek dat niet altijd haalbaar. Ubisoft liet al eerder weten dat de AMD-cpu van de PS4 en de Xbox One de bottleneck bij Assassin's Creed: Unity was. Opvallend is nu dat Sony Online Entertainment dit ook toegeeft voor zijn 'eigen' console.

PlanetSide 2

Moderatie-faq Wijzig weergave

Reacties (209)

Toch weer jammer dat ze de vingers moeten wijzen naar een ander (AMD) voor de schuld. Zowel de ontwikkelaar en uitgever (Sony) zijn bekend met de capaciteiten van de hardware, daar moeten ze voor op ontwikkelen. Niet een game maken en wanneer het niet voldoende presteert de schuld geven aan de hardware. Het is geen PC, maar console, je weet waar je met mee moet doen, dan wat grafische tikjes omlaag, aantal geluidjes tegelijk omlaag, etc, etc... om het goed te laten presteren. Sony heeft de de CPU besteld (op maat) bij AMD, als ze een snellere CPU nodig hadden, moeten ze die ook gewoon bestellen. Dat Sony nu de vinger wijst naar AMD is echt kinderachtig.
Dat Sony nu de vinger wijst naar AMD is echt kinderachtig.
Ze wijzen niet naar AMD, ze zeggen alleen dat de CPU de bottleneck is. Ze kunnen in dat opzicht net zo goed naar zichzelf wijzen.
Ze kunnen zelfs alleen maar naar zichzelf wijzen, het is namelijk hun keuze geweest om een niet al te snelle CPU (APU) te nemen. AMD kon wel gewoon een snellere APU maken maar dat zal ongetwijfeld duurder zijn geweest. En Sony zal ongetwijfeld maar een klein budget beschikbaar hebben gesteld waarbij dit het snelst mogelijk was voor dat geld.
Sony Online Entertainment heeft toch helemaal niets te zeggen over de CPU keuze voor PS4?

Sony Online Entertainment staat vrij autonoom t.o.v. van Sony Computer Entertainment.

Wordt in het artikel inderdaad voor het gemak vervaagd en natuurlijk om het meer controversieel te laten lijken.

[Reactie gewijzigd door Cyrso op 24 november 2014 17:59]

Ik vind het wel degelijk wijzen naar AMD. Anders hadden ze gewoon niks gezegd en optimalisaties doorgevoerd. Nu proberen ze de aandacht een beetje af te wenden.

Precies zoals VortexD zegt: ze wisten van te voren de capaciteiten van de console. Als blijkt dat e.e.a niet goed loopt, dan hadden ze dit voor release moeten aanpassen.
We praten hier over een game die een overzetting krijgt naar de PS4, wat (zoals je leeft) in 95% van het geval gewoon goed gaat, alleen heeft SOE nog wat stabiliteits problemen als het gaat om framerate.

Ze willen voorkomen dat PS2 in grote gevechten teveel in frames dropt, vandaar dat ze dus naar andere optimalisatie kijken. Dit bericht was vorige week al bekend, en PS2 draait ook voor een groot gedeelte gewoon stabiel 1080p/60, alleen in enorme grote gevechten droppen de frames op het moment.

Maargoed dit spel is ook nog niet uit en in december krijgen we een beta, wat alleen maar een mooie test is voor de ontwikkelaars.
Nou nee, waarschijnlijk kunnen ze nu niet meer optimaliseren zonder echt aan zichtbare features in te boeten.

Oftewel ze moeten hun project bijstellen, hadden de capaciteiten van de CPU hoger ingeschat dan het blijkt te zijn. Dat moet je toch aan je fans laten weten.
er staat nergens in het artikel dat Sony de vinger wijst naar AMD, dat verzin jij er gewoon bij
het enige wat in het artikel staat: Sony maakt een spel waarbij de cpu de limiterende factor vormt

op zich niet speciaal aangezien er altijd iets de limiet is, als de fps te laag uitkomt is dat gewoon slecht design: men moet maar een functie vereenvoudigen of weglaten zodat het wel kan
En dat is dus gewoon via een omweg AMD de schuld geven. In plaats van gewoon de game aan te passen aan de CPU, en zo een goed werkend product te maken, doen ze dit niet, en gaan naderhand excuses verzinnen....

Ik zie wel dat ze nog in ontwikkeling zijn voor PS4.
Wie weet kan de CPU op de PS4 nog worden overclocked? MS deed dat ook met zijn Xbox One.
Ik denk dat de PS4 dat qua warmte niet trekt. Niet voor niets is de eerste revisie van de PS4 waar onder andere ook een andere heatsink in zit al een feit.
Sony Online Entertainment is maar een van de studios van Sony Computer Entertainment. SCE is verantwoordelijk voor de hardware, niet de studios. Nogal wiedes dat men een opmerking mag en kan maken dat het een aardige uitdaging is om een game als PS2 aan de praat te krijgen op relatief matige hardware. Maar openworld/CPU-heavy games zullen het helaas wel pittig krijgen op deze generatie.
Dit is totaal geen verassend nieuws. Toen PlanetSide 2 voor de pc uit kwam stond het forum vol met boze AMD FX 8350 bezitters. Op de i5 cpu's liep de game wel 'goed' in de grote battles. Er is sindsdien wel het één en ander geoptimaliseerd. In eerste instantie zorgde het verschijnen van één speler in je beeld al een framedrop van 20 fps :+ .

Wat de AMD cores betreft is het vreemd dat Sony dit zelf niet zag aankomen. Ze wisten het al van de pc client...
Hoezo wordt hier met de vingers naar AMD gewezen? Er wordt naar de CPU gewezen die een bottleneck voor PlanetSIde 2, indien ze de game bij zijn huidige grafische instellingen stabiel of 60 fps willen laten draaien.

Je realiseert toch wel dat Sony Online Entertainment (ontwikkelaar en uitgever van MMO's, primair gefocust of PC) en Sony Computer Entertainment (consolefabrikant + ontwikkelaar/uitgever, geeft enkel games uit voor eigen PlayStation platformen) twee verschillende entiteiten zijn? Sony Online Entertainment is toch helemaal niet verantwoordelijk voor het ontwerp van de chip en voor de CPU-keuze van de PS4.

[Reactie gewijzigd door Cyrso op 24 november 2014 16:41]

Nou, dit is niet alleen op de PS4. Ik heb hier ook last van op de PC.
Dit is eenmaal hoe PS2 in elkaar steekt. Betekent dit juist niet dat PS2 de manier van renderen moet veranderen?

[Reactie gewijzigd door gentlemen op 24 november 2014 11:42]

Ik ben geen game ontwikkelaar, maar doordat ik dit spel al behoorlijk lang speel weet ik namelijk een aantal oorzaken. Eerste en waarschijnlijk ook gelijk het belangrijkste is dat het spel single core geschreven is. Ze zeggen wel dat het multicore is, maar als ik 2 cores uitschakel van mijn quad core dan hou ik nog steeds dezelfde performance. Als ik 3 cores uitschakel gaat het ongetwijfeld iets naar beneden, maar dit komt grotendeels door de windows achtergrond taken.

2de punt is, dat het spel tot voor kort nog op 32bit liep en dus maximaal 4GB ram aan kon spreken. Nu zit het ram gebruik gemiddelt tussen de 5 en 6GB. Ook leid deze game onder ''Memory leaks'' als je niet genoeg geheugen en nu de nieuwste i5 of i7 CPU hebt zal je performance na een half uur naar beneden gaan.

3e punt is, misschien doordat het spel op directX10 draait. Alhoewel ik hier totaal geen verstand van heb, heb ik hier al aardig wat mensen over zien klagen.

Ik heb nu een Devils Canyon Cpu, voorheen een 2600K en ik had en nog steeds krijg ik frame drops in 100+ fights. Het is gewoon te triest voor woorden. Nog nooit heb ik zo een slecht geoptimaliseerde game gespeeld. Van mijn part kunnen ze beter beginnen te ontwikkelen met een nieuwe engine voor Planetside 3 en stoppen aan te rommelen met Planetside 2.
Ik heb er niet heel veel verstand van, maar als Sony zelf al weet dat de CPU de bottleneck is van de PS4 en ze passen de manier van renderen niet aan, dan is er waarschijnlijk geen andere mogelijkheid dan om te renderen via de CPU.
Renderen gebeurt op de GPU, maar data van veel personages moet verwerkt worden zodat de CPU aan de GPU kan vertellen wat er gerenderd moet worden. En dan ook nog alle audio effecten van al die personages verwerken.
Ik zie het ook bij World of Warcraft. Mijn vriendin speelde in een raid van 40 man, ze moest de settings van ultra naar good zetten om een betere framerate te krijgen. GPU geen probleem. De CPU wel. Of eigenlijk gebruikt het spel niet alle cores. Als alle cores gebruikt zouden worden zou het probleem ook verminderen of verdwijnen. Ik ben nu wel benieuwd of ze op de PS4 wel alle cores gebruiken?
Ik merkte eerder al iets op bij het spelen van crysis 3. Hierbij is het echter andersom. Als de grafische pracht omhoog gaat heeft de GPU zoveel moeite dat de CPU wacht tot de GPU de gegevens verwerkt heeft. Hierdoor merkte ik dat bij het draaien op ultra settings in crysis 3 mijn CPU juist minder load had. Toen ik de grafische instellingen omlaag zette ging het CPU verbruik omhoog.

De twee hangen heel nauw samen met elkaar. als de ene ook maar een fractie trager is dan de andere heb je op beide performance verlies.

Erg jammer al die verhalen over lage FPS en consoles die de games niet kunnen draaien. Ik vind het persoonlijk ook erg vreemd dat zowel Sony als MS ervoor heeft gekozen om hardware te kiezen die alles behalve next gen is. Leuk dat de console 400 euro kost... Maar vervolgens draaien games niet in full hd en ook niet op 60 FPS.

Wat is er dan next gen aan?
Niks, next-gen staat gewoon voor volgende generatie. Er zijn spel elementen in een game die het naar een nieuw niveau tillen. Next-gen heeft dus ook niks te maken met 1080p/60.
Wellicht heb je gelijk. Maar next gen is naast wat het daadwerkelijk vertaald ook een begrip. Ik heb het over het begrip "NEXT GEN" niet over de volgende generatie.

Als je kijkt naar het begrip "next gen" dan zijn deze consoles gewoon om te huilen zo slecht.

Ik snap heel goed dat ze moeilijk 1000 euro kunnen vragen voor een gameconsole. Maar eigenlijk zou je daar als consument veel meer aan hebben dan een console kopen van 400 euro die na een maand al zo out of date is dat je er gewoon niet eens fatsoenlijk "next gen" games op kan draaien. Dan weet ik niet wat op de lange termijn beter zou zijn.

We kopen wel iphones van 900 euro die na 2 jaar worden afgeschreven, maar een game console die een jaar of 5 mee moet mag niet meer dan 400 euro kosten. De vergelijking is natuurlijk erg scheef.
Je gaat wel erg kort door de bocht.

Een game console is een game console. Een iPhone is een telefoon en multifunctioneel. Een PS4/Xbox gebruik je voor gamen.

Logisch dat men voor een telefoon meer geld uitgeeft dan voor een game console.

De PS3 was bij de release ¤600 en had relatief gezien meer "next gen" hardware dan de PS4.. Was dat een betere keuze? Als je het mij vraagt niet nee. Geen hond die ¤600 uitgeeft voor een game console, waarna de rest van de hardwarekosten verborgen zit in de games.
Was dat een betere keuze? Ja, want het blijkt nu al weer dat de CPU achter loopt... laat staan FullHD 60 fps :(

als de playstation 4 met ''redelijke nextgen hardware' was uit gebracht en het zelfde grapics had kunnen halen als de pc(net zoals met de ps3 tijdperk) dan had ik zonder na te denken zo 600 euro voor de ps4 neergelegt ;)

[Reactie gewijzigd door Jeroentjeeuh op 25 november 2014 18:27]

De PS3 kostte 600 euro, maar dat was niet genoeg om de hardwarekosten te dekken. Sony moest geld bijleggen per verkocht systeem. Om dat geld terug te verdienen gaan ze er vanuit dat er per playstation gemiddeld x games verkocht worden.

De werkelijke prijs is dus veel hoger dan ¤600.

Daarnaast, Sony gaat geen console maken die jij wil hebben, ze maken een console die het meest verkocht wordt en het meest geld oplevert.

Dat games geen 60fps halen komt doordat game developers te hoge verwachtingen hebben, en extra processing rekenkracht liever besteden aan extra polygons, meer AA en dat soort onzin, dan aan 60fps. Want: graphics verkoopt, fps zie je pas als je het spel speelt.

[Reactie gewijzigd door mohf op 25 november 2014 20:48]

Next gen is inderdaad een begrip, maar het betekend niet: high end of high tech. De consoles zijn next gen omdat ze daadwerkelijk veel sneller dan de vorige generatie en dat ze meer diensten bieden.

Maar je kon het nooit, en nu nog steeds niet vergelijken met high-end hardware. Niet voor het geld dat je ervoor betaald. Ja, ze hadden het sneller kunnen maken, maar dan verkopen ze ook veel minder consoles omdat het te duur word voor veel mensen. En aangezien ze ook veel verdienen met games en online. Willen ze zoveel mogelijk consoles verschepen. Het blijft een kwestie van hoeveel ze ermee kunnen verdienen. En met high-end zouden ze veel minder verdienen. Neemt niet weg dat het wel next-gen consoles zijn. Omdat ze daadwerkelijk wel veel sneller zijn dan de vorige generatie consoles.
... "die na een maand al zo out of date is dat je er gewoon niet eens fatsoenlijk "next gen" games op kan draaien"

Tis wel leuk om Sony/Mickeysoft hiervan de schuld te geven, maar de waarheid ligt in het midden, sterker nog: Ik denk nog meer aan de 'andere' kant.
Met de 'andere' kant bedoel ik de developers.
Zij zoeken bewust (en logisch) de grenzen op van wat mogelijk is en gaan daar af en toe ruimschoots overheen, zoals blijkt bij PS2.
Dit kan ook gebeuren bij een console van 1.000 euri.

Er zijn genoeg spelen die prima draaien op de next-gen consoles.
We kopen wel iphones van 900 euro die na 2 jaar worden afgeschreven, maar een game console die een jaar of 5 mee moet mag niet meer dan 400 euro kosten. De vergelijking is natuurlijk erg scheef.
Die vergelijking is inderdaad erg scheef:

- Die iPhone is negen van de tien keer op afbetaling, met een beetje bijbetaling.

- De iPhone van 900 euro is op een vermogender publiek (zakelijk) gericht ; het is alleen vanwege eerdergenoemde betalingsregeling dat er momenteel 17-jarigen met een telefoon van 900 euro rondlopen en meestal staan die dan ook dik in het rood.

Dit is niet recht te praten: een nextgen console van net een jaar oud moet gewoon betere resultaten leveren dan deze magere prestatie. Zelfde voor de Xbox One trouwens.

En vergeet niet dat een CPU voor Sony 'iets' minder kost dan voor jou en mij.

[Reactie gewijzigd door TimMer op 24 november 2014 13:37]

Een abonnement met een smartphone die "gratis" is of maar een paar tientjes kost bij dat abonnement. Dan heb je een afbetalings regeling. Want in feite is een groot deel van dat abonnement om je telefoon af te betalen. Waarom is sim-only anders zoveel goedkoper?
Next-gen heeft alles te maken met een verwachtingspatroon. Het heeft helemaal NIETS te maken met nieuwe spel elementen 'die een nieuw niveau bereiken'. Als we iets weten van de afgelopen jaren dan is het dat games steeds minder échte spel elementen krijgen, en dat alles versimpeld wordt. Er zitten meer game mechanics in een game uit het jaar 2000 dan eentje voor een console uit 2014. Een beetje zoals Alpha Centauri bijvoorbeeld veel meer mechanics kent dan Civilization V / Beyond Earth. Dan kan het er wel mooier uitzien, inhoudelijk heeft het veel minder te bieden. Het enige nieuwe niveau dat bereikt wordt is er een van versimpeling, 'dumbing down'.

Het verwachtingspatroon dat was geschept op basis van de vorige console generatie was dat we nu dan toch eindelijk van 720p/30 naar MINIMAAL 1080p/30 en liefst zelfs /60 zouden gaan. Maar zelfs 30 fps kost dus kennelijk grote moeite. En dus is deze set consoles alleen in naam next-gen, maar zeker niet qua verwachting of waargemaakte beloftes.

[Reactie gewijzigd door Vayra op 24 november 2014 12:57]

Dat komt omdat een text-based game ook makkelijker te programmeren is en veel minder tijd kost om van nieuwe content te voorzien.
Hoe mooier en grootser de game, hoe complexer deze wordt.

Ik kan me nog oude games herinneren die elke 2 minuten een nieuwe map moesten laden, waar bepaalde content specifiek was aan de map of waar alle tegenstanders er precies hetzelfde uitzagen. En je mocht al blij zijn als je uberhaupt een gezicht kon herkennen, laat staan dat er lipsync in zat.

Games zijn gewoon complex geworden en kosten ondertussen zoveel geld voor de toren-hoge verwachtigen van gamers tegenwoordig, dat het ook niet meer zinvol is een grote game te maken want dan krijg je al snel dat een game vaker uitgesteld wordt dan dat Duke Nukem Forever aan previews heeft gehad.
Het spijt me, maar game mechanics zijn toch echt hetzelfde in een 3rd person ARPG van 10 jaar geleden en nu. Of vergelijk voor de grap eens Baldurs Gate 1/2 met Divinity Original Sin. Daar zit ook meer dan 10 jaar tussen. Qua mechanics vrijwel 1 op 1 hetzelfde. Sterker nog, objecten krijgen in 2014 nog steeds gewoon een highlight on mouseover en een geluid en animatie wanneer je erop klikt. Niets nieuws onder de zon.

En ook engines en talen zijn gestroomlijnder geworden. Games groeien naarmate de capaciteiten van programmeurs en programmatuur groeit, een game die boven die capaciteiten groeit, wordt gewoon niet gemaakt. En al werd het wel moeilijker: de wereld wordt ook 'complexer' maar niemand vertelt je dat je er dan maar niet aan moet deelnemen. En als je deelneemt moet je niet zeuren, simpel.

Het wordt wél complex als je (later) allerlei DRM in je game wil verwerken op een engine die daar in beginsel niet voor is ontwikkeld. En ziedaar het grote probleem van zo enorm veel grote titels: online functionaliteiten of integratie vormen vaak de oorzaak van (tijdelijke) onspeelbaarheid. Van tick-rates en hit detection op Battlefield servers, tot Uplay integratie in AC of HoMM VI, desync in Path of Exile, leavers in Dota 2, tot launchproblemen bij elke MMO, het zijn vaak online componenten die roet in het eten gooien.

Kortom het heeft helemaal niets met de werkelijke kwaliteit van games te maken, en zelfs helemaal los van complexiteit kun je prima zeggen dat wanneer je als bedrijf een product op de markt brengt, dat product gewoon zo goed als foutloos moet zijn, of MINSTENS goed moet werken (=speelbaar). Anders moet je stoppen met games ontwikkelen, net zoals een bakker die zwartgeblakerd brood bakt moet stoppen met brood bakken.

[Reactie gewijzigd door Vayra op 24 november 2014 14:34]

Mechanics zijn gelijk, maar tegenwoordig hoort bij elke actie weer een icoontje, een animatie, special effects, damage, misschien zelfs audio en meer. Vroeger kon je gewoon een nieuwe regel toevoegen aan je text-based game of kon je nog wegkomen met dezelfde animatie maar dat lukt nu ook niet meer.
Maar dat verklaart alleen waarom kosten voor ontwikkeling stijgen, niet waarom zaken gewoon met game breaking bugs en zwaar ondermaatse performance worden uitgebracht.

Ik kom weer terug bij het voorbeeld van de bakker. Om het anders te verwoorden: het brood is nu te groot voor de normale oven geworden, dus moet je een grotere oven kopen. Sony en MS hebben geprobeerd het grotere brood met hetzelfde kleine kutoventje te blijven bakken. Leuk misschien voor het jaaroverzicht, maar niet voor de eindgebruiker.

[Reactie gewijzigd door Vayra op 24 november 2014 14:32]

Planetside #1 komt dan ook uit 2003 en Planetside #2 heeft dan ook wel iets andere gamemechanics, maar die hebben minder te maken met het gameplay gedeelte van het FPS element en meer te maken met hoe je dingen verovert.

Bij PS2 is het een combinatie van een nieuw model van verdienen (F2P), een nieuwe engine (Forgelight) en de eisen/verwachtingen van de eindgebruiker.

Ik ben op de PC gewoon heel tevreden met de highend resultaten die Sony nu weet te behalen zonder de duurste CPU/GPU te hoeven aan te schaffen of SLI te hoeven gaan.

Dat de poort naar PS4 niet denderend gaat zonder een enorme rewrite kan Sony alleen aan zichzelf danken (of verschillende afdelingen aan elkaar).
Matt Higby: Right now we're running for 1080p. We're still trying to shoot for 60fps. We're trying to get a solid frame-rate. So if we go to 30 it'll be because we want to maintain a completely solid 30fps. But that's the optimisation we're working on right now. And we're still grinding on it.

Generally speaking the client is running at well over 60fps. In a really big fight it gets bogged down. That's the bottleneck we're chasing down.
Met andere woorden, de game is nog niet uit, we zijn er nog mee bezig. We lopen alleen nog tegen een issue aan. Dus storm in glas water.
Erg jammer al die verhalen over lage FPS en consoles die de games niet kunnen draaien. Ik vind het persoonlijk ook erg vreemd dat zowel Sony als MS ervoor heeft gekozen om hardware te kiezen die alles behalve next gen is. Leuk dat de console 400 euro kost... Maar vervolgens draaien games niet in full hd en ook niet op 60 FPS.

Wat is er dan next gen aan?
Dat is wel makkelijk om te zeggen dat de consoles niet next gen zijn. De GPU is meer dan next gen. De CPU bestaat ui 8 jaguar cores, wat te vergelijken is met een Atom 8core. Super zuinig enzo, niet te duur en hierdoor was er meer geld over voor een fatsoenlijke GPU. Echter AMD's CPU's zijn al niet de snelste stoppen ze er ook nog hele langzame cores in. Een 7850k variant was een stuk beter geweest.

Om terug te komen op de 8-cores, hoe efficiënt wordt hiervoor geprogrammeerd? Worden alle mantle API's al benut? Zou er niet nog efficiënter geprogrammeerd kunnen worden in de toekomst? AMD's visie is namelijk om de CPU minder te benutten.

Terugkomend op Planetside, dit is ook een zeer CPU intensief spel. Mede veroorzaakt door de vele spelers. Een stuk intensiever dan Assassins creed!
De GPU is meer dan next-gen? Een HD7870 al jaren oud en was op de release al een betaalbare mid-ranger. Qua positionering in de markt op prestaties en pricetag totaal niet te vergelijken met de GPU van de PS3 en 360 destijds.
En zoals je zegt, de CPU is het ook niet.
Je doel kan zijn de CPU minder nodig zijn, maar dan nog... 8 Jaguar cores zijn zelfs dan al snel de bottleneck lijkt me.

Het verschil zit vooral in de winstmarge die Sony wil hebben. Bij de PS3 gingen geruchten dat zo'n device 1200 dollar kostte om te maken op release, de PS4 is vanaf dag 1 met winst verkocht. De 360 kostte 300 dollar op release maar maakte daarbij ook verlies.
Het is niet precies de HD7870 die jij gewend bent, plus dat het voor gameconsoles nog altijd anders werkt dan voor PC.

Nasa had ook geen supercomputer nodig om naar de maan te doen maar een betrouwbare machine die deed wat het moest doen en door de opzet van het platform ook meer performance kreeg zonder de overhead van een normale consumenten-pc tegenwoordig.

[Reactie gewijzigd door Martinspire op 24 november 2014 14:16]

Qua shaders, kloksnelheid enzovoort wel gewoon hoor :) het werkt wel wat anders, maar laten we met de 'holy grail named optimalisation' nou niet overdrijven...

Tuurlijk heb je op een PC enorm veel overhead. Maar qua GFLOPS zit een flinke game PC -nu al- makkelijk een factor 2 tot 4 hoger. Een HD7950 van 150 euro zit met z'n 3 TFLOP's al bijna op het dubbele van een HD7870, een R9 290 van 250 euro doet al 5 TFLOPs. Tenzij de overhead van een PC 66-75% is (en zo erg is het nou ook weer niet voor games), doet een PS4 (die misschien dan wel een factor 2 goedkoper is) het gewoon minder goed.

En dat merk je gewoon na 1 jaar al: dit soort artikelen over performance, geen AAA-titels (die geen remake zijn) die echt native 1080p/60 doen, enzovoort. En dat systeem moet nog 5 jaar mee...
Vergelijk voor de gein eens de stappen die zijn gemaakt bij de vorige generatie. Games als Call of Duty 2 waren ook niet bijster gedetailleerd, maar uiteindelijk zijn we wel op GTA, Tomb Raider en The Last Of Us uitgekomen.

Vooral het feit dat de SDKs nog niet volwassen zijn, de hardware minder zwaar was dan gamedevelopers dachten (dus hun doel vrij hoog gemist hebben) en de toch wat overdreven tech-demo's op de E3 hebben de verwachtingen ook wel wat te hoog gemaakt.

Dat wil niet zeggen dat we straks allemaal top-graphics krijgen, maar momenteel geven developers de voorkeur aan lagere FPS en lagere resolutie om maar meer toe te kunnen voegen. 1080p en 60fps is prima mogelijk als men niet veel meer eisen heeft dan wat men al eerder deed, maar men wil nu meer. Werelden zonder savegames, gedetailleerde gezichten, bewegend haar, dieren, hoge mate van destructie en meer. Dat is ook niet zonder enige performance-drop toe te voegen. Toch wordt de game-ervaring er wel beter van, ondanks dat de graphics dus minder hoog zijn.

Ik zie echter wel dat als de consoles 3 of 4 jaar zijn, de 1080p/60fps standaard een stuk makkelijker wordt gehaald en je ook meer titels ziet die dat gewoon kunnen combineren met mooie graphics. Dat was met de overstap van PS2 naar PS3 ook niet of de overstap van PS1 naar PS2. Enige wat nog meehielp is dat je de stap van 100 naar 1000 polygonen of van 1000 naar 10000 goed zag. Nu hebben models echter tussen de 50.000 en 100.000 polygonen, maar is dat gewoon minder makkelijk te zien, ondanks dat het er dus wel mooier op geworden is.

Geef het tijd

[Reactie gewijzigd door Martinspire op 24 november 2014 15:15]

Ware het niet dat de Cell CPU door iedere developer werd gehaat en dat er behoorlijke problemen waren om daar de max uit te halen. Dat is meermaals gecommuniceerd destijds.

Bij de PS4 is er gefocust op easy to develop. De X86-64 architectuur is niet voor niks gebruikt. Sony heeft JUIST duidelijk gemaakt dat de praktijken van de PS3, niet meer bij de PS4 zullen voorkomen. Door gebruik te maken van iets wat al bestaat en wat gamedev's juist al masteren, duurt het juist minder lang voordat je de max uit je device haalt.

1080p/60 zie ik echt niet meer gebeuren op de huidige generatie, simpelweg omdat men meer focust op de mooiheid van screenshots en video's voor marketing. Tuurlijk kan 60fps, maar niet met het niveau van graphics die de consument verwacht (en ook nog dient te stijgen). De consoles hebben niet genoeg power om zowel kwaliteit als 60fps als 1080p te combineren, daarvoor zijn de specs gewoon te laag.
In tegenstelling tot de PS360 zit er nu niet de meest krachtige AMD/Nvidia kaart in, maar een mid-ranger. Geen server-CPU, maar een 8-core tabletvariant. Daardoor is er ook gewoon minder speling. En dat soort dingen zie je gewoon nu al terug aan dit soort nieuwsartikelen.

Je kan het tijd geven en natuurlijk wordt het beter... maar juist die lange optimalisatietijd is tegengegaan door meer onderdelen 'van de plank' te pakken en er zit gewoon een totaal andere schaal van hardware in. Die limiet zal daarom veel sneller bereikt worden dan voorheen.

De polygonenstap wordt inderdaad minder, maar toch verwachten we nu weer nieuwe dingen op gebied van destructie, particles en lightning om maar wat te noemen. Daar moet ook headroom voor over zijn... en ik heb dus niet het gevoel dat dat er is.
Het klopt dat de Cell lastig was, maar daar hebben ze ook weer van geleerd.

Punt is dat er misschien minder krachtige hardware in zit, maar dat heeft vooral met de (giga) herzen te maken. Er zitten nog veel zaken in die wel hardwarematig zijn toegevoegd, maar nog niet volledig zijn uitgewerkt. Dingen die ook nog niet in consumentenhardware zit (of niet op dit niveau. Denk aan de mogelijkheid om gelijktijdig zowel te schrijven als te lezen. Of bepaalde chips die enkele taken vervangen die voorheen door CPU/GPU werden gedaan. Er zijn nog steeds zaken die niet zijn uitgewerkt, terwijl ze in theorie voor performanceverbeteringen moeten zorgen. Sommige zaken worden vrij snel heel technisch en niet elke developer gaat daar even goed mee om. Zowel de X1 als de PS4 hebben te maken met SDK's die nog regelmatig van grote updates worden voorzien en documentatie die nog moet worden geoptimaliseerd en uitgebreid. Er zijn bij elke game weer situaties die anders worden opgelost en het totaal draagt bij aan de algemene performance.

Het klopt dat de rauwe optimalisatie een stuk makkelijker is gedaan, maar we hebben nu nog steeds te maken met engines die enerzijds op last-gen zijn gebaseerd en anderzijds op pc.

Groot probleem wat veel developers hebben gehad de laatste maanden is strakke deadlines met daardoor dus te weinig testen of bugfixen. Je ziet dat in de maand na de game uitkomt, nog een veelvoud aan patches komt en dat is ook niet bepaald een wenselijke situatie. Als ik hoor dat ACU tot 6 maanden geleden nog maar 9FPS had, dan kan ik me voorstellen dat ze uiteindelijk te weinig tijd hadden om er iets moois van te maken. Of de problemen tijdens ontwikkeling van Destiny helpen ook niet mee (die game had zoveel beter gekund als ze de schrijvers niet waren verloren).

Ja de stijging in performance zal niet zo sterk zijn als bij de vorige generatie, maar er zijn nog wel wat meer zaken waardoor games nog niet alles eruit halen van wat mogelijk is. Zeker de multiplatform titels hadden veel (grafische) problemen bij launch.

[Reactie gewijzigd door Martinspire op 24 november 2014 16:04]

Het is niet zozeer de winstmarge, het is vooral van begin af aan break-even draaien wat bij de vorige generatie alleen Nintendo lukte.
De '4' in PS4 is Next Gen (tov. de PS3).

Het is geen nummer waar een prestatiecurve aan gebonden is, het is gewoon een versie nummertje. Next Gen is dus gewoon de volgende versie en niets anders dan een marketing term.
Mensen verwachten echter wel een bepaalde prestatiecurve, daar voldoet de 'next-gen' niet aan, daarom kom je toch dit soort reacties tegen.
GPU is NextGen, de CPU is dat niet.
Vandaar dat kennelijk je op GTA V maar met maximaal 30 speler online kan spelen, anders trekt de CPU het niet meer. Wel jammer. Maar als de CPU lucht krijgt door de frame rate omlaag te gooien, 60 naar 30, daar kan ik wel mee leven.

[Reactie gewijzigd door sokolum01 op 24 november 2014 12:42]

Ze hebben helaas bespaart op de hardware en idd de gpu en cpu wachten op elkaar als een van de twee bezig is. Dus je moet zorgen dat je het goed optimaliseert. Maar als je een goede gpu hebt maar de cpu is niet krachtig genoeg om alles te berekenen en commando's te sturen naar de gpu heb je nog een probleem #ps4
Ik denk dat ze mogelijk wat meer moeten paralleliseren. Maar dat is niet altijd even makkelijk, aangezien heel veel dingen in een game met elkaar te maken moet hebben, waarbij je X gedaan moet hebben voordat je Y kan doen.
Nee, dan hebben ze gewoon teveel gewild. Als het niet soepel draait door teveel informatie tegelijkertijd, dan moeten ze die informatie verminderen. Tenzij het ze lukt de boel genoeg te optimaliseren natuurlijk. Dat je als ontwikkelaar dingen wilt die de CPU niet aankan, is natuurlijk niet de schuld van de CPU :).
Inderdaad. Ik wil wedden, als dit spel geschreven was in assembler, dat het wel soepel zou lopen.

Overigens "alle audio die bij de personages die rondrennen hoort" - hadden ze niet een soort TrueAudio in die apu's zitten?
Als ze dit spel zouden schrijven in assembly, zouden we het nog altijd niet kunen spelen omdat t nog jaaaaren in ontwikkeling zou zijn.

Ook zijn X86 compilers dusdanig goed uitgewerkt dat ze vaak betere code uitspugen dan een programmeur zelf zou kunnen in dit soort giga projecten.

[Reactie gewijzigd door VNA9216 op 24 november 2014 12:35]

Jawel, maar ik vraag mij af of een X86 compiler in combinatie met hand-tuned assembly in bepaalde hot-spots niet nog efficienter kan zijn...
Wat tegenwoordig belangrijker is proberen alle cores goed te benutten. Dit is best lastig omdat een verkeerd geoptimaliseerd algoritme tegen memory bottlenecks aan kan lopen. Ook optimalisatie van gebruik van caches etc. is belangrijk.

Het is allemaal een stuk complexer geworden, een stukje code wat optimaal loopt op 1 core ziet er heel anders uit dan een stuk code wat optimaal loopt op 8 cores waarvan er 4 een L2 cache delen.

Assembly schrijf je tegenwoordig bijna nooit meer tenzij je specifieke hardware acceleration wilt gebruiken. Verder is het moeilijk optimaliseren. Ik schreef zelf vroeger ook wel dingen in assembly, maar tegenwoordig zijn de compilers en de CPU zo goed in het optimaliseren van de code dat ik er geen moeite meer in steek. Plus het kan zelfs averechts werken op een nieuwe CPU (daar heb je in dit geval geen last van).
Dat was eigenlijk meer mijn punt dan de specifieke programmeertaal: er valt waarschijnlijk nog een hoop winst te halen door betere optimalisatie.
Het kan in enkele gevallen een kleine boost geven, maar uit eigen ervaring kan ik zeggen dat compilers voor complexe projecten vaak betere code leveren dan direct ASM programmeren oplevert.


Persoonlijk vind ik ASM soms best leuk om mee te werken, maar ik heb er gewoon de tijd niet meer voor
De enige echt hand-getunede ASM die je nog gebruikt in dit soort projecten zijn libraries die direct van Intel en AMD afkomen, deze zijn dan ook echt wel heel efficiënt, ze kennen de hardware heel goed. Bij Intel bijvoorbeeld Math Kernel Library, deze draait dan wel weer bagger op een AMD chip.
Ook zijn X86 compilers dusdanig goed uitgewerkt dat ze vaak betere code uitspugen dan een programmeur zelf zou kunnen in dit soort giga projecten.
Vaak wel, maar compilers leggen het toch wel af op het moment dat je creatief gebruik kan maken van de registers en de register flags. Zaken waarop je in pure C/C++ vrijwel geen invloed hebt.
Er is altijd wel wat winst te halen, maar relatief niet veel, en als je zoals de persoon waar ik op reageerde suggereerde heel planetside 2 in ASM gaat maken is de prestatiewinst gewoon niet genoeg om zoveel extra ontwikkeltijd te verantwoorden.

Daar komt bij, dat als programmeurs aan zo'n giga project moeten gaan werken in ASM, ze vaak ook op een gegeven moment het "overzicht" kwijt gaan raken en daardoor de code juist weer inefficienter word.


Ik zou ook niet graag bugs/cheats/exploits willen oplossen binnen zo'n groot asm project pfff wat een werk.
Als ze die consoles wat meer kracht hadden gegeven dan de gemiddelde instap-pc had het helemaal geen punt geweest.
Een 8-core processor met 8gb ram en aardige grafische kaart in een instap-pc. Veel succes met zoeken 8)7

[Reactie gewijzigd door Martinspire op 24 november 2014 14:08]

The central processing unit (CPU) consists of two x86-64 quad-core modules for a total of eight cores,[13] which are based on the Jaguar CPU architecture from AMD.[2] Each core has 32 kB L1 instruction and data caches, with one shared 2 MB L2 cache per four core module.[14] The CPU's base clock speed is said to be 1.6 GHz, with an unknown uptick in speed for CPU-intensive usage.[15]
Mag dan wel 8 cores bevatten de kloksnelheid is niet erg hoog. Misschien had hij moeten zeggen CPU van een instap gaming PC.

Uiteraard zal het ook anders optimaliseren zijn voor 8 cores waardoor het ook wat tijd zal kosten om het beste uit deze CPU te halen.
Ik heb het toch niet over de specs? Of aantallen? Meer over de performance. Die is niet erg next-gen. Die zouden geen moeite moeten hebben met 60fps op 4k.
4k+60fps kan geen enkele normale game PC aan.. 4k gaming is helemaal niet current gen.
"4k gaming is helemaal niet current gen. "
Daarom heet het ook Next gen.. de consoles van nu zijn geen dingen die jaren mee zullen gaan en het op computergebied tegen de gemiddelde PC kunnen blijven opnemen. De PS en Xbox waren al mèh bij het uitkomen, dus niet next gen, maar current gen.

[Reactie gewijzigd door RadioKies op 24 november 2014 15:33]

Het gaat hier om de PS4 en XBONE is die zijn wel current-gen.
Mijn comment komt niet goed over, ik heb het er juist over dat een console next gen moet zijn, die PS4 en XBone zijn geen next maar idd current gen. Je koopt een console immers zodat je een poos vooruit kan. Deze consoles lopen nu al slecht met sommige spellen. Als ik kijk naar Shadows of Mordor dan heb ik met mijn PC die onderdelen van 7 jaar oud(!!! zoals mijn mobo m2n32sli-deluxe met een 940X4 Phenom-II) bevat mooier beeld (hogere settings) en 60fps.

De vorige consoles zoals de PS1, Xbox, PS2 lieten dingen zien waar je u tegen zei. De PS3 en 360 waren ook redelijk next gen, alleen miste je wel wat dingen die je nu ook niet hebt... onder andere Anti Aliasing en op de PS3 alpha textures. Vergeet ook niet dat vroeger een console stond voor 'plug&play'. Geen tweaks nodig, geen updates en dergelijke, plus de laadtijden van spellen waren erg snel in het tijdperk dat je spellen met roms werkte. Tegenwoordig mag je andere voordelen verwachten van een console omdat ze niet meer de laadtijden hebben en day one patches ook bestaan voor consoles.
Veel grafische kaarten verslikken zich al op 1440P met 60fps , laat staan 4K.
een modern spel in Assembler schrijven? lol
Wel als je geld bespaart en een mindere cpu erin verwerkt.. #ps4

Ik vind het zonde dat Sony voor mindere hardware heeft gekozen, en iedereen begint nu te klagen zelfs Sony.. Maar het is TE LAAT
Als ze meer multithreaded kunnen programmeren voor de volle 8 cpu cores kan het alsnog goedkomen met de cpu performance van de ps4/XOne lijkt me. Maar dat neemt wel meer programmeertijd in beslag.
Ik weet niet of ze de multi threading goed gebruiken, dat kan idd wat performance geven.

Echter alle game engines van oa assassins creed: denk ik dat deze nog niet optimaal werken met de consoles.
Echter vind ik het zwak als men daaf achter gaat verschuilen.
We zullen nog wel wat verandering zien..
Maar ik zou het niet gek vinden als de cpu van ps4 & xbone zwak gevonden wordt en het een flop wordt..

Want Lets face it, het is geen hightech configuratie die 8 jaar mee gaat.
Wat de ps3 wel deed.

Ik ben blij met ps4 & games.. En alle Graphics zijn mooi. Overigens is over het algemeen heel de ps4 van mindere kwaliteit dan de ps3 in vergelijking ook de manier hoe Sony ermee omgaat, het OS Is gewoon nog niet af. Ze hebben dingen beloofd die ze nu een jaar na de release er nog niet in hebben zitten.
Ik draaide PS2 voorheen op een Q6600/GTX285 en had inderdaad een CPU melding links onderin staan (1920x1200, Medium, 20fps of lager). Sinds kort een i7-5820K/GTX970 (2560x1600, High, 60fps heel soms een paar frames lager) en geen CPU melding meer.

Laat ik eerlijk wezen, als je een oude bak gebruikt en niet op de laagste settings speelt moet je niet klagen dat je performance niet de ideale 60fps haalt. Het moet natuurlijk ook niet zo zijn dat het geheel niet te spelen is, maar met een oude bak, een lager resolutie, low settings en 30fps moet imho prima haalbaar zijn.

Het punt is vaak dat we slecht geoptimaliseerde bagger van console ports krijgen, n u gebeurt het aan de andere kant. How do you like them apples! ;-)
Je bedoelt zeker GPU?

Het is bekend dat Planetside 2 het echt moet hebben van de CPU. Maar het ironische is dat de CPU van de PS3 in staat is om meer te doen dan de PS4.

http://tweakimg.net/g/for...gespeed.ic.RR-jbOKefE.jpg

GPU is wel flink beter dan de vorige generatie. Wanneer games meer gaan renderen via de GPU en goed gebruik gaan maken van de shared memory zie ik wel een mooie toekomst tegemoet voor de PS4. Zag laatst pas P.T. en de graphics daarvan zijn echt om te smullen als console gamer. :9
Het gaat hier niet om renderen, het gaat om het aansturen en beheren van alle objecten (en bij online dus ook bepalen waar de spelers naar toe gaan in de tussentijd dat er van internet geen informatie komt)..
Ik zou zeggen besparen op cpu cycles, en informatie door de server voor laten berekenen zodat er minder cycles voor de cpu overblijven. Zoveel mogelijk besparen op cpu calls & cycles
Nou ja, je hebt natuurlijk ook nog steeds die audio chip aan te sturen voordat 'ie iets doet. Dus een deel van de audio loopt hoe dan ook via de CPU. Kan best zijn dat Sony verzuimt heeft de vereiste decoders in de hardware op te nemen. (De Xbox 360, bijvoorbeeld, had hardware WMA en WMV decoding ingebouwd, waardoor die met 0 CPU load konden worden afgespeeld).
Omdat je wel eerst moet weten welke geluiden die 512 kanaals chip moet gaan maken. Datzelfde geldt voor de GPU. Die kan het makkelijk aan, maar moet wel weten wat die moet gaan doen.
De CPU moet zorgen dat die dedicated chips te weten krijgen wat ze moeten doen, maar die verzuipt daar blijkbaar in.
Ik krijg de indruk dat het aan de schaal van PS2 ligt, zoals ook in het stuk gesteld wordt. Tijdens grote belegeringen zijn er soms 200+ mensen al dan niet in voertuigen in de weer op een klein stukje map. Na een game-update in augustus (dacht ik) was PS2 voor mij met mijn oude i5 750 opeens onspeelbaar geworden, zelfs met grafische instellingen allemaal op low, behalve in gebieden die dunbevolkt zijn. Daarbij gaat het er niet om of mensen in beeld zijn of niet en zelfs de minimap duurt eeuwen om te laden. En ik ben niet de enige, als ik de forums moet geloven. Jammer, het is een unieke game-ervaring... als je de goede apparatuur hebt.

[Reactie gewijzigd door Randfiguur op 24 november 2014 11:50]

Maar ten opzichte van het eerste deel stelt dit allemaal erg weinig voor. Zeker toen de uitbreiding uit kwam zaten we regelmatig met honderden tegelijk bij elkaar in de buurt, inclusief al die voertuigen. En toch hadden de PCs van die tijd (Pentium-4s) er weinig of geen moeite mee.

Ik krijg dus eerder de indruk dat het aan PS2 ligt. Wat er, CPU-wise, gebeurt in het spel is sinds het eerste deel nauwelijks verandert en de CPUs zijn oneindig veel krachtiger geworden. Dan moet er dus in de code een hele berg FUD verschenen zijn om dit soort effecten te hebben......

Let overigens wel dat dit een algemener MMO probleem is; een gemiddelde MMO draait veel zwaarder op de CPU dan op de GPU. Zie bijvoorbeeld ook raids in WoW of SW:TOR. Je hebt een aardige CPU nodig om alle truukjes van 20-30 man bij te kunnen houden terwijl een redelijke mid-range GPU alles op hoogste details kan tonen.
ik heb hier geen last van op de PC wellicht heeft het meer te maken met het feit dat jou pc spec's ook on toereikend zijn?

ik draai het namelijk allemaal op max settings met een i5 2500k+gtx680.
Toen PS2 net uitkwam zat er een 'bug' in de renderdistance. Deze was gewoon 'infinity' kilometer terwijl je hier nooit iets aan hebt, zelfs in de 'echte' wereld kan je vaak niet verder kijken dan 2 kilometer. Nadat ze een slider in de options hadden gebracht waarop je deze naar beneden aan kon passen werd alles weer goed speelbaar omdat je toen de renderdistance zelf tussen de 0 en 5 kilometer kon bepalen.
Voor de duidelijkheid; logischerwijs bedoeld gentlemen met PS2 niet de Playstation 2 (waar de afkorting bekend voor is) maar PlanetSide 2
bij de PC versie is Planetside2 gewoon veel te single threaded, 95% van de berekeningen worden op 1 core uitgevoerd, wat gewoon slecht is zeker bij een game waar duizenden mensen op 1 server zitten
Je bedoelt PS4 neem ik aan?
Ik moest ook even kijken maar:
Het gaat over Planetside2 (=PS2) op de Playstation4 (PS4)
:)
Tja, de CPU van de PS4 is dan ook zwaar underpowered. Zelfde geld voor de XBOne en zelfs de Wii U.

Bij alle drie is de balans tussen CPU en GPU power scheef.
Dit zou je kunnen oplossen door optimalisaties, en concepten als HSA en Mantle-achtige constructies. De focus bij games ligt altijd bij de GPU, bij sommige games, MMOs zoals PS2, gebeurt er in de game wereld teveel om door de CPU op te vangen. Dit moet dus beter bekeken worden, oftewel, op te lossen door te optimaliseren (meer interacties uitrekenen op de GPU bijv). PS2 kan daar veel winnen.
De focus bij games ligt altijd bij de GPU
Dat komt alleen door de obsessie met graphics. Elke keer als de hardware een slag maakt qua performance wordt ons voorgehouden dat we er nu meer power is voor betere AI, betere gameplay. In praktijk echter blijkt al die extra power alleen gebruikt te worden voor betere graphics.

Een moderne game is een beetje te vergelijken met Jessica Simpson, het ziet er mooi uit aan de buitenkant ...
De GPU is niets anders dan een snelle vertaalslag van models naar een 3D beeld. Al het andere komt voor de rekening van CPU en RAM (gedrag van bots (AI algoritmes), aansturing van animaties, physics (indien geen dedicated chip), lijstjes waarin de hele staat van het spel wordt bijhouden, bufferen en lezen van schijf-data, aansturing van geluid, netwerk en GPU, enz.)
Wat denk je dat hier een verklaring voor zou kunnen zijn? Ik durf wel aan te nemen dat er goed nagedacht over de hardware in de consoles en zeker als je kijkt naar concurrenten (xbone) die met hetzelfde probleem kampen lijkt het een vreemde keuze, want een foutje is het denk ik niet, zo'n zwakke CPU in te bouwen.
Wat denk je dat hier een verklaring voor zou kunnen zijn?
Simpel. Hardware voor consoles is genormaliseerd. Als je een Xbone of PS4 koopt, dan heb je hardware die bij de introductie al niet top-of-the-line was en nu verouderd is.

Dit alles natuurlijk in verhouding met de PC. Een hedendaagse desktop is met een lichte investering te upgraden naar een gamebak die krachtiger is dan een PS4 of Xbone, en die veel spellen kan spelen in echte 1080p met 60 frames per seconde en een hoger detail. Ook wordt vaak vergeten dat je een abonnement moet afsluiten om online te kunnen gamen op een PS4 of XBone. Bovendien zijn spellen (waar het allemaal om gaat) goedkoper te krijgen voor de PC. Een game PC hoeft hierom geen slechte investering te zijn. ;)

Natuurlijk is er nagedacht over de hardware van consoles. Er is alleen niet goed nagedacht over of en hoe PlanetSide 2 goed kan draaien op een Playstation 4. Het spel zelf is al niet goed geoptimaliseerd om te draaien op een gemiddelde game PC, laat staan op een console.

[Reactie gewijzigd door The Zep Man op 24 november 2014 12:05]

Je kan maar zoveel optimaliseren. Als er honderden spelers in beeld komen heeft zelfs een i5 er zwaar moeite mee.

Speel maar eens GW2 en zet alle schuifjes open, vooral degene die het aantal verschillende character models beperkt. Dat slidertje is later zelfs ingebouwd om de bar slechte performance in WvW e.d. te compenseren. Resultaat van naar links schuiven: alle models zien er hetzelfde uit, worden vervangen door één base model. Resultaat, rete soepele gameplay. Oorzaak: CPU. Waarschijnlijk moet Sony nu eenzelfde soort 'optimalisatie' doorvoeren, maar die is dan waarschijnlijk ook zo vergaand dat je echt details mist die men wel gepland had - net zoals de slider in GW2 een directe trade off is tussen zichtbare textures en performance.

[Reactie gewijzigd door Vayra op 24 november 2014 12:19]

Simpel. Hardware voor consoles is genormaliseerd. Als je een Xbone of PS4 koopt, dan heb je hardware die bij de introductie al niet top-of-the-line was en nu verouderd is.
Uiteraard is het niet top-of-the-line, zo'n console moet ook betaalbaar blijven, niet te groot, niet te heet, etc. Dat is niet het probleem. Het gaat niet om of het low-end of high-end hardware is, het gaat er om dat het in balans is.

Het probleem is dat ze een bepaald budget hebben qua kosten en warmteproductie, en die wordt voornamelijk besteed aan grafisch geweld. Fabrikanten stoppen dus een dikke GPU er in want dan kan je mooie plaatjes laten zien in 1080p. Ziet er prachtig uit in de reclames en reviews en het verkoopt dus goed. Graphics verbeteren is ook makkelijk, goeie AI maken is echter moeilijk.

Omdat een te groot deel van het budget besteed wordt aan de GPU is er dus onvoldoende over voor de CPU, waardoor je een systeem krijgt waar de verhouding tussen de performance van de CPU en GPU compleet uit balans is.
Idd.. Ontzettend veel gedoe met de spellen op de consoles..

Is dit een kwestie van nog niet optimaal programmeren? Of hebben ze gewoon te laag ingezet? :/

Hoe groot is de kans dat de X1 en PS4 een hardware update krijgen?
(Dit zou tov de oude natuurlijk niet eerlijk zijn, behalve als je gratis/minibeetje bijbetalen, je console kan laten upgraden :))

Of wordt dat dan de volgende 'gen'
(Misschien komt ie sneller dan de vorige..)
Onbestaande, beide bedrijven zijn hun focus aan het leggen naar de cloud. Niet persé puur om games te streamen, maar bvb om een deel van de rekenkracht naar daar te verhuizen. Zo zouden games bvb. kunnen runnen in 900p 60fps native op de console, maar als je online verbonden bent dat dit 1080p 60fps zou worden. Vooral Microsoft zette zich hier op in, al is het al even stil op dat vlak met de grote veranderingen die er nu gaande zijn. Het blijft wel een technologie die zich eerst nog zal moeten bewijzen.

OT: Ik dacht dat rendering van animaties al lang op de GPU gebeurde en niet op de CPU. Leuk als je een game er grafisch ongeveer hetzelfde uitzien als op pc, maar als dat ten kosten gaat van de gameplay is dit gewoon een slechte keuze.
Rendering van animaties zal zeker wel op de GPU gebeuren, maar de CPU moet nog altijd de instructies geven en alle zaken die erbij horen (zoals hier ook aangegeven werd, zaken zoals geluiden ed.), denk ook aan zaken zoals physics, hoe grafisch uitgebreider, hoe meer kleine dingetjes zoals steentjes, kogelhulzen, brokstukken van kapot geschoten voertuigen etc er ook rond slingeren. Als iemand een schop geeft tegen zo'n steentje, moet dat ook weer gesynced worden over al de clients, nu gaat een server (tenminste dat denk ik) niet 60x per seconde de positie van zo'n steentje doorgeven, maar worden er parameters gestuurd (zoals snelheid, rotatie, inertia etc) en berekend de physics engine hoe dat dan dient te bewegen (en dan eens in de zoveel frames checken of het dan allemaal klopt, vandaar dat je met lag nog wel eens dingen kan zien verspringen).

Al dit spul is allemaal voor de CPU om te berekenen, de GPU heeft geen moeite het resultaat daarvan dan weer te geven.
Yep, ik heb het al sinds de aankondiging van de low-power Jaguar cores gezegd en herhaald: we gaan een CPU bottleneck krijgen. En elke keer waren er hele volksstammen die zeiden 'alles gaat toch op GPU' en 'het is een 8-core, wat klets je nou'.

Nou, alstublieft. Wederom een teken aan de wand dat deze console gen echt budgetspul eersteklas is en al met enkele jaren zwaar verouderd zal aanvoelen, of eigenlijk bij release al verouderd is. Hoe lang is het apparaat nu op de markt? De GPU is nét niet goed genoeg om echt soepele gameplay op 1080p vast te houden (30 fps is niet soepel in 2014, het spijt me echt) en de CPU is bij lange na niet snel genoeg voor complexe multiplayer omgevingen.

Leuk ding, verder.

PS. dit is ook één van de redenen dat het argument 'next-gen, dus massa's (V-)RAM en dikke GPU en core i5 SB nodig om fatsoenlijk te kunnen draaien op PC' door mij per definitie als bullshit argument voor slechte optimalisatie wordt aangemerkt.

[Reactie gewijzigd door Vayra op 24 november 2014 12:15]

Uiteraard is het budget spul, het ding moet voor ¤300-¤400 in de winkel liggen, dat kan geen high-end hardware zijn. Maar dan kunnen ze nog wel een goed uitgebalanceerd systeem maken, iets waar de CPU en GPU qua performance beter bij elkaar aansluiten.

Wat ze nu op de markt zetten is als een auto die er uit ziet als een Lamborghini maar met een 50pk 3-cylinder onder de motorkap.
Ja, en vorige console gen kocht je een PS3 met state-of-the-art bluray speler erbij voor de helft van de prijs van een nieuwe bluray speler.

Kortom, het kán wel, Sony en MS willen het niet meer. En dit is precies de reden dat ik zeg dat deze console gen gewoon geldklopperij is. Het risico van de investering is volledig afgewenteld op de consument terwijl die consument wél betaalt in de vorm van een buy-in op een gesloten ecosysteem. Eigenlijk krijgt de consument daar nu niets meer voor terug, terwijl die wel vrijheid inlevert. En daar bovenop mag je ook nog eens een maandelijks bedrag neerleggen voor 100% functionaliteit.

[Reactie gewijzigd door Vayra op 24 november 2014 15:12]

Ja, en vorige console gen kocht je een PS3 met state-of-the-art bluray speler erbij voor de helft van de prijs van een nieuwe bluray speler.
Vergeet niet dat de PS3 toen ie uitkwam heel erg aan de prijs was en Sony op elke verkochte PS3 behoorlijk wat verlies draaide. (Prijs in de winkel was iets van 60% van de kosten om 'm te produceren).

Ik denk niet dat Sony dat nog eens wil herhalen.
Nee akkoord, ik zeg ook niet dat de PS3 launch nou zo geweldig was, maar de weg die nu is ingeslagen is wel het andere uiterste. Het is nu zo strak afgemeten dat we als resultaat PC-achtige zeiktaferelen krijgen bij elke console release. Performance issues, framedrops en bijgestelde eindproducten zijn nou niet bepaald goed voor het imago van de console. Gecombineerd met sloten DLC, een maandelijks terugkerend bedrag voor online en hardware die nu al op zijn tenen moet lopen kun je echt niet zeggen dat hier een mooi product is neergezet. Doe mij dan maar een PS3 launch hoor.

De geluiden die je nu al hoort voor een revisie van de PS4/X1 zijn niet van de lucht, het geeft duidelijk aan dat de weg die is ingeslagen niet de beste is geweest. Beter hadden de consoles 100 euro meer gekost en ook voor een euro of 150-200 aan betere hardware gehad. Dan heb je tenminste iets dat over 2 jaar nog leuk mee kan. In dat geval had ik er zelfs ook een gekocht, net zoals de PS3 een aankoop was waar ik geen spijt van kreeg omdat het veel meer bood dan het kostte.

[Reactie gewijzigd door Vayra op 24 november 2014 16:35]

Het is nu zo strak afgemeten dat we als resultaat PC-achtige zeiktaferelen krijgen bij elke console release. Performance issues, framedrops en bijgestelde eindproducten zijn nou niet bepaald goed voor het imago van de console.
Dat heeft niks met de performance van de PS4/XBone te maken, de PS3 was veel minder krachtig en had die problemen ook niet. Het probleem is dat ze proberen 1 game te maken voor zowel consoles als PC, en de consoles lopen nu eenmaal te ver achter.

Hou console en PC games gescheiden, Ontwikkel games specifiek voor consoles (Zoals Nintendo doet) en games specifiek voor de PC.

Call of Duty en dat soort troep mag mooi op de PC blijven want daar heb je een muis nodig. Games zoals Assassins Creed moet je ontwikkelen voor consoles want die komen beter tot hun recht lekker op de bank voor een groot scherm met surround installatie.
Grappige is wel dat de Xbox One een zwakkere GPU heeft dan de PS4 maar wel op het laatste moment nog een 10% clockboost heeft gekregen waar ook de CPU van heeft meegeprofiteerd, dus is ie (even niet gekeken naar geheugen) sneller dan de PS4. In theorie is die machine dus iets beter in balans.

Probleem overall is gewoon dat men gekozen heeft voor een goedkopere, mobile class CPU om kosten en warmte ontwikkeling te sparen. Ik had liever 100 Euro meer betaald voor een toekomstvastere console qua power.
Vind dit een beetje kort door de bocht. Omdat in PC's vaak veel te zware CPU's draaien wil niet zeggen dat voor game consoles de kwaliteit 1-op-1 minder is. Je loopt heel makkelijk aan één heel belangrijk aspect voorbij: optimalisatie.

Bij PC games kun je niet eenvoudig optimaliseren door de verschillende configuraties. Het is dus veiliger om daar aan de bovenkant te gaan zitten. Iets was heavy games of gewoon puristen ook doen.

Bij console games kun je behoorlijk diepgaand optimaliseren. Tot aan assembly aan toe. De configuratie is altijd het zelfde en daardoor hoef je ook geen grote veilige marges aan te nemen. De PS3 is hiervan een mooi voorbeeld. Ook de laatste uitgekomen games draaien voor het overgrote deel van de bevolking nog steeds soepel genoeg om te kunnen spelen.

Voor mijn gevoel is de PS4 nog lang niet uit geoptimaliseerd en zijn daar nog wel slagen te winnen, maar ook inderdaad de manier waarop informatie wordt aangeleverd aan de CPU (8 core!) kan misschien nog wel geoptimaliseerd worden. Dit console moet nog minstens drie jaar mee dus ik verwacht nog wel een aantal verbeteringen.

Dat Planetside 2 nu een grens gevonden heeft betekent niet dat deze niet verlegd kan worden. Hardware en software leven trouwen altijd in een liefde-haat verhouding in elk product dat wordt gemaakt. Een nieuwere hardware variant zal altijd beter zijn maar de meeste kopers zijn geen early adopters maar gewoon massa kopers. Ik was vroeger zo'n early adopter maar elke keer weer je configuratie moeten tunen werd voor mij te vermoeiend. Na een dag werken wil ik gewoon knallen ... niet eerst weer de laatste drivers van alles naar binnen hengelen, alle onnodige processen eerst afschieten voordat je begint met spelen. Dan maar massa.
Omdat in PC's vaak veel te zware CPU's draaien wil niet zeggen dat voor game consoles de kwaliteit 1-op-1 minder is.
Dat is niet wat ik zeg. Ik beweer niet dat je een i7 in een console zou moeten zetten, wat ik zeg is dat je bij het ontwikkelen van een console binnen je financieel en warmte budget hebt en hierin een balans moet kiezen tussen hoe snel je CPU is en hoe snel je GPU, en dat bij de huidige generatie consoles deze balans niet optimaal is in het voordeel van de GPU.
De PS3 is hiervan een mooi voorbeeld. Ook de laatste uitgekomen games draaien voor het overgrote deel van de bevolking nog steeds soepel genoeg om te kunnen spelen.
Je gaat hier voorbij aan het feit dat de PS3 een heel vreemd beestje was waar erg moeilijk voor te programmeren is. Logisch dat je dan niet direct het onderste uit de kan kan halen.

De APU's in de XBOne en PS4 zijn echter gewoon x86 CPU's, iets waar game developers al heel erg bekend mee zijn en dus al goed in staat zijn voor te optimaliseren. Uiteraard zullen er wat console-specifieke optimalisaties mogelijk zijn maar er zit veel minder rek in dan jij denkt. Sterker nog: dit was juist de reden voor Sony en Microsoft om voor x86 CPU's te kiezen: developers zijn er bekender mee.

[Reactie gewijzigd door Aaargh! op 24 november 2014 16:13]

"Assassin's Creed Unity werd vastgesteld op dertig frames per seconde, maar uiteindelijk bleek dat niet altijd haalbaar."

Ik koop juist altijd een console om nooit tegen dit soort fratsen aan te lopen, een te lage framerate. De Ubisoft games kunnen we dus voortaan ook laten liggen. Schaal dan die grafische kracht enz naar beneden.

En nu weer de volgende game :S Ben ik even blij met m'n Xbox 360. Schijfje erin en gamen maar. Ziet er alleen naar uit dat die tijd voorbij is als je de nieuwsberichten zo allemaal leest.
Op de 360/PS3 is het precies hetzelfde. Het speelveld de GPU en CPU is namelijk op elk platform hetzelfde. Enige verschil is dat op de nieuwe generatie consoles er een zeer grote focus op ligt vanuit de community. Elke dip word onder een vergrootglas gelegd en gelijk komen ook de hooivorken en fakkels naar boven. En dan is het helemaal een ramp als je onder het ideaalbeeld van 1080p/60fps zit. Gaat echt nergens over maar ja, wij consumenten eisen niet anders en de "journalistiek" doet daar rustig aan mee.
Ik ben het an sich wel met je eens, maar aan de andere kant verwacht de klant wel dat er substantiële verschillen zijn met een voorgaande console. Nu blijkt gewoon dat de consolemakers te laag hebben ingezet op de hardware, waardoor er nu al veel problemen ontstaan voor ontwikkelaars. Of de ontwikkelaars zetten steeds weer te hoog in: hoe dan ook zorgt dit voor perfomance problemen.

Hoe je het ook went of keert, de media wereld heeft zelf ontzettend HD / 4K etc lopen promoten / pushen de laatste jaren (met zelfs mobieltjes met HD+ resoluties), waardoor men toch wel (terecht) verwacht dat de nieuwste consoles iig met 1080P goed om kunnen gaan. En dat blijkt in de praktijk dus toch tegen te vallen.

Maar inderdaad, je weet hoe mensen zijn: als er 1 gaat klagen, volgen er meer.
De media industrie is wel iets heel anders dan de game industrie. Dat een film producent nu een film om 4K kan uitbrengen is natuurlijk heel wat anders dan een spel die op 4K draait. De een is een serieel feestje waarbij alles al bepaald is. De ander een interactief spektakel waarbij de makers rekening moeten houden met alles en dit dan ook nog eens met een dynamisch oogpunt. Niet te vergelijken.
Game industrie valt wat mij betreft gewoon onder media industrie. En hoewel het inderdaad interactief etc, hebben de fabrikanten wel degelijk verwachtingen geschept over graphics en HD resoluties. Die worden nu niet compleet waargemaakt, en dat merken sommige mensen. En dat 4K niet gepromoot wordt voor games, dat snap ik, maar 1080P is meerdere malen benadrukt bij het promoten van de apparaten.

Zal de gemiddelde consument het uiteindelijk merken? Waarschijnlijk niet. Dat neemt niet weg dat het enigszins zorgwekkend is dat zo vroeg in de levensduur van een console, ze al snel tegen zulke beperkingen aanlopen. Als je dan ook nog meeneemt dat ze deze generatie lang willen laten doorlopen, dan ben ik toch een beetje teleurgesteld.

(Maar ondertussen game ik lekker verder via Steam Big Picture hoor :+. Qua game ervaring steeds meer gelijk aan een console, met als groot pluspunt betere hardware mogelijkheden )
Stabiele performance is voor mij anders wel belangrijker dan valse beloftes qua graphics of games alleen met graphics aantrekkelijk proberen te maken. Het grappige is dat vroeger PS2/Xbox tijdperk de mooiste games vaak ook nog wel 60fps liepen zoals bijvoorbeeld een Rallisport Challenge 2 : http://www.youtube.com/watch?v=TXEIggyh7JE
Voorbeelden verzinnen kunnen we allemaal. Zo loopt Forza 5 ook netjes 1080p/60fps op de X1. Dat een (1) spel dat kan wil niet zeggen dat ze dat allemaal kunnen of zelfs maar moeten kunnen.

Er zijn 3 punten van belang bij de visuele ontwikkeling van een spel. FPS, Detail en Resolutie, bedenk hier zelf even een driehoekje bij waarbij elk item een hoek voorsteld. Nu moet je een puntje zetten op de plek in die driehoek en jou het meest fair lijkt voor een bepaald spel. Het plaatsen van dit puntje zal altijd ten koste gaan van minimaal 1 ander punt. Tenzij je deze in het midden zet natuurlijk maar dan heb je een visueel plaatje wat op alle gebieden het net niet is.

Je kan niet alles krijgen wat je wilt. En dat is maar goed ook, anders viel er niets meer te verbeteren.
Sony heeft zelf de CPU gekozen neem ik aan. Ik ga er ook vanuit dat ze goed getest hebben. Het kan ook zijn dat de ontwikkeling het laatste jaar een stuk sneller vooruit is gegaan dan waarop is geanticipeerd. Een nieuwe PlayStation of Xbox heb je niet in een maand op de markt. Of de ontwikkelaars zijn te enthousiast, proberen gelijk alles eruit te halen en gaan helemaal los met de SDK's.

Het is wel een van de redenen dat ik mijn 360 nog niet ingeruild heb voor een One. Ja, op de One ziet alles er beter uit, maar ik ben tevreden met mijn 360. Met alle discussies over de performance heb ik zo het vermoeden dat er wellicht een kleine hardware revisie gaat plaatsvinden. Spellen blijven op de huidige versies goed draaien, maar draaien iets beter op de nieuwere. Ik kijk nog even de kat uit de boom. Er zullen vast ook mensen met een PlayStation zijn die het zo bekijken.
Het probleem is dat het 'Next Gen' moet zijn, als je op de PS4 een spel gaat spelen dat er net zo uit zou zien als op de PS3 (als voorbeeld) dan vraag je je ook af waarom je een nieuwe console gekocht hebt toch?

Ik snap niet waarom ze elke keer de consoles met PC's moeten vergelijken, ten eerste kun je op de PC zelf je settings aanpassen dus afhankelijk van het scherm dat je hebt :

- 1080p
- 1200p
- 1440p
- 1600p
- 4K

En dan nog maar te zwijgen over de 21:9 (34" 3440x1440 of 2560x1440) of multimonitor setups, dus mjah je koopt een console of een PC en in mijn mening kun je niet verwachten dat je dezelfde prestaties/pracht en praal kan verwachten voor het geld. Mijn PC was ~2000 euro alles bijelkaar, dan mag ik ook wat meer eisen/verwachten.

Hij is nu iets meer dan 1 jaar oud en kan alles lekker spelen @ 1080p of voor sommige titels 5720x1080. Zelfs Unity draait lekker op Ultra settings (MSAA2x) en minimum fps is 0 omdat hij af en toe bleef hangen met het verbinden naar initiates/nomad rotzooi.

Planetside 2 is ook bagger geoptimaliseerd op de PC en prefereert Nvidia kaarten volgens de benchmarks. Nu zitten de 290(x)/780 etc allemaal op de ~60fps 1920x1200 @ ultra. http://www.techspot.com/r...mes-benchmarks/page5.html

Helaas bleven de framedrops/haperingen voorkomen bij de zeer drukke battles, ik heb het zelf al een tijd niet meer gespeeld.
Tetris op een brick-game loopt ook altijd op stabiele FPS, dus als dat is wat je zoekt zijn er 'consoles' genoeg.

Het feit dat games op je X360 niet deze 'problemen hebben' is omdat je daar eindproducten speelt en PS2 is nog in ontwikkeling. Maar ook een X360/PS3 heeft frame drops. Start Fallout 3 of TES Oblivion maar eens op. Ik ben meer dan eens kortstondig in de single-digit FPS gekomen op m'n PS3.

[Reactie gewijzigd door Vayra op 24 november 2014 12:33]

Volgens mij gebruikt PS2 gewoon een draak van een engine, ik heb die game bijna nooit op normale framerate gekregen, of de hele engine is gewoon erg slecht presterend op AMD CPU's (welke ik ook heb).

Maar als ze stabiel 30fps kunnen halen (zonder dips), zou ik er ook voor tekenen, te vaak op de PC viel ik terug tot bijna diashow.
de engine is gewoon veel te zwaar single threaded, bij mijn laptop i7 gaat 1 core vaak boven de 80% terwijl de rest bijna idle is, bij AMD-cpu's is de focus meer op multithreading gelegd, en de single-core performance is lager, waardoor de CPU de bottleneck vormt ook al zijn 7 van de 8 cores bijna op idle zit (of 5 van de 6 of 3 van de 4)
Ik heb het toch nog best een tijd gespeeld op mn AMD X2 4000+. (wel met een overclock naar 2,5-2,8 ghz als ik me niet vergis). dat liep met een 650Ti kaartje op 1366X768 bijna altijd wel goed. Diashows kan ik me niet echt herinneren.
Ik vind het een beetje een vreemde redenering.
De games met framerate problemen, zijn veelal backports van Windows games. Nu is dat opzich geen issue, maar games specifiek voor een console ontwikkeld; worden ontwikkeld met de beperkingen van CPU/GPU die nou eenmaal, by design, in die console zitten.

Is het niet eerder dat men te makkelijk en te snel wil porteren tussen windows/xb1/ps4, zonder rekening te houden met de specifieke kenmerken van de consoles?
het is eerder dat de ps4 trage cores gebruikt, maar dan wel 8, terwijl veel PC games geoptimalizeert zijn voor dual en quad cores, en niet voledig gebruik kunnen maken van 8 cores zonder de code zwaar aan te passen
volgens mij overschatten ze de mogelijkheid tot optimalisatie waardoor het uiteindelijke product gewoon te zwaar is voor de console
hoe complexer een game hoe moeilijker het is om in te schatten en uiteraard willen ze allemaal graag zo mooi mogelijk
een goeie engine doet uiteraard ook veel: als je ziet wat Rockstar doet met GTA5 op de nieuwe consoles...
Met al deze berichten zou het me ook niet verbazen als we een tussengeneratie xbone/ps4 krijgen met wat meer cpu/gpu power ingebakken op een nieuwe chip op een lager nm proces. Zou "relatief", jaja I know, eenvoudig moeten zijn.
Reken er niet. Dan zouden die 8-10 miljoen XB1 / PS4 kopers van rev1 weer een nieuwe moeten kopen omdat bepaalde games niet werken dan wel het beter doen ?

Als er die shrinks komen van de APU is het vooral om het ding goedkoper te maken....
Maar wat doe je dan met de 'oude' consoles? Het enige wat ik me kan bedenken is dat je de 'oude' consoles op 30fps laat lopen en de nieuwe op 60. Veel meer kun je denk ik niet ?

Edit: typo's

[Reactie gewijzigd door paulklooster op 24 november 2014 12:15]

Snap gewoon echt niet dat de rekenkernen van de Xbox One en PS4 op zulke langzame snelheden draaien. Moderne smartphones draaien tegenwoordig al op 2,4 GHz....


Was het nou echt zo moeilijk geweest er wat grotere koellichamen in te zetten en de fan eveneens groter te maken (en harder te laten draaien)? Had ze bijna een verdubbeling van de processor rekenkracht op kunnen leveren (3,6 GHz moet te doen zijn) tegen de meerprijs van een beetje extra aluminium in de behuizing en een paar dB meer geluidsproductie... Onbegrijpelijk...
Als het allemaal zo simpel was, dan hadden ze dat wel gedaan, denk je niet? Bovendien kun je echt niet blindelings kloksnelheden vergelijken. Een Intel Atom rent bijvoorbeeld al rondjes om een gelijkgeklokte ARM uit een smartphone, laat staan dat zo'n ding ook maar enigszins te vergelijken is met een Intel/AMD desktop CPU.
Ik zal je wat vertellen: Het IS simpel. Het is een kwestie van keuzes. Keuzes die ik TOTAAL niet snap...

Voor een meerprijs van 20 euro had je dat ding een gigantisch aluminium koelblok kunnen geven, waarmee je de cpu waarschijnlijk dubbel zo snel had kunnen laten draaien... Twintig euro meer op het bedrag van een playstation van een kleine 400 euro, vind ik echt peanuts voor bijna dubbel de performance...

Doe dan dat laatste kleine beetje ook en maak het ECHT goed voor mekaar. Nu is het ding vlak na introductie al weer te langzaam. Zonde, zeg ik als pc-gamer.
Je begrijpt die keuzes niet omdat je geen electronicabedrijf hebt. Bovendien heeft Sony het al heel erg lang moeilijk, en het probleem van de PS3 was dat die zo duur om te produceren was dat Sony er te lang geen cent aan verdiend heeft. Bij de ontwikkeling van een produkt telt elke euro, vaak zelfs elk dubbeltje, mee in de bill of materials. De prijs die jij in de winkel betaalt, daar moet een hele keten van partijen iets aan verdienen. Je moet er dus kosten voor transport, marketing, verpakkingskosten en winst voor importeurs en dealers in meenemen. Als jij als fabrikant X kosten aan onderdelen en produktie hebt, dan hou je nog een winst Y over. Op die winst kan 2 tientjes heel veel geld zijn kan ik je vertellen.

Afgezien daarvan heb je ook met technische overwegingen te maken. Veel consoles hebben betrouwbaarheidsproblemen gehad door thermische issues. Als je zo'n dik systeem in een compact kastje voor een redelijke prijs kwijt wilt, dan moet je keuzes maken. Of het ding wordt bloedheet met alle risico's op defecten, of je moet een behoorlijke airflow genereren om de warmte van die heatstink naar buiten te krijgen. Dat maakt veel lawaai. En zo zijn er nog een hoop overwegingen waar Sony goed over nagedacht zal hebben. Tuurlijk, best jammer, maar ik denk dat PS4 een prima console is voor het geld :)
Ik zeg niet dat Sony het van z'n winst moet halen. Ik zeg dat Sony dat ding dan maar 20 euro duurder moet maken...

Ik zou dat er met liefde voor over hebben, 20 euro op een apparaat van bijna 400 euro, waardoor die vervolgens bijna dubbel zo snel wordt.

Tja, en geluid boeit me nu eenmaal minder. Je mag wel iets horen...
Als ze dat ding 20 euro duurder maken zitten ze weer boven een psychologische grens. Ik snap je punt wel, want ik zou er ook zo 20 of 100 euro extra voor betalen. Maar Sony wil dat waarschijnlijk niet omdat het gros van die dingen wordt gekocht door ouders van zeurende kinderen, en die kijken erg naar de prijs. Dat was mede een reden waarom de Wii zo succesvol was, met name bij gezinnen. Had natuurlijk ook wel met het soort games te maken, dus de doelgroep, maar prijs ie een belangrijke factor. En over geluid... tja, jou boeit het niet, maar je wilt niet weten hoeveel klachten er over de PS3 op dat vlak zijn geweest. Ik heb zelf ook een bloedhekel aan alles dat lawaai maakt. Ik hoor liever goed geluid dan het gesuis en gefluit van een koelende console, zoals de meeste mensen ;)
Totaal niet moeilijk. Maar men heeft voor een bepaalde verhouding van performance en prijs gekozen. Zo is de Ps4 en (volgens mij de X1 ook) al sinds dag 1 'winstgevend'; terwijl men met de Ps3 een veel hogere prijs hanteerde (700 euro als ik het mij goed herinner) en er zelf nog behoorlijk op inlegde. In plaats van een wat meer exotische architectuur heeft men nu gekozen voor een meer betaalbare, gangbare oplossing.

CPU zal inderdaad voor 'complexere' games zoals openworld spellen niet heel geschikt zijn, maar laat niet weg dat we nog een reeks fantastisch uitziende games zullen gaan zien.
De CPU is helaas ook behoorlijk kansloos in de console's, niet veel sneller dan de CPU in de 360 of PS3. Hopelijk kunnen ze in de toekomst wat meer met GPGPU.
Dat zal natuurlijk dan wel de GPU tegenhouden, het is de bedoeling dat ze een goede balans zoeken tussen de CPU en GPU. Kunnen natuurlijk ook altijd proberen om zoals Microsoft CPU werk richting de cloud te stuwen zolang de verbinding goed genoeg is
PS4 heeft in het ontwerp teveel GPU units voor wat de CPU aan kan. Bedoeling is dat dat in de toekomst voor andere taken ingezet gaat worden.

http://gearnuke.com/amd-f...umber-of-aces-as-the-ps4/
Dan zou de keuze van Microsoft bij de Xbox One voor minder GPU units zo slecht nog niet eens zijn; op de One is dan zowel de CPU als GPU bandbreedte compleet te verzadigen, terwijl op de PS4 een deel niets loopt te doen omdat de CPU het niet snel genoeg kan aansturen.
Ik hoor wel vaker dat er problemen zijn met de nieuwe consoles... Maar hebben ontwikkelaars nou een ander systeem waar ze op testen of hebben ze zoiets van 'Ach, framedrops hier en daar, dat valt toch niet op, laten we de game toch maar releasen'.

Het klinkt ook bijna alsof ze graag PC graphics willen hebben, maar de consoles zijn daar gewoon niet toe in staat. We zijn amper een jaar verder natuurlijk, maar wellicht moeten ze maar gewoon zorgen dat de spellen speelbaar blijven en niet proberen 'het maximale' uit het systeem te halen en daarbij de grens flink opzoeken en daar overheen gaan met framedrops tot gevolg.
De "PC graphics" zijn hier juist niet het probleem, de cpu overhead op graphics valt op consoles mee, en de gpu is snel genoeg om 30 fps met goeie kwaliteit weer te geven.

Het probleem zit hem in de gameplay, grote maps, veel spelers, voertuigen, ect. Dat moet allemaal realtime berekend worden, en daar heeft een console weinig voordelen ten opzichte van een pc, de jaguar cpu in de ps4 heeft daar grote moeite mee.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True