Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 194 reacties
Submitter: firest0rm

Battlefield 4 zal op de PlayStation 4 mogelijk in 720p-resolutie draaien waarbij in 1080p-modus upscaling wordt toegepast, maar DICE geeft aan dat een definitief besluit nog niet is genomen. In de PS4-developeromgeving zou de game wel op een hogere resolutie dan 720p-draaien.

Via Twitter liet YouTube-videomaker JackFrags weten dat Lars Gustavsson, creative director bij DICE, in een interview had bevestigd dat Battlefield 4 op een PlayStation zal draaien op een 720p-resolutie met een snelheid van 60fps. Bij een resolutie van 1080p zouden de beelden via upscaling worden getoond.

Deze mededeling zorgde voor enige consternatie onder PlayStation-fans, omdat de PS4-console als voldoende krachtig wordt gezien om de beelden ook in native 1080p-resoluties te kunnen renderen. Daarnaast uitte ook IGN kritiek op de PS4-versie van de shooter, waarbij met name de graphics zouden achterblijven. Daarnaast zou de gespeelde resolutie weliswaar hoger zijn dan 720p, maar niet 1080p.

De PS4-shooter zal bij de release eind oktober mogelijk toch in een hogere resolutie gaan draaien, zo merkte JackFrags later op. Zo draait de game in de PS4-developersomgeving al wel op een hogere resolutie dan 720p en zal de uiteindelijke resolutie bepaald worden bij de laatste optimalisaties die DICE op de PlayStation 4-versie van Battlefield 4 wil doorvoeren. Of 1080p met 60fps daarbij haalbaar is, blijft vooralsnog onduidelijk.

Moderatie-faq Wijzig weergave

Reacties (194)

Verbaas me er altijd weer over hoe mensen de specs 1 op 1 vergelijken en de factor optimalisaties voor 1 systeem in plaats van meerdere combinaties en de overhead van windows/directx even uit het oog verliezen.

De gpu is een 7870radeon achtige gpu ja qua snelheid. Maar wat developers die op de PC werken dan ook weer keer op keer vermelden is dat je ongeveer 50% verliest van de snelheid als de game op een normale PC draait omdat de game met alle hardware varianten rekening moeten houden.

Hier gaat dan ook de winst voor consoles vooral in zitten. Daarintegen stel voor de console presteerd als een game PC met een 7970 vanwege alle software optimalisaties verklaard dat een hoop als BF4 zwaarder is dan BF3 die op de 7970 gpu al genoeg moeite heeft om op grotere maps ten allertijde steady boven de 60fps te zitten op fullHD.
50% snelheid verliezen op de PC, tjongejonge wat een flauwekul zeg.

Wat de meeste vergeten is dat je niet voor een dubbeltje op de eerste rang kan zitten.
Een high-end gaming pc kost nou eenmaal veel meer geld en dat uit zich in mooiere grafische beelden.
Lees het "bare-metal verhaal" van de consoles tov. directx nog maar even goed. Je kan het (de link) hierboven ergens vinden.

O wacht, ik heb het even voor je erbij gezocht.
Op pagina twee en drie staat nog meer uitleg.
http://www.bit-tech.net/h.../16/farewell-to-directx/2

[Reactie gewijzigd door NINjak op 26 augustus 2013 14:40]

Wat dacht je ervan dat dit spel nog in ontwikkeling is? Meestal in de laatste maanden beginnen ontwikkelaars met optimalisatie van resoluties etc etc. Alle assets zijn namelijk al aanwezig en de games zijn ook al zo goed als af.

Nu begint het fine tunen van games, bepaalde aspecten verbeteren of zelfs nog toevoegen.

De Xbox One versie zal niet anders draaien, laat staan beter. Dat de PS4 versie in development omgeving al in een hogere resolutie draait zegt dus al genoeg natuurlijk. Zo'n show demo is vaak van een oudere build namelijk.

Drive Club en Killzone SF zijn goede voorbeelden van hoe ze in de maanden na de E3 weer zo'n grote verbeteringen hebben weten door te voeren. Ontwikkeling van games gaat ondertussen gewoon door terwijl ontwikkelaars een oude build tonen aan het publiek.
Grote verbeteringen? Zou wel aan mij liggen, maar dit is de reveal van Killzone en dit is een screenshot van de afgelopen week. Ik zou het eerder een achteruitgang noemen, maar hoe dan ook: zeker geen vooruitgang, laat staan een grote.

Zowel Killzone als Driveclub draaien op 1080p/30fps. Battlefield 4 draait op 720p/60fps. Het is beide niet optimaal. En dat voor een crossgeneration game voor een, naar eigen zeggen, platform waarvoor extreem eenvoudig te ontwikkelen is.
Je komt eerst met een video die in max 720p draait met enorme compressie (youtube), en dan een screenshot van de multiplayer die er overigens ontzettend goed uit ziet (tenzij je express de ''mist'' mooie hebt uitgezocht om je argument te versterken).

Heb je de 6 min Multiplayer video gezien van Killzone SF van bijna 900 MB 1080p? Daar zie je daarwerkelijk hoe de multiplayer eruit ziet. Tijdens de gamescom is er namelijk niks getoond over de singleplayer dus je reactie gaat nergens over.

Killzone SF:

- Singleplayer: 1080p/30fps
- Multiplayer: 1080P/60fps

BF4 draait op een hogere resolutie dan 720p zoals je leest in het bericht (maar dat is iets wat je niet wilt lezen natuurlijk).

Hier wat gifs:

http://abload.de/img/killzownedppsgz.gif
https://copy.com/mUOvMoDsfnHQ/damn.gif
http://i.minus.com/ibhWexGIZYkz5f.gif
http://i.minus.com/ioRorqm57rr94.gif

Je bent wel erg aan het zoeken naar........niks!
Waarom zit iedereen hier te praten over de kracht van consoles? Dat is namelijk helemaal niet zo relevant. Een Xbox 360/PS3 heeft een fractie van de kracht van een moderne 'goede' PC maar pompt er in verhouding véél meer uit qua pracht en praal. Dan zouden de nieuwe consoles dat toch ook moeten kunnen? Je kunt als ontwikkelaar immers flink optimaliseren voor één hardware-configuratie terwijl je op PC's rekening moet houden met bijna ontelbaar veel configuraties.

Moet je eens nagaan wat een ontwikkelaar op het scherm kan toveren als iets vanaf de grond af gebouwd wordt met een i7, Geforce GTX Titan en 16GB DDR3 in het achterhoofd, niet rekening houdende met andere configuraties. Ik denk dat je dan stijl achterover slaat van verbazing omdat het dan waarschijnlijk vele malen mooier is dan alles wat we tot nu toe gezien hebben.

Daarbij is BF4 nog in ontwikkeling en hebben ze nog een goede 3 maanden voordat de game uit moet komen. Ik snap dus alle ophef niet. Je mag beginnen met klagen als de game tijdens de lancering nog draait op 720p met mindere graphics, maar nu echt nog niet. Geef de (dames en) heren van DICE nog even de tijd om alles te polijsten voordat we met z'n allen beginnen met klagen.
Een Xbox 360/PS3 heeft een fractie van de kracht van een moderne 'goede' PC maar pompt er in verhouding véél meer uit qua pracht en praal.
Dit is een beetje een grondig overdrijven van jeweleerste. Je mag niet vergeten, dat veel van die "720p" pracht games vaak a) draaien op een lagere resolutie, b) soms prachtige performance problemen hebben ( skyrim? ).

Daartegen krijg je op de PC vaak versies van games, dat geoptimaliseerd zijn voor de consoles, maar waar ze met de klak er naartoe smeten bij de PC versie. GTA4 komt snel in gedachten.

Je zegt dat een ontwikkelaar dat puur focust op een i7/Titan/16GB whatever, een vele maal mooiere ervaring kan opleveren. Sure ... maar dan verkoop je ook maar je product aan 5% van alle PC gamers, indien je geen rekening houd met "lagere" systemen.

Het is om die reden dat we in PC games normaal "graphic sliders" hebben, om gewoon de details te verminderen op systemen met een lagere performance. De optimalisaties beperken hun soms meer dan je zou denken, want je hebt een vrij standaard basis om mee te werken op de PC's.

Als ontwikkelaars ontwikkelen beginnen met een high end systeem, tegen dat het spel af is, is die high end, intussen al main stream geworden. Daartegen, bij consoles, zit men "vast" op die main stream specs van het begin af.

Ja, je kan er meer uithalen, maar over het algemeen, heb je een curve. Je ziet verbeteringen in games in de eerste 2 jaar. Daarna heeft men vaak alles er al uitgehaald, en moet men gaan vals spelen met lagere resoluties te gebruiken, 30fps ipv 60fps, enz...

Er is een reden, dat zelf "low end" PC's tegenwoordig zowat alle games kunnen spelen, want letterlijk, de ontwikkeling van games komt bijna tot een stilstand op console, na die 2 jaar curve ( en dan gaat men naar de vals speel trucjes als men iets meer wilt doen ).

Willen of niet, we zijn gebonden aan de console cyclussen nu. Nu, als PC gamer, ik klaag niet. Ja, moesten ontwikkelaars zoals vroeger, de max uit PC's halen, dan zat je nu om het jaar een nieuwe grafische kaart te kopen. Nu koop je een PC, en 4 jaar later, is je PC nog altijd goed genoeg om alle nieuwe games te kopen. In het "ergste" geval, moet je op een lagere resolutie spelen. Gans de mythe dat je PC's constant moet upgraden, en $2000 moet besteden, is al lang gedaan.

Als er iets slecht is, dan is het gewoon dat men zo een SLECHTE ports maakt van de console naar de PC. Wat vaak terugkomt op de andere architectuur op de console. Nu met het feit dat beide consoles, bijna puur medium PC's zijn, met een paar extra's, zal er ook voor zorgen dat in de toekomst, console ports in theorie, beter zullen draaien op PC's.

Weet je, voor sommige games maken ze soms aanpassingen van de "community" uit zelf, dat de shaders/etc instructies onderschept, en meer "pc" vriendelijke versies gebruikt. Wat een deftige performance boost geeft. Dit geeft gewoon aan hoe men soms klakkeloos games port, van de oudere consoles. Waar soms een paar dagen werk, enorme prestatie verschillen kan opleveren op alle PC's.

Nu, om terug ontopic te komen:

Je zegt dat ze nog 3 maanden de tijd hebben, maar dat is dik niets van waar. Het duurt enkel weken gewoon om de master te massa produceren in voldoende hoeveelheid.

Neem daarbij nog: Die optimalisaties moeten getest worden!! Stel dat iemand een texture/shader optimalisatie uitvoert. Men test dat snel in development. Geen problemen. Maar als je dieper in het spel speelt, o ... in x locatie in het spel, zorgt die optimalisatie voor problemen ( flikkerende textures of whatever ), omdat die optimalisatie voor problemen zorg met x, y, z ...

Willen of niet, ze hebben echt geen 3 maanden te tijd meer om puur te optimaliseren. En je moet niet verbaast zijn, dat er nu zelf nog meer fouten durven inkruipen, want het is "crunch" time. Werkdagen van 16h, met energiedrinks/koffie. Dat geeft vaak niet een 100% goed effect ;)
Precies! Daarom kun je, ondanks de redelijk eenvoudige en op pc lijkende hardware de consoles alsnog niet 1 op 1 vergelijken met PC's. Ondanks dat een Core i7 voor (meeste) pc games al zinloos is trouwens.

PC's zijn en zullen altijd krachtiger blijven, maar dat is niet het enige belangrijke.
Lekker begin van een nieuwe generatie consoles dan, als zelf de eerste spellen al misschien niet op full HD kunnen draaien...
Denk dat het te maken heeft met het nog niet kennen van het systeem, net als bij de PS3.
Denk dat het deze generatie wel mee gaat vallen, aangezien het eigenlijk gewoon veredelde pc's zijn met mid-range hardware.
Toch kan je met een Radeon 7870 BF3 op Ultra al met 60 fps op 1080p draaien (BF4 zal toch niet zoveel zwaarder zijn lijkt mij) mits de CPU en RAM ook goed zijn en bij de PS4 lijkt de Grafische kaart juist de bottleneck als je het vergelijkt met PC's. De RAM is misschien wel zelfs overkill.
Het idee van een console is niet alleen dat je lekker, met vrienden, vanaf een bank kan gamen. Het is ook dat een console minder zware hardware nodig zou hebben voor een game dan een PC, omdat games er beter voor geoptimaliseerd kunnen worden vanwege het feit dat elke PS4 hetzelfde is, en een console dus meer waarde voor je geld is.

[Reactie gewijzigd door Fleximex op 25 augustus 2013 12:36]

PS4 lijkt de Grafische kaart juist de bottleneck als je het vergelijkt met PC's.
Ik denk dat de CPU juist de bottleneck wordt. Dat zou ook verklaren waarom DICE problemen zou hebben met de Frostbite engine, die toch tamelijk hard op de CPU leunt. De CPU in de next gen consoles is een veredelde low power tablet CPU die ongeveer een kwart van de kracht van een i5-3570 heeft.
De CPU in de next gen consoles is een veredelde low power tablet CPU die ongeveer een kwart van de kracht van een i5-3570 heeft.
Bron? Of zullen we dit maar gewoon archiveren als 'meest onzinnige speculatie uit de dikke duim van Persei84'.

De meeste details over de CPU's in de next-gen console zijn nog onbekend maar met 8-Jaguar cores op naar verluidt iets meer dan 2 GHz kom je op papier al boven een quad core i5 uit, en dat in zonder enige rekening te houden met specifieke eigenschappen van de console CPU's die vooral gunstig zijn voor games.

Dat de Frostbite engine niet lekker loopt op PS4/Xbox One zal er vooral mee te maken hebben dat die volledig voor PC hardware is geschreven, dus snelle dual of quad core CPU's, in plaats van 8 minder snelle cores, en dus geen gebruik weet te maken van de potentiële parallelle performance die de consoles kunnen bieden.
anandtech heeft al een artikeltje over de jaguar, de prestaties zijn goed voor de prijs en het verbruik, maar qua prestaties komt een 8core jaguar niet in de buurt van een quadcore i5, ook niet op 2GHz. Als dat wel het geval zou zijn dan zou er ook weinig nut meer zijn voor de FX cpu's.
Anandtech heeft alleen een overview gemaakt van de bekende Kabini en Temash varianten en een technische breakdown van de architectuur. Ze hebben ook de Kabini A4 gebenchmarked (quad-core op 1.5 Ghz, met 25W TDP voor ultrabooks), en in die benchmarks zie je dat voor multithreaded taken, die chip klok-voor-klok vergelijkbaar is met een dual-core ULV i5. Er staan wat aannames in het artikel over de verschillen tussen Kabini en de next-gen console chips, maar de precieze details zijn ook bij AnandTech niet bekend.

Nu mag je er wel vanuit gaan dat de CPU's van de PS4/Xbox One minder power constrained zijn dan de ultrabook of tablet varianten, en dus een hogere kloksnelheid kunnen hebben, meer cache, en wellicht andere aanpassingen die gunstig zijn voor performance, zoals een bredere geheugenbus e.d. Het blijven custom SoC's op basis van Jaguar, en geen off-the-shelf componenten (denk aan het feit dat Microsoft er 32 MB eDRAM bij heeft gezet, en Sony een GDDR5 geheugen controller die waarschijnlijk minimaal 128 bits breed zal zijn in plaats van de 64-bits van Kabini, anders heeft het weinig zin om sneller en duurder geheugen te kiezen).

Extrapoleer ik de performance van Kabini (klok-voor-klok bij multithreaded workloads dus vergelijkbaar met een ULV i5 met 2 cores) naar 8 Jaguar cores op 2 Ghz met meer cache en een snellere geheugen bus, dan kom je rond een (fictieve) desktop quad-core i5 op 2 GHz uit. Jaguar ondersteunt ook een soort Turbo Boost maar dat wordt bij Kabini en Temash niet gebruikt, stel dat de PS4/Xbox One er wel gebruik van maken, dan kom je nog iets hoger uit.

Het blijven allemaal speculaties want het is prima mogelijk (waarschijnlijk zelfs) dat er nog meer aanpassingen in de console CPU's zijn gemaakt om power efficiency te traden met performance. In de praktijk zal een desktop quad-core i5 gemiddeld genomen vast sneller zijn, maar hoe zich dat vertaalt naar de prestaties voor gaming workloads valt nog maar te zien. Hoe dan ook is de kwalificatie 'tablet CPU met een kwart van de performance van een i5-3750' gewoon idioot.
Als dat wel het geval zou zijn dan zou er ook weinig nut meer zijn voor de FX cpu's.
Dat zou misschien een argument zijn als de SoC's in de PS4 en Xbox One straks in de winkel te koop zouden zijn, en met de FX CPU's zouden moeten concurreren. Natuurlijk is een Jaguar core niet zo snel als een Steamroller core of whatever de cores in de FX CPU's, maar als je er maar genoeg van hebt en ze een beetje kunt overklokken en aanpassen, dan kun je de prestaties best aardig opkrikken.

[Reactie gewijzigd door johnbetonschaar op 25 augustus 2013 16:10]

Ik neem aan dat je naar dit artikel verwijst, maar ik zie daar nergens de Kabini ook maar in de buurt komen van de dualcore i5. Afhankelijk van de benchmark is voor singlethreaded 33-50% en voor multithreaded zo'n 60-70%...
Vergeet echter niet dat lang niet alles makkelijk multithreaded te programmeren is.


Met twee keer zo veel cores, een hogere kloksnelheid en eventuele andere optimalisaties zullen de SoC's in de PS4/X-one ruim twee keer zo snel zijn als Kabini in de gunstigere gevallen, en de slechtere gevallen (die processen die niet te paraleliseren zijn) zal die amper sneller zijn dan Kabini.

Wat betreft het geheugen:
• PS4: de veel snelere geheugenbus van de PS4 gaat niets helpen voor processor performance. Voor een processor is latency het belangrijkst, het GDDR5 geheugen waar de PS4 gebruik van maakt is ontworpen voor GPU's, die nou net een voordeel hebben bij throughput ipv latency. Ondanks het breder geheugenpad en de hoge kloksnelheid heb je bij GDDR5 waarschijnlijk meer klokcycles nodig om iets uit het geheugen te halen dan bij DDR3 op je desktop.
• X-One: Voor de xbox is het afwachten wat het effect gaat zijn van de EDRAM cache, afhankelijk van de implementatie en systeem architectuur kan dit een flink voordeel opleveren of geen effect hebben op processor performance.

Alles bij elkaar zullen beide APU's qua processor performance absoluut niet in de buurt komen van een quadcore i5 op 2GHz.

[Reactie gewijzigd door knirfie244 op 25 augustus 2013 17:16]

"Voor een processor is latency het belangrijkst, het GDDR5 geheugen waar de PS4 gebruik van maakt is ontworpen voor GPU's,

Vergeet niet dat dit om unified memory gaat.
Zodra de CPU een stuk geheugen heeft gevuld kan de GPU er met volle bandbreedte tegenaan praten. De GPU wordt steeds belangrijker als bewerker van data dus dit kan best een enorm voordeel opleveren.
De CPU hoeft de data voor de GPU dus niet over een nog veel tragere bus te transporteren maar kan die gewoon in RAM laten. Dit levert de CPU een heleboel vrije klokjes op, denk ik zo.

Maar uiteindelijk zullen ze er best over nagedacht hebben.
Zo'n systeem wordt als een pipeline van voor naar achter qua bandbreedte doorgerekend bij het ontwerpen. Ze weten wat de datahonger is van hun chips en weten dus wat er nodig is om die chips draaiend te houden. Die GDDR5 zit er denk ik dus niet voor niks.
@Koelpasta
Het feit dat de CPU en GPU uit de zelfde memory pool nemen maakt niet uit voor de CPU. Die gaat normaal ook niet zelf de data over zitten zetten. (DMA, multithreading, etc)

Het scheelt wel voor een bewerking. Het overzetten van data duurt vaak langer dan de echte bewerking.

Basically, het wordt haalbaarder om taken te offloaden naar je GPU, vrijwel elke parralleliseerbare taak kan je nu door je GPU laten doen, hoe klein de taak ook is. Maar het kost de CPU niet minder clockcycles om de GPU een bewerking te laten doen, dat was altijd al heel weinig.

Volgens mij heb ik dit echt verschrikkelijk uitgelegd.
60-70% bij multithreaded taken, op een ~20% lagere kloksnelheid, dat noem ik redelijk vergelijkbaar. Je kunt op basis van de benchmarks gemakshalve wel zeggen dat 1 standaard Kabini core tussen de 30% en 50% zo snel is als een gelijk geklokte i5 core. Doe dat maal 8 en je komt rond de performance van een quad-core i5, voor goed parallelliseerbare taken. En dan laten we buiten beschouwing hoe veel sneller de PS4/Xbox One CPU's zijn dan een standaard Kabini.

Dat je bij PC games zelden voordeel hebt van meer dan 4 cores heeft meer te maken met het feit dat je met 2 of 4 snelle cores betere performance haalt door minder threads te gebruiken, en dat bijna niemand een 6 of 8 core PC heeft, dan met het feit dat er niet genoeg te parallelliseren valt, en daar worden PC game engines dus naar gemaakt. Kijk maar naar de PS3 architectuur, daar komen ook erg mooie games uit, en dat is 2x ubertrage PPC + 6x vector units. Als je game volledig rond 8 relatief trage cores opgebouwd is dan kun je daar absoluut gebruik van maken.
PS4: de veel snelere geheugenbus van de PS4 gaat niets helpen voor processor performance. Voor een processor is latency het belangrijkst, het GDDR5 geheugen waar de PS4 gebruik van maakt is ontworpen voor GPU's, die nou net een voordeel hebben bij throughput ipv latency.
Dit is gewoon niet waar, en het is bovendien een fabeltje dat alle soorten GDDR5 slechte latency hebben. Latency is minder belangrijk dan bandbreedte als je 8 cores + een GPU tegelijk uit hetzelfde geheugen voert. Bij een losse GPU met local RAM en een CPU die praktisch nooit de geheugenbus vol trekt is latency inderdaad een belangrijkere factor, maar ook dan is de 'pure' latency van je DRAM chips lang zo boeiend niet vanwege caching, prefetching en andere manieren om latencies te laten 'verdwijnen'.
Alles bij elkaar zullen beide APU's qua processor performance absoluut niet in de buurt komen van een quadcore i5 op 2GHz.
We zullen zien, ze zullen in ieder geval dichter bij 100% daarvan liggen dan bij 25%

[Reactie gewijzigd door johnbetonschaar op 25 augustus 2013 18:44]

Bron? Of zullen we dit maar gewoon archiveren als 'meest onzinnige speculatie uit de dikke duim van Persei84'.
http://www.rockpapershotg...those-new-games-consoles/
met 8-Jaguar cores op naar verluidt iets meer dan 2 GHz kom je op papier al boven een quad core i5 uit
Haha, met die dromen ga je van een erg koude kermis thuiskomen. Elke benchmark, review en analysis van de Jaguar in de PS4 en de X1 komt de CPU niet eens in de buurt van een midrange i5. Vergeet niet dat de Jaguar core ontworpen is voor ultrathins en tablets.
Ik had al wel verwacht dat je met die link zou komen om je uitspraak te 'onderbouwen'. Geeft gelijk duidelijk aan hoe nietszeggend je kwalificatie 'een kwart zo snel als een i5-3570' is.

De 'vergelijking' in jouw link, is gebaseerd op de prestaties van een A4 CPU met Jaguar cores, die gemaakt is voor laptop systemen, en een TDP heeft van 25W. Denk je nu echt dat je dat simpelweg keer twee kunt doen, en dan de performance weet van de custom SoC's die in de consoles zitten die toevallig op dezelfde cores gebaseerd zijn?

Er zijn allerlei eigenschappen van een CPU/APU die invloed hebben op de performance, die los staan van de architectuur van de core zelf. Een ULV i5 is ook lang zo snel niet als een desktop i5, en dat zijn ook gewoon dezelfde cores.

Edit:
Ik zie trouwens dat rockpapershotgun schrijft dat de quad-core A4 ruwweg 'een kwart van de performance' van een i5-3570 heeft. Zelfs al zou je dat zomaar keer twee kunnen doen om bij de performance van de PS4/Xbox One CPU's te komen (wat dus onzinnig is) dan kom je al op 'de helft van de performance van een i5-3570 uit. Doe de kloksnelheid met 30% omhoog, verdubbel de cache, voeg een dubbel zo brede geheugenbus toe, of 32 MB eDRAM, whatever andere aanpassingen om wat power efficiency te traden voor performance, en kom dan nog een keer aan met 'een kwart van de performance van een i5-3570' :X
Haha, met die dromen ga je van een erg koude kermis thuiskomen.
Nou ik droom niet van console CPU's hoor, in feite zal het mij een grote zorg zijn wat de performance van die chips is, als de games maar goed zijn en leuk om te spelen. Ik vermaak me nu nog prima met mijn 360 en PS3 van 8 jaar oud. Ik ben echter ook niet zo simpel of anti-console of whatever om te denken dat ze bij AMD, Sony en Microsoft collectief de weg kwijt zijn geraakt en een CPU in hun console (die 5 tot 10 jaar mee moet) te stoppen die net zo snel is als een Acer laptop van 200 euro. Als jij daar echt in gelooft dan denk ik dat je sowieso al niet erg geschikt bent om een objectieve inschatting te geven over console hardware, want dan ben je waarschijnlijk een PC-only gamer met een overfixatie op spec sheets.

[Reactie gewijzigd door johnbetonschaar op 25 augustus 2013 16:10]

We kunnen er urenlang over discussiëren (bij voorkeur met een lekkere versnapering op een terrasje, is veel leuker ;) ) maar we gaan gewoon moeten afwachten wat de console echt gaat doen qua performance. Ik denk dat de eerste generatie next-gen games gewoon midrange PC graphics gaan produceren en vervolgens mee zullen groeien met de midrange markt.
Mee eens :P. Ik zet mijn verwachtingen echter toch wel ietsje hoger dan midrange PC kwaliteit, in ieder geval de latere generaties games. Met de kennis en ervaring met CPU architecturen en software die ik heb, schat ik de engineers van AMD, Sony en Microsoft toch wel wat hoger in dan dat ze gewoon twee Kabini's aan elkaar plakken en het daarbij laten, en denk ik dat je verbaasd zult zijn hoeveel potentie er in de consoles zal zitten, mits goed gebruikt. Dan is 'een kwart zo snel als een i5' wel en beetje erg pessimistisch.

Ik ontken trouwens ook niet dat de PC altijd voor zal lopen op hardware gebied, daar is geen discussie over. Maar er zit heel veel tussen specs, praktijk, en wat er realiseerbaar is als je alle platform features optimaal kunt gebruiken omdat je geen aannames wat je doelgroep wel/niet aan hardware heeft.
The probleem met de huidige AMD cpu's is dat ze enorm vaak achter lopen bij games.

Je bent soms sneller af met de oude generatie AMD cpu's, dan de nieuwe "8 core" varianten.

Het grote probleem met die 8 core is: Je kan idd sneller zijn, dan een quad core i5, indien je alle 8 cores maximaal benut.

Maar hier komt het probleem... Het is nu al enorm lastig om PC games te vinden, dat meer dan 2 cores gebruiken, laat staan dat ze alle 4 cores optimaal kunnen gebruiken. En nu spreken we over 8 cores.

Ik neem aan dat de Frostbite engine vooral geschreven is met 2/4 cores in gedachten.

En zoals met alle programmatie, je programma draait enkel zo goed, als de basis van je code. Indien je op een bepaald manier programmeert met x in gedachten, en je moet ineens z uitvoeren, dan moet je soms gans je kern herschrijven.

Laten we aannemen dat de engine vooral bedoelt is voor 2/4 cores. Dan kom je op het probleem, dat de 8core AMD in de console idd sneller is dan een 4 core i5, maar snij nu ineens deze score in de helft ( want over het algemeen, doen 2 AMD core's, het werk van 1 Intel core ).... Juist ... ineens loop je met een dik probleem. Hou er dan ook rekening mee, dat die AMD in feiten een low powered versie is, want de high end AMD 8cores, draaien op 4Ghz!!

Wat een voordeel kan zijn, dat in de toekomst wegens de gelijkenis met de PC hardware, dat meer & meer games geprogrammeerd gaan worden met 8core support, en dat veel van die optimalisaties ook terug gaan komen naar de PC wereld.

Dit is geen Intel vs AMD discussie punt, maar om eerlijk te zijn, op gebied van gaming performance, domineert de i5 ( wat al vrij oude CPU is ), nog grondig boven heel wat laatste generatie AMD CPU's.

In mijn mening, is die 8core route dat AMD naartoe gegaan is, meer bedoel voor Servers ( zeker als je ziet hoe ze de architectuur kunnen uitbreiden naar 16, ... enz cores ).

AMD is zeker geen slechte CPU maker, maar ja ... Men moet nu ook niet verbaast zijn dat deze 8core CPU een andere programmatie gedachten nodig heeft voor het maximale eruit te halen. En aangezien game engine jaren op voorhand ontworpen zijn...

Je zal zien in de toekomst, dat de games op de consoles zoals de PS4, een pak beter zullen worden, naar maten men meer ontwikkeld met die 8 cores in gedachten.
Dat is waar, alhoewel PS4 os is gebaseerd op linux, Vergeleken met Windows gebruikt Linux veel minder, en zo ver ik weet zijn drivers/software ook beter ontwikkeld voor multi-tasking.

Ik denk dat het niet te lang duurt voordat ze alle cores beter kan worden gebruikt. Inderdaad standaard is ~ 2 cores voor de meeste engines. Echter kan het ook software matig worden aangepast(load balancing?), of support maken voor meerdere cores in de engines. Bij ps4 is alles vrijwel uniek dus ik zelf denk wel dat het binnenkort eraan komt.
Met de Cell hebben Sony/Toshiba/IBM al laten zien dat gaming en supercomputing bewerkingen dicht bij elkaar kunnen liggen.
Het is niet voor niets dat er aardig wat PS3's in serverruimtes zijn verdwenen.
http://phys.org/news/2010...ion-3s-supercomputer.html

En vergeet bijvoorbeeld ook niet dat de PS3 aardig wat desktop PC's achter zich heeft gelaten bij Folding.

En als ik zo de comments hier lees, is het toch eigenlijk triest om te zien dat PC engines zo slecht schalen op quad of meer cores.

Verder is er het vermoeden dat de PS4 (en misschien ook de XO) al dingen hebben meegekregen van hUMA/HSA. Maar dat de engines daar wel op aangepast moeten worden.

http://www.extremetech.co...-into-the-dust-eventually

Overigens is ExtremeTech wel teruggefloten door AMD, maar alleen met een verklaring dat dingen uit hun verband zijn getrokken en dat ze verder geen mededelingen doen over individuele klanten (zoals Sony en MS). Dus geloof wat je zelf wil, AMD ontkent weinig, maar bevestigt ook niets.
speculatie? het zijn de _low power_ versies van Jaguar +/- 1.6hz, last-minute overclocks van een paar procent niet meegeteld.

IS toch alleen bekend als feit?
speculatie? het zijn de _low power_ versies van Jaguar +/- 1.6hz, last-minute overclocks van een paar procent niet meegeteld.

IS toch alleen bekend als feit?
Geef mij anders even een betrouwbare link waarin als feit staat vermeld wat de specificaties van de console CPU's is, behalve dat ze allebei 8 Jaguar cores en een 8xxx serie GPU hebben. Dus met TDPs, kloksnelheden, cache sizes, geheugen interface, alle aanpassingen ten opzichte van off-the-shelf Kabini, etc.

Alleen op basis van de performance van Kabini in ultrabooks en het feit dat de PS4/Xbox One 8 dezelfde Jaguar cores gebruikt kun je onmogelijk zeggen wat de performance in de praktijk gaat zijn, maar je kunt er wel vrijwel zeker van uit gaan dat die beter is dan simpelweg '2 keer een laptop quad-core Kabini'.
Maar een kwart :|
Ik dacht dat de processor toch wel wat krachtiger zou zijn. Het is toch een octacore van AMD met cores die op 1,6GHz (dacht ik) draaien.
Misschien moeten ze eens een upgrade programma introduceren zoals Apple doet met enkele van van hun producten.
Want zoals jij de CPU schetst en als je bedenkt dat de GPU ook niet dusdanig krachtig is dan ziet het er toch wel somber uit...
Het is inderdaad gewoon een embedded soc. De Jaguar-architectuur is ULV, en bedacht met tablets en zelfs smartphones in het achterhoofd. Dat is inderdaad het kloppend hart in de Xbox One en de Playstation 4. Persei84 heeft inderdaad groot gelijk.

Nu is het natuurlijk wel zo dat die processor in quadcorevorm naar tablets komt, en er een hoger geklokte 8-core in de PS4/Xbone zit (waarvan overigens twee cores door het OS gebruikt wordt).
De GPU is natuurlijk een enorme stap als je kijkt waar de vorige generatie consoles stond. Maar als je in je achterhoofd dat de PS3/360 de snelste videokaarten van het moment hadden, valt het gewoon tegen. Dat is NVIDIA trouwens ook van mening. Sony fanboys hebben als weerwoord dat het 'de concurrent' is, maar laten we eerlijk zijn: het statement is gebaseerd op feiten.

Natuurlijk is het zo dat onwikkelaars het systeem nog moeten leren kennen. Althans, ook dat vind ik een rare stelling, aangezien Sony juist telkens zegt dat de PS4 ongelofelijk makkelijk is om voor te ontwikkelen. Optimalisatie zal dus veel minder lang duren?

Op consolehardware kan enorm veel geoptimaliseerd worden, natuurlijk, en games gaan echt nog wel mooier worden. Maar dat BF4 waarschijnlijk op 720p gaat draaien is al het zoveelste teken. Ik bedoel, het is ook niet voor niks dat Killzone SF op 30fps draait, evenals games als Thief en Need for Speed: Rivals.
Ja ik begin er ook steeds ''banger'' voor te worden.
Het verschil tussen de PS2 en PS3, zo ook voor de Xbox en de Xbox360 was immens groot. Mij lijkt dat na zoveel jaren we weer zo'n verschil te zien krijgen? Op zijn minst het zelfde verschil, en anders dit keer nog beter..

We weten uiteraard ALLEMAAL dat je PC hardware niet kunt vergelijken met CONSOLE hardware.
Programmeurs werken nu aan 1 stuk hardware van een console, daar waar programmeurs 99% van alle PC-hardware niet aan toe komt.
Mijn PC intel/nvidia vroeger liep een stuk slechter dan de goedkopere amd/ati van een vriend van mij met bepaalde games. Dat terwijl mij PC-hardware toen der tijd vele malen beter zou moeten zijn, had hij gewoon geluk dat een programmeur tijd in zijn hardware gestoken had (kort gezegd)

Je moet eens een high quality game op een console als de XBOX360/PS3 bekijken, dat lukt jou never nooit niet met diezelfde hardware in je PC. (uiteraard heeft de PS3 dan hun verprutste cell cpu, dus nemen we de XBOX360 hardware)

[Reactie gewijzigd door LopendeVogel op 25 augustus 2013 18:35]

Het is normaal dat het verschil kleiner wordt. Alleen al door dit gegeven. Elke dieshrink brengt meer reken power maar de vermogen verbruik groeid ook.

Nu is dat voor PC high end niet zoon probleem.
Van pasief in vga tijd tot 30 banshee ofzo wat tot nu over de 200watt.

Probleem is als je een huiskamer apparaat maakt dan heb je een totale vermogenmlimiet wat je in zoon compacte behuizing kan afvoeren. 150 a 250 wat max. Dit houd in dat een PS1 toen high- end had ps3 uper midrange. En PS4 midrange.
Dus 10x. 7 x 4 x 3x de power en dat is nog steeds een degelijke vooruitgang.

Wil je meer dan heb je big tower PS4 fictief met titan en intel octacore en 500 watt voeding en prijsje van ¤1000,-

Ik denk dat de nood voor nextgen steeds minder wordt. Voor veel games is het genoeg. De sandbox game met veel detail kunnen nog wel veel meer gebruiken.
De GPU is natuurlijk een enorme stap als je kijkt waar de vorige generatie consoles stond. Maar als je in je achterhoofd dat de PS3/360 de snelste videokaarten van het moment hadden, valt het gewoon tegen. Dat is NVIDIA trouwens ook van mening. Sony fanboys hebben als weerwoord dat het 'de concurrent' is, maar laten we eerlijk zijn: het statement is gebaseerd op feiten.

Natuurlijk is het zo dat onwikkelaars het systeem nog moeten leren kennen. Althans, ook dat vind ik een rare stelling, aangezien Sony juist telkens zegt dat de PS4 ongelofelijk makkelijk is om voor te ontwikkelen. Optimalisatie zal dus veel minder lang duren?
Wat iedereen een beetje over het hoofd lijkt te zien, is de mogelijkheid voor MS/Sony om over een jaar/2 jaar X1's en PS4's uit te brengen met een nieuwere processor/GPU. Door het gebuik van x86 hardware is het natuurlijk eenvoudig om een betere console te ontwikkelen waar nog steeds de oudere spellen (tegen die tijd BF4) op gespeeld kunnen worden...
Nee, totaal nee.

Het idee achter een console. oftewel een dedicated hardware platform is dat er met dikke letters op de doos van games staat dat de game optimaal op 1 platform werkt. Om die reden zijn xbox360 games bijvoorbeeld te spelen zonder dat er een harde schijf nodig is, gezien de 360core uit 2005/2006 wel degelijk een 360 is, maar geen harddisk had.

Er komen dus geen games voor PS4 met op de verpakking een vakje "systeemvereisten:CPU revisie 1.5 met geheugenupgrade X en firmware Y", er komen gewoon games voor een PS4. En een nieuwere PS4 zal echt geen andere spelbeleving gaan geven dan een launch console.
Nou ik weet wel bijna zeker dat ze hun console echt niet gaan upgraden naar een snellere versie, klanten zullen dat ook totaal niet pikken

Want dat zou betekenen dat je de nieuwste games niet meer op je ps4 / xbox one kan spelen, maar dus weer 300/400 euro neer moet lekker voor een nieuwe console

Nee dat gaat echt niet gebeuren. En als je al zo'n constructie wil, moet je een pc kopen
Tja als ze nu een top of the line gpu zoals de PS360 erin hadden gestoken zouden we weer peperdure 600 euro kostende consoles hebben die RROD/YLOD etc hebben door hitte problemen, dus wat wil je? Op pc hebben ook alleen maar een kleine percentage van de gamers top of the line hardware.
En trouwens Killzone Shadow Fall multiplayer zal waarschijnlijk op 60 fps draaien.
De goedkoopste 360 kostte 299 dollar op launch en had een GPU gebaseerd op de krachtigste AMD-chip destijds verkrijgbaar en een processor die qua power niet misstond in die tijd. Totaal ander kaliber als nu.

Als je ziet hoe videokaarten met een TDP van 300 watt gewoon gekoeld worden door 2-slots of 3-slots koelers, lijkt het me niet dat zo'n grote console koelproblemen hoeft te krijgen. Ook componentenkoeling is de afgelopen jaren enorm verbeterd, waarom gaan consoles niet mee? Sterker nog, het TDP van de next-gen is veel lager dan dat van de eerste PS3 of 360.

Ik lees nu ook dat Guerilla haar target toch nog verzet heeft en dat is heel goed om te horen. Maar alleen voor de multiplayer, wat volgens mij aangeeft dat de MP grafisch wat minder gaat worden voor meer fps. We hebben tot nu toe beelden gezien van de singleplayer.
Dat is geen upgrade programma van Apple, die GPU's waren defect of dreigen defect te worden. De PS4 is nog niet uit en al spreken van de GPU vervangen is een beetje van het gekke. Als je kijkt welke andere spellen op de PS4/Xbox One draaien aan 1080p dan denk ik dat er bij DICE nog wel wat optimaliseringswerk voor de boeg is.
Het upgraden van de GPU van de PS4 is onmogelijk, aangezien CPU en GPU op één SoC zitten. Bovendien is juist het grote voordeel aan consoles dat je met één hardwareset zit, dat wil je niet gaan verschillen.

Bij de PS4 draaien er misschien wel veel games op 1080p, maar heel weinig op 60fps. Battlefield 4 is een van de weinige, en zo te zien hebben ze daarvoor wat resolutie op moeten geven.
Ik denk dat die resolutie nog wel hoger zal worden en upscalen gebruikt gaat worden voor 4K op 30 fps.
Ze zullen ook echt geen GPU-update uitbrengen voor de PS4 over een jaar of 2, omdat anders games niet op 1080p zouden kunnen draaien. Dan hebben ze alsnog 2 soorten consoles waar voor ontwikkeld moet worden: een met de versie 1 GPU en een met een snellere versie 2.

Sowieso weet ik niet of ik grafische opties zou willen uitschakelen om een stapje van 720p naar 1080p te maken. Ik zie in films zelden het verschil tussen 720p en 1080p op mijn tv, ik vraag me sterk af of ik dat bij games wel ga zien. Teleurstellend is het echter wel als een next-gen console niet eens op 1080p kan draaien in bepaalde games.
A.U.B geen vooroordeel geven, meer ghz betekend niet dat het beter is. Er zijn 2.4 ghz processors dat 3 ghz eruit blazen. Andersom natuurlijk ook.

Natuurlijk horen wij ook niet graag 'belabberde hardware', Dit is niet iets dat bevestigd is. Ik denk niet dat ze stom genoeg zijn om een slechtere CPU te gebruiken dan de ps3 dat wel alles op 1080P draaien.

ps4 is een nieuw systeem, en niet zoals de xbox dat ze een makkelijk SDK gebruiken met grote documentatie om games te maken. Heeft de ps4 een unieke inhoud wat tijd nodig heeft om het volledig te benutten.

Natuurlijk, is het redelijk nieuw en ik neem aan dat drivers nog niet op 100% werkt. Zoals er maandelijks/wekelijks update is voor de GPU op de PC moet de drivers van de PS4 ook geupdate worden.

Om een vooroordeel te geven dat CPU de bottleneck is, is een beetje kinderachtig, het is een mogelijkheid maar als dat zo zou zijn wordt dat vast wel verbeterd met nieuwe updates en dat GPU een deel van de lading meeneemt.
Ik denk niet dat ze stom genoeg zijn om een slechtere CPU te gebruiken dan de ps3 dat wel alles op 1080P draaien.
Haha, laat me niet lachen, er zijn letterlijk amper PS3 games die op 1080P draaien.

Bron
Maar die zijn er wel al op de PS3 dus mag je er toch wel vanuit gaan dat op de OS 4 games op 1080 p kunnen draaien.
Waarom zou je een super console maken van 800 euro als je weet dat je een console van 400 euro sneller vervangbaar is?
Persoonlijk denk ik dat sony en microsoft hun console deze lage prijs gegeven heeeft omdat ze niet meer om de 8 jaar een nieuwe console op de markt gaan brengen, maar veel eerder.
Daarbij is het dus niet nodig om state of the art hardware in zo'n apparaatje te stoppen als deze om de paar jaar geupdate/vervangen wordt.

Maar goed, zo denk ik er persoonlijk over en heb er geen bron van.
Je vergeet wel even dat de graphics gerenderd worden door de GPu. Daarnaast denk ik dat t wel zal meevallen aangezine ik niet verwacht dat 1 van de 3 een bottleneck gaat vormen.

Snap ook de hele consternatie niet want 720 is al verschrikkelijk mooi. En 1080 moeten deze consoles makkelijk aankunnen, ook op 60 fps denk ik zo...

Dan is er nog n punt dat graphics niet t belangrijkste zijn maar gameplay en dat zit bij BF meer dan goed.

Vervolgens snap ik het punt hoger dan 720, maar geen 1080p niet. Want er is maar 1 reso hoger dan 720 dat dat is 1080. Daartussen heb je niks dus hierdoor twijfel ik al zwaar aan de zogezegde consternatie.

Uiteindelijk zal t denk ik allemaal bullshit blijken en ga je de game gewoon op 1080 kunnen draaien.
Als het om gameplay gaat dan download je bf4free een gratis bf versie. Het ziet er kak uit... gamen gaat zeker wel om graphics en 720 ziet er op een 107 cm zeker niet erg mooi uit ...

Gamers die zeggen dat het alleen om de gameplay draait zijn geen echte gamers in mijn ogen. Als je bf4 straks op een 107 cm tv speelt zoals ik ga doen met mijn pc dan is 1080p op 80/90 fps alles op extreme kwaliteit een vele rijkere ervaring geeft dan 720p met alles op low... als je frot hardware hebt en je kunt niet anders en speelt "voor de lol" dan moet je hier niet zulke onnozele opmerkingen maken. Ik speel om te winnen... de snelste te zijn. Maar goed de meeste zullen dit toch niet snappen.

Als je ziet hoe verbluffend het is om straks met je bootje tussen gigantische golven te varen. Dan wil je het maximale uit de graphics... althans... ik wel

[Reactie gewijzigd door sygys op 25 augustus 2013 15:35]

Je vergeet wel even dat de graphics gerenderd worden door de GPu. Daarnaast denk ik dat t wel zal meevallen aangezine ik niet verwacht dat 1 van de 3 een bottleneck gaat vormen.
Je vergeet zelf even dat de CPU een grote impact heeft op de FPS.

http://cdn3.wccftech.com/...4-Alpha-CPU-1920x1080.jpg

De verschillen tussen verschillende CPU's gelinked aan een Titan. Het is niet zo dat je een Titan aan een Pentium III kunt hangen en dan 70 FPS haalt.
Snap ook de hele consternatie niet want 720 is al verschrikkelijk mooi. En 1080 moeten deze consoles makkelijk aankunnen, ook op 60 fps denk ik zo...
Ik moet het nog zien. Het feit dat Destiny, Ryse, NFS, Division en Killzone nu op 30FPS draaien belooft niet veel goeds.
Klopt, maar er wordt steeds vaker openCL gebruikt voor offload. natuurlijk blijft CPU belangrijk, echter in de toekomst wordt het minder belangrijk.

[Reactie gewijzigd door ilaurensnl op 25 augustus 2013 18:45]

[...]


Je vergeet zelf even dat de CPU een grote impact heeft op de FPS.

http://cdn3.wccftech.com/...4-Alpha-CPU-1920x1080.jpg

De verschillen tussen verschillende CPU's gelinked aan een Titan. Het is niet zo dat je een Titan aan een Pentium III kunt hangen en dan 70 FPS haalt.
Langs de andere kant heb je ook geen Core I7 nodig om te gamen, met een hoog geklokte i3 kom je al een heel eind. Mijn ervaring is dat ik mijn gpu een stuk vaker upgrade dan de cpu, daar kom ik eigenlijk vrij goed 5 jaar mee door. Games zijn momenteel gewoon niet heel erg multithreaded (maar dat zou met die nieuwe consoles dus wel moeten veranderen en dan voorzie ik dat cpu's met meerdere cores belangrijker gaan worden).

Wat die games betreft, die zijn waarschijnlijk niet multithreaded genoeg, gebruiken een pc-engine. Je moet je ook niet blind staren op die cijfers.. En als mooie graphics echt een prioriteit voor je zijn, dan blijf je toch gewoon bij de pc? Spellen zijn goedkoper en het merendeel van de multiplatform games verschijnt daar ook. De Xbox360 was mijn eerste console (ben toch altijd pc-gamer gebleven) en nu besef ik dat die eigenlijk alleen heb gekocht voor GTA en Red Dead Redemption (en Mass Effect, maar die is ook maar even exclusief gebleven). Bij de volgende generatie wacht ik wel even af tot er iets verschijnt waarvoor ik het moet hebben.
Als tussen resolutie zouden Sony & Microsoft 1600 x 900 kunnen nemen. En dat kunnen upscalen naar Full HD

[Reactie gewijzigd door Lip op 25 augustus 2013 17:51]

"Toch kan je met een Radeon 7870 BF3 op Ultra al met 60 fps op 1080p draaien (BF4 zal toch niet zoveel zwaarder zijn lijkt mij)"

BF3 duikt geloof ik al weleens onder de 60fps op 1080p met een HD 7870 en natuurlijk is BF4 iets (inderdaad niet veel, maar toch iets) zwaarder en is de GPU van de PS4 minder krachtig dan een HD 7870.

De nieuwe consoles zijn toch echt veredelde mid range PCs omdat ze aan een TDP limiet van ~200W moeten voldoen terwijl moderne game PCs een stuk meer mogen verstoken.
He dit soort voorspellingen hoorde ik precies hetzelfde nadat de ps2 en ps3 aangekondigd werden.

[Reactie gewijzigd door benito100 op 26 augustus 2013 00:46]

Sterker nog, ik hoorde mensen dit scheeuwen bij de eerste xbox!

Een pentium 3 op 733Mhz met half cache, 64MB werkgeheugen en een onboard videochip afgeleid van de geforce2.

Dit terwijl de 2Ghz P4 met Geforce 3 in de winkels lag en 256MB de standaard was voor een PC.

Mooi toch dat de Xbox1 qua games en graphics(480i, okee) een perfecte gameervaring neerzette.

De hardwarespecs zeggen weinig over de ervaring van een gameplatform.
Dat zijn het niet.
Het is een opgekrikte tablet cpu met mainstream graphics op de chip.

Veredelde PC`s zou suggereren dat het beter zou zijn, maar in feite is alles minder.
Alleen zou dat nu dus geen probleem moeten zijn met de "supercharged PC architecture".
To describe the complexity he uses the term Time to Triangle, meaning the time a studio needs on a new console to get from scratch to the first working 3D levels.
http://www.controlmagazin...loads/2013/06/photo-4.jpg

@watercoolertje
Ik quote alleen Mark Cerny. Ik gebruik de term nu als referentie voor de architectuur (waarvoor je nu dus minder ontwikkeltijd nodig zou hebben) en niet als referentie voor snelheid van de console.

[Reactie gewijzigd door Fleximex op 25 augustus 2013 12:44]

Sorry supercharged? Hoop niet dat daar snelheid mee bedoeld is maar een geavanceerdere instructieset? Want snelheid komt niet in de buurt van een dikke game-pc..
Het is ook bedoeld als sarcasme omdat deze generaties consoles helemaal niet zo snel zijn als er werd gezegd volgens de ontwikkelaars. Begint er steeds meer uit te zien als een enorme flop.
Hardware is een ding, software is het ander deel. Windows pc worden gewoon erg tegen gehouden door de api's die nodig zijn, kan soms factor van 10 schelen, pc zit in sommige gevallen met zeer grote overhead door de tussenkomst van api's. Probleem is dat ontwikkelaars in begin van introductie van nieuwe console ook meestal eerst api gebruiken en naarmate ze bekend raken met de nieuwe console gaan zo over op programmeren in directe instructie voor de cpu en gpu. Een Windows pc heeft die optie niet, API is verplicht en om problemen te voorkomen tussen alle soorten hardware met alle soort instructie sets.

Als AMD, intel, Nvidia eens om tafel gingen zit en met 1 intrsuctie set de tafel verlaten is het probleem opgelost, kan pc ook voortaan op volle kracht draaien, maar tot die tijd zal de handrem erop staan en word en niet alles uit pc hardware gehaalt.

Op pagina twee en drie staat nog meer uitleg.
http://www.bit-tech.net/h.../16/farewell-to-directx/1

"On consoles, you can draw maybe 10,000 or 20,000 chunks of geometry in a frame, and you can do that at 30-60fps. On a PC, you can't typically draw more than 2-3,000 without getting into trouble with performance, and that's quite surprising - the PC can actually show you only a tenth of the performance if you need a separate batch for each draw call."

Heel beknopt gezien en als de ontwikkelaars genoeg ervaring hebben opgedaan met instructie sets heeft PS4 potentie om pc te evenaren met Radeon met 10240 core's. Maar dat is dan ook wel het aller uiterste van de potentie van de ps4. :)

[Reactie gewijzigd door mad_max234 op 25 augustus 2013 13:39]

Wat ik me afvraag, als dat verhaal waar is waarom komt dat er graphics wise niet uit op bijvoorbeeld de ps3 of de xbox360? je zou dus 10x betere graphics en fps verwachten tov hoe die hardware performed in een pc: dat is absoluut niet het geval (sterker nog, met uitzondering van inefficiente console ports zijn games die voor de console uitkomen op dezelfde resolutie nog goed speelbaar op een 6 jaar oud systeem).
Natuurlijk hebben consoles voordelen, aangezien de hardware niet veranderd kun je goed optimaliseren, vaak heb je wat meer mogelijken om bare metal te programmeren maar wordt er toch wel vaak van een ouderwetse 3d api gebruik gemaakt, zoals opengl ES of direct3d (xbox).

Afgaande op de ontwikkeling op mn ps3 heb ik er een hard hoofd in dat de graphics op 1080p op die consoles extreem veel beter gaan worden, overigens lijkt me dat ook niet echt een probleem, een console koop je niet voor de graphics of de immersion, die koop je om even kort casual te gamen op de bank, overigens doet mn ps3 er meer dan 5 minuten over om helemaal in een game te zitten soms, in die tijd kan ik mn pc al 10x gereboot hebben.
Ik vind dat de huidige generatie consoles het behoorlijk doen met de hardware dat ze hebben. Bouw eens een pc met 256 mb ram en 256 mb video geheugen en kijk eens wat voor games je kan runnen?
Bouw eens een pc met 256 mb ram en 256 mb video geheugen en kijk eens wat voor games je kan runnen?
Als je de resolutie en settings naar Console niveau schroeft, kom je toch wel een heel eind hoor

een ATI 4830 met 512MB op 1440x900 draait vandaag de dag nog erg veel op Medium - High

Alleen met de 256 ram gaat het wel lastig worden, misschien als je een ander OS gebruikt dan Windows dat het nog wel zou lukken
Het heeft er vooral mee te maken dat dingen als resolutie en antialiasing pas op het laatst definitief bepaald worden bij de ontwikkeling van een spel, bij de performance tweaking. En bf4 is nog niet af.

Het zou goed kunnen dat een beeld met spectaculairder effecten op 720p +antialiasing upscaled er beter uit ziet dan 1080p als je een paar meter van de tv zit, en dat ze daarom niet native 1080p doen.

Op m'n gtx470 kan ik bf3 ook op 1080p draaien en altijd 60 fps halen, wel met veel op low, en dat ziet er nog steeds vrij ok uit, maar misschien niet optimaal als je verder weg zit en de pixels toch niet kan zien. Maar als dice per se 1080p gewild had had dat makkelijk gekund want de ps4 gpu is een stuk krachtiger dan de 470.

[Reactie gewijzigd door haarbal op 25 augustus 2013 13:16]

Ik denk ook dat het eerder te maken heeft met optimalisaties dan met of de ps4 het wel of niet aan kan. BF4 is al langer in ontwikkeling dan dat de dev kits voor de ps4 gereed waren. De engine is dus niet zo geoptimaliseerd als zou kunnen. Ik heb BF4 op de gamescom op een PS4 gezien, en het zag er niet zo goed uit als ik had gehoopt. BF3 op 1080p op mijn pc vond ik mooier. Maargoed de bewegingen van de karakters en andere physics zijn wel veel beter dan in BF3. Er is nog genoeg ruimte voor verbetering, maar de pc blijft altijd een stapje voor tov. de console.
Ik denk dat het te maken heeft met het feit dat het spel bij een 1080p resolutie wellicht niet het minimum van 60 fps kan houden, maar merkbare framedrops tot gevolg heeft.

En de CPU een uit de kluiten gewassen tablet CPU eh? Mij benieuwd hoe planetside op de PS4 gaat draaien, das pas echt een CPU intensieve game.
En de CPU een uit de kluiten gewassen tablet CPU eh? Mij benieuwd hoe planetside op de PS4 gaat draaien, das pas echt een CPU intensieve game.
Correctie, op de PC is het een CPU intensieve game, met optimalisaties enzo kan dat wel heel anders zijn op de Consoles
Het is gewoon een supercharged PC systeem, wie kent dat nou niet?
BF 4 moet bij launch in de schappen liggen voor alle platformen.

DICE kiest voor de launchdate ipv kwaliteit. We kunnen er lang en breed over praten, maar dat is de netto uitslag. Als dat het namelijk NIET is, zijn we met de huidige gen consoles vrij weinig opgeschoten.

Ik kan me ook nog voorstellen dat er bottlenecks zijn, zoals de laag geklokte cpu.

[Reactie gewijzigd door Vayra op 25 augustus 2013 12:37]

ik denk eerder dat EA dit wilt
Wie de keuze maakt is niet relevant, als EA dit erdoor kan duwen heeft DICE duidelijk geen ruggengraat. Of ze vindt het niet belangrijk genoeg. Dat zegt iets over de developer, hoe je het ook wendt of keert.

BF wordt toch wel een verkoophit, 720p of niet. Dat is de redenatie geweest. En dat is dus jammer.
De pc versie zal hier geen last van hebben omdat het geen console port wordt maar een dedicated pc versie en die zal altijd beter zijn dan de console versies.
Dat kan natuurlijk wel, alleen hebben ze waarschijnlijk gewoon nog niet genoeg tijd, geld en/of ervaring om hem genoeg te optimaliseren voor de PS4. Ze zijn hem tenslotte niet alleen voor de PS4 aan het maken. Verder lijkt me 720p ook geen ramp als alles dan verder soepel als boter draait (zoals de effecten en dergelijke).
Mwah ik heb van het weekend al meerdere verhalen gelezen. Dat ook bijv Watch Dogs op de PS4 er minder goed uitzag.

Maar aan de andere kant lees je weer tegenstrijdige verhalen waarbij wordt beweert dat Dead Rising 3 er door ene journalist grafisch wordt geprezen en de ander die game grafisch enorm vindt tegenvallen.

Ook Ryse: Son of Rome vond ik er matig uitzien afgaand op de beelden die online staan. Maar mogelijk worden die trailers zwaar gecomprimeerd online gezet.

Enige wat ik zeker weet is dat ook de nextgen grafisch niet aan een highend PC kan tippen maar goed laten we eerlijk zijn. Eén GTX 780 of een tweetal 760 kaarten in SLI kost al meer dan een nextgen console!
Gelukkig presteert een enkele GTX 760 al beter dan de PS4, zo lijkt het nu. Grafisch presteren de games nu al onder PC-niveau en vaak is dat dus nog met een 30fps cap of op slechts 720p.

En dat heet dan next-gen.
Wat had je dan gedacht? Kijk eens naar de specs.. als je daar enig verstand van hebt is het vrij snel duidelijk dat een PS4/Xbox One amper kan tippen aan een Mid-end gaming systeem van 2 jaar geleden.

Ze zullen dan weliswaar betere optimalisatie hebben dan PC's, maar de "next-gen" consoles gaat gewoon nooit een high end pc evenaren.
Knap oordeel op basis van vage speculaties. Misschien eerst het spel afwachten?
Waarschijnlijk wordt de wereld op 720p gerendered en de gui/hud op 1080p, da's vrij standaard.
Ik vind heel dat resolutie argument trouwens weinig zinvol, ik heb liever meer berekeningen per pixel met goede AA dan steeds hogere resoluties met crappy SSAO, aliasing in planten ed. Dat het beeld dan iets zachter is vind ik niet erg, ik vind het zelfs meer filmisch aanvoelen zo. En verdorie het meest belangrijke wordt vergeten, 60fps, ik dacht dat het er nooit van ging komen!
BF4 is ook nog niet eens te koop, (die PS4 is nog niet eens te koop!) en er is al consternatie?

In een interview zei die vent gisteren nog dat het allemaal nog niet vast staat, BF4 is nog in alfa... Een beetje overdreven allemaal hoor...

p.s. De PS3 liet bij release ook nog niet het achterste van z'n tong zien. Zo blijft er iets over om van te genieten als het ding wat langer op de markt is. De resolutie lijkt me lang niet zo belangrijk als de andere elementen in het spel en zoals het er nu naar uitziet wordt BF4 door geen enkel ander spel ook maar benaderd in tofheid.

[Reactie gewijzigd door Verstekbakker op 25 augustus 2013 12:29]

Hogere resolutie in een shooter betekend wel dat je gemakkelijker vijanden kan spotten in de verte (of in de bosjes). Er is immers meer detail.

Zo maakt het mij bij The Last Of Us niet zoveel uit dat die game niet draait op 1080p, de sfeer en de vol gepakte gamewereld maakt veel goed. Alleen daar draait het dan ook niet op heel erg snelle actie.
Je hebt een punt, maar als iedereen dezelfde handicap heeft, dan is het geen handicap meer natuurlijk.

En persoonlijk hecht ik meer waarde aan de teamplay ervaring, hoeveelheid wapentuig (ook het rijdende dus) en het gebruik van de omgeving in de maps bij Battlefield, niet zo zeer het verschil in detail dat ik kan zien als ik met de neus op m'n tv zit. Dat heb ik nog bij geen enkel spel in dit genre zo goed gezien als ik eerlijk ben, daarin is Battlefield altijd het beste in geweest.

Ik snap ook de "consternatie" niet (hier in het dorp ging niemand met fakkels en hooivorken de straat op iig), het nieuwsbericht is van komkommertijd niveau als je het mij vraagt; iemand liet een scheet op twitter en toen kwam het hier op de frontpage...
BF4 is nog in alfa
Nu nog in alfa, en de release date is nog maar een paar maandjes verwijderd. Ja, nee, nu ben ik gerust gesteld. :+
BF4 voor consoles is nog in alpha? GTA V had zo'n 4 weken voor de release goldstatus bereikt, dan komt de productie en verscheping dus. Dat zal bij Battlefield 4 niet anders zijn, en die game ligt eind oktober in de winkel. Dat betekent dus dat ze nog een maand hebben om de game af te maken.

De Playstation 3 was een ramp om voor te programmeren aldus vrijwel iedere ontwikkelaar en Sony zelf. Gelukkig heeft Sony begin dit jaar zelf gezegd dat de PS4 extreem eenvoudig is - die achterste van z'n tong zal dus veel eerder aan bod zijn. Dat is dus ook niet het geval.

Het is, launchgame of niet, bijzonder zorgwekkend dat een crossgeneration game (met gameplay die moet werken op PS360) niet op 1080p/60fps gedraaid kan worden, en dat daarvoor textures, particles en assets voor ingeleverd moeten worden.
Het is wel vreemd dat Battlefield 4 als enige in zo'n lage resolutie draait. Andere next gen games zoals Killzone: Shadow Fall en inFamous 3 draaien gewoon in 1080p. Ik houd het erop dat Dice gewoon nog niet de game 100% geoptimaliseerd heeft door de tijdsdruk en het gebrek aan ervaring met next gen consoles. Mogelijk zijn de demo's die ze laten zien ook verouderd. Het maken en testen van nieuwe builds voor elke conventie en presentatie kost ook tijd, dan is het makkelijker om een oudere build te gebruiken die wel een beeld geeft van het spel maar grafisch nog niet representatief is. Ze hebben nog 2 1/2 maand om het te fixen.
Battlefield 4 is de enige die 720p doet inderdaad, maar het is dan ook veruit de mooiste game, afgaande op mijn eigen ervaringen die ik afgelopen Gamescom heb opgedaan.

Overigens is Battlefield 4 ook de enige die 60fps doet, samen met CoD Ghosts (wat er gewoon veel minder uit ziet natuurlijk).
Vrijwel iedere grafische intensieve game voor de PS4 is gecapped op 30 fps. Waaronder Killzone, DriveClub en Infamous. Maar ook Thief en NFS Rivals.
Ja maar het lijkt er wel op dat killzone etc wel behoorlijk wat minder details op het scherm zet dan bf4 als je de filmpjes zo bekijkt.
Dat is zeker niet waar, check de nieuwe Multiplayer filmpjes maar even. Ontzettend veel effects aanwezig.
Vind dat wel meevallen en daarnaast zijn de mappen ook een stuk kleiner dan in BF. Engine "lijkt" complexer van BF4.

[Reactie gewijzigd door keepitfrosty op 29 augustus 2013 12:19]

Daarnaast zou de gespeelde resolutie weliswaar hoger zijn dan 720p, maar niet 1080p.
Over welke resolutie praten we dan? Er is tussen deze twee resolutie toch geen andere resolutie in de 16:9 beeldverhouding beschikbaar?
beetje populaire: 1366x768 -> 1440x900 -> 1600x1050 -> 1920x1080
1440x900 en 1600x1050 zijn niet 16:9 volgensmij. 1600x900 zou bijv wel kunnen.
1920 x 1080 is 1080P!
Valt dat toch even smerig tegen. Wat voor anti aliasing wordt op de consoles gebruikt? Want een GTX 560 Ti kan de voorganger (BF3) rond de 60 fps gemiddeld trekken. Maar als er wordt overgeschakeld van FXAA naar MSAA dan is de GTX 660 Ti pas goed genoeg.

Zelf heb ik liever een 1080p game met wat minder details. Zet al die rook en belichting technieken maar een tandje lager.

[Reactie gewijzigd door projectnewtt op 25 augustus 2013 12:55]

Gemiddeld/

Wat heb ik aan gemiddeld 60fps? Ik wil altijd boven de 60fps zitten, of in ieder geval op een stabiele framerate. Dus als ze niet continu 60 kunnen garanderen, blijft het gewoon op 30 continu zitten.
Tja, dat trekt die console dus niet. Maar het zou toch jammer zijn als de game gelocked wordt op 30 fps. Waarom zijn er trouwens maar 2 smaken? Kan een ontwikkelaar zelf niet bepalen wat de minimale framerate is en aan de hand van die waarde de fps locken?
TV's kunnen veelal 60 of 50FPS weergeven. Als je dan niet op gemene delers daarvan gaat zitten (30, 25, 20, 10.. 5.. :'| ) dan worden de frames alsnog met onregelmatige tussenpozen weergegeven. Namelijk op de klok van het eerst volgende 60/50Hz frame.
Inderdaad, resolutie is vaak flink merkbaarder. Zelf heb ik een HD ready tv op de slaapkamer staan (720p) met daaraan een PS3 en een PC (met xbox controller) veel games zien er met alles op lage settings op de PC al beter uit dan op de PS3, simpelweg omdat het beeld veel scherper is, en de interne framerate vaak ook merkbaar hoger ligt.

Zolang de textures en de resolutie maar goed zijn doet het iig geen pijn aan je ogen. Je ziet het ook als je op de PC PS2 spellen emuleert. Die kunnen er ook vaak prettiger uitzien dan de PS3 games simpelweg omdat het er allemaal gladder uitziet.

Nu maar hopen dat BF4 ook goede controller support krijgt, want in BF3 was dat echt knudde. het spel is prima te spelen, maar voor het navigeren van de menu's en je loadout/spawn menu's moet je iedere keer je muis weer pakken..
Ja, multisampling is natuurlijk zwaarder dan FXAA, dat is geen wonder.
Wat ik mij dan afvraag is het volgende, gaat de xbox one versie wel op 1080P draaien want daar hoor je niets over? ik zou het wel jammer vinden als we anno 2013 met deze next gen consoles alsnog op 720P gaan draaien ongeacht de reden, want zeg nu zelf hoe lang hebben we al tv's met full HD resoluties in de kamer staan? je verwacht toch bij de next gen consoles dat die gewoon in full HD gedraaid kunnen worden.

Toch wel slechte onduidelijke communicatie vanuit DICE wat mij betreft wat weer zorgt voor veel en slechte PR voor hen maar ook voor de PS4 aangezien daar nu op gericht word en je nergens iets over de xbox one versie leest, ik hoop/verwacht dat ze aangezien de consoles pas over paar maanden uit komen nog allerlei optimalisaties gaan toepassen zodat er gewoon op 1080P gaat worden gedraaid.

[Reactie gewijzigd door pino85 op 25 augustus 2013 12:47]

als de ps4 versie op 720p draait en de xboxone versie op 1080p, dan weten we dat er iets heel anders aan de hand is dan een technische reden, de freaking consoles hebben namelijk gelijkwaardige hardware, waarbij de cpu, gpu EN geheugen van de ps4 sneller zijn. Lijkt mij dus heel sterk dat de xboxone versie wel 1080p zou draaien.
In deze tijd vind ik dat de consoles toch met mak 1080 moeten kunnen draaien. Bedoel, 720 PS3, dus PS4 gewoon 1080. Maar goed thats my opinion!
Dat ligt er maar helemaal aan hoe je de engine gebruikt en wat voor complexe modellen je gaat gebruiken. Ik kan mij nog een recentelijke flying game herinneren die flink teruggeschaald moest worden om het speelbaar te maken op de krachtigste pc! Als ze alles gingen gebruiken wat mogelijk was in de engine dan konden de huidige multi core pc's het niet eens goed aan!

http://il2sturmovik.ubi.c...ver/en-gb/home/index.aspx

Speelbaarheid en resolutie is altijd een keus die je maakt. Zolang alles er goed uitziet is het toch niet zo van belang?!

[Reactie gewijzigd door Tourmaline op 25 augustus 2013 13:00]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True