Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 180, views: 40.993 •

Sony zou begonnen zijn met de levering van een nieuw model van de PlayStation 4-devkit. Die draagt codenaam Orbis en is opgebouwd rond de A10-apu van AMD. De devkit wordt geleverd in de behuizing van een standaard desktop-pc. De definitieve versie verschijnt over een half jaar.

Volgens website VG24/7 komen er vier verschillende edities van de PlayStation 4-devkit. Een selecte groep ontwikkelaars heeft al een devkit, die volgens ingewijden uit niet veel meer bestaat dan een grafische kaart. Na de versie die nu geleverd wordt, heeft Sony nog twee edities gepland staan. Een derde versie verschijnt in januari en die zal volgens de ontwikkelaars die VG24/7 sprak 'bijna de definitieve samenstelling hebben'. In de zomer van 2013 verschijnt dan de definitieve versie van de console.

De versie die nu verstuurd wordt zit nog in de behuizing van een desktop-pc. Daarin zit een systeem dat is opgebouwd rond een apu die is afgeleid van de A10 van AMD. De standaardversie van de A10 heeft 4 cpu-cores, die standaard op 3,4GHz draaien, aangevuld met een gpu die uit 384 cores bestaat die op minimaal 760MHz draaien. Of de versie in de devkit dezelfde specificaties heeft, is niet bekend. Het systeem zou verder een harde schijf van 256GB bevatten en minimaal 8GB aan ram. Of de devkit een bluray-speler heeft, is niet duidelijk, maar de ontwikkelaars die VG24/7 sprak, waren er van overtuigd dat de PlayStation 4 wel uitgerust zal zijn met een optische speler.

Dezelfde bronnen verwachten bovendien dat Sony de nieuwe console vlak voor de E3 van 2013 aan zal kondigen. Het uitsturen van de devkits ging gepaard met een bijeenkomst bij Sony waarin de consolebouwer tekst en uitleg gaf over de nieuwe console. Tijdens die presentatie zou Sony de term PlayStation 4 niet gebruikt hebben en het apparaat consequent hebben aangeduid met de codenaam Orbis. De consolebouwer maakte daarbij duidelijk dat het doel is om een console op de markt te brengen die moeiteloos games in 1080p en 3d weer kan geven. Sony wil bovendien 'een zeer betaalbaar systeem' op de markt brengen.

Reacties (180)

Reactiefilter:-11800172+1118+217+30
Beetje telleur stellende hardware, een A10 is natuurlijk hardstikke leuk voor de computer in de keuken maar daar ga je niet high end mee gamen @ 1080p. Ik had meer verwacht van Sony. Die 8GB ram is wel een vooruitgang gelukkig want 256mb is natuurlijk 10x niks. Ben benieuwd wat dit gaat kosten.
Keer op keer is bewezen dat bij de release van een nieuwe console de graphics op dat moment top-notch zijn, en zich kunnen meten met de graphics op een high-end PC. En ja, dat neemt in de levensloop van een console steeds meer af, maar dat nemen de meesten voor lief.

Ik verwacht dan ook niet dat de PS4 en de opvolger van de 360 direct met een achterstand beginnen.
Wel is het zo dat voorheen altijd een variant op een high-end kaart van een recente serie werd genomen voor consoles (7800GTX of X1900 voor de huidige consoles), en dat zal nu niet meer lukken omdat high-end kaarten simpelweg te veel verbruiken. Dus ten opzichte van de vorige releases zal de console iets in het nadeel zijn. Dan nog is een console natuurlijk wel efficiënter dus krachteloos zullen de nieuwe PS en XBOX zeker niet zijn. Vroeger was een mid-range videokaart niet genoeg voor serieuze graphics, nu is dat wel anders.

[Reactie gewijzigd door bwerg op 2 november 2012 11:33]

Maar "topnotch" kaarten die er nu bestaan zijn dan ook vooral bedoeld om te gamen met meerdere beeldschermen. 1080p is een eitje voor die kaarten; overkill dus.

Echter; dit gaat een beetje richting de AMD 6650 oid. Dan mag het wel heel erg betaalbaar gaan worden wil dit een beetje interessant gaan worden.

Daartegen over staat dat er nu al veel kritiek was op de WiiU qua specificaties (nu ongeveer gelijk) maar dat ze redelijk goed geanticipeerd hebben bij Nintendo dat de concurrentie niet opeens 20x krachtigere consoles gaat maken. Het is natuurlijk voor ouders en eigenlijk het hele gamepubliek veel interresanter om voor 200 euro de meeste recente games te kunnen spelen. 500 euro leggen mensen daar gewoon niet meer voor neer omdat bijvoorbeeld ook tablets, handhelds en telefoons nu gaan concurreren om games gebied.
Wat ik wel heb begrepen is dat Sony ondanks hele goede hardeware altijd moeite heeft om voldoende ontwikkelaars game titels voor de Sony consoles te laten ontwikkelen. De Sony consoles hebben minder game titels dan de consoles van Microsoft en Nintendo.

Kan het niet zijn dat Sony de analyse heeft gemaakt dat te dure hardware het succes van zijn consoles remt? En dat het gebruik van een A10 APU een eerste indicatie is van een kentering in het Sony hardware beleid?

Die PS Vita loopt ook niet zo hard (op zich wel jammer, prachtig apparaat). Misschien deed dat de deur wel dicht bij Sony. Goedkopere hardware legt een grotere doelgroep open als potentiele klant voor een nieuwe Sony console. Alleen al dit gegeven kan heel belangrijk zijn voor ontwikkelaars om software te willen ontwikkelen. Merk op dat het hierbij helemaal nog niet over performance is gegaan.

edit:
typo

[Reactie gewijzigd door teacup op 2 november 2012 21:37]

Ze gaan misschien iets minder dik uitpakken qua hardware om inderdaad de prijs laag te houden en daarmee meer kopers aan te spreken. Maar toch zullen ze wel een grote stap moeten maken. Direct alweer dik achterlopen in vergelijking met de pc zou onwenselijk zijn, en een groot deel van de PS3-gamers zijn wel degelijk gehecht aan krachtige hardware en daarmee goede performance / graphics / physics enz. De PS3 had dat destijds, voor de toen geldende standaarden, en dus zal Sony ook nu weer met een sterk systeem moeten komen.

Toch valt er ook wel een goed midden te vinden tussen prijs en performance verwacht ik. Een console kan meer doen met bepaalde hardware dan een pc, omdat de software "dichter op de hardware zit" en het gaat om één enkele configuratie, niet om legio varianten die ondersteund moeten worden zoals bij de pc. Verder optimalisatie van hard- en software en alles is beter op elkaar afgestemd. Zo zal een AMD Radeon 6xxx of een mid-range 7xxx heel veel kunnen doen mits goed geimplementeerd in een console. Zelfde geldt voor de processor: Hoeft geen derde generatie i7 te zijn.

Ben erg benieuwd waar Sony uiteindelijk mee komt. In high-end pc-kwaliteit gamen op een thuisconsole mag van mij best 500-600 euro kosten bij release. Gezien de prijzen van high-end tablets, smartphones en pc's zou dat op zich geen rare prijs zijn.
Wat ik er van begrijp op de wiki pagina is dat de cell processor die in de PS3 zit asymmetrisch is: een hoofd 'processor' (PPE) en wat coprocessoren (SPE). Om de volledige capaciteit van deze processor te benutten moet je je game special aanpassen.

Het is nu veel meer gebruikelijk om een mutlicore processor te maken waarbij alle cores min of meer equivalent zijn (op geheugen benadering na). Je maakt je game dan gewoon multi threaded en dat werkt dan op de meerderheid van de processor architecturen. Misschien hier en daar een tweak voor een console (voor met name de gpu), maar geen architecturele redesign. Ik geloof ook dat die PS3 ook nog een speciale grafische api gebruikte, dat zou dan in de toeomst in de vorm van OpenGL of DirectX moeten worden aangeboden. Wellicht dat een echte PS3 game developper dit verhaal kan weerlegen of bevestigen.

Verder wel goed nieuws, voor mij als pc gamer. Als deze hardware meer op
(ondergeklokte) pc hardware lijkt, dan zal poorten naar de pc veel vaker gebeuren.

Edit: wat spelfouten

[Reactie gewijzigd door gast128 op 2 november 2012 14:06]

Wat ik er van begrijp op de wiki pagina is dat de cell processor die in de PS3 zit asymmetrisch is: een hoofd 'processor' (PPE) en wat coprocessoren (SPE). Om de volledige capacietiet van deze processor te benutten moet je je game special aanpassen.
Dan heb je het blijkbaar niet begrepen. Je kan de ps3 processor eigenlijk al zien als een APU, maar dan zonder grafische kaart. Hij is opgebouwd met gedeelt geheugen en dergelijke wat hem eigenlijk een singlecore maakt, of een multicore met dubbele hypertreading, aka tripple core...
Ja dus heb ik het wel begrepen. Je kan niet zomaar wat threads loslaten, je moet speciaal bepaalde zaken op die SPE's zetten, die ook niet de performance hebben van de PPE. Dus architecturele aanpassing van je game engine.

Lees ook ff de wiki over SPE en het veschil met een 'normale' core http://en.wikipedia.org/w...essing_Elements_.28SPE.29

artikel over moeilijke programmeerbaarheid: http://news.cnet.com/Octo.../2100-1007_3-6042132.html

[Reactie gewijzigd door gast128 op 2 november 2012 13:52]

@gast128:

Je hele verhaal is een vergelijking met het PC x86/x64 platform. In werkelijkheid zijn er veel architecturen die meer voordelen hebben voor consolebouwers.

Ik geloof dat er maar 1 console geweest is die op deze architectuur liep en dat was de originele xbox.

Verder heeft multithreading niks te maken met het verschil tussen architecturen.
Het is dus onzin dat als je je code gewoon multithreaded maakt dat het dan op alle andere gangbare architecturen loopt.
Ook is het zo dat een console geen last heeft van het OS maar daar wel zelf enige vervanging voor moet leveren.
Je krijgt dan zelfs op x86 hardware dat de consolemakers zo ver gaan optimizen dat die code niet gaat werken op een normale pc.

Veel success om DirectX op de playstation te krijgen, dat is natuurlijk puur van microsoft.
Sony heeft gewoon, naast hun eigen zooi, ook OpenGL in gebruik.

En je vergist je in het porten.
Er wordt nu al vrij veel geport.
Maar wat gebeurt er als de consoles underperformen maar nog steeds de grootste markt zijn?
Dan gaan de PC games ook minder worden want de devs gaan echt niet veel moeite stoppen in een enkel platform waar ze veel extra content voor moeten maken die toch nooit op de consoles zou draaien.
Als er een groot performanceverschil zou komen tussen consoles en de pc dan is het een beetje klaar met AAA titels voor PC.
Vrijwel alle games (en software) worden in een 3e generatie taal gemaakt (e.g c/c++). Die zijn niet afhankelijk van de precieze instructieset van een cpu, daar zorgt de compiler wel voor. Vroeger waren game engines single threaded met een game loop, bv get input -> update ai en state -> draw. Met de komst van multicore processoren zouden game engines meer gebruik moeten maken van parallellisatie. Een manier is om in aparte threads andere zaken te doen, of nog simpeler iets als tbb gebruiken (zie http://epicgames.com/news...ailable-to-unreal-engine/). Dit gaat echter wel van uit dat je werkt op een multicore processore waarvan de cores niet assymetrisch zijn, maar allemaal even sterk, iets wat duidelijk niet voor de cell processor geldt, maar wel voor vrijwel alle andere processoren zoals de x86/x64, sparc of powerpc.

Verder heeft multithreading alles te maken met multicore. In principe draaien software threads ook op single cores (software thread is een os concept), maar je hebt pas performance voordeel bij een hyperthreading/ multicore of multiprocessor machine.

Ook programmer je nooit rechtsreeks je vidoekaart maar altijd via Api's als DirectX of OpenGL. OpenGL bestond wel op de ps3 maar die bleek hopeloos traag te zijn, waardoor je gedwongen was om de proprietary api te gebruiken. Je stelt dat Sony nooit DirectX zal gaan gebruiken, maar Linux doet dat ook om games te kunnen draaien.

Let wel game makers die heb vaak een code base, en proberen met #ifdef's ook naar andere platformen te porten. Als die platformen echter te ver uit elkaar liggen dan kan je effectief je game 2 keer maken ipv bv 10% aanpassing moeten maken. Dat is hetgeen port meer maar gewoon opnieuw beginnen. Dat XBox DirectX gebruikt, maakt een port naar pc bv veel makkelijker. Daar zit een kosten / baten analyse bij. als een port meer kost dan het oplvert wordt het niet gedaan. Maar zoals ik al in mijn oorspronkelijke bericht aangaf, zal die port makkelijker gaan als het verschil in hardware kleiner is.

Nog een link: http://www.youtube.com/watch?v=hapCuhAs1nA
De kern van het probleem is twee maal andere CPU machine code.
De enkele normale core is een simple in order IBM coretje. Zwak.
De speciale cores gespecialiseerde beperkte cores. Sterk in paar dingen maar kunnen niet alles.

Dit is zoiets als een taal en dialect en subset ervan.

Smp vereist al wat extra sourcode werk en bij 8 teld dat stuk zwaarder.
Maar nu moet men nog kieze waar welk blokje code het beste kan draaien.

Dat is extra source code werk of zelfs asembler werk omdat je twee code varianten hebt een voor PPE en een voor SPE.
Dan is de memory fixed 256+256.

En wat ziet sony dat crossplatform games vaker toch minder zijn of slechter lopen op PS3. Zoals lagere beoordelingen.

De CELL is leuk voor instanties die zelf uitgebreid hun eigen aps ontwikkelen en er het maximale uit halen.

Gamestudios zitten om budged en deadline verlegen om vaak toch extra tijd in te stoppen. Vaker dus niet. Vooral als de main target xbox360 en console port naar PC al op rolletjes lopen. Maar PS3 performance problemen heefd.

Dat zal sony executives ook opgevallen zijn.
En ze zullen ook de PS3 traject intern zeer critisch bekijken als wat ging goed en wat ging fout en wat kunnen we het beste doen met nextgen.

Les een, niet te extreem afwijken van de concurentie. Cell was bad idea.
Het droeg niet bij eerder belemmerd
Hoge prijs werkt ook belemmerend.
Kost ook extra maar brengt amper iets op.

Mij lijkt het zoals het nu uitziet, dat ze cell laten vallen als een baksteen en nV ook.
Ja Gast128 , is leuk allemaal, maar dat geldt gewoon niet zo voor consoles.

Die TBB tech die je noemt is Intel propietary. Werkt dus op geen enkele console. -facepalm-
Wat ik probeerde duidelijk te maken is dat uitspraken als: "Je maakt je game dan gewoon multi threaded en dat werkt dan op de meerderheid van de processor architecturen." enorm kort door de bocht is.

Dit soort uitspraken zijn een grofe onderschatting van wat er zoal komt kijken bij gamedevelopment. Zo ben je met multithreading overgeleverd aan een thread scheduler. Je hebt dus minder controle over wanneer je code werkelijk wordt uitgevoerd. Dat is een probleem voor real time code zoals een 3D game. Probeer jij maar eens multithreaded graphics, physics en audio synchroon te houden en netjes elk frame een beeldje van de juiste tijd af te leveren. Daar zijn dan wel truukjes voor, maarja, die zijn weer architectuurspecifiek natuurlijk.
Multithreading veroorzaakt overigens zo veel problemen dat het jarenlang structureel door gamedevs is genegeerd.
Het is pas de afgelopen hardwaregeneratie dat multithreading echt een vereiste is geworden om de hardware efficient te benutten.

En wat dacht je van endianness?
Als je algoritme als een trein loopt op een big-endian cpu kan dat op een little-endian systeem enorm traag gaan.
En dus heb je een probleem als je van bv ps3 of 360 naar pc gaat porten.

Zaken als memory alignment en chache hits etc etc allemaal enorm belangrijk voor de performance.
Wil je cross-platform high end games maken dan zul je behoorlijk wat van je code aan moeten passen aan het specifieke karakter van de architectuur.
Dit proces afdoen als "je maakt het gewoon multithreaded en dan werkt het overal op" is echt niet van toepassing.
De wereld bestaat niet alleen maar uit Intel/Microsoft machines maar daar ga jij schijnbaar wel van uit.

Wat jij eigenljik zegt is "Als alle gamecomputers een windows PC waren dan waren games veeeel makkelijker te porten". :/

Het hele idee van een console IS juist dat de hardware over een generatie constant blijft waardoor je kan investeren in het tot op de bot optimizen van de engine en minder afhankelijk bent van de worstenbrei die op de PC de hardware aan elkaar plakt.
APIs zoals directx zijn eigenlijk bedacht als een verre van ideale (lees: trage) overbrugging van hardwareverschillen. Microsoft heeft het op de xbox dan wel goed geoptimized maar het is alsnog een beperking voor devs om het onderste uit de kan te halen.

Sony zal overigens nooit DX gebruiken omdat het Microsoft propietary is. Duh.
OpenGL is open source en dus kan sony dat porten.
Maar de laatste jaren zijn veel devs aan het schreeuwen om meer vrijheid en betere toegang tot de hardware op de pc. M.a.w afgeslankte APIs en drivers.

Een port is een port, ook al is de engine helemaal opnieuw gemaakt.
Er zijn vrij vaak (over meerdere decenia) ports uitgebracht die gebaseerd waren op compleet andere codebases en/of content.
Tegenwoordig is dat alleen niet meer zo handig omdat productiekosten de pan uit zijn gerezen.
Developers proberen dus tijd en geld te winnen door hun code zo portable mogelijk te houden en op zo veel mogelijk platformen uit te brengen.
Maar of dat de games ten goede komt? Ik merk in ieder geval van niet. Alle grote cross-platform games van de afgelopen 2 jaar vielen enorm tegen op de pc en juist omdat ze lauwtjes geport waren.
Dan heb ik liever dat games wat meer platformspecifiek zijn.
Porten van een game heet niet voor niets ports, het is niet zomaar een hercompilatie. Je zit altijd met aspecten van tweaking of speciale code. Maar dat is nog wat anders dan dat je hele game engine opnieuw moet schrijven omdat de target platform een volstrekt afwijkende structuur heeft. De trend is nu wel degelijk om game engines multi threaded te maken. Zie de oorspronkelijke link. Battlefiled 3 is bv een game wat er veel gebruik van maakt. Of de fysische toolkit Havok physics.

TBB is slechts een voorbeeld van een parallelle library. Er zijn er meerdere (e.g cilk, ppl). TBB is overigens gewoon in c++ geschreven dat zou ook werken op andere platforms.

Thread scheduling wordt altijd door os gedaan. Je bent altijd overgeleverd aan het os, zelfs al ben je single threaded. In theorie kan je thread nooit aan de beurt komen. Op elke systeem zal je rekening moeten houden met synchronisatie.

Big en little endian heeft er helemaal niks mee te maken. Dat is byte representatie van je integers en floats. Normaal gesproken wordt dat door je compiler opgelost als je portable c/c++ schrijft. De tijd dat je games in assembler schijft ligt allang achter ons.

En dan komen we weer terug op het oorspronkelijke topic. Als de hardware (en bij voorkeur ook de software omgeving) van consoles zoveel mogelijk op elkaar lijkt, dan maakt dat porten een veel commercieel aantrekkelijkere klus dan nu het geval is met de ps3, die met zijn cell processor architectuur weliswaar theoretisch een enorm rekenmonster was, maar praktisch programmeurs voor een verdomd lastige taak stelde.
Sony minder game titels? In mijn ogen brengt Sony altijd de beste exclusives uit, dit bedrijf heeft verreweg de meeste game studio's die games ontwikkelen van hoge kwaliteit. Microsoft leunt veel meer op de ondersteuning van third-party developers. Nintendo laat ik even buiten beschouwing aangezien zij met de Wii zich op een geheel andere doelgroep hebben gericht.
Volgens mij heeft de playstation in de loop der jaren heel wat ontwikkelaars overtuigd om voor hun games te maken meer dan microsoft en nintendo. Dit is de reden waarom de ps1 en ps2 zo succesvol zijn geworden. Alleen was de ps3 hier minder goed in door de cell processor. Maar er zijn toch heel wat exclusives voor de ps3 gemaakt, zeker als je kijkt naar de laatste 2 jaar: killzone 3, uncharted 3, the last of us, gran turismo 5, little big planet, infamous, resistance 3 en ga zo maar door. Je argument slaat eigenlijk op niks
Misschien komt het doordat cell destijds en nu nog best lastig was te programeren.(dus meer meer tijd/geld). Die fout willen ze uiterraard niet weer maken.
Ben benieuwd wat ze doen aangezien ze ook niet zo goed gaat met vita ook de aandeelhouders moeten overtuigen voor ze spreekwoordelijk "carte blanche" krijgen. Daarnaast oo k wat ze gaan doen tegenover nintendo wat geheid gaat gebeuren wii->sony kinect wiiu(tablet)-> ?
Sterker nog, tijdens de release van de 360 zat een videokaart die pas een 4 maanden later commercieel op de markt kwam als high-end.

Dit kwam omdat Microsoft heeft geholpen met de ontwikkeling (drivers gok ik).
De tijden veranderen ook. Een gaming-pc heeft nu niet meer de allerduurste of allernieuwste kaart nodig. Een gloednieuwe game kan prima gespeeld worden met een videokaart van anderhalf jaar oud, of op een nieuwe mid-range kaart, zolang het om een single monitor-setup gaat bij 1080p.
Dit is natuurlijk omdat het grootste gedeelte van de games multiplatform wordt ontwikkeld, waarbij de "assets" worden getekend/gemodelleerd op basis van de console versies (PS3/X360). Voor de PC versie kan je dan de resolutie wat verhogen en wat mooie defecten erbij voegen maar dat veranderd niets aan de "assets". Als er geld te verdienen was aan PC gaming zouden games gemaakt worden die het beste halen uit de laatste PC generatie en dan zal je een betere PC nodig hebben om deze games te kunnen draaien.
Heeft er wel iets mee te maken, maar ook exclusief voor de pc ontwikkelde games zien er alsnog fantastisch uit met een videokaart die iets ouder of iets minder high-end is. Als een console dezelfde hardware gebruikt kan deze vervolgens meer worden geoptimaliseerd, kan de hard-en software compleet op elkaar af worden gestemd. Dus kun je met een videokaart die je voor bijvoorbeeld 180-200 euro retailprijs voor je pc koopt, al een hele hoop doen in een console. En als Sony die kaartjes dan met 100.000 tegelijk koopt of laat maken, kan het best een goede combi van prijs en performance worden.

Het wordt afwachten hoe het in de praktijk zal gaan, maar naar mijn idee is het mogelijk om met redelijk geprijsde hardware toch een krachtige console neer te zetten.
Dat is niet helemaal waar.
Als je naar een game als Rage kijkt dan valt het op dat het erg hard gaat met geheugen als je meer graphics op het scherm wilt toveren.
Er is dus ook nog een limiet aan hoe gedetaileerd je een wereld kan maken.
Nieuwe gpu's kunnen gewoon meer truukje per seconde doen, maar moeten het hebben van data die beperkt is. Wil je echt 'next gen' zien dan moeten games honderden gigabytes groot worden.

We zitten eigenlijk in een overgang naar nieuwe rendertechnieken, maar die sluiten nog niet helemaal aan bij de verwachtingen van gebruikers.
Zodra we games real time kunnen ray-tracen oid dan kan er weer een zooi textureata worden bespaard.
Ray-tracen kan natuurlijk een heel mooi fotoralistisch resultaat leveren, maar kost wel behoorlijke hoeveelheid performance. Zeker als je je bedenkt dat zelfs die ray trace algorithmes benaderingen van de werkelijkheid zijn. Een werkelijkheid die je trouwens niet moet willen berekenen omdat ze heel veel rekenkracht kost en je er waarschijnlijk weinig of niet van zal merken. Ray-tracing kan trouwens ook gebeuren met een onnauwkeuriger algorithme, dat een slechter resultaat kan opleveren als andere rendertechnieken.

De nadruk in de huidige grafische kaarten ligt in het verwerken van shading en texture mapping. Vertex shaders doen hun uiterste best om de nog steeds grove 3D-modellen om te zetten in gladde, vloeiende oppervlakken. Na DX-10 hebben we ook nog geometry shaders, die nieuwe geometrie kunnen genereren, nog steeds, op basis van bestaande geometry. Met vlakke objecten is dit alles niet een groot probleem, maar bij objecten die cilindrisch zijn gaat dit wat moeilijker. Op de faces lijkt het nog wel wat, maar aan de cilinderranden is de de grofheid van het onderliggende 3D model moeilijker te verbloemen.

Kortom, je kan een kanon als een ray trace engine in stelling brengen, maar wat heeft dat voor zin als dat mooi reflecterende wijnglas in een computergame hakkelige randen heeft.

Mijn next gen 3d game? Laten we eens wegdraaien bij elkaar overlappende shading technieken, waarbij iedere pixel meerdere passes krijgt om vorm, licht en mapping informatie toe te voeren. Terug naar de core, meer gedetailleerde 3D modellen, die met slimme compressie technieken toch tot een computergame zijn te comprimeren. Dit draagt naar mijn mening meer bij tot een betere 3D beleving. Deze accentsverandering vermindert de GPU belasting waardoor next-gen meer bereikbaar wordt voor lichtere computersystemen. Met de huidige zware CPU's kan dan meteen een betere balans tussen CPU en GPU worden bereikt. Het heeft dan weer zin om een top level Intel te kopen. Nu is dat niet nodig.
Je hebt op zich wel gelijk alleen zijn er meer rendertechnieken dan alleen rasterizen en ray-tracen.
Er is veel hybride zooi en er zijn compleet andere manieren van GI. Er is gewoon heel veel mogelijk als je de standaard rasterizing pipeline loslaat.
En dan zie je dat je bijvoorbeeld niet per-se vastzit aan zaken als polygonen waardoor je wel ronde dingen kunt renderen.

Accentverandering naar CPU is leuk maar je mist dan een hele zooi performance die je van de shaders zou kunnen krijgen.
Werkt dus alleen als je jezelf wilt beperken tot minder krachtige systemen.
De echte grafische rekenkracht zit in de gpu en die wordt op dit moment ernstig beperkt door de huidige apis.
Dit gaat op consoles dan ook een stuk makkelijker dan op de PC.
Je kunt dan veel beter de workload voor cpu en gpu balancen omdat je veel meer controle hebt over de dataflow.

En dan ben ik het wel met je eens dat o.a. procedureel gegenereerde zooi een verbetering is. Alleen moet je dat wel grotendeels op de shaders gaan genereren omdat de weg van RAM naar VRAM inclusief de juiste referenties een hel schijnt te zijn (als ik Carmack mag geloven).
Met je kwalificatie "hybride zooi' kan ik het wel eens zijn. Ik doe mijn best om de kennis op het vlak van grafische engines bij te houden, maar de terminologie-orgie is zo groot dat een babylonische spraakverwarring dreigt (vooral te danken aan AMD en Nvidia). Daarom iets aanmerken als "zooi" is nog niet zo gek ;) .

Back in the old days ('90's) was er nog een duidelijke scheiding tussen geometrie shaders (vertex shaders, later ook geometry shaders (DX10)) en pixel shaders. Toen was er ook nog een accentverschil tussen professionele 3d kaarten (geometrie) en game kaarten (oppervlakteafwerking). De huidige game kaarten zijn bijkans zo krachtig dat professionele applicaties geen uitdaging meer vormen. Hierdoor lijkt het belang van die scheiding te vervagen. Je hebt gelijk als er een keur aan hybride technieken is om bijvoorbeeld een laagdikte vacht of vloeistof te modelleren en van fysieke properties te voorzien. Ver voorbij een geometrische beschrijving.

Voor ik gisteren mijn reactie op jouw post stuurde heb ik zitten kauwen op die terminologiebrij. AMD onderstreept het belang van een grotere tessellation capaciteit. Waar ik mijn vinger alleen niet achter kan krijgen is of de huidige AMD rekeneenheden (stream processors) al zo flexibel zijn te programmeren dat ze vertex/geometry danwel pixel operaties kunnen uitvoeren. Anandtech diept de AMD architecture op dit vlak uit. Lezen is een ding, interpreteren een tweede.
GCN at its core is the basis of a GPU that performs well at both graphical and computing tasks. AMD has stretched their traditional VLIW architecture as far as they reasonably can for computing purposes, and as more developers get on board for GPU computing a clean break is needed in order to build a better performing GPU to meet their needs. This is in essence AMD’s Fermi: a new architecture and a radical overhaul to make a GPU that is as monstrous at computing as it is at graphics. And this is the story of the architecture that AMD will be building to make it happen.
Het bovenstaande neig ik te lezen als dat met GCN AMD inderdaad de CPU verder naar de zijlijn drukt, en dus ook het interpreteren/calculeren van 3d omgevingen als activiteit meer en meer naar de GPU toeschrijft. Als de rol van de rekeneenheden inderdaad uitwisselbaar zou zijn, dan zou dit heel goed nieuws zijn. Dit maakt het RAM/VRAM gedoe minder relevant, de CPU-GPU communicatie neemt in volume af. De invloed van de PC modulariteit (genoemd in de thread) neemt ook verder af.

Met de introductie van de APU's is trouwens het PC platform al hard richting console platform aan het groeien. De aanleiding van dit item verbaast me dan ook helemaal niet. Toch hoop ik ook op flexibele rekeneenheden. De 3d werelden worden groter en complexer en overstijgen in omvang ruimschoots die van professionele applicaties, zelfs als je nauwkeurigheidsniveaus buiten beschouwing laat.
Ja maar let wel dit is een beetje het kip ei verhaal. De nieuwste games worden tegenwoordig ook geremd omdat deze ook op de console gedraait moet worden en veel uitgevers simpelweg de console versie porten naar de pc.
En vergeet niet dat we over een jaar of 3/4 over gaan op 4k schermen en ze willen de consoles wel een beetje futureproof maken. De ontwikkelkosten liggen tegenwoordig zo hoog dat ze niet meer om de 3 jaar een nieuwe console in de schappen leggen. Dus ze zullen toch echt een videokaart met minimaal 2gb werkgeheugen nodig hebben en komen ze toch al snel uit op mid-high end kaarten.(of custom builds)
Het artikel vermeld overigens geen losse gpu die ik wel verwacht eigenlijk.

Sorry maar wat is er offtopic aan mijn post ? Word weer eens raar gemod hier : /

[Reactie gewijzigd door Decipher666 op 3 november 2012 12:24]

4K hoef je bij de nieuwe consoles niet te verwachten lijkt me. Future-proof zijn consoles nog nooit geweest: Ze bieden ongeveer de kracht van een pc tijdens de release, en proberen daar dan 4-8 jaar het beste uit te halen. Dat lukt heel aardig als je kijkt naar The Last of Us, God of War 3, enz. De graphics blijven niet helemaal bij de tijd maar blijven wel heel erg acceptabel naar mijn smaak, aangevuld door alle andere factoren die een console en een game goed maken (hardware en graphics zijn uiteraard maar een deel van het verhaal).
Ik verwacht 4k ook nog niet zo snel. Ik ga er vanuti dat deze gen meer om de 120hz/3d op 1080p gaat worden.

Zodat er meer grafische geweld en gimmicks op het scherm te zien zijn. En in latere fase ook weer kunnen inleveren voor 60hz en bijv* nog meer geweld op het scherm. Zoals je nu al ziet bij games.

Ik vind de huidige graphics op de consoles ook nog wel gaan. Als je kijkt de verschillen van de aantal polygons in de afgelopen jaren is toegevoegd in games.

[Reactie gewijzigd door luqa1337 op 2 november 2012 16:21]

4K zal echt niet over een paar jaar in de gemiddelde huiskamer staan hoor. Misschien over 15 jaar. Het is afhankelijk hoe de techniek aanslaat of het uberhaupt de moeite is om het te ondersteunen tot die tijd.
5 jaar terug deed ik mijn beeldbuis de deur uit, en had ik een 32"1366x768 TV.
Ik denk dat over 5 jaar 4K wel standaard is, er al iets nieuws op de markt is voor early adopters.
Over 15 jaar hebben we iets in de woonkamer dat we ons vandaag de dag nog niet eens kunnen voorstellen.
Hoelang heeft het geduurd voordat Full HD standaard was...erg lang... sterker nog... het is vandaag de dag nog steeds geen standaard.

Over 5 jaar is 4k echt geen standaard, over 5 jaar hebben mensen nog steeds gewoon een Full HD tv thuis staan.. en misschien een enkeling heeft een 4K tv
En tien jaar geleden waren er al genoeg betaalbare flatscreens in de winkels te koop, en de early adopters hadden ze al meer dan 5 jaar staan.

Er zijn genoeg gezinnen die nog gewoon een goede CRT van een goede kwaliteit hebben staan die pas vervangen word als die kapotgaat.
De gpu's van de pc worden ook steeds efficiënter! Dus ik verwacht dat pc's betere prestaties neer zullen zetten dan de nieuwe console's! Als het zo ver is!
Nope, wrong. De chip in de X360 is gebaseerd op de Radeon X1800 (R520), de RSX in de PS3 is gebaseerd op de Geforce 7800 (die op zijn beurt "gedowntuned" is naar een versie met o.a minder memorybandwith, wat het uiteindelijk in feite een 7600 maakte)

dus niet de high(est) end graka's :)

[Reactie gewijzigd door Tokkes op 4 november 2012 22:06]

Dan ga je teleurgesteld worden, zie mijn verhaal hier onder. De vorige generatie had namelijk op hardware vlak GEEN (of nauwelijks) achterstand op de PC, deze wel.
Het voordeel is wel dat het dit keer tenminste niet zo'n ingewikkeld platform is dat het jaren duurt voordat ontwikkelaars maar een beetje in de buurt komen van wat de hardware eigenlijk kan.
De duurste pc-hardware is nu ook overkill voor een enkele monitor van 1080p. Daarvoor heb je met een mid-high-end kaartje genoeg voor een paar jaar. Door zo'n kaartje in een console te steken en de hele hard- en software als één pakket goed te optimaliseren, kan de kwaliteit van de mooiste pc-games alsnog worden bereikt of benaderd naar mijn inschatting.

Maar misschien is er inderdaad wel vanaf het begin alweer een beetje achterstand op de pc. Zou jammer zijn, maar als je kijkt hoeveel plezier je zelfs nu nog kunt hebben met een 7 jaar oude PS3, moet je het ook weer relativeren. Er zijn een hoop meer factoren dan hardware alleen. Maar alsnog: Ik hoop wel dat ze de Crysis 3 kwaliteit kunnen benaderen voor een redelijke prijs (ben best bereid 500 euro neer te tellen als de launch games goed zijn trouwens).
"de duurste hardware is ook overkill voor 1080p"

Euh. Heb je wel eens in 3d gegamed? Ik game al ruim een jaar in 3d en kan je vertellen dat een i7@4ghz en een 7970 echt geen overkill is met gamen in 3d op 1080p. Het zal natuurlijk aan de hardware implementatie liggen, maar als de ps4 volledig 3d gaat ondersteunen denk ik dat er nog wel wat performance bij mag.
Ik zou je willen wijzen op de Wii. Sure, das Nintendo, en geen Sony of Microsoft, maar voor MS en Sony was Nintendo één van de top console makers. Dus altijd topnotch graphics is gewoon niet waar. Ik verwacht het eerlijk gezegd ook niet, maar er zijn gekkere dingen gebeurt in het verleden in de console markt...
Nintendo heeft een andere doelgroep voor de bulk van zijn afzet; Aziaten en spelletjes voor de hele familie.

Als tegenpool heeft de op de amerikaanse en europese markt gericht xbox360 heeft daar bijvoorbeeld amper een marktaandeel.
Bij de release van de PS2 en zeker bij de release van de PS3 was de GPU op dat moment al absoluut niet meer top notch hoor.

De RSX in de PS3 is gebaseerd op de NV47 (Gefore 7800), maar dan met minder geheugenbandbreedte en minder ROP's en een lagere kloksnelheid. Echter, in dezelfde maand als dat de PS3 uitkwam, introduceerde nVidia ook de 8000 serie, die een stuk sneller was een een nieuwe features had, zoals unified shaders.
Op het moment dat de PS3 uitkwamt was de GPU dus al anderhalve generatie oud! (en het was niet eens een high-end GPU van anderhalve generatie geleden)

Voor de PS2 is de vergelijking wat lastiger te maken, maar die was ook absoluut niet vergelijkbaar aan de absolute high-end van dat moment.


De reden waarom console spellen bij de introductie van een nieuwe console vaak mooier zijn als PC spellen zit hem vooral in twee punten:
• Je hebt dedicated hardware zonder een hoop overhead voor OS, IRQ's vanuit andere taken/hw die niets met je games te maken hebben, legacy, etc.
• Spellen worden specifiek voor een bepaalde hardware configuratie gemaakt, ipv dat ze op talloze PC configuraties (inclusief die van een aantal jaar geleden) moeten kunnen draaien.

@finraziel - De 7900 (geoptimaliseerde, die shrink, meer shaders en hogere kloksnelheid versie van de 7800) zat er nog tussen. Een 7900GS was sneller dan een 7800GT, laat staan de GT, GTO en GTX versies van de 7900.

[Reactie gewijzigd door knirfie244 op 2 november 2012 16:57]

Vergeet niet dat aanvullende optimalisatie nodig is; de ps3 is er in 12[!!] verschillende uitvoeringen. http://en.wikipedia.org/wiki/PlayStation_3
Er zijn verschillende uitvoeringen van de PS3, maar de hardware configuratie blijft voor de relevante onderdelen gelijk. Alle uitvoeringen hebben dezelfde CPU, dezelfde hoeveelheid geheugen, dezelfde GPU, enz.

Een PS3 spel draait op alle uitvoeringen van de PS3 zonder dat optimalisatie nodig is voor een bepaalde uitvoering.

[Reactie gewijzigd door ari3 op 3 november 2012 23:23]

Toch is het verschil nu wel wat groter. De GPU in de A10-5800K is gebaseerd op de HD6000 en de HD7000 serie als ik me niet vergis en dan toch behoorlijk low-end. De prestaties van bijvoorbeeld een HD7770 worden niet gehaald. En dan hebben we het over NU, laat staan de situatie in 2014.
In 2014 zijn we aanbeland bij de HD9000 serie en de Geforce GTX 800 serie. Het verschil in pure rekenkracht zal dan immens zijn, maar zal zoals je zelf ook al aangeeft gedeeltelijk opgeheven worden door grotere efficientie. Het zal in ieder geval sowieso weer een grote stap vooruit zijn tov de PS3 en de Xbox360.
Waarom zou het verschil in rekenkracht immens zijn? Is er een hele nieuwe techniek die alles weer een bak sneller maakt dan?
Hoe kom je aan 1,5 generatie? Ik zou dat toch gewoon 1 generatie noemen, vooral als je dan ook nog gaat zeggen dat het geen high-end van die generatie was). Bovendien als je heel pietluttig gaat doen was het gewoon de huidige generatie op het moment dat de PS3 uit kwam, de 8 serie kwam een paar weken later, dat klinkt toch al heel anders.
Bovendien, als we dan de paralel naar nu doortrekken, ik heb een midrange kaart van de vorige generatie, een 560Ti. Geloof me, die veegt genadeloos de vloer aan met een A10. Mijn kaart daarvoor, een 5770, een midrange kaart van alweer 2 generaties oud veegt ook nog steeds de vloer aan met een A10 en dan duurt het dus nog minstens een jaar voor dit ding uit moet komen.
Nee, het beste argument dat ik tot nu toe gehoord heb is dat hardware in een devkit verre van definitief is en het dus nog veel beter kan worden, maar het moet wel echt VEEL beter worden wil ik het ook maar enigszins met jullie eens worden.
Dat optimaliseren is ondertussen ook een waardeloos excuus geworden hoor.
Door dingen als DirectX en de HAL zitten er niet zo extreem veel meer verschillen tussen een PC en een console.

Door die verdomde consolemarkt zitten we nu op het PC-front met een hoop misbaksels. True, er zitten soms nog pareltjes tussen (Dishonored is bv zeer vermakelijk EN goed op PC, zeker voor een x-platform game), maar bv BF3 is zwaar teruggehouden door PC's, de CoD-reeks trekt op geen hol meer, andere games zitten dan met bugs, controls die niet zijn aangepast voor tobo+muis, slechte graphics omdat het teveel kost ze te updaten voor PC, limitaties aan de features van een game omdat ze niet op de console-versie pasten, ....

Al bij al zijn die consoles de doodsteek geweest voor goeie games hoor...
Keer op keer is bewezen dat bij de eerste aankondiging van een nieuwe console de graphics op dat moment top-notch zijn

En dan alleen als je niet te hard kijkt en je je niet afvraagt waarom de levels toch zo klein zijn.

Er is een simpele reden voor, als Intel/AMD/Nvidia super snelle hardware kunnen ontwikkelen voor een console, dan zullen dit ook beschikbaar maken voor de PC. Een high-end PC gebruikte de laatste tech die beschikbaar is, voor een hoge prijs. Een console zelfs tijdens release is een budget PC, een budget PC waar je scherp voor kan inkopen maar dan heb je nog steeds slechts een midden PC op zijn best.

En zelfs budget PC's hadden 6 jaar terug meer dan 512mb geheugen.
Maar op een PS3 zien spellen er mooier uit dan op een budget PC. Als ik nu een PC samenstel voor 229 euro, mag ik blij zijn als er überhaupt een losse videokaart in zit. Als ik ten tijde van de launch van de PS3 een PC zou samenstellen voor 500 euro, had ik nog steeds maar een mid-range PC die spellen niet op de hoogste instellingen kon draaien.

Dus ondanks de "matige" hardware, doet een PS3 qua graphics nooit onder voor PC's in dezelfde prijsklasse. PC's kunnen uiteindelijk mooiere graphics tevoorschijn toveren, maar wel tegen een hogere prijs.
Vergeet ook even niet dat de PS3 bij eerste launch een prijs had van over de 500 dollar (of zelfs 600). En dat er sprake was (blijft altijd gokken) dat hij tegen verlies op de markt werd gezet.

Maar je hebt wel gelijk: Ongeacht wat nu de standaard is in PC land, console bouwers moeten rekening houden met:

- Aanschaf prijs. Als hij duurder is dan 300,- op de markt gaat hij niet storm lopen
- Behuizing: Het moet een kleinere behuizing zijn dan de meeste standaard PCs. Met mini-ITX kan een PC heel veel, maar blijf rekening houden met punt #1
- Stroom /koeling: Ding mag niet teveel herrie maken, en als hij 200 watt gebruikt onder belasting (games) is dat veel.

Als je hiermee rekening houdt, was het al een wonder als er een GPU in zou zitten die vergelijkbaar is met 150,- euro kostende grafische kaarten op dit moment. Ik denk dat een (customized) A10 helemaal geen gekke keuze is. Single chip, makkelijker te koelen en stroom is binnen te limits te houden. Vergeet niet dat ze een eigen 'mainboard' en behuizing er omheen moeten ontwerpen en testen.

Ontwikkelaars hebben al vaker gezegd dat het RAM de meest beperkende factor is van de huidige generatie. Dat en de snelheid om (al streamende) assets in de kunnen laden van de optische drives, maar daar zal niet al te snel iets in veranderen ben ik bang.

Dus als je een (integrated) GPU hebt die net zo goed is - zo niet beter - dan de huidige generatie, maar met bakken meer RAM ga je al een stuk vooruit.

Vergeet ook niet wat er allemaal customized is aan die chips. Je hoort mensen praten dat de GPU van de xbox lijkt op een X2900, andere weer op een X1900. Dat komt omdat hij er tussen in zat. Hij gebruikte het design (en unified shaders en zo) van de X2900 / 8800GTX, maar qua hoeveelheid shaders en bandbreedte is het meer een X1900. Dan is er nog het stukje edram voor 'gratis' MSAA en andere toepassingen.

De maker van Trials bijvoorbeeld had iets leuks. Hij duwde z'n shadowmaps in het EDRAM, om vervolgens er gratis 2x of 4x MSAA op te krijgen. Vervolgens trekt hij het terug en krijg je mooie rounded shadows zonder al te grote harde randjes. Zo'n truukje kan gewoon niet op het PC platform omdat we daar niet zoiets hebben als EDRAM wat de snelheid heeft van een L2-cache geloof ik :)
Ik heb ergens eens iets gelezen dat de werkelijke kosten bij de launch 900 dollar waren van de ps3!
Keer op keer draait de console ook op een lagere resolutie en kan zich, juist daardoor niet meten met een high-end game pc. Die draait nog altijd met meer detail.
Als de code geoptimaliseerd is voor deze CPU/GPU dan wil ik daar zeker High End @ 1080p op gamen. Het probleem is met desktop games dat ze compatible moeten zijn met alle hardware die er op de markt is en daarom is het niet mogelijk om de games 100% te optimaliseren . Kijk maar naar Android games, sommige spellen die alleen gemaakt zijn voor b.v. de Tegra3 hebben geweldige 3D graphics en gebruiken een GPU die nog lang niet vergelijkbaar is met een oude Mid-range desktop videokaart.

Wat wil je trouwens nog meer dan Full HD gamen op de hoogste resolutie en 3D? Ultra HD is nog lang niet Mainstream en echte verbeteringen zijn nu toch niet in gamingland.

Verder wil Sony waarschijnlijk vermeiden dat ze weer 500 euro verlies draaien op een verkochte console. Met een beetje fatsoenlijke hardware kun je tegenwoordig al vrijwel alles wat je kan bedenken op het gebied van gamen.

[Reactie gewijzigd door ObAt op 2 november 2012 10:40]

De PS3 en 360 hadden allebei het equivalent van een highend grafische kaart op het moment dat ze uitkwamen. De 360 heeft een GPU vergelijkbaar met de X1800 van Ati, de PS3 een GPU vergelijkbaar (iets minder) met een 7800 van NVidia. Dat waren voor de PC de topkaarten op het moment dat die consoles uitkwamen! De A10 is nu op dit moment, lang voor de lancering van de PS4, al een teleurstellend verhaal. Hoe je het ook wendt of keert, dit is echt geen krachtige hardware.
Wat betreft wat wil je meer? Het is echt niet zo dat de resolutie het enige is dat bepaalt hoeveel power je nodig hebt. Het gaat er gewoon toch weer op neer komen dat de grafische capaciteiten van de console verbleken bij de PC door allerlei effecten die die chip niet aan kan.
Overigens lag dit wel al een beetje in de lijn der verwachting. De console bouwers concureren toch vooral tegen elkaar en het hangt al een tijd in de lucht dat ze niet heel hard op hardware gaan concureren. De meeste mensen die een console kopen gaan niet een PC kopen omdat die betere graphics aflevert, dus waarom zou je weer beginnen met verlies maken op de hardware? Bovendien hebben ze zo lang gewacht met nieuwe consoles dat zelfs deze teleurstellende hardware de oude generatie er echt wel flink van langs kan geven.
Ik ben wel blij dat ze er blijkbaar een flinke sloot geheugen in gooien want dat betekent dat bv levels een stuk complexer en groter kunnen worden. Bovendien is dat de beperkende factor in je gamedesign wat ook PC gamers treft. Die graphics kun je makkelijker op de PC beter maken, maar je gaat geen andere levels voor de PC ontwerpen.

edit @Blokker_1999: Daar heb je zeker een goed punt. Dat verandert echter weinig aan de posts waar ik op reageer die zeggen dat een A10 wel voldoende zou zijn.

@.oisyn: Zeker, dat is waar, maar dat verandert niks aan het feit dat de hardware die nu in die devkit zit relatief gezien minder krachtig is tov huidige PC hardware dan dat de hardware van de PS3 en 360 waren tov de PC van toen. Je zult er ook best leuke dingen mee kunnen doen, maar een PC verslaan?

@Cergorach: Als AMD een APU zou kunnen produceren waarvan de GPU kan concureren met zeg, midrange videokaarten, dan deden ze dat ook voor de PC wel.

@Knirfie244: Dat klopt voor de PS3, maar de A10 is ook niet vergelijkbaar met de videokaarten van een jaar geleden of zelfs nog een stuk langer terug. Een 5770 of zo bv blaast dat ding nog steeds om ver.

[Reactie gewijzigd door finraziel op 2 november 2012 12:19]

Dit is dan ook een voorlopige devkit en is helemaal niet representatief voor de uiteindelijke versie. Het is zeer eenvoudig om hier kritiek op te geven terwijl we helemaal niets weten van wat Sony in de toekomst gaat doen. In het artikel staat zelfs dat men niet weet of het een stock A10 is, danwel of er wijzigingen op zijn aangebracht.

En als we dan toch even terug in het verleden gaan. Toen MS zijn 360 toonde op de E3 conferentie gebeurde dit met iMac systemen (iedereen oud genoeg herinnerd zich die fotos nog wel). Waaren die devkits op het niveau van de uiteindelijke console? Neen, dat waren ze niet. De demos die men toen toonde vertoonden frameratedrops en hadden AA uitgeschakeld terwijl de uiteindelijke console continue draait met 4xAA .

Het is dus simpelweg veel te vroeg om conclusies te trekken.
Meestal gaan ze met die devkits niet teveel afwijken omdat ontwikkelaars anders hun hele programmatuur moeten omgooien en dat wil je natuurlijk niet. Tuurlijk zal ie wel afwijken, maar ik ga er niet vanuit dat er dan ineens een cpu met meer ghz in zit of meer geheugen.
De A10 is nu op dit moment, lang voor de lancering van de PS4, al een teleurstellend verhaal. Hoe je het ook wendt of keert, dit is echt geen krachtige hardware.
Wat nogal eens vergeten wordt is hoe de hardware met elkaar geïntegreerd wordt. Men kijkt alleen naar de specs van de GPU en CPU en daaruit worden vervolgens conclusies getrokken, terwijl je puur aan de hand van die gegevens helemaal geen eerlijke vergelijking met de PC kunt maken.

De PC is een modulair platform, en daarvan betaal je de prijs in zowel hardware- als software-overhead. Een console is een dedicated stuk hardware waarbij de software direct de hardware aanspreekt (minder abstractie, dus minder overhead), en waarbij de lijntjes tussen CPU, GPU en geheugen ook een heel stuk kleiner zijn en deze componenten veel sneller met elkaar kunnen communiceren dan op de PC mogelijk is. Zo zit de memory controller en L2 cache op de 360 bijvoorbeeld bij de GPU. Dit betekent dat de CPU supersnel bepaalde data naar de GPU kan sturen door het gewoon in de L2 cache te zetten - het hoeft niet eens eerst naar het relatief veel tragere main mem. Maar alleen al puur het feit dat zowel CPU als GPU hetzelfde geheugen gebruiken maakt al dat je veel efficienter kunt werken, omdat je niets steeds data heen en weer hoeft te kopiëren om iets snel te kunnen processen.

En om een praktijkvoorbeeld te geven, op de 360 is het niet vreemd om tienduizenden commando's naar de GPU te sturen per frame. De PC heeft het met een paar duizend echter al moeilijk. Laat staan als je van een paar commando's ook nog eens data terug wil hebben. En dat komt echt niet door de GPU zelf, maar door alles eromheen (API abstractie, user<->kernel transitions, etc.). Het is niet voor niets dat mensen als Carmack pleiten voor een meer directere benadering van de hardware op PC.
I don't worry about the GPU hardware at all. I worry about the drivers a lot because there is a huge difference between what the hardware can do and what we can actually get out of it if we have to control it at a fine grain level. That's really been driven home by this past project by working at a very low level of the hardware on consoles and comparing that to these PCs that are true orders of magnitude more powerful than the PS3 or something, but struggle in many cases to keep up the same minimum latency. They have tons of bandwidth, they can render at many more multi-samples, multiple megapixels per screen, but to be able to go through the cycle and get feedback... “fence here, update this here, and draw them there...” it struggles to get that done in 16ms, and that is frustrating.
Het verhaal is dus veel en veel uitgebreider dan alleen "CPU x en GPU y, dus dan is ie zo snel"

[Reactie gewijzigd door .oisyn op 2 november 2012 11:23]

Het is een afgeleide van de A10. Een GT610 zit in dezelfde familie als de GTX690 en tussen die twee zit een enorm verschil. Je kan niet op basis van de geleverde informatie enige conclusies trekken over de grafische performance van de PS4.
De 7800, laat staan de uitgeklede versie die in de PS3 zat, was absoluut niet meer het beste wat er was toen de PS3 uitkwam. Ondertussen was de 7900 serie al voorbij gekomen en in dezelfde maand als dat de PS uitkwam, kwam ook de 8800 serie uit.

Voor de 360 is het een iets ander verhaal.
Op het gebied van shaders, architectuur, etc, was de GPU zeer vernieuwend. Hij had unified shaders, kon het nodige wat de destijds beschikbare kaarten nog niet konden en had ook mooie features die zelfs nooit geïntroduceerd zijn voor de desktop zoals 10MB eDRAM en een aparte processor voor Z-Stencil en Anti Aliassing. Echter qua raw performance moest hij op dat moment al z'n meerdere erkennen t.o.v. de snelste desktop kaarten.


Als deze geruchten overigens waar zijn, dan zal de PS4 niet veel sneller zijn als de WiiU. Als die al niet langzamer is. Misschien krijgt de PS4 wel een A10 + kleine discrete GPU (crossfire).

[Reactie gewijzigd door knirfie244 op 2 november 2012 16:53]

Klopt zeker, maar je moet niet vergeten en pc moet een stuk krachtiger zijn dan een lullige ps4, de pc heeft heel wat op de achtergrond lopen kwa programa's in het algemeen de ps4 schakeld om naar alleen de game en benodigde aansturing
de pc heeft heel wat op de achtergrond lopen kwa programa's
Daarom vind ik het persoonlijk ook nog steeds vreemd dat niemand (Valve of zo) de taak op zich heeft genomen om een dedicated game OS te bouwen ... en dan niet perse op basis van de Linux kernel, want ik kan me voorstellen dat deze niet echt super optimaal is voor games.
Omdat het probleem niet persee bij het OS ligt, maar aan het feit dat er zoveel PC configuraties zijn en dat de drivers nog steeds van de hardware fabrikanten moeten afkomen.

Een dedicated gaming OS zal pas echt nut hebben als er ook dedicated hardware bij gepaard gaat. En voila: Je krijgt een game console zoals de PS4 of de XBOX 360+1
Windows dan dus? Dan krijg gewoon een gestripte Windows versie. Dan kan je zelf nu ook doen (met Nlite ofzo), maar niemand doet het omdat het denk ik niet veel zal schelen...

[Reactie gewijzigd door AiChan op 2 november 2012 10:48]

Nee dat kan je niet, en zeker niet met NLite. Wat bedoeld wordt is effectief een groot deel van de functionaliteit weglaten die als Game-Os niet nodig is, en puur code schrijven die toelaat te gamen en weinig meer, opdat je al je hardware daarop kan focussen. Wat je met NLite kan doen is kiezen of je een paar updates en bijgeleverde programma's wel of niet mee installeert, hoe onbenullig is dat, dat maakt helemaal niets uit. Wij spreken over de kern van het os en elementaire code en logica achter de structuur van je os. Daar geeft Ms je helemaal geen toegang toe.
kuch ... xbox ... kuch ...
Ja, want de Xbox draait op Windows wil je zeggen? Kuch, Kuch?
het zal waarschijnlijk helemaal niets schelen zelfs
De Linux kernel is net wel een super kernel voor games.

http://blogs.valvesoftware.com/linux/faster-zombies/

After this work, Left 4 Dead 2 is running at 315 FPS on Linux. That the Linux version runs faster than the Windows version (270.6) seems a little counter-intuitive, given the greater amount of time we have spent on the Windows version. However, it does speak to the underlying efficiency of the kernel and OpenGL.

De efficientie van de Linux kernel maakt hem uitermate geschikt voor gaming. Er zijn ook meer en meer games ontwikkelaars die ook voor Linux beginnen te ontwikkelen, kijk maar naar de Kickstarter campaigns van Obsidian met Project Eternity, de Double Fine Adventure en Wasteland 2.

PC gaming is het enige dat mij momenteel aan Windows blijft binden als het op mijn desktop aankomt. Ik kan eigenlijk niet wachten om heel het Microsoft gedoe de deur uit te bonjouren.
Het zegt meer iets over de windows kernel... ik heb dit soort resultaten wel meer gezien dat software significant sneller draait onder linux. http://gwan.com/ is een web applicatie server dat oorspronkelijk voor windows was ontwikkeld. De maker heeft daarna een versie voor linux gemaakt en na enige tijd zelfs geheel met de windows versie gestopt omdat de linux versie zoveel sneller was.
Ik vind het wel opmerkelijk dat je durft het volgende te claimen
overhead bestaat alleen maar in het hoofd van console fanboys
als daarboven (.oysin) een nette onderbouwing staat - van een game developer nota bene - over het verschil van benadering tussen consoles en een pc.

BTW elke developer zal u kunnen zeggen dat die overhead reëel is. Trouwens de Linux kernel != Windows kernel. Laat staan dat consoles geen OS met kernel aan boord zouden hebben.

In het resources verhaal zal naar mijn gevoel een Windows of Linux PC er wel altijd een handicap op nahouden. Er is een groot verschil tussen een OS die een hele batterij van hardware moet ondersteunen en daar allerhande abstractie lagen voor nodig heeft, dan een OS met API die specifiek gericht is op 1 hardware platform. Je zit gewoon veel dichter op de hardware en het gevolg daarvan, lijkt mij de logica zelve.

[Reactie gewijzigd door simplicidad op 2 november 2012 12:36]

Ik denk dat je onderschat hoeveel er met geheugen truukjes wordt gewonnen op consoles, en het feit dat er continu data en textures naar de GPU gestuurd moet worden omdat het allemaal gescheiden is.

Nee, je gaat niet twee keer omhoog in framerate. Dat zou overdreven zijn.

Maar de hoeveelheid truukjes die er met shaders en textures mogelijk zijn wordt opeens 10x zo groot, en ze weten daar echt wel leuke dingen mee te doen.

Op de consoles zeg je: Dit moet een texture gebruiken, en die staat op adres 0xblablabla in formaat nr#1. Done.
Op de PCs krijg je: Ik moet een texture gaan uploaden, dit is de data van formaat #1. Start. Dan krijg je later een even / callback dat er wordt gezegd 'texture is done uploading'. Als dat van al je textures binnen is (wat je dus ook weer moet gaan bijhouden en testen) kan je je draw commando's gaan sturen.

Dat zijn zo bergen aan clock-cycles die in je core rendering loop gewoon 'verdwijnen' op een console. En zo zijn er meer voorbeelden te verzinnen.

Maar 1080p voor alles (met dezelfde graphics kwaliteit als laten we zeggen een Uncharted2 / 3, of een Battlefield 3) lijkt me nog steeds best hoog gegrepen voor iets op een A10 design.
Maar 1080p voor alles (met dezelfde graphics kwaliteit als laten we zeggen een Uncharted2 / 3, of een Battlefield 3) lijkt me nog steeds best hoog gegrepen voor iets op een A10 design.
Als je ziet wat ze met die verouderder consoles voor elkaar krijgen, zou een A10 gebaseerde console echt veel betere graphics te voorschijn kunnen toveren als wat er nu op de PS3 en Xbox360 te zien is
Consoles zijn niet te vergelijken met het games op een Windows PC. Omdat Consoles puur gericht zijn op gamen zijn de games veel beter geoptimaliseerd voor de hardware, die dus minder krachtig hoeft te zijn. In de huidige generatie consoles zitten ook erg verouderde videokaarten (voor gaming pc termen tenminste), daar draaien alle games prima op :)

En het is natuurlijk ook zo dat de graphics op een console minder spectaculair zijn dan op een desktop pc.
De console hoeft minder krachtig te zijn, omdat ze vooral op een lagere resolutie mogen werken. Ga met je high-end desktop maar eens op 1024x768 gamen, dan vliegen de FPSjes je om de oren!
8xAA op een console? Dacht het niet, he!

[Reactie gewijzigd door Madrox op 3 november 2012 01:13]

Nou dat is een beetje te vroeg geoordeeld vind ik. De huidige PS3 kan ook al mooie beelden uitpoepen met een (inmiddels) zeer verouderd Nvidia GPUtje.
Daarnaast zie ik hier juist meer mogelijkheden in! Wie zegt dat er niet nog een GPU naast wordt geplaatst? Waarbij de geintegreerde GPU van de A10 alleen gebruikt wordt voor Physics en andere Massive parralel berekeningen. Of wat dacht je van een powersaving stand voor wanneer je in het hoofdmenu van het apparaat zit? Dan is het wellicht slim om over te stappen op de geintegreerde GPU in de A10 in plaats van de slurpende GPU.

Consoles staan er al jaren om bekend om veel betere graphics te tonen dan PC's (van hetzelfde prijsniveau) met zwakkere hardware.
De huidige PS3 kan mooie beelden uitpoepen op 720p op 30 fps. Leuk voor een TV maar op mijn 5 jaar oude monitor al niet om aan te zien.1680*1050 => twee keer zoveel pixels en op 60hz een twee keer zo hoge framerate.
Je eis van zelfde prijsniveau is een beetje flauw omdat het je maar net wel net niet lukt om überhaupt een PC te bouwen van dat geld. Dan kun je er bv al geen dedicated videokaart in stoppen. Leg er echter 100 euro bij voor een videokaart en de console is helemaal nergens meer.

edit: Dat prijsverschil heb je er trouwens met een handjevol games vervolgens alweer uit.

[Reactie gewijzigd door finraziel op 2 november 2012 14:59]

Ik denk dat ze nog wel een extra/vervangende GPU gaan toevoegen. Als ze het bij de onboard houden zal het denk ik niet eens zo'n grote vooruitgang zijn op de ps3. En in de bron staat ook dat ze eerder al eens een dev-kit hebben rondgestuurd die eigenlijk alleen een GPU was. Dat en de bewoording die ze gebruiken (PS4′s APU was described today as a “derivative” of existing A10 hardware. The hardware is “based on A10 system and base platform”.) doet mij vermoeden dat ze daar echt wel over nagedacht hebben.
Als ze het bij de onboard houden zal het denk ik niet eens zo'n grote vooruitgang zijn op de ps3
Onboard GPU wat in AMD A10 CPU's zit is echt vele male sneller wat er nu in de PS3 zit hoor

[Reactie gewijzigd door Sinester op 2 november 2012 16:03]

Een A10 is prima voor een volgende generatie consoles. Je moet er rekening mee houden er waarschijnlijk nog 1 of 2 revisie updates van de hardware komen voordat hij bij jou in de woonkamer staat.
Het grote verschil tussen deze processor in je eigen pc en in de console is de hoeveelheid toegang die een programmeur heeft.
Op een windows computer heb je te maken met inefficiente driver stack en nog loggere apparaat dat DirectX heet. Door deze twee zaken verlies je erg veel vermogen.
Op een console heb je hier geen "last" van. Programmeurs krijgen toegang tot alle registers en alle hardware. Hierdoor zijn hele grote optimalisaties mogelijk.
Je kan bijvoorbeeld wel commentaar vinden van Carmack en andere engine programmeurs dat ze het vaak hinderlijk vinden dat ze via DirectX moeten en niet direct de hardware kunnen aanspreken en daardoor niet het onderste uit de kan kunnen halen.
Dit is ook de grote reden dat het vaak dat games in het begin op een nieuwe console en minder goed uit zien dan een jaar later. Het kost namelijk ook veel tijd en ervaring om goed gebruik te maken van de hardware maar die moeite willen mensen wel nemen omdat ze weten dat de console nog een paar jaar op de markt is en niet na 6 maanden verdwijnt zoals sommige videokaarten.
Het is ook een van de kaarten wellicht. Voor 1 minder stroom gebruik (zero techniek) en 2 voor extra performance dus.
Er zal wel een 7770 naast komen te draaien. 256 gig vindt ik juist weer raar aangezien de games zo'n 20 gig each zijn tegenwoordig en zeker met oog op toekomst. En ik verwacht toch echt niet dat de games allemaal van een blueray afkomen. Dat zou pas teleurstellend zijn.
Ik zou wel betere hardware verwachten. Sony staat bekend om zijn koppelverkopen en zal het liefst gamen op 4K resoluties mogelijk willen maken zodat ze de verkoop van hun 4K-TV's kunnen boosten. Dan ook nog 3D op 4K-TV's. Ik ben benieuwd of ze dat gaan redden met een A10.
@ceesiebo1: Ik verwacht niet dat 4K resoluties vanaf het begin ondersteund zullen worden. Volgens diverse berichten zullen 4K televisies pas rond 2017 gemeengoed beginnen te worden, omdat deze voorlopig veel te duur zijn voor de gewone sterveling. Daarna zal het nog jaren duren tot een meerderheid van de mensen zo'n TV in huis heeft.

Mijn vermoeden is daarom ook dat de 4K resoluties pas op latere data d.m.v. een firmware-upgrade zullen worden toegevoegd of dat er zelfs gewacht gaat worden tot de Playstation 5 is uitgekomen.

Dat hele koppelverkoopverhaal neem ik niet zo serieus; mijn volgende TV zal geen Sony zijn. Ze maken namelijk geen plasma-televisies. Mijn Sony Bravia voldoet vooralsnog prima (heeft er ook al ruim 4 jaar opzitten) maar zal uiteindelijk naar de slaapkamer verhuizen.
Ik vind je comment een beetje teleurstellend. Me laptop heeft toevallig een A10 Apu met een HD7670G. Daarnaast zit er een HD7730M (2GB)in waarmee hij kan samenwerken crossfire. Ik speel rustig D3 en BF3 op me laptop dus wat jij zegt is natuurlijk een beetje voorbarig. Je hebt het niet zien presteren dus je kan ook niet oordelen.
@Macfreakje : Precies. Het blijft afwachten. Hoe soepel spellen zullen draaien komt er vooral op aan hoe efficiënt deze spellen geprogrammeerd zijn.

Mijn vermoeden is dat Sony de PCB van de PS4 zo ver klaar heeft en enkel de APU en externe GPU socket leeg heeft gelaten. Developers krijgen nu een devkit met een bepaalde AMD configuratie waarmee ze software kunnen schrijven.

Wie zegt dat deze APU-GPU configuratie ook daadwerkelijk in de PS4 terecht zal komen ? Het is aannemelijk dat Sony tegen het eind van de ontwikkelingsfase kijkt welke AMD APU en GPU er op dat moment het beste presteren (en qua pin-layout compatibel zijn-) en zal deze op het laatste moment op het PCB solderen.

Dat is het voordeel als je een processorarchitectuur gebruikt die minder exclusief is. Veel processoren zijn compatibel met elkaar. Daarom kun je op een PC moederbord ook verschillende types prikken.

Kijk maar naar het gebruikte socket dat AMD APU's gebruiken. Dit zijn allemaal F-sockets. De ene keer FM1, dan FM2 / FT / FS1.

Daar Sony de APU's waarschijnlijk vast zal solderen hoeft het enkel ervoor te zorgen dat de firmware de betreffende processor ondersteund.
Ik heb nergens gelezen dat er naast de A10 niet ook nog een losse GPU in de kast zit...
@E.Ross : Wat je nu leest zijn hoofdzakelijk geruchten. Ik bedoel; denk eens even logisch na : Denk je nou echt dat een next-gen console het 6 jaar gaat uitzingen met enkel de GPU die in de APU zit ? Natuurlijk niet.

Zoiets koopt toch niemand ? Indien Sony toch deze specificaties aanhoudt kan ik niet anders dan concluderen dat de volgende Playstation geen echte vervanger gaat worden voor de PS3, maar slechts een "tussenproduct" is.
Nou, dat denk ik dus niet. ;) Ten minste, niet als het echt om een standaard A10 gaat. Zelfs de 100 W versie is nog geen 2x zo krachtig als de RSX van de PS3, daar haal je het inderdaad niet mee.

Mijns inziens zijn er twee mogelijkheden:

- Ofwel is "gebaseerd op" een heel los begrip, en krijgt de PS4 een vrij forse APU die qua kracht de huidige APUs ruimschoots te boven gaat
- Ofwel wordt er een A10-achtige chip gebruikt in combinatie met een losse GPU.

Beide zijn wat mij betreft mogelijk - waarchijnlijk worden de nieuwe consoles wederom gelimiteerd door hun TDP, waardoor een losse GPU sowieso niet zo enorm krachtig kan zijn.

Het enige is dat er na deze DevKit blijkbaar nog een komt met andere hardware... Dan lijkt het mij niet logisch dat er nu al custom chips in zitten; het zou te veel kosten om een "vroegtijdige" versie uit te brengen, speciaal voor DevKits. Dus gaat het waarschijnlijk om een standaard A10 (kan de mobile versie zijn), dus zit er waarschijnlijk nog wel een losse GPU naast ook... Lijkt mij, ten minste.

Wat overigens wel interessant zou zijn. Zal Sony dan voor een soort crossfire setup gaan? Wat is daar het voordeel van? Een GPU voor GPGPU tweaken, en de ander voor graphics? Of heeft het met fabicage te maken?
@E.Ross : Het probleem met geruchten is dat er daardoor veel wordt gespeculeerd. Op Nu.nl wordt er al aangegeven dat de betreffende devkit maar liefst 16 GB werkgeheugen mee heeft gekregen.

Wat hier van waar is is ook maar de vraag.

Het voordeel van Crossfire is dat je de geïntegreerde GPU (die dus in de A10 zelf zit) kunt gebruiken om de interface te renderen en laagdrempelige grafische taken uit te voeren (zoals films kijken). Zodra je games gaat spelen wordt de losse GPU ingeschakeld waardoor de performance direct stukken hoger ligt. Je verspilt zo minder energie.
Ik denk dat mensen een PS4 gaan kopen. Niet een "console met een bepaalde CPU/GPU"

Of die console het 6 jaar gaat uitzingen hangt van de hoeveelheid en kwaliteit van de games af die tijdens de levensduur van de console ervoor worden ontwikkeld.

Puur op specs waren de Jaguar, Dreamcast, en 3DO anders marktleiders geweest.
De processor (in dit geval de APU) is minder belangrijk dan de GPU. Ik verwacht daarom ook dat de PS4 over 2 GPU's zal beschikken.

Ten eerste heb je de geïntegreerde GPU die in de A10 APU zit. Deze wordt dan geactiveerd voor minder intensieve taken, zoals het weergeven van de interface, het afspelen van video's en het renderen van overige 2D taken. Het voordeel is dat je op deze manier veel energie kunt besparen.

Zodra je spellen gaat spelen wordt er gebruik gemaakt van een externe (high-end) GPU. Dit zou dan via een soort van Crossfire-opstelling plaats kunnen vinden. AMD APU's staan er om bekend efficiënt te kunnen schakelen tussen 2 GPU's.

Mijn broer heeft een Toshiba laptop met AMD A8 APU en 2 GPU's. Het systeem schakelt probleemloos over tussen deze twee videokaarten, afhankelijk van wat er op dat moment nodig is.

Kortom; wacht de definitieve specificaties even rustig af. Ik ben in ieder geval blij dat er voor AMD is gekozen. RadeonHD kaarten zijn in mijn ogen nog steeds superieur (bang-for-buck) aan de concurrentie. Bovendien kun je je console zo ook een stuk goedkoper maken.

Een prijs van zo'n ¤ 350 zou wel te doen zijn. Veel duurder moet het niet worden in ieder geval.
Consoles zijn grafisch nooit echt sterk. Het voordeel dat consoles hebben is dat de spellen veel meer voor specifieke hardware geoptimaliseerd kan worden, in tegenstelling tot PC's waar je duizend en een mogelijke hardwarecombinaties hebt.
Maar gelukkig draait er niet zoveel meuk (op de achtergrond) mee op de consoles. waardoor deze altijd goed kunnen meekomen met de standaard van dat moment. vaak zitten ze er zelfs boven en duurt het ongeveer een half jaar voordat pc's op gelijke hoogte zijn (echte game-pc's daargelaten).
ik heb wel goede verwachtingen van de nieuwste consoles maar denk dat ze ook de laatste zijn en het hierna gewoon in de wolk gamen wordt.
Uhmmm ik weet niet hoor maar de huidige PS3 doet prima 1080p en die heeft een RSX chip vergelijkbaar met een Geforce 7800 GTX van jaren geleden. Dus je wilt niet weten wat voor een power zo'n 384 Shader GPU van AMD dan geeft in vergelijking met die 7800 GTX. Ik denk dat we het dan wel over een factor 6 sneller hebben.

Nu moet ik wel zeggen dat de RSX toen na genoeg het beste was wat er was. En nu krijgen de nieuwe next gen consoles mogelijk meer low/ Midrange GPU's en dat is wel zonde als je kijkt naar de levensduur. Als ze dan weer 7-9 jaar meer moeten is dat gewoon erg lang en had je liever een HD7870 achtige GPU (of GTX660) in deze consoles gezien.

Maar wie weet hoeven ze nu maar 5 jaar mee te gaan. En het kan ook nog dat AMD speciale versies voor Sony of Microsoft maakt waar een krachtigere GPU in zit dan in de A10. Maar dat dit puur is om te testen.

Het blijft een feit dat je met dezelfde hardware op een Console gewoon veel mooiere GFX hebt dan op een PC. Echter wordt een PC ieder jaar krachtiger en een Console maar eens in de 7-10 jaar.
Ik twijfel er geen moment aan dat de volgende generatie veel krachtiger gaat worden. De Unreal Engine 4 en de Luminous Engine van Square Enix zijn voor de volgende generatie consoles gemaakt. Als je de techdemo's daarvan ziet ga je toch echt wel kwijlen. Aangezien de meeste developers de grootste deel van hun inkomsten van consoles verdienen denk ik niet dat ze een engine gaan maken die op een lullige A10 gaat draaien. De PS4 krijgt daarnaast gewoon nog een discrete GPU. Waarschijnlijk gebaseerd op een HD 7XXX als ze toch met AMD in zee gaan.
Als de final specs van de PS4 hier op lijken dan is het revolutionaire, vooruistrevende van de (sony) consoles er met deze generatie wel vanaf. Vita en PS4 de laatste der Mohikanen?
Wat heeft iedereen toch altijd met die 4. De nieuwe Playstation zal NOOIT 4 worden genoemd. 4 is hét ongeluksgetal in Japan. Sony en Panasonic slaan het altijd over in productnummers!
The new Playstation dan maar.
Zolang Sony niet zelf met een naam komt blijft iedereen deze gewooon PS4 noemen. Net zoals de XBox 720.
Als de jappaners écht een probleem hebben met het getal 4, komen ze vast wel met een andere naam.

PS Vita heet toch ook Vita en niet PSP II.
Wanneer is de Playstation ooit revolutionair geweest? Het was iedere keer gewoon een kwestie van de laatste tech.
Ik denk dat jij de revolutie van de PSX niet (bewust) hebt meegemaakt, want dat was toch wel een heel bijzonder apparaat met een heel groot aantal instant classics waar nu nog steeds op wordt voortgeborduurd.

Het hangt er dus van af wat je een revolutie vindt, maar in die tijd succesvol Sega en Nintendo naar de kroon steken met games als Tekken, FF7, MGS en Gran Turismo, was een hele prestatie.
@Wolfos : Sony was hét bedrijf dat er voor gezorgd heeft dat het gebruik van optische schijfjes de standaard is geworden voor videogames. Daar zorgde de PS1 voor.

Ik weet wel dat de Sega Mega Drive eerder was, maar het is hun niet gelukt dit principe succesvol te maken.

De PS3 maakt gebruik van een nieuw soort drive; de Bluray-speler. Door deze uitvinding is BD-ROM hét medium geworden voor HD-films.

Het enige waar Sony wel eens wat aan mag doen zijn de controllers. Die zijn zo on-ergonomisch als de pest. Ik kan nooit lang spelen omdat mijn handen eigenlijk te groot zijn voor die controllers. Bij de PS2 had ik zo'n kekke controller van Logitech. Die was nét iets groter en had leder aan de handvatten. Daar kon ik uren lang Burnout mee spelen. Dat hoef ik vandaag de dag niet meer te proberen met de PS3.

http://i2.listal.com/imag...-button-playstation-2.jpg
Ik ben benieuwd.
Playstation is iets wat ik toch al gauw wilt hebben al zijn de Xbox games
meer mijn richting op.
hopelijk deze keer blijvende other OS support en ik koop hem, voornamelijk als desktop :-P.
ik verwacht dat ze dit keer de other OS achterwege laten.
ik verwacht ook dat 8GB Ram in de release versie van de PS4 lager is
Ik denk het ook, de huidige dev kit van de xbox 360 heeft inmiddels ook 2 maal zoveel geheugen als een normale xbox 360. Gewoon om het devven makkelijker te maken.

http://news.teamxbox.com/...he-RAM-of-Retail-Systems/
Zelfs als er een OtherOS versie zou komen voor de PS4 zal die naar verluid niet lekker gaan draaien. Want : Linux + AMD GPU = not good bedfellows.
Of de devkit een bluray-speler heeft, is niet duidelijk, maar de ontwikkelaars die VG24/7 sprak, waren er van overtuigd dat de PlayStation 4 wel uitgerust zal zijn met een optische speler.
Dat lijkt me vrij evident. Het lijkt me nog iets te vroeg om nu al volledig over te gaan op dowloadable games. Veel mensen hebben hun console niet eens aan het internet hangen. Ik denk dat ze er een stuk minder verkopen als deze mensen niet gewoon een schijfje in de winkel kunnen halen.
Dat niet alleen, Dat het in Nederland normaal is om minstend adsl zonder datalimiet te hebben betekent niet dat dat gebruikelijk is voor de rest van de wereld. Hier in Zuid-Afrika zijn limietloze abonnementen wel aan het opkomen, maar voor het gros van de gebruikers eenvoudigweg nog te duur of niet beschikbaar.

Daarnaast heeft Sony er ook nog baat bij meer Bluray disks verkocht te krijgen, dus die optische drive zal zich wel terugverdienen.
Met een gemiddelde ADSL verbinding hoef je niet aan te komen zetten. Om nou spellen van tientallen GB's te gaan zitten downloaden met 1,5 MB/sec ? Zelfs met de 7,5 MB/sec die ik op mijn 60Mbit Ziggo lijn haal zit ik daar niet op te wachten. Een schijfje heeft hier toch de voorkeur.
Blijkbaar heeft t.net niet zo goed de bron doorgelezen:
When asked if PS4 will have an optical drive, specifically Blu-ray, our source responded: “Of course it has.”
Men spreekt in het artikel enkel over de optische drive in de devkit, en ik denk eerlijk gezegd dat die geen Blu-ray drive zal hebben. Ook nergens voor nodig, devs pompen hun code via het netwerk of via usb op zo een kit :).
Dat de definitieve versie van de console het wel zal hebben lijkt me evident, veel landen zijn nog lang niet klaar voor download only games (zelfs met de goede internetsnelheden van België en Nederland heb ik geen zin om even 20+ gig aan gamedata binnen te trekken voor ik kan gaan gamen). Wie weet brengen ze een goedkopere versie zonder optische drive op de markt.
Ze gaan niet meer voor de Cell processor, veel devs gaan daar tevreden over zijn, veel gamers iets minder (backward compatibility). Ik ben erg benieuwd wat de volgende generatie zal brengen, al kijk ik meer uit naar de next gen Xbox dan de next gen PS.
Van beide consoles zijn de hardware geruchten zowat gelijk, dus volgens mij gaan de consoles zeer gewaagd zijn aan elkaar en zal het verschil vooral liggen in exclusives en andere speciale zaken die ze toevoegen (Kinect 2? PS-move cam ingebouwd? Wat software?). Dat maakt me ergens wel blij, dan gaat er bij fanboys toch al minder over de hardware geluld worden :).
In de devkits van zowel PS als Xbox zit 8GB ram, ik hoop om eerlijk te zijn dat de uiteindelijke console dit ook zal bevatten. Momenteel is dat een limiterende factor op de consoles (Skyrim heeft er bvb last van), en het kost haast niks tegenwoordig (zeker niet in de aantallen dat zo een consolefabriek ze inkoopt).
Het voordeel van een console is wel dat deze weinig tot geen achtergrond taken heeft die een PC wel te verhapstukken heeft. Een console heeft hierdoor veel minder resources nodig voor de zelfde prestaties.

Ik ben benieuwd wat het gaat worden :+
Het voordeel is vooral dat ze de code op assembler nivo kunnen optimaliseren voor deze CPU waar dat op de PC niet kan omdat die games moeten werken op veel verschillende CPU's.
zelfde verhaal met de GPU.
Dat is niet zo'n essentieel voordeel. Ten eerste gebeurt dat optimaliseren amper (de compilers produceren code die over het algemeen optimaal genoeg is), en ten tweede zijn de verschillen in CPU en GPU nou niet bepaald zo enorm groot. Je hebt aan beide kanten maar 2 grote spelers: AMD/Intel voor de CPU en AMD/nVidia voor de GPU. Wat CPU's betreft ontloopt het elkaar amper, niemand besteet daar aandacht aan want het loont gewoon de moeite niet. En aan de GPU kant zie je in de praktijk dat er weldegelijk aandacht wordt besteed aan het implementeren van 2 verschillende versies van bepaalde shaders om ze optimaal op beide stukken hardware te laten draaien. Daarnaast zijn de GPU's sinds de komst van het relatief strenge DX10 wel redelijk gelijk getrokken.

Veel belangrijker is wat ik hier uitlegde. De PC heeft geen modulaire opbouw, en dat icm een OS dat redelijke veiligheid moet bieden zorgt ervoor dat een game op de PC veel slechter performt dan de hardware in feite aan zou kunnen.
Idd, het is niet meer de 80's waar je met exploits en workarounds het onderste uit de Atari2600 moest trekken.
265GB "harde" schijf. Lijkt mij op een SSD. Dat zou de console generatie wel goed doen, super snel door menu's en geen gedoe met laadtijden. Opzich niet heel verkeerd.
Alleen met die 8GB aan ram ga ik er van uit dat de textures ook op pc niveau komen. En dan zit een hdd/ssd van 256gb erg snel vol. Maar goed van de laptop hdd die nu in de ps3 zit word je ook niet erg vrolijk.

Belangrijktste voor mij is die 8GB aan ram, daarmee komen we eindelijk van die lowres textures af. Want hoe zie je direct aan een game dat hij multiplatform is? De texturen, die worden namelijk aangepast op de zwakste broeder.
En als je heel veel mazzel hebt komt er later wel een texturepack. Al dan niet met dank aan de community _/-\o_
De devkits hebben vaak meer RAM aan boord voor debuggen e.d. Het is niet gelijk zo dat de uiteindelijke versie ook 8GB gaat hebben.
In het artikel staat minimaal 8GB ram.
Ging er dus vanuit dat een ps4 8GB krijgt en dev kits misschien wel meer.
Maar ik zal er ook direct bijzeggen dat dit wishfull thinking is en nergens op feiten gebaseerd.

Maar de ps1 had 2mb, ps2 had 32mb en de ps3 512mb (Ja ik weet dat dit heel erg simplistisch kort door de bocht is) Dus ik verwacht op zijn minst wel een gig of 2 aan ram voor de nieuwe console als minimum. En als je de stappen tussen de consoles bekijkt zit daar elke keer een factor 16 tussen. Dus die 8GB zou best wel eens kunnen (16x512=8192)
En wil je als consolebouwer een beetje op de toekomst voorbereid zijn dan zal er waarschijnlijk wel meer in moeten. Want waar alle huidige consoles last van hebben om te concurreren met de pc is een chronisch geheugengebrek.

Het voordeel voor de consoles nu is dat pcgames redelijk conservatief met geheugen omgaan. Als je heel veel geheugen nodig bent (zeg meer als 1gb) komt dat vaak door hoge AA instellingen of door multimonitor opstellingen.

[Reactie gewijzigd door arbraxas op 2 november 2012 11:22]

Je kunt het ook vergelijken met de PC

PS1 is uit 1995, toen had de gemiddelde PC 4mb ram = 50%
PS2 is uit 2000, toen had de gemiddelde PC 64mb ram = 50%
PS3 is uit 2006, toen had de gemiddelde PC 1024mb ram = 50%

PS4 in 2013 zou dus 2GB a 4GB ram kunnen hebben. Maar ik denk niet dat het 8GB ram krijgt omdat Sony de prijs zo laag mogelijk wil houden. Ik denk zelf aan 4GB ram. Waarmee ze weer 6 jaar vooruit kunnen.
Het zou theoretisch uiteraard wel mogelijk kunnen zijn dat er uiteindelijk 8GB in komt te zitten. Maar de vraag is of dat niet een overkill is voor de PS4-engineers.

Die mensen moeten namelijk ook op de kosten gaan letten, het apparaat mag niet té duur gaan worden of ze mogen niet té veel verlies per console maken.
Als je daarbij naasthoud wat de huidige generatie met 512MB (en dan bij de PS3 eigenlijk 256MB*2) voor elkaar kan krijgen, vind ik dat relatief gezien vrij heftig. Ookal zijn de graphics nu toch wel wat achterhaald en komt er weining verbetering in.
Dus ik dénk dat ze toch naar de 2GB of 4GB gaan neigen, puur ook om de console-prijs zo laag mogelijk te houden. En dat geheugengebrek van nu is pas echt overduidelijk sinds.. 1-2 jaar...

Aan de toekomst qua specs denken ze niet zo hard overna, denk ik. Ze kunnen het zo lang uitmelken als ze maar willen, kijk maar naar deze generatie (die overigens ook al veeeels te lang duurt...). En de devs kunnen gewoon aan de slag blijven, des te langer, des te meer winst.

Uiteraard moet je niet vergeten dat een dev veel efficienter kan programmeren, omdat er geen hardware-variaties zijn (op HDD grootte na, uiteraard).

Al met al kan je een console niet met een PC vergelijken, die 2 werken gewoon compleet verschillend.
Ik mag toch hopen dat er iets meer in komt te zitten, de A10 van AMD draait Diablo III nog niet eens soepel op 1080p, en dat is nu niet meteen de meest veeleisende game.

Ik ga ervan uit dat er nog een GPU naast komt die wordt ingeschakeld naast de APU voor grafisch veeleisende zaken. Als de harde schijf dan ook nog een SSD blijkt te zijn heb je een prachtige console.

[Reactie gewijzigd door ormagon op 2 november 2012 10:45]

die extra gpu hoeft niet, het probleem is niet de hareware, maar de driverstack die er tussen zit.
Er zijn testen geweest bij de eerste xbox, met windows xp aan de andere kant op gelijke hardware ( celeron 733 met gpu ) en daaruit bleek dat onder windows er iets van 900 DX calls mogelijk waren, en ergens bij de 6000 op de xbox.

dit verschil werd volkomen verklaard door de dedicated hardware, waardoor drivers rechtstreeks in DX kon zitten, ipv via een stack aansturen.

Dat zal bij de PS waar het artiekel over gaat ook gelden.
Een tijd terug al eens ergens gelezen dat Sony van plan was om "standaard" hardware te gaan gebruiken, i.v.m. kosten van het ontwikkelen van een eigen systeem (CELL).

De software die er op gaat draait is natuurlijk veel interessanter. Graag had ik gezien dat de "next-gen" playstation slechts en gestandaardiseerde computer is waar bijvoorbeeld Linux op draait..
Zodat de playstation games in principe draaien op elke computer, waarbij playstation niks meer is dan de software 'pakket' (zoals Steam).
Maar de kans dat dit gebeurd is natuurlijk heel klein :'(

[Reactie gewijzigd door Kwastie op 2 november 2012 10:46]

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBDesktops

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013