Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 294 reacties

Crytek stelt dat de 8GB werkgeheugen die in de Xbox One en de PlayStation 4 is te vinden op termijn onvoldoende zal zijn om games soepel te laten draaien, ondanks het feit dat de nieuwe consoles aanzienlijk meer werkgeheugen hebben dan hun voorgangers.

De Xbox One biedt 8GB in de vorm van ddr3-geheugen, terwijl de PlayStation 4 evenveel ram beschikbaar heeft in de vorm van snellere gddr5-geheugenchips. De vorige generatie, de Xbox 360 en de PlayStation 3, moest het nog doen met 512MB ram. Ondanks de flinke groei in beschikbaar werkgeheugen stelt Sean Tracy, engine business development manager bij gamedeveloper Crytek, dat 8GB op termijn waarschijnlijk onvoldoende zal zijn voor het draaien van games. Daarbij wijst hij onder andere op de game-engines die volgens Tracy binnenkort al snel meerdere gigabytes nodig zullen hebben.

Naast de hogere eisen van game-engines stelt Tracy dat developers ook niet altijd volledige toegang hebben tot het werkgeheugen. Zo reserveert de Xbox One een deel van het werkgeheugen voor het besturingssysteem. Uiteindelijk zal de 8GB werkgeheugen een flessenhals gaan vormen bij zowel de Xbox One als de PlayStation 4, denkt Tracy. Crytek is bekend van de Crysis-serie maar ook verantwoordelijk voor de ontwikkeling van de CryEngine. In maart maakte het bedrijf bekend dat het, net als Epic, zijn engine gaat verhuren.

Moderatie-faq Wijzig weergave

Reacties (294)

PS4 reserves up to 3.5GB for its operating system, leaving developers with 4.5GB, according to documentation. They can sometimes access an extra 1GB of "flexible" memory when it's available, but that's not guaranteed.
Xbox One's "guaranteed memory" amounts to a slightly higher 5GB for developers, as Microsoft's multi-layered operating system takes up a steady 3GB. It eeks out a 0.5GB win with more developer-accessible memory than PS4, unless you factor in Sony's 1GB of "flexible" memory at times. Then it's 0.5GB less.
maar dan is het altijd nog DDR3 VS. GDDR5..
Maarja, ook in het begin van de PS3 vrat het OS een heel stuk meer geheugen dan dat het nu doet. Dus ook bij de PS4 zullen in het OS nog wel optimalisaties worden doorgevoerd om het geheugengebruik terug te dringen..
Als hier meerdere game-ontwikkelaars over beginnen kan het wel eens voeten in de aarde hebben.
Echter, vooralsnog dient Crytek zijn zaakjes gewoon beter voor elkaar te krijgen.
Uiteindelijk dien je je als game-ontwikkelaar (en/of engine-ontwikkelaar) aan te passen aan de beschikbare hardware. Dat is het hele principe aan consoles. De PC-wereld is een ander verhaal.

[Reactie gewijzigd door Marien84 op 19 mei 2014 10:01]

Game ontwikkelaars willen altijd meer ram... En een snellere processor... En...
... meer pizza.

De opmerking mag dan wel te makkelijk lijken. Maar eyecandy is tegenwoordig een heel belangrijk element in gaming. En daar gaat het meeste geheugengebruik in zitten. Zeker als je nu al weet dat 4k de nieuwe standaard gaat worden op middellange termijn. Wat dat betreft is zal het een belangrijke drive blijven voor innovatie. (En ook verkoop van hardware)
4k is onzin voor de huidige console generatie.

Die dingen hebben nu al moeite om 1080 op 60fps te draaien, dus 4k gaat aan deze generatie compleet voorbij.

Verder ben ik het helemaal eens met Marien84. Je kan lopen miepen over de hardware van een console die je tot je beschikking hebt, maar daar zal je het mee moeten doen. Sony en MS kunnen niet opeens nu aankomen met een 16GB editie van hun console.

Daarbij, als het aan de ontwikkelaars ligt, is die 16GB ook niet voldoende op de lange termijn. 32 ook niet... etc...

Dit is wat ze tot hun beschikking hebben, en daar moeten ze het mee doen. Dat was al zo sinds de eerste generatie consoles. En als dat voor een ontwikkelaar niet genoeg is, dan zijn er volgens mij 3 opties. Je gaat efficienter werken (ik heb Epic nog niet horen klagen, terwijl die nieuwe engine er niet bepaald slecht uitziet), je gaat inleveren op bepaalde gebieden in je game (want ram wordt absoluut niet alleen voor graphics gebruikt), of je stopt met je game voor de consoles.
Ik denk dat je dit anders moet bekijken. Je kunt zeggen dit is de hardware hier moet je het mee doen. En vervolgens blijkt dat alle ontwikkelaars games moeten maken met engine technieken van een paar jaar terug. omdat anders maar amper een fatsoenlijke framerate gehaald kan worden.

In mijn ogen hebben we dan niet meer te maken met een "next gen"

In mijn ogen is een next gen, een console waarbij iedereen van zijn stoel valt van verbazing. Bij de one en de ps4 heb ik meer zoiets van. leuk maar wat is de meerwaarde? Het kost weer 400 euro en je weet eigenlijk als dat ze volgend jaar weer met een nieuwe console gaan komen omdat deze generatie gewoonweg niet is wat de consument er van verwacht.
Het kan niet anders omdat het verbruik te hoog is. High end PC's met SLi en CF setups zitten op 600 watt dat kan niet in een Console.

Daarnaast komt er de komende jaren denk ik geen nieuwe consoles.

De eerste Xbox is 4 jaar mee gegaan van 2001 tm 2005.
De Xbox 360 van 2005 tm 2013 dus 8 jaar.

Wellicht dat het deze keer ietsjes sneller zal gaan. En als MS en Sony bij X86 APU's blijven kunnen ze wellicht ook backwards compatible blijven en iets eerder met een nieuwe generatie komen. Maar ik verwacht zelf dat dat nog wel 4 jaar gaat duren voordat dat zo ver is.

Daarnaast zullen die nieuwere consoles ook de PC niet kunnen overtreffen aangezien PC's gewoon meer ruimte hebben voor koeling en ook meer mogen verbruiken. Alles is ook veel groter dus je hebt ook ruimte voor grote 2 kaarten.

[Reactie gewijzigd door Astennu op 19 mei 2014 16:10]

de pc ontwikkeld zich natuurlijk hard en is over 4 jaar waarschijnlijk dubbel zo snel ( al begint de rek er wel langzaam uit te raken ) maar het grote voordeel voor de console is dat alle consoles van dat type hetzelfde zijn , hierdoor kan veel beter geoptimaliseerd worden.
Eerst ging het harder. Dan had je in een jaar bijna een verdubbeling. In twee jaar zeker als je keek naar de GPU's.

Dat is nu niet meer zo in dat opzicht gaat het nu relatief langzaam maar nog steeds behoorlijk snel.
Ja dat klopt.

Ik voorzie in 2015 nog wel een flinke vooruitgang : ddr4 , stocked gddr ram , 20 nm gpu , 14 nm cpu . Nieuw ssd/ stata interface (sata express) , goedkopere en sneller ssd's .
Maar ik denk dat het daarna wel echt gaat afzwakken voor een tijdje.
Ze zitten qua GPU en CPU's nu meer op zuinige hardware te hameren. Dus daar verwacht ik hooguit 5-20% winst per jaar. SSD's gaan inderdaad wel een stapje maken. DDR4 zal imo niet veel sneller zijn dan High end DDR3 nu. Dat gaat nog wel een tijd duren voordat dat echt sneller wordt.
Het kost weer 400 euro en je weet eigenlijk als dat ze volgend jaar weer met een nieuwe console gaan komen omdat deze generatie gewoonweg niet is wat de consument er van verwacht.
Volgens mij zie je jezelf hier teveel als boegbeeld voor de consument. De Xbox One doet het in de verkoop stukken beter dan de 360.

Ja de hardware vergeleken met de vorige generatie consoles op het moment van uitkomen is een stuk minder indrukwekkend. De consoles zijn echter ten opzichte van hun voorgangers toch wel een enorme stap vooruit en de prijs is op het moment van uitkomen ook niet zo hoog als bij de vorige generatie. Dat ze de 8-9 jaar niet gaan halen zou me niets verbazen, volgend jaar en het jaar daarop en het jaar daarop in ieder geval wel.
Als men echt niet tevreden is over deze generatie ga je dat pas bij de volgende generatie terugzien denk ik. Als men zich de vingers al eens gebrand heeft dan wordt er wel een stuk kritischer gekeken naar de opvolger, en wie weet is Steambox dan ook een success? Combinatie van een game gerichte Linux en zaken als Mantle die wellicht naar Linux komen kunnen er nog wel eens voor zorgen dat de PC een stuk vergelijkbaarder wordt met consoles vooral nu beide consoles ook weer gebruik maken van bijna normale desktop processors.
Dat is waar maar bij sommige games die op de next gen draaien heb ik echt zoiets van dat is next gen kijk maar naa killzone sf of infamous of de devision
Die dingen hebben nu al moeite om 1080 op 60fps te draaien, dus 4k gaat aan deze generatie compleet voorbij.
Hoewel dit volledig waar is, moet je het ook relativeren. We zijn aan het begin van het tijdperk van de nieuwe generatie consoles. Als gevolg hiervan weten ontwikkelaars nog niet precies hoe alles op zijn snelst/optimaalst kan. Dit zag je ook bij de PS3. Daar was het in het begin al moeilijk om 720- op 30fps werkend te krijgen. Vaak werd er gerendered op 480p of 576p en werd dat geschaalt naar 720p. Uiteindelijk zijn veel games toch nog op 720p 60fps gekomen of op 1080p 30fps. Hier zit dus een flink verschil in (hoewel niet zo groot als van 1080p naar 4k) en dat is allemaal te behalen door efficienter programmeren.
Ja, maar 4K en geheugen problemen ga je niet oplossen met efficiënter programmeren. Het probleem nu is dan ook niet dat er te weinig geheugen is om op 1080p te renderen, dus als je straks naar 4K wilt, dan moeten je frame buffers ineens 4x zo groot worden als je niet gaat zitten compressen (wat je niet wilt). En dan heb je het alleen nog maar over die buffers.
Inderdaad, waarbij de PC nu los videogeheugen heeft (2-3GB) + systeem geheugen moeten de consoles het volledig doen met de 8GB minus reserved space (kernel, OS, GUI etc.). Dat is best een aardige memory constraint voor de nieuwe gen spellen.
Vreemd genoeg waren ze in staat op enkel maar 512MB op de oude generatie ook te werken ( soms met problemen zoals met Skyrim ).

PS3/X360: Van die 512MB was er vaak ook maar rond de 256MB a 300MB vrij op beide platforms.

Ja, men zal meer geheugen gebruiken omdat men in hogere resolutie draait, maar zelf dan nog ( de meeste games maken niet eens gebruik van de 1080p ) zal het niet overdreven veel weghalen. Je somt op dat PC's tegenwoordig 2 - 3GB aan video geheugen hebben, maar dit word vaak niet volop benut! Meer geheugen hangt vaak samen op de PC wereld, met hogere resolutie zaken kunnen draaien, maar we spreken over consoles dat op 1080p maximaal draaien. Dat deden PC video kaarten met 1GB al jaren geleden.

Stel dat men van de 8GB enkel maar 5GB vrij heeft ( 2GB voor video memory & 1GB voor OS ), wat grondig overdreven is. Ik ben zeker dat in de toekomst, dat men een deel van dit gereserveerd geheugen weer vrij zal geven.

Nu heeft men in praktijk bijna 20 maal meer werkgeheugen dan wat men vroeger had. En vergeet niet, ik heb al 3GB weggehaald ( wat overdreven is ), voor te compenseren voor de hogere resolutie ( dat niet alle developers volledig benutten ) en OS.

Overdrijven is soms een kunst van sommige ontwikkelaars. Vergeet niet, dat men origineel maar 4GB wou installeren. Dan zou men wat hebben? 1GB werkgeheugen als we dezelfde 3GB reserveerde geheugen toepassen?

Men krijgt een massieve grote geheugen i.v.m waar mee men vroeger moest werken, en men begint nu al te zagen. Sommige mensen zijn nooit tevreden.

Als IT'er / PC gamers dat eigenlijk weinig interesse heeft in Consoles, was ik zelf verbaast dat men 8GB in de consoles gestoken had. En gaf ik een applaus dat men eindelijk een deftige hoeveelheid geheugen gestopt heeft in de Consoles ( vroeger bij vorige consoles, was het vrij duidelijk dat men te weinig in de consoles stopte, nog voor die consoles uit waren ).

Is het future proof voor de volgende 5 a 7 jaar? Wie weet. Er zijn wel altijd ontwikkelaars dat ieder beetje resources willen gebruiken. Maar het is en blijven consoles. Met de nodige wil kracht, zal men de nodige prestaties uit de consoles blijven persen, ondanks de "ocharme" 8GB aan geheugen.
De xbox360 had 1 "grote" poel van 512MB.
Bij de Ps3 was het nog erger en had de grafische kaart 256MB en de CPU ook maar 256MB tot zijn beschikking.
Idd Sinned123, de reden dat ik dit niet vermeld is omdat het eigenlijk niet zoveel uitmaakt.

Bij de PS3 had je 256MB GPU + 256MB beschikbaar
Terwijl de x360 512MB in één grote pool was.

Maar zodra je het x360 geheugen begon op te vullen met de graphics, dan zakt die pool van 512MB geheugen op de x360 ook enorm. In praktijk was het een verschil van 50 a 100MB tussen de systemen, afhankelijk van wat de game uithaalde.

Nu zit men te zeuren over dat 8GB niet genoeg zou zijn. Jongens toch ... Ja, het OS enz reserveren een grote brok, maar in vergelijking ... als men alle games kon doen draaien op 1/20 van dat geheugen, dan zou men nu ook niet te veel problemen mogen hebben.

Zoals ik zei, men zou zich beter zorgen moeten maken over de GPU/CPU dat volgens mij een veel grotere bottleneck gaan zijn, dan het geheugen. Het geheugen zal enkel een probleem zijn, als men kwistig omspringt ermee, of game engine's gebruikt dat voor zien waren / ontwikkeld op een PC met veel geheugen.

MS/Sony kunnen altijd geheugen vrij geven dat nu gereserveerd is, indien nodig. En men kan ook geheugen winnen, door het OS te optimaliseren. Ik zie echt niet in waarom het OS meer dan 512MB geheugen zou moeten hebben.

Het is niet alsof ze een desktop OS zitten te draaien, dat ondersteuning moet hebben met dozijn services "just in case".

Neem Windows 8, disable de services dat je niet hebt op een console, strip de nutteloze zaken weg, en voila ... lean & mean. En dat kan je gerust draaien op zelf beperkter geheugen.

Ik zeg maar, ... in de praktijk heeft men veel te veel geheugen gereserveerd op de systemen. Ik denk dat hun strategie gewoon is, dat men de ontwikkelaars wilt dwingen om "geoptimaliseerd" te ontwikkelen, en later in een paar jaar, als men echt tegen de limieten aanloopt ( omdat de aard van de games veranderd zijn? ), dan zal men wel ineens 1 of 1.5GB extra vrijgeven.
Blijft natuurlijk eeuwig zonde want de console markt houdt zo wel de vooruitgang tegen bij de PC, omdat games toch vooral voor de consoles worden ontwikkeld.

Dat was bij de Xbox360 en PS3 al zo en nu er bij de next-gen consoles al met moeite 1080p gehaald kan worden zakt de moed toch een beetje in je schoenen.

Ik snap ook niet waarom er niet tussendoor updates van consoles worden uitgebracht, bijv na 4 jaar een nieuwe versie met betere hardware, heb je die dan kun je de game op een hogere res met meer fps spelen, heb je nog de oude past de game zich automatisch aan.
Ik ben het helemaal met je eens. Deze consoles zullen ook weer een aantal jaar mee moeten gaan, en als ik kijk naar mijn eigen computer... 5 jaar geleden was het een dualcore met 3 gig ram een een videokaart met 512mb waar ik de eerste Crysis lekker op kon spelen. Nu is het een hexacore met 8 gig ram een een 3gb videokaart en ik kan Crysis 3 lekker spelen... Dit gaat alleen maar sneller en sneller, neem ik aan.

Ook ik heb zo mijn vraagtekens bij de huidige consoles... Misschien heeft Microsoft of Sony wel een plan. Upgrades misschien? Je stuurt je console naar een gecertificeerde handelaar en die doet de upgrade van bijvoorbeeld de APU? dit lijkt me een beetje vergezocht, maar het zou kunnnen.

Misschien gaan Microsoft of Sony inderdaad wel een vast schema aanhouden met updates. Dan weten consumenten ook meteen waar ze aan toe zijn. Om de 4 jaar een nieuwe console lijkt me een heel redelijke leeftijd voor zo'n systeem.
Ik snap ook niet waarom er niet tussendoor updates van consoles worden uitgebracht, bijv na 4 jaar een nieuwe versie met betere hardware, heb je die dan kun je de game op een hogere res met meer fps spelen, heb je nog de oude past de game zich automatisch aan.
Dat is een Steambox ;).
wat ik dan liever had gezien was een modulaire console.
Dus waarbij je misschien alleen de CPU/GPU/RAM bijvoorbeeld alleen kan vervangen.

voor de rest wat je zegt is waar ja,
Het nadeel wat je hier bij gaat krijgen is dat spellen niet meer overal op kunnen draaien. Krijg je dat je een basis console nodig hebt met upgrade x & y..

Ik verwacht dat naast dat de consument hier totaal niet op zit te wachten, het ook nog erg verwarrend werkt.

Ik snap de motivatie van comments hier om het wel te doen, maar dat gaat niet opwegen tegen de massa die enkel een schijfje in de console willen stoppen en gamen zonder na te hoeven denken 'of-ie-wel-wil-werken'.
Een normaal consument heeft inderdaad daar niet de behoefte aan.

Maar wij als tweakers kan me voorstellen juist weer wel.
Maar ik bedoel om op dezelfde architectuur te werken alleen dan hoger gelockt zeg maar. En qua automatisch detecteren van wat voor hardware erin zit en daarop dat het meteen aangepast wordt zou ideaal zijn natuurlijk.

Maar dit gaat nog lange na niet gebeuren...
we hebben natuurlijk al jaren zoiets: de PC :)
Niet iedereen heeft de ca$ money in z'n clip om zo'n ding te kopen
Dit is er toch al lang? Elke tweaker heeft er wel eens over gehoord geloof ik. Ze noemen het een PC.
Beetje jammer zo'n reactie. Je hebt het over een apparaat om op te gamen die je kan upgraden, hence PC (en steambox straks)

De consoles moeten blijven zoals ze zijn anders versplinteren ze hun eigen markt, het is de reden dat consoles bestaan. 1 apparaat zonder gedoe met versies of variaties om op te gamen.
En dat doen ze goed :)

[Reactie gewijzigd door Mutatie op 19 mei 2014 13:15]

want? Een PC is gewoon een console die je kan upgraden. Stop het in een Silverstone Raven en het lijkt zelfs op een console.

Steam machines zijn gewoon pc's en met het big picture van hun is het gewoon een soort xbmc skin voor hun Steam interface zodat je met een controller kan spelen.

Als je de hardware in de ps4/xbone ziet is dat juist meer dan ooit een pc.

Driver issues wat vroeger juist de grote reden was bestaat niet echt meer. Audio, netwerk alles onboard het enige wat je hoeft te doen is cpu en gpu uitkiezen en qua GPU is de keuze ook een stuk kleiner dan vroeger waardoor je minder te maken heb met incompatibiliteit. Geen Matrox, S3, 3DFX, Trident, SGI, 3DLabs, XGI, Cirrus Logic, PowerVR etc etc meer in de desktop markt enkel Nvidia, AMD en een heel klein beetje Intel.

Het enige wat anders is is dat Windows meer resources gebruikt standard dan de OS die specifiek gemaakt zijn al is SteamOS daar een goeie vervanger voor.

Dus ja Mutatie heeft gewoon gelijk ook al wil jij het niet zien.

[Reactie gewijzigd door Hakker op 19 mei 2014 13:29]

Denk dat je de verkeerde silverstones in gedachte hebt. De Raven serie zijn de lomp grote kasten met een 90 graden gedraaid moederbord (ik heb zelf de derde versie hiervan ;)).

De Crown, Grandia, Milo en Lascala series komen een stuk dichter in de buurt.
Dat niet alleen. Crytek staat er inmiddels wel om bekend om schitterende games te maken die op gameplaygebied toch aardig wat steekjes laten vallen. Crysis maar ook Ryse waren schitterend maar toch erg repetitief en vrij doorsnee verder. Dan kun je wel meer Gigabytes willen, als je verder ook niet met kop en schouders boven de rest uitsteekt, heb je er ook weinig aan.
Met HDMI 1.4 kun je anders best renderen op 4K (max. 30Hz, net voldoende om smooth te zijn). Een game hoeft immers niet perse realtime 3D te zijn. Het is zeer goed mogelijk een (2D) arcade game te maken met een native 4K resolutie.
voor 4k gaat de hdmi aansluiting alleen al onvoldoende zijn. want deze console varianten (xBone & PS4) zitten nog niet op de hdmi 2.0 standaard.
Beide consoles zullen iedergeval hdmi 1.4b hebben wat support geeft aan 4K resolutie op 24/25/30 fps. hdmi 2.0 geeft een boost naar 60 fps in UHD.
source (hdmi 1.4): http://www.hdmi.org/press/press_release.aspx?prid=101

hdmi 1.4 is sinds 2009 beschikbaar.

[Reactie gewijzigd door Blowthebullet op 19 mei 2014 14:13]

We hebben het dus over games hier, waarbij de commentaar is dat 8gb de games onvoldoende soepel zou laten lopen. Ik kan je beloven dat een iedere gamer vind dat onder 30fps het niet meer 'soepel' is, waarbij lager dan 20, heel haperig wordt. Standard wordt aangeraden om 40-60 fps te hebben voor een voldoende soepele spel ervaring.
Ik denk dat het geheugen geen probleem is gezien high-end systemen met een sli opstelling en 8GB vram spellen op iedergeval 3 maal full hd kunnen draaien (battlefield 4 bijvoorbeeld) en soepel ~60-90 fps. Het is de apu in de console die totaal niet voorbereid is op het renderen van 4K. Sony heeft al een tijdje de statement neergezet dat ze GEEN games zullen supporten op 4K resolutie. Kan gewoon niet.

source: http://www.joystiq.com/20...ideo-in-4k-but-not-games/
Niet zo raar. Om 4K soepel te kunnen draaien heb je een GTX780 SLi of 290 CF setup nodig. Je hebt het dan over alleen al 700 euro en 500 watt aan videokaarten.

1080p is nog wel te doen met die APU's maar dan houd het ook op. De volgende generatie consoles krijgt vast 4K support maar dan moeten we nog jaren wachten.

Ik vraag me sowieso af hoe lang deze consoles mee zullen gaan. Toen de PS3 en de Xbox360 uitkwamen hadden die GPU's die net zo krachtig als niet krachtiger waren dan de PC GPU's op dat moment. Nu is dat lang niet zo. De oorzaak is simpel het verbruik van GPU's was toen langs niet zo hoog. En dat krijg je gewoon niet gekoeld in een console. 200 watt is al niet wenselijk laat staan meer dan dat. Krachtige single GPU kaarten gaan daar nu makkelijk overheen.

In de tijd van de Xbox1 en PS2 was het hetzelfde die GPU's waren toen extreem krachtig en dan kun je wel even vooruit. Nu heb je de helft van de power van de snelste single GPU kaart. In het geval van de Xbox zelfs minder.

Ik vraag me af hoe deze het over 5 jaar nog doen met games die dan uitkomen.
De vraag naar native* 1080p games op de 'next gen' in nog groot aangezien hier nog maar soms aan voldaan woord. En ik heb zo'n gevoel dat er dan ook trucjes moeten worden toegepast om het (goed) draaiend te krijgen..

* Echt 1080p met minsten's 2x AA (of soort gelijke techniek).
Console player's verdienen nu ook wel wel betere kwaliteit games. Niet dat de games zelf slecht zijn maar in ieder geval dat ze niet technisch het onderspit moeten bijten. Neem de Last of Us voor de ps3, die zou zo veel meer immersive zijn als ik die jagged hell niet zou merken :p
Ja maar in de pc zit 8gb DDR3 + nog eens meer als 4gb gDDR5 ! ;)
Ja maar in de pc zit 8gb DDR3 + nog eens meer als 4gb gDDR5 ! ;)
Veel succes met DDR3 op je videokaart XD. Vraag me af hoeveel frames er per seconden weggeschreven kan worden. Bandbreedte van het werkgeheugen is niet echt snel te noemen voor een videokaart.

Geheugen word alleen voor logische berekeningen gebruikt. Heeft niks met vram te maken (dat is juist mijn punt).

[Reactie gewijzigd door Blowthebullet op 19 mei 2014 21:49]

Ja dat begrijp ik , maar ik reageerde op wat jij hierboven gezegd had.
je vergeleek een game console met een normale Windows pc met 8 gb ram , je zei dat die ook aan 8 gb genoeg had om de meeste games op + 1080p met > 60 fps te spelen.
Maar je vergeet dat er niet alleen 8gb in zit maar ook nog eens het gddr geheugen wat op de gpu zit . als je dat opteld heb je pas het totale geheugen van een computer

Deze consoles hebben alleen 8gb , zonder iets anders.
Er is momenteel maar 4.5 gb beschikbaar voor games, de rest is gereserveerd( in ieder geval op de ps4). Link: http://m.officialplaystat...am-in-infamous-second-son
Een deel wordt natuurlijk gebruikt voor het OS en andere taken, de rest is een buffer om eventueel later functionaliteit toe te kunnen voegen.(bij de ps3 was er geen ruimte om bepaalde chat functionaliteit toe te voegen). Als games eenmaal een bepaalde hoeveelheid geheugen benutten kun je het namelijk niet meer aanpassen, aangezien die games dan niet meer goed zouden werken. Maar als het uiteindelijk niet gebruikt kan een deel alsnog worden vrij gegeven.

[Reactie gewijzigd door TheDukemaster op 19 mei 2014 15:14]

Deel wordt denk ik ook gebruikt als video geheugen. dus dat moet je dan ook reserveren.
Klopt, door alle extra functionaliteit en applicaties zie je ook dat het geheugen gebruik van consoles buiten games om deze generatie explosief toegenomen.

Snap ook niet waarom consoles niet worden uitgerust met een uitbreiding slot. De N64 had dit ook, en over een jaar of twee/drie kost 4gb of 8gb geheugen nog maar een schijntje.
Zelfs nu kost het al een schijntje :P 4gb geheugen kost net zoveel als een avondje naar de bioscoop. Ik ben het idd wel met je eens dat een uitbreidingsslot geen slecht idee zou zijn.

Ik weet niet of dit nog steeds zo werkt bij de huidige computers, maar met xp (geloof ik) kon je je computer boosten met een usbstick. Misschien is dit een oplossing voor de lange termijn. Als ze nou de latency van USB 3.0 wat lager krijgen zou dat best een boost kunnen zijn voor achtergrondprocessen. Hierdoor is er meer beschikbaar dan die 4.5 GB
Zet je aan het denken waarom ze er van begin af aan niet gewoon 4gb goedkoop ddr3 geheugen bij hebben geprikt. 3.5gb GDDR5 reserveren voor OS en taken als video recording is toch complete onzin. 8)7
Je doelt op ReadyBoost. Dat is een functie van Windows Vista om oudere pc's met weinig RAM te helpen. In de praktijk pakte dit nauwelijks uit en ik heb nog nooit een Windows 7-gebruiker dit zien gebruiken.

Ga in dat geval voor een echte oplossing op de console en een RAM-uitbreidingsslot. Maar zoals gezegd is alleen RAM niet het probleem, het is het samenspel tussen RAM, disk en CPU en GPU. En met name die laatste twee zijn waar het gros van de mensen zich zorgen overmaakt.
Omdat consoles juist bedoelt zijn om dezelfde specs te hebben zodat iedereen altijd alle games kan draaien en niet dat er extra prereq's zijn.
Echter kun je als devver wel veel willen, maar als het hardwaretechnisch of verkooptechnisch niet interessant is heb je pech. Zeker voor consoles moet je roeien met de riemen die je hebt, en ik betwijfel of Microsoft of Sony binnenkort een volgende console gaat uitbrengen gewoon omdat 8 GB 'onvoldoende' is. Sowieso vind ik het wat optimistisch, ik ken de Cry-series als geheugenmonsters die na enige tweaks en patches opeens een stuk efficienter zijn, en op dit moment lijkt me 8 GB aardig gemiddeld voor zelfs PC-gamers. Nu er al herrie is over of consoles wel of niet in 1080p draaien denk ik dat 4k gewoon een brug of 2 te ver is. Ze comprimeren hun textures maar beter, simple as that.
Helemaal mee eens. Daarnaast: alle hardware zal op termijn onvoldoende zijn dus het is een onzinstatement. Console game-ontwikkeling draait om het bieden van zoveel mogelijk speelplezier met beperkte hardware vanwege de lage prijs van consoles. Ontwikkelaars als Naughty Dog laten zien hoe dat moet. Crytek zal zich aan moeten passen of het bij PC moeten houden.

Daarnaast lijkt mij dat de gpu in de meeste gevallen de bottleneck is, aangezien zelfs een game-pc van nu het met 8GB geheugen prima kan doen. De consoles moeten hun 8GB dan wel delen tussen CPU en GPU, maar alsnog klinkt het niet als een groot probleem.

[Reactie gewijzigd door geert1 op 19 mei 2014 11:09]

Dat was ook precies waarom ik zei 'ontwikkelaars willen altijd meer'. Dat kunnen ze wel willen. Ze moeten echter leren roeien met de riemen die ze (op Xbox One en PS4) hebben. Zo zit de wereld in elkaar.
Als je nu kijkt naar de huidige generatie pc's, de meeste hebben al 8GB ram geheugen en meestal een minimum van 2GB video geheugen, als je richting high-end pc's gaat zit je al gauw met 16-32GB ram geheugen en toch ook al gauw aan 3-4GB videogeheugen, als je dat in vergelijking trekt met de huidige generatie consoles. Vind ik het niet zo gek dat ontwikkelaars nu al beginnen met klagen. Wanneer DDR4 gemeen goed word kan het wel een gebeuren dat de Pc's dusdanig veel meer RAM geheugen gaan krijgen, dat de consoles erbij in het niet vallen
" Zeker als je nu al weet dat 4k de nieuwe standaard gaat worden op middellange termijn. "

4k heeft weinig te maken met videogeheugen.
3-kanaals (RGB) framebuffer in 16 bits per kleurkanaal komt uit op zo'n 50mb.
Met 8gb heb je alweer 160x meer dan dat.

Bij 4k worden juist de andere zaken belangrijk zoals snelheid/bandbreedte van het geheugen en snelheid en hoeveelheid shaders.
Mee eens, het zal niet alleen de grote van het geheugen zijn die de bottleneck zal vormen, maar ook de snelheid ervan.

Nou doet Crytek ook vaak veel dingen met GPU gerenderde physics, hebben ze (bijzonder inefficiënt gebruikte) tesselation in hun engine zitten en zijn ze niet te beroerd (zoals de meeste console ontwikkelaars wel zijn) om met nette goed geschaalde resolutie textures te komen. Veel console titels moesten het doen met belabberd slechte textures, omdat de Xbox voorheen met 512MB toebedeeld was.

Ik snap wel dat Crytek de rekensom maakt en tot de conclusie komt dat ze in geheugen nood gaan komen.

De fans zullen er wel moe van worden, dat 4K moddergegooi richting hun consoles. Maar ik ben toch ergens wel blij dat er commentaar klinkt. Meer druk voor betere console hardware kan namelijk naar mijn inzicht alleen maar goed uitpakken voor de markt.
Hmm... Niet eens dat complexere hardware goed is voor de markt. Consolebouwers hebben al moeite om binnen de prijs aan de hardwarewensen te voldoen en de AAA developers hebben te maken met altijd maar stijgende developmenkosten. Zoals het nu gaat is die markt zichzelf aan het opeten.
Hoewel het technisch natuurlijk wel leuk is om meer te hebben denk ik niet dat het financieel erg goed is voor de consolemarkt
Ik denk dat een groot probleem dat ze niet eens benoemen de 2,5 inch harddisks in combinatie met 8 GB RAM is. Met de oude consoles kon je de redelijk lage kwaliteit textures en modellen gewoon snel laden van de disk wanneer je ze nodig hebt. Met de huidige generatie is dat een stuk lastiger omdat die schijfjes het gewoon niet meer bij kunnen benen.

Ik vermoed dat we tegen het einde van de generatie regelmatig halverwege levels met laadtijden gaan worden geconfronteerd, enorme pop-up, of kleine levels gaan zien.

Door de relatief lage hoeveelheid (beschikbaar) RAM, gaan ze meer last op de harddisks leggen, en die zijn in dit geval niet echt de vlotste. 4,5-5 GB bruikbaar RAM is voor deze generatie niet echt veel vind ik.
Dat zullen ze gaan streamen, denk ik. TES doet dat al jaren, en als je dat een beetje netjes doet dan werkt dat prima. Rage probeerde dat ook al maar was daar wat minder succesvol in, maar Oblivion en Skyrim doen dat volgens mij toch heel netjes.
Ik denk zelf dat voor het streamen de harddisks te traag zullen blijken op termijn. Niemand zit er op te wachten om als je een beetje vlot door een game heenblaast omgeven te worden door lage kwaliteit modellen en textures omdat de machine gewoon niet meer de tijd krijgt om alles te laden.
Helemaal niet met een state of the art console. Als het nou op een PS3/360 is oke.

Maar in principe zou een hedendaagse console imho gewoon behalve aan het begin van het spel (om de laadtijd te verkorten) nooit texture/model pop-up/in moeten hebben, en zou het spel zn benodigde data gewoon in zn geheel in het RAM moeten kunnen staan. Met de huidige geheugensituatie zal dat no rond de launch best kunnen. Maar over een jaartje of 2 denk ik toch dat ze (zoals altijd) weer tegen problemen aan gaan lopen.

Iedere generatie sinds de optische opslagmedia zijn geintroduceerd maken de consolebouwers de zelfde fout, te weinig RAM.
Het gevolg is dat er heel veel rekenkracht gespendeerd moet worden aan het continu decomprimeren/laden van data terwijl dat beter gewoon voor de daadwerkelijke game gebruikt had kunnen worden.
Zeker als je nu al weet dat 4k de nieuwe standaard gaat worden op middellange termijn.
Dat valt nog af te wachten.
Dat kan nog wel eens heel lang duren omdat de dioorgifte van 4K een probleem is.
De bandbreedte die 4K vereist is momenteel gewoon te veel en dat kun je niet even in 3-5 jaar oplossen
Maar pc's draaien toch al op 4k res correct me if i'm wrong
Het is niet zozeer een hardware probleem als wel een netwerk probleem.
Ben ik dan blind ik heb games gezien op de pc die draaien echt wel 4k terwijl ze online waren
de 4k resolutie genereer je met je videokaart, heeft nix met netwerk te maken.
als je de gepaste hardware hebt kan dat best. maar het is geen standaard
En daarom een pc voor het gamen! - een beetje moederboard kan je voorzien van een snellle cpu, meer ram of een rappere graka. Losse upgrades zal een gamer niet wakker van liggen - even een nieuwe console kopen is andere koek.
... meer pizza.

De opmerking mag dan wel te makkelijk lijken. Maar eyecandy is tegenwoordig een heel belangrijk element in gaming. En daar gaat het meeste geheugengebruik in zitten. Zeker als je nu al weet dat 4k de nieuwe standaard gaat worden op middellange termijn. Wat dat betreft is zal het een belangrijke drive blijven voor innovatie. (En ook verkoop van hardware)
helemaal leuk wetende dat de console allang hebben aangegeven 4K niet te ondersteunen voor games maakt dat dus niet uit.
de games draaien nu al amper 1080P
Nu al ? De consoles zitten pas in hun levens cyclus
De opmerking mag dan wel te makkelijk lijken. Maar eyecandy is tegenwoordig een heel belangrijk element in gaming. En daar gaat het mis
FTFY

Als iemand een Pacman clone maakt die draait op 1080p @ 60 fps in 3D en wordt gerenderd met een ray tracer, heb je dan meer eye candy? Oh absoluut, zeker weten! Maar wordt het spel er beter van? Nee, totaal niet.

Natuurlijk zijn er grafische dingen die van invloed zijn op de gameplay (bijvoorbeeld transparency in tactical shooters: een matglas raam waar kogels zonder problemen doorheen gaan, maar waar je alleen kunt zien dat er iemand achter staat, niet wie het is, voegt daadwerkelijk iets toe). Maar voor een heel groot deel van de moderne eye candy geldt dat helemaal niet, da's alleen maar meer polygonen pompen, zonder erbij na te denken of dat nog wel zin heeft. Laat ik het zo zeggen: als ik in een first-person shooter tijd heb om de foto-realistische rendering van een golvend meertje te bewonderen, dan is er iecht ets drastisch mis met die game...

Kijk voor de gein eens naar een klassieker als Dune 2. Hoewel het zijn tijd ver vooruit was ontbreken er naar hedendaagse maatstaven toch behoorlijk wat dingen aan. Maar waar wordt het spel leuker van: betere gameplay (group select, Carryalls opdrachten kunnen geven, multiplayer) of betere graphics (als je ver genoeg inzoomt kun je kijken of je soldaten hun veters wel netjes gestrikt hebben)? Voor de nieuwsgierigen: ik schreef opzettelijk niet "meer polygonen", want Dune 2 had helemaal geen polygonen, dat waren nog goeie ouwe tile-mapped sprites. :p
Ja maar het vreemd vind ik dat er dan veel R&D wordt gestoken in de CPU en GPU want dat moet goed zijn.

En vervolgens wordt bezuinigd op RAM waar geen R&D voor nodig is 8)7

Dit was bij voorgaande consoles ook het geval, voor Playstation 3 met Cell werd door Sony heel veel kabaal gemaakt en wordt met veel pijn en moeite ontwikkeld en vervolgens zetten ze er 256MB RAM in |:(
8 GB RAM is volgens mij voor een gamesysteem nog heel aardig, hoor. De meeste mainstream game-PC's gebruiken nu 8 GB RAM en de videokaart heeft ook nog eens een goeie 2 tot 4 GB RAM aan boord, maar die zijn al veel sneller dan de consoles nu. En die 8 GB RAM is al overbemeten, tot een jaartje terug kon je het gros met 4 GB ook prima af.

Ik denk dat het probleem in deze gewoon Crytek zelf is. Die staan er nou niet echt om bekend dat ze erg geoptimaliseerde code schrijven, gezien het feit dat Crysis destijds op geen enkele PC fatsoenlijk wilde draaien.
Ja maar in een console is alles shared.

In een gamesysteem heb je meestal een aparte videokaart.

En een console moet wel redelijk toekomstbestendig zijn, over 2 jaar wordt 8GB wel krap.

Vooral als je bedenkt dat developers dan zullen proberen alles op FullHD te ontwikkelen.
1080p / FullHD, betekende niet dat men ineens 4GB aan geheugen gaat moeten opofferen ... Geheugen verbruikt gaat lineair ophoog met de resolutie.

Als men met 512GB aan 'bijna' of 720p kon draaien, kan men met 8GB, zeker wel 1080p aan ( 4 * meer geheugen gebruiken ). In de PS3 had men 256MB beschikbaar voor de GPU... 4 * meer is nog altijd maar 1GB. Die zelfde 1GB waarmee PC's in het verleden ook zonder problemen 1080p games draaide.

Stel dat men 2GB gebruikt... blijft 6GB over voor OS + Game... En het OS zou niet zoveel mogen gebruiken, want het is geen multi-task PC. Als men een 1GB gebruikt voor OS ( wat eigenlijk een gewone PC goed mee kan draaien voor multitask ) ... Juist ... blijft 5GB of iets minder over ( toevallig de hoeveelheid waarmee ontwikkelaars kunnen werken, wat niet gereserveerd is ). Dat is maar 20* meer werkgeheugen dan men had op de PS3 ( of Xbox360, afhankelijk van de hoeveelheid geheugen men daar gebruikte ).

Ontwikkelaars zullen ALTIJD op de limieten aanlopen van consoles. Maar geheugen denk ik niet dat de limiet is. Het zal eerder de GPU/CPU combinatie zijn waar ik denk dat men op vastloopt. Als men op Geheugen limiet aanloopt, dat zal dit meer liggen aan het feit dat men zeer "kwistig" omsprong met het geheugen tijdens hun ontwikkeling.

Doet me denken aan oude PC programma's / games. Nu is 100MB voor een programma dat iets enorm simpel doet, meer regel dan uitzondering. Waarom? Omdat niemand nog de moeite doet om te optimaliseren. Men gaat er vanuit: Er is toch genoeg geheugen op de klanten hun PC's.

M.a.w, als een game ontwikkelaar, op het geheugen limiet loopt, en men heeft niet een game zoals Skyrim of open wereld game met veel objecten waar men constant moet bijhouden waar x, is ... dan zie ik een ontwikkelaar dat de prioriteit zette op vlug iets uitbrengen, en niets aantrok van optimalisatie / goede design keuzen op voorhand. Ik neem aan bij open werelden zoals Skyrim dat men idd tegen geheugen limieten kan stoten, maar zelf dan ... Skyrim draaide zelf op die ocharme 512/256MB geheugen van de oude consoles ( soms met problemen ja ).

Maar FullHD is niet de reden dat men niet genoeg zou hebben met 8GB.
Voor die tijd was 256 nog aardig hoor? En 8gb nu is ook vrij redelijk. Maar in principe besteden ze de research van ram uit waardoor de prijzen wat hoger liggen en juist daarom wordt er bespaard op ram. Zelf ontwikkelen kost een godsvermogen, al is het maar omdat het qua patenten redelijk dichtgebouwd is.
Nou als 256MB aardig is waarom had de Xbox 360 dan 512MB?

En ja ik weet ook dat de Xbox 360 RAM shared is maar toch heeft Microsoft wel gedurfd meer RAM te gebruiken.

En wat ik bedoel is dat ze alles uit de kast trekken om de CPU en GPU krachtig te maken, want de koeling, voeding, moederbord layout zijn allemaal zwaar afhankelijk van hoeveel stroom de CPU + GPU uiteindelijk gebruikt en hoeveel warmte die uitstoot.

Vervolgens wordt er doodleuk bezuinigd op de RAM, het is gewoon krom.

Volgens mij zijn ze ook nu pas wakker geworden en hebben zowel Microsoft als Sony gekozen voor een "gangbaar" APU, maar nu is er het besef dat de console goedkoop moet zijn en besparen ze alsnog op de RAM om de console rond de 400 euro/dollar te kunnen verkopen.
PS3 had 256MB XDR + 256MB GDDR3. Beide systemen hadden dus in totaal de beschikking over 512mb.
Ja maar omdat de Xbox 360 dus 1 poule van 512MB had was het dus veel flexibeler te gebruiken.

Een developer die dus 400MB voor graphics wilde gebruiken kon dat doen.

Maar alsnog is 512MB ook te weinig, waar het om gaat is dat Sony en Microsoft veel moeite stoppen in de ontwikkeling van hun CPU + GPU maar iets simpels als meer RAM willen ze er niet in doen terwijl dat zoveel makkelijker is.
Gaat allemaal om balans hé. Wat heb je aan zoveel RAM als je CPU en GPU toch niet snel genoeg zijn om bijv de hogere resolutie textures te renderen of de slimmere AI te berekenen. Een relatief overschot aan RAM geeft alleen maar aanleiding tot inefficiënt programmeren.
De PS3 heeft totaal 512RAM, 256 werkgeheugen, 256 videogeheugen. De 360 had 512 shared
http://en.wikipedia.org/w...#Technical_specifications

[Reactie gewijzigd door Mutatie op 19 mei 2014 13:02]

Volgens mij was destijds voor PC's de norm om ~1GB Ram te hebben, momenteel is dat naar mijn mening 8GB. Dus in vergelijking zat er in de vorige generatie zelfs nog minder geheugen in ten opzichte van nu.
Uiteraard hebben game machines meer geheugen maar dat was destijds ook al het geval (2 of 4GB toen, 16 of meer GB nu)
De ps3 had 16x meer RAM dan de ps2, de ps4 heeft net geen 16x meer ram dan de ps3.
In vergelijking hebben de consoles nu minder RAM dan de vorige generatie :+
volgens mij is 8GB 16x zoveel als 512MB :Y)

Maar had ik nog niet zo over nagedacht. Betekent dit dan dat er in de PS5 128GB aan geheugen komt?
Gaat Crytek dan weer te weinig vinden natuurlijk :+
haha klopt, het is idd geen 8000/512 :+
Nadeeltje van consoles is dat geheugen best duur is in GDDR5 variant. 16GB op een console zou de prijs behoorlijk opdrijven.
Er zat toch echt 512MB ram in de PS3. Weten mensen dat na 7 jaar nog steeds niet ofzo?
Ontwikkelaars willen altijd meer resources en ook logisch dat ze zich zoals marien84 stelt moeten richten op wat beschikbaar is. Wel vraag ik mij af in hoeverre er onderzoek gedaan is door Microsoft of Sony naar de volgende generatie game engines. Het klinkt nu alsof dit al langere tijd bekend was.

Aan de andere kant, volgens mij had Microsoft al eerder aangegeven dat consoles sneller vernieuwd gaan worden dan de vorige generatie. Mogelijk dat daarmee het probleem al verholpen is.

Zo niet dan is dat goed nieuws voor SteamOS, wat gebruikt maakt van computer-hardware en dus wel eenvoudig uitbreidbaar is.

Edit: Sony's PS4 heeft volgens mij de mogelijkheid om het geheugen uit te breiden i.t.t. de xbox one. Komt goed uit gezien dit nieuws.

Edit 2: Blijkbaar is ook het geheugen van de PS4 niet uit te breiden

[Reactie gewijzigd door 2green op 19 mei 2014 11:16]

Je hebt hebt gelijk (neem aan dat je de PS4 bedoelde).
Het is vaak een goedkope patch op slecht geschreven software.
Zie hoge vram eisen bij GTA4 bij hogere draw distance en andere games die daar geen directe moeite mee hebben Skyrim.
Volgens mij is dit meer een algemene stelling die Tracy hier maakt. Niet alleen hun engine zal veel geheugen nodig hebben, maar ook andere:
"Daarbij wijst hij onder andere op de game-engines die volgens Tracy binnenkort al snel meerdere gigabytes nodig zullen hebben."
Dit heeft naar mijn idee dan ook niet zoveel te maken met "zaakje beter voor elkaar krijgen"

Wel bizar dat er zoveel geheugen nodig is... waar zal dat vooral door komen, high res textures..?
Als ik een 3D model (semi-Realistisch) belicht op hoge resolutie dan gaat er bij mij vaak enkele tientallen gigabytes aan ram op, vaak het meeste aan belichting.
Kan je je voorstellen als je met die kwaliteit een hele wereld wil renderen realtime, dan heb je een flinke sloot RAM nodig ;)
Maar 3D modellering is wat anders dan realtime gaming. Bij modelleren wil je 't absoluut beste, net zoals dat je bij het produceren van een CD niet met MP3s aan de haal gaat. De bron moet goed zijn.

Maar belichting kan je zo 'duur' en 'goedkoop' maken als je wil. Dat je het voor elkaar krijgt om er tientallen GB's aan te spenderen wil niet zeggen dat als je 't optimaliseert het meteen flink in qualiteit degradeert.

Zo weet ik dat Ray-tracing echt een sloot aan CPU-kracht gebruikt, terwijl ze tegenwoordig met allerlei features de kwaliteit van hyperrealistische belichting benaderen met véél efficientere methoden.

On topic:
Ik begrijp de reactie van Crytek ook niet echt. Tuurlijk wil je altijd meer Gigabytes, maar dat geldt voor alle componenten in het apparaat, het is nooit genoeg. CryTek is een ontwikkelaar met zijn roots in de PC, waarbij je vrij makkelijk kan upgraden. Bij een console is de charme juist het maximale eruit halen van wat de hardware kan, dus is het aan de ontwikkelaar om zich aan te passen. Misschien zitten ze nog te veel in de PC-mindset. En alsof ze vroeger niet tegen "out of memory"-fouten aan liepen met de enkele MBs die ze ter beschikking hadden in de consoles van wat generaties terug.
Je opmerking over raytracing is correct. Maar de reden waarom hyperrealistische belichting benaderen zo efficiënt mogelijk is, is dat deze belichting ingebakken is.

Hiermee bedoel ik dat er al tijdens de ontwikkeling een raytracing pass overheen gaat, waarvan de resultaten gewoon opgeslagen worden. Raytracing is namelijk tegenwoordig nog steeds niet real-time mogelijk. Tijdens het spelen van de game worden er enkel nog schaduwen en de belichting van bewegende voorwerpen berekend. De rest wordt gewoon vanuit de file ingelezen en geïnterpoleerd (indien de belichting afhankelijk is van de gametijd (denk aan dag nacht cyclus)).

De opmerking van crytek is echter ook correct: de vertex en polycount van een model en omgeving gaat mettertijd verder omhoog, wat een impact op het geheugenverbruik heeft. Verder heb je inderdaad de textures, maar die kan je inderdaad comprimeren. Maar engines beginnen bovendien steeds verder diepere lichaamsstructuren te simuleren om zo de kwaliteit en het realisme van animaties en physics te verbeteren. Denk aan de vervormingen die zich in het menselijk lichaam voordoen door het bewegen van spieren en vet (zie metaballs). Ook dit zuipt geheugen. Als je deze effecten combineert met het feit dat games steeds meer objecten tegelijk op het scherm willen kunnen weergeven, vind ik het niet meer dan een logische uitspraak.

Natuurlijk kunnen ze zich behelpen door rekening te houden met de beperkingen die deze consolegeneratie met zich meebrengt. Hoewel optimalisatie zeker nog wat extra geheugen kan opleveren zijn er ook beperkingen aan wat je met optimalisatie kan bereiken. Dus het gebrek aan RAM gaat de creativiteit en het realisme in games zeker op een bepaald vlak gaan limiteren.

[Reactie gewijzigd door Moonsurfer_1 op 19 mei 2014 11:16]

Precies, het baken van textures (en pizza's) heeft natuurlijk een enorme impact op de performance en hoewel ray en path tracing wel degelijk mogelijk zijn in Realtime is de hardware en kennis die benodigd is hiervoor niet iets wat de gemiddelde consument in huis kan of wil halen.

Real-time path tracing: http://brigade3.com/
Of NVIDIA grid.
"Real-time path tracing: http://brigade3.com/ "

Wel coole zooi, dit. :)
Maar we zijn er nog lang niet wat betreft ray tracing technieken.
Zo heb je met path tracing al snel dat dingen die door hun omgeving belicht worden erg ruiserig zijn.
Dat is de reden waarom deze demo een scene is met vooral 1e reflecties. En je kan duidelijk zien dat de subtielere GI veel ruis bevat.
Verder is het lastig te voorspellen hoeveel kwaliteit je overhoudt na een x aantal berekeningen. Het kan dus zomaar zijn dat een scene vanuit een bepaald gezichtspunt 50x meer rekenkracht vereist om dezelfde kwaliteit te halen als andere gezichtspunten.
Ik ben bang dat we dus nog wel even moeten wachten voordat dit soort technieken op deze manier in games gebruikt kunnen worden.
Laat staan dat dit op een 'normale' resolutie kan.
Maar er wordt al wel het 1 en ander met real time tracing gedaan, al is het voorlopig nog voor wat grof GI werk dat grotendeels gefaked wordt.
Bij (normale) gpu renderers heb je ook die ruis aangezien het veelal om progressive rendering gaat (hij blijft doorrenderen en stopt niet).
Als je een tijdje afwacht trekt de ruis weg.
Hierdoor is het wel geschikt voor films waar je maar 1 eindbeeld hebt maar niet voor games want in games wil je dat de wereld snel opgebouwd wordt en niet veel ruis bevat.

Dit is overigens een demo van de 4870x2 aangepast voor deze demo.
Ik neem aan dat als ze het van de grond af aan opbouwen dat er dan meer rekening mee wordt gehouden.
Nog steeds ziet het er beter uit dan de meeste andere games en zelfs streetview heeft het nakijken soms.
Kan dus niet wachten tot dit product wat verder doorontwikkeld is en wij wat meer power onder onze kont hebben.
"Ik neem aan dat als ze het van de grond af aan opbouwen dat er dan meer rekening mee wordt gehouden."

Dat zal denk ik tegenvallen. Het zijn allemaal redelijk bekende algoritmes en zijn vooral afhankelijk van de rekensnelheid.

"Nog steeds ziet het er beter uit dan de meeste andere games en zelfs streetview heeft het nakijken soms."

Alleen draait wat je in het filmpje ziet mischien op kwart hd resolutie. En zoals ik al zei, de scene setting is bewust gunstig voor deze rendertechniek gekozen. Door de velle zon valt de ruis in de schaduwen minder op. Maar als je een scene hebt die het meer moet hebben van strooilicht dan wordt het volgens mij niet om aan te zien. Maar zelfs in deze gunstige setting zie je al dat na beweging er nog amper resolutie aanwezig is en dat is voor bijvoorbeeld een shooter niet te doen.

"Kan dus niet wachten tot dit product wat verder doorontwikkeld is en wij wat meer power onder onze kont hebben. "

Ik ook niet maar het gaat denk ik nog wel een paar jaar duren voordat er iets echt speelbaar is. Hardware zal nog een paar stappen vooruit moeten. Tot die tijd moeten we het doen met engines zoals unreal die het grotendeels faken.
Akkoord, ik had er misschien inderdaad bij moeten vermelden dat ik consumergrade hardware bedoelde. Met een NVIDIA Titan of de grid technologie is het inderdaad wel al mogelijk. Maar zelfs dan vreet het nog steeds verschrikkelijk veel resources van de gpu.

[Reactie gewijzigd door Moonsurfer_1 op 19 mei 2014 13:26]

IDD GRID was voor mij ook de eerste keer dat ik het realtime zag gebeuren.
Beste stukje van die show: Even with an APPLE we can get a decent looking picture and framerate :P

Het wachten is natuurlijk op een dedicated (co)processor voor pathtracing die dan later weer geintegreerd wordt in de gpu zoals dat ook met T&L en PHYSX gebeurde bijvoorbeeld.
En hoewel tesla's, knight corners en GPGPU een stap in de goede richting zijn betwijfel ik of dat de beste manier is om dit soort berekeningen af te handelen.
Iemand met chipbouwkennis die hier meer over zou kunnen zeggen?
Bijna alles kan 1op1 toegepast worden mits je rekening houd met het verschil in power.
Een Render is statisch dus kan veel hoger uitgevoerd worden dan iets wat continue 30-120fps aan moet leveren.
Dat verschil is in 5-10 jaar ingehaald dus zo gek is het niet (wat ik nu realtime kan was dagen/weken werk 10 jaar terug).

Belichting is inderdaad altijd een kwestie van afwegen "wat is het waard", 100 uur extra renderen voor hoe een lichtstraal breekt als het door een blaadje valt is in een film not-done (after-effects is makkelijker) maar voor een wetenschappelijke simulatie is het noodzaak (hoe accurater hoe beter).
Gaming is ook een tak van simulatie maar door lagere power en andere eisen zoals fps licht de kwaliteit lager.
Vaak zorgt een samenwerking tussen beide takken voor nieuwe technieken en inzichten.

En ray-tracing en path-tracing zijn realistische simulatietechnieken die inderdaad voor de meeste mensen op het oog vervangbaar zijn met andere technieken maar voor fysieke accurate berekeningen zijn het nog steeds een van de meest gebruikte technieken.

En uiteindelijk willen we toch allemaal een game die niet van het echt te onderscheiden is ;)
Dat komt omdat je in een ongeoptimaliseerde 'artiesten'-omgeving werkt.
Verder neem ik aan dat je dan vooral stills aan het renderen bent en die vereisen veel meer detail dan een real time dynamisch gebeuren (dat dus ook in real-time gerendert moet worden).
Uiteindelijk zal voor real-time rendering zaken als bandbreedte gaan meespelen. Als het device niet de bandbreedte heeft om al dat geheugen snel genoeg aan te spreken dan heb je er niet zoveel aan.
grotere mappen, meer spelers, meer objecten

zo zijn er nog wel wat meer redenen waarom extra werkgeheugen geen kwaad kan

zit dus niet persee gebonden aan high res textures
En sterk verouderde 'game-engines', zoals die gebruikt in CoD.
CoD is zeker geen grafisch hoogstandje, dus zou ook niet zoveel (6GB) RAM hoeven claimen. Op dat Punt zou Tracy gelijk hebben. Echter zijn de Unreal- en CryEngine en FrostBite veel efficiënter, waardoor het nog wel even kan duren voordat 8GB te weinig wordt.
Dat zullen ze ongetwijfeld ook doen, en het is ook niet dat die beperking op dit moment al een probleem is. Na een X jaar worden er nieuwe features in game engines gestopt en zal de grafische kracht ook omhoog gaan (zie ook het verschil tussen launch titles op X360/PS3 en wat er nu ligt). Gedeeltelijk komt dit natuurlijk omdat men de console beter leert kennen en wat de limitaties zijn. Maar reken maar dat over een X jaar iedereen tegen de limitiaties van de consoles loopt, of dat nou het geheugen is of de CPU, dat komt er aan.
Probleem is wel dat dit dan niet alleen geldt voor de consoles.
De xbox one gebruikt als basis gewoon Windows 8. Als de X1 te weinig geheugen heeft met 8 GB dan zal een gemiddelde pc met Windows 8 ook meer dan 8Gb nodig hebben voor de engine van het spel.
De gemiddelde game-PC heeft 10 GB aan geheugen beschikbaar: 8GB DDR3 + 2GB GDDR5.

Toch wel een verschilletje. Daarbij is het ook nog zo dat beide een eigen interface en dus ook bandbreedte beschikbaar hebben (PCIE + DDR sloten), dit itt de consoles.

Men heeft in de consoles wel heel leuk een efficiente oplossing gevonden om GDDR5 / ESRAM te benutten voor zowel OS als GPU, maar ik denk dat het juist die oplossing is waar Crytek over valt. De aard van shared geheugen is nou eenmaal dat het minder performance biedt; vol is vol, en bandbreedte is gelimiteerd.

[Reactie gewijzigd door Vayra op 19 mei 2014 10:37]

"De aard van shared geheugen is nou eenmaal dat het minder performance biedt; vol is vol, en bandbreedte is gelimiteerd. "

Ben ik het niet mee eens.
'Vol is vol' geldt voor elke hoeveelheid. Is dus geen beperking van shared memory.
En ook bandbreedte is altijd een issue, ongeacht de busarchitectuur.
Jij denkt dat gescheiden geheugen sneller is, maar je vergeet dan dat er ook nog heel veel tussen de geheugens moet worden getransfered. En dat gaat dan weer veel sneller met een unified architectuur. Volgens mij kun je dus niet simpelweg beweren dat een unified architectuur slechter performt.
Is het niet zo dat GDDR5 alleen voor specifieke handelingen sneller is? Net zoals DDR3 niet echt een snelheidsmonster is voor GPU's ?
Uiteindelijk gaat het bij consoles om hoe de boel in elkaar past.
Het gaat dan bijvoorbeeld om hoe je (bij een gemiddelde game) dat gddr5 geheugen gaat gebruiken. Er wordt bij ontwerp van een ocnsole veel meer rekening gehouden met hoe bandbreedtes, latencies en caches tegenover elkaar komen te staan dan puur met de specs van de losse onderdelen. Je kan wel een stukje supersnel geheugen inbouwen maar als dat bij het renderen niet veel wordt gebruikt dan is het gemiddelde voordeel klein.
En andersom geldt dat ook. Mischien is een bepaald stukje bandbreedte erg klein, maar als het gebruik ervan maar een klein deel is van je totale fametijd dan maakt het niet veel uit.
En op die manier worden die apparaten ge-engineerd.
Het komt dan niet aan op een speciffieke geheugentechniek maar om hoe alles met eklaar in tandem te krijgen is.
Ander mooi voorbeeld is de cell processor. Die was berekend op een bepaalde performance. Maar je haalt dat alleen als je het ding op een specifieke manier gebruikt en daarbij ook nog eens het geheugen strakker gaat beheren zodat het geheel een soort gesmeerde engine wordt. Hoe dat moest was voor veel developers aan het begin nog niet helemaal duidelijk maar er was dus blijkbaar bij hardware ontwerp al wel voorspeld dat dat ding op zo'n manier gebruikt kon worden.
Sterker nog, de ibm documenten zij daar redelijk specifiek over maar het vereist wel een compleet andere aanpak dan wat mensen van conventionele cpu's gewend zijn.

Nu weet ik niet meer van welk type gddr5 was, ik dacht high latency, high bandwidth, maar je mag er enigzins vanuitgaan dat dat wel een goed overwogen keuze is geweest voor hoe de designers het systeem willen zien draaien.
Ja, in een notedop: DDR3 is geoptimaliseerd voor low-latency random access (beter voor systeemgeheugen), ten koste van bandbreedte. GDDR5 is geoptimaliseerd voor bandbreedte, ten koste van de latency (beter voor streaming/videogeheugen).
De gemiddelde game-PC heeft 10 GB aan geheugen beschikbaar: 8GB DDR3 + 2GB GDDR5.
Je draait dan ook wel een veel completer/generieker OS, en veel meer software in de achtergrond.
Daarnaast is het zoals je zelf al aangeeft nogal een verschil of je CPU en GPU beiden van hetzelfde geheugen gebruik kunnen maken of niet.
Op een PC zul je bv textures in systeemgeheugen moeten zetten en selectief naar videogeheugen swappen als de 2 GB niet voldoende is. Dan heb je dus redundantie.
Je draait dan ook wel een veel completer/generieker OS, en veel meer software in de achtergrond.
En toch pakt m'n Windows met al die extra programma's maar 1,5 GB geheugen, pakweg de helft van de 3GB die gereserveerd wordt voor het OS in de Xbox One.
De 3GB die momenteel gereserveerd staat kan nog aangepast worden, het is beter om dit nu te ruim in te schatten dan dat je het Xbox OS maar 1GB geeft en er later geen nieuwe functies meer aan toe kunt voegen aangezien de games er vanuit gaan dat ze de overige 7GB ter beschikking hebben.

Als je nu 3GB reserveert en je kan dit over een periode van een aantal jaar terugbrengen naar 1,5GB door middel van optimalisatie terwijl je ook nog nieuwe functies heb geïntroduceerd dan kan je die andere 1,5GB alsnog vrijgeven voor het gebruik door games.
Inderdaad, die uitwisseling tussen VRAM / DDR3 is er natuurlijk ook nog. Maar dan nog is er meer ruimte en bandbreedte beschikbaar voor die communicatie, of niet? (de exacte cijfers heb ik niet-)
De gemiddelde PC op dit moment heeft 4Gb werkgeheugen + 1Gb op de videokaart.

Als crytek over de performance valt van shared geheugen, dan vallen ze daar nu al overheen en niet in later stadium.

En het gaat mij er niet om of het geheugen makkelijk uit te breiden is of niet (dat valt namelijk nog wel een beetje tegen bij 8Gb), het gaat mij om de hongerigheid van de engine. Een beetje game engine mag toch echt wel in de 4Gb range blijven en anders moet het een en ander eerst maar eens geoptimaliseerd worden.
Ik heb veel liever dat de standaard voor game engines niet op die armzalige 4GB ligt, puur omdat de consoles in de afgelopen 7 jaar al voor een absolute stilstand hebben gezorgd met de armzalige 512 MB die ze hadden. Met andere woorden: de huidige consoles stapelen achteruitgang op de stilstand die er reeds was op game-gebied.

x64 is er al een poosje, XP support is nu officieel beeindigd, het wordt onderhand wel heel hard tijd om de 32 bit principes los te laten. 4 GB voor de engine *inclusief* VRAM is toch wel heel beperkt en in vergelijking met een aantal PC games allang een flinke stap terug.

Maar goed, ik zeg al sinds de aankondiging van de X1/PS4 dat dit een console gen is die je net zo goed kunt overslaan, om allerlei redenen, waarbij de voornaamste de verhouding prijs/prestatie + buy-in op een ecosysteem is.

[Reactie gewijzigd door Vayra op 19 mei 2014 11:07]

Nee, ik heb het over de PC.
Vergeet niet dat een engine op XP maar 2Gb ter beschikking had. Maximaal 3, maar dan moest je je pc al anders configureren.

Dus alleen de engine, zonder VRAM is 4GB al best aardig. Op dat moment hebben de consoles ook geen probleem. Als ze daar niet in kunnen blijven, dan moeten ze echt aan optimalisatie gaan doen.

Of zou het ook geen probleem meer zijn als het OS van de toekomst gewoon als voetprint al 4Gb werkgeheugen nodig heeft? Op het moment dat Microsoft zegt dat Windows 1Gb nodig heeft schreeuwd iedereen moord en brand, maar een game engine die meer dan 4Gb nodig heeft (en veel minder functies uitvoert) is wel normaal?

[Reactie gewijzigd door SunnieNL op 19 mei 2014 11:59]

De gemiddelde PC is wat anders dan de gemiddelde game-PC he. ;)
De gemiddelde PC is de pc die 80% van de bevolking gebruikt om mee te gamen. Consoles worden ook gekocht door het normale volk en niet door de die-hard gamers.
Maar niemand koopt die gemiddelde PC van jou met de intentie of het idee dat ze er serieus mee gaan/kunnen gamen; getuige de forum topics over al die K&K systeempjes waar men dan een GPU in wil stoppen, om erachter te komen dat dat toch eigenlijk niet gaat. Dat kan je niet vergelijken met een game PC - het gebruiksdoel was ten tijde van aankoop gewoon anders. Dat is hetzelfde als verwachten dat je kan tekstverwerken met Office op een PS4.

Dat uiteindelijk op die ondermaatse PC ook wat games draaien betekent niet dat dat de standaard is. Sterker nog: die standaard liep jarenlang steeds verder uiteen en is pas sinds twee jaar weer wat dichter bij elkaar aan het komen, nu 1080p qua GPU kracht gewoon makkelijk bereikbaar is voor 120-160 euro. Dat is ook de reden dat de PS3/X360 ten tijde van launch zo'n enorm goede investering was: het prijsverschil met gelijke hardware in een PC was groot. Dat is nu niet meer zo.

[Reactie gewijzigd door Vayra op 19 mei 2014 12:17]

Ik vraag me echt af onder welke steen jullie leven. Want met de instelling die jullie tikken is de xbox one en de ps4 ook niet bedoelt om mee te gamen.

De consoles zijn gebouwd om iets beter te presteren dan de gemiddelde pc die bij mensen thuis staat en niet tegenover high end pc's van 1000+ euro.
Game engines worden geschreven voor gemiddelde pc's en niet op de high end pc's van 1000+ euro. Als ze dat laatste zouden doen, dan zouden ze geen game meer verkopen, want niemand heeft dan een pc die het spel kan draaien.

Dus op het moment dat een game ontwikkelaar nu roept dat 8GB (!!!) te weinig is, dan gaat hij op een gemiddelde pc over 4 jaar ook niet werken, want die hebben dat op dat moment ook niet.

Het gebruikersdoel van een console is casual gaming, niet hardcore gaming want die groep koopt sowieso nooit een console omdat ze 100+ frames willen halen.
Wat dat betreft ben ik blij dat jullie geen game ontwikkelaars zijn, want dan zou jullie bedrijf binnen een jaar failliet zijn omdat je niets verkoopt omdat er maar 20% van alle gamers voldoet aan een systeem met de hardware specs ...
Voor +/-450 - 500 euro heb je een PC die gewoon BF4 op 1080p draait. Iets wat beide consoles niet fatsoenlijk kunnen. Zat guides hiervoor te vinden op het internet.

Om dan te zeggen dat ze de gemiddelde PC outperformen, dan vraag ik me af wat je hier onder verstaat. Want op moment is PC verruit betere bang for buck dan de nieuwe gen consoles.
hij heeft het over game pc's en niet de huis tuin en keuken pc

de gemiddelde game pc heeft idd 10GB aan geheugen
Het het verschil dat het toch net wat makkelijker is om in een gemiddelde PC het geheugen uit te breiden dan in de gemiddelde console.
je vergeet wel dat van die 8GB 3GB voledig naar het besturingsysteem gaat
en een pc heeft een apparte grafische kaart met appart geheugen, terwijl de xbox one de textures gewoon op die 5gb die overblijft geplaatst word
ook is ram upgraden bij een pc heel gemakkelijk en ook redelijk goedkoop
Als hier meerdere game-ontwikkelaars over beginnen kan het wel eens voeten in de aarde hebben.
Echter, vooralsnog dient Crytek zijn zaakjes gewoon beter voor elkaar te krijgen.
Uiteindelijk dien je je als game-ontwikkelaar (en/of engine-ontwikkelaar) aan te passen aan de beschikbare hardware. Dat is het hele principe aan consoles. De PC-wereld is een ander verhaal.
Is het niet altijd al zo geweest dat games naar jaar of zoiets op de pc langzaam aan mooier en spoeler begonnen te draaien dan op de console. 512MB is bij huidige consoles ook al heel tijd een bottleneck, op pc kunnen al jaren grotere textures gebruikt worden. Jaren terug bij elders scroll oblivion zag het op de pc al vele male beter eruit. Ik vraag me dus af of het niet gewoon normaal is voor console dat naar tijdje de games niet meer voluit kunnen draaien.
Is het niet altijd al zo geweest dat games naar jaar of zoiets op de pc langzaam aan mooier en spoeler begonnen te draaien dan op de console.
Bij deze generatie is het zelfs zo dat ze vanaf het begin al behoorlijk achterliggen op de PC.
Een game als Crysis 3 is op de console toch wat eenvoudiger qua graphics dan op een stevige PC. Daarnaast spelen we op een beetje PC al jaren in 1080p met 60+ fps, en dat halen deze consoles ook nauwelijks.
Ik zou zeggen dat die 8 GB nog de minste van de problemen is, dat is relatief veel (de 512 MB in de XBox 360/PS3 was in verhouding echt minder. Ik had in m'n PC rond 2006 toch echt wel meer dan 1 GB systeemgeheugen en de videokaart alleen al had al 512 MB of meer).
De APUs zijn gewoon te zwak, die hadden makkelijk 1080p op 60 fps moeten halen.

[Reactie gewijzigd door Scalibq op 19 mei 2014 11:11]

Volgens mij is dat niet iets van de huidige generatie, maar is dit altijd al het geval geweest. Quake 1 op de N64 zag er in vergelijking met de PC versie ook niet uit bijvoorbeeld. Resolutie was vroeger nooit zo'n ding omdat een TV met een PC monitor moeilijk te vergelijken was.

Het boeit ook allemaal niet zo heel veel, ontwikkelaars moeten zich gewoon schikken naar de hardware. De vorige generatie had 512mb geheugen en daar kwamen toch geweldige games voor uit. Nu hebben we 16x zoveel geheugen, dus kom maar op zou ik zeggen :)
Volgens mij is dat niet iets van de huidige generatie, maar is dit altijd al het geval geweest.
Zeker niet altijd... Toen bv de PlayStation 1 uitkwam, waren 3d accelerators op de PC nog niet eens beschikbaar, en was de PS1 toch echt wel mooier/beter dan software rendering op de gemiddelde PC (meestal een 486, of een vroege Pentium).
Ook de DreamCast/XBox/PS2-generatie was behoorlijk geavanceerd voor z'n tijd.
De XBox360/PS3 was misschien iets minder geavanceerd in verhouding, maar toch moest je nog met een behoorlijke PC komen om die consoles te kunnen verslaan.
De huidige consoles zijn echter ronduit zwak. Een Core i7 van een paar generaties terug met een mainstream videokaartje gamet rondjes om deze consoles.
Het probleem is vooral dat ze niet echt de stap voorwaarts kunnen maken. Gamen op 720p kon met de vorige generatie al vrij aardig, en zelfs een game als Crysis of Battlefield zag er al heel behoorlijk uit, ondanks de beperkingen.
De eerstvolgende stap is dus 1080p, en dat had deze generatie gewoon moeten halen. Nu ze dat niet doen, vallen ze nogal in een niemandsland. Wel beter dan de vorige generatie, maar niet significant genoeg.

Afgezien daarvan ben ik het wel met je eens dat het niet zozeer gaat om hoe krachtig de hardware wel niet is. Vooral de Wii heeft toch wel bewezen dat je heel succesvol kunt zijn, en hele leuke games kunt leveren, zonder technisch/grafisch cutting-edge te hoeven zijn.
Oblivion was een launchgame op de PS3 en destijds was alleen een high-end PC krachtig genoeg om dat beter te draaien als op die console.

[Reactie gewijzigd door Vayra op 19 mei 2014 10:40]

Zou het niet mogelijk zijn voor Sony en MS om later meer geheugen in te bakken? De PS3 heeft ook meerdere generaties gehad die wat andere hardware had. Toegegeven, dat ging om de hardeschijf maar als ze dat met een HDD kunnen moet dat ook met RAM bankjes kunnen lijkt me.
meer geheugen toevoegen is geen optie in consoles. Het hele idee is dat er nauwelijks iets aan hardware veranderd. Of denk jij dat er een hoop mensen blij zijn dat ze thuis komen, het spel erin zetten en de melding krijgen dat de game niet op hun console kan draaien omdat ze nieuwe versie met meer geheugen moeten hebben?
En een DYI upgrade kit is dan zeker ook geen optie? In de PS3 was het ook gewoon mogelijk om de HDD zelf te vervangen. De nieuwe generatie is PC hardware dus ik vermoed (al weet ik dat niet zeker) dat het ook gewone RAM bankjes zijn. Misschien is dat niet zo hoor, ik heb nog geen teardown van een PS4 gezien.
Precies ... Crysis draait op een redelijk high-end system nieteens lekker. Wil je alle pracht en praal eruit halen op een doorsnee pc, dan kan je nu aan crysys 1 gaan beginnen (overdreven, I known). Punt is: Crytek moet of beter rekening houden met beschikbare specs, of efficienter programmeren.
De CryEngine is juist een hele goede, efficiente en schaalbare engine.
Het enige punt is dat ze hun games dermate schaalbaar maken dat het met een super-highend systeem amper te doen is.
Maar Crysis 1 kon je prima draaien op een vrij bescheiden systeempje. Je moest alleen niet verwachten dat je dan DX10 met vol detail, een bak AA, en extreem hoge res kon halen.
Toen Crysis 1 uitkwam, had ik een Core2 Duo met 3 GB geheugen en een 8800GTS 320. DX9 draaide altijd prima. DX10 was in het begin een ramp. Na een berg updates aan Vista, GeForce drivers en de game zelf, draaide ie op DX10 met max detail ook zeer acceptabel in 1280x1024 op dat systeem, zonder AA dan.
Tegenwoordig kun je die game makkelijk op een mainstream kaartje draaien in 1080p met 4xAA, en verder alles voluit.

CryTek heeft daarna CryEngine ook bepaald niet onverdienstelijk geport naar de XBox360 en de PS3.

TL;DR: schaalbaarheid is het sleutelwoord.
Dat is natuurlijk onzin.

Het gaat hier over bottlenecks. Zie het als een GPU met genoeg stream processors voor een degelijke framerate op 1080p, terwijl die maar 1GB VRAM heeft: door die 1GB VRAM wordt de rest van de GPU in zijn prestatie beperkt.

Omdat in de PS4 en de X1 het geheugen shared is, kan het best weleens een lastig verhaal zijn en ik denk ook zeker dat Crytek dit niet zomaar laat weten. CryEngine is niet de minste en ook enorm in opkomst als engine in allerlei verschillende soorten games. Het is dus weldegelijk zo dat ze enig recht van spreken hebben. We hebben niets aan hardware die de courante engines niet goed kan handelen, net zoals we niets hebben aan engines die op geen enkele hardware goed draaien.
Als hier meerdere game-ontwikkelaars over beginnen kan het wel eens voeten in de aarde hebben.
Voet in aarde zal het sowieso niet hebben. De consoles gaan niet aangepast worden, dat zou voor veel te veel gedoe zorgen.

De developers konden met 512MB uit de voeten tot vorig jaar, dus dat zal met 8GB ook echt wel lukken.
Ook zul je in de PC-wereld moeten voldoen aan de algemene hardware. Als jij een game schrijft die 16GB DDR3 als vereiste heeft, zul je weinig games verkopen gezien aangezien een klein percentage dit in zijn machine heeft zitten. Je sluit dan automatisch alle kant-en-klaar PCs, (game)laptops, internet-cafe's, zelf-bouwers die 16GB nog niet nodig vinden en all-in-one's uit.

[Reactie gewijzigd door ItsNotRudy op 19 mei 2014 11:16]

Het is juist Crytek die hun zaakjes goed op orde hebben. Zo is Crytek de enige die het eSRAM volledig benut van de Xbox One. De methode die ze gebruiken hebben ze onlangs nog gedeeld met andere game developers. We moeten heel blij zijn dat er developers zoals Crytek bestaan, juist dit soort game developers zorgen ervoor dat het maximale uit de consoles wordt geperst. :Y)
Wat een onzin. Crytek optimaliseert zijn games maar lekker. Als ik game op mijn PC heb ik meer dan voldoende aan 8GB.

Goed dat een game als Crysis, Stalker hier mogelijk last van heeft kan ik begrijpen maar dat zijn dan ook de enige games van alle tientallen die released worden.

Schroeven ze het detail maar wat terug ;)

En ook al zou Crytek gelijk krijgen waarom hebben ze dat niet teruggekoppeld in het developerproces van aankomende games aan Microsoft en Sony.
Juist, en moet je eens zien wat ze uit die PS3 persen met zijn 512MB (welke gesplitst is in 2x256MB).. En we weten al lang dat Crytek nou niet echt de meest geoptimaliseerde engines levert, In de tijd van Farcry had je al een hele dikke vette PC nodig om deze fatsoenlijk te kunnen spelen..

Dat is ook meteen het probleem van veel hedendaagse developers, ze zijn zo 'lui' geworden dat ze amper nog optimaliseren voor mindere hardware dan waar zij op zelf op draaien (en dat geldt ook voor webdevelopers)..
Sorry?... Dat is juist het hele PROBLEEM. Ze dienen zich NIET te houden aan de limitaties van consoles, daardoor krijg je juist mindere resultaten.
Ja, ik ben het er mee eens dat het product goed moet werken als je een console-versie uitgeeft, natuurlijk. Maar dan zou ik er als ontwikkelaar van af zien en gewoon bij het systeem blijven dat wél voldoet aan wat m'n product nodig heeft.

Dus Crytek, ga maar lekker terug naar de PC. Laat 't een voorbeeld zijn.

En trouwens, ookal ben je geen Crytek en maak je geen producten die zwaar op 't systeem zijn, consoles hebben tóch vaak wel prestatie-problemen. Dat is ook weer een kwestie van optimalisatie, maar toch, het is niets anders dan limitaties bij die dingen.

(Notitie: Ik kom misschien over als een console-"hater", maar ik heb ze zelf natuurlijk ook gehad, anders kon ik er niet veel over zeggen. Dit is gewoon uit mijn ervaring; Consoles zijn het meest problematisch qua prestaties.)
Tja crysis 1 was een prachtige game voor z'n tijd maar later zag je genoeg mooiere games die minder zwaar waren, en dan doel ik op PC.

Ze hebben wel gelijk maar als je nou eens zelfs zaakjes op orde hebt dat een game niet onnodig zwaar is kom je er ook mee, kijk naar de latere games op PS3, dan pas zag je ontwikkelaars de hardware goed benuttigen en op ten duur gebeurt dat ook met de huidige generatie consoles.

Hardware is 1, ontwikkelen van een game zonder hem onnodig zwaar te maken is 2.
Crytek heeft volgens mij nog nooit van optimalisatie gehoord, kijkend naar hun engines. Hun antwoord is altijd: "Gewoon meer power in een pc frotten, is niet onze taak om iets soepel te laten lopen". Ofja, daar komt het dan op neer ;) Ik koop dan ook geen games die op die engine draaien.
Nah niet mee eens ze hebben met Ryse tot nu toe meer uit de Xbox One geperst dan welke developer dan ook. En dat is echt heel bescheiden hardware.
Tel daarbij op dat Crytek de enige is die het eSRAM volledig benut van de Xbox One. De methode die ze gebruiken hebben ze onlangs nog gedeeld met andere game developers...
Na Crysis 1 ben ik al gestopt met Crytek. Geen idee wat de huidige games doen, ze hebben het destijds al verknalt voor mij ;)
Crysis 1 liep best ruk jah maar de graphics waren zijn tijd toen ook ver vooruit.
Het feit dat Crysis enorm slecht omhoog scaled als je er zwaardere hardware tegen smeet, was een vrij goed teken, dat wat er achter de schermen gebeurde, niet heilig was.

Veel mensen hebben best wel wat geld gestoken in zwaarder hardware, maar in praktijk ging hun performance niet omhoog zoals je zou verwachten.

Crytek is niet een bedrijf dat in mijn ogen synoniem staat met geoptimaliseerde ontwikkelaars. Toch niet op PC gebied. Dat ze op Consoles mogelijk wel beter hun best doen, zal 9/10 kans gewoon liggen op het feit dat die eco systeem vast ligt.

Dat is eigenlijk de truc, maak een grafische monster, iedereen wilt het zien / proberen, men lopen tegen fps problemen aan. En dan legt men gewoon het probleem bij de klanten.

Op de PC markt kan je een grafische shooter maken, dat iedereen tegen 15fps speelt en dat men zegt: "Iedereen moet maar upgraden". Maar op de Console kom je niet weg met zo een excuus ( en zal MS/Sony wel ook iets te zeggen hebben ).
Misschien eens efficiënter met je resources omgaan? Sorry maar het is nogal een upgrade in verhouding tot de 360 en ps3. Of praten ze echt over 5/6 jaar verder? Uiteindelijk wordt alles wel een keer een bottleneck namelijk. Lijkt mij dat 8GB een hele mooie vooruitgang is in de PS4 en One.

[Reactie gewijzigd door arjentjuh op 19 mei 2014 10:12]

Xbox360 en PS3 hadden 4 jaar eerder al uit de schappen gehaald moeten worden
512mb ram was anno 2008 al weinig

is een beetje een wasse neus om van 512mb naar 8GB iets speciaals te noemen...

consoles horen future proof te zijn en dat zijn ze met deze Spec's niet echt

[Reactie gewijzigd door firest0rm op 19 mei 2014 10:05]

Xbox360 en PS3 hadden 4 jaar eerder al uit de schappen gehaald moeten worden
512mb ram was anno 2008 al weinig
Waarom? De beste games van de vorige generatie zijn allemaal in de laatste jaren uitgekomen, en daar zaten gewoon pareltjes tussen die je gewoon op je day-1 PS3 of 360 nog kunt spelen. Die games hadden er misschien wat mooier uitgezien als ze op PS4 of Xbox One waren uitgekomen, maar of ze daar ook leuker of beter door waren geweest betwijfel ik, het is namelijk ook totaal niet zo dat PC games gemiddeld genomen 'beter' of 'leuker' zijn omdat ze op krachtigere hardware lopen.

Wat de opmerking van CryTek betreft denk ik dat het wel meevalt met die bottleneck, als je games als GTA V en TLoU al op een systeem met 512 MB shared memory kunt halen, dan moet 8 GB geen enkel probleem zijn voorlopig. Als de nieuwe engines daar moeite mee hebben dan moeten ze gewoon maar anders programmeren, meer data streamen vanaf disc zoals bij de PS3 en 360 ook prima leek te werken. Apart dat CryTek over het geheugen begint ook, omdat na de bekendmaking van de specs meerdere developers juist aangaven vooral blij te zijn met de grote hoeveelheid RAM.
pareltjes?
als jij die kartel randjes en extra kleine maps met minder spelers pareltjes noemt okey..

in bepaalde games zijn zelfs hele achtergrond effecten weg gelaten omdat ze het anders niet aan konden.
Daar is het een console voor, je kunt geen high-end graphics voor 400 euro totaal verwachten, zeker niet als dat nu al 5 jaar oud is. Bekijk voor de gein de spellen uit 2009 nog eens, we zijn sindsdien ook wat vooruit gegaan. Daarna nog eens kijken wat we in '99 high-end vonden, dan ga je pas echt huilen.
Ik heb niet het idee dat er bezuinigd wordt op map size in console games, en online multiplayer interesseert mij persoonlijk geen drol, dus hoeveel spelers er op passen ook niet. Als je echt serieus online multiplayer games wilt spelen doe je dat waarschijnlijk toch niet op een console vanwege de controllers.

Dat je af en toe een karteltje ziet is jammer maar doet voor mij niks af aan het spelplezier, als dat heel jouw spelervaring verpest en daarom niet meer van een goed spel kunt genieten dan kan ik alleen maar zeggen: your loss.

Als je het mij vraagt zorgen hardware limitaties er in zekere zin vaak zelfs voor een beter spel, omdat de designers het van beter art design en betere gameplay moeten hebben, in plaats van wat hogere resolutie textures. Het is niet voor niks dat bijna alle klassiekers uit het verleden uitkwamen op hardware die bij de release eigenlijk al 'verouderd' was.
De beste en meest verkochte games deze generatie zijn wel allemaal verkocht op de consoles of waren daar exclusief voor. Ik laat genres als MMORPG's hier even in het midden.
Heb je gezien wat ze in 2012 nog uit de 360 en PS3 haalden? 512MB was niet veel, maar vergeet niet dat je PC's en consoles op dit vlak niet met elkaar kunt vergelijken. Consoles hebben minder OS overhead, en bieden veel meer ruimte tot optimalisatie (immers maar 1 platform). Dat maakt dat consoles veel meer resultaat uit relatief beperkte specs kunnen halen dan een PC.

Daar komt bij (wat hierboven al gezegt is), dat elke ontwikkelaar wel meer resources tot zijn beschikking wil hebben :)
Hoewel ik het qua optimalisatie helemaal met je eens ben gaat dit voor RAM natuurlijk niet zo maar op. Er past niet meer info in een zooi bitjes of dit nu op een homogeen of heterogeen platform is. :+
Voor een console kun je erg goed optimaliseren omdat er maar één hardwareplatform is. Bij een PC heb je minimaal 2 verschillende merken CPU (Intel en AMD, beiden met verschillen in instructies), X merken video kaart en Y soorten. Ook RAM, hardeschijf, moederboard e.d telt allemaal mee, iets wat bij een homogene console niet het geval is.
Consoles horen ook betaalbaar te zijn en dat zijn ze dankzij deze specs nog wel. ;) Ik had liever ook nog krachtigere consoles gehad maar heb nu de PS4 en vind het een erg leuke vooruitgang op grafisch gebied en dan is dit nog maar de eerste generatie games. Vond zelf ook niet dat de 360 en PS3 al eerder uit de schappen moesten gehaald worden. :)
Wat is betaalbaar? Voor een gamepc die misschien een jaar of wat meegaat betaal je ook zo 1000 euro, een console moet het waarschijnlijk wel wat langer volhouden, en daar heb je dan vast ook meer plezier van per bestede euro op de lange termijn.

Een pc om mee te gamen schroef je ook niet in elkaar voor 400 euro (en ook nog 1080p @60fps @high). Het is het Xbox360 en PS3 weer helemaal opnieuw, alleen haalt de techniek ze nu sneller in.

De vorige generatie consoles was destijds wellicht vergelijkbaar met een gamepc van 2000 euro, waarbij de nieuwe generatie consoles nu al achterloopt en met een dubbele investering al een betere gamepc in elkaar zet. En als ze nu al gaan klagen terwijl de consoles amper een jaar op de markt zijn dan zullen ze wel snel met een upgrade versie moeten komen.

Ik kan leuk kiezen voor een 'stabiel' platvorm, maar als ik als ontwikkelaar toch meer uit me apparatuur wil halen dan zou ik gewoon voor een PC ontwikkelen en dan misschien eens een port naar de consoles brengen ipv andersom. Als het al de moeite is om consoles in het achterhoofd te houden...
Probleem is dat misschien 20% van de gamers die 1000 euro voor hun pc betalen. De andere 80% van de mensen die games kopen hebben een console of een pc van 400/500 euro.

Als jij moet kiezen om een game te ontwikkelen die je 20% of 80+10% kwijt kan.. welke doelgroep zou jij dan kiezen ??
Er is meer dan 10x zoveel geheugen bijgekomen en dat zijn grote sprongen hoor!
storm in een glas water

ja in verhouding zijn het grote sprongen maar als je kijkt naar wat de markt heeft aan te bieden hadden ze gerust het dubbelle erin kunnen stoppen

en ik zeg niet dat dat nou persee moet maar om nou super duper enthousiast te zijn

nee niet echt...
tja, en kijk wat een naughty dog toch weer uit 8 jaar oude hardware kan persen, puur omdat ze precies weten hoe ze de hardware moeten benutten, en zelfs dan nog leren ze elke keer weer wat nieuws..

En dat is het probleem met PC gaming, het is gewoon bijna niet meer mogelijk om nog goed te optimaliseren omdat er ontelbaar veel configuraties zijn.. Maar als er werkelijk 1 hardwarestandaard zou zijn, dan zou daar heel veel meer uitgehaald kunnen worden..
wat een onzin

games worden geschreven op een pc en getest op de pc's met devkits

als het onbetaalbaar zou zijn zouden ze niet eens die games kunnen maken voor consoles |:(

het slecht porten naar de pc heeft vaak gewoon met lax heid van de developers te maken en met de uitgevers die er uberhaupt geen geld aan uit willen geven

[Reactie gewijzigd door firest0rm op 19 mei 2014 15:22]

eens... de ontwikkelaars hebben voor consoles maar met 2 verschillende soorten hardware te maken. gewoon creatief zijn zoals dat bij vorige generaties ook was. Who cares dat een game er voor de pc wat beter eruit gaat zien. gewoon roeien met de riemen die je hebt en gewoon vette games maken... Er zit echt nog wel flinke rek in deze hardware.
Daarbij is minecraft een van de best verkochte games op de 360 in zijn laatste jaren dus laten ze zich nou maarndruk maken om de ervaring in plaats van de graphics
Wat een teleurstelling die "next gen". Het is gewoon zielig om te lezen al die berichten, het is al goed nieuws dat er op 1080p 60hz een game kan draaien. Dit zou naar mijn mening normaal moeten zijn voor een console anno eind 2013.
Houd wel even rekening met de prijs van de consoles.. Iedereen verwacht er ook heel veel van, maar denken ook dat het high-end specs heeft, lijkt het wel. Je kunt nou eenmaal niet te veel willen.
als je er rekening mee houd dat je 50¤ per jaar moet betalen voor online(wat bij pc niet hoeft) is het nog steeds zielig, met een 600¤ pc kan je elke game op dit moment op zen minst op 1080p 50fps draaien, en je bespaard 50¤ per jaar na 4 jaar
vergeet niet dat bij jou pc van 600 euro ook nog wat kosten extra bijkomen

de gehele computer toetsenbord/muis windows 7/8 licentie
pak 650 inclusief windows en keyboard-mouse
fx6300-90¤
r9-270 - 150¤
500gb WD blue = 50,
mobo = 70,
case=60,
psu cx430=45,
70¤ voor 8gb ram
80¤ windows
20¤ sharkoon fireglider muis
20¤ toetsenbord(gaming keyboards hebben weinig voordeel naar mijn mening, anders kan je sharkoon skiller of zoiets pakken voor 30¤, dan kom je op 660-670¤)
En dan kan je nog zaken gebruiken als je je PC upgrade. Dat vergeet men vaak bij deze PC vs Console prijzen discussies.

Of het feit dat de basis game prijzen goedkoper zijn ( of soms zelf spotgoedkoop ... Humblebundles, Steam promo's, enz ).

Mensen vergelijken altijd de basis console prijs vs PC, maar men vergeet dat de PC veel meer doet. En de paar keer dat ik een console kocht, dan gaf ik niet 399¤ uit, nee, want je moet een game of 2 hebben, en mogelijk een 2de controller, of een HD, en nog paar extra's. En voor je het weet was de prijs al volop 600¤.

Persoonlijk haat ik deze discussies van console prijzen vs PC prijzen. Vaak omdat men niet verder kijkt dat de basis prijs van de console, en wat het hun echt zou kosten over de levenstijd van die console.

Toen ik Jong was, wou ik een Amiga 500 kopen, maar men ouders hadden maar een PC gekocht. Vandaag ben ik Programmeur / Netwerkbeheerder / Server beheerder enz, zowat jan met de veel petten. Zou ik dat geleerd hebben met de Consoles? Nee ...

Feit is, dat PC's uitstekende leerplatforms zijn, voor later de generatie als men ECHT werkt moet doen. Men vrouw heeft geen ervaring met PC's van tijdens haar jeugd, en nu bijt dat zich in haar achterste op haar werk.

Consoles zijn hetzelfde potje nat in mijn ogen. Goed voor gaming, multimedia, maar zonder een deftige IT basis dat je krijgt van het gebruik van PC's, zal je later in je werk afzien of carrière kansen verliezen.

M.a.w, laat men maar discuteren over de console prijzen, en gans die toestand. Als ouder zal ik met plezier men kinderen een PC voorschotelen zelf al kost het meer, want de kennis dat men opdoet, zal geen enkel school evenaren. Men kan kinderen leren werken met PC's op school, maar als je geen interesse hebt, gewoon omdat het een studie vak is, ... Kinderen moeten kunnen "spelen" met PC's, spullen kapot doen, enz maar men leert er uit.

Het gevolg is, dat de kinderen dat ervaring hebben met PC's, vaak beter zijn op gebied van bureau werk. Wat leert men van Consoles? Juist ...het heeft geen educatieve waarde.

Ik zeg niet dat Consoles onnodig zijn, maar als men de boel afschildert vaak als:

Keuze: Console of PC ... Nee ... het mag geen prijs discussie zijn tussen console vs pc. Nu ja, mogelijk is mijn mening vertroebeld maar als IT'er zie ik zo vaak mensen dat nauwelijks met Office kunnen werken, dat het hun dagelijks werk beïnvloed in de negatieve zin. Feit is, dat ons maatschappij op gebied van werk enorm IT gericht is. En zonder de kennis of "feel" ervoor, durf je best wel kansen missen.
Die kosten bespaar je ook al op de prijs verschillen met console en pc spellen (humble bundle, steamsales, etc). plus als je extra controllers en andere simpele accessoires bij je console haalt , dan zit je ook al op die extra kosten of hoger.
Het is misschien jammer dat er betaald moet worden voor de online mogelijkheden, maar dat heeft niet heel veel te maken met de prestaties van de consoles zelf. Als die consoles nou ook ¤650 waren geweest, waren ze natuurlijk ook krachtiger geweest. Je vergelijking was beter opgegaan als je een PC van zo'n ¤400 als voorbeeld nam.
je moet natuurlijk niet alleen naar de instapkosten kijken, maar naar het totaalplaatje
bedrijven kunnen ook pc's van 650¤ tegen 500¤ verkopen en dan hun netwerkkaart achter een paywall van 50¤ per maand zetten zodat ze na 3 jaar 50¤ per jaar winst maken
natuurlijk geven microsoft en sony extra dingen bij xbox live en ps4, maar je krijgt er niet veel meer voor terug dan wat steam al jaren gratis doet
oke als ze mbv die online kosten de instapprijs zouden verlagen of de hardware krachtiger maken, maar nee een groot deel van dat geld gaat mooi naar het exclusief houden van games voor hun platform, that's the way the industry works

[Reactie gewijzigd door jeroen7s op 19 mei 2014 17:28]

het hele idee van een console is dat er winst gemaakt moet worden op spellen, helaas is dat niet meer zo. Ik vind het jammer dat je zo beperkt word, wil best wat meer betalen voor een goede console, voor 600 dollar bijvoorbeeld, met hun inkoopprijzen (is vele malen goedkoper dan voor de consument vanwege miljoenenafname) kan je makkelijk een high end machine neerzetten.

Maar helaas, in plaats van in hardware te investeren word er 100 miljoen gepompt in een controller die niet echt anders is dan de xbox 360 controller.

http://hardware.slashdot....er-100-million-to-develop
De Xbox 360 kostte $299 en beschikte destijds wel over componenten die in een desktop > $800 zouden kosten. Zelfde geld voor de PS3.

Natuurlijk heb je ergens wel een punt, van betaalbare consoles kan je niet alles verwachten, maar ik ben van mening dat met name de Xbox One met haar 1,3 TF wel heel erg karig is.
ps3 koste tijdens release 600 euro
en de xbox360 kosten tijdens release 400 euro

http://en.wikipedia.org/wiki/Xbox_360_launch
http://en.wikipedia.org/wiki/PlayStation_3_launch

weet niet waar jij je prijzen vandaan haalt

verder verkochten sony en microsoft de consoles tegen verlies
zo hielden ze de prijs laag maar hadden consumenten wel high end game systemen binnen

[Reactie gewijzigd door firest0rm op 19 mei 2014 10:13]

Het 360 core system kostte 299. Staat in je eigen bron... 8)7

Sony koos voor zelfgemaakte onderdelen en bovendien voor een blu-ray lezer terwijl die spelers destijds alleen al $800 kostten.

[Reactie gewijzigd door Richh op 19 mei 2014 10:16]

sony koos voor de cell processor die zij samen hebben ontworpen met IBM en Toshiba

ook een reden waarom sony pas 10 jaar na release winst begon te maken op de ps3
16 jaar? zolang is de PS3 nog niet eens uit, waar haal je zoiets vandaan...

Verder vrij offtopic. Op consoles maakte Sony verlies maar ze maakten winst op de games.
10 jaar bedoelde ik..
Lolwut? Is het al 2016 dan?

De PS3 kwam in 2006 uit :)
was de 360 core niet zo'n spelcomputer zonder hdmi aansluiting ?
Klopt, dat systeem kon je enkel analoog via composiet of via een VGA-kabel aansluiten op een HD-beeldscherm (over beide is gewoon 1080p mogelijk).
Idd, ze ontkennen gewoon dat beide consoles eigenlijk flops zij.
Gelukkig heb ik er nu nog geen last van, maar mocht de tijd weer komen, een potje voor een game pc staat alweer klaar. :)
ik vind het belangrijker dat een game er gewoon goed uitziet en nog belangrijker lekker speeld en dan boeit de resolutie me niet en zeker Crytek heeft een handje van overkill in het begin van crysis kreeg het elke Video kaart op zijn knieen.
ze zouden eens moeten kijken bij de Demoscene misschien lukt het ze dan wel om langer onder de 8GB te blijven
Heel raar.. voor een dedicated en getweakte machine, zou 8GB meer dan voldoende moeten zijn.. :?

Ze gaan er vanuit dat het 'in de toekomst' een bottleneck gaat worden.. Maar ik verwacht juist dat ze 'in de toekomst' juist beter en economischer gaan programmeren waardoor dat elkaar zal opheffen.. (Zie vorige consoles..)
Jammer maar helaas, dat verhaaltje gaat dit keer niet op omdat er x86 architectuur gebruikt wordt in de huidige consoles.
Het blijft nog steeds gelden voor een console, want bij de console leert met de hardware door en door kennen zowel de CPU als GPU, en daar kan men heel veel mee halen. Bij de PC wordt er totaal geen aandacht meer aan besteed omdat je met generieke drivers werkt welke rekening houden met ontelbaar veel verschillende GPU's.. Een GPU van 5 jaar geleden zou vele malen meer uit te halen zijn als men dedicated op die GPU programmeert.
Zelfde geldt ook voor de CPU..
Het vreemde is, als je kijkt naar de GPU architectuur, is er tussen AMD/ATI en Nvidia niet zoveel veranderd op gebied van hun GPU's van ... pakweg 5 jaar geleden.

Men heeft gewoon de bestaande ontwerp genomen, en vaak meer shaders, enz toegevoegd, en toegevoegd, en toegevoegd ... Er zijn aanpassingen aan de ontwerpen gebeurt, maar de basis in hetzelfde gebleven, en men heeft constant gewoon de boel omhoog geschaald.

Een game dat geoptimaliseerd is, zou gerust die zelfde optimalisaties kunnen benutten over de verschillende generaties van GPU hardware. Het is niet alsof er zoveel GPU verkopers nog zijn deze dagen? Bijna alles komt van AMD/ATI of Nvidia, m.a.w, er zijn maar 2 platformen voor te optimaliseren. Een beetje zoals op de Console markt.

Iemand kan gerust code schrijven in ASM ( assembly ), en die zelfde low level, snelle code, zal zelf vandaag nog altijd werken op een PC. Maar niemand dat dit zal doen... kost te veel tijd voor te optimaliseren. Idem met shader code enz enz ...

Hoe komt het dat Nvidia & AMD om de zoveel tijd uitkomen met drivers, waarbij x spel 10,20,50% sneller, z spel, y spel ...

Omdat die gewoon bepaalde code onderscheppen dat niet geoptimaliseerd is in de games, en zelf optimalisaties doorvoeren. In praktijk doen zij het werk van de game ontwikkelaars, omdat ze natuurlijk willen dat hun GPU's de snelste zijn.

De Nieuwe GPU drivers van Nvidia 337.50 bèta,...
GeForce GTX 700 Series (Single GPU):
Up to 64% in Total War: Rome II
Up to 25% in The Elder Scrolls V: Skyrim
Up to 23% in Sleeping Dogs
Up to 21% in Star Swarm
Up to 15% in Batman: Arkham Origins
Up to 10% in Metro: Last Light
Up to 8% in Hitman Absolution
Up to 7% in Sniper Elite V2
Up to 6% in Tomb Raider
Up to 6% in F1 2013
GeForce GTX 700 Series (SLI):
Up to 71% in Total War: Rome II
Up to 53% in Sniper Elite V2
Up to 45% in Aliens vs. Predator
Up to 31% in Sleeping Dogs
Up to 20% in CoD: Black Ops 2
Up to 10% in Hitman Absolution
Up to 9% in F1 2013
Up to 7% in Far Cry 3
Up to 6% in Metro: Last Light
Up to 6% in Batman: Arkham Origins
Die zelfde winst zie je ook op de "oudere" GPU's gewoon omdat ze technische bijna dezelfde zijn. Maar natuurlijk wilt men tonen hoe sneller hun laatste GPU zijn he ;)

In praktijk kopen we PC gamers, vaak GPU's terwijl er in praktijk vaak enorm wat onbenut prestatie aanwezig zit, gewoon omdat men niet optimaliseert deze dagen.
Wat is er zo speciaal aan de x86 architectuur (en ten opzichte van welke andere architectuur bedoel je dat)? :?
"Het wiel is reeds uitgevonden. Efficiency slagen zijn veel beperkter dan bij de vorige generaties consoles."

Die slagen zullen er wel komen hoor.
Het zullen inderdaad niet zulke grote stappen zijn als bij bijvoorbeeld de ps3, maar daarbij moet je bedenken dat de ps3 dus aan het begin gwoon zeer slecht gebruik wist te maken van de beschikbare rekenkracht. Je kunt hierdoor stellen dat de games aan het begin van die generatie onnodig slecht waren.

"PS. hou toch eens op met dat zielige -1 modden als je het ergens niet mee eens bent. Daar is het niet voor... "

Heb je het tegen mij? :)
De downmod zal wel niet van jou zijn gekomen; was algemeen. Ik heb de -1 van PC Mustard Race moeten compenseren, vond ik erg vreemd want wat hij zegt is zo gek nog niet...
aah,. ja., hij verdient zeker geen -1.
Jij hierboven overigens ook niet ...
beetje voorbarige uitspraak van Crytek; ze hebben zelf nog niet eens een Next-gen game uitgebracht. en met die 512MB van de PS3 en Xbox360 kon je ook prima games maken, en inmiddels ook grafisch goede games. kijk bijvoorbeeld naar The Last Of Us... :9~
op een PC tover je dat niet tevoorschijn met 512mb RAM...
bij de vorige generatie is dat ook niet te weinig gebleken, en kan het zo 8 jaar mee, ook al is het nu gruwelijk verouderd. het is puur optimalisaties die je door kunt voeren, en omdat elk systeem hetzelfde is, dat je er veel meer uit kunt halen.
beetje voorbarige uitspraak van Crytek; ze hebben zelf nog niet eens een Next-gen game uitgebracht
Correct, maar ze werken wel aan een engine voor next-gen consoles, die trouwens ook al te huren is. Ik neem aan dat ze hiervoor regelmatig tests doen en schijnbaar gebruiken ze daarbij regelmatig zoveel RAM dat ze nu zeggen; het zou wel eens te weinig kunnen zijn.
k neem aan dat ze hiervoor regelmatig tests doen en schijnbaar gebruiken ze daarbij regelmatig zoveel RAM dat ze nu zeggen; het zou wel eens te weinig kunnen zijn.
Dan doen ze wat fout tijdens het programmeren van said engine. Met wat optimalisaties e.d. moet het makkelijk nog een X jaar kunnen hoor ;)
Hou er rekening mee dat met debuggen etc er altijd wat minder optimalisatie's etc in zitten omdat optimaliseren veel tijd kost, tijd die weg gegooid wordt als er nog veel aan de code veranderd. Dus ja, het is niet de meest efficiente code. Echter, dat zal een ontwikkelaar ook niet hebben tijdens het ontwikkelen van een game.

Daarnaast zou ik X < 6 schatten. De 10 jaar die de systemen nu aan het volhouden zijn gaan denk ik niet lukken voor de huidige generatie door de resolutie's die steeds hoger worden en de steeds realistischere graphics (voornamelijk op het gebied van physics en lightning)
geeft aan hoe goed je op de hoogte bent. Ryse is uitgebracht door Crytek op de xbox one en verkozen tot mooiste next gen launch game zoals je misschien wel gehoord hebt.

neemt niet weg dat het belachelijk is dat ze aan 8gb niet genoeg zouden hebben waar nu 512 genoeg is op de xbox 360 en ps3 games zijn uitgebreider maar dat verschil zie ik er nog niet aan af
In die 32mb esram alleen kan je al 6GB aan textures stoppen, dus dan zit je al aan 14. Is al wat beter dan.
Nee, 32MB fragmentjes.
en is veel te klein gebleken, zie ook Ryse Son of Rome, en alle platform exlusives die hun resolutie omlaag moeten gooien om alles door de edram te proppen..

[Reactie gewijzigd door stewie op 19 mei 2014 12:49]

je vergist bandbreedte met opslag..
Hahaha, ik lees vooral "Crytek wil graag lui programmeren".
we hebben nog niks gehoord van cry tek straks krijgen we het fiasco van ja hij loopt op 720p lekker next gen als er een game van crytek word aagekondigd
Indeed! Als je met 8gb niet gedaan krijgt wat je wilt (zelfs met next gen graphics/games) doe je toch echt iets inefficient :D
8GB lijkt mij meer dan genoeg in combinatie met zo'n mid-end videokaart en een tabletprocessor.
Crytek zou haar resources eens na moeten lopen als ze aan zoveel geheugen geen genoeg hebben. Bottleneck lijkt mij sowieso eerder in de videochip of CPU te liggen.
8GB lijkt mij meer dan genoeg in combinatie met zo'n mid-end videokaart en een tabletprocessor.
Ik ken weinig tablets met octocore processoren anders..
Het zijn twee aan elkaar geplakte quadcores. Het gaat me natuurlijk om de architectuur, waar de PS3 een serverchip had beschikt de PS4 een tabletarchitectuur...
Het gaat me natuurlijk om de architectuur, waar de PS3 een serverchip had
Oh? PowerPC is anders in Apple's desktops ook gewoon gebruikt hoor, dus waar je 'serverchip' vandaan haalt weet ik zo snel niet.
beschikt de PS4 een tabletarchitectuur...
Tablets e.d. draaien op de ARM architectuur. De PS4 is gewoon X86_64, dus wederom waar je dat vandaan haalt is een raadsel.
...
De Cell chip is in samenwerking met IBM en Toshiba gemaakt met als doel om deze later in servers te plaatsen, en in de PS3. Zo is die chip bedacht en ontworpen.
De Cell vind je terug in onder andere servers van Mercury. Zie ook Wiki.
De Jaguar architectuur is ontworpen als low-voltage processors voor low-power apparaten, bijvoorbeeld op tablets en netbooks, zoals de Gigabyte S10A en die budget-Samsung 'ultrabooks' van plastic die volgens de review een trage processor heeft.

X86/X64 is een instructieset, geen architectuur. Hoe dan ook zijn beide eigenlijk niet de termen waar ik op doel: het gaat om wat die chips kunnen en waar ze voor gemaakt zijn.

[Reactie gewijzigd door Richh op 19 mei 2014 16:11]

Het doel en waar hij werkelijk voor gebruikt is zijn 2 verschillende dingen. Er zijn servers én desktops (en laptops) met PowerPC/Cell uitgekomen, namelijk van Apple. Dat maakt het dus méér dan een server chip in mijn ogen.

En dat de Jaguar als low-power is bedoeld is wederom een slecht voorbeeld. Het is nl. gewoon een X86 chip, mainstream dus...
Architectuur en het prestatieniveau zijn twee verschillende dingen. Het doel van de chip en het prestatieniveau niet.
X86 wordt zowel door Intel op tabletchips geplaatst, als in extreem krachtige servers.
Architectuur is heel wat anders dan hoe de chip daadwerkelijk in elkaar zit. Wat zo'n chip doet wat betreft energieverbruik, wat de maximale prestaties van een chip is en wat de performance per watt is.

X86 kan op talloze verschillende manieren geïmplementeerd worden. Evenals je dat kan doen met PowerPC.
En AMD Jaguar is dus wat anders als die bovenste twee, en is gemaakt voor lage prestaties en laag energieverbruik.
Zoek asjeblieft zelf even benchmarks op van AMD's Jaguar chips (A4-1450) en een gemiddelde Haswell dekstop-chip of een nieuwere AMD-desktop chip. Die benchmarks zijn al onvindbaar omdat het een totaal onlogische vergelijking is (tablet vs desktop) maar als je algemene benches opzoekt zal je erachter komen dat Jaguar echt op een totaal ander niveau zit.

[Reactie gewijzigd door Richh op 19 mei 2014 16:49]

Zoek asjeblieft zelf even benchmarks op van AMD's Jaguar chips (A4-1450) en een gemiddelde Haswell dekstop-chip of een nieuwere AMD-desktop chip.
Bovendien zou die vergelijking niet eerlijk zijn omdat de PS4 een aangepaste variant van de Jaguar chip heeft.

Bovendien vergelijk je dan 2 verschillende soorten chips, de Jaguar is een SOC terwijl de Haswell dat niet is. Een vergelijking tussen een Jaguar en een Atom zou beter zijn, aangezien Atom Intel's "tablet" chip is.

En trouwens, in een console is de CPU allang de bottleneck niet meer, dus waarom focussen we ons daar zo op? Het is meer de snelheid van de GPU die ertoe doet. Maar dat terzijde.

[Reactie gewijzigd door sfranken op 19 mei 2014 17:02]

Het cpu gedeelte werkt gewoon hetzelfde. Het custom is het aantal cores en de kloksnelheid. En natuurlijk het gpu gedeelte.
Qua cpu is dat iig een 1:1 verhouding en daar hebben we het over.

Dat Jaguar ook een north/southbridge intern heeft en dat hij vastgesoldeerd zit, maakt het opnieuw niet onmogelijk om te vergelijken. Qua cpu prestaties kan je nog altijd benchmarks draaien en een verschil constateren.

We focussen ons hier op omdat ik de discussie begon met een statement dat de chip in de PS4 een tabletchip is. In je post hierboven vind je het eerlijk om te vergelijken met Intels tabletchips dus ik neem aan dat je nu begrijpt wat mijn punt daarin was ;)
Dat je nu de goalposts wil verzetten vind ik een beetje jammer.
Ik wil de goalposts niet verzetten, ik zeg alleen maar iets wat ik al langer had willen zeggen.

Ik ben het nog steeds niet met je eens dat de chip in de PS4 een tabletchip is. Waarom is een chip een chip voor een server or een tablet? Door het energieverbruik? Dan is een ARM server cluster ook geen server. De lijnen worden steeds vager wat nou precies waarvoor is.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True