×

Laat je stem gelden!

Dit jaar organiseren we voor de elfde keer de Tweakers Awards! Wat vind jij de beste tech- en elektronicaproducten van het afgelopen jaar? Laat je stem gelden en ontvang 50 ippies. Je maakt bovendien kans op een Philips Hue Starter Pack, JBL Charge 3, Call of Duty: WWII of twee vrijkaarten voor de uitreiking op donderdag 1 februari!

Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Afbeelding toont MSI R9 290X-kaart met 8GB gddr5

Er is een afbeelding online gekomen van een R9 290X-videokaart van MSI die volgens de box-art 8GB gddr5 heeft. De afbeelding komt op een moment dat er geruchten gaan over de introductie van meer versies van de R9 290X, maar ook van de Nvidia GeForce GTX 970 en 980 met 8GB.

De afbeelding van de MSI R9 290X met 8GB gddr5 is verschenen op Videocardz. Specificaties zijn verder niet bekend, behalve dat MSI de kaart van een Twin Frozr IV-koeling voorziet en dat de kaart overgeklokt is. De publicatie lijkt een gerucht van eerder deze week te bevestigen, namelijk dat AMD toestemming aan partners heeft gegeven om vanaf 6 november versies van de R9 290X met 8GB gddr5 uit te rusten.

Dat gerucht was afkomstig van Sweclockers, maar noemde toen nadrukkelijk Club3D, Sapphire en Powercolor als exclusieve partners die met de kaarten zouden komen. In dat rijtje lijkt MSI dus ook te horen. De kaarten zouden prijzen krijgen die 10 procent hoger liggen dan die van de 4GB-versies. Overigens is het niet de eerste keer dat er een 8GB-variant van de R9 290X verschijnt; Sapphire bracht al eerder een dergelijke kaart in beperkte oplage uit.

AMD zou tot de stap besloten hebben in reactie op de introductie van de Nvidia GeForce GTX 970 en 980. Die kaarten vormen met goede prestaties en een laag verbruik geduchte concurrenten. Volgens Videocardz gaat Nvidia nog in november antwoorden met de komst van 8GB-varianten van de GeForce 980. Daarmee herhaalt de site een eerder gerucht van september, dat Nvidia in november en december met 8GB-versies van de GeForce 980 en 970 zou komen. De Japanse site Hermitage Akihabara voegt hier nog aan toe dat in het eerste kwartaal van 2015 de GTX 960 te verwachten is, hoewel het ook nipt eind 2014 zou kunnen worden. Onduidelijk is hoe de Japanse site aan de informatie komt.

Door

Nieuwscoördinator

144 Linkedin Google+

Reacties (144)

Wijzig sortering
Elke keer dat ik lees dat spellen 6GB VRAM nodig hebben of dat er video kaarten uitkomen met zoveel geheugen denk ik kan dit niet opgelost worden met "tiled resources" een techniek die aan DX11.2 is toegevoegd. Ik weet niet of dit al een keer is aangehaald in alle discussies maar moet dan steeds aan die demo's van Microsoft denken die deze techniek gebruiken.
http://www.giantbomb.com/...worth-of-texture-1448545/
Ja dat is idd interessant, gaat deze techniek ook mee naar dx 12 ? zo ja zou dit idd kunnen helpen, mits dit ook bij de xbox geimplanmenteerd word en game ontwikkelaars het ook gaan gebruiken !
ook vraag ik me af hoeveel cpu overhead dat gaat geven ?
Maar waarom? Welk spel maakt hier nu al gebruik van? Natuurlijk is meer altijd beter, maar ik zou dan eerder denken aan een echte opvolger met een nieuwe chip en betere prestaties. Maar goed, wel weer interessant dat we nu bijna de consoles na kunnen bouwen, maar dan met veel meer horsepower.
Er zijn al paar games (van lui devs die geen zin hebben in goede optimalisatie van een game) die zoveel geheugen gebruiken.
Welke dan ? Devs die 4k textures meeleveren maken JUIST goede port's.

Echt slechte port's zijn gewoon games met FPS lock/fixed resolution of buitegewoon slechte performance op redelijk equivalente hardware als de consoles.

Games als bijvoorbeeld Dead Rising 3 die bedroevend lopen op PC zijn eigenlijk nog niet eens echt slechte ports want de game loopt al dramatisch op de Xbox One. Heel die game is een technisch rotzooitje ongeacht platform :p
Ook GTA 4 en de huidige NFS games.
Door de hardware van de nieuwe consoles, en het feit dat veel games op zowel de PC als de nieuwe consoles uitkomen, stijgt de vraag naar videogeheugen op 't moment snel. Op de consoles zijn grote texturen e.d. nu mogelijk vanwege de 8GB aan gedeeld geheugen. PC's hebben over het algemeen een prima hoeveelheid werkgeheugen, maar een kleinere hoeveelheid videogeheugen. Deze kaarten compenseren volgens mij voor deze discrepantie.

Overigens kan ik niet helemaal beoordelen of het echt nodig is om zoveel videogeheugen te gebruiken, of dat dit vooral gebrekkige optimalisatie is. Maar wij willen als gamers scherpe texturen zien, en dan lijkt het me tot op zekere hoogte onvermijdelijk dat er meer geheugen nodig is.

[Reactie gewijzigd door geert1 op 30 oktober 2014 14:11]

Overigens kan ik niet helemaal beoordelen of het echt nodig is om zoveel videogeheugen te gebruiken, of dat dit vooral gebrekkige optimalisatie is. Maar wij willen als gamers scherpe texturen zien, en dan lijkt het me tot op zekere hoogte onvermijdelijk dat er meer geheugen nodig is.
Bij titels als crysis en battlefield heb je mechanismen die hoge resolutie textures het videogeheugen instreamen voor objecten die dichterbij komen. Op de nieuwe consoles is dat niet nodig omdat al het geheugen ook videogeheugen kan zijn. Kleine studio's zullen dat niet speciaal voor de pc versie willen ontwikkelen aangezien het er op 2GB kaarten ook nog wel ok uitziet.
Titanfall is misschien een aardig voorbeeld, komt qua graphics niet bij crysis 3 in de buurt, maar slurpt wel videogeheugen (en schijfruimte vanwege ongecomprimeerde audio in 8 talen).
Daar zal het inderdaad deels wel in zitten: Optimalisatie door middel van "on-demand" streamen van texturen is lastiger en daar wordt blijkbaar geen tijd ingestoken. PC-versies van multiplatform-titels krijgen sowieso weinig aandacht over het algemeen, zelfs die van grote studio's, en voor de consoles is dergelijke optimalisatie niet nodig. Dat wil zeggen: nog niet, want later in deze console-generatie kan het goed zijn dat het alsnog gaat gebeuren om nog meer of grotere texturen te kunnen gebruiken. Ook die 8GB aan gedeeld geheugen kan vol raken natuurlijk.

En wat betreft schijfruimte: Op dat gebied worden games ook snel groter, maar dit is op zich niet zo'n probleem naar mijn mening. Opslag is niet duur, en het zou niet realistisch zijn om te verwachten dat games even groot zouden blijven terwijl de graphics telkens beter worden (en de omgevingen groter worden). Dat er weinig aan compressie wordt gedaan, is volgens mij om de laadtijden laag te houden en de CPU te ontzien; beide kan ik tot op zekere hoogte goed begrijpen. De audio van Titanfall is wel een extreem geval; dat had zeker handiger gekund.

[Reactie gewijzigd door geert1 op 30 oktober 2014 16:03]

Er zijn inmiddels een aantal games waar 6GB al een vereiste is om op maximale quality te spelen... Dit komt door de PS4 en Xbox One, die met hun 8GB shared RAM nogal veel ruimte hebben en developers beginnen daar gretig gebruik van te maken.
Dit komt niet door de PS4 of de X1.

Dit komt door slechte ports van de devs, slechte optimalisatie.
Das onterecht, textures worden gewoon steeds groter zeker als je op 4K gaat gamen heb je enorm grote textures nodig voor de extra scherpte.
Dit komt inderdaad niet door de PS4 of Xbox One. Deze consoles hebben al moeite genoeg om op 1080p fatsoenlijke framerates neer te zetten, laat staan 4K gaming. In de huidige generatie consoles zit een budget GPU die niets heeft aan meer dan 2GB geheugen omdat in situaties waarbij meer geheugen verschil maakt deze GPUs toch al te traag zijn om nog fatsoenlijk te presteren.

Meer geheugen voor PC games komt door zaken als:
  • Veel hogere scherm resolutie dan consoles.
  • Grotere textures en dus meer detail dan op consoles.
  • Grotere draw distance dan op consoles waardoor meer objecten gerenderd moeten worden.
Dit soort dingen zorgen er voor dat PC games meer VRAM gebruiken dan consoles, ookal hebben de huidge consoles 8GB in totaal. Op deze consoles wordt bovendien nog een flink deel van dat geheugen gereserveerd voor het OS, ook tijdens het spelen van games zodat snel tussen applicaties geschakelt kan worden.

Mensen die roepen dat consoles 6GB VRAM hebben of gebruiken hebben het helaas mis. Het ligt dichter in de buurt van de 2GB. Dat is ook logisch want als je kijkt naar PC gaming op 1080p dan zie je dat grafische kaarten van twee iteraties terug ook allemaal 2GB hadden en dat meer geheugen op 1080p nauwelijks verschil maakt.
Dit ben ik volkomen met je eens. Zo heb je ook laptops die shared memory kunnen gebruiken voor de videokaart. de performance is om te huilen.

Een mooi voorbeeld van een spel die echt baat heeft bij 8GB video geheugen zou een spel kunnen zijn als battlefield 4. Dit spel heeft een ingebouwde texture resolution scaler. waarbij je per 5 of 10% de resolutie kunt verhogen van textures. als je deze op 200% zet dan ziet alles er zelfs zonder anti aliasing super strak uit. maar het loopt op mijn 3 GB SLI setup voor geen meter meer. Hier zul je met qhd schermen of hoger zeker wel baat hebben bij 8GB
Dit ben ik volkomen met je eens. Zo heb je ook laptops die shared memory kunnen gebruiken voor de videokaart. de performance is om te huilen.
Shared memory op een laptop is iets volkomen anders dan unified RAM zoals de PS4 en Xbox One hebben. Ten eerste draait dan de GPU vanaf relatief traag DDR3 geheugen, en ten tweede is het geheugen nog steeds verdeeld tussen een stuk waar de CPU bij kan en een stuk waar de GPU bij kan, en moet gedeelde data dus heen en weer gekopieerd worden. Bij de hUMA architectuur die de consoles hebben is het geheugen volledig transparant en kan de GPU bij wijze van spreken zonder enige overhead 1 byte geheugen veranderen die vervolgens direct door de CPU kan worden uitgelezen vanaf hetzelfde geheugen adres.

Typische game PC's hebben dit niet, die hebben een GPU met lokaal GDDR geheugen, en dan nog DDR systeemgeheugen. Wil je taken distribueren tussen de CPU en de GPU dan moet deze in blokken heen en weer over PCI-expres gestuurd worden en dat is ramtraag. Als het over de performance karakteristieken van consoles vs. PC's wordt gesproken op sites als dit dan blinken de meeste mensen uit in onwetendheid en roepen maar wat op basis van papieren specs: 'budget GPU', 'trage CPU', 'maar 5 GB RAM beschikbaar', 'x86 dus het is gewoon een PC' enzovoorts. Als je echt gaat kijken wat je uit zo'n doosje kunt trekken als je gebruik maakt van de eigenschappen van het system (hUMA, veel cores, snel geheugen, relatief lage output resolutie, vast aantal CU's waarover je compute taken kunt verdelen) dan kun je er prestaties uit halen die je in theorie met gemak uit een mid-range PC systeem kunt persen, maar in de praktijk bij lange na niet gaat halen omdat je simpelweg voor de lowest common denominator moet programmeren (dus geen kleine compute taken op de GPU draaien, niet uitgaan van 8 cores, VRAM gebruik binnen de perken houden, etc).
Sinds wanneer zijn de vele cores van de consoles een voordeel. Het multithreaded maken van games is notoir lastig voor devs en zij willen dus liever een paar sterke cores hebben dan veel zwakke. En vergis je niet de cpu cores van de consoles zijn zeer zwak. Ze zijn op de jaguar architectuur gebaseerd wat voornamelijk een low power design is met een lage ipc. Daarbij zijn die cores ook vrij laag geklokt wat geen wonderen doet voor de performance. En alleen de ps4 heeft gddr5 geheugen de xbox heeft ook gewoon ddr3 geheugen dus daar moeten devs ook nog rekening mee houden.

[Reactie gewijzigd door superrock op 31 oktober 2014 13:12]

Het multithreaded maken van games is notoir lastig voor voor devs
Dat was zo ja. Inmiddels zit dit in alle game engines. Als dev heb je hier bijna niks meer mee te maken. Tenzij je een game engine dev bent :+
De meeste games zijn 8-threaded tegenwoordig. Toch blijkt uit alle benchmarks dat de minimale framerate en de gemiddelde framerate bij een 8-core AMD processor gewoon lager ligt dan bij een 4-core Intel processor. Vooral als je games ook nog gaat streamen. Dan blijft de intel je een mooie framerate geven terwijl het op de AMD een slideshow wordt.

En de 8-core processor van de consoles is dus nog zwakker dan de 8-core PC processoren van AMD. Veel zwakker...
De scaler waar jij over praat heeft niets met de textures te maken maar puur met de interne render resolutie van de 3D wereld.
Als je dan bijvoorbeeld 1920x1080 hebt, en je zet die scaler op 200%, dan rendert de game in 3840*2160, om vervolgens te downscalen naar 1920x1080.
Dit is ook waarom je geen AA nodig hebt om het er strak uit te laten zien.
Dat is volgens mij wel degelijk aa. Supersampling aa om precies te zijn wat ook het meeste vraagt van de videokaart.

[Reactie gewijzigd door superrock op 31 oktober 2014 13:10]

Grotere textures heeft helemaal niet zo veel invloed op VRam gebruik als men denkt.

De resolutie van de textures aanwezig op het VRam heeft bijv te maken met de afstand van de camera tot de textures in de meeste games.

Dus de super hoge resolutie textures zullen alleen geladen worden wanneer je in-game je neus er in wrijft.

Het probleem is alleen dat omdat ze zo 4gb aan VRAM op de consoles hebben dat ze op de consoles gewoon altijd de hoogste resolutie geladen hebben en de systemen die in het verleden hiervoor verantwoordelijk waren nu op PC releases weg worden gelaten.

[Reactie gewijzigd door Cld op 30 oktober 2014 14:51]

Het probleem is alleen dat omdat ze zo 4gb aan VRAM op de consoles hebben dat ze op de consoles gewoon altijd de hoogste resolutie geladen hebben en de systemen die in het verleden hiervoor verantwoordelijk waren nu op PC releases weg worden gelaten.

De consoles hebben niet zo 4GB aan VRAM. Van de 8GB geheugen gaat zo'n 3GB naar het OS. Dan wordt nog zo'n 3GB gebruikt voor werkgeheugen doeleinden. En maar zo'n 2GB wordt voor VRAM doeleinden gebruikt.

Er bestaat geen huidig spel dat voor 2096x2096 textures meer dan 4GB VRAM vereist. Alleen voor een optioneel 4K texture pack (4096x4096 textures) heb je soms meer nodig. Al geven de gebruikers aan dat zo'n texture pack zelfs met 3GB VRAM nog goed draait.

[Reactie gewijzigd door dusty-2011 op 30 oktober 2014 19:07]

Het zit hem er volgens mij in , dat de fps niet gecompressed zijn, dit om de CPU te ontlasten, hierdoor menen ze veel meer geheugen in beslag.

Daarbij is het niet zo zwart wit als 3gb voor ram en 2 als vram. Je moet het ( mist je het spel goed geoptimaliseerde is voor de consol) als 5gb univied ram zien. de cpu en gpu delen dan actief data uit, zonder onderscheid te maken tussen ram en vram. iets wat hierboven ook al genoemd werd.

[Reactie gewijzigd door holhuizen op 30 oktober 2014 20:12]

De consoles hebben niet zo 4GB aan VRAM.
Nee, 'de consoles' niet nee. De PS4 heeft 8GB van het allersnelste GDDR5 geheugen. Unified, dus bereikbaar voor zowel GPU als CPU.

De XBox One heeft geen 8GB GDDR5. Die heeft 8GB DDR3. Dat is nogal een verschil. Het ene is snel video geheugen (waar de meesten hier waarschijnlijk 1, 2 of 3 GB van op zijn videokaart heeft zitten), terwijl het andere gewoon standaard geheugen is (waar velen hier waarschijnlijk al 16GB van op hun moederbord geprikt hebben).

Die twee over één kam scheren slaat dus nergens op. Vooral niet als je eerst (in de context van VRAM) praat over 8GB en daarna in één adem begint over de 3 GB geheugen reserved voor het OS... Die 8 GB heb je alleen op de PS4 en die 3 GB reserved heb je alleen op de XBone. Waar jij het nu over hebt is een niet bestaande next gen met 8GB VRAM waarvan 3 reserved... En alsof je niet op de PC ook al lang een deel van je geheugen kwijt bent aan Windows en achtergrond processen etc.

De PS4 is gewoon best wel een game monster. Dat zeg ik niet, dat zegt John Carmack:

John Carmack:You need a 3.68 Teraflop GPU to match PS4's GPU

Voor de mensen die hem niet kennen; John is de legende achter Wolvenstein, Doom, Quake, Rage en nu technisch directeur bij Oculus Rift. Deze man is één van de grondleggers van het FPS genre en heeft de 3D graphics revolutie vorm gegeven. Deze man analyseert de hardware tot op het bot en perst de laatse druppel performance uit de hardware. Hij geeft aan dat de voor graphics rendering optimized architectuur in combinatie met het feit dat de hele industrie 6, 7 jaar lang één target heeft om voor te ontwikkelen ervoor zorgt dat de consoles gewoon relatief twee keer zo goed presteren; Twee keer zoveel bang voor je buck.

Ondertussen doet in de rest van de thread iedereen weer wat ik PC gamers altijd zie doen. Roepen dat hun machine beter is, dat beweren dat consoles *relatief* krachtiger zijn onzin is en papieren specs vergelijken....
Ik heb in ongeveer 10 posts hier bij dit artikel al aan andere mensen uitgelegd dat de Xbox One 8GB DDR3 geheugen heeft en de PS4 8GB GDDR5 geheugen. Dus ga dat nu alsjeblieft niet aan mij uitleggen.

De PS4 heeft wel degelijk 3GB reserved voor het operating system. Net als de Xbox One. Er zijn tientallen nieuwsartikelen op internet die dit bevestigen. Zoals:
http://www.eurogamer.net/...s3-system-software-memoryUPDATE: A new source familiar with the matter has provided additional information to Digital Foundry that confirms only 4.5GB of the PS4's 8GB GDDR5 memory pool is guaranteed to game developers right now, while also clarifying how the PS4's "flexible memory" works in practice.

In real terms, an additional 512MB of physical RAM may be available in addition to the 4.5GB mentioned in the SDK. Flexible memory consists of physical and virtual spaces, and the latter introduces paging issues which impact performance. In our original story we combined them together.

For practical game applications, the correct figures for this story, as we understand it now, are a guaranteed 4.5GB for development and a further 512MB from the flexible pool.
]

Die quote van John Carmack is van 2011, toen bestonden de next gen consoles bij mijn weten nog niet. Die quote is outdated en onzin.
Die quote was een beetje een laffe search actie geef ik toe, maar als je iets verder zoekt kun je voldoende (ook recente) interviews e.d. met John Carmack vinden waarin hij wel degelijk zegt wat ik beweer: Dat consoles gewoon game monsters zijn en de PS4 in het bijzonder. Kijk maar eens naar de keynote van Oculus Connect. Hierin heeft hij het specifiek over de prestaties van de PS4 vs dat van de PC.
Echter, de consoles kunnen FHD al niet aan, laat staan 4k. Het is dus wel degelijk slechte optimalisatie, aangezien 8GB als minimum werd neergezet. Als 8GB als aangeraden werd neergezet, voor die paar mensen die een 4k display hebben, en bijvoorbeeld 2GB als minimum, dan had het wel gewoon geklopt.

Jij gaat er ook vanuit dat de textures dan ook gelijk op native resolutie zullen draaien, terwijl het vaak zo is dat ze bij hogere resoluties helemaal niet op diezelfde resolutie zullen draaien.

[Reactie gewijzigd door Palmolive op 30 oktober 2014 14:23]

Bij welk spel is 8GB VRAM dan de minimale spec??? Geef eens een bron aub? Dat spel heb ik nog nooit van gehoord.

Volgens mij verwar je VRAM en RAM. Er zijn spellen die minimaal 6GB RAM vereisen. Voor VRAM is de hoogste minimale vereiste die ik ooit gezien heb 2GB VRAM. En de hoogste recommended spec die ik ooit heb gezien voor VRAM is 4GB. Slechts voor een optioneel 4K texture pack heb je bij een enkel spel meer dan dat nodig. Maar zo'n texture pack heeft alleen zin als je op 4K resolutie gamed op een 4K monitor.
http://tweakers.net/nieuw...or-optimale-textures.html

Dit is "alleen" nog maar op 1080p ik heb zelf al een monitor van 2560x1440.
Het zal mij dus niet verbazen wanneer er nog vele volgen.
Daarbij mag je van een high end kaart verwachten dat die ook high end resoluties aan kan. Je koopt niet zo'n kaart om vervolgens alleen aan de minimum eis te voldoen.
Nogmaals, dit is voor 4K textures. Die heb je gewoon niet nodig tenzij je een 4K monitor hebt en op een 4K resolutie speelt. En zelfs dan zie je nauwelijks verschil. Er zijn vele comparison screenshots gepost en op 90% van de screenshots zie je geen enkel verschil, en bij de overige 10% zijn de verschillen minimaal.

Verder wil ik nogmaals aangeven dat heel veel mensen hebben gepost dat het 4K texture pack voor hen perfect werkt terwijl ze maar 3 of 4 GB VRAM hebben. Het ziet er dus naar uit dat je zelfs voor dit ene spel echt geen 6 GB VRAM nodig hebt.

Ik vind persoonlijk 1920x1080 een high end resolutie. Spellen zien er op deze resolutie fantastisch uit op ultra of very high instellingen. En met een topkaart kun je dan ook de 60 fps vasthouden.
Op de resolutie 2560x1440 loop je bij de meest grafisch zware spellen al tegen problemen aan indien je een constante 60 fps wilt met alles op ultra. Je moet op die resolutie compromissen sluiten (of voor SLI/crossfire kiezen). Verder vind ik de meerwaarde van 2560x1440 echt nihiel. 1920x1080 ziet er gewoon fantastisch uit en ik hoef de eerstvolgende 5 jaren niet op een hogere resolutie te gamen. Die extra pixels voegen voor mij niets toe. Ik zie liever betere grafische effecten, betere animaties, etc.

[Reactie gewijzigd door dusty-2011 op 30 oktober 2014 17:25]

... Op wat voor manier probeer je jezelf nu in te dekken.

In het artikel zelf staat duidelijk; recommended system setting for 1080P ULTRA, 6GB or greater. (nog even duidelijk dit gaat dus om het VRAM) Dit is een officiële pers release. Dat er vervolgens legio mensen zijn die prima met 3 of 4 GB toe kunnen is irrelevant.

Of 4k een toegevoegde waarde heeft staat buiten kijf, evenals je eigen persoonlijke voorkeuren en overtuigingen.

Hoge resoluties vragen meer VRAM, de resolutie en texture race is booming dus zorg je als fabrikant er voor dat jou kaart klaar is voor de toekomst. Hoe bizar en zinloos jij dat ook vindt.

Sinds jaar en dag blijven mensen maar huilen over vernieuwingen in de pc markt, stop er gewoon mee.
Je hoort nu ook niet meer iemand klagen dat 512Mb werkgeheugen zinloos is en dat niemand daar ooit iets mee zou kunnen

Persoonlijk verheug ik me al jaren op de eerste bladeren en gras die er werkelijk ook zo uitzien als wat het moet voorstellen. Dat zit in de textures. Stel jezelf eens voor wanneer dat eenmaal zover is, hoeveel VRAM dat wel niet gaat eisen.

Mits goed geprogrammeerd voegt een hogere resolutie al heel wat toe.

Eyefinity staat dan nog buiten dit alles, Dat is een high end set-up. niet 1080P. Hier de betekenis van High-end
http://www.thefreedictionary.com/high-end

[Reactie gewijzigd door koudepinda op 30 oktober 2014 17:59]

Nogmaals, je kunt in Middle Earth: Shadow of Mordor alles gewoon op ultra zetten hoor in de retail release. 3 GB VRAM is alles wat je nodig hebt om alles op ultra te zetten zolang je geen optioneel 4K texture pack installeert.
Moet ik dit nu blijven herhalen of wat? 6GB VRAM is alleen recommended indien je een optioneel texture pack installeert. Je kunt wel door blijven zeveren met screenshots en citaten maar dat verandert hier niets aan.

Ik vind bladeren en gras er in moderne spellen al héél goed uitzien. In Far Cry 3 zagen de planten en bomen er allemaal al supergoed uit, en daar had je niet eens veel VRAM voor nodig. Far Cry 3 weet op veel plaatsen het fotorealisme te benaderen.
Binnenkort komt Far Cry 4 uit, wat ik daarvan heb gezien gaan de planten er weer fantastisch uit zien, met wat meer variatie ook.

En heb je The Vanishing of Ethan Carter al eens gezien op de hoogste instellingen? Het draait hier heel soepel met 4 GB VRAM. Schitterende planten en bomen, bijna fotorealistisch.

Kijk maar eens wat al allemaal mogelijk is met 3 of 4 GB VRAM:
http://www.dsogaming.com/...oads/2014/08/screen-3.jpg
http://www.dsogaming.com/...oads/2014/08/screen-1.jpg
http://www.dsogaming.com/...oads/2014/08/screen-2.jpg
http://www.newgamenetwork...nCarter/EthanCarter04.jpg
http://www.mobygames.com/...enshot-a-small-bridge.jpg

The Vanishing of Ethan Carter schijnt ook nog heel goed te draaien met maar 4GB RAM en 2GB VRAM.

Iedereen heeft zo zijn eigen interpretatie van wat high-end is. Persoonlijk vind ik gamen op ultra op 1080p echt high-end. Zeker met de nieuwste en zwaarste spellen die fotorealisme weten te benaderen.
Eh.. high-end is geen objectief begrip en 1080p is echt niet meer high-end; eerder mainstream.
De screens die je post zijn aardig, maar vergezichten/landschappen zijn nooit zo moeilijk geweest om snel vrij realistisch te krijgen. Ga 's vlak voor een boom/muur/krat/tafel/mens staan en kijk dan wat er overblijft. Daar is waar je die highres textures voor nodig hebt.. niet voor landschappen.

Maar 8GB aan VRAM :| Dat gaat nog even duren voordat dat 'recommended' wordt (op de uitzondering na). Denk dat we dan alweer een paar generaties videokaarten verder zijn. Voor nu ben ik het met je eens dat dit niet echt nuttig is dus.
Daarom zeg ik ook dat fotorealisme benaderd wordt. Ga je heel dichtbij staan dan zie je nog wel wat imperfecties bij spellen als Far Cry 3 en The Vanishing of Ethan Carter. Maar over het algemeen ziet het er schitterend uit.

Dat het nooit moeilijk is geweest om vergezichten en landschappen realistisch te krijgen ben ik niet met je eens. Het is echt pas een jaar of drie dat spellen dit goed voor elkaar hebben gekregen en echt indruk op me maken met vergezichten en landschappen. Als we wat verder terug gaan in de tijd dan komen we op de spuuglelijke landschappen uit de Xbox 360 / PS3 tijd terecht:
http://xboxgame.eninterne...iew-20070207050433023.jpg
http://www.gamerdna.com/u...ll/cyrodiil-landscape.jpg
http://nerdbacon.com/wp-content/uploads/2013/12/Scenery.jpg

Vergelijk deze screenshots eens met die van The Vanishing of Ethan Carter en je zult zien dat de weergave van landschappen en vergezichten zeer sterk verbeterd is.
Er valt niet met jou te communiceren. Je haalt argumenten uit hun context, beschuldigd mij van iets wat ik allereerst niet eens doe. ik heb geen enkele screenshot geplaatst, en de link die ik plaats is het bewijs van jou ongelijk.
Er is geen citaat geplaatst, maar een link naar de definitie van het woord "High-end", een term die je overigens onjuist gebruikt.

Je argumentatie klopt van geen kant. je kan geen vergelijking maken tussen de screenshots van moderne computers en console games van drie jaar oud.
De game in kwestie (Oblivion, 2006) kon op de computer overigens prachtige vergezichten tevoorschijn toveren. Die game is dus ook al 8 jaar uit en laat je argument van 3 jaar een beetje hol achter.

Het woord nogmaals geeft je tekst niet meer kracht en zwakt het met je repetitieve gebruik eerder af.

Het fotorealisme is bijzonder vergezocht, in de enige screenshots van deze discussie, overigens door jou zelf geplaatst.

De bladeren zijn hoekig missen dynamiek en lijken in lagen gedrapeerd over de boom heen gesmeten.(1e link boom in herfst kleur).

Gras is een massieve groene waas met hier en daar een verdwaalde monotone groene streep (wederom 1e link rechts van de boom en 4e link).

De grond textures slaan werkelijk alles. dat is namelijk gewoon een image over glooiende landschappen heen gesmeten.
geen diepte geen detail.
wat uit losse elementen hoort te bestaan is een image.
Takjes buigen over heuveltjes mee kleur verschillen komen onrealistisch over. (2e link rechts onderin)

(3e link) Mist scherpte vooral in de diepte, onscherpe beelden kunnen nogal lastig prachtige vergezichten laten zien. daarbij hebben verticale lijnen die niet loodrecht staan last van aliasing.
De overgang van de damwand naar de berg is te plotseling en klopt het contrast niet.

Daarbij is een mening geen argument, alles wat jou standpunt zou moeten bevestigen is een subjectieve kijk van jezelf.

Dat deze kaart uit wordt gebracht, betekent dat er een markt voor is, dat jij de doelgroep niet bent is wederom irrelevant. Net als jouw mening over het praktisch nut ervan dat is.

Een mening mag je hebben, maar leg je eigen standaard niemand op. Laat dit het einde zijn voor we beiden een ban hebben -.-'
De screenshots die ik heb geplaatst van Ethan Carter zijn echt schitterend, ik denk dat 95% van de tweakers het met mij eens is daarover.
Moderne games maken trouwens gebruik van depth of field. Dus bij vergezichten zal een deel van het plaatje altijd wat minder scherp zijn. Dit is een stilistisch effect dat ik zelf zeer mooi vind, mits het effect met beleid is gebruikt. In Ethan Carter is het effect met beleid gebruikt en niet storend. Het maakt de graphics alleen maar mooier naar mijn mening. Smaken verschillen zullen we maar zeggen.
Ik vind de bladeren, het gras, en de grond textures alledrie schitterend. Een Duitse reviewsite zei niet voor niets "Dit zijn de beste graphics die momenteel mogelijk zijn op de PC". Ik begrijp niet hoe je zó kritisch kunt zijn op deze prachtige screenshots en vervolgens kunt zeggen dat Oblivion op de PC prachtige vergezichten had. Volgens mij ben je aan het trollen en moet ik je niet langer feeden...

Oblivion is inderdaad uit 2006 maar is tekenend voor die generatie (PS3, Xbox360). Pas tegen het einde van die generatie waren er spellen met iets mooiere vergezichten zoals Skyrim. Oblivion had op de PC geen mooie vergezichten, ze waren iets beter dan op de consoles maar daar is dan ook alles mee gezegd. De vergezichten en landschappen van Oblivion op de PC zijn spuuglelijk voor moderne standaarden en kunnen absoluut niet tippen aan games als Far Cry 3/4 en The Vanishing of Ethan Carter. Als je nu Oblivion opstart op de PC schiet je gewoon in de lach zodra je het landschap te zien krijgt. Het fotorealisme dat Ethan Carter weet te benaderen is ver te zoeken bij Oblivion.

Ik heb nooit gezegd dat deze 8GB kaarten geen praktisch nut hebben. Ik zie een heel groot praktisch nut voor deze kaarten. Namelijk mensen met een 4K monitor of met een triple monitor setup. Deze mensen kunnen twee of drie van deze 8GB kaarten in SLI/Crossfire zetten en dan kunnen ze gamen op 4K met 4K textures of gamen op hun triple monitor setup zonder stotteren. Een 8GB kaart heeft voor zo'n mensen wel degelijk voordelen.
Ik zie alleen de komende jaren nog geen noodzaak voor 8 GB VRAM indien je op één 1080p monitor speelt. Dus het is in zo'n geval absoluut niet noodzakelijk om te upgraden naar een 8GB kaart. Je kunt dan gewoon je 3 of 4GB kaart houden.

Mijn punt is een beetje dat sommige mensen aan het panikeren zijn dat hun 3 of 4 GB kaart over één of twee jaar geen enkel spel meer kan spelen. Omdat de consoles volgens hun 8GB geheugen zouden hebben en als je dan op de PC geen 8GB VRAM hebt dan zou je niet meer meekomen. Die argumentatie klopt van geen wal. Houdt je 3 of 4 GB kaart gewoon, maak je geen zorgen, daar zul je voor minimaal 3 jaar nog goed op kunnen gamen als het een high end kaart is.
Nvidia heeft laatst iets ontwikkeld dat realistisch gras rendert, ik denk dat dat eerder de toekomst wordt en niet veel scherpere textures. Uiteraard combinatie van, maar renderen zal meer kwaliteit kunnen opleveren. En het heeft meer dynamiek door de physics die nu al erg realistisch zijn.
true.
Rendering heeft inderdaad de voorkeur boven grotere textures. aangezien die vanuit 1 bron een grote diversiteit kunnen creëren. maar renders vragen ook veel VRAM. Dus in de nabije toekomst zal het VRAM gebruik gewoon toe nemen.
Ik vind het gras in spellen als The Vanishing of Ethan Carter en Far Cry 3 al heel realistisch uitzien. De jaggies die je vroeger bij gras zag hebben ze opgelost met een speciale manier van AA: Alpha to Coverage.
NVIDIA Turf Effects: http://youtu.be/kLVa0NOFdwM

Kan altijd beter.
Maar zo'n texture pack heeft alleen zin als je op 4K resolutie gamed op een 4K monitor.
Dat is natuurlijk onzin. Als je een 4K texture uitsmeert over een muur van 4 meter breed en twee meter hoog en je gaat dan met je character met je neus bovenop die muur staan dan zie je nog maar een fragment van die texture. Dat fragment wordt dan over je hele scherm getoond.

Als je bijvoorbeeld een kwart van een 4K texture ziet dan is dat precies FullHD... Dus ook op een FullHD scherm kun je plezier hebben van 4K textures.
In theorie heb je een punt maar in de praktijk werkt dat niet zo. Indien een texture echt over een heel groot oppervlak wordt gesmeerd en meer dan je hele scherm vult dan is het geen probleem om met weinig VRAM die 4K texture te laten zien. Het is dan immers één texture die je hele scherm vult. Past makkelijk. Het is voor de developers heel makkelijk om de normale textures die niet worden uitgesmeerd in 2K aan te bieden en een paar die wel worden uitgesmeerd in 4K aan te bieden. Daarvoor hoef je niet alle textures in 4K te hebben.
Sorry, maar wederom onzin.

In het VRAM staat veel meer dan alleen de textures. Voor zover als mogelijk staat de hele scene in beeld. Dus alle 3D modellen die zich in de buurt bevinden, alle textures, lightmaps, benodigde physics data etc.

Bestudeer eens hoe frustum culling en z-buffering werken. Dat alleen die ene muur uiteindelijk op het scherm verschijnt wordt pas duidelijk *nadat* de scene gerendered is. Tot die tijd moet alles wat in het view frustum valt gerendered worden. Pas als de GPU de pixel naar het video buffer (dat overigens ook op het VRAM staat) wil tekenen checked hij het z-buffer... als er dan al een pixel staat en die blijkt dichterbij de camera te staan dan wordt de zojuist berekende pixel weggegooid. Zonde ja maar dat verbeteren is heel moeilijk en een science op zich.

Komt er in ieder geval op neer dat er heel wat meer textures in het geheugen moeten staan dan alleen die ene die op die muur zit. En je kunt natuurlijk ook je camera elk moment draaien en dan moet het volgende frame wel snel getekend worden. Nieuwe textures inladen vanaf main ram is traag en moet dus vermeden worden. Allemaal reden waarom het VRAM helemaal volgepropt wordt met data.
Mijn punt was meer dat het niet uitmaakt of je één 4K texture uitsmeert over een groot oppervlak. Of dat grote oppervlak in vier delen opdeelt en dan vier 2K textures ermee opvult. Voor de hoeveelheid videogeheugen wat je nodig hebt maakt het niet. Dus is het geen probleem als je game bestaat uit een combinatie van textures van verschillende groottes (512x512, 1024x1024, 2048x2048, 4096x4096). De kleine textures gebruik je dan voor kleine oppervlakten, en de grote textures smeer je uit over grote oppervlakten. Dan past het allemaal binnen een beperkte hoeveelheid VRAM. En bij een 1080p scherm hoeven lang niet alle textures 4096x4096 te zijn, alleen de meest uitgesmeerde textures hoeven zo groot te zijn.
Je weet wel dat systeemeisen vaak flink overdreven zijn hè? Om als voorbeeld Shadow of Mordor te nemen de game die 6GB eiste voor ultra-textures draait bij mij prima op 3GB VRAM,1080P en alles is echt haarscherp ;)
Ja precies, dan is het misschien wel echt nodig, maar dat kan ik dan nou niet echt slechte optimalisatie noemen zoals hierboven word beweerd.
In het opties menu van Shadow of Morder dat je 3GB voor High textures en 6GB Vram voor Ultra textures nodig hebt, uitgaande van 1080p resolutie.

Toch geen enkel probleem hier met 1440p + Ultra textures op een 3GB kaart
Je weet wel dat systeemeisen vaak flink overdreven zijn hè? Om als voorbeeld Shadow of Mordor te nemen de game die 6GB eiste voor ultra-textures draait bij mij prima op 3GB VRAM,1080P en alles is echt haarscherp ;)
Je haalt denk ik dingen door elkaar. 6GB RAM voor werkgeheugen of 3GB voor videogeheugen? ;) Zie bijvoorbeeld ook Game-Debate.com.

[Reactie gewijzigd door CH4OS op 30 oktober 2014 15:15]

8GB shared op console, maar wel 6GB dedicated op PC ports, dat is slechte optimalisatie.
Geloof zelfs dat Xbox OS nog 3GB inneemt ook, dus 5GB shared misschien zelfs.
Klopt, voor de PS4 geldt hetzelfde. Beide consoles moeten maximaal toe met 5GB voor hun games.
Toch vind iemand van niet, getuige de -1 :D
Inmiddels gewoon tweemaal een +1, zoals volgens mij ook beter past. :)
Niks slechts aan. Monolith vond het nodig om ook een ongecomprimeerd texture pack mee te leveren. Dat dat bijna geen verschil maakt kan je toch zelf ook wel uitvogelen? Daarom speel je op PC mag ik hopen, zodat je wat meer keuzevrijheid hebt.
Shadow of Mordor ziet er prima uit zonder die Ultra textures, en daarnaast zijn zelfs die dus wel te draaien op 3 of 4GB geheugen. Het spel draait als een trein. Ik draai zelf de High textures ('3GB') op een GTX 660 Ti die eigenlijk maar 1,5GB fatsoenlijk geheugen heeft - als je wilt weten hoe dat ook weer precies zat moet je nog even wat reviews erbij pakken. Af en toe een stottertje die ik wel herken uit de dagen dat ik zwaar getexturemod Skyrim wilde draaien op een 1GB kaart, maar het is zeer minimaal.

Het enige wat er op dit moment met de industrie aan de hand is dat men aan de PC gamers wil laten zien hoe grafisch indrukwekkend hun spel is door hele hoge systeemeisen te stellen. Zie bijvoorbeeld de idiote VRAM 'requirements' van oa Evil Within (wat wel weer een kutport was), SoM, Call of Duty Ghosts dat niet wilde starten met minder dan 6GB werkgeheugen terwijl het spel amper 2GB nodig had.
Het volgende fiasco is ook alweer in zicht, Assassins Creed Unity eist een GTX 680 of HD 7970, terwijl het spel op de consoles 900p@30fps draait. Je gaat mij echt niet vertellen dat je daar op PC meer dan een instapkaartje van AMD of nVidia voor nodig hebt (denk R7 260X, GTX 750 Ti).

Ik vind dit toch jammer. Zelf weet ik natuurlijk wel beter en trek ik me geen ruk aan van wat er wordt gevraagd (ik test het zelf immers wel wat het lekkerste speelt), maar voor iemand die van de zielige 'next-gen' consoles naar de PC wil overstappen is het waarschijnlijk toch te verwarrend. Heb je écht zo'n dure videokaart nodig om het spel alleen maar te starten?

Maar goed, terug naar deze 8GB R9 290. Natuurlijk is het goed sceptisch te zijn over zulke idiote hoeveelheden geheugen. Aan de andere kant komt er vast nog wel een keer een situatie tevoorschijn waarin het wel nut heeft. Dat kan nog zo lang duren dat je inmiddels toch al weer bent overgestapt naar een snellere kaart. In ieder geval is het vanuit AMD wel een slimme zet om toch nog even wat aandacht naar zich toe te trekken in het Maxwell-geweld van afgelopen tijd. De 290X staat namelijk echt zn mannetje wel tegen die kaarten, hij verbruikt alleen een stuk meer stroom. Maar niet iedereen vind dat erg.
Sterker nog, de verwarming doet het hier al even niet meer dus als ik een gaming rig met meerdere van die dingen erin zat ik er goed bij, in plaats van een zuinig laptopje met GTX 850M
Mits de textures dan daadwerkelijk beter zijn dan die op de consoles ja.. want bij de slechte PC ports van laatste tijd die zo belachelijk veel RAM nodig hebben is dat voor zover ik weet NIET het geval.

Trouwens, de consoles kunnen maar net 1080p 30fps aan, en zijn qua performance ongeveer gelijk aan een athlon 750k en HD 7850 gok ik. 4k daarop kan je dus vergeten tenzij je aan 5 fps genoeg hebt.
maak er een mobiele 8 core van, een soort a10 alleen dan met 8 core's + een hd 7850, al is die uit mijn ervaring best redelijk en kan zeker meer als 1080p 30 fps
Natuurlijk kan hij 1080p 60fps aan, maar dan wordt het verschil tussen de graphics van de marketing presentaties en de werkelijke nog 10x groter :) Al is dat verschil al erg groot, zie Forza 5 die op een high-end PC draaide vorig jaar juni.
Trouwens, de consoles kunnen maar net 1080p 30fps aan
Zucht. Wat een onzin weer.

Hoeveel fps@resolutie een machine aan kan heeft zoveel minder te maken met wat je voor fps en resolutie invult dan dat het te maken heeft met de complexiteit van de scene die je weergeeft, dat is gewoon niet leuk meer.

Teken een simpele flat-shaded kubus... Render hem op 4K en scale hem terug naar 1080p voor weergave... Moet jij eens zien op hoeveel FPS een console dat kan. Het zier er alsnog niet uit natuurlijk.

En dat laatste is waar het compromis ligt. De game devs moeten een afweging maken... Meer fps levert strakkere (minder blurry) en vloeiendere beelden op. Hogere resoluties maken alles scherper en gedetailleerder... Maar tegelijkertijd gaat de hoge resolutie ten koste van de complexiteit van de scene en de modellen die je gebruikt. Je hebt minder rekenkracht over voor de 3d berekeningen als je 4 keer zoveel pixels moet doorrekenen.

Ik denk dat de keuze voor 30fps en 720p voortkomt uit het feit dat mensen op een paar meter van hun TV af zitten en dat TVs sowieso al vaak minder scoren op gebied van scherpte dan monitoren...

Hoe je het ook wendt of keert, roepen dat consoles 'maar' X fps @ resolutie Y kunnen slaat helemaal nergens op als je de complexiteit van de te renderen scene niet meerekent. Een raspberry Pi kan al prima 1080p at 30fps videobeelden vertonen dus het is absurd te denken dat een PS4 hier moeite mee zou hebben.
Het punt is dat een goede PC hogere graphics settings aankan, en dus een hogere complexiteit van de te renderen scène heeft. Tegelijkertijd kan de PC die scène in 1080p of 1440p renderen op 60fps. Dit komt omdat er simpelweg veel krachtigere hardware zit in een dure PC.

Op een dure PC zijn de graphics gewoon beter:
- hogere complexiteit van de te renderen scène
- hogere resolutie
- hogere framerate
daarvoor heb je verschillende compressie technieken voor bijv S3TC en verschillende andere soorten ondersteund in DirectX. Het heeft gewoon te maken met slechte import van Devs die weinig tijd besteden voor de Pc versies en alleen maar snel geld willen verdienen.

https://www.google.nl/#q=texture+compression
Alle spellen die ik ooit op de PC gespeeld heb (en daar zitten ook veel recente titels tussen) hadden een texture setting optie. Die regelt de grote van de textures en de hoeveelheid compressie die er op zit. Zet je die setting op ultra dan zal er inderdaad niet veel compressie toegepast worden. Dat is waar je dan voor kiest, dan moet je niet bij een developer gaan klagen dat ze te weinig compressie toepassen. Zet je de instelling op high of medium dan zal er meer compressie worden toegepast.
De next-gen consoles hoeven geen zorgen te maken over het dynamisch laden van textures/data naar de GPU aangezien ze meerdere gigabytes aan VRam hebben.

En dan wanneer de games naar PC worden ge-port nemen ze niet de moeite om zulke systemen voor het situationeel laden van textures/models alleen voor de PC te creëren.
De next-gen consoles hebben zo'n 8GB geheugen. Waarvan zo'n 3GB voor background processes en operating system. Zo'n 5GB is beschikbaar voor games, waarvan zo'n 3GB als voor "RAM" doeleinden wordt gebruikt, en 2GB voor "VRAM" doeleinden.

Als je een PC bouwt met 8GB RAM (waarvan zo'n 6,5GB beschikbaar voor de game) en 4GB VRAM dan zit je dus gebakken. Meer dan 4GB VRAM heeft alleen zin voor gamen op een 4K resolutie. Maar dan moet je ook bereidt zijn om meerdere topkaarten in SLI/Crossfire te zetten.

[Reactie gewijzigd door dusty-2011 op 30 oktober 2014 15:07]

Developers zijn er vrij in hoe zij de 5gb ram besteden.

Games gebruiken meschieen 50-100mb van het RAM als game-state en de rest aan geheugen zijn resources.

Op de PC zijn veel resources ge depuliceerd op de CPU/GPU ivm processen die op de CPU draaien zoals bullet raytraces en physics.
Daarnaast word een boel geheugen gebruikt voor het swappen van textures of andere GPU resources.

Als je dat allemaal wegneemt in een shared-ram systeem, blijft alleen audio over als resources en dat is vergeleken met textures/models niet significant.

Dus 3GB voor ""RAM" doeleiden" zal het echt niet worden, en zeker over een jaartje zullen er meer dan genoeg titels op de markt zijn die over 4GB aan "VRam" op de consoles gebruiken, en al zetten ze de huidige trend me het niet PC gerichte optimalisatie door zullen die titles niet met de zelfde texture resoluties op de PC binnen 4gb te draaien zijn.

Maarja, heb nooit bedoelt dat een 4gb 290X de games niet kan draaien, het ding is dat kwa performance de GPU's in de next-gen consoles vergelijkbaar zijn met een 7850 maar de games die geport worden geen kan hebben daar op te draaien vanwegen het VRam gebruik hoger is dan het hoeft te zijn op Desktops.
Desktop kan ondertussen behoorlijk wat leren van de consoles op gebied van efficiënt omgaan met resources. Vind consoles er nog steeds te wazig uitzien maar goed, ze kunnen best al wat performance persen uit basic hardware ten opzichte van een pc, zowel op cpu als gpu vlak. PC kan van alles en nog wat maar is in vele zaken niet erg efficiënt met resources.

Je kan niet zomaar alles toeschrijven aan slecht ports.
Zo zouden gsync/freesync heel veel andere zaken minder belangrijk maken als de industrie maar tot één standaard voor AMD/NVIDIA komt. Als je als pc-gamer niet hoeft te zoeken naar welk scherm bij welke gpu past maar dat gewoon standaard met wat je maar koopt goed werkt ...

Ik zit vaak relatief lang te finetunen in settings om voor mijzelf de optimale settings per game te vinden om constante 60fps te halen, 55-60 dipjes mogen nog net, onder de 50 is meteen finetunen.
Dit ligt niet zozeer aan de fps, eerder aan het feit dat vsync er dan een boeltje van maakt, het ziet er gewoon echt niet vloeiend uit terwijl het er dan bij 30 fps weer iets of wat acceptabel uitziet. Dan krijg ik echter gewoon teveel inputlag dat het ook niet lekker meer speelt. Met bovenstaande technieken zou ik vloeiend beeld hebben en zolang ik boven de 45-50 fps zit zit het met inputlag voor mij ook goed.

Dit als voorbeeld dat er zeer zeker nog grote verbeteringen mogelijk zijn op de pc, hoeveel we er werkelijk gaan krijgen weten we natuurlijk niet.

ps: zonder vsync en een manier om de specifieke game-engine tot 60fps te locken heb ik dan weer teveel tearing
De next-gen consoles hebben zo'n 8GB geheugen. Waarvan zo'n 3GB voor background processes en operating system.
Sorry, maar dit klopt gewoon niet.

Je haalt twee systemen door elkaar. Misschien 'logisch' als je zelf een PC hebt en de rest dan maar 'de consoles' noemt, maar wat je hier eigenlijk zit te doen is vergelijkbaar met praten over 'de besturingssytemen' en dan in een adem over het register en Gnome en Finder praten alsof Windows, Linux en MacOS één en hetzelfde OS zouden zijn.

Verder zit je ook niet gebakken met 8GB DDR3 + 4GB GDD5, want het VRAM is namelijk niet unified. Je CPU kan er niet bij. Hierdoor moet dus steeds heen en weer gekopieerd worden en dat kost tijd.

[Reactie gewijzigd door OddesE op 30 oktober 2014 23:39]

Ik doe ze niet over één kam scheren. Microsoft en Sony hebben gewoon toevallig allebei de keuze gemaakt om 3GB te reserveren voor het OS. Dat is een overeenkomst tussen beide consoles, daarom geef ik aan dat dit voor beide consoles geldt. Dat wil niet zeggen dat er geen verschillen tussen de consoles zouden zijn.

Het volgende artikel legt het heel duidelijk uit:
http://www.eurogamer.net/...s3-system-software-memory

Voor de PS4 geldt net zo goed dat 3GB gereserveerd is voor het OS en 5GB beschikbaar is voor de games. Dit is natuurlijk een ruwe waarheid, wil je echt alle technische details weten dan moet je het artikel zelf lezen.
Je scheert het wel over een kam als je 8 GB DDR3 main memory en 8 GB Unified GDDR5 VRAM allebei '8GB geheugen' noemt. Sorry maar het lijkt op die mensen die het over 480 GB 'geheugen' hebben en het dan over een HDD blijken te hebben. Ja, het verschil is zo groot.
Ik was niet helemaal volledig in mijn post. Dit omdat ik niet alles wilde herhalen wat ik al in tig andere posts hier onder dit artikel heb gezet. Dan krijg je weer klachten dat ik gecopy paste heb.

In feite is DDR3 en GDDR5 beide geheugen, ik heb an sich niets verkeerds gezegd. Dat GDDR5 geheugen veel sneller is heb ik nooit ontkend. Dit is een belangrijk voordeel van de PS4.

Een harde schijf is een vorm van extern geheugen. Bij een basisvak informatica wordt volgens mij nog steeds aangeleerd dat extern geheugen ook een vorm van geheugen is. http://nl.wikipedia.org/wiki/Computergeheugen
Natuurlijk komt het in de praktijk vooral voor dat mensen met weinig IT kennis een harde schijf van 500GB als 500GB geheugen omschrijven. Maar volgens het basisvak informatica hebben ze dan niets verkeerd gezegd, ze zijn misschien alleen niet volledig geweest in hun omschrijving.
Onzin de textures zijn hoger dan die van consoles en dus hebben ze meer ram nodig daarbij hebben consoles ook meer vram dan de 3 a 4 gb die de meeste pc kaarten hebben.

Pc's liepen gewoon achter op gpu geheugen gebied.
Maar vergeet niet dat daar maar 5GB momenteel van is vrijgegeven en dat daar ook meteen het werkgeheugen bij is inbegrepen. Dan valt het allemaal weer reuze mee. Dit is meer voor het ultra high-end om op 4K te gamen.
Hou toch op met die onzin te verspreiden. Voor de Evil Within is 1 GB VRAM vereist en 4GB VRAM aanbevolen.
Voor Middle Earth: Shadow of Mordor is een NVIDIA GeForce GTX 660 de recommended spec, en die heeft 2 GB VRAM. Wil je de textures op de hoogste stand zetten dan is 3GB VRAM aanbevolen (een standje lager zien ze er ook prima uit trouwens). Alleen voor een optioneel 4K texture pack (een aparte download) is 6GB VRAM aanbevolen, al geven de gebruikers aan dat het met 3GB VRAM ook prima draait. Enfin, dit optionele texture pack heeft alleen zin als je op een 4K resolutie gamed met een 4K monitor.
Dat ze 6GB VRAM aanbevelen voor het 4K texture pack heeft niets met een slechte port te maken, alle textures zijn nou eenmaal 4096x4096 pixels, daar heb je veel VRAM voor nodig. Maar op je 1920x1080 scherm (wat nu de standaard is) heeft het geen meerwaarde om met 4096x4096 textures te werken. Met een 1080p scherm zet je de textures gewoon op 2048x2048 en dan is 3 of 4GB VRAM meer dan genoeg.

Er zijn op dit moment nog geen spellen die meer dan 4GB VRAM vereisen, zolang je geen optionele 4K texture packs installeert.
Jij verwart wel resolutie van je beeld met resolutie van een texture. Hoge resoluties van textures hebben ook zin bij een gerenderd beeld dat zelf een lage resolutie heeft.

Game jij op een resolutie van 720p zullen 4k textures wel degelijk een verschil maken. Misschien maar weinig tov 2k textures, maar toch een verschil.
Extreem voorbeeld: een echte film. De realiteit heeft oneindig hoge resolutie en ziet er dus ook veel beter/scherper uit. Zelfs op de oude tv's van vroeger (480i resolutie?).
Je vergeet te vermelden dat het eigenlijk door lui programmeren komt, niet door de 8GB die beschikbaar is op de consoles. Dacht dat het te maken had met textures die niet gecomprimeerd werden op slechte PC ports.
De Xbox One en PS4 hebben ook 8GB VRAM die potentieel gebruikt kan worden. Het is niet super onrealistisch dat er binnen enkele jaren games komen die 7GB VRAM nodig hebben voor ultra instellingen, en dan op 1080P.
Echter, de consoles gebruiken dat ook nog eens voor het OS en alle andere zaken die moeten draaien. Dan is de verhouding al heel anders: een gemiddelde game PC heeft 8GB DDR3 RAM en ( bij een R9 290) 4GB GDDR5 RAM. Met wat optimalisatie voor die verdeling zou een consolegame dus beter moeten lopen op een PC dan op een console: een PC heeft niet alleen meer werkgeheugen, maar ook nog eens een veel snellere GPU en CPU.
Tja, maar console games draaien vaak op 720P maar op de PC is dat niet om aan te zien (aangezien je veel dichter op je monitor zit). Daarom zal een PC game sowieso al meer geheugen vereisen.

[Reactie gewijzigd door Wolfos op 30 oktober 2014 14:50]

De Xbox One en PS4 hebben ook 8GB VRAM
Excuse me? Ten eerste heeft de Xbox One 8GB van het trage DDR3 geheugen, dit kun je moelijk VRAM gaan noemen. Alleen de PS4 heeft 8GB DDR5 geheugen.
Voor beide consoles geldt ook nog het volgende:
van de 8GB geheugen gaat 3GB naar het OS, nog zo'n 3GB wordt als werkgeheugen gebruikt, en maar zo'n 2GB als videogeheugen.
Voornamelijk zoals hierboven gemeld maar vergeet ook dat bij meerdere beeldschermen je ook meer nodig hebt. En bijvoorbeeld de 4K monitoren. De vraag blijft altijd heb je het echt nodig.
Zoals Xeanor al verklaard. er komen steeds hogere specs aan hardware omdat de games grafisch steeds gecompliseerder worden.

als iemand had beweerd van 1 of andere vage forum site 10 jaar geleden dat we spellen van jawel 50.. ik herhaal VIJFTIG gig zouden krijgen.. had iedereen hem direct voor gek verklaard.. wat zien we bij de nieuwe wolfenstein? 50 gb disk space.. de nieuwe assasins creed? 50 gb disk space..

WAT moet je in godsnaam met 16 GB RAM werd er 5 jaar geleden nog verkondigt.. nu zijn er spellen die 2-4 gb ram (in comby met OS) gemakkelijk willen trekken..

grafische kaarten same story.. als de hardware 2 gb vram blijft.. waar is dan de progressie..

mark my words.. over 5-10 jaar is 10 gb video ram heel normaal omdat je spel minimaal 4 gb ram (video) gaat vragen om alle nieuwe 3D en/of VR spullen te kunnen weergeven in full (u)HD

met de tijd word alles beter/sneller/groter/mooier.. maar daar moet wel hardware voor op de markt zijn.. en die begint er nu te komen voor de eerstkoende 4-5 jaar
Dat is het juist, de nieuwe generatie console draait in zijn geheel op GDDR5. Door deze specs ook naar de pc te brengen wordt het porten van games een stuk gemakkelijker.

De laatste tijd zijn er steeds zwaardere min. specs in het nieuws die sterk wezen op de komst van dergelijke kaarten. (Evil within bijvoorbeeld)

Edit: Klopt, maar ik heb het hierbij over de hoeveelheid geheugen niet het type ;)

[Reactie gewijzigd door Rexus op 30 oktober 2014 14:33]

Dat is het juist, de nieuwe generatie console draait in zijn geheel op GDDR5.

Excuse me?? Dat geldt alleen voor de PS4 he. Niet voor de Xbox One (en al helemaal niet voor de WiiU). De Xbox One heeft wel 8GB geheugen maar dat is traag DDR3 geheugen. Daar hebben PC's ook genoeg van, zo heeft mijn computer 16 GB DDR3 en 4 GB GDDR5. De meeste gamers hebben zo'n 8 GB DDR3 en 2 of 3 GB GDDR5.
GDDR5 gaat ook al jaren mee, mijn AMD 6870 had dat al, en dat was een redelijk budgetkaartje uit 2010/1.
Edit: ik had het iets te letterlijk gelezen.

[Reactie gewijzigd door Soldaatje op 30 oktober 2014 14:42]

Jouw kaartje: 128 GB/sec geheugen bandbreedte
R9 290X: 320 GB/sec geheugen bandbreedte

Beide GDDR5 dus er is gewoon ruimte om het zo lang te gebruiken :)
En dat heeft te maken met de snelheid en bandbreedte.

4000mhz*128 bit | 6000mhz*256 bit

Toch fijn dat de nieuwe consoles meer geheugen hebben waardoor meer gegevens sneller laadbaar zijn voor de pc. Ongeacht resolutie.
En dat heeft te maken met de snelheid en bandbreedte.
Uiteraard :) Maar er is dus nog ruimte, hoewel we nu wel op 512bit zitten en ik nog niet groter heb gezien, 2 jaar terug was 256/384-bit de norm...
Multibox software voor voor spel als eve online. Meerdere clients vreten geheugen...
Meer is zeker niet altijd beter vaak wordt als er meer geheugen wordt aangewend geheugen gebruikt wat minder snel is dan op videokaarten die minder geheugen hebben.
Interessant voor mensen die gebruik maken eyefinity of 4k?
Voor de slechte non geoptimaliseerde console games !! :Y) Kom maar console lovers bemin me maar !
Volgens mij is meer RAM vooral handig om meerdere monitoren op aan te sluiten.

Ik kan mij perfect voorstellen dat sommige mensen gamen op het ene scherm en op een ander scherm bv. iets anders doen... Zelf speel ik nogal vaak trage/tactische games en dan durf ik tussendoor wel op mijn TV (aangesloten via HMDI) kijken naar wat live sport :)

In dit geval (met een kaart met 8GB GDDR5) zal je bv. perfect meerdere 4K monitoren kunnen aansluiten zonder enige vorm van vertraging (hoop ik toch ;-))

[Reactie gewijzigd door QuZyX op 30 oktober 2014 14:07]

Dat is al lang niet meer het geval. Het eindresultaat (de framebuffer) komt hooguit tot een paar honderd megabyte indien tripple-buffered multi-monitor, en dan heb je de rest nog over. RAMDAC en interfaces is eerder een limitatie.

Je moet bij dit soort geheugenformaten meer denken aan de GPU als een GPU, in plaats van een "plaatjeskaart". Om tot die framebuffer te komen zit een behoorlijk proces vast, waar onder andere die gigantische hoeveelheid "mini-cores" op zo'n videokaart hun rekenkracht kan gebruiken. Een van de redenen dat videokaarten zo goed zijn in bepaalde niet-grafische berekeningen (en dat er een hele industrie bestaat waar videokaarten zonder video-out poorten worden gebruikt voor berekeningen).

Het rekenen gebeurt nog steeds in polygonen. Die worden voorzien van een plaatje (een texture), en om een mooi geheel beeld te worden, moeten dat behoorlijk grote plaatjes zijn, immers, soms zit je dicht op een object, soms sta je er ver vanaf. En dan kom je bij het concept "zoomen". Dat plaatje, die texture, moet heel snel lekker mee groeien met die polygonen. Bedenk je eens in hoe snel jij in Photoshop een 4096*4096 plaatje laat krimpen/groeien/tilten/etc... nou heb je diezelfde rots aan een muur waar een fakkel hangt. Dan moet er wat licht op schijnen. Pas maar aan... je snapt, er zit een enorm complex proces aan vast om polygone/texturing/shading te bewerkstelligen. En dan heb ik het nog niet eens over "extra's" zoals anti-aliasing, het renderen van bepaalde stoffen, het feit dat er dynamisch ook schade/vernietiging kan ontstaan, en zelfs hele natuurkundige modellen zodat het stof ook nog eens de goeie kant op waait. Elke neushaar van een karakter de eigen physics (leuk voor de Nederlandse kloon van America's Army: lange haren die wapperen in de wind, naast lopen en rennen ook "slenteren" als optie, en realistische damage modellen voor de fietsen met goede verlichting).
Als je nu al ziet dat er verschillende (slechte) ports van games zijn die 6GB vereisen om op max te kunnen spelen lijkt me dit geen overbodige luxe.
Hou toch op met die onzin te verspreiden. Voor de Evil Within is 1 GB VRAM vereist en 4GB VRAM aanbevolen.
Voor Middle Earth: Shadow of Mordor is een NVIDIA GeForce GTX 660 de recommended spec, en die heeft 2 GB VRAM. Wil je de textures op de hoogste stand zetten dan is 3GB VRAM aanbevolen (een standje lager zien ze er ook prima uit trouwens). Alleen voor een optioneel 4K texture pack (een aparte download) is 6GB VRAM aanbevolen, al geven de gebruikers aan dat het met 3GB VRAM ook prima draait. Enfin, dit optionele texture pack heeft alleen zin als je op een 4K resolutie gamed met een 4K monitor.
Dat ze 6GB VRAM aanbevelen voor het 4K texture pack heeft niets met een slechte port te maken, alle textures zijn nou eenmaal 4096x4096 pixels, daar heb je veel VRAM voor nodig. Maar op je 1920x1080 scherm (wat nu de standaard is) heeft het geen meerwaarde om met 4096x4096 textures te werken. Met een 1080p scherm zet je de textures gewoon op 2048x2048 en dan is 3 of 4GB VRAM meer dan genoeg.

Er zijn op dit moment nog geen spellen die meer dan 4GB VRAM vereisen, zolang je geen optionele 4K texture packs installeert.
En wat maakt de 8GB-versie beter dan de 4GB-versie? Ik heb namelijk sinds begin september een Sapphire Radeon R9 290X TRI-X met 4GB aan geheugen en hoewel ik steeds vaker artikelen lees over PC-games die 6GB of meer vereisen om de nodige grafische kunst op het beeldscherm te tonen (Assassin's Creed: Unity, Middle-Earth: Shadow of Mordor) vraag ik het mij af of het verschil wel echt zo groot is en zal zijn.

Edit:
Nevermind. Terwijl ik bezig was met het schrijven van mijn reactie is er al een discussie ontstaan over de zin en onzin van zoveel videogeheugen. Mijn vraag is dus een beetje 'mosterd na de maaltijd'. ;)

[Reactie gewijzigd door Yonix op 30 oktober 2014 14:21]

gaat er vooral om dat je met meer geheugen ook op hogere resoluties zonder problemen uit de voeten kan...maarja iedereen hier koopt blijkbaar toch elk jaar een nieuwe kaart...en dan maakt het niet uit!
Ik denk dat als je texture settings lager zet, je de rest alsnog op zijn hoogst kan zetten.
Retail Middle-Earth: Shadow of Mordor valt prima te spelen op de hoogste settings met 3GB VRAM. Je hebt pas meer VRAM nodig indien je een optioneel 4K texture pack installeert, wat alleen zin heeft indien je op een 4K resolutie speelt en een 4K monitor hebt. En zelfs dan, wat de gebruikers aangeven is dat het met 3 of 4 GB VRAM nog heel goed speelbaar is met het 4K texture pack geinstalleerd.

Voor Assassin's Creed Unity heb je minimaal een grafische kaart met 2GB VRAM nodig, 3GB is aanbevolen. De 6GB geheugen die minimaal is is RAM geheugen (8GB RAM is aanbevolen).

Kortom, er zijn nog geen games die meer dan 4GB VRAM vereisen op de hoogste settings, zolang je geen optionele texture packs installeert.
wow dat is meer dan mijn RAM.

ik vind trouwens dat meer geheugen op een videokaart enkel een groot voordeel is. sommige textures zijn nog niet altijd wat het moet zijn en dan mag je zoveel moderne technieken als tessallation, complex shading,... hebben, als de textures te wensen overlaten is het voor mij uit realistisch oogpunt nog altijd geen vooruitgang.

[Reactie gewijzigd door Daileass op 30 oktober 2014 14:05]

Meer VRAM betekent ook een grotere belasting voor de GPU core. Dit zijn ideale kaarten om in Crossfire te draaien. Ik vraag me alleen af waarom ze niet de TwinFrozr V erop hebben gegooid.
Ik vraag me alleen af waarom ze niet de TwinFrozr V erop hebben gegooid.
Waarom wel kan je je evengoed afvragen. Het enige wat er veranderd is grotere of meer memchips, voor de rest is het PCB gewoon hetzelfde vermoed ik. Mij lijkt dat de TFV voor andere (recentere) PCB's is ontworpen, misschien moeten ze dan weer extra aanpassingen doen omdat bij deze bestaande kaarten dan iets in de weg zit.
Het is niet voor niks dat ze met een nieuwere versie zijn gekomen. Uiterlijk is verbeterd maar vast wel meer dan dat. Ik neem aan dat de koelingscapaciteoten ook verbeterd zijn. De 290X is al een lastig beestje om te koelen.
nieuws: LOTR: Shadows of Mordor vraagt 6GB vram voor optimale textures
nieuws: Activision geeft systeemeisen Call of Duty: Advanced Warfare vrij
Hiervoor denk ik dan en CoD ...

Ze hebben het natuurlijk niet nodig maar mensen die dit niet weten zullen zo`n kaart aanschaffen denk ik.
Idd. Die 6GB om op ultra te spelen is uit de lucht gegrepen. Wss omdat als ze 3GB zouden zeggen, er teveel mensen met oudere GPU's die toch veel VRAM hebben problemen zouden kunnen hebben.
Zo bestaat er oa dit: MSI Radeon R7 240 4GD3 LP
Ik denk niet dat dit voldoende is voor de nieuwste games, maar het heeft nochtans wel 4GB aan VRAM!
Dit is bonus als je de 290X in Crossfire wenst te gebruiken.
Want 8GB van één kaart en 8GB van de andere kaart zal geen 16GB worden, dus dan is 8GB wellicht wel wenselijk. Zeker met het oog op 4K gaming.

Je moet rekening houden dat 4K reso een verdubbeling is van 1080p, dus absoluut gezien zal je het dubbele geheugen gebruiken.

AMD en nVidia zijn gewoon zich aan het voorbereiden op 4K. Over een paar jaar zal 4K waarschijnlijk gemeengoed zijn en wordt je raar aangekeken als je 'nog' een 1080p scherm hebt o.i.d.
Excuse me, een verdubbeling? 4K heeft vier maal zo veel pixels als 1080p. Een verviervoudiging van de resolutie dus.
Ik ben benieuwd of je deze in crossfire kan zetten met een 4GB model, zodat je wel 8GB VRAM hebt met 2 GPU's. Want bij mijn weten word alleen de GPU power gebruikt van de 2de kaart ook al geeft Shadow of Mordor aan dat ik 8GB heb met 2 x 290x.
Videokaart drivers laten kaarten dubbel rekenen in SLI/Crossfire, en hebben beide dan ook hun geheugen nodig. Twee keer een 4GB model, is alsnog slechts 4GB toepasbaar in de huidige situatie.
Ja dat wist wel, waar het mij om gaat is dat als je de 8GB en 4GB uitvoering naast elkaar zou zetten en in Crossfire zou zetten hij wel de volledige 8GB van de 'eerste' kaart kan gebruiken en de GPU van de 2de 4GB kaart.
Nee, je kan alleen identieke kaarten in Crossfire zetten.
Dat is dus niet waar, je kon ook een 7970 en 7950 in crossfire zetten, netzoals een 280 en 280x, 290 en 290x kunnen in crossfire. Ik vermoed wel dat de hoeveelheid geheugen de beperkende factor is.
Dat komt omdat dat bijna identieke kaarten zijn. Als je bijvoorbeeld een 7970 en 7950 in crossfire zet dan doet de 7970 zichzelf downclocken... Het kan dus wel maar is niet aan te raden. Heb je al één 7970 en wil je crossfire dan is de beste optie om er nog een 7970 bij te zetten. Heb je al één 7950 en wil je crossfire dan heeft het geen zin om de duurdere 7970 te kopen (want die moet zich dan toch downclocken), dan kun je veel beter geld besparen en nog een 7950 kopen.

Bijna alle games gebruiken alternate frame rendering in Crossfire / SLI. Beide kaarten moeten dan exact hetzelfde in hun geheugen hebben staan. Het heeft dan geen zin om een 8GB model en een 4GB model samen te gebruiken. Zelfs al kan het, het heeft geen enkel nut. Want de 8GB kaart kan dan niet meer dan 4GB in het geheugen hebben zitten. En als de 8GB kaart sneller geclockt is zal die zichzelf terugclocken om de 4GB kaart te matchen.

Dus het volledige antwoord is: nee, het kan waarschijnlijk niet. Indien het wel kan heeft het geen enkel nut en is het geldverspilling.
Was hier ook bang voor toen ik een paar maanden geleden mijn MSI GTX 780 ligtning edition heb besteld en die maar 3GB heeft,
Zat toen ff in de twijfel omdat de MSI R9 290X LIGHTNING van amd dus wel 4GB heeft maar heb zelf toch liever Nvidia.
Nu komt er de laatste tijd ook naar buiten dat de nieuwere games meer vram vreten en ik al zat te denken om hem weer door te verkopen maar heb er toen 500 voor betaald en dat krijg je er nu nooit meer voor terug.
Beter haal ik er een 2de bij voor SLI opstelling, alleen krijg je dan niet meer vram.
Alhoewel ik alle games op max speel, behalve Watchdogs want dat blijft een drama, daar speel in textures op high en de andere settings op ultra werkt prima, maar dat is dan ook weer een slecht port, zoals bijna alle console games zijn.
De 8gb versie zal toch veel duurder worden dus niet in hetzelfde budget vallen

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*