Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 206 reacties
Submitter: Caayn

De game Middle-earth: Shadow of Mordor vraagt voor optimale texturekwaliteit in 1080p-modus maar liefst 6GB aan vram-geheugen. Bezitters van een videokaart met 1GB vram komen niet verder dan een lage kwaliteit. De systeemeisen voor vram lijken toe te nemen.

Op het Neogaf-forum is een screenshot geplaatst van de third-person stealth-action-game waarin de texture-instellingen zijn te zien. Volgens de makers is er 6GB aan vram nodig om 'ultra-kwaliteit' voor de textureweergave mogelijk te maken als de game op een 1080p-scherm wordt gespeeld. Veel videokaarten met 6GB of meer zijn er niet: dat zijn onder andere de GTX Titan, GTX 780-varianten, een enkele R9 280X en de R9 295 X2. Voor de high-instelling is 3GB nodig, terwijl de medium- en low-instellingen respectievelijk 2 en 1GB vram vereisen.

Onduidelijk is nog waarom de game zoveel videogeheugen vereist voor de optimale instellingen. Sommigen stellen dat de makers minder hoge vram-eisen zouden hebben als gebruikgemaakt zou zijn van texture-compression. Anderen claimen dat de honger naar vram mogelijk wordt veroorzaakt door de komst van de PS4 en Xbox One: die hebben 8GB unified ram van het gddr5-type bij de PS4 en ddr3 bij de Xbox One. Ports van games zouden daardoor steeds vaker meer videogeheugen eisen bij de pc. Overigens heeft de game al redelijk hoge systeemeisen.

Middle-earth: Shadow of Mordor verschijnt voor PlayStation 4, PlayStation 3, Xbox One, Xbox 360 en Windows. De release-datum is 7 oktober.

Vram-eisen voor Middle-earth: Shadow of Mordor

Moderatie-faq Wijzig weergave

Reacties (206)

1 2 3 ... 6
Ik hoop dat ze de graphic settings dan zeker splitsen met shader quality en texture quality.

6GB VRAM is op dit moment, met de huidige resultaten die ze ermee bereiken, simpelweg onzin. Met Crysis kon er met max. 1GB of 2GB VRAM veel mooiere graphics getoond worden.

Shader quality, welke juist wél voor een hogere kwaliteit aan graphics zorgt, neemt juist niet direct veel VRAM in beslag.

Simpelweg onzin op dit moment.


Van de andere kant, als dit aanslaat, dan loopt iedereen straks over een jaar of twee met GPUs van 6GB VRAM rond, en dan kunnen de échte ontwikkelaars daar juist over beschikken om nuttige dingen te doen, in plaats van textures laten zien die visueel 5% verbetering brengen of hun oude outdated engine gebruiken.

[Reactie gewijzigd door skiwi2 op 26 september 2014 15:15]

Je spreekt over de echte ontwikkelaars? Welke echte ontwikkelaars? Zover ik zie, toch voor de A-games, zijn de meeste ontwikkelaars gewoon console ontwikkelaars, dat daarna ruwe ports doen van hun console versie naar de PC.

Buiten een aantal games zoals Star Citizen, zijn er niet zoveel puur PC games in ontwikkeling ( ik spreek over hoge budget games! Niet de Indi games enz ... dat is een andere markt ).

Als iedereen met 6GB of meer rondloopt, dan maakt het gewoon het werk van de console ontwikkelaars makkelijker. Waarom enige optimalisatie doorvoeren, gewoon *plop* direct porting met geen compressie.

Ik heb al lang het gevoel dat men bij Console ontwikkelaars de gedachten heeft: "Het is maar voor de PC, who cares". Terwijl men PC de games origineel ontwikkelde op PC's ( en dan uitvoert naar de console )!!! Het is echt dat men daar de gedachten gang heeft, het spel draaiend te krijgen op de PC in de initiële fase, en dan puur verder ontwikkelen op de consoles, en alle PC specifieke zaken eruit slopen / vergeten.

En ja, je hebt gelijk, als je ziet wat Crysis 1 uithaalde ( en dat was een game van 2007!!!! ), en vergelijkt met de kwaliteit van de games wat je nu krijgt, dan is het alsof de console ports nog altijd achterlopen. En dan was Crysis 1 enorm slecht geoptimaliseerd voor snellere hardware! *lol* ...
Dit is gewoonweg een luie en slechte port, iets anders kan dit absurde eis voor een simpele (qua grapucs) game niet verklaren.
Dit lijkt mij eerder een kwestie van slecht of niet optimaliseren en gewoon zoveel geheugen gebruiken "omdat het kan". De consoles hebben nu 8GB unified memory and blijkbaar dumpen ze er alles zomaar in.

Als ik zie welke beelden crysis 3 op ultra op mijn scherm kan krijgen met maar 2GB VRAM, dan weet ik genoeg...
Dan nog is het raar. Consoles hebben 5gb ram beschikbaar voor games, en dat bestaat nog eens uit system memory en vram.
Consoles krijgen deze high res texture pack waarschijnlijk ook niet dus gebruiken ze de 3,5gb van de high setting.
Ik hoop het voor ze. De ruimte voor high textures hebben is een ding maar ik vraag me af of die gpu wel krachtig genoeg is.
Met maar 2gb gebruikt crysis 1,5 gb maar geef je het 6gb gebruikt het gewoon 3,5 gb en werkt het allemaal lekkerder.

Het zal met minder dan ook wel werken maar optimaal is het niet.
Ik vind het dus een goede stap dat ze pushen naar meer vram wat zich al bewezen heeft in sommige games.
Daar riekt het inderdaad naar. Waarschijnlijk hebben ze vanuit het oogpunt van compressie/decompressie hiervoor gekozen om laadtijden te verkorten maar door deze keuze te maken benadeel je wel een complete markt waarbij de zee met GB's niet gemeengoed zijn.
ja ben het met je eens, Wat ze hadden moeten doen is dat de game detecteer hoeveel vram je hebt en aan de hand daarvan kijkt of hij compressie moet toepassen of niet. Maar dit is gewoon wat luiheid helaas.
De link naar piraterij begrijp ik niet helemaal.
Omdat "goede games" doorgaans meer verkocht worden omdat mensen ze het waard vinden om te kopen? En bij "slechte" games vinden mensen het niet waard, en "zouden ze deze game toch nooit gekocht hebben" en piraten het daarom maar? Opzich niet zo'n hele vreemde stelling.
En in welke zin heeft dat betrekking op Beele's en mijn bericht? Wij hadden het namelijk over optimalisaties (of het gebrek daaraan), compressie en decompressie. Het hele piraterij verhaal lees ik er niet in terug.
door deze keuze te maken benadeel je wel een complete markt waarbij de zee met GB's niet gemeengoed zijn.
Een markt die zich benadeeld voelt, zal minder positief zijn over je product en eerder je game piraten.
En daar zitten we dan met de nieuwste generatie van nvidia met maar 4gb omdat ze krenterig zijn en geen rekening houden met vooruitgang en stug te weinig geheugen blijven gebruiken...

Het is al lang bekend dat een game als crysis al 3.5 gb aan ram gebruikt met niet super geweldige textures dus nvidia had kunnen weten dat 4gb een domme zet was.
Laten we hopen dat er nog 3rd party komen die er gewoon 6 of 8 gb op gooien. Zo veel kost dat namelijk ook weer niet...
nu komt de vraag hoe diet de pc gameplay er uit en hoe goed zijn de textures.
Veel games recyclen tot nu toe vaak dezelfde textures is dat niet gedaan dan is 6gb zeer begrijpelijk anders moet je gaan streamen en iedere gamer weet hoe slecht texture streaming werkt.


even gekeken en alle filmpjes op internet zijn zonder texture pack en zien er dan ook matig uit.

[Reactie gewijzigd door computerjunky op 26 september 2014 14:59]

Euhm
1) Het is niet omdat één slecht geoptimaliseerd spel opeens 6GB VRAM wil voor de ultra setting, dat GPU-bouwers krenterig zijn als de standaard GPU's niet zoveel geheugen hebben.

2) Zoals ik hierboven al aangaf (slecht geoptimaliseerd): de reden dat er 6GB nodig is, is hoogstwaarschijnlijk omdat de textures niet gecomprimeerd worden. Voor consoles is dat goed omdat de CPU's van consoles niet genoeg rekenkracht hebben om dat allemaal even on-the-fly te doen (zonder lag te verzoorzaken) en omdat de consoles toch 8GB aan gedeeld RAM hebben.
Maar als ze dit spel dan ook voor PC willen uitbrengen, moeten ze toch even een paar dingen veranderen. PC's hebben immers krachtigere CPU's die wel zonder problemen de textures zouden kunnen decomprimeren.

3)
Laten we hopen dat er nog 3rd party komen die er gewoon 6 of 8 gb op gooien. Zo veel kost dat namelijk ook weer niet...
Het geheugen op een GPU is een van de duurste componenten, dus het kost wel degelijk veel om er wat meer van te gebruiken.
(verder heeft meer geheugen natuurlijk ook weinig zin als de rest van de kaart er niet mee overweg kan)

[Reactie gewijzigd door Robbedem op 26 september 2014 15:27]

Je weet niet eens hoe het spel in elkaar zit en je durft te beweren dat het slecht geoptimaliseerd is...
Veel games die niet veel ram gebruiken gebruiken streaming textures met alle blur en andere ongein van dien. dat is pas slecht geoptimaliseerd.
En veel pc games hebben nog altijd voordeel van meer cpu rekenkracht voor beter fps dus waarom zou de pc er geen voordeel van hebben.
Als je beweerd van niet game dan maar eens met dezelfde kaart op een i5 3770 en een i7 3770 dan is de i7 toch echt beter omdat er meer rekenkracht beschikbaar is en op een 3970 i het nog beter.

Daarbij heeft deze game waarschijnlijk betere textures dan andere oudere games tot nu toe gehad hebben en zijn daarom ook helemaal niet vergelijkbaar.
en vram duur ? source? ik kan het namelijk nergens vinden en er zijn fabrikanten die een model uitbrengen met meer ram dat bijna niks extra kost dus dat zal echt wel meevallen.
en wat is nou 20 euro op een kaart van 550 euro...

Kortom we hebben het hier over een nieuwe generatie games en dat heeft dus betere hardware nodig inclusief meer vram.
Het nut van meer vram is al lang bewezen en het gebrek eraan is al jaren de limitatie in vooruitgaande graphics.


Edit: ervaring uit het verleden is wat mij betreft niet van toepassing op een nieuwe generatie games.

De link is zwaar outdated aangezien de snelste kaart een 580 is en dus niet vergelijkbaar.
En wat is de source van de persoon die het gepost heeft? Iederee kan een sheetje maken maar daar hebben we niks aan.
En volgens dat sheetje wat er ook waar van is is het dus zo veel nog niet. 37 euro voor toen een verdubbeling van het geheugen.
Nu 50% erbij kost dus gewoon minder dus dat is echt niet superveel.

[Reactie gewijzigd door computerjunky op 26 september 2014 16:26]

Wel, ik zeg:"hoogstwaarschijnlijk..." ;)
Het kan idd dat het spel gewoon zo'n ongelooflijk goede textures heeft, maar ervaring uit het verleden zegt mij iets anders.

informatie over VRAM kost:
http://forums.anandtech.com/showthread.php?t=2302252
post van Soulkeeper:
[img]http://s14.postimg.org/ok3ww17x9/GPUprijs.jpg[/img]

Hier zie je dat 2GB aan degelijk GDDR5 RAM al gauw 50 dollar kost.
(dat was wel een paar jaar geleden, dus wss kan je voor diezelfde prijs nu 3GB of mss zelfs 4GB hebben) het geheugen is dus grofweg de helft van de GPU zelf en ongeveer 1/4e tot zelfs 1/3e van de totale GPU kost

[Reactie gewijzigd door Robbedem op 26 september 2014 15:56]

Hemaal gelijk robbedem.

Tuurlijk is meer geheugen leuker maar iemand moet ervoor betalen. En dat is ons de klant!

Ik zeg niet dat games niet mooier mogen worden maar.. 2Gbyte is ook leuk. En vind je al op kaartjes tegen een goede prijs.

Dan moet je maar misschien niet draaien in 16x AA.
offtopic: bedoel je niet de 3570 en de 3770?

ontopic: hoogstwaarschijnlijk slecht geoptimaliseerd, hopenlijk worden nu de nieuwe generaties grafishe kaarten niet veel duurder (ivbm meer vram)
luiheid dus. Bekend probleem in programeursland........niet niet in elke situatie ongewenst, maar nu het de portomonai raak, zou ik dus toch graag anders zien......
Wie zegt dat het slecht geoptimaliseerd is? hoge detail heeft nu eenmaal grote textures nodig.. Comprimeren is niet altijd de oplossing of het probleem, meestal is het sowieso al niet de CPU die voor de decompressie zorgt van textures..
De koste van de current gen consoles en het feit dat bij de consoles de 8GB (waarvan 6-7GB beschikbaar voor developers) vrij in te zetten is. En het meeste word "blijkbaar" als VRAM gebruikt.

Die Ultra moet ik laten liggen met mijn 770GTX met 4GB
Jij hebt iig. goed vooruit gedacht. Ik dacht dat mijn standaard 770GTX met 2GB voorlopig wel futureproof zou zijn. Mooi niet dus, zoals ook The Evil Within laat zien.
Of je futureproof bent hangt natuurlijk ook maar net af van wat je eigen eisen zijn. Het feit dat een game een optie biedt om zoveel videogeheugen te gebruiken wil natuurlijk niet zeggen dat je dat ook per se moet doen. Voor oudere games heb je immers ook texturepacks die je los kan downloaden (al dan niet van de ontwikkelaar zelf) waardoor de honger naar videogeheugen flink oploopt.
Het ligt een beetje in de aard van de gemiddelde PC gamer om bang te zijn dat minder dan high er niet goed uit gaat zien, maar dat zullen we pas zeker weten als het spel werkelijk uit komt. En als dan blijkt dat het er minder goed uit ziet dan bij andere games met een gelijke hoeveelheid videogeheugen dan hoop ik dat de ontwikkelaar een flinke hoop internetstront over zich uitgestort krijgt want dan is het duidelijk niet efficient geprogrammeerd.
Als het er met medium echter prima uitziet en ze puur de optie bieden om het nóg mooier te maken voor de mensen die de hardware er voor hebben, tja, waar maak je je dan druk om?
Zeker waar, maar ik koop niet een 770GTX om krap aan medium kwaliteit textures te draaien. Ik denk dat Nvidia toch wat te gierig is geweest met 2G VRAM in de 7xx serie, getuige de 3GB die AMD toen al aanhield en ook ineens de verdubbeling naar 4GB in de 9xx serie.
De kwaliteit van de textures word niet altijd bepaald door de geheugengebruiker ervan.

Je kan zeggen dat Ultra textures mooier zijn dan Medium, maar toch in mijn ervaring viel het op dat tussen bepaalde settings, ondanks de hogere geheugen gebruik, er soms weinig verschillen zijn.

Soms leveren de ontwikkelaars gewoon van zichzelf bagger textures af, en zelf op Ultra, ultra, godzilla hoog, is het verschil weinig op te merken. Perfect voorbeeld is Skyrim waar ze na de release uitkwamen met de hogere texture pack. En als je zelf die texture bekijkt tegenover wat de "community" uitbracht, is daar nog een mega verschil tussen.

En nog een leuk detail ... in heel wat games, zie je vaak het verschil tussen medium of high niet eens meer, behalve als je statisch voor een muur staat te kijken. Maar als je dat opmerkt, dan kan ik gerust 100de andere punten aanhalen, waar men slecht werk geleverd heeft ( zoals de typische in heel wat games ... de "lijn" tussen de grond en gebouwen, dat altijd zo perfect is, of schaduw dat ontbreken op bepaalde elementen, of andere toestanden ).

Hoe meer perfect je één ding maakt, hoe meer je andere punten durft opmerken ... ;)
Ja, maar dat is nu net mijn punt... We zijn geconditioneerd om te denken dat medium kwaliteit eigenlijk maar een beetje bagger is... Maar wat nu als medium eigenlijk is wat we nu high zouden noemen? Als ze het high genoemd hadden, wat nu high is ultra, en de huidige ultra als insane of gewoon ultra met de losse texturepack geïnstalleerd, had je er dan minder problemen mee gehad?

edit: Overigens heb ik dezelfde GTX 770 met 2GB, dus ik snap je punt wel hoor, maar ik wil niet te snel conclusies trekken :)

[Reactie gewijzigd door Finraziel op 26 september 2014 15:22]

helemaal gelijk heb je, de medium settings van games die uitkomen ligt toch gelijk met de console graphics, alleen pc games zouden geen pc gamers zijn als ze niet de hoogste settings zouden willen (in ieder geval high)
Het feit dat je die settings nodig hebt voor de kwaliteit die je krijgt komt omdat het een console port is, om het meeste uit een PC videokaart te halen heb je spellen nodig die daar speciaal voor gemaakt zijn, of extra voor optimized zijn.
Ik vraag me af hoe de engines (b.v. Unity, Unreal en Cryengine) hiermee omgaan. (waar je vanuit de code-base kiest waarheen je compiled, in plaats van iets wat speciaal voor de console gemaakt is dat vervolgens naar de PC geport wordt) en of dit spel nou een echte console port is en dus unoptimized is, of dat de laatste versies van een van die engines nou zoveel is gaan vragen.
als je in de actie van de game zit, heb ik geen last van medium settings, wanneer ik een paar dagen weer een x360 game ga spelen merk je dit heel erg het eerste uur maar het went erg snel, al met al is dit gewoon een heel erg slechte port die niet efficent met het beschikbare geheugen omgaat, 3GB begrijp ik 4 ook nog wel maar 6 is gewoon overdreven, het zelfde liedje was er aan de hand met COD Ghosts, 6gb ram vereist, de game draaide al met 2gb.

alhoewel jouw verhaal klopt en logisch is, vind ik het toch raar, ik bedoel een 970 is in principe een 980 maar dan met minder core's etc, hetzelfde voor de goedkopere kaarten van Nividia, maarja PC gaming zal altijd worden benadeeld behalve wanneer je het over games zoals BF, The Witcher hebt
http://www.eurogamer.net/...ake-a-multi-platform-game

Heel interessant artikel dat goede inzicht geeft in het ontwikkelen voor de next-gen consoles. De consoles hebben overigens maar 4,5-5GB beschikbaar voor games, en daar moet je nog het geheugen dat de engine zelf gebruikt ook nog vanaf trekken. Je komt dus netto uit op 3-4GB voor graphics. Dit klinkt veel, maar er zit een addertje onder het gras. Zoals in het artikel bovenaan deze reactie staat heeft unified memory namelijk ook een keerzijde: de cpu en de gpu moeten beide over dezelfde bus.
Well, you kind of answered your own question - PS4 is just a bit more powerful. You forgot to mention the ROP count, it's important too - and let's not forget that both CPU and GPU share bandwidth to DRAM [on both consoles]. I've seen a lot of cases while profiling Xbox One when the GPU could perform fast enough but only when the CPU is basically idle. Unfortunately I've even seen the other way round, when the CPU does perform as expected but only under idle GPU, even if it (the CPU) is supposed to get prioritised memory access. That is why Microsoft's decision to boost the clocks just before the launch was a sensible thing to do with the design set in stone.
Ik houd het persoonlijk wel bij pc gamen, is namelijk veel goedkoper. Je hebt sowieso iets van een pc nodig voor huiswerk/administratie. Koop of bouw een midrange i5 pc en ipv een PS4 koop je een GTX970. Ben je nog ¤75 goedkoper uit ook.

[Reactie gewijzigd door Persei84 op 27 september 2014 10:00]

Dat verhaal over de hoeveelheid geheugen beschikbaar voor ps4 games is 1 grote verzameling speculatie en aannames gebaseerd op een getalletje in de docs van de (eerste versie) van de sdk. Niet alleen heeft Sony al gereageerd dat de interpretatie van dat getal onjuist is (games kunnen ook delen van de rest van geheugen claimen bij het OS), maar ze hebben ook al eens aangegeven dat de verdeling in de toekomst kan veranderen.

Los daarvan gaat het er ook om dat het geheugen van de consoles shared is, en CPU en GPU er allebei zonder overhead bij kunnen. Veel data van een typische game wordt zowel door CPU als GPU benaderd, en op PC's betekent dit onvermijdelijk dat een deel daarvan 2 keer opgeslagen is en/of rond moet fietsen over PCIe (wat ontzettend traag is).
helemaal gelijk heb je maar het feit dat hij 6gb vram nodig heeft geeft dus in feite aan dat het een directe port is van de consoles, ik hoop dat deze game een grote PC update krijgen mbt de optimalisatie.
En die pc-gamers mogen nu minimaal 890¤ neerleggen voor een graka met minimaal 8GB geheugen: http://tweakers.net/categ...iWQ4XSYJ5oIeaex3R66FDzvkF
En dan heb je nog niet eens een Titan. (Goedkoopste Titan die 8GB of meer aan VRAM heeft kost 2369¤.)

Edit: zoals finraziel hieronder zegt hieronder zegt gaat het in het artikel om minimaal 6GB en daar zijn gelukkig wel iets meer en iets goedkopere kaarten in te vinden.

[Reactie gewijzigd door Eric70 op 26 september 2014 22:12]

Dat zijn grotendeels dual GPU's. Dubbel VRAM mag je dan weer halveren natuurlijk, omdat je VRAM per GPU wilt hebben. Dit is in jouw link bij de R9-295X2, AREZ (2x 290X), Titan-Z. Aan die Quadro/Tesla/FirePro kaarten heb je natuurlijk ook vrij weinig aan voor gaming.

Kortom: effectief zijn er nog geen gamingkaarten die 8GB per GPU hebben. Zal allicht op korte termijn nog wel volgen bij de luxere kaartedities van de GTX980 verwacht ik zo.

Verder is het allemaal vind ik nogal discutabel of 8GB VRAM echt moet. Het lijkt er te meer op dat gamemakers graag de limieten opzoeken (ongeacht waardoor het nu komt, zie post Artimunor) en het publiek psychologisch lekker maakt met dat je dikke specs nodig hebt... terwijl high met max. AA ook gewoon hartstikke vet eruit ziet zonder dat je 8GB VRAM nodig hebt. Kan natuurlijk wel dat je over 1 jaar meer single GPU kaarten vindt waarmee het kan... dat pusht de ontwikkeling natuurlijk ook wel en dat is weer positief. :)

[Reactie gewijzigd door marcel87 op 27 september 2014 01:40]

als je nadenkt hierover is het toch valse marketing, 12GB vRAM is in feite 6GB per core, de gemiddelde consument trapt hier toch met gemak in bij de aanschaf van een nieuwe kaart
Mwah, dat mensen amper wat nazoeken is niets nieuws en natuurlijk prima als fabrikant zijnde, misschien zelfs wel wenselijk. Ergens is het wel logisch dat VRAM per GPU geldt. Dit zie je ook bij een multislot moederbord met 2 of meer CPU's. Dan heb je ook aparte RAM sloten per CPU.

Met GPU's is dat eigenlijk precies hetzelfde. Alleen koop je je GPU kant en klaar, terwijl je bij je multislot moederbord het er allemaal zelf inzet. Zoals bij SLI/CFX ook geldt: dubbele GPU=geen effectieve verdubbeling van VRAM, alleen wordt een deel van het beeld in het VRAM van GPU1 ingeladen en een ander deel in het VRAM van GPU2, VRAM is per GPU... altijd. Een dual GPU zijn gewoon 2 GPU's op 1 PCB, de werking en principe van het VRAM blijft hetzelfde, enige dat je ermee opschiet is dat je met 1 kaart in principe SLI/CFX hebt, daarmee ruimte bespaard en heel soms ook geld bespaard tov losse kaarten.

Overigens lijkt mij dat dezelfde mensen ook tuinen in het feit dat ze goed denken te zitten met een GT730 met 4GB (DDR3) VRAM. Of dat ze een nieuwe laptop kopen en denken uitstekend te zitten met een GT810M, dat feitelijk alweer de 4e rebrand is van de GT435M. Allemaal van dat soort voorbeelden waar aardig wat geld in omgaat en de nietswetende gemiddelde klant prima bezig denkt te zijn, terwijl het in werkelijkheid anders in elkaar steekt. Ik zeg: gewoon laten gaan, waarschijnlijk komen ze er toch niet achter en zijn ze blij met wat ze hebben. :P
beide bedankt voor de nuttige uitleg ! heldert veel op !, jammer dat de fabrikanten hier klakkeloos gebruik van maken.
Het is unified RAM dus waarom zou je het per core willen hebben? Die cores rekenen gewoon samen aan hetzelfde model en hebben dus ook toegang tot hetzelfde geheugen nodig. Geheugen per core werkt juist niet. Wat jij eigenlijk zegt is dat als je meer cores hebt dat je dan ook meer geheugen nodig hebt.

Nou ja uiteindelijk hebben we gewoon van alles veel meer nodig natuurlijk :+
Iedereen snapt vast wel wat ik bedoel, maar je hebt gelijk... het staat er verkeerd. Core moet GPU zijn, bij deze aangepast. :)

[Reactie gewijzigd door marcel87 op 27 september 2014 02:34]

Er is wel zeker een single GPU kaart met 8Gb VRAM; http://nl.hardware.info/p...on-r9-290x-vapor-x-oc-8gb
De vraag is alleen hoeveel je er aan hebt...
De grap is alleen dat de R9 295 X2 "slechts" 8GB in TOTAAL heeft, wat neerkomt op 4GB per GPU, iets wat ook gewoon duidelijk in het artikel van tweakers staat.

Daarnaast vind ik de speculatie dat dit komt door de nieuwe consoles nogal onzin, want als ik de verhalen daar zo over lees hebben games over het algemeen maar max 6GB ram IN TOTAAL beschikbaar, dus die 6GB moet verdeeld worden over zowel RAM als vRAM.

[Reactie gewijzigd door Spekkie88 op 3 oktober 2014 09:00]

Waarom spring je naar 8? Er wordt hier over 6 GB gesproken en die zijn er wel al:
http://tweakers.net/categ...olQ0sQmQuSVDIzNDFRqq2tBQA
De 980 varianten met meer geheugen komen er ongetwijfeld ook aan. Of je het echter nodig hebt, daar heb ik nog steeds mijn twijfels over...
Ah, je hebt helemaal gelijk. Dat krijg je er dus van als je in huis aan het multitasken ben ;)
Ten tijde van de release van The elder scrols IV: oblivion was er geen enkele pc de het spel fatsoenlijk op max settings kom draaien.
Sommige ontwikkelaars houden rekening dat hun spel misschien nog een lange tijd gespeeld zal kunnen worden.
Ik juig dit soort futureproof spellen alleen maar toe :)
Heb je nog plek over waar normaal vram zou zitten, kun je eventueel vram erbij op plaatsen ;)
Zelfs met mijn spiksplinternieuwe gtx 970 heb ik dus nog niet genoeg :') 3/4gb kan ik me nog voorstellen...maar er zijn bijna geen mensen met 6gb aan vram. Nja, dan maar op high :p
Het vreemde is dat - althans tot niet zo lang geleden - de videokaarten met de meeste VRAM vaak met low-end budget chips waren uitgerust, puur om de specs of de flyer wat sexier te maken (Geforce GT510 met 2GB, dat soort brol - in welk scenario zou zo'n zwakke chip nou in godsnaam zoveel VRAM nodig hebben), terwijl echte gamers-kaarten daar vaak nog achteraan hinkten (een GTX560Ti kwam niet boven 1.5GB uit, volgens mij - correct me if I'm wrong).
Gelukkig is deze situatie wat betreft gaming GPU's tegenwoordig al wat bijgedraaid, maar nog steeds kom je regelmatig prul-GPU's met bakken VRAM tegen...

[Reactie gewijzigd door w00t00w op 26 september 2014 16:18]

Dat komt inderdaad voor, vooral in tijden dat PC geheugen (DIMM modules) goedkoop is. Want dan kunnen die (op dat moment) heel goedkope DDR2 of DDR3 chips gebruikt worden om op een videokaartje bijvoorbeeld 2 of 4 GB RAM te hebben, terwijl veel gaming kaarten vaak nog maar 1 GB GDDR5 hadden. Speciaal videokaart geheugen geheugen zoals GDDR5 is meestal veel duurder en veel minder beinvloed door de enorme prijsschommelingen (over een periode van een jaar) als gevolg tegenomen of afgenomen vraag of aanbod.

Uiteraard zijn die kaarten veel langzamer dan een gaming kaart, niet alleen vanwege het verschil tussen DDR3 en GDDR5, maar ook om het goedkope kaartje met veel standaard DDR3 ook relatief smalle geheugen bus heeft (b.v 64-bit, evt 128-bit). Die smalle geheugenbus maakt het ook mogelijk om minder DDR3 chips te gebruiken die wel een grote capaciteit hebben (wat relatief goedkoop is in tijden van overproduktie). Geheugenbandbreedte is dan pak weg 10 x zo weinig als een mid-range gaming kaart, en dat wordt zelfs voor lichte GPUs een grote bottleneck wat betreft performance.

Bepaalde GDDR5 chips zijn ook wel eens wat goedkoper geweest, en als je op een niet zo duur midrange kaartje met GDDR5 toevallig een aantal jaar geleden voor een minder makkelijk te vinden model met 2GB bent gegaan voor een tientje meer, kun je daar nu nog heel veel profijt van hebben (er zijn afgezien van spellen nog meer toepassingen waar meer video geheugen van pas komt). Hoewel de GPU snelheid limiterend kan zijn voor bepaalde game quality settings, kunnen andere instellingen (b.v. grote textures) juist wel mogelijk zijn dankzij 2GB video geheugen.

Maar momenteel is PC geheugen (DDR3-SDRAM chips) al ruim een jaar vrij kostbaar (mogelijk zelfs duurder dan GDDR5), dus dat soort videokaartjes zul je nu weinig tegenkomen.

[Reactie gewijzigd door geometry45nm op 26 september 2014 16:42]

Maar momenteel is PC geheugen (DDR3-SDRAM chips) al ruim een jaar vrij kostbaar (mogelijk zelfs duurder dan GDDR5), dus dat soort videokaartjes zul je nu weinig tegenkomen.
Voorlopig staan er nog 14 kaarten met 4 GB in de pricewatch die minder dan 100 euro kosten.
http://tweakers.net/categ...mzfJ2kUSYB7ovuZcRTd13SCm9

Er zijn overigens ook wat betaalbare GDDR5 4GB kaarten (GTX 650, GT 740). Dus het wordt nog wel geprobeerd :P. In het segment +-200 euro kom je de R9 270X tegen. Afgezien van dit nieuws is het bij die kaart ook redelijk twijfelachtig of dat nuttig is.

[Reactie gewijzigd door sdk1985 op 26 september 2014 19:44]

Het is wel interessant om na te gaan wat voor modellen precies 4GB gebruiken.

Zo is in de lijst op pricewatch te zien dat de goedkope 4GB modellen uit bepaalde groepen bestaan:

- Een paar GT 630 kaarten uit 2012. Toen was DDR3 veel goedkoper, en daar is toen kennelijk gebruik van gemaakt.

- Bij de recente GT 730/740 kaartjes lijkt er meestal sprake te zijn van een 64-bit geheugeninterface (ook bij oudere kaarten zul je vaak een 64-bit geheugeninterface zien bij een geflatteerde hoeveelheid geheugen). Soms wordt de geheugenbus bij specificaties verkeerd weergegeven, NVIDIA maakt het verwarrend met allerlei varianten van bijvoorbeeld GT 730 (64-bit/128-bit), als een kaart goedkoop is met veel geheugen dan is 64-bit (slechte performance) waarschijnlijk.

Het is eigenlijk absurd om op een kaartje met 64-bit DDR3 (d.w.z. de absoluut laagst mogelijke performance) zoveel geheugen te doen. Het is natuurlijk pure marketing, en er is ook een markt-technische reden waarom het met een 64-bit geheugen bus relatief goedkoper is om zoveel geheugen te gebruiken.

DDR3 chips hebben vaak namelijk vaak per stuk een busbreedte van 8 bits. Dus je hebt acht 4Gbit (512Mx8) chips (8 bits breed). Deze x8 chips worden ook veel gebruikt in DIMM modules.

Voor een 1GB configuratie zou je acht 1GBit (128Mx8) chips nodig hebben. Maar met de recente DRAM prijzen zijn 4Gbit DDR3 chips echter relatief veel voordeliger dan 1Gbit DDR3 chips. 1Gbit chips zijn momenteel per bit duurder om te produceren, en meer een niche markt (te klein voor gangbare DIMMs), en daardoor relatief duur vergeleken met de geheugencapaciteit.

Als bijvoorbeeld een 4Gbit 512Mx8 chip $4 kost en een 1Gbit 128Mx8 chip $2.5, wordt het heel aantrekkelijk om dan maar gelijk 4GB DDR3 op de kaart te monteren in plaats van 1GB (vier keer zoveel geheugen voor $32 i.p.v. $20, maar 60% hogere geheugenprijs).

Bij een grotere geheugen bus, bijvoorbeeld 128-bit (wat juist nodig is om met DDR3 nog enigzinds redelijke performance te krijgen) wordt het veel lastiger om een vergelijkbare "truuk" uit te voeren. Want standaard x8 chips wordt dan lastig, je hebt dan 16 chips nodig (duur) en met 4Gbit chips kom je op 8GB. Er zijn wel x16 chips. maar dat zijn niet zo massaal geproduceerde als de x8 die op DIMM modules gebruikt worden, en daardoor vaak veel duurder.

Ook voor GDDR5 gelden er waarschijnlijk vaak vergelijkbare principes (maar dan met grotere data-pinouts zoals x32), waardoor b.v. met een 64-bit geheugenbus ook de hoeveelheid GDDR5 makkelijk (goedkoop) in de hoogte gestuurd kan worden d.m.v GDDR5 chips van een hoge density als die beschikbaar zijn. Maar dat geldt dan weer niet voor snellere/duurdere kaarten met een 256-bit geheugenbus, want dan zijn er veel meer chips nodig met relatief lagere capaciteit. Dat is ook een reden waarom high-end kaarten lang relatief beperkte hoeveelheid geheugen hadden (b.v. maar 1GB) vergeleken met veel goedkopere/langzamere modellen die ook minstens 1GB GDDR5 hadden.

[Reactie gewijzigd door geometry45nm op 26 september 2014 22:34]

De laatste jaren zien we steeds dat een beschaafde bus zorgt voor een minder complexe kaart die zuiniger is en goedkoper te produceren is (aldus de kwartaalcijfers van Nvidia :P ).

Natuurlijk zijn die kaarten van 100 euro met 4GB ram volkomen onzinnig. Als ze er DDR3 opzetten ipv GDDR dan is het logisch dat de kaart zelfs trager wordt. Dat gebeurde al toen we nog AGP hadden. Ik herinner me de Geforce 6800GT nog :+ . Maar die daling lijkt mij primair zitten in de beperkte bandbreedte van het gebruikte geheugen, niet zo zeer in een al dan niet aangepaste bus.

Maar goed, de wat duurdere 'pats'kaarten zoals de R9 270X met 4 GB ipv 2 GB GDDR5 geheugen hebben gewoon dezelfde specs. In dit geval 256 bit.

Ondanks dat ik geen benchmark kon vinden ga ik er even vanuit dat die kaart niet slechter presteert. Lijkt erop dat zo lang de kaart maar geen DDR3 gebruikt je gewoon een model kunt nemen met (te) veel geheugen.

[Reactie gewijzigd door sdk1985 op 26 september 2014 23:28]

De laatste jaren zien we steeds dat een beschaafde bus zorgt voor een minder complexe kaart die zuiniger is en goedkoper te produceren is (aldus de kwartaalcijfers van Nvidia :P ).
Inderdaad, de Maxwell architectuur is bijvoorbeeld veel zuiniger met geheugenbandbreedte d.m.v. betere data-compressie technieken en grotere caches op de chip. En daardoor wordt de kaart veel zuninig/goedkoper (b.v. GTX750 met 128-bit geheugenbus presteert vergelijkbaar met vorige generatie met 192-bit bus en veel zuiniger).
Natuurlijk zijn die kaarten van 100 euro met 4GB ram volkomen onzinnig. Als ze er DDR3 opzetten ipv GDDR dan is het logisch dat de kaart zelfs trager wordt. Dat gebeurde al toen we nog AGP hadden. Ik herinner me de Geforce 6800GT nog :+ . Maar die daling lijkt mij primair zitten in de beperkte bandbreedte van het gebruikte geheugen, niet zo zeer in een al dan niet aangepaste bus.
Maar de totale geheugenbandbreedte in een videokaart schaalt juist lineair met de breedte van de geheugenbus. Als je een losse DRAM chip beschouwt met 4 data pinnen, dan is de geheugen-bandbreedte van die chip beperkt, ook al is die DRAM chip nog zo snel.

Een videokaart met DDR3 met een 64-bit geheugenbus zal exact de helft van de geheugenbandbreedte hebben dan exact hetzelfde type DD3 geheugenchips met een 128-geheugenbus. En dat is juist voor budgetkaartjes funest, met een 128-bit bus kun je nog een beetje gamen en ook voor andere toepassingen kan het uitmaken.
Ondanks dat ik geen benchmark kon vinden ga ik er even vanuit dat die kaart niet slechter presteert. Lijkt erop dat zo lang de kaart maar geen DDR3 gebruikt je gewoon een model kunt nemen met (te) veel geheugen.
Inderdaad, de meeste duurdere GDDR5 (gaming) kaarten hebben gewoon een bepaalde (vrij brede) geheugenbus die ligt vastgelegd in de GPU specificaties en performance-eisen, terwijl er bij budgetkaartjes wordt aangerommeld (b.v. halveren van geheugenbus en performance met hetzelfde GPU type, bv. GT730).

Ook is het prijsverschil tussen b.v. 2GB en 4GB GDDR5 waarschijnlijk meestal meer "normaal" (4GB kan gewoon bijna twee keer zo duur zijn als 2GB). Dit komt ook om dat er geen commodity GDDR5 markt is met massaal geproduceerde chips voor DIMM modules zoals bij DDR3.

Toch zou een marktsituatie kunnen ontstaan dat meer GDDR5 op een middenklasse kaartje relatief voordelig wordt voor de fabrikant. Neem bijvoorbeeld de GTX750Ti (128-bit geheugenbus met GDDR5) en kaartjes met een vergelijkbare geheugeninterface. Als op een bepaald moment hogere capaciteit GDDR5 chips breed beschikbaar worden, dan kan het gebeuren dat die dan relatief voordelig zijn om te gebruiken voor 4GB op een kaart i.p.v. 1GB of 2GB met relatief weinig prijsverschil. Ook voor high-end kaarten met 256-bit interface wordt dan 8GB interessant (want niet veel duurder dan 4GB).

Dit soort onregelmatige trapsgewijze marktontwikkelingen op het gebied van videokaartgeheugen door toedoen van geheugenchipcapaciteit zijn er al vele jaren. Om de zoveel jaar wordt het opeens heel voordelig om veel meer geheugen te gebruiken vanwege brede beschikbaarheid van geheugenchips met een hogere capaciteit, dan neemt het voordeel weer af totdat de geheugenchipcacaciteit weer omhoog springt. Dit hangt ook vaak samen met de prijscyclus van DRAM chips.

[Reactie gewijzigd door geometry45nm op 27 september 2014 12:36]

midrange kaartje met GDDR5 toevallig een aantal jaar geleden voor een minder makkelijk te vinden model met 2GB bent gegaan voor een tientje meer
Voor een tientje? Midrange kaarten, zoals bijv. de GTX560Ti die w00t00w aanhaalt, waren al snel 50 tot 80 euro duurder. Veelal met lagere kloks ook nog, maar goed... je had dan wel dubbel VRAM.
Bijvoorbeeld GTX560Ti 1GB vs GTX560Ti 2GB, laagste prijs 1GB versie=200 euro en laagste prijs 2GB versie=250 euro gedurende lange tijd. Of deze: GTX670 2GB vs GTX670 4GB, laagste prijs 2GB versie=375 euro en laagste prijs 4GB versie=>>425 euro gedurende lange tijd. Ja, de verschillen zijn ook wel dichterbij elkaar geweest, maar dat is dan veelal op het moment dat de kaart EOL gaat en er betere alternatieven zijn. Standaard kan je wel aanhouden dat dubbel VRAM 50-100 euro extra kost op het moment dat er geen alternatieven zijn.

@ w00t00w: GTX560Ti had een max. editie met 2GB VRAM, standaard was dit 1GB.
Maar momenteel is PC geheugen (DDR3-SDRAM chips) al ruim een jaar vrij kostbaar (mogelijk zelfs duurder dan GDDR5), dus dat soort videokaartjes zul je nu weinig tegenkomen.
Mwah, dat valt ook wel mee. Kijk maar naar de GT730/GT740 kaartjes. Die zijn van mei/juni/juli 2014 en hebben 4GB VRAM! Of de R7 240 kaarten met 4GB uit januari 2014. Toch allemaal behoorlijk recent als je mij vraagt. Blijft leuk zulke kaarten voor systeembouwers, die dan kunnen adverteren met grote specs die nergens op slaan. :P

[Reactie gewijzigd door marcel87 op 26 september 2014 20:24]

toch maar de TITAN Z aanschaffen 100% future proof, alhoewel misschien tot volgend jaar.... 12GB vram is volgend jaar alweer te weinig gezien de eisen van aankomende games
Titan z is 2x6. Heeft dus maar 6 effectief en dus net genoeg.
je snapt het idee... dit is gewoon onzin en geldklopperij, de WD port was zogenaamd in samenwerking met Nvidia geoptimaliseerd... ja het zal wel, gewoon een slechte port
Daarom kan ik nu ook tegen een vriend van me zeggen "zie je nou wel". Hij had namelijk de GTX770 2gb gekocht en ik was ook toe aan een nieuwe videokaart. Hij had zelf niet goed gekeken en wist niet dat er een 4gb versie was. Maar zijn advies aan mij was dat ik beter ook voor de 2gb versie kon gaan omdat ik toch maar op een 1080p scherm speel en dat spellen toch voorlopig geen 4gb gaan gebruiken. Ik ben blij dat ik de 4gb versie had gekocht omdat GTA5 ook waarschijnlijk zulke opties krijgt.
Waar kan ik lezen dat GTA5 waarschijnlijk zulke opties krijgt?
Nergens maar GTA4 heeft het ook toen ging om 2 of 3 GB. Dan kon je pas echt alles op max zetten. Ging volgens mij dat je AA op 8x dan kon zetten. Niet dat AA echt erg is op 2 of 4x

[Reactie gewijzigd door raymondtoonen op 26 september 2014 22:56]

even terug rekenen maar volgens mij moet je dan 720p nog wel op high kunnen draaien
Onder andere daarom ook een R9 280X gekozen :).
Ik heb jaren geleden nog de gtx580 (*2 in SLI) gehaald van EVGA met 3gvram ipv de normale 1,5g per stuk. Men keek me toen raar aan... Ik lach nu terug =D
ot: Je lacht niet om de stroom verbruik van die 580's. Je gaat huilen om je energierekening.

[Reactie gewijzigd door BJ_Berg op 26 september 2014 15:10]

Dat is allemaal erg relatief. Wanneer je 1 of 2 uur per dag een spelletje speelt valt het best wel mee.
Haha, nee dat is inderdaad wel waar. Die ging er ineens 30e per maand op 'vooruit'. Eind dit jaar tiojd voor een nieuwe rig met de 980. Zal het kwa maandelijkse klosten sowieso al beter zijn.
En wij lachen met u dat je niet weet dat je met SLI geen verdubbeling hebt van ram, maar gewoon nog steeds 3GB hebt. :+
En wij lachen weer om uw begrijpend lezen vermogen. Hij heeft 2x de evga 3gb versie gekochte, ipv de toen gangbare 1.5GB
Ik denk dat ie 2*3GB vram bedoelt in de plaats van de 2*1.5GB vram en ja die bestaan: http://www.evga.com/products/moreinfo.asp?pn=03G-P3-1584-AR blijkbaar doet die link het niet dan maar de pricewatch ;) pricewatch: EVGA GeForce GTX 580 3072MB

[Reactie gewijzigd door Damic op 26 september 2014 16:19]

En dat zegt Zulamun toch ook. Hij heeft 2x een 3GB kaart gekocht, waardoor hij effectief 3GB had aan VRAM in plaats van 1.5GB als hij de andere versie gekocht had...
Hij insinueert alsof hij nu met z'n kaarten het spel op Ultra kan doen draaien omdat dit 6GB vraagt en dus NU lacht met mensen die toen raar keken en NU dus eindelijk z'n investering z'n echte waarde gaat tonen terwijl het niks uit maakt of hij nu 1 of 10 kaarten heeft met 3GB. Allee, zo interpreteerde ik het toch.
Die Ultra is waarschijnlijk ook meer gericht op 4K gaming, op de toekomst. Iets wat voorheen nog niet mogelijk was.
Eindelijk is er weer wat vooruitgang. Net als met Crysis destijds, die was ook zn tijd vooruit.

Het is niet voor niks dat we nu hogere textures krijgen, we gaan ook verder dan 1080p. Hou je het bij 1080p, of 2560p, dan moet je gewoon kiezen voor High of Medium textures (verschil zit je toch bijna niet) en dan kan je 770 nog prima mee :)
assuming a 1080p rendering resolution:
ulta = 6GB or greater
4K mag je dus nog wat meer verwachten, tenzij de games het gewoon niet ondersteunen
4K... moet je dus 20GB+ hebben voor ultra? Lijkt me gek.


Nieuwe compressie technieken zouden misschien handig kunnen worden als het echt begint te stijgen, want GDDR5 is niet de goedkoopste.

[Reactie gewijzigd door BJ_Berg op 26 september 2014 15:11]

Nee zo werkt dat niet. Het komt wel hoger te liggen, maar dat is gewoon omdat de plaatjes die er uit eindelijk uit komen groter zijn.

Het gaat hier namelijk om de textures, en die zijn op Ultra 1080P evengroot als Ultra 4K.

Alleen moeten die in een grotere frame verwerkt worden. Dus je verliest wat detial op 1080P tegenover 4K omdat die textures in een 2D plaatje met een lagere resolutie gegoten worden.
Dat is een mooie samenvatting, dank u :). Niet heel erg grafisch bekend :p.

[Reactie gewijzigd door BJ_Berg op 27 september 2014 09:22]

Als het goed is heeft maxwell een interne compressie, dus wellicht dat het op maxwell gebaseerde kaarten mee gaat vallen :).
Je kan 1080p met enorme textures spelen inderdaad, maar wat daar het praktisch nut van is...

Ga je 4K, dan komt er nog iets bij inderdaad aan frame buffer enzo.
Nope vanwege een extreme texture pack die je niet perse hoeft te gebruiken.
6-7gb? Ik dacht toch echt dat het OS 3gb in nam en er maar 5gb beschikbaar is, wat neerkomt op wellicht 3.5gb system ram en 1.5gb vram voor games.
Gevalletje klok horen luiden maar niet weten waar de klepel hangt. Jij zit met t 32 en 64 bit verhaal in je hoofd
6-7gb? Ik dacht toch echt dat het OS 3gb in nam en er maar 5gb beschikbaar is, wat neerkomt op wellicht 3.5gb system ram en 1.5gb vram voor games.
Nee, zo werkt dat in hedendaagse systemen niet meer.

Zodra je de game in gaat worden de minder belangrijke delen van het OS uit het geheugen gegooid. Daarmee blijft nog maar een minimale footprint over.

Daarnaast is er ook geen "3.5 system en 1.5 vram" meer. Er is een hele bak unified memory. VRam bestaat simpelweg niet meer zoals op de PC aangezien CPU en GPU (of eigenlijk: Paralel geoptimaliseerde cores en serieel geoptimaliseerde cores) beiden hetzelfde geheugen aanspreken.
De uitspraak die hier van toepassing is....

'One does not simply play into Mordor'
Begrijp ik goed dat dit spel dan op de Xbox One alleen 1 a 2 GB als normaal geheugen gebruikt?

Hoe dan ook, ik vind alle reacties hier wel redelijk overdreven. Prima toch als je een spel niet op de hoogste resolutie kan draaien... dat is nou net het punt met PC gaming, dat de grafische pracht en praal van een spel zich kan schalen naar gelang de kracht van je PC. En ja, dat betekend in dit geval dat de meeste mensen het niet de eerste paar jaar op Ultra kunnen spelen, maar waar het uiteindelijk om draait is hoe hij er uit ziet op dezelfde PC vergeleken met andere spellen die tegelijkertijd uitkomen. Als ie mooier is op High dan spel X op Ultra, dan good job to them, als hij een stuk slechter is en simpelweg niet goed geoptimaliseerd is... dan bad job to them. De hoge eisen voor ultra an sich betekenen niks.
Dus dit spel zou ik op mijn 690 GTX niet op utlra settings kunnen spelen? Dat slaat werkelijk nergens op. Deze kaart trekt tot nu toe alle games op ultra met min 60/70FPS..

[Reactie gewijzigd door hav0c op 26 september 2014 18:57]

Mooi schijtziek wordt je hier dus van als PC gamer. Zooi wordt gewoon slecht geport, omdat die consoles zoveel vram hebben worden games daaromheen gebouwd en vervolgens niet fatsoenlijk aangepast om te werken zoals alle andere PC games en het dus te kunnen doen met minder vram.

Zit je dan weer met je nieuwe GTX 980 van 500 euro die ongeveer 8 keer de processing power heeft van een PS4 alleen er nooit gebruik van kan maken door een RAM bottleneck in de game engines die allemaal voor de consoles zijn gebouwd.

Gelukkig heb ik enkel een 6 jaar oude laptop om op te gamen.
6GB?! Ik draai alle spelletjes vlotjes met 1+1GB dus waarom in hemelsnaam zou ik ineens meerdere kaarten van 3 of meer GB moeten kopen voor een high-end spel te kunnen spelen op hoogste instellingen. :/
Meerdere kaarten kopen heeft geen zin. Je hebt (tenminste) één kaart nodig met 6GB. Vooruitgang heet dat. 'Vroeger' kwam je ook toe met een harde schijf in Mb's. Lukt nu ook niet meer, en kijk eens naar de ontwikkeling (en bijbehorende vraag naar) RAM ;)


edit: hmm Visgek was me voor. Volgende keer eerst F5.

[Reactie gewijzigd door AllSeeyinEye op 26 september 2014 14:52]

Maar ja, als ik dat zo bekijk, dan blijven er niet veel kaarten over die dat uberhaupt kunnen. Of wel kunnen, maar buiten het budget vallen (ook al zitten hier Tesla/Quadro kaarten bij).

Maar goed, heb je die 6GB altijd nodig? Kan er geen gebruik worden gemaakt van streaming? Gewoon vol laden wat kan (dichtbij; hogere/betere texture) en de rest op low/medium quality.

[Reactie gewijzigd door Feanathiel op 26 september 2014 15:17]

Afstappen van streaming is het BESTE wat game devs kunnen doen.
Het heeft nooit soepel gewerkt en zal dat ook nooit doen tenzij de data VEEL sneller van hdd data pack naar het scherm gaan blijft er vertraging en zie je die lelijk textures langzaam vol streamen.
borderlands had hier erg last van en nog veel meer spellen maar de namen onthoud ik niet.
Dit betekent niet dat ze afstappen van streaming. Wat jij voorstelt is dat we geen spellen meer moeten hebben met 1 grote map, maar in plaats daarvan weer veel kleine levels. Dit is precies wat er gebeurt als je niet meer streamt.

Unreal 3 had er inderdaad in het begin last van, maar er zijn nu zat spellen waar je het niet kan zien.
Wat kan is VRAM en RAM samen benaderbaar maken voor de GPU alsof het 1 grote homp VRAM is. Nadeel dan is de bandbreedte van het (RAM) deel van het geheugen, en de PCI-E verbinding. Maar lang niet alle textures zullen continu nodig zijn. iirc doen games als Total war: Rome II en dergelijke dat ook al. Maar, je merkt het idd wel in de performance
Dan heb je budget kaarten en dus game je of hele oude spellen of op de laagste settings en dus niet vergelijkbaar met de situatie waar we het hier over hebben
Valt wel mee hoor, het is dat spellen nu opeens veel zwaardere specificaties nodig hebben, maar hiervoor kon je zo'n beetje elk spel wel op high spelen met een 1GB kaart, dit weet ik uit eigen ervaring

Als je de resolutie nog wat naar beneden schroefde en de settings op medium zet was 512MB zelf nog voldoende voor de meeste games
waarom zou je een game spelen ONDER de native res van je scherm en onder max settings.
Het spel is immers bedoeld voor de max settings.
Pas dan krijg je alle effecten en het voledige gevoel zoals het bedoeld is.

En bijna alle spellen van de afgelopen 2 jaar zijn gewoon niet speelbaar op max met 1gb.
Het spel is immers bedoeld voor de max settings.
Nonsense. De playability wordt niet slechter als je de videosettings naar beneden brengt. Nog sterker: In veel gevallen wordt de playability beter door niet de maximale settings te gebruiken; vaak zorgt de toevoeging van details op de grond (begroeïng, etc.) er voor dat het lastiger is om dingen op de grond te zien liggen.

Het spel is bedoelt om op alle settings speelbaar te zijn. Wat jij graag wilt bepaalt hoe je het instelt.
een game is meer dan alleen een verhaaltje doorlopen. Een game wekt gevoel op.
Daarbij zijn ambiance en geluid een key factor.
Heb je dat niet optimaal ben je dus niet een het gamen maar een spelletje aan het spelen.
Als je serieus wil genieten van een game heb je gewoon 5.1 geluid en de hoogste graphics nodig voor dingen als licht effecten mist realistische shaduwen enz.
Het gaat bij hogere settings vooral om het gevoel. Iets dat je bij lage settings gewoon niet heb en je dus niet he spel speeld zoals het bedoeld is omdat je het gevoel mist.
Ikzelf heb met veel plezier spellen gespeeld op mijn xbox 360 die nou niet bepaald bijzonder goede graphics heeft t.o.v. een pc met recente hardware. Dit heeft er nooit voor gezorgd dat de sfeer afneemt of dat het verhaal minder goed is.
Omdat 1 fps nou niet eenmaal aangenaam speelt, Sinester had het over oudere grafische kaarten met te weinig geheugen voor de recentere spellen.

De sprong 1GB -> 512MB is net iets minder drastisch dan 6GB->1GB om mijzelf als voorbeeld te nemen.
1+1 ? Ik neem aan dat je hier op een SLI of Crossfire situatie doelt? In dat geval heb jij gewoon 1gb videogeheugen, niet 2 omdat je 2x1GB kaarten hebt. Crossfire of SLI voegt geen geheugen toe, dat blijft hetzelfde. 4 kaarten naast elkaar met elk 1GB blijft 1GB.
In datzelfde opzicht vraag ik mij af welke R9 295X hiervoor in aanmerking zou komen.
Vemits dit een dual GPU kaart is, moet je in totaal 12GB aan geheugen hebben.
De meeste van deze spellen zijn natuurlijk gemaakt voor de oude consoles. De nieuwe spellen gaan natuurlijk wel gebruik maken van het extra geheugen.

Het mooie bijkomende voordeel is dat al deze spellen x64 zijn. Kunnen ze eindelijk eens 32 bit laten vallen wat eigenlijk al jaren geleden had moeten gebeuren.
De titel is niet:
LOTR: Shadows of Mordor verplicht spelers een videokaart aan te schaffen met 6GB vram.
6GB?! Ik draai alle spelletjes vlotjes met 1+1GB dus waarom in hemelsnaam zou ik ineens meerdere kaarten van 3 of meer GB moeten kopen voor een high-end spel te kunnen spelen op hoogste instellingen. :/
Ik draaide alle spelletjes vlot met 128Kb!

Zou het antwoord kunnen zijn dat de complexiteit van de graphics toegenomen is>
als ik 2 780ti's met ieder 3GB vram in SLI draai, heb ik dan in feite 6GB aan vram of denk ik dan verkeerd?
Voldoet niet.
Je hebt wel 6GB VRAM, maar er kan slechts 3GB aan grafisch materiaal in geladen worden, de andere 3 is daarvan een kopie. Bij SLI/Crossfire moeten alle kaarten exact hetzelfde in hun geheugen hebben.
Is een fout die ook in het artikel staat over bv de R9 295 X2.
Yep, de enige twee consumer AMD kaarten met 6+ GB geheugen zijn de MSI Radeon R9 280X Gaming 6 GB en de Sapphire Radeon R9 290X Vapor-X Tri-X OC 8GB.
Leuk dat alle spellen mooier worden (wel jammer dat dat pas gebeurd wanneer er nieuwe consoles komen), maar dit gaat gewoon niet goed.

De PC's konden al langer hele mooie beelden weergeven met 2GB VRAM, minimaal gelijk aan de "nieuwe" generatie consoles. Dus waar komt opeens die 6GB vandaan? "The evil within" zou ook al 4GB nodig hebben terwijl het niet echt uit ziet als een 4GB - behoevend spel.

Ik vraag me af wat die ontwikkelaars aan het doen zijn want ik dacht net dat mijn 1.5GB VRAM kaartjes nog even mee konden.
Ik vraag me af wat die ontwikkelaars aan het doen zijn want ik dacht net dat mijn 1.5GB VRAM kaartjes nog even mee konden.
Met de steeds hoger wordende resoluties van monitoren en televisies, moeten de resolutie van textures ook steeds hoger worden. Tel daar bij op dat men een steeds grotere verschijdenheid aan textures verwacht, plus het feit dat alles vlot beschikbaar moet zijn voor snelle verwerking (= zo min mogelijk compressie van textures wanneer ze ingeladen zijn in het VRAM).

[Reactie gewijzigd door the_shadow op 26 september 2014 14:52]

Volgens mij komt het vooral doordat de ontwikkelaars de CPU van de consoles niet willen belasten met decompressie en compressie van de textures.
Aangezien een PC CPU meestal een pak meer rekenkracht heeft, zou (de)compressie van texture bij een PC dus wel kunnen wat het nodige VRAM wss al zou kunnen halveren...

[Reactie gewijzigd door Robbedem op 26 september 2014 15:17]

Een beetje GPU kan de texture compressie zelf afhandelen, in ieder geval bij DXT compressie. Daar is geen CPU voor nodig, behalve om de GPU op te dragen de texture daadwerkelijk te laden.
Ik vermoed dat de developers voor de consoles gewoon elke vorm van compressie wilde vermijden omdat de rekenkracht nu eenmaal beperkt is. Hetzelfde gaat echter niet op voor PC's en dat is het punt dat ik wilde maken. ;)
(Maar je hebt natuurlijk gelijk dat GPU's ook compressie kunnen doen)

[Reactie gewijzigd door Robbedem op 26 september 2014 15:43]

Klopt. Deze gen heeft relatief veel en veel minder cpu performance dan de vorige gen, daar was juist de cpu erg krachtig.

Maar is het dan zo moeilijk om texture compression aan de pc versie toe te voegen? Dit komt een beetje over als lui programmeren.
Dat snap ik, maar het is nog maar de vraag of dit spel bijvoorbeeld 4k resolutie textuur gaat hebben. Want anders is er weinig tot geen reden om 6GB aan VRAM te vragen.
Dit gaat prima dat heeft vooruitgang.
Je moet als je mee wil een nieuwe gpu kopen zo simpel is het.
Natuurlijk kan het met minder vram maar dat is gewoon een slechtere optie.
Streaming is gewoon lelijk en veroorzaakt soms nog lag ook omdat hij bezig is met streamen en moet dus vanaf gestapt worden.
Dat de vga kaarten fabrikanten lopen te slapen is wel jammer maar ik hoop dat amd dit at wel opvult die lopen immers al jaren voor met geheugen op kaarten.
De 4gb waar nvidia mee aan durft te komen is gewoon niet van deze tijd.
4K staat om de hoek en 5.25gb is bewezen als sweet spot met huidige generatie games en dus niet nieuwe generatie games. dus iedereen kon dit zien aankomen.

[Reactie gewijzigd door computerjunky op 26 september 2014 15:45]

Laten we eerst eens kijken hoe het er uit gaat zien voordat we zeggen dat 6GB VRAM nodig is. Er zijn meerdere spellen waarvoor meer VRAM staat aangeraden maar deze spellen draaiden uitstekend op kaarten met minder videogeheugen.

Uiteraard kan je zien aankomen dat er steeds meer VRAM nodig is, maar 6GB is wel een erg grote stap.

Ik denk dat het iets te maken heeft met het gedeelde heugen van de PS4 en dat spellen daarom opeens zo veel meer VRAM vragen terwijl het er niet echt mooier uit gaat zien.
idd we weten niks tot we het zien maar gezien het feit dat het spel volledig gebaseerd is op de engine en objecten van black flag kan dit met een high res pack wel eens een toppertje worden.
Al is het helemaal niet mijn genre qua verhaal (ben lichtelijk anti lotr door de overgrote hype die eromheen hangt) lijn ben ik toch nieuwsgierig.

En ja 6gb lijkt een grote stap maar weet je nog wat er gebeurde toen net de ps3 en de xbox uitkwamen? Het heeft 2,5 a 3 jaar geduurd voordat pc's dezelfde grafische prestaties haalde als consoles.
Gelukkig hebben pc kaarten de afgelopen 2 a 3 jaar een voorsprong gehad op consoles en zal dat probleem nu minder zijn als toen maar ik vind dit zo gek nog niet.
En idd misschien werkt het prima op 3gb en misschien hapert het wat meer door in en uit laden maar is het speelbaar we gaan het zien.
Dat is echt belachelijk.

Dit is gewoon zeer slechte porting en slechte coding. Optimalisatie is echt het raam uit geflikkerd met de komst van de nieuwe consoles.
Of een bewuste keuze.
Het zal pas zichtbaar zijn bij de release hoe goed het spel is.

Nu al negatief oordelen over iets dat zijn nut al bewezen heeft vind ik echt te kort door de bocht en niets voor tweakers.
Nu al negatief oordelen over iets dat zijn nut al bewezen heeft vind ik echt te kort door de bocht en niets voor tweakers.

Sorry hoor, maar met 6GB VRAM moet je wel een echt dijk van een spel neerzetten grafisch wil je dat kunnen goedpraten.... Dan wil ik de volgende Crysis zien qua "wow" factor...
We willen dat allemaal wel maar black flag waar deze game gewoon een clone met skin van is was op veel fronten al mooier als crysis 2/3 dus met high res texture pack is het al snel mooier.,
Veel games blijven gewoon achter puur door de lage res textures dus dat is 1 van de belangrijkste verbeterpunten in games op het moment.
Als de textures echt high res zijn heeft het gewoon ballen nodig om deze stap te durven nemen wetende dat het qua hardware nog niet beschikbaar is.

Net als crysis destijds.
Het was toen misschien niet de slimste zet en het heeft ze aardig wat negatieve reviews gegeven maar het heeft wel de lat hoger gelegd en graphics in een stroomversnelling gebracht.

[Reactie gewijzigd door computerjunky op 26 september 2014 18:01]

Ooph! Ik reageer net op dat bericht van the evil within dat ik 4gb toch best wel heftig vindt....maar 6gb?! Ik vindt ut nogal wat :P
Haha ik wilde reageren op the Evil Within, maar zag toen dit langskomen... Nou euh, heb pas sinds een paar weken een nieuwe GTX750 en die doet weer alles wat ik er van verwacht. Voorlopig wel weer prima (met 1GB geheugen) :+
En net nu ik van plan was om de nieuwe GTX9XX reeks aan te schaffen, juist om toekomstige spellen te kunnen blijven spelen op de hoge settings gebeurd er dit.
Gelukkig hoor je niet bij de mensen die dit al gedaan heeft !

maar amd lanceert binnenkort zijn r9 300 serie dus daar zou wel eens meer vram bij kunnen zitten ( of misschien zelfs stacked dram )
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True