Door Reinoud Dik

Redacteur

Hoeveel vram heb je nodig voor games?

Een gpu met (on)voldoende geheugen

Conclusie

De hoeveelheid vram op een videokaart is een kwestie die veel pc-gamers al jarenlang bezighoudt. Met de komst van twee nieuwe mainstreamkaarten in de vorm van de RTX 4060 Ti en RX 7600 is die discussie nu relevanter dan ooit. Is een nieuwe videokaart met 8GB aan videogeheugen wel zo'n goed idee als je hier nog een paar jaar mee vooruit wilt kunnen?

Het korte en wellicht enigszins teleurstellende antwoord is dat dit erg afhangt van de games die je speelt. Moderne games vereisen doorgaans meer videogeheugen dan oudere spellen en onlangs uitgebrachte titels springen er soms in negatieve zin uit. Omdat de variatie hierin vrij groot is, heb ik er voor dit artikel ook niet voor gekozen om een groot aantal games met een klein aantal videokaarten te testen. In plaats daarvan ben ik met meer videokaarten gedoken op een klein aantal games die zich in geheugengebruik van elkaar onderscheiden. De gebruikte games dienen vooral als voorbeeld voor hoe verschillende spellen in algehele zin met geheugen omgaan.

4GB has left the game

In algehele zin valt te stellen dat videokaarten met 4GB geheugen in 2023 niet meer afdoende zijn om nieuwe games met hoge kwaliteit textures te kunnen spelen. Je levert dan behoorlijk in op prestaties ten opzichte van de laagste kwaliteit textures. Beroerde frametimes hebben bovendien tot gevolg dat het spel veel minder soepel aanvoelt. Dit is ook het geval bij 6GB-kaarten, maar hierbij hangt het ook van de desbetreffende game af. Zo draaide Resident Evil minder vloeiend op de 6GB-modellen, terwijl Spider-Man erin slaagde de schade te beperken door veel gedeeld vram op het systeemgeheugen in gebruik te nemen.

Met een hogere schermresolutie heb je ook meer videogeheugen nodig, al is die toename niet zo groot als we hebben gezien bij het verhogen van de texture quality. Dat betekent dat je op een lagere resolutie meer videogeheugen nodig kunt hebben om met een hoge kwaliteit textures te spelen dan op een hoge resolutie met een lage kwaliteit textures. Het liefst doe je natuurlijk allebei, maar dat is niet altijd mogelijk.

8GB videogeheugen: op het randje

De 8GB-kaarten voldoen op 1080p en 1440p in de tests van dit artikel nog, maar op deze modellen wordt al regelmatig meer gedeeld vram ingeschakeld dan we bij de kaarten met meer vram hebben gezien. Vandaag de dag een nieuwe videokaart met 8GB kopen zit dus eigenlijk al op het randje en als de ontwikkeling van geheugengebruik in nieuwe games op dezelfde manier doorzet als het de afgelopen jaren heeft gedaan, zul je steeds vaker de texture quality moeten terugschroeven om de nieuwe games vloeiend te kunnen spelen. Op 2160p is hetzelfde van toepassing en vertoonden de 10GB-kaarten ook wat van deze verschijnselen. Op die resolutie heb je momenteel dus liever 12GB of meer.

Duidelijk is in ieder geval dat de texture quality verhogen een 'goedkope' manier is om de beeldkwaliteit in games te vergroten zonder daarbij veel aan prestaties in te leveren, tenminste, als je genoeg vram hebt. Is dat niet het geval, dan merk je dat snel genoeg.

Dit artikel kun je gratis lezen zonder adblocker

Alle content op Tweakers is gratis voor iedereen toegankelijk. Het enige dat we van je vragen is dat je de advertenties niet blokkeert, zodat we de inkomsten hebben om in Tweakers te blijven investeren. Je hoeft hierbij niet bang te zijn dat je privacy of veiligheid in het geding komt, want ons advertentiesysteem werkt volledig zonder thirdpartytracking.

Bekijk onze uitleg hoe je voor Tweakers een uitzondering kunt maken in je adblocker.

Ben je abonnee? Log dan in.

Reacties (250)

250
250
106
6
0
128
Wijzig sortering
Goede test Tweakers! Dit onderbouwt het onderbuikgevoel dat velen al hadden waarschijnlijk.

Misschien deze test nog een keer uitbreiden met wat Unreal 5 games? Maar ik ben hier al heel blij mee! Chapeau!
Idd de Unreal 5 Enige laat toe om gigantische textures in te laden zonder fps drops, zelfs op relatief trage gpu’s. Althans met genoeg vram. Die generatie games gaan waarschijnlijk nog meer vram gebruiken dan we gewoon zijn.

Dat we na 2023 nood gaan hebben aan Vram staat in de sterren geschreven. Ook hardware unboxed laat het weten in een Tweet.

GPUmag zegt het volgende:
Be aware that VRAM usage is quickly trending upward and newer games might be very VRAM-dependent.
Hardware Unboxed youtube channel maakt eigenlijk brandhout van de RTX 3070 8Gb ram. "Frame stutters all over the place". Als je Raytracing aanzet is 8Gb al helemaal de bottleneck van uw GPU cores.

Techspot zegt het volgende:
Powerful graphics cards with 8 GB are probably going to feel the pinch, where the VRAM amount limits what the GPU can ultimately cope with, in the next couple of seasons of game releases. There are exceptions today, but we're a little way off from it becoming the norm.
Iedereen lijk het er over eens:
However, many gamers still believe that 8GBs of VRAM GPUs are enough to handle modern gaming titles, but that's not the case. In conclusion, while 8GBs of VRAM GPUs can get simple gaming and productivity workloads done in a pinch, they aren't good enough in terms of longevity.
(Sabrepc)

Ik blijf het dus frappant vinden dat er nog mensen zijn die claimen dat 8Gb ruim voldoende is in 2023. Hun argument is ‘zet de settings dan wat lager’ tja…

Edit: Ik bedoel wel degelijk 'voldoende' als nieuwe kaart. Als je een 8Gb kaart hebt dat heb ja natuurlijk geen keuze en moet je zeker geen nieuwe kopen. De conclusie van het artikel is dan ook: "8GB videogeheugen: op het randje'

[Reactie gewijzigd door Coolstart op 23 mei 2023 10:35]

mensen zijn die claimen dat 8Gb ruim voldoende is in 2023. Hun argument is ‘zet de settings dan wat lager’ tja…
Sowieso laat de test zien dat dit op 1080p nog zeker het geval is, en in genoeg gevallen ook voor 1440p. Maar omdat jij 8gb uitermate ondergeschikt vindt, zal ik direct even een nieuwe GPU bestellen.

Zeker na de krapte de afgelopen jaren, waar je blij moest zijn als je überhaupt een GPU kon krijgen, smijt ik er met liefde nog eens 600 euro tegenaan!

Uiteindelijk kunnen we ook gewoon realistisch zijn, in extreem veel gevallen, merk je bij een normale speelsessie niet echt veel van het verschil in textures. Zeker niet als je van Ultra naar High gaat, wat veel flink kan schelen. En dan nog heb je met een 3070ti een vele malen beter systeem dan een PS5, dus zijn we nu terug bij af met digitale piemeltjes meten of?..
Check gewoon de Hardware Unboxed youtube channel video. Daar breken ze 8gb helemaal af.

Raad gewoon geen mensen aan een 8Gb kaart te kopen in 2023. Alle bewijs is er, waarom nog zo hevig in het verweer gaan? Zelfs de RX 6800 16Gb is met raytracing sneller dan de RTX 3070 8Gb puur omdat er meer ram in zit. Maar ook over heel de lijn levert de RX 6800 een betere beleving. Minder stutters, lagere frame times etc.

Het gaat er niet over dat een 3070ti beter is dan een PS5, het gaat er over hoeveel plezier je uit een nieuw aangekochte kaart kan halen, nu en in de toekomst.
Raad gewoon geen mensen aan een 8Gb kaart te kopen in 2023. Alle bewijs is er, waarom nog zo hevig in het verweer gaan?
Hebben we het over een Youtube film van Hardware unboxed of hebben we het hier over een redactioneel op Tweakers? Het Tweakers artikel wat we nu becommentarieren ondersteunt niet sterk de conclusie dat 8gb not done is. Als dat niet klopty gebruikt Tweakers blijkbaar de verkeerde tests.
Beide tonen aan dat 8Gb geen goed idee is. 6Gb is problematisch en 4Gb onspeelbaar. zeker op 1440p is het over and out. Dan weet je dat 8Gb de eerste volgende is om in die fps afgrond te vallen als je uw Textures op ultra zet bij nieuwe games.

Het is dan toch heel duidelijk dat je met 8Gb op het randje zit? Sommige games gebruiken nu al 10Gb+. Dat staat daar letterlijk zwart-opwit in dit artikel ;-) Er staan zelf mooie curves bij.

Je gaat altijd games hebben die goed draaien op 6Gb, het gaat er om dat er meer en meer games gaan komen waarbij 8Gb de GPU trager maakt en die zijn er al.

Dat staat ook in de conclusie van het artikel:
Vandaag de dag een nieuwe videokaart met 8GB kopen zit dus eigenlijk al op het randje en als de ontwikkeling van geheugengebruik in nieuwe games op dezelfde manier doorzet als het de afgelopen jaren heeft gedaan, zul je steeds vaker de texture quality moeten terugschroeven om de nieuwe games vloeiend te kunnen spelen. Op 2160p is hetzelfde van toepassing en vertoonden de 10GB-kaarten ook wat van deze verschijnselen. Op die resolutie heb je momenteel dus liever 12GB of meer.

Duidelijk is in ieder geval dat de texture quality verhogen een 'goedkope' manier is om de beeldkwaliteit in games te vergroten zonder daarbij veel aan prestaties in te leveren, tenminste, als je genoeg vram hebt. Is dat niet het geval, dan merk je dat snel genoeg.
Maar goed, als jij denkt dat het in 2023 een goed idee is om €500+ te spenderen aan GPU met 8gb ram dan is dat uw zaak. Maar probeer aub geen mensen te overtuigen dat 8GB best practice is want dat is gewoon niet waar.

[Reactie gewijzigd door Coolstart op 23 mei 2023 11:40]

Beide tonen aan dat 8Gb geen goed idee is. 6Gb is problematisch en 4Gb onspeelbaar. zeker op 1440p is het over and out. Dan weet je dat 8Gb de eerste volgende is om in die fps afgrond te vallen als je uw Textures op ultra zet bij nieuwe games.
We hebben het bij 6gb over 4-5% (in de gekozen testsuite). Een sprong van 8gb is met de huidige prijzen 25-33% (daar kunnen we wat van vinden).

in een review over data is een compleet arbitrair "op het randje" niet sterk, zeker als de voorganger een paar procent achterloopt en de 8gb niet geraakt word.
Maar goed, als jij denkt dat het in 2023 een goed idee is om €500+ te spenderen aan GPU met 8gb ram dan is dat uw zaak. Maar probeer aub geen mensen te overtuigen dat 8GB best practice is want dat is gewoon niet waar.
Als je goed leest zie je dan ook dat ik dat nergens doe. Ik herhaal, ik heb een probleem met de data en de conclusie. De conclusie is niet gebaseerd op de data. Dat komt ongetwijfeld omdat de reviewer ook wel door heeft dat zijn data set de lading niet dekt, maar zoals ik elders al zei, als een student dit inlevert krijgt hij hem terug met "doe nog maar een keer".
Raad gewoon geen mensen aan een 8Gb kaart te kopen in 2023.
Niemand die dat hier doet.
Het gaat er niet over dat een 3070ti beter is dan een PS5, het gaat er over hoeveel plezier je uit een nieuw aangekochte kaart kan halen, nu en in de toekomst.
Ook dat beweert niemand, maar dat laatste klopt inderdaad en voor mensen die al GPU's hebben of die vanwege hun budget niet boven de 8GB uit kunnen komen kunnen extreem veel plezier halen uit hun kaarten, en wanneer deze tegen het randje loopt kan je dat plezier weer vergroten of makkelijker maken door simpelweg je instellingen wat aan te passen. Dat je dat probeert te ontkennen, of mensen die niet meer dan 8GB kunnen krijgen op wat voor manier dan ook, blijkbaar wilt zeggen maar geen GPU te kopen... Snap ik niet :)
Het is dan toch heel duidelijk dat je met 8Gb op het randje zit? Sommige games gebruiken nu al 10Gb+. Dat staat daar letterlijk zwart-opwit in dit artikel ;-) Er staan zelf mooie curves bij.
Wederom niemand die dit ontkent.
Maar probeer aub geen mensen te overtuigen dat 8GB best practice is want dat is gewoon niet waar.
Niemand die dat doet..

Je mag best hard praten, maar je legt anderen woorden in de mond en negeert simpelweg wat er gezegd wordt puur om je gelijk te halen op je eigen mening dat ALLES OP ULTRA MOET DRAAIEN EN 8GB KOPEN DE ALLERDOMSTE ZAAK VAN DE WERELD IS TEN EEUWIGHEID.

Sorry, ik leg je woorden in de mond, moet ik niet doen.
Juist!


""ALLES OP ULTRA MOET DRAAIEN EN 8GB KOPEN DE ALLERDOMSTE ZAAK VAN DE WERELD IS TEN EEUWIGHEID.""

Kun je meer Vram veroorloven dan is dit geen domme zet. Zeker op 1080p of 1440p gaat de hoeveelheid Vram boven de brute rekenkracht van je videokaart,
Het hebben van zo'n 8GB kaart is wat minder leuk nieuws vandaag de dag, maar idd niet meteen een reden om te gaan jagen op een 16GB model.

Maar ben je het er wel mee eens dat een 8GB videokaart kopen in 2023 een slechte keuze is? Want volgens mij is dat vooral de gedachten die rond moet gaan nu.
Maar ben je het er wel mee eens dat een 8GB videokaart kopen in 2023 een slechte keuze is?
Dat ligt volledig aan de use-case en het bijbehorende budget. Als het budget toereikend is en de optie is er om meer dan 8GB te kopen, dan uiteraard doen. Als je een kleine PC hebt, bijvoorbeeld als vrachtwagenchauffeur en weet dat je toch de komende jaren op 1080p blijft spelen, en het scheelt je dan ook nog eens 200 euro, dan kan ik me voorstellen dat je wel voor een 8GB kaart gaat.
De use-case zal toch voor t gros zijn dat men de recente titels wilt spelen op 1440p (zeker ook 1080p), het liefst voor een paar jaar.

Als je in de markt bent voor een new-gen GPU van 450 EUR moet dat toch gewoon haalbaar zijn. Feit is nu dat je met een 1,5 jaar oudere kaart van AMD voor minder dan 500 EUR gelijke prestaties koopt met een beter zicht op de toekomst. Vooral door het slechte toekomstperspectief van zo'n new-gen 8GB kaart, ongeacht de use-case, is dit een vrij treurige gedachte.
De use-case zal toch voor t gros zijn dat men de recente titels wilt spelen op 1440p (zeker ook 1080p), het liefst voor een paar jaar.
Volgens de Steam Survey van April 2023 is de meest gebruikte resolutie met 64.52% toch echt nog steeds 1080p. De volgende is 1440p met 12.49%, welke met 8.23% is gezakt terwijl 1080p juist is gegroeid. Dat geeft toch echt aan dat het gros niet een GPU zal kopen voor 1440p, zeker niet wanneer ze 8GB overwegen.

Daarnaast probeer je nu mijn mening, waar je zelf om vroeg, met een specifiek scenario onderuit te halen. Ik gaf antwoord op je vraag, ik zie niet in waarom je nu moet proberen daar iets anders van te maken.
In algemene zin koopt men geen GPU voor 1440p, prima. Maar een kaart als deze van deze gen mag je meer van verwachten vind ik. Zeker gezien wat er in consoles gebruikt wordt voor 4k.

Verder probeer ik helemaal niks onderuit te halen. Je reageert nogal verhit, in bijna al je reactie van dit topic. Jammer.
3080 met 10 gig redelijk voldoende dan op1440p?
Het hangt toch echt ook sterk van je wensen en eisen af. Mijn zoon wilde gamen weer oppakken en die zegt gewoon ik wil deze twee gaan spelen wat heb ik daar voor nodig? Het moest een laptop zijn en het bleek dat een RTX 3060 met zelfs maar 6 GB prima voldeed. Dus dan is de keuze nu meer dan twee keer zoveel uit geven om toekomstbestendig te zijn of gewoon kopen wat je nu nodig hebt. Zijn reactie: zo min mogelijk uitgeven en als ik over twee of drie jaar wat anders wil zie ik dan dan wel weer. Ik denk dat hij gelijk heeft en hij zal zeker niet de enige zijn die er zo instaat.
Tip: je kan ook gamen op low, medium en high ipv op ultra. Of enkel de texture resolutie verlagen. Even veel plezier gegarandeerd.
tip? De vraag was of 8 Gb ram zin heeft in een next-gen kaart. Je kan idd altijd uw textures wat minder zetten maar het is gewoon zonde €500 te besteden aan een kaart waarvan je weet dat de kans groot is dat die 8Gb gaat overlopen en je al moet terugschroeven op 1080P.

Ik zou eerder een kaart met 12Gb of 16Gb kiezen. Zoals AMD er in zijn line-up heeft aan dat prijspunt.
Ik zou nu ook niet voor een 8 GB kiezen, omdat ik veel belang hecht aan graphics, maar dat geldt niet voor iedereen. Daarnaast blijkt in verschillende games dat het verschil tussen medium en ultra niet zó groot is, dat zie je ook in vegelijkingen tussen screenshots. Het zijn net die laatste extra details/textures/effecten die exponentieel veel rekenkracht vergen.

Nog een tip - en wat ik soms ook doe: koop je games enkele jaren later, dan heb je ze aan een lagere prijs, kan je ze spelen op een goedkopere pc, zijn de meeste bugs er uitgehaald, zijn de games en drivers geoptimaliseerd, zijn er veel walkthroughs/trainers/addons/... beschikbaar.
Ik zou mensen niet eens gaan overtuigen om nog een game pc te kopen. Welke dan ook. Voor 450 euro koop je een console waar je nog jaren mee vooruit kan. Zelfs met een game pc met 16gb vram (4080) weet je dat niet helemaal zeker. En daar betaal je dan ruim 3000 euro voor (alleen de kast). Ja misschien net wat meer textures en fps. Maar ook dat is nog maar de vraag want er zijn genoeg pc games slecht geoptimaliseerd. Hoe dan ook is een game pc kopen tegenwoordig qua kosten baten iets wat ik niet snel zou aanbevelen.
Not done, is ook wat anders dan niet aan te raden. Mensen kopen geen nieuwe GPU om maar 1 jaar te gebruiken. De games van nu kunnen het amper aan met 8GB op een 1440p resolutie. Nieuwere games wordt dus helemaal lastig.
Wat een hyerpbool. De games die jij wil spelen trekken ultra niet op 1440p en 8GB.

Er zijn zat moderne games die fluitend draaien op 8gb en 1440p. Sterker nog de data van dit artikel zegt juist dat het allemaal reuze meevalt, dus ik stel voor dat je een brandbrief schrijft aan de schrijver van dit artikel :+
Misschien moet je opzoeken wat hyperbool betekend.

Daarnaast vraag ik mij af of je de conclusie uberhaupt hebt gelezen:
Is een nieuwe videokaart met 8GB aan videogeheugen wel zo'n goed idee als je hier nog een paar jaar mee vooruit wilt kunnen?

Het korte en wellicht enigszins teleurstellende antwoord is dat dit erg afhangt van de games die je speelt.

De 8GB-kaarten voldoen op 1080p en 1440p in de tests van dit artikel nog, maar op deze modellen wordt al regelmatig meer gedeeld vram ingeschakeld dan we bij de kaarten met meer vram hebben gezien. Vandaag de dag een nieuwe videokaart met 8GB kopen zit dus eigenlijk al op het randje en als de ontwikkeling van geheugengebruik in nieuwe games op dezelfde manier doorzet als het de afgelopen jaren heeft gedaan, zul je steeds vaker de texture quality moeten terugschroeven om de nieuwe games vloeiend te kunnen spelen.
[...]
Sowieso laat de test zien dat dit op 1080p nog zeker het geval is, en in genoeg gevallen ook voor 1440p. Maar omdat jij 8gb uitermate ondergeschikt vindt, zal ik direct even een nieuwe GPU bestellen.
Wat mij betreft gaat het er meer om dat je morgen geen 8 GB 4060 Ti zou moeten gaan kopen voor €439. En als je nog een 4060 of 7600 gaat kopen, moet je beseffen dat deze kaarten vermoedelijk al heel snel geen nieuwe AAA spellen meer kunnen draaien. Voor een deel is dat al het geval.

Als je nog een redelijke kaart hebt met maar 8 GB, zoals een 3070, zou ik vanwege de prijzen een upgrade proberen uit te stellen naar de volgende generatie, al kan dit alsnog betekenen dat je bepaalde spellen beter nog niet kunt gaan spelen.
[...]
moet je beseffen dat deze kaarten vermoedelijk al heel snel geen nieuwe AAA spellen meer kunnen draaien. Voor een deel is dat al het geval.
En dit is waar je de fout in gaat. Het is onzin om te stellen dat een 4060 geen AAA-games kan draaien, als er tientallen instellingen zijn die je kunt aanpassen. Vaak zijn PC games op low-mid settings voor het oog hetzelfde zo niet beter dan de consoles van dezelfde generatie.

Als je bedoelt te zeggen dat je niet alles meer op de maximale instellingen kunt draaien, yeh sure, je hebt gelijk. Betekent een game spelen dat alles op 100% moet draaien? Absoluut niet.

Kun je beter meer VRAM aanschaffen als dit hetzelfde kost of als je budget toereikender is en de kaarten op alle andere vlakken identiek zijn? Uiteraard.

[Reactie gewijzigd door Gubbel op 23 mei 2023 09:42]

Ik begrijp de gedachte van @Ludewig wel. Je koopt een nieuwe videokaart, zij het een mid-range model, voor een paar honderd euro, met de verwachting dat het gemakkelijk (60 fps+) de huidige en toekomstige games kan draaien. Helaas geldt dat niet voor de 8GB VRAM. Neem bijvoorbeeld de 1080ti, die met moeite Jedi Survivor op 1080p 60fps kan halen.
met de verwachting dat het gemakkelijk (60 fps+) de huidige en toekomstige games kan draaien. Helaas geldt dat niet voor de 8GB VRAM.
En dat is dus gewoon niet waar, de data toont dat helemaal niet. Op 1080p is er totaal geen probleem, waar bijv een 4060ti het beste tot zijn recht zal komen

Op 1440p toont deze test uit, dat je misschien, in sommige gevallen de textures een niveautje lager moet zeggen, iets wat totaal geen probleem is.

Ik verwacht van een mid-range kaart van een paar honderd euro sowieso niet dat ik elke nieuwe AAA game op maximale settings kan spelen, zeker niet op 1440p of 4k resoluties.

Dit zie je ook met de benchmarking in games die hun eigen instellingen kiezen op basis van je hardware. De keuzes die de games dan maken zijn vaak niet de meest optimale, of niet wat je eigen voorkeur zou hebben (bijv. wel geen DLSS in ruil voor iets anders), maar komen wel erg in de buurt van "Dit is wat je ongeveer kunt instellen voor een goede ervaring" en dat is op zulke kaarten nooit het maximale.
Hier draait nog steeds een GTX 660 met 2Gb Ram op 1440p :)

Al wordt het nu wel tijd om te kijken om deze te vervangen.
Ik wacht nog wel een weekje op de release van de RX7600 om te vergelijken welke het gaat worden.
Dan kun je ook gewoon naar de tweedehands markt kijken. Je kunt vast rond de 100 euro een 1660 Super scoren die 3x zo snel is en 3 keer zoveel geheugen heeft. Aangezien je eisen blijkbaar nogal laag zijn, kun je dan nog even vooruit (ik draai zelf een 1660 Super op 1440p en dat gaat voor alles behalve de recente veeleisende spellen heel goed).
heb nog een 2070 met 8gb vram, en game op 1440p, speel meeste op high rond 80-120fps (limit tot 120 want waarom niet) ga pas kijken voor een upgrade als dit OF goedkoper wordt, of ik er niet meer aan kan trekken met deze kaart.
De test suggereert zelfs dat het in 1440p gewoon genoeg is. De conclusie en de test data rijmen eigenlijk niet.

Het had aanzienlijk interessanter geweest als er voorbeelden waren gebruikt waarbij VRAM wel een bottleneck is en dan het liefst met screenshots/filmpjes over hoe groot de impact is op de framerate/eyecandy.
Het had aanzienlijk interessanter geweest als er voorbeelden waren gebruikt waarbij VRAM wel een bottleneck is en dan het liefst met screenshots/filmpjes over hoe groot de impact is op de framerate/eyecandy.
Inderdaad, de 'gehele impact' van de hoeveelheid VRAM is onmogelijk af te leiden uit alleen grafieken. Sommige games zien er niet meer uit (textures op laagst of weg) terwijl de gemiddelde fps redelijk overeind blijft, dat effect moet je zien om er conclusies uit te kunnen trekken.
Punt is natuurlijk dat nieuwe spellen alleen maar meer gaan gebruiken waarschijnlijk (zeker als je kijkt hoe schandalig slecht veel spellen geoptimaliseerd worden), en als je dus een nieuwe kaart koopt voor de toekomst op 1440p, 8GB wel een randgeval is. Uiteraard hangt het wel af van het prijssegment, koop jij een kaart van €250 voor je Rocket League op 1440p, nee dan is 8GB helemaal prima.
Eens, maar als je dan ziet dat op dit moment 6gb 4-5% verliest en je kijkt naar een (los van het morel oordeel) prijzenstap van 25% van 8gb naar 16gb is dus de vraag hoe groot aan het einde van de rit je verliest met 8gb. Als dat over 4 jaar 4-5% is dan zit je toch wel redelijk in de buurt van de economische levensduur (kunnen we ook wat van vinden, terecht).

Hoe ik het ook bekijk, het artikel ondersteunt de conclusie niet sterk, ook al deel ik de mening wel (onderbuik).
Punt is natuurlijk dat nieuwe spellen alleen maar meer gaan gebruiken waarschijnlijk
Dat is geen gegeven, wie zegt dat dit niet is wat we de komende jaren qua games kunnen verwachten? Waarom zouden de textures nog groter moeten als 8K gaming geen ding gaat worden.

Wat als ontwikkelaars eindelijk weer de focus leggen op het optimaliseren van hun games in plaats van blind vertrouwen op AI?

Wat als er een nieuw format ontwikkelt wordt waarmee textures beter gecomprimeerd kunnen worden?
JPEG stampt uit 1992, WebP pas uit 2010 en het heeft lang geduurd voordat mensen hier überhaupt mee aan de slag gingen. Een soortgelijk iets zou prima in nieuwere engines kunnen gebeuren.
Vooral als een GPU 250+ euro is. Dan hoop je toch wel dat je met redelijke hoge grafische settings je games kan draaien. Dat is al een boel geld.
Het ligt er maar net aan door welke bril je het artikel leest. Ik lees het namelijk als: Mooi, met mijn RTX 2070 Super 8GB op 1440p kan ik dus voorlopig nog prima vooruit voor de content die ik speel (nooit het nieuwste). Al dan inderdaad op standje high i.p.v. ultra.

Ik adviseer mensen vooral altijd om de videokaart te selecteren op basis van de content die ze willen doen i.c.m. budget. En af te stemmen op hoe lang men de kaart verwacht te gebruiken. Het basis advies met een gebruik van 3 jaar adviseer ik meestal:
1080p: 6-8GB vram, budget optie. Verwacht niet dat je altijd ultra settings kan doen, maar je zal 95% van de games prima kunnen spelen op mid/high.
1440p: 8GB voldoet prima voor de meeste content. Zeker als je zelden de meest recente games speelt en medium budget hebt.
1440p met leuk budget: 10gb+
2160p: instap 10gb+, high-end 12gb+; In beide gevallen toch al een fors budget voor nodig.

Is men van plan een kaart 5 jaar of langer te gebruiken, tel er dan overal in ieder geval 2GB bovenop om toekomstbestendig te zijn. Met het advies dat ze wellicht na enkele jaren de settings met nieuwe content naar medium/high moeten schroeven i.p.v. ultra.

En tegenwoordig adviseer ik toch ook steeds vaker om ook de TDP mee te nemen in de overweging.
Ondertussen is er een patch gekomen voor The Last of Us Part 1. Deze heeft een aantal zaken veranderd. Zo zien de medium textures er nu een stuk beter uit. Maar daarnaast gaat er bij elke texture setting circa 1.5 GB af waardoor high textures nu binnen 8 GB vram vallen. Bovendien is er een texture streaming optie in het spel gekomen waarbij een lagere setting het benodigde vram verlaagd (met als resultaat kans op popup).

Waardoor digitalfoundry met de volde tekst kwam:
We shouldn't blindly assert certain VRAM sizes are obsolete when there are clear performance and optimization problems with these poor PC ports.

Waarmee ze dus aangeven dat het hele 8 GB 'obsolete' verhaal voorlopig nog te voorbarig is. Natuurlijk kun je met meer VRAM steeds mooiere textures verwachten. Echter we zijn nog niet op het punt gekomen dat 8 GB VRAM betekent dat je naar wazige medium textures moet gaan kijken. Dat was echt een fout in de game.
Dank voor de mooie test!!
Wat de meeste onder ons al vermoede na experimenteren instellingen is nu in de test echt duidelijk geworden 8gb is voor nu nog ok maar niet toekomst proof.
8GB of minder is de norm. Iedere ontwikkelaar die ook maar een drol om optimalisatie geeft zal de komende jaren moeten zorgen dat hun games uitstekend draaien op 8GB.

Als een game niet goed werkt op populaire hardware, dan ligt dat aan de game. Het hele "is 8GB nog wel genoeg" verhaal probeert een softwareprobleem af te schuiven op de hardware. Maar meer hardware is niet het antwoord, ontwikkelaars zouden het gewoon beter moeten doen met de hardware die we hebben.

[Reactie gewijzigd door Wolfos op 23 mei 2023 11:51]

De norm is continue in beweging en staat niet vast.
De vraag is niet of games gaan draaien op 8gb. Elke game die op pc uit gaat komen zal draaien op 8gb videokaarten, de vraag is alleen wat er dan van de pracht en praal overblijft.

Stel: je maakt een next gen game die op 1080p low 4gb nodig heeft en 8gb voor 1080p medium. De meeste gamers zullen daar weinig last van hebben:
Met een 2060 of 1060 moeten gamen in 1080p low is helemaal niet zo erg. Ik denk dat 2070 of 4060 kopers ook prima tevreden zijn met 1080p medium, dus dan blijven er alleen de 2080 (s), 3060 ti, 3070 (ti) en 4060 ti 8gb over die gaan zeuren.

En ik denk niet dat devs hun hele game aan gaan passen zodat deze kaarten op 1440p medium of 1080p high werken. Deze kaarten zijn populair, maar zo veel zijn er nou ook weer niet. Volgens steam hardware survey is dit groepje bij elkaar zo'n 8,5% van gamers. Hoeveel FTE's zou jij stoppen in 8.5% van de markt? Ook als ze je game nog steeds kunnen kopen en spelen, maar alleen niet op High of Ultra?
hangt echt af van de kaart een 4060 gaat games toch niet 60fps 4k ultra kunnen spelen dus redelijk zinloos daar naar 16gb te gaan.
ik snap niet helemaal dat iedereen hier vind dat uit deze test naar voren komt dat 8gb op het randje zit. De data suggereert dat tot en met 1440p het nauwelijks uitmaakt. Als je dan ziet dat 1080p de mainstream resolutie is dan is de conclusie toch wel een beetje dubieus.

Ik snap dat mensen nu gaan roepen: TOEKOMST! Maar als je het veld overziet duurt het nog wel een jaar of 5 voordat we massaal 1440p gamen en als je dan ziet dat de impact meevalt is het de vraag of iedereen die dure 12gb nodig heeft. En dan zit je op dat tijdspad ook nog met een "oud systeem".

We praten onszelf het nu wel een klein beetje aan/we doen alsof high end resoluties de norm zijn.

[Reactie gewijzigd door roffeltjes op 23 mei 2023 08:19]

Ja ik ben het met je eens, mensen lezen volgens mij wat ze willen lezen. Uit de laatste steam survey kwam volgens mij naar voren dat 65% van de mensen gewoon nog op 1080p speelt. De populairste video kaarten zijn al jaren mid range kaarten waar je echt geen games meer mee op high kan draaien.

De 4060 en 7600 zijn prima kaarten voor wat ze doen. Had het wat meer Vram mogen zijn, sure. Maar voor mensen met een 1080 monitor die vooral wat meer casual gamen zijn het gewoon prima kaartjes waar je ook over 5 jaar echt nog wel op lagere settings mee kan gamen.
De Steam gegevens zijn echter wel wereldwijd en omvatten dus ook landen waar men gemiddeld een stuk armer is. Daarnaast zijn er ook aardig wat laptop-gamers die ongetwijfeld op relatief lage resoluties draaien, maar die uiteraard geen discrete grafische kaarten gaan kopen.
Als we kijken naar de top 10 meest populaire videokaarten in de Steam hardware survey, dan zien we toch een behoorlijk duidelijk beeld naar voren komen:
  • NVIDIA GeForce GTX 1650
  • NVIDIA GeForce GTX 1060
  • NVIDIA GeForce RTX 3060
  • NVIDIA GeForce RTX 3060 Laptop GPU
  • NVIDIA GeForce RTX 2060
  • NVIDIA GeForce GTX 1050 Ti
  • NVIDIA GeForce RTX 3060 Ti
  • NVIDIA GeForce RTX 3070
  • NVIDIA GeForce RTX 3050
  • NVIDIA GeForce GTX 1660 SUPER
Als ik deze lijst zo bekijk, krijg ik nou niet bepaald het idee dat het allemaal hardware is uit minder welvarende landen. Dan zou ik echt veel oudere kaarten verwachten, ken een paar mensen uit Rusland die nog een GTX 770 gebruiken bijvoorbeeld. Ik denk toch echt dat het overgrote deel van gamers gewoon een midrange kaart gebruikt omdat deze hartstikke prima zijn voor de gemiddelde gamer.
De steam data is geen survey van wat gebruikers graag zouden willen hebben of over tevredenheid of ontevredenheid van wat men nu heeft, maar van men nu draait. Niets meer en niets minder. Dat veel mensen 1080p draaien is niet zonder meer een bevestiging dat men dat genoeg vind voor de komende jaren.

[Reactie gewijzigd door PjotterP op 24 mei 2023 12:21]

Én mensen die die laptop voor remote play gebruiken, zo heb ik Steam op een Thinkpad uit 2008 staan(gewoon om te proberen) en nog wat iets minder oud spul. En natuurlijk mensen die Steam installeren op een low end systeem om allerlei andere redenen(al is het maar om te chatten, of een dedicated servertje te draaien).

Het systeem wat ik 95% van de tijd gebruik heeft echter een 3090(die ik op 4k en 5120x1440 gebruik), dus als al mijn systemen een survey zouden doen zou het ook lijken alsof het gros max op 1080p kon draaien. Ik doe overigens niet aan survey's, dus mijn systemen zal je er niet in terug vinden.

Lang verhaal kort, dat er veel low end systemen voorkomen in de survey zegt absoluut niet dat dat mensen zijn die ook maar de behoefte hebben de zwaardere spellen te spelen of überhaupt op dat systeem gamen(al is het maar omdat er ook zoiets als remote play). Vind het dan ook best jammer dat de Steam survey er altijd aan zijn haren bij gesleept wordt. Én aangezien de survey (gelukkig) niet verplicht is, is het sowieso een vertekend beeld. Ik weet vrij zeker dat uit mijn vriendengroep (bijna allemaal 30xx kaarten) niemand meedoet aan de survey. Het gaat ze wat mij betreft helemaal niks aan namelijk.

[Reactie gewijzigd door MN-Power op 23 mei 2023 12:37]

Steam gegevens zijn een overzicht van wat men HEEFT, niet per se van wat men WIL
Het gaat mij vooral over de conclusie en de data van dit artikel. Ik geloof best dat er wel issues zijn, maar nogmaals, de data die nu is getoond suggereert juist dat het meevalt.
Het is eigenlijk ook een gevalletje van loop je eigen schoenen niet voorbij.

Max settings, hoge resolutie en textures willen hebben maar budget aankoop doen.

Heel die heisa ligt voor mij ook in relatie met fsr en dlss.. truukjes om iets meer te hebben voor minder. Maar inboeten doe je toch. Mijn voorkeur is nog steeds native draaien. Ja dat kost wat meer, mijn 6800xt 16gb ram aankopen van 2021 zijn duidelijk vandaag nog een goede keuze geweest.

Wat nu een instap of midrange is, zal ook eeuwig een discussie blijven...

[Reactie gewijzigd door d3x op 24 mei 2023 07:22]

Ja, ik vind de discussie rondom DLSS en FSR wel interessant, want ik merk dat veel tweakers en ook veel review sites en kanalen deze opties vaak niet mee rekenen in de beoordeling van een kaart. Maar het zijn wel gewoon features, en steeds meer games ondersteunen ze ook, dus waarom zou je ze niet mee nemen?

De 4060ti zonder DLSS3 is nauwelijks een upgrade te noemen over de 3060ti, maar zodra je DLSS3 in de vergelijking mee neemt scheelt het wel enorm veel. Alhoewel het bij deze kaart wel lijkt alsof Nvidia het vooral als besparingstrucje heeft gebruikt. Lekker besparen op hardware matige upgrades(vooral die bus breedte...) maar dan in alle uitingen vooral richten op hoe goed de kaart is dankzij DLSS3.0
1080p is mainstream omdat mensen oude GPU's hebben. Voor de meeste games in 1080p is een nieuwe GPU compleet overkill en schiet dit het doel voorbij.

Alle mid range is 1440p tegenwoordig en dat is ook waar de 4060ti gedraait moet worden als je de cuda core snelheden ziet (of 4K). We zien dat huidige games al het Vram limiet bereiken dus de komende jaren wordt dit alleen maar erger. Je wil graag ook wat buffer ruimte hebben zodat je de GPU niet direct moet vervangen. Of sta je te springen om over 2 jaar weer een nieuwe GPU te halen?
1080p is mainstream omdat mensen oude GPU's hebben. Voor de meeste games in 1080p is een nieuwe GPU compleet overkill en schiet dit het doel voorbij.
Of hebben ze gewoon een 24" scherm met 1080p? Dat lijkt me eerlijk gezegd veel waarschijnlijker.
Alle mid range is 1440p tegenwoordig en dat is ook waar de 4060ti gedraait moet worden als je de cuda core snelheden ziet (of 4K). We zien dat huidige games al het Vram limiet bereiken dus de komende jaren wordt dit alleen maar erger. Je wil graag ook wat buffer ruimte hebben zodat je de GPU niet direct moet vervangen. Of sta je te springen om over 2 jaar weer een nieuwe GPU te halen?
Het probleem met dit artikel is dat dat niet onderbouwd wordt met de data. 8gb draait 1440p blijkbaar prima en zelfs 6gb verliest maar enkele procenten. Gaan we nu iedereen aanraden om dure grafische kaarten te kopen omdat ze mogelijk een nieuw scherm nemen en dat ze dan 5% kunnen verliezen (of minder, zie de data).

Ik wil best geloven dat dit een reeel issue is, maar dit artikel suggereert eerlijk gezegd vooral dat het reuze meevalt.
Het is erg afhankelijk van naar welke spellen je kijkt. In de spellen die getest zijn voor dit artikel is 8gb vram (meer dan) voldoende. Hardware Unboxed heeft b.v. naar andere spellen gekeken in hun tests. Zij vergelijken een 3070 met een A4000 , wat in feite een iets langzamere 3070 (ti) chip met 16gb vram is (om een appels/peren vergelijking met b.v. een RX6800 tegen te gaan, want die video hebben ze ook).
Daaruit blijkt dat in sommige gevallen, bij 1080p ultra settings, de langzamere A4000 met meer vram de spellen simpelweg aan kan, terwijl de "snellere" 3070 (door het hebben van 8gb vram) dat niet kan.

[Reactie gewijzigd door Lockon op 23 mei 2023 10:10]

1080p ultra settings
Dat is dus het cruciale element. Het algemeen stellen dat je alles op 'ultra settings' draait.
Ja; als je texture quality op 'ultra' zet - dan krijg je textures die dus voor 1440p of 4K bedoeld zijn, en voor 1080p niet nodig zijn.
Dat is dan dus een scheve test, heh?

En ja; soms heb je die keuze niet en betreft het een bagger console port zonder granulaire instellingen waar je alleen globaal voor 'low; medium; high; ultra' op een algemene 'graphics quality' instelling, waar de developer niet naar de hoeveelheid beschikbaar VRAM of de output resolutie kijkt en er alsnog vrolijk gewoon textures voor 4K inbatst.

En daar zou je eerder de port op af moeten branden dan de mensen die enkel een 8GB kaart hebben. Want dan heb je gewoon te maken met een slechte port.

[Reactie gewijzigd door R4gnax op 23 mei 2023 10:45]

Ik heb 1080p ultra genoemd omdat daar de problemen in die spellen met een 3070-klasse kaart met 8gb vram buitensporig aanwezig zijn. Echter, bij 1080p high kom je bij b.v. TLoU ook al flinke framestutters tegen. Bij Hogwarts Legacy kom je ze al bij de medium preset tegen, al helemaal als je RT aan zet, zelfs met DLSS, wat je wellicht geneigd bent te doen als je een "vette" 3070 gekocht hebt.
En ja, ik ben het met je eens dat het wellicht aan de brakke console port ligt in sommige gevallen.
Maar tegelijkertijd laten de tests (vooral de vergelijking met de A4000) zien dat de chip van de 3070 in principe ultra settings aan kan, maar dat vram de enige beperkende factor is.
Ik denk dat daar mensen zich aan ergeren, omdat 8gb vram kaarten al erg lang op de markt zijn, en dat men verwacht dat als je een gloednieuwe kaart koopt in de 3070-prijsklasse je ook meteen recente spellen op 1080p-ultra kunt spelen.
De discussie draait eigenlijk zoals zo vaak over "waar voor uw geld" en minder over settings. Hiervoor bestaan er uitstekende youtube video's die deze discussie in die richting sturen. Betaal je beter voor dure 16 of 12GB kaart om dan de redelijke dure games in topkwaliteit (eerlijk is eerlijk ) te spelen of ga je voor 8GB modellen die binnen redelijke termijn overklast worden. Bijkomend lukt het mij niet om één deftige review te vinden waar simulatie games worden getest . Het is voornamelijk shooters die worden vergeleken met "mooie " games en als we geluk hebben is er een RTS tussen. Shooters hebben frames nodig, dus dat kan met elke videokaart verkregen worden mits de juiste toegevingen. Mooie games tja wel daar heb je natuurlijk the high-end nodig , iedereen heeft wel de low graphic memes van Hogwart Legacy gezien. Maar RPG en sim games vragen meer en zijn complexer van aard in hun utilisatie van CPU en GPU. Ik begrijp natuurlijk dat vermoedelijk het gros van de gamers zich bezighouden met shooters en/of als eksters op het eerste blinkende spel springen (met nadien de jeukende handen om verbowereerd te zijn over iets dat alleen bling is en geen inhoud).Bon ik dwaal . Concreet als gamer moet je de vraag stellen wat speel ik , wat is mijn budget en wat wil ik.
Het is erg afhankelijk van naar welke spellen je kijkt. In de spellen die getest zijn voor dit artikel is 8gb vram (meer dan) voldoende. Hardware Unboxed heeft b.v. naar andere spellen gekeken in hun tests.
En dat is dus mijn punt. Ik denk dat de conclusie wel strookt met de realiteit... maar de data (van Tweakers) ondersteunt dat niet.
Inderdaad, vandaar ook dat ik wat data van andere tech-sites aanbied, met name voor spellen waar de vram limiet welbekend een issue is. Wat puur de data van tweakers betreft is 8gb voldoende, maar ik gok dat ze in hun conclusie wellicht dus die andere spellen in hun achterhoofd hebben.
Dan moeten ze dat wel noemen, anders gezegd, als een student dit zou inleveren krijgt hij een "Probeer het nog een keer" :+
Maar op 1080p heb je geen grotere textuters meer nodig dat is totale onzin,

Dus nu 8gb genoeg is over 10 jaar nogsteeds 8Gb genoeg, Je ziet het verschil immers niet op die resoluties als je grotere textuters toe gaat voegen,

Sterker nog als het goed is horen game designers slechtere textutures te gebruiken op oppervlakte die er niet toe doen om zo minder VRAM te gebruiken.

Enige wat effect kan hebben op meer Vram is meer objecten met andere textuters / diepere game wereld. maar daar doen de engines zoveel slimme dingen om dat juist weer terug te dringen in gebruik.
Ze gebruiken niet enkel grotere textures, ze gebruiken veel meer textures. Kijk maar hoe uitgebreid en gedetaileerd Hogwarts Legacy is, vooral in het kasteel. Engines kunnen slimme dingen doen maar vereisen alsnog Vram. Ik gebruik zelf Vram veel voor Deep Learning waar 8GB al helemaal miniem is dus vind het erg jammer dat Nvidia zo gierig met hun RAM is.

Je kan wel de devs als schuldige gaan aanwijzen maar die zitten er ook niet op te wachten om de rest van hun leven voor archaische 8GB vram te developen.

[Reactie gewijzigd door Osiummaster op 23 mei 2023 09:08]

En daar hebben we sinds de eerste spellen al quality settings voor om te matchen met jouw hardware aangezien we geen consoles gebruiken,

Dus ze kunnen rustig voor 32Gb ontwerpen zit jij de slider lager als je maar 4Gb hebt , geen enkele issue is het nooit geweest afgelopen 20 jaar waarom nu ineens wel, omdat we verwend zijn ?

Voor de mainstream is 8Gb nog wel even genoeg voor de niche markten met high performance weten we al lang dat dat niet zo is daarom hebben high end kaarten ook meer VRAM
De kaart kost 400 euro, niet 200 euro.
Voor 400 euro mag ik hopen dat een nieuwe GPU 1440P kan halen.
Zie ook de GamersNexus review: https://www.youtube.com/watch?v=Y2b0MWGwK_U
Kijk het verhaal prijs/kwaliteit is natuurlijk compleet terecht.

Maar het gaat me om dit artikel en de conclusie die niet wordt onderbouwd met de data. Er is namelijk geen titel getest met een verloop waarbij 8gb op 1440p ook maar enigszins merkbaar in de problemen kwam. Daarom snap ik niet de "zie je wel, 8gb is tekort" reacties, want dat blijkt hier absoluut niet uit.

Dus de conclusie zal best kloppen, maar dan is de data niet in orde en dat wordt niet genoemd.
Ze gebruiken niet enkel grotere textures, ze gebruiken veel meer textures. Kijk maar hoe uitgebreid en gedetaileerd Hogwarts Legacy is, vooral in het kasteel.
Hogwarts Legacy zal het toch echt met 8GB moeten doen; en meer niet.
Het spel moet nl. ook nog meekomen op de XBox Series S. Die console heeft 10 GB unified RAM waarvan maar 8 GB 'snel' is op 224 GB/s en geschikt is voor gebruik als VRAM.

De Series S - en het feit dat vziw MS nog altijd release-parity met de Series X vereist - bepaalt dus voor zeker de levensduur van de huidige generatie consoles, en wss. ook nog voor enkele jaren in de richting van de volgende generatie (in geval van dual releases op het oude en nieuwe platform) de maat van de pas.

Games zullen moeten kunnen werken op 1080p met 8 GB VRAM, want anders kan de S niet meer ondersteund worden.

[Reactie gewijzigd door R4gnax op 23 mei 2023 09:55]

Ik heb Hogwarts Legacy op een RTX3070 (8 GB) en een 6800XT (16 GB) gedraaid icm 16 GB shared ram van totaal 32 GB. Nu is het niet een 1-1 vergelijk omdat de 6800XT ~11% sneller is volgens Passmark.

Als ik kijk naar de prestaties tijdens gamen is het verschil echter veel groter dan 11%. Beide kaarten draaiden op 1080P met ondergrens van ~30 fps. Waar de 6800XT op high met ray-tracing op ultra kan draaien, kon de RTX3070 dat alleen met medium/low + ray-tracing medium. Daarbij ondervond de RTX3070 veel texture swaps wat erg opvalt. Als je stilstond wat dezelfde plant ineens korrelig en enkele momenten later weer scherper. Doordat het een doorlopend process is over de verschillende spelelementen blijft het gewoon opvallen.

Hogwarts is te spelen met 8 GB vram, maar je zal het verschil in kwaliteit duidelijk merken, zoals de conclusie van het artikel ook weergeeft.

En waarom een console met 8 GB wel uitkan en de pc niet? Ik vermoed dat de optimalisatie op de pc gewoon suboptimaal is.
Een 6800xt is gelijk aan een 3080 en dat zijn toch wel kaarten die sowieso 20-30% sneller zijn dan een 3070. Ik moet dus concluderen dat Passmark waardeloos is.
Waarom heb je op 1080p geen grotere textures nodig? Geef mij een bron om dat te onderbouwen.

Resolutie heeft over het algemeen maar een hele losse relatie met texture kwaliteit die nodig is. Op een 1080p scherm kan je prima veel profijt hebben van 4k textures; zolang het maar op de juiste modellen wordt gebruikt. Het is namelijk een combinatie van afstand van de camera van het object, hoe groot het object is, wat de resolutie van je texture is en wat de resolutie van je camera/scherm is.

Om een voorbeeld te geven, je hebt een mooie berg in de verte. Op verre afstand is een texture van 1024x1024 prima, zelfs op je 4k scherm. Kom je dichterbij dan heb je echt wel een texture nodig die vele malen meer detail heeft omdat je anders de pixels op je berg met de hand kan tellen.
Door gebruik te maken van mipmapping is dit goed mogelijk, dat zorgt ervoor dat de texture op het moment dat je op afstand staat bijvoorbeeld maar 1024x1024 is en als je dichterbij komt hij langzaam naar bijvoorbeeld 8192x8192 schaalt.
Hoe wil jij 8192 pixels weergeven horizontaal op 1/10 van je scherm (uitgaand dat je met je neus tegen het object staat) terwijl jouw scherm maar 1080 pixels heeft dus eigenlijk maar 108 op die 10% van je scherm dat het object zichtbaar is. ?
Neem even de moeite om mijn post te lezen. Bij een groot object zoals een berg gaat dat wel degelijk uitmaken. Los van dat dit een heel dom voorbeeld is.
Juist doordat je hem soms van heel ver weg ziet en soms van heel dichtbij. Als je heel dicht bij die berg staat dan zie je misschien maar 1% van die 8192x8192, dus dan ziet het er op jouw 1080p scherm nog stees blurry uit.

De reden dat ik zeg dat dit een dom voorbeeld is omdat we dit tegenwoordig anders doen in games. Ja, je zal nog textures hebben die groter zijn; maar om het detail van objecten te verhogen maken we ook gebruik van een heleboel extra kleinere textues om detail aan te brengen.
Zie ook de documentatie van bijvoorbeeld Unreal Engine:
https://docs.unrealengine...ls/HowTo/DetailTexturing/

Daarom hebben de meeste spellen ook niet de optie 1k,2k,4k,8k textures; want één dit verschilt per object en niet elk object krijgt textures van dezelfde resolutie en twee veel mensen doen de foute aanname dat als ze een 1080p scherm hebben dat ze dan maar "1k" textures nodig hebben terwijl dat over het algemeen de laagste kwaliteit is die je echt niet wilt gebruiken.
We gebruiken daarom gewoon de namen low,medium, high, ultra etc omdat dit voor mensen wel te begrijpen is. Als een spel een "4k" textures pack heeft dan is over het algemeen niets meer dan een marketing term want de textures daarin zijn echt niet allemaal 4k :P. Het is een manier om aan de speler te vertellen dat dit om een texture pack gaat dat speciaal gemaakt is voor schermen met een hoge resolutie (nameljk 4k+).

Ik hoop dat dit het wat duidelijker maakt.
wie gaat er nu 1 texture op een berg plakken ? ,

8K Textures zijn er en niet om hele grote objecten te voorzien maar juist om meer detail aan te brengen.
Is dit een trol reactie? Ik geef duidelijk aan dat het een dom voorbeeld is dat ik geef.
Er is geen enkele reden om wel grote textures te gebruiken bij lage resoluties, het staat zelfs letterlijk in de Unreal guide dat dat totaal onzinnige is en dat je die kleur overlay op quality moet gebruiken om je textures te minimaliseren.

Alleen slecht design kun je er een beetje mee oplossen bij high quality.
Waarom zou ik reageren op iemand die blijkbaar niet de moeite neemt om mijn post door te lezen in de context waarin hij bedoelt is :Y).

Fijn voor je dat je wel de documentatie van Unreal door hebt gelezen die ik heb gepost! Blijkbaar wil je het wel van hun geloven gelukkig.

Dus voor spellen, de volgende handregels, alle textures met hogere resoluteis zijn slecht. Tenminste dat is wat jij aangeeft. Als het spel ziet dat jij een 1080p monitor hebt dan moet dat ook meteen de maximale kwaliteit zijn van alle textures!!!

Deze reacties is sarcastish en op hetzelfde niveau als jouw reactie.
.

[Reactie gewijzigd door _eXistenZ_ op 23 mei 2023 17:26]

Skriptkid ik ben het wel met je eens, wat Sp3ci3s9472 zegt is grote onzin.

Ikzelf game graag op Teletekst (.geek: Programmeur laat Doom draaien met teletekstrendering) en heb daarbij ook helemaal geen 4k textures nodig.

Gameplay over graphics!
Hij bedoelt dat wanneer de texture van de berg 8192x8192 zou zijn, maar 10% van die berg vult je hele scherm omdat je er met de neus voor staat, dan heb je nog maar 10% ofwel 819,2x819,2 pixels van de hele texture in beeld.
Alleen objecten van dat formaat bestaan niet uit 1 texture, tenzij het de unreal 1 engine is toen was dat nog wel zo, maar nu al lang niet meer.
Dat is zeker geen onzin. Ik gebruik op 1080p over het algemeen gewoon de ultra textures die voor 1440p of 4k bedoelt zijn. Dat verschil zie ik duidelijk.

Ik ben blij dat ik de RX 580 met 8gb heb gehaald, de 4gb varianten zijn al 2 jaar EOL.
Niet helemaal, naast de grote van de textures is het aantal textures ook een probleem. Drukke punten van een open world game worden steeds drukker/voller. Denk aan gebouwen in een stad die steeds meer verschillende elementen bevatten die geloofwaardiger zijn. Denk aan een flatgebouw waarbij vroeger alle ramen en balkonnetjes identiek waren en nu elk een eigen invulling texture krijgen want je hebt toch niet de zelfde gordijnen als al je buren. Maar ook de inhoud meubilair/planten kan per balkon nu verschillen. Teveel copy en paste is oud en minder geloofwaardig. Dat heeft niks met kwaliteit/scherpte/resolutie van de textures op zich te maken, maar enkel met de hoeveelheid verschillende textures die tegelijk geladen moeten worden. In Hardware unboxed video's manifesteerd dit zich ook dat sommige textures ineens geen plek meer voor is waardoor in je bijne geloofwaardige plaatje een blob staat zonder normaal texture. Weg is de immersie die je in de game wereld had gezogen.
Ik heb vorig jaar expres een 1080P monitor gekocht omdat ik dat scherp genoeg vindt voor 24". Daarnaast heb ik zelf een beeld van wat ik redelijk vindt om uit te geven aan een systeem. Dat ligt bij een Core i5 en een xx60 serie videokaart. Ofwel over 10 jaar zie ik mijzelf nog steeds op 1080P gamen. Of ik moet de loterij winnen, dan ga ik natuurlijk een keer helemaal los.
Ik ben bewust voor een paar jaar geleden voor een 1080p scherm gegaan omdat ik dan veel meer waar voor mijn geld kreeg en met twee 24'' schermen de desk toch al vol is. De adviezen destijds waren iig om bij 24'' for 1080p te gaan omdat meer resolutie dan toch niet zichtbaar is (zeker met mijn oude ogen)
Als ik deze test dus zo zie voor 1080p is 8 Gb nog wel een tijdje genoeg voor de midrange dus ga ik geen 100 euro meer voor 16 Gb uitgeven (AMD valt voor mij sowieso af in dit segment vanwege de veel hogere TDP)
ls je dan ziet dat 1080p de mainstream resolutie is
Waar baseer je dat op? Want de Steam hardware Survey is echt geen goede bron: die wordt vervuild door internet cafes uit bvb China, een setting waar elke machine tientallen keren meegeteld wordt (doordat er talloze accounts op gebruikt worden). En daarnaast door secundaire machines: vele volwassen gamers hebben hun desktop, maar vaak ook een laptop met kleiner scherm waar ze lichtere games on the go op spelen. Die laatste heeft vaker een 1080p scherm.

Dat maar om te zeggen dat de Steam hardware survey, die vaak de enige bron is die wordt aangedragen om te pretenderen dat 1080p dominant is, totaal niet betrouwbaar is. Ik heb ook geen bron die iets anders aantoont, maar data die 1080p steunt is er ook niet echt.

Al jarenlang is een 1440p monitor gewoon een betere deal: kost amper meer en beidt bijna 2x meer pixels. Elke gamer, behalve dan wie echt op een zeer krap budget zit, zit al jaren niet meer op 1080p.
Elke gamer, behalve dan wie echt op een zeer krap budget zit, zit al jaren niet meer op 1080p.
Onzin.

Als je 24" hebt is 1080p prima. Het gros van de mensen die ik ken zitten nog op 24" 1080p en ik denk dat ze je keihard uitlachen als jij ze vertelt dat ze niet gamen.
Het gros van de mensen die ik ken zitten nog op 24" 1080p..
Tja, en het gros van de mensen die ík ken zitten op 27" 1440p en een handjevol 4K, of ultrawide 1440p.

Met dit soort anekdotes schieten we niets op.
Ik reageer op de claim dat elke gamer behalve iemand met krap budget op 1440p zit. Mijn anecdote is in deze juist wel relevant omdat het de aanname verwerpt. Jouw anecdote verandert daar verder niks aan.
Waar baseer je dat op? Want de Steam hardware Survey is echt geen goede bron: die wordt vervuild door internet cafes uit bvb China, een setting waar elke machine tientallen keren meegeteld wordt (doordat er talloze accounts op gebruikt worden). En daarnaast door secundaire machines: vele volwassen gamers hebben hun desktop, maar vaak ook een laptop met kleiner scherm waar ze lichtere games on the go op spelen. Die laatste heeft vaker een 1080p scherm.
En wordt daar dan niet op gegamed ?
Ja, maar vaak andere games dan die gespeeld worden door de Tweakers die deze artikelen lezen. Sowieso lezen Chinezen geen Nederlandse tech-websites.
Ja, maar vaak andere games dan die gespeeld worden door de Tweakers die deze artikelen lezen.
Ik geloof best dat op Tweakers veel mensen al op 1440p zitten, maar het zou me helemaal niets verbazen als de grootste groep nog steeds op 24" 1080p zit. Als ik naar mijn bureau kijk is 24" namelijk prima, ik zit al met mijn snufferd op dat ding. En dan is 1080p ook compleet logisch.Ik zal niet de norm zijn, maar heel erg ver van het gemiddelde zal ik ook niet zitten.
Ook op bureauafstand vindt ik 1440p een groot verschil maken. Sowieso is de pixeldichtheid ook kleiner als je een groter scherm hebt en volgens mij nemen de meeste mensen nu 27-32 inch schermen.

Het kost ook heel weinig, want ik heb vorig jaar nog voor 160 euro een 165 Hz 27 inch 1440p monitor gekocht.
En als tegenvoorbeeld:
Ik heb vorig jaar juist bewust een 24" 1080p monitor gekocht.
Gewoon, omdat ik er dicht genoeg op zit; niet meer nodig heb; en mocht ik meer nodig hebben, ik er een tweede monitor naast heb staan die ik incidenteel aan kan zetten.
idd,

en wat ik ook zie is 1440P draaien en dan 125-150% zoom inschakelen LOL :), Mergen we de pixels weer samen

[Reactie gewijzigd door Scriptkid op 23 mei 2023 12:13]

En krijg je lekker een blurry mess in applicaties die display scaling niet ondersteunen, wat er vele malen erger uit ziet dan een 1080p scherm. Ja, ik weet het - hilarisch.

[Reactie gewijzigd door R4gnax op 23 mei 2023 13:13]

14" laptop 1080p, ik heb hem ook op 125% staan, anders wordt het te klein. Scherm 24" staat gelukkig wel op 100% :+
In ieder geval niet op hardware die je zelf uit mag kiezen.
1. Een laptop heeft geen losse videokaart die mensen kunnen kopen, deze hele discussie draait toch om welke GPU wel of niet een goede keuze is?
2. Als het je secundaire machine is maakt het veel minder uit. Ik ben maar 1 iemand, maar ik weel dat ik iig 'echt game' op mijn dekstop, en mijn laptop (met 1080p scherm) enkel af en toe on the go voor wat lichte spelletjes (kaartspellen, faster than light, factorio, dat soort gedoe) gebruikt worden. Stel dat je mijn data (mijn 2 machines dus) neemt en dan zegt "50% van de gamers heeft een 1080p scherm, dus dat hogwarts legacy enkel goed draait op 1080p is toch geen probleem" is niet echt een goede interpretatie.

[Reactie gewijzigd door kiang op 23 mei 2023 10:54]

Je hebt zelfs geen eens een andere bron |:(

Als ik om me heen kijk is het of 1080 òf 4K wat mensen gebruiken, 1440 is voor de mensen die een beetje verstand hebben van hoe het werk, en dat zijn er maar weinig. Het verbaast mij persoonlijk hoeveel mensen blijkbaar liever voor meer FPS dan pixels gaan, maarja, smaken verschillen.

Dat dezelfde machine in een internet cafe meerdere keren geteld worden, dat maakt toch niets uit, ieder account is een gamer, hetzelfde geldt voor laptops.
Dat dezelfde machine in een internet cafe meerdere keren geteld worden, dat maakt toch niets uit, ieder account is een gamer, hetzelfde geldt voor laptops.
Daar vergis je je dus in: steam telt elke unieke combinatie van hardware + account als een aparte entry. Dus als jij met jouw ene account op 2 PCs speelt, dan zijn dat 2 entries in de hardware survey. Als jij 1 pc hebt en deelt met je partner die een eigen account gebruikt, dan zijn dat ook twee entries.

Die gevallen lijken me wel ok.

Maar als je een internet cafe hebt, met 20 PCs en met 500 vaste klanten? Dan kom je uiteindelijk aan 10.000 entries, als uiteindelijk elk van die 500 klanten elke oc wel een keer gebruikt heeft en de survey heeft gedaan.

Dat is een enorm vertekend beeld.
Er is anders ook genoeg data die laat zien dat een 8GB kaart op Ultra settings op 1080p al door ze geheugen heen gaat

IMO gaat het echt geen jaar of 5 meer duren, aangezien we nu al de gevolgen er van zien en uiteraard wordt dat alleen maar erger en niet beter
Ik ben uit de tijd van doom2 en weet nog hoe vreselijk slim de code in elkaar zat om met heel weinig geheugen en processing power heel veel te kunnen laten zien. Voor quake en quake 2 kocht ik een kaart met 6 MByte aan geheugen en je zag ineens de 3D lichteffecten van een raket op de muur waar die langsvloog. Waanzinnig.
Ik vraag me af of game ontwikkelaars alles uit een engine halen of toch wel een beetje lui zijn en met brute force gewoon heel veel geheugen eisen ipv van slimme technieken. Maar ik geeft toe dat ik me al heel lang niet meer verdiep hierin, dus misschien is het wel super slim en efficient wat er gedaan wordt.

wellicht dat AI in real time texturen verzint in de toekomst die in een beeld detail toevoegen, dat is er weer meer gpu power nodig dan geheugen.
En in die tijd ging de hardware ontwikkeling toch echt sneller er kon je bijna ieder jaar de pc updaten. Dus zet die roze zonnebril maar af.
Het hangt er ook af van hoe je wil spelen.
Als je in een single player spel mooi beeld wil hebben dan is het minder erg
om een iets lagere refresh rate te hebben voor beter beeld, zolang het speelbaar blijft.
Als je online een first person shooter speelt, dan heb je liever een hogere refresh rate, maar
dan is het minder erg om met wat lagere settings te spelen.

Het zal dus nog wel mee vallen, al hoevel ik ook wel zit te twijfelen of ik voor 8-10-12 moet gaan, het is een van de reden dat ik nog niet iets nieuws heb gekocht voor mijn 14k4 monitor. Ik hoop dat de nieuwe van amd iets gaan worden voor me in de lagere prijsklasse.
Het ligt eraan in welke prijsklasse je gaat kopen, en wat voor een spellen speel je. Speel je vooral zaken als Counterstrike, waarbij hoge FPS het belangrijkste voor je is, en de grafische pracht en praal allemaal niet zo, dan is 8GB helemaal prima op 1440p. Speel je nu op 1440p, koop je een nieuwe kaart van €750, en denk je erover toch ook een nieuw scherm te gaan kopen de komende jaren, ja dan zou ik 8GB wel echt als minpunt zien. Oftewel, op het randje op 1440p of je het wel of niet als probleem moet zien.
Ik heb destijds een keuze gemaakt op basis van de toekomst en daar speelde de hoeveelheid VRAM een rol in; ik ben niet iemand die veel tijd wil spenderen aan het tweaken van video settings. In de overweging of ik zou kiezen voor een RTX 3070/3070 Ti vs een RX 6800 speelde mee dat ik me de komende jaren niet bezig wilde houden met VRAM gebruik van games en met redelijk gelijkwaardige performance tussen de voorgenoemde kaarten was het feit dat VRAM gebruik in de toekomst geen issue zou zijn (onder andere) een factor om uiteindelijk te kiezen voor de RX 6800 met 16Gb VRAM.

Uiteindelijk kwam de keuze neer op mijn persoonlijke voorkeur. Ik vind het daarom goed dat dit aspect wordt meegegeven in het artikel maar blijft dit een persoonlijke overweging. Als je gewend bent om je video kaart vaker te vervangen lijkt mij dit veel minder een issue en de keuze voor een kaart met 8 Gb geen vreemde.

Edit: ik speel op 1440p
Edit 2: ik heb in het verleden om dezelfde reden gekozen voor de 8Gb variant van de RX 480 in plaats van de 4Gb variant en daar profiteert een van mijn kinderen nu nog steeds van

[Reactie gewijzigd door Skip Tracer op 23 mei 2023 10:28]

Hangt er ook wel sterk vanaf wat voor games je speelt, zijn genoeg mensen die op 1080p spelen, maar een zooi texture packs en andere mods downloaden voor spellen zoals Skyrim bijvoorbeeld.

Als je bijvoorbeeld kijkt naar deze video:
https://youtu.be/UGHBmbp493A?t=331

Dan zie je terug dat met een hoop 4k/8k texture packs je op 20GB VRAM uit kan komen, nu zal dit niet tot het uiterste geoptimaliseerd zijn en dient dit meer als showcase, maar 8GB vullen gaat al makkelijk.

Zelf heb ik pas geleden Skyrim geïnstalleerd en een paar texture packs geïnstalleerd en ik kom al op gemiddeld 8GB VRAM usage uit. Dan praat je echt over totaal iets van 50 mods, er zijn mensen die 1400+ mods geïnstalleerd hebben.
Er zijn natuurlijk ook huidige spellen getest terwijl de spellen die veel geheugen gaan gebruiken nog moeten komen.

Veel spellen worden (ook) voor consoles gemaakt, de huidige consoles hebben 16GB geheugen aan boord en daarvan kan er maximaal 12GB gebruikt worden als VRAM.
Met dat in het achterhoofd kan je er vanuit gaan dat er voor spellen dus ook maximaal 12GB geheugen gebruikt gaat worden (Tot de nieuwe PS6 of X-box XX komt, die zullen mogelijk 24 of 32GB geheugen krijgen)

Ontwikkelaars zullen natuurlijk rekening houden met gebruikers die nog niet helemaal het nieuwste van het nieuwste hebben maar ze zullen wel steeds vaker minstens 8GB VRAM eisen als minimum settings.
Recommended zal dan meer rinchting de 12GB gaan.

Als je nu toch een videokaart zoekt waar je relatief lang mee doen dan is het slimmer om een kaart met meer dan 8GB te kopen.
Vergeet ook niet de noden die AI stelt de komende jaren. 8 GB is op het randje om moderne AI's zoals Stable Diffusion lokaal te draaien en te weinig voor tekst- of coding-AI's. Dit is absoluut niet toekomstgericht in de age of automation.

Als je alleen maar spelletjes speelt, dan is het misschien genoeg, maar dan koop je beter voor dezelfde prijs een Switch/Steam Deck/PSX.
Nogmaals, de conclusie snap ik wel, maar de data in het artikel ondersteunt dit niet. Er is geen test van een game die VRAM als bottleneck geeft en er is geen benchmark van AI.

Ik vind een redactioneel artikel waarbij de conclusie totaal niet wordt gedragen door de data uiterst matig en vooral geen ondersteuning voor de premisse dat 8gb te weinig is.

[Reactie gewijzigd door roffeltjes op 23 mei 2023 15:50]

Ja klopt, heb zelf een 6gb kaart en heb op 1440p echt een soepele ervaring. Zelfs op een 8 jaar oude kaart vind ik het ongeloofelijk hoe mooi Resident Evil 4 remake eruit ziet.
Als je op een 4060ti alle 16GB wil gebruiken dan zijn de framerates toch al zo laag dat het niet speelbaar is, 8GB is net te weinig en 16GB is net teveel, 10GB of 12GB zou ideaal zijn maar dat kan niet qua bus.
Eerlijk gezegd vind ik mijn GTX 1060 nog oke met 6GB, pas de settings gewoon aan totdat ik rond de 60fps zit en kom dan meestal op 1080p medium/high uit.
Jou ken ik :D maar ik denk er wel anders over.

8 GB gaat echt wel krap worden in de nabije toekomst en ook nu al. Als je ziet hoe games eruit zien en dan heb ik het niet over games over 2 jaar. Je koopt een videokaart niet voor 2 jaar, maar je wilt wel langer doen met je grafische kaart want die zijn niet zo goedkoop. Ik game zelf op 1080p (360 Hz scherm) en ik heb een rtx3080 met 10 GB aan Vram; ik kom tekort. :o

Neem een game zoals The Witcher 3 next gen en ga dan maar eens aan de slag met raytracing en je snapt wat ik bedoel. Omdat dat tegenvalt speel ik de game op DX11 en zelfs dan kan ik niet alles op ultra+ zetten.

Het is echter niet alleen het Vram wat je tekort kunt komen, maar ook de cache van je GPU en CPU zijn zeer belangrijk. Ik heb een Ryzen 7 5800X en ik merk dat de grote L3 cache zeker wat toevoegt aan games.

========
Maar even echt inhoudelijk over 1080p en 1440p gaming:
De hele keten van CPU tot beeldscherm moet het aankunnen. Als je op 1080p gamed is een snelle CPU weer wenselijk. Het gaat bij deze niet zozeer om de snelheid van je kaart, maar veel geheugen doet veel meer dan de snelheid van de chip zelf. Het RAM geheugen wil je ook zo snel mogelijk hebben en de beste CPU voor gaming is de Ryzen 7800X3D. Waarom dan? De cache! Daar profiteren veel games van en ik verkies liever een grotere cache dan aan rauwe snelheid. Een rtx3060 met 16 GB aan Vram zal beter tegen de toekomst bestand zijn dan een rtx3070 met 8 GB Vram. Dan gaat het niet zozeer hoeveel frames je kan halen want het verschil tussen 120 en 100 fps zie je nauwelijks, maar een ander hinderlijke feature is microstutter! Die wil je zo min mogelijk hebben en als je Vram te krap wordt betekend dit de instellingen flink naar beneden schroeven. Nu is dat met moderne games niet zo erg want het ziet er nog steeds goed uit, maar welke gamer wil niet op ultra kunnen gamen?

Dus wat is mijn visie op 1080p gaming?
-CPU, zo snel mogelijk en met grote L3 cache zoals de Ryzen X3D chips
-RAM, ga voor DDR5 en pak snel geheugen met strakke timings
-Vram, ga minimaal voor 12 GB en als het kan naar 16 GB
-GPU, snelheid van de cores is op 1080p niet zo heel belangrijk (een rtx3090 (24 GB) is beter dan de rtx4070 (12 GB), puur om de hoeveelheid Vram).

--------
Nu lijkt dit schromelijk overdreven, maar ik doel niet op het aantal FPS in een game, maar om microstutter zoveel als mogelijk te elimineren. Liever 10 GB Vram over dan 1 GB Vram tekort zoals nu en daarom koop ik tegen de winter weer een nieuwe gamePC met het doel om games zo vloeiend als mogelijk te laten lopen of dit nu 100 fps is of 120 fps, zonder microstutters.

Mijn systeem is eigenlijk capabel om perfect 1080p te kunnen gamen met hoge refreshrates dus lijkt mijn wens puur verwend en overbodig, maar als ik kijk naar games zoals TW3 next gen dan houd ik mijn hart vast. Ik werk hard en als ik in de avond lekker lui thuis ben wil ik wel goed kunnen gamen zonder concessies te doen. Het kan er af en ik ga daarvoor. Ik wil raytracing op hoge framerates ;)
Jou ken ik :D maar ik denk er wel anders over.
Jim, waar zie ik in dit artikel dat er 1080p op 360htz wordt gedraaid? Waar zie ik in dit artikel de game waar VRAM een bottleneck is? Waar wordt er microstutter gemeten?

Ben ik echt zo vreemd dat ik erover val dat de data de conclusie niet ondersteund? Het voelt toch heel sterk alsof de schrijver het baseert op dingen die buiten de gebruikte data liggen... wees daar dan duidelijk over.
Nergens, maar mijn monitor ondersteund dat.

De hoeveelheid Vram zie ik in MSI afterburner en in TW3 next gen kom ik tekort (met raytracing kom ik veel te kort).

Games zijn vaker slecht geoptimaliseerd want een heel goed geoptimaliseerde game kan prachtig draaien met 8 GB aan Vram. Ik baseer hier mijn ervaringen en bevindingen :)

Microstutters zie je goed en als dit voorkomt op een hogere framerate dan is het des te storender! Nu ben ik ook wel iemand die hele hoge eisen stelt aan gameplay. Het is een grote hobby van me.

Dit artikel heeft mijn visie min of meer bevestigd en games gaan steeds sneller meer eisen en met een goede hoeveelheid RAM heb je gewoon een betere buffer achter de hand.
Nou kan een GPU het reguliere RAM aanspreken als het zelf tekort komt, maar kan dit ook andersom? Stel, ik draai iets ram intensief maar kom tekort, terwijl de GPU niets doet. Kan het OS dan de VRAM aanspreken als virtueel geheugen? Of kan dit enkel via lastige omwegen (ramdisk maken en daar je swapfile zetten bijv.).

Niet ideaal als je vaak op de limieten van je RAM zit (neem dan extra RAM). Maar als je sporadisch tegen die grens aanloopt kan dit toch het verschil maken.
Zoiets als Resizable Bar? Of zoals het bij AMD heet: SAM (Smart Access Memory)?
Zo ongeveer, maar dan ook voor totaal andere zaken dan bijv. textures/shaders/etc.

Dat je browser (of op zijn minst de tabs die niet open staan) bijv. in het VRAM wordt gezet inplaats van in je normale RAM. Dat (een deel van) je VRAM een soort van swapfile wordt als je niet gamed.
Nou kan een GPU het reguliere RAM aanspreken als het zelf tekort komt, maar kan dit ook andersom? Stel, ik draai iets ram intensief maar kom tekort, terwijl de GPU niets doet. Kan het OS dan de VRAM aanspreken als virtueel geheugen? Of kan dit enkel via lastige omwegen (ramdisk maken en daar je swapfile zetten bijv.).
Dat kan sowieso met bijvoorbeeld een APU, want daarmee is RAM = VRAM.

De lastige omweg die je noemt kan je over lezen in een eerder artikel, waarbij VRAM van een aparte videokaart werd gebruikt als (tijdelijke) disk om Windows vanaf te draaien. Zoiets kan uiteraard ook voor andere zaken, maar het zal nooit als direct RAM tellen door de benodigde vertaalslag.
Je kan compute task uitvoeren maar dat zal dan ook massive parallel compute zijn. En de GPU doet compute. CPU kan dus specifiek task delegeren. Waar GPU geschikt voor is.
Dus veel gelijksoortig data dat nonshared mutable is met sharde constance is daarvoor geschikt waar dezelfde functie overheen gaat. Dus vanila oop gaat niet worden.
Voor gpu is er render , copy, compute task. Dus data copy naar vram gpu doet zijn ding en copy terug.
Maar voor systeem ram is het dan breid je of vervang je uit dat systeem geheugen.
Bij windows ga je dan virtueel memory gebruiken de swapfile.
Zelf als ik voor systeem ram ga dan stop ik er ruim voldoende in zodat nextgen windows met hogere ram eisen ook goed loopt. Ik upgrade mobo cpu mem na 4 tot 10 jaren. Nog nooit memory alleen geupgrade.
Nee, je CPU weet hoe het met RAM om moet gaan, niet met VRAM. Je zou op OS niveau iets kunnen bouwen dat data tijdelijk op VRAM opslaat maar dan zal het toch eerst naar RAM moeten om door de CPU te kunnen worden verwerkt. Je CPU heeft gewoon geen instructies om VRAM aan te spreken om data op te halen en te verwerken, daar is de GPU voor. Tot voor kort was het zelfs zo dat data ophalen uit VRAM vele malen langzamer was dan het er naar toe schrijven, dat is nu anders maar de CPU is gewoon niet ontwikkeld om met VRAM te werken. Net zo min als je je PC kan starten met 0 RAM met alleen een swap file, ja swap file kan als geheugen gebruikt worden door een OS maar niet op CPU niveau.

Een APU is wel speciaal ontwikkeld om met RAM alleen te werken.

Een GPU standaard gebruikt ook geen RAM en veel spellen staan het ook niet toe om RAM te gebruiken als VRAM, sommige spellen zijn beter in swappen maar kijk maar bij spellen die het VRAM gebruik weer geven, geen een telt je RAM er bij op.

Daarom is er ook een verschil tussen laptop video chips van AMD/Nvidia en de desktop kaarten. Je hebt alleen een echte desktop chip in je laptop als er ook separaat VRAM in je laptop zit.
Native niet, want het zit niet in de drivers ingebakken.

In theorie zou je op bijvoorbeeld Linux wel je VRAM als een virtual disk kunnen mounten, en daar dan een swap file opzetten en juist prioritiseren. Zodra je systeem RAM tekort komt, gaat die eerst naar je "VRAM swap".
Met datzelfde geintje kan je op Linux "RAM downloaden" (nee geen DDR geheugen, maar wel data) door een swap file op je NAS of GoogleDrive te zetten ;-)
En er zijn nog wel meer geintjes te bedenken. Je kan op Linux ook je geheugen/swapgebruik eerst compressen met een algoritme zoals lz4. Dat kan afhankelijk van je workload niets doen tot een besparing van 3-4x opleveren. Leuk voor goedkope VPSjes..

Maar praktisch is het allerminst. Want zo'n virtual disk neemt altijd z'n allocatie in en krimpt niet zodra je een 3D applicatie opstart.

[Reactie gewijzigd door Hans1990 op 23 mei 2023 10:34]

“Een belangrijk verschil is dat je het vram op een videokaart niet kunt uitbreiden, zoals je dat met geheugenmodules in de geheugenslots op je moederbord wel kunt doen.”
Wat is de rede waarom het niet kan? Is het technisch niet mogelijk of is het een geld issue?
Je wilt geheugenchips zo dicht mogelijk bij de GPU behouden, om zo de maximale snelheid en laagste latency te kunnen garanderen. Vroegere PCI kaarten haddel wel ruimte voor uitbreiding van geheugen van vaak 1 naar 2MB, 2 naar 4MB etc maar dat deedt nagenoeg bijna niets voor performance, anders dan dat je in hogere resolutie kon draaien.

Ik ben het er niet mee eens dat 8GB niet voldoende meer zou zijn. Dan tune je de settings gewoon wat omlaag. Net zoals een 4GB kaart (Een FuryX met HBM geheugen) ook prima mee zou kunnen maar gewoon niet op maximale settings. Meer geheugen is afhankelijk van de sterkte van de GPU ook niet geheel zinvol; een RX580 met 4GB vs 8GB maakt nagenoeg nauwelijks wat uit qua performance, omdat de GPU gewoon niet krachtig genoeg is om er "echt gebruik" van te kunnen maken.
Waar het ook om gaat: ja 8gb is misschien op het randje en je kan je settings downtunen (waarmee je dus wel iets inlevert!) Mooi voor bestaande owners. Maar als je NU een NIEUWE kaart koopt is 8gb echt onzinnig. Het heeft dan echt wel zin om even goed te kijken of er niet een variant is met iets meer VRAM.

[Reactie gewijzigd door PjotterP op 23 mei 2023 07:17]

Ik hoop dat tweakers die 8 ram als negatief punt neer zet bij het reviewen van die kaarten.
Je kan consumenten beter optijd waarschuwen en dat kan mooi op tweakers als mensen op review googlen.
Ik hoop dat Tweakers die 8 GB VRAM als negatief punt neer zet bij het reviewen van alle PC games die er als minimum eis op gaan zitten of overheen gaan.

De limiterende factor voor alle games deze generatie zit 'em nog altijd in de game consoles. De XBox Series S heeft maar 10GB unified RAM aan boord. Waarvan slechts 8 GB op 224 GB/s addresseerbaar is en de laatste 2 GB enkel op 56 GB/s.

Die laatste 2 GB is primair bedoeld als normaal werkgeheugen, terwijl de eerste 8 primair voor graphics weggelegd is - maar voor titels die meer normaal werkgeheugen nodig hebben kan daar mee geschoven worden.

Microsoft vereist dat alle games die op voor Series X uitkomen, ook op de Series S kunnen draaien. Maar dan wellicht met wat minder pracht&praal. En functioneel gezien draait dat ding gewoon op een offshoot van Windows 10/11 en DirectX.

Dus als ontwikkelaars een game op XBox uitbrengen en de PC port ineens minimum systeemeisen stelt die ver uit de toon vallen van die balans; bijv. als minimum 8 GB VRAM stellen met daarbij substantieel meer dan 2 GB normaal systeem RAM; of als mimimum 4GB VRAM stellen met daarbij substantieel meer dan 6 GB normaal systeem RAM,

dan weet je dat er gewoon iets niet klopt en de technische kwaliteit van de port bagger is.
Dan heb jij starwars jedi survivor gemist.
Het blijkt naast slecht programmeer werk ook dat pc juist de lemiterende factor is en niet console!
Meest pc gebruikers zitten op 8 vram en er zijn juist meer gebruikers die daar onder zitten dan daarboven.
Ik heb Jedi Survivor bewust links laten liggen omdat ze de bal zo hard hebben laten vallen dat het een smeulende krater achter gelaten heeft. Maar ja; dat was te verwachten. Die gitzwarte blakering vlak ernaast? Da's nog van de vorige krater die Fallen Order heet.

Het is overigens niet de PC die de limiterende factor is; de consoles hebben net zo goed stutter en frame dips. Het is in het algemeen - naast het broddel programmeerwerk wat je al aan hebt gesneden - gewoon een geval van veel en veel te hoog gemikt hebben en te weinig marge op de specs over houden voor pessimistische ingame situaties.
Je kunt bijv. vergelijkingsvideo's terugvinden die laten zien dat het spel op de XBox Series S met een 30 FPS cap en teruggeschroefde texture quality en andere limitaties, beter - vloeiender - speelt dan de PS5 en er eigenlijk maar marginaal slechter uit ziet.
Ook die titel is dus resolutie gebonden: performance (niet stabiel, wel beter te genieten) blijft (terecht) steken op 1440P op consoles.

Hogere resolutie betekent frames inleveren, wat in deze titel ook nog eens gepaard gaat met inconsistente frame timings.

Naast dat de consistentie wellicht gefixt kan worden, is de beperkende factor van moderne consoles gewoon de hoeveelheid textures die ze moeten verwerken. Beide consoles ontlopen elkaar niet op technisch vlak, voor de tweede generatie op rij zijn ze nagenoeg gelijk. En hoewel een fikse stap omhoog is vanaf de vorige generatie, voelt het wel flink underpowered voor moderne titels, 60fps én native 4K.
Ik vind 8GB VRAM niet een minpunt voor een videokaart. Wel vind ik het een minpunt voor videokaarten van een bepaalde prijsklasse.

De budget en de goedkopere midrange videokaarten kunnen uit betaalbaarheidsperdpectief best met 8GB VRAM uitgerust worden.
Van een videokaart die rond de €200 kost verwacht ik geen 12GB of meer aan VRAM.

Voor ieder budget zou er een videokaart moeten zijn, nu is het zo dat de prijzen van videokaarten echt belachelijk hoog zijn. (Zeker van de high-end kaarten)
Maar dat neemt niet weg dat 8GB nog steeds voldoende is voor een groot deel van de mensen.

Ook hoeft een videokaart niet perse weggelegd te zijn voor de die hard gamer. Mijn zoontje speelt graag Roblox, hier heb je nou niet bepaald een dure kaart voor nodig. (Dit spel draait zelfs soepel op een onboard videokaart, laat staan op een losse midrange videokaart)
Ik vind 8GB VRAM niet een minpunt voor een videokaart. Wel vind ik het een minpunt voor videokaarten van een bepaalde prijsklasse.
Dit dus. Tot 300 euro is het geen ramp. 1080p is in die range de norm en zoals het artikel al aantoont is 1440p ook goed te behappen, eventueel met wat compromissen.

Ik denk ook dat mensen bloed in de ogen hebben vanwege de 4060ti die gewoon idioot duur is voor een 1080p kaart en die door een brakke geheugenbus ook serieus problematisch omgaat als je een keer wel uit je vram loopt.

Ik bedoel, als je met 1080p games heb je niet zoveel meer nodig dan een rx6600, dat is 220 euro. Om dan 400 euro te vragen voor een 1080p kaart is dapper. :/
Of 8GB onzinnig is hangt echt volledig van twee factoren af: Prijs- en prestatieniveau.

Voor kijkers van de grotere, Engelstalige techkanalen is het wat mosterd naar de maaltijd, maar de conclusie is hetzelfde. Op een instapkaart valt 8GB nog best te verantwoorden zolang de prijs er naar is. Dan heb je het dus over een prijs tot 300€

Je ziet dat in de uitschieters qua Vram, de 2 jaar oude RX6800 modellen van AMD ineens rondjes rennen om hun Nvidia concurrenten met te weinig Vram. Dan is voor mij duidelijk dat je anno 2023 in het 500€+ segment minimaal 16GB mag verwachten. Tussen de 300 en 500€ 12GB en enkel tot de 300€ 8GB. Zeker wanneer je langer dan anderhalf jaar met een GPU doet en graag moderne games speelt.
12 GB zie je hier ook is nog lange tijd ok. Een kaart van 500 euro is tegenwoordig helaas ook zoveel niet meer, hoewel het graag anders zou zijn. Ik denk verder dat de vloeiende 60fps toch al snel niet meer behaald wordt door kaarten op ultra quality textures op 4k resolutie. Ga je ipv ultra texture naar high texture, is het VRAM gebruik meteen ook stukken lager. Relatieve verschillen zijn goed voor een artikel als dit om te kijken waar hoeveelheid VRAM een rol speelt, maar als gamer, moet je toch ook vooral naar de FPS en stabiliteit daarvan kijken. 12 vs 24 fps is 100% vs 200% kun je zeggen, maar beiden zijn onspeelbaar en dus ook irrelevant of je dan wel of niet genoeg VRAM hebt op zo een kaart, je zult de quality toch al fors moeten verlagen. Een nieuwe snelle dure kaart met 8GB lijkt evenwel niet meer slim om te kopen. Een tweedehands 2080 met 8GB RAM of 3080 met 10GB zou ik voor de juiste prijs zeker wel naar kijken bijvoorbeeld, die kaarten voelen nog altijd prima in verhouding, komen niet in het topsegment meer mee, medium-high quality op 4k hooguit.
Ik ben het er niet mee eens dat 8GB niet voldoende meer zou zijn. Dan tune je de settings gewoon wat omlaag.
Heel klein beetje mee eens, MAAR, waarom zou je dat willen, dat is net zo iets als de hoogste 2 versnellingen niet installeren in een auto, en de fabrikant zegt, ''ach, die Golf GTI die je hebt, hoeft geen +200 over de Autobahn, want dat is normaal gesproken niet echt nodig''.

Het imho een beetje raar om bv 30% prestatie op de plank te laten liggen omdat je niet genoeg VRAM hebt, of haperingen hebt op het moment het druk is, om dat je niet genoeg VRAM hebt.
Noem je Nvidia nu de Volvo onder de GPU’s? :+
Maar dat is toch heel normaal bij auto's, dat je het aantal versnelling kiest aan de hand van wat de auto verder ook kan leveren? Ik denk dat je niet snel een Golf met 7 versnellingen ziet nee.

Als de extra VRAM gratis en voor niets erop kan, dan kan je net zo goed voor de hogere hoeveelheid gaan. Echter zal er een meerprijs aan hangen en die is het niet voor iedereen waard, voor anderen is het juist een heel goede investering. Zelf game ik met 0B VRAM, goed genoeg voor mij ;)
Die zijn er genoeg, VW bied al sinds 2007 Golf types aan met een 7-bak.

Eigenlijk ook een kromme analogie, want ook met een minder krachtige motor heeft meer versnellingen een positief effect, daar heb je echt geen 3L 6 cyclinder voor nodig ;)
In die tijd mbt geheugen op de videokaart prikken deden games nog niks kwa rekenkracht met de videokaart.
Pas richting 1998 gingen games de videokaart gebruiken met "3D acceleration".

In de meeste gevallen kwam je met 512kb vram wel mee weg.

[Reactie gewijzigd door mr_evil08 op 23 mei 2023 11:05]

Nee daarom juist. En meer VRAM zorgde ervoor dat je op hogere resoluties (2D) draaien kon. Maar het is niet haalbaar of praktisch op een hedendaagse GPU. Dat wordt veel te duur.

Een Voodoo2 8MB kan ook worden omgezet naar een 12MB variant, mits je de correcte chips erop kunt solderen. Hier heb je wel een kleine prestatiewinst in een wat hogere (1024x768) resolutie. Er is wat meer texture / framebuffer aanwezig. Dus de graphics kaart hoeft het niet eerst via de CPU op te halen en over de relatief trage PCI bus te sturen.
Dan tune je de settings gewoon wat omlaag.
Tja, en dat is iets dat je gewoon niet wilt, de kaart kan het wat betreft kracht gewoon aan, maar wordt in dat geval dus beperkt door het beperkte geheugen.
Vroeger kon dat nog wel, ik heb het geheugen van mijn S3 Virge nog een keer van 2MB naar 4MB uitgebreid.

Maar ik denk dat videokaarten toen anders werkten?
In die tijd hadden games nog geen 3d acceleration, kwam toen hoofdzakelijk op de CPU aan kwa rekenkracht, net als je vroeger cache kon bijprikken op de CPU ook maar tot een behaalde hoeveelheid zin had.

(cache op de CPU prikken had wel zin in games kwa performance als er niks op zat).

[Reactie gewijzigd door mr_evil08 op 23 mei 2023 11:09]

Net als dat de coprocessor die je vroeger bij kon prikken slechts in bepaalde situaties zinvol was.
Heeft gekund, alleen is een slot/socket voor de overbrenging minder ideaal dan direct gesoldeerd. Daarnaast verkopen fabrikanten je gewoon liever een compleet nieuwe kaart om de paar jaar.

En het kan wel degelijk, ergens vorige week doken er video's op van een team wat gewoon een 3070's gemod had; verdubbelen van het geheugen door de geheugenchips te vervangen door hogere capaciteit chips, en de bios aan te passen zodat hij dit geheugen netjes registreerde. Hier heb je alleen een professionele werkbank voor nodig met het juiste materieel en de kans dat het misgaat en je met een kapot apparaat zonder garantie eindigd is aanwezig.

Waar je als eindgebruiker wel iets aan hebt, de chips die ze(als enkeling en consument) gekocht hadden om deze mod te doen kosten hen nog geen 50 euro, en hier ging men van 12 naar 24GB. In de planning van Nvidia(Als grootinkoper) willen ze voor de 4060ti 16GB vs 8GB echter een meerprijs van 150 dollar rekenen.
Je kunt iedere grafische kaart feitelijk upgraden. Het geheugen is vaak van 1 partij. Op Ebay kan je vaak dezelfde, hogere rating verkrijgen in bulk ofzo. Dan vervang je ze en kan je feitelijk verder overclocken.
Je zal ook nog een custom bios moeten hebben, en wat ik al zei, de tools die je nodig hebt om die chips te vervangen anno 2023 zijn vrij specialistisch, in de 90's was het geen probleem geweest en kon je met een willekeurige soldeerbout van een tientje op je bureau ermee aan de slag.
Spelontwikkelaars zouden meer moeite moeten stoppen in de originaliteit en de speelbaarheid van een game. Er is een reden waarom (bijvoorbeeld) Tetris nog steeds populair is. En verder, een spel kan er grafisch nog zo mooi uitzien, wanneer het na een keer spelen op de grote stapel met fantastisch mooie spellen terecht komt en nooit meer aangeraakt wordt dan is het gewoon een slechte game.
Die spellen zijn er ook, legio zelfs. Maar de grote media, ook Tweakers, geven enkel aandacht aan de grote uitgevers en hun “triple A” titels. Ik snap het wel, massa is kassa, zeker ook wat websitebezoek betreft. Maar het geeft een heel eentonig beeld qua gaming.

Als je originele games zoekt die wat anders bieden, ben je beter bediend met een site als RockPaperShotgun.
Wat dat betreft lijkt de algehele sfeer een beetje om te slaan. Er zijn dit jaar zoveel grote AAA games die afwerking missen, terwijl indie games beter dan ooit zijn.

[Reactie gewijzigd door Wolfos op 23 mei 2023 11:48]

Dit dus. Ik ben oud genoeg om het DOS-tijdperk nog te hebben meegemaakt met de toen beschikbare spellen. Sterker nog: ik heb nog gespeeld op de ATARI 2600 en de Commodore 64. Grafisch gezien natuurlijk een ramp maar qua speelplezier staken sommige spellen ver boven andere uit en speelde je die steeds opnieuw. De hele hype van "ik moet minimaal 111 fps op de hoogste settings halen omdat mijn vriend 110 fps haalt" heb ik nooit begrepen en zal ik waarschijnlijk ook wel nooit begrijpen.

Spellen speel ik voornamelijk op mijn Xbox One, die zo langzamerhand aan vervanging toe is, niet omdat hij niet goed meer werkt, maar omdat steeds meer nieuwe spellen uitsluitend op de Series S en Series X geïnstalleerd kunnen worden, terwijl die naar mijn mening nog net zo goed op de One zouden kunnen werken.

Mijn oude Core i5 PC is nog voorzien van een GT1030 met 2 GB zodat ik het enige spel dat ik daarop speel (ETS2) nog met behoorlijke settings kan spelen. Meer heb ik (nog) niet nodig, hoewel met elke nieuwere versie van ETS2 de settings wel wat naar beneden getweakt moeten worden.

Het hele "probleem" is dat gamers tegenwoordig behoorlijk verwend zijn én dat de developers alleen nog maar op de top hardware ontwikkelen en te beroerd zijn/niet de tijd meer krijgen om een spel goed te optimaliseren zodat het ook op wat mindere hardware nog goed/fatsoenlijk loopt. En net wat je zegt ligt de focus tegenwoordig meer op grafisch geweld dan een fatsoenlijke game belevenis en dan nog zijn vele games behoorlijk buggy.
750ti 2GB! Overigens is mijn eerste ervaring op een 386, Commander Keen 4 met pong als extra game in de game. Van de weet ETS2 gekocht voor 5 euri, stuurtje er nog bij te regelen, nieuwe GPU richting herfst en ik heb het weer jaren naar m'n zin :)
Het is natuurlijk ook gebonden aan toekomstbestendigheid, als het een kaart van 100 euro is, zoals een ali-express refurbished RX 580(met een afwijkend aantal cores), en je hebt een beperkt budget vind ik dat een goede prijs voor een 8GB kaart...(let wel dat de 4060 en 7600 qua performance niks heel zullen laten van een RX580)

350-400 euro voor een nieuwe 8GB kaart is een hele andere investering, en daar verwacht je toch wel even mee te kunnen doen(3+ jaar). Ik verwacht niet dat je over 3 jaar nog veel optimaal kan spelen met een 8GB kaart, daarom is NU het moment om hem niet meer te kopen, en zou zelfs de intel 16GB kaart overwegen in die prijsklasse, die in elke review overal toch geen verkeerde keuze blijkt te zijn en met driver updates zal die mogelijk zelfs nog gelijk gaan presteren aan de 4060 of 7600
Uiteraard, daar heb je gelijk in.

Maar voor heel veel mensen wordt het toch allemaal wat te prijzig:
- een fatsoenlijk moederbord € 90-125
- een redelijke processor € 200+
- 16 GB geheugen € 80-90

En dan heb je nog maar een upgrade set, dus je "oude" kast gebruiken, hopen dat je voeding het aankan enz.

Gelukkig dalen de prijzen eindelijk weer eens wat, maar nu nog de developers ervan zien te overtuigen dat niet iedere gamer speelt op een top gaming rig, zodat spellen ook op wat bescheidener hardware toch een behoorlijke spelervaring kunnen bieden. Als ik de reviews zie over sommige spellen, dan denk ik "hoe durf je dat zo op de markt te brengen". Zelfs op een top gaming rig hapert en hikt het beeld nog, zijn vastlopers geen uitzondering etc.
Set die ik vorig jaar gebouwd heb, en nu geupgrade omdat het kan, en meer dan redelijk mee kon gamen, met de prijzen van nu:
- AMD 5700G, 180 euro
- B550 Mainboard, 100 euro of minder, afhankelijk van merk, ik ga voor Gigabyte.
- 32GB ram, waarvan je er 8 of meer vast toewijst aan de Vega 8 in de processor, 70 euro(Vorige week nog een setje G-skill DDR4 gekocht)

Zit dan aan 350 euro, je oude voeding zal het zeker aankunnen, want de APU vreet maar 65 watt in totaal.

Kun je later altijd nog een videokaart((!) bijprikken als de markt bijtrekt, en je hebt gelijk met je nieuwe moederbord 2 NVME sloten, en functionaliteit als resizable bar/Smart Access memory. Bord kan PCIe4.0 aan, maar de CPU die ik heb uitgezocht niet(heb die APU inmiddels vervangen door AMD R7 5800X3D, in combinatie met een Radeon 6800XT )
-Enige nadeel aan bovenstaande setup is dat AM4 feitelijk end of life is, en DDR4 zal ook verdwijnen, alsnog kun je voorlopig prima vooruit.

Maar elk spel moet je tunen op PC, wat ik in de afgelopen 35 jaar aan PC gaming langs heb zien komen liept iets pas echt soepel als je systeem 10x de recommended specs heeft.

Maar ben over de jaren ook arme student en starter geweest, met minder details kun je ook prima gamen. Als ik nu voor heel weinig geld iets zou moeten bouwen zou ik een oud workstation kopen, die zijn meestal al royaal voorzien in geheugen, een SSD erin hangen en de goedkoopste 8GB videokaart die ik kon vinden. Genoeg lui die dat op youtube de ronde laten passeren van Linus Tech Tips tot Tech Yes City en RandomgaminginHD
Deze "hype" komt van online fps spellen waar je in het voordeel bent bij hogere fps, wanneer je singleplayer speelt is 60-75fps nog steeds voldoende, vroeger de "DOS" tijd waren alleen maar singleplayer game,s met uitzondering van doom die je met een nullmodem kabel kon spelen maar dan nog was het lokaal.
Dank voor de uitleg.
Ik speel voornamelijk singleplayer games, dus een erg hoge fps kan mij gestolen worden.
"wanneer het na een keer spelen op de grote stapel met fantastisch mooie spellen terecht komt en nooit meer aangeraakt wordt dan is het gewoon een slechte game"

ik heb elden ring vanaf release niet meer aangeraakt, dit is dus volgens jou een slechte game?
even min als tientallen anderen trouwens. Tetris ligt ook op die stapel, is ook een kut game, zelda breath of the wild ook en mario oddessey ook.
Er is een reden waarom (bijvoorbeeld) Tetris nog steeds populair is.
Dat is natuurlijk heel persoonlijk. Zelf heb ik liever dat een spel wat meer diepgang heeft dan een simpele Skinner box. Tetris is nu precies een voorbeeld van zo'n Skinner box game: een hele simple gameplay loop: maak een regel vol en hij verdwijnt, en je krijgt een korte dopamine hit als beloning.

Geef mij maar een game met een goed verhaal erin, en dan vind ik de gameplay zelf veel minder belangrijk dan het verhaal. Goede gameplay zorgt dat ik een spel blijf spelen als ik 't eenmaal gestart heb, een goed verhaal zorgt dat ik een spel voor een 2e keer opstart (en 3e, 4e, etc.).
Het bevestigt maar weer dat een groot deel van de nieuwste GPUs best wel dead on arrival zijn. Nu kopen en over twee jaar weer upgraden of je Graphics flink terug schroeven. En dat voor een kaart van meer dan 500 euro.
Welke kaart? Heb je het dan specifiek over duurdere varianten van de 8 GB variant van de 4060 Ti? Naar mijn idee ben je dan best wel een beetje aan het overdrijven... De 4060 Ti adviesprijs zou 449 euro worden namelijk. Alles daarboven heeft meer dan 8 GB.

Ik vind het wel frappant dat mensen zulke compleet verschillende conclusies uit dit artikel kunnen halen. Exact de tegenovergestelde mening van de jouwe zie ik namelijk ook langskomen. Ik denk dat het ergens in het midden ligt... Ja meer geheugen is leuk, nee je kaart is niet gelijk low-end troep als je het met 8 GB moet doen.
Ik heb hier de laatste maanden gelezen dat mijn RTX3070 ook waardeloos is. En nu blijkt op 1440p, waar ik op speel, dat toch wel heel erg meevalt. Ik zou het zeker meenemen als ik nu een nieuwe kaart koop, maar tegelijk is overdrijven ook een vak imo.
Ik denk dat DOA doelbewust is.
Een kaart die 10 jaar mee gaat, of een kaart die na 2 jaar vervangen moet worden?
Overduidelijk wat het ideaalbeeld van de fabrikanten is.
Dat kan je als fabrikant alleen doen als je klanten honkvast zijn en niet gaan shoppen bij de concurrent om wat voor reden dan ook.

Het gros van 'kamp groen' zal ook gewoon weer gaan voor nVidia, maar als dat zo is raad ik echt aan de hoofdprijs te betalen en gewoon voor 16GB versie 4060 ti te gaan ipv 8GB, want dat zal de komende tijd de hamvraag worden: "welke van de twee kies ik"?

AMD heeft in dit geval gewoon een andere idee over hoe je vaste klanten bindt. Om meer winst te maken, verkopen zij kaarten die langer houdbaar zijn. Mes snijdt aan twee kanten, ze kopen daarom waarschijnlijk minder snel een nieuwe kaart, want de oude kan nog prima mee, maar het levert wel klanten op.
Denk dat het ook een strategie is om van een overproductie van chips af te komen door "relatief" "goedkope" kaarten op de markt te zetten en dan over 2 a 3 jaar weer nieuwe kaarten te laten kopen. Hoop dat nagenoeg niemand hierin mee gaat en Nvidia laat bloeden voor die ongein.
Het ligt er maar net aan hoe je je PC gebruikt, natuurlijk. Ik ben een 'casual gamer' en heb nu een kaart uit 2014 met 2 GB VRAM. Die werkt nog prima en de games die ik speel stellen geen hoge eisen aan de videokaart. Zóu ik willen upgraden, dan is een moderne GPU met 8 GB VRAM voor mij ruim voldoende ;)
Hoe weet je of de hoogste textures ook ingeladen worden met 8gb?
Ik neem aan dat je naast de snelheids gegevens ook van alle test screenshots bekeken hebt?
Het zou maar zo kunnen dat ultra textures op 12 gigabyte er anders uitzien dan op 8 gigabyte.
Dan ben je eigenlijk medium/high textures (8 gigabyte) met ultra (12+ gigabyte) aan het vergelijken.
Ik dacht ook dat hardware unboxed tot de conclusie was gekomen dat 8 gigabyte te weinig was voor kaarten die nu verkocht worden.
Bij de geteste games ben ik geen visuele verschillen tegengekomen tussen de kaarten op dezelfde settings. Als dat wel zo was had dat in koeienletters erbij gestaan ;)
Om die reden wel jammer dat je Hogwarts niet hebt kunnen testen. Bij dat spel is bekend dat dit op sommige punten (volgens mij het dorpje) duidelijk zichtbaar is.

Verder prima analyse!
Belangrijkere vraag: maakt het verschil of je het met het oog ziet of niet?

En de realistische conclusie indien het antwoord daarop de 'nee' zou zijn die ik verwacht:
dan zijn die ultra textures dus puur verspilling. Of een mix van game devs die pochen met specs enerzijds; met achterkamertjes handje-klap met hardwareboeren anderzijds om hun doosjes-schuiven op tenminste dezelfde snelheid door te kunnen laten gaan.
Er is een groot verschil tussen allocatie van VRAM en daadwerkelijk gebruiken van VRAM.

Bij allocatie "reserveer" je een brok geheugen - dat kan ingezet worden voor wat dan ook. Caching doeleinden vaak. Bij daadwerkelijk gebruik heb je het over textures die verwerkt worden en wat nog meer.

Linux ook; als je daar een relatief modern OS van draait "benut" het ook al het beschikbare geheugen, ook al gebruik je het niet, met als doeleinde de boel te cachen.

En zo hoort het ook; geheugen dat je niet gebruikt moet je gewoon inzetten.
Op zich goed dat dit eens uitgezocht is.
Maar toch vraag ik mij af.

Games waar texture detail erg tot zijn recht komt zijn 1st/3rd person rpg adventures. Langzamere gameplay, waarbij omgevingen er meehelpen bij de immersie. Dan maken die paar frames niet zoveel uit.

Anderszijds heb je de snelle race/fps games. Daar ga je toch niet even kijken hoe mooi gedetailleerd de staatstenen er uit zien. Daar kun je best af met mindere textures om zo een soepel ogend aantal fps te hebben.

Maar er zijn natuurlijk doelgroepen die en/en willen.
En dat maakt dus ook dat de conclusie is, zoals hij is. Zie hier in de comments ook alweer mensen zeggen: ja, maar dan kun je de game dus niet maximaal draaien, dus VRAM te kort. Sommige mensen hoeven niet alles maximaal te draaien, ook niet bij nieuwe aanschaf. Is allemaal onderdeel van budget/wat je wilt.
De conclusie die ik maak is vooral op welke resolutie je wil spelen. 8 gig is eigenlijk ruim voldoende op 1080p en indien je bvb op een laptop gamed of een budget hebt die dit verplicht (niet iedereen verdient veel geld)is dit nog voor jaren voldoende. (Ik game op een simpele 3050(4gig) laptop versie) alles werkt mits aanpassen settings. Dus met 8 gig zou je zeker goed moeten zitten .
Ik heb de indruk dat de conclusie van tweakers slaat op high end gaming en niet op allround gaming.
Mvg
High-end gaming komt altijd eerder in de problemen dan mid-end gaming. Een 3070 ti op 1440p (en soms 1080p) ultra settings gaat gewoon stuk door het gebrek aan VRAM in een paar games. Dat is hartstikke zonde want met 3 tientjes aan VRAM erbij is het een perfecte kaart.
Precies, zeker als je met DLSS of FSR nog een boel kan doen om de performance te verbeteren; om er dan achter te komen dat je kaart niet meer kan omdat hij te weinig geheugen heeft.
Jammer dat The Last of Us vermeden is als test. Daaruit blijkt dat op hogere resolutie VRAM heel belangrijk is. Die game moet in elke VRAM test meegenomen worden naar mijn mening. Je wilt toch minimaal 12GB hebben voor die game op hogere resolutie maar liever nog meer en dit gaan we steeds meer zien vermoed ik

[Reactie gewijzigd door NosferatuX op 23 mei 2023 10:35]

Jammer dat The Last of Us vermeden is als test. Daaruit blijkt dat op hogere resolutie VRAM heel belangrijk is. Die game moet in elke VRAM test meegenomen worden naar mijn mening. Je wilt toch minimaal 12GB hebben voor die game op hogere resolutie maar liever nog meer en dit gaan we steeds meer zien vermoed ik
Maar dat is ook echt een spel dat het vooral van zijn looks moet hebben. Dus hoge kwaliteit textures, wat zich vertaald in een hoger gebruik van vram.

Daarnaast heb je een grote doelgroep die voor FPS gaming gaat, daar is VRAM/Resolutie dan weer minder belangrijk.
Ik vraag mij af of dat echt zo is. Er is ook helemaal geen echte FPS meegenomen in de games.

AMD laat namelijk niks heel van Nvidia in die game behalve de 4090. De 7900 XTX haalt op 4k ultra zo een 40 tot 50 fps meer dan de 4080. Dat is 24GB tegenover 16GB.
Nvidia haalt AMD pas in met de 4090, die ook 24GB heeft.

Alle kaarten met meer VRAM en soort gelijke core performance presteren beter in COD.

Ik vind, nu ik er over na denk, de selectie geteste games te matig om een goed beeld te geven.

[Reactie gewijzigd door NosferatuX op 23 mei 2023 18:05]

Ah, ik zat meer met Steam charts in mijn hoofd. Als je de top 5 erbij pakt zie je competieve spellen. Nr 1 is bijv. CS GO, waarbij de meest populaire resolutie full hd is.
1 2 3 ... 6


Om te kunnen reageren moet je ingelogd zijn

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee