'Laptopversies Nvidia RTX 50-gpu's krijgen 8, 12 of 16GB aan GDDR7-geheugen'

De geheugenconfiguraties van Nvidia's mobiele GeForce RTX 50-serie zijn naar verluidt online verschenen. In een gelekte roadmap worden zes varianten van de laptop-gpu's genoemd, met 8, 12 en 16GB aan GDDR7-geheugen.

De roadmap is volgens beveiligingsonderzoeker Dominic Alvieri afkomstig van een hack bij Clevo, een Taiwanese oem die laptops produceert, ontdekte Videocardz. Daarin staan zes mobiele versies van GeForce RTX 50-gpu's beschreven, die volgens het document in 2025 moeten verschijnen. Drie daarvan, die GN22-X6, GN22-X4 en GN22-X2 genoemd worden, zouden 8GB aan GDDR7-vram krijgen. De kaart met de codenaam GN22-X7 krijgt naar verluidt 12GB aan GDDR7-geheugen, terwijl de GN22-X11 en GN22-X9 volgens de roadmap met 16GB aan vram worden uitgerust.

De 16GB-modellen betreffen mogelijk de mobiele RTX 5090 en 5080. De mobiele RTX 4080 had 12GB aan GDDR6-vram. Het is echter ook mogelijk dat de GN22-X7-gpu verwijst naar de 5080. Verder is het opmerkelijk dat er geen gpu wordt genoemd met 6GB aan geheugen, terwijl de mobiele RTX 4050 wel nog met dat aantal gigabyte aan vram werd uitgerust.

Uit de gelekte roadmap blijkt tot slot dat de mobiele 6GB-varianten van de GeForce RTX 4050 en GeForce RTX 3050 in 2025 in productie blijven. Dat zou ook nog enige tijd gelden voor de RTX 2050, al wordt genoemd dat die kaart op den duur vervangen wordt door de 4GB-versie van de RTX 3050.

Uitgelekte roadmap geheugenconfiguraties mobiele Nvidia RTX 50-serie

Door Kevin Krikhaar

Redacteur

09-06-2024 • 09:50

208

Lees meer

Reacties (208)

208
205
81
3
0
107

Sorteer op:

Weergave:

Eigenlijk als je de meest krachtige versie GPU neemt, neem even de RTX 5070 5080 of 5090 dan moet je gewoon minimaal 16GDDR hebben. Veel games werken vanaf 12gb pas enigsinds soepel.

Ik snap van Nvidia ook niet helemaal waarom 16gb de max is?

[Reactie gewijzigd door Luchtbakker op 22 juli 2024 16:10]

Over welke games hebben we het dan? Want ik ken nog game die mijn rx 6600(8GB) niet prettig kan draaien op 1080p uiteraard moet je soms wat aanpassingen doen maar dat heeft ook met de kracht van de videokaart te maken.
op 1080p
Hogere resoluties hebben meer VRAM nodig. @Luchtbakker heeft het over een RTX 5070 en hoger. Als je die koopt voor 1080p gaming, dan steek je geld in de fik.

Het is ook niet goed te zien in alle games. Als je VRAM te kort komt kunnen er twee dingen gebeuren:
- je fps zakt
- de game wisselt naar een lagere resolutie texture om VRAM te besparen

Dus dan denk jij als gamer "goh, ik heb prima fps!" maar op de achtergrond is de een of andere safety van de developer hemel en aarde aan het bewegen met textures en assets swappen om maar te zorgen dat je af kunt met 8GB.

leesvoer:
https://www.techspot.com/article/2661-vram-8gb-vs-16gb/
https://www.techspot.com/...-nvidia-rtx-4060-ti-16gb/

Ik ben het verder niet oneens met je dat 16GB voldoende is voor een high end gaming laptop. Maar nu gaan beweren dat je met 8GB nooit tegen de lamp loopt is overdreven. Dat komt omdat jij op 1080p gamet, een resolutie die met de snelheid van hedendaagse midrange componenten eigenlijk gewoon tot het verleden/budget segment behoort. Niets mis met op 1080p gamen en zeker goed voor de portemonnee, maar het als indicatie gebruiken van wat je nodig hebt is niet meer aan de orde.

[Reactie gewijzigd door youridv1 op 22 juli 2024 16:10]

ik begrijp dat hogere resolutie meer vram wil hebben, maar we hebben het ook over een etx 5070 mobile versie. die met aanpassingen nog steeds soepel kunnen lopen. mogelijk komen die in 1000-1500 laptops. en een 1080p 120hz scherm. is een 8gb vram dan echt een rare keuze? dat betwijfel ik. want als we de gereugten mogen geloven(we geloven dit gerucht immers ook) dan heeft de desktop versie wel gewoon 12gb.

en wel grappig. eerst zijn devs te lui vandaag de dag om te optimaliseren want dsll etc lost het wel op. en aan de andere kant zijn devs dus blijkbaar hemel en waarde aan het verschuiven om met 8gb weg te komen. terwijl je als gamer zelf ook wat aanpassingen kan doen ook op hogere resolutie zodat je prima met 8gb vram weg kan komen.
eerst zijn devs te lui vandaag de dag om te optimaliseren want dsll etc lost het wel op. en aan de andere kant zijn devs dus blijkbaar hemel en waarde aan het verschuiven om met 8gb weg te komen.
Je legt me nu woorden in de mond door net te doen alsof die “devs te lui” uitspraak van mij komt waardoor je insinueert dat ik mezelf tegen spreek. Een beetje kinderachtig. Zoek de hele thread maar af, ik beweer nergens dat de devs te lui zijn. ;)

Ik vind 8GB dan nog steeds een rare keuze ja. Als ik een laptop koop met een XX70 klasse videokaart erin dan verwacht ik niet met games van 1-2 jaar terug af en toe al settings omlaag te moeten zetten om wille van VRAM. Hogwarts legacy, Control, The last of us, moet allemaal gewoon probleemloos draaien zonder omkijken. Prima met een 60 kaart, niet met een 70 kaart.

Het is gewoon gierigheid van de fabrikant. Prima dat jij je blijkbaar geroepen voelt om Nvidia’s gierigheid te verdedigen. Ik heb die neiging wat minder.

AMD’s RX 6800M van jaren terug had ook al gewoon 16GB. Als Nvidia dan anno 2025 (gok ik) met 8 aan komt zetten, verdienen ze alle kritiek die ze krijgen.

[Reactie gewijzigd door youridv1 op 22 juli 2024 16:10]

Ik vind het geen rare keuze, waarom meer geheugen leveren en een bredere / duurdere bus voor meer bandbreedte toepassen dan strikt noodzakelijk vanuit commercieel perspectief?

Nvidia komt er mee weg op de absolute ondergrens te gaan zitten qua VRAM specificaties, juist omdat er hele volkstammen zijn die er of niet naar omkijken, of zowaar op de barricades springen om het gebrek aan vooruitgang binnen het segment te verdedigen.

Het is een heel vreemde gewaarwording om consumenten dergelijke anti-competetief gedrag te zien verdedigen, de gamer in mij kan er niet bij. De interne aandeelhouder dan natuurlijk weer wel.
Ja als je op 640x480 speelt kan je ook nog met een GTX 580 uit de voeten, wat is je punt precies? Het zijn nieuwe kaarten en 1080p is ook op dit moment al niet echt meer state-of-the-art ofzo. Zelfs de consoles gaan voor 4K-gaming (hoewel dat uiteraard niet echt mogelijk is), maar van nieuwe grafische kaarten (die een fortuin kosten) mag je toch wel iets meer verwachten.
Mijn punt is dat ik nog geen games ben tegen gekomen die minimaal 12 gb nodig hebben. En of mobiele versie van 5070 genoeg krijg heeft om die 12gb volledige te benutten betwijfel ik ook.
Hogere resoluties hebben meer VRAM nodig. Logisch dat jij met 1080p het dus niet tegen gekomen ben.

Ik zelf heb een 4K 144Hz monitor. En ik heb genoeg games waarbij ik wel baat heb met meer VRAM. Op 1080p zal dat niet het geval zijn.

Als jij bij game “C” genoeg hebt aan 8GB VRAM heb ik er met 4K pas genoeg bij met bijvoorbeeld 12GB of 16GB VRAM.
Maar dan loopt alleen de 5070 tegen de limieten van hogere resolutie aan. Dan is de 5070 gewoon niet geschikt voor 1440p+ net zoals zoveel kaarten vroeger minder vram hadden dan duurdere kaarten. In mijn ogen is een 5070 8gb nog prima. Want ze begonnen ook al bij de 3070 te zeuren dat hij maar 8gb nodig had.

Dus de games werken prima op 8gb alleen hogere resoluties werken minder. Net zoals de rx 6600 niet leent voor hogere resolutie.
Het komt een beetje over dat je alleen aan 'nu' denk, je zou ook moeten verwachten dat we vrij lang met z'n kaart kan gamen.

8 GB kan zelfs te weinig zijn voor 1080P, toegegeven dat ligt aan het spel zelf waarschijnlijk maar dit gaan we wel meer zien als we verder naar de toekomst gaan.

Voor de prijs van een 4070 zou je wel moeten kunnen verwachten dat je een degelijk GPU hebt, en lang kan gebruiken.
Ik denk niet alleen aan nu de reactie van lichtbakken ging over dat de veel games pas soepel draaien met 12gb. Niet over mogelijke toekomst. Want in 2020 waren er ook genoeg die riepen dat de 3070 met 8gb ram te weinig was zeker met zicht op de toekomst maar 4 jaar laten draaien ze games nog steeds prima.
Tegenwoordig heb je die vram niet enkel meer nodig voor games, maar ook om AI lokaal op je laptop te kunnen draaien. En dan is 12Gb gewoon te weinig.

AI's dat ik draai: conference call noise remover, autozoom/autoframe webcam, LLama 3, etc..

Met de nieuwe windows versie zal iedereen ook phi-3 draaien ( medium en vision) (copilot button)

Dus ja 12GB is eigenlijk veel te weinig als je ziet hoe technologie evolueerd. vram gaat vaker gebruikt worden voor AI , dan voor games.

Als je naar games kijkt en de resoluties dat we tegenwoordig hebben met onze moderne monitors dan is het ook al duidelijk dat ook daar meer vram nodig is. Ik merkte zelf op dat er een groot verschil was in vram bij 144Hz versus 75hz (iets dat alle gamers absoluut willen aanzetten)
Dat zou best kunnen maar de discussies is al zo uitgelopen. Het begon namelijk met de statement dat er veel games zijn die pas bij 12gb soepel draaien en tot nu toe heb ik nog geen lijst gekregen of überhaupt 1 game die niet normaal draait met 8gb vram.

En 144hz meer vram als 75hz? Heb je daar een bron van?
"Bron" ?

Ik heb het gewoon zelf uitgeprobeerd.

Ik merkte op dat vij 144hz ik meer vram nodig had en meer GPU % verbruikte.

Op mijn 8k scherm zat ik aan 100% in 144Hz, terwijl 75hz maar 50% gpu load veroorzaakte.
Dat gebeurt vooral tijdens momenten dat er veel beweegde op het scherm.
Op zich is het niet onlogisch, aangezien je aan 144hz, 144 keer per second het scherm moet vernieuwen met nieuwe informatie. versus 75 keer per second.
Vram is natuurlijk iets anders als gpu load.....
De twee zijn nauw verbonden, de gpu moet snel toegang hebben tot snelle intermediate storage (vooral bij ai modellen)
als ik in al mijn games de FPS cap op een bepaalt punt doet het niets met de mem. maar alles met mijn gpu load.
Ik spreek ook niet over games maar over ai (wat in Windows standaard gaat aan staan)

[Reactie gewijzigd door sebastienbo op 22 juli 2024 16:10]

ja..... maar elke gamer wil het lieft natieve spelen zonder AI poespas en dan maakr 144hz geen verschil met 30/60/75/360 etc
ja..... maar elke gamer wil het lieft natieve spelen zonder AI poespas en dan maakr 144hz geen verschil met 30/60/75/360 etc
Wat voor onzin kraam jij toch uit.
Jij beweerd dat je gpu niet harder moet werken als je de framerate verhoogd van 75 naar 144hz?
Want dat is exact wat er gebeurd als je het scherm op hogere refresh rate zet. Je kan dat ook zien als je een powermeter aansluit op je pc: je verbruik zal een stuk hoger zijn.
nee jij haalt GPU load ineens naar een discussie over VRAM verbruik....
nee jij haalt GPU load ineens naar een discussie over VRAM verbruik....
Nee het artikel gaat over gpu specificaties. Vram is daar een essentieel onderdeel van.
maar deze discussie ging over vram in gmaes.

het artikel(iets totaal anders) gaat over deze gpu's in zijn geheel.
dat is natuurlijk alleen het geval wanneer je met vsync on speelt, zonder vsync maakt het niet uit of je 75hz of 144hz draait
dat is natuurlijk alleen het geval wanneer je met vsync on speelt, zonder vsync maakt het niet uit of je 75hz of 144hz draait
Ook die bewering klopt niet.

Vsync heeft enkel voordeel als je beeld stil staat. De gpu kijkt of de vorige frame hetzelfde is als de huidige. Als dat het geval is dan stuurt hij die frame niet naar je monitor. Je wint dus frames op momenten dat er niet veel beweegd. Maar in de meeste games is er altijd iets dat beweegd : bijvoorbeeld een vlam van een fakkel. Of straat verrichting dat een beetje flikkert, of een wolk dat verplaatst, of een andere speler dat zichtbaar beweegd.
nee hoor, vsync helpt juist als je veel meer frame haalt dan dat je beeldscherm hz is, daardoor krijg je namelijk tearing. Mocht je nou een lager hz aantal hebben met een vsync on dan heeft je cpu en gpu minder te doen als hij in deze game bijvoorbeeld 240fps haalt. In dit geval hoef hij maar 75frames per seconde te renderen inplaats van 240. Ga je echter zonder vsync spelen dan kan je beeldscherm nog steeds maar 75 beelden per seconden weergeven maar toch gaat je pc 240frames per seconde generen.
dat is natuurlijk alleen het geval wanneer je met vsync on speelt, zonder vsync maakt het niet uit of je 75hz of 144hz draait
Dat klopt ook niet. Refresh rate is nauw gerelateerd aan framerate in je games.

Je kan dat eenvoudig zien dat de gpu harder moet werken bij 144hz versus 75hz door een powermeter aan te sluiten. Je gpu moet veel meer frames verwerken
loki heeft genoeg berichten gemist... het is inmiddels 2024, en er is juist inmiddels bewezen dat de 3070 en 3080 voor veel mense inmiddels een semi miskoop is vanwege de vram.
En jij bent geloof ik het aller eerste bericht gemist want ik mis nog steeds die veel games :)

En dit zijden ze ook over de rx 580 tussen 4 en 8gb. Maar het verschil is er nu nog niet te zien...

En dit gaat om een mobiele variant die nog een slag zwakker is als de normale 5070....

[Reactie gewijzigd door loki504 op 22 juli 2024 16:10]

ok ok ...ze gaan een 5 serie met 4/6 gb op de markt brengen........wat zeg jij dan??? ga je dan ook dat verdedigen?
Ooh de we gaan het extreem verband zoeken om wat te bewijzen precies? Dat ik een Nvidia fanboy ben kijk eerst eens waar deze hele discussie mee begonnen is en geef mij die lijst dan dan zal ik antwoorden of ik vandaag de dag 4 en 6gb zal verdedigen deal?
Deze onzin is al zo oud als de weg van Keulen.

Na een +/-10 jaar ga je verder met uitbreiden van geheugen.

Nvidia is is heer en meester in gpu nu....het is geen vooruitgang maar achteruitgang om kaarten blijven te maken met 8 gb.

Maar goed jij bent een voorstander.
En dat fanboy bullshit is voor kinderen.....heb zelf ook een Nvidia kaart.

P.s de kaarten zijn al peperduur dus voor die prijs moet er gewoon meer geheugen op.

[Reactie gewijzigd door noway op 22 juli 2024 16:10]

Jeetje ik zit hier met open mond naar te kijken. Hoever moet ik nog scrollen om deze lijst met games te zien?! De technische kennis van sommige is schrikbarend zeg..
En toch komt die lijst er niet...
En dit was ook met de rx 580 4gb vs 8 gb zo. En nu 7 jaar na dato doet de 4gb niet onder van de 8gb. En na wat aanpassingen is bv re4 prima te spelen op 1440p ultra settings.. en dan gaat dit nog om een mobiele kaart....

Ja dat vind ik mensen zeuren om het zeuren want volgens de geruchten krijgt de desktop kaart wel 12gb maar daar hoor je dan weer niemand om....
Ik vraag me ook af wat die lui doen om aan zoveel VRAM te willen komen. Een beetje zwaar spel monitor ik altijd eerst ff met Afterburner om te kijken of ik ook aan limieten zit. Ik heb werkelijk nog nooit een game meer dan 6gb VRAM zien gebruiken op 1440P. Idd, men wil klagen om het klagen...
Klopt ik had vanochtend een video te kijken van iemanf die de 3080 8gb vs modded 16gb testen een op 1440p ultra in re4 bv zag je inderdaad dat de 0.1% low inderdaad lag was. Maar met een vinkje inname was het probleem opgelost. En ook bij een paar andere zij hij dat een paar settings hoger en lager zetten enorm hielp bij vram gebruik.

En ik zie dit als een echte 1080p 120fps/1440p 60fps met wat tweaking. En dan is 8gb gddr7 vast een zeker een stuk goedkoper als 12gb. En als ze in de 1000-1500 euro laptops komen denk dat het een prima gpu is.
Het lijkt hier vooral emotionele cope voor de gebruikers met 8GB VRAM. Want het is gewoon bewezen dat bepaalde games op 1440p met ultra settings door VRAM beperkingen stotteren.

Een nieuwe kaart koop je op het oog dat je er enkele jaren verder mee kan. Zeker in een laptop waar upgraden geen optie is, is het zonde dat er geen enkele toekomstbestendigheid is. Wat Nvidia hier doet is m.i. niets anders dan planned obsolescence.
Das Cap. Ik heb nog geen game voorbij de 6gb gekregen op 1440p.
Zou wel eens willen weten welke games dit zouden moeten zijn. Lijkt me een optimalisatie issue.

[Reactie gewijzigd door JacOwns7 op 22 juli 2024 16:10]

Het lijkt hier vooral emotionele cope voor de gebruikers met 8GB VRAM. Want het is gewoon bewezen dat bepaalde games op 1440p met ultra settings door VRAM beperkingen stotteren.

Een nieuwe kaart koop je op het oog dat je er enkele jaren verder mee kan. Zeker in een laptop waar upgraden geen optie is, is het zonde dat er geen enkele toekomstbestendigheid is. Wat Nvidia hier doet is m.i. niets anders dan planned obsolescence.
Eindelijk een zinvol perspectief.
Dat men de laptopchips minder krachtig maakt dan de gelijknamige desktopversies is al sinds jaar en dag gebruikelijk. Vanwege het verbruik valt daar ook nog wel wat voor te zeggen.

Maar het gat wordt hier wel heel erg opgerekt. Van een 5070 zou ik verwachten dat ik hier gewoon de huidige games op een extern 1440p UW scherm kan hangen en daar fatsoenlijk op de hoogste settings mee kan spelen. En dat geldt dan voor alle op de markt zijnde games. Dan is 8GB gewoon te weinig en 12GB een minimum, aangezien je op de desktop reeds 16GB zou verwachten is dat dus eigenlijk al een besparing.

Planned obsolescence en een kunstmatige upselling inderdaad.
In veel games is de 5070 dan al niet genoeg meer voor 1440p. Alleen 1080p.

Ik zie de xx70 varianten altijd als de 1440p kaart. Waarbij xx60 varianten tegenwoordig voor 1080p is.
Ik begrijp dan ook niet waarom nvidia dit als een generation increase zou verkopen met zo een zwakke specs. Ik had verwacht dat er misschien ook een NPU in zou zitten, maar nee hoor...
Ik word beetje moe van jouw en dat jij ook +1 krijgt op meerdere post { de niet juiste of verdraaide woorden } van jouw.......hier een post van tweakers zelf uit 2023 { als je dit ook negatief reageert } delete je profiel aub.....dan liegt tweakers ook of niet? of niet de juiste bronnen of info?

8GB videogeheugen: op het randje.

De 8GB-kaarten voldoen op 1080p en 1440p in de tests van dit artikel nog, maar op deze modellen wordt al regelmatig meer gedeeld vram ingeschakeld dan we bij de kaarten met meer vram hebben gezien. Vandaag de dag een nieuwe videokaart met 8GB kopen zit dus eigenlijk al op het randje en als de ontwikkeling van geheugengebruik in nieuwe games op dezelfde manier doorzet als het de afgelopen jaren heeft gedaan, zul je steeds vaker de texture quality moeten terugschroeven om de nieuwe games vloeiend te kunnen spelen. Op 2160p is hetzelfde van toepassing en vertoonden de 10GB-kaarten ook wat van deze verschijnselen. Op die resolutie heb je momenteel dus liever 12GB of meer.

Duidelijk is in ieder geval dat de texture quality verhogen een 'goedkope' manier is om de beeldkwaliteit in games te vergroten zonder daarbij veel aan prestaties in te leveren, tenminste, als je genoeg vram hebt. Is dat niet het geval, dan merk je dat snel genoeg.

er moet gewoon meer gb op de kaarten heel simpel.
We hebben het over een 5070 mobiele kaart en dan kom jij aan met 4k.... Ja daar zal deze niet geschikt boor zijn voor sommige games alles op max. Net zoals mij. Rx 6600 niet geschikt is voor 4k gaming. Maar het zorgt er mogelijk wel voor dat de kaart enigsinds betaalbaar blijft voor fabrikanten.
En zoals het artikel al aan geeft prima voor 1080p en 1440p meer moet je in mijn opinie niet verwachten. Dus misschien moet je gewoon accepten dat er een deel van mijn verhaal gewoon klopt en alle games prima op 8gb vram kunnen draaien als je een paar aanpassingen doen. En waarom zou ik mijn account verwijderen? 8)7 je kan zelf ook gewoon een 0 geven en veder gaan met je leven.
jij kan echt niet lezen!!! ik heb nergens over de 4k
Ten 2de staat er duidelijk { 8GB videogeheugen: op het randje. }
jij bent de gene ook die hier loopt te verkondigen dat 8 gb goed genoeg is of niet?
En wij vertellen al dik 2 j dat 8gb aan de lage kant is.

En in een laptop zit geen videkaart??? is een pot nat
Dat op het randje werd ook vertel met rx 580 4gb en 8gb en wat blijkt al die mensen zaten er naast. Zolang xonsoles met 8 en 16gb shared ram/vram zitten(ex OS) zal dat niet snel veranderen. En jij hebt het constant over 4k. En zegen dat ik niet dan lezen maar je zegt/vraagt wel en in een laptop zit geen videokaart? geeft al aan waar je op uit bent... ik laat het hier bij.

[Reactie gewijzigd door loki504 op 22 juli 2024 16:10]

Jammer dat ik jouw niet kan blokken.
Vertel mij maar eens wie een kreupele kaart koopt om 4k te gamen? die 4k gamed heeft 4080 of 4090.
Ik vertel jouw net dat ik het niet heb over 4k!! kan jij niet lezen?
jij leest alleen maar wat jij wilt lezen.

En die post was van 2023 dat het duidelijk werd dat 8gb krap word { ook voor 1080/1440p } en in 2022 hadden we het hier ook al over.

Nvdia is gewoon karig heel simpel

pc is krachtiger dan een console.
als zij dat gaan doen kost de console ook geen 500 euro he

[Reactie gewijzigd door noway op 22 juli 2024 16:10]

Zelfde hier, ik game al sinds 2018 in 4K met RTX2080 Ti 11G ..

Was al van in het begin op het randje

Met een nieuwe build wil ik daarvoor minstens 20GB VRAM en niet even naar 16GB VRAM gaan met een nieuwe build, dit lijkt dan weer even een voorlopige oplossing voor de volgende jaren.

En denk wel dat we uiteindelijk RTX5080's gaan zien komen met 20GB tot 24GB VRAM voor desktop.

Zien we nu ook met die RTX4070 waar 16GB VRAM versies van zijn gekomen
Waarom zoveel vram?
.. in 4K ..

Als die RTX2080 Ti met 11GB VRAM nu al op zijn einde zit om in 4K te gamen bij sommige games wordt het tijd voor een nieuwe build .. maar dan toch niet even naar 16GB VRAM springen om over 2 of 3 jaar weer met hetzelfde issue te zitten.
Het is niet dat ik die RTX2080Ti kan meenemen, want die zit nu al op z'n eind (is al van 2018) en eentje met 16GB VRAM gaat het dus ook niet worden. 20GB VRAM tot 24GB VRAM zal wel voldoende zijn om het dan de volgende 5-6 jaar uit te zingen in 4K .. :)

Als het nu niet met die RTX50 series komt, dan wel het jaar daarop met die RTX60 series
"op zijn einde?"
Dragons dogma 2 & Helldivers 2, 2 nieuw gereleaste games en due komen in 4k ultra niet in de buurt van 11gb VRAM.
Voor Hellblade II heb je nu al

12GB VRAM nodig ..

En voor Cyberpunk 2077 : Phantom Liberty ook trouwens ..

als je dan nog eens daarbij Raytracing gebruikt heb je al 16GB VRAM nodig.


.

[Reactie gewijzigd door MPIU8686 op 22 juli 2024 16:10]

Ja .. Youtube .. :D

Hebben ook nog wel andere zaken met te maken en dat weet je best.

Heb de games en speel ze, ze spelen maar soms .. fps val.

En dat is niet denken, als het tegen de 11GB VRAM hier aan zit te botsen en je fps valt is het een feit.

Nu zeker met die uitbreiding van Cyberpunk 2077 : Phantom Liberty

En een RTX4070 super is bijna 40% sneller met GDDR6X dan een
RTX2080 Ti 11G met GDDR6


;)

Niet voor niks dat ze die RTX4080 en minimaal 12GB VRAM voor 4K als minimaal benodigd beschouwen
Wat maakt youtube uit? Denk je dat dat spel anders is als een youtuber dat speelt of zo?

Het is gewoon een feit dat die games niet zoveel vram nodig hebben, als je fps inzakt zal dat ergens anders aan liggen.
Ja, tijd voor een nieuwe build met minimaal 64GB DDR5RAM en 20GB tot 24GB VRAM GDDR7 begin volgend jaar .. ;)
Daar zullen hardware verkopers je vast dankbaar voor zijn. Gewoon lekker ieder jaar geld tegen de muur smijten en zeggen kijk het werkt.....
1080 naar 4090 en die zal evenlang meegaan.
Ieder jaar .. ?

zoals ik zei .. mijn build is nu van 2018 met een RTX2080 Ti
Volgend jaar zijn we 2025 .. dat is 7 jaar ;)

mijn baas is de verkoper van hardware, niet dat ik daar alles ga kopen natuurlijk .. :D


.
Sterker nog, de recording software of hardware vreet ook vast nog wel wat CPU-cycles om dat te capturen ;) dus als je Youtube-streams kijkt is dat nog de meest negatieve vorm. Zónder streaming/capturing zul je minder geheugen gebruiken vermoed ik zo.
Maar de benchmarks worden verder wel op een cleane PC gedraaid terwijl er in realiteit vaak support software voor je keyboard, muis en headset draaien en je chrome hebt open staan met een game guide op je 2e monitor.
Velen gebruiken gewoon een externe capture met een overlay .. :)


.
En tóch kost ook dat CPU-cycles (neem ik even aan tenminste). Ook externe hardware zal aangestuurd moeten worden. En alles is 'extra'.

(Of, en dat is een oprechte vraag, is dat zó minimaal dat het vergelijkbaar is met de vraag of een volle harddisk meer weegt dan een lege harddisk??)

[Reactie gewijzigd door DigitalExorcist op 22 juli 2024 16:10]

.. :)

Met een overkill CPU en genoeg RAM op een kwaliteitsmobo kun je zoveel externe hardware aansturen als je wilt zonder dat dit je GPU beïnvloed.


.. ;)


.
En Hogwarts Legacy is een oudere game en die stort er bij in. En zo zijn er nog een paar.

Helldivers 2 is qua techniek ook niet per sé een hoogvlieger. Ik vind het een prachtige game, maar er wordt niks gedaan qua raytracing, een VRAM etende feature, noch qua superhoge resolutie textures.

DD2 hikt tegen de 8 GB aan, wat wederom juist het punt bevestigt dat het meegeven van 8GB op een xx70 GPU toch wel erg karig is.

Natuurlijk kun je de texture quality terugschroeven, maar afgezien van dat dat in de regel een van de settings is met de meest merkbare achteruitgang qua beeldkwaliteit, is dat werkelijk wat je verwacht bij een hagelnieuwe laptop met state of the art 5070 videochip?
Niet juist:

https://www.techpowerup.c...-founders-edition/21.html

4060 8gb heeft evenveel FPS als de 16gb versie omdat de GPU daar de bottleneck is niet de VRAM.

3080 10gb doet het beter dan de gelijkaardige amd kaart met 16gb.


Nogmaals dit is MOBILE, die GPU is vergelijkbaar met een 4060, 16gb daarop is grotendeels nutteloos.
En de textures op een 2k 14inch scherm terugschroeven zal je echt amper tot niet merken(moest dat nodig zijn, wat in de meeste gevallen niet zal zijn)
Klopt. Die game heeft dan ook een patch gekregen waardoor de framerate niet meer wordt getorpedeerd door te weinig VRAM, maar waar men simpelweg grafische issues gepresenteerd krijgt. Tenzij men dát inmiddels gefixt heeft natuurlijk.

Nogmaals, dat is slechts één voorbeeld. Graag het een en ander in breder perspectief stellen.

Maar, als je daar dan toch op in wilt zoomen: https://www.techspot.com/...a-geforce-rtx-4070-super/
Unfortunately, the 4070 Super falls behind the 7800 XT at 4K, averaging 47 fps and making it 8% slower. Oddly, the 4070 Super was just 4% faster than the standard 4070 here, though it was also just 2% slower than the 4070 Ti, suggesting that VRAM capacity is a limiting factor for these 4070 series products.
Dan heb je het dus over een game die inmiddels al een paar jaar oud is.

Dat de 6800 serie met 12GB af had gekund, ja, dat klopt. Het probleem is dat men dan ook op bandbreedte had moeten beknibbelen. Want je gaat dan van een 256bit bus naar 192bit. 8GB op kaarten van dat niveau is natuurlijk een no-go.

Anyway, het gaat nu over de sub-top chips van Nvidia, een generatie later dan de 4000 serie, op een apparaat wat in de regel langer meegaat dan een desktop chip. Dan is 8GB gewoon schraal. Voor mij zou het reden zijn om dus meteen naar de xx80 serie te kijken, maar vooral dus ook om te kijken wat de concurrentie biedt bij dat prijspunt.

offtopic:
Niet dat het mij dus wat uitmaakt dat Nvidia hier schraapt, ik zie een verdere stijging van de waarde van m'n aandelen wel tegemoet, mede mogelijk gemaakt door degenen die niet al te hoge eisen hebben aan hun hardware, zolang het juist logo maar op de box prijkt. ;)
Nogmaals, dat is slechts één voorbeeld. Graag het een en ander in breder perspectief stellen.
Dat doe ik juist: zelfs in de desktop (nogmaals dit gaat over mobile die bakken trager zijn en dus NIET vergelijkbaar met desktop gpu's) is 8gb of 12gb voldoende voor zowat alle games.

Je kan dat zelf ook makkelijk zien :

https://www.techpowerup.c...-founders-edition/32.html

4070 super gemiddeld vs 6900xt TI met 16GB vram :
1080p : -6%
4k:-4% verschil. Dat is dus 2% verschil met 16GB vram.

HOe lager je gaat in kaarten hoe minder dat verschil speelt want hoe meer de GPU de bottleneck word.
Anyway, het gaat nu over de sub-top chips van Nvidia, een generatie later dan de 4000 serie, op een apparaat wat in de regel langer meegaat dan een desktop chip. Dan is 8GB gewoon schraal. Voor mij zou het reden zijn om dus meteen naar de xx80 serie te kijken, maar vooral dus ook om te kijken wat de concurrentie biedt bij dat prijspunt.
Neen want dit gaat over rpestaties die ergens bij een 4060 / 4060ti gaan liggen en daar is amper verschil tussen 8 en 16GB zelfs op 4k:

https://www.techpowerup.c...rtx-4060-ti-16-gb/30.html

En dan verschil bij 4k is een paar fps en zit je al ferm onder de 60 waardoor je dus toch of dlss moet gebruiken (minder vram gebruik dan) of settings naar beneden halen (meestal ook minder vram).
Je hebt een zekere hoeveelheid geheugen nodig voor elementaire zaken als textures, waar de performance winst nihiel is tussen low en ultra, tenzij je je VRAM buffer overschreidt.

Daar is een beetje extra dus juist fijn, wederom, juist omdat je bij 12GB dus aan een 192bit bus zit, wat dus ook weer een beetje extra prestaties met zich meebrengt vanwege de grotere geheugenbandbreedte.

Dat met de voetnoot dat ook die bandbreedte overbemeten kan zijn (zie HBM kaarten van AMD) voor games, maar een 128 bit bus is dus wel vaak een behoorlijk dempende factor op de algemene prestaties en ook niet het xx70 waardig. En ik denk dat

Wees vrij het voor jezelf alsnog te rechtvaardigen, een ieder moet immers kopen wat hij of zij wil. Maar anno 2025 is het aan de schrale kant, voor mij reden om een segment hoger te kijken, wanneer je je laptop echt als gaming laptop in wilt zetten voor iets anders dan competetieve games / moba's. Of bij de concurrentie.
3e keer: gaat hier over mobile, de 4070 mobile heeft een 128 bit bus.
4080 heeft 192, kan dat de 5070 192 bit bus krijgt maar twijfelachtig denk ik.

Dat kost een pak meer, meer verbuik en voor amper betere prestaties.
Heb de databank er maar even bijgepakt, voor de duidelijkheid :)
https://www.techpowerup.c...0Lovelace&sort=generation

De 5070 zal geen 192 bit bus meekrijgen, aangezien je dan op een geheugenvolume van 12GB uit zult komen (of 6GB). De bus wordt bepaald door het aantal geheugenchips, vermenigvuldigd met de breedte van de individuele chips.

Vandaar dat je ook altijd zag dat als er een keuze was voor de hoeveelheid RAM op een kaart binnen dezelfde klasse, het altijd een verdubbeling was. Het aantal chips bleef hetzelfde, maar de chips zelf hadden dan de dubbele capaciteit.

Terugkomende op de 5070, ik denk dat de keuze van Nvidia daarmee dus ook weer een stuk beter te verklaren is. 16GB wordt vooralsnog als teveel geacht voor een chip met een 128 bit bus. En daar deel ik ook je mening, voor het prestatieniveau van wat in feite een xx60 chip is, is het overkill. Een 128bit bus past ook traditiegetrouw bij het xx60 segment. Kunnen we hoog of laag springen, maar ik denk dat de (desktop) 3060 hier mogelijk eerder een uitzondering was, dan de regel.

Het zal dus met een aan zekerheid grenzende waarschijnlijkheid zo zijn dat we extra geheugen pas een generatie later zullen zien, wanneer het voor gaming echt onoverkomelijk is. Nvidia weet immers ook dat meer RAM voor professionele doeleinden juist een grote pré is, dus die wil je natuurlijk des te liever naar je hogere prijsklassen stuwen.
Probleem is dat je GPU dat ook aan moet kunnen.

Een 1060 met 64GB VRAM is niet sneller dan 1 met 6GBin gaming.

VRAM maakt maar uit als je zonder loopt, anders is het de GPU die de snelheid bepaalt.
jup. Gelukkig hebben we het hier over een 5070 kaart en niet een 1060 kaart. Jouw voorbeeld is namelijk erg overdreven en niet eens van toepassing op deze discussie. Aangezien we het hier over de xx70 kaarten hebben.

8GB RAM is gewoon de recente jaren net wat te weinig geweest voor 1440p. Vandaar dat ik veel liever een xx70 kaart zie met minimaal 10GB VRAM, het liefst 12. Aangezien de xx70 kaarten tegenwoordig echt wel voor 1440p bedoeld zijn. En daar de meeste games ook prima op kan runnen, als er genoeg VRAM aanwezig is in dit geval.
Mobile GPU's een 4070 mobile is qua GPU vergelijkbaar met een 3060 .

https://www.techpowerup.c...rtx-4070-super-ex/31.html

Zelf voor desktops zie je dat dit weinig uitmaakt (12 vs 8 gb)
Een 4070 super 12gb is
26% sneller tov een 3070 8gb in 1080p 28% i 1440p en 27% sneller in 4k

Geen verschil zelfs in 4k.

[Reactie gewijzigd door k995 op 22 juli 2024 16:10]

En als je even verder leest in hetzelfde artikel, zie je het volgende staan:
While I would have loved to see more than 12 GB VRAM on the RTX 4070 Super, this isn't possible with the AD104 GPU, considering the 192-bit memory interface, which limits the memory configurations to 12 GB or 24 GB. 24 GB is definitely overkill for this segment and doesn't really translate into enough performance to justify the higher cost. Looking at our test results, the 12 GB VRAM config is perfectly sufficient for all games except Alan Wake 2 RT in 4K, which runs at sub-30 FPS, even with more memory. This means that you'll have to turn on DLSS upscaling either way, which lowers the game's render resolution and the VRAM requirements accordingly. If you want to be future-proof, then consider the RTX 4070 Ti Super, which comes with 16 GB VRAM—exactly for those scenarios.
Daar kan je dus twee belangrijke punten uit halen:

1. Meer geheugen zorgt niet alleen voor een grotere geheugenpool, maar het is ook direct gerelateerd aan de ter beschikking staande bandbreedte. Een 8GB kaart zal met een 128bit bus komen, hetgeen de prestaties dus sterk reduceert ten opzichte van een 192 bit interface.
2. "If you want ot be future proof...". Iets wat nu al krap aan is, daar ga je heel snel compromissen moeten maken als je enigzins op 1440p wilt gamen. Allemaal niet onmogelijk, maar is dat werkelijk je verwachtingspatroon bij een nieuwe laptop met nieuwe 5070 chip?
Nogmaals dit is mobile, je kan dus niet doen alsof dit gaat over een 4070 of hoger, prestaties liggen daar veel lager.

En dan zit je dus met GPU bottleneck op 4k waardoor je nooit aan je vram limieten komen.

ALAN wake 2 op een 4070 haalt op 4k/high 25fps, en trekt 180watt als gpu alleen.

YouTube: Alan Wake 2 | RTX 4070 | RTX 4060 Ti | RTX 4060 | R7 5800X3D | 4K 14...

Je moet dus al zwaar dlss aanzetten EN FG om naar de 60fps te gaan. En dan zal je ook veel minder vram nodig hebben .

EEn mobile 5070 zal zelfs niet de performance halen van de 4070 en heeft dus ook niet meer vram nodig. "in de toekomst"? Wel als games nog zwaarder worden kan die gpu dat niet aan en blijft die vram nutteloos.
Dat hangt af wat je doet. Voor games zal het een grijze zone zijn. Maar als je AI wil draaien (llama 3) dan heb je veel vram nodig. (denk aan copilot, ai noise filters, ai webcam framing,etc...)

Het zou me niet verwonderen dat je tegen 2026 32GB vram nodig zal hebben voor normaal gebruikt van je pc.

Voor mij lijken deze zwakke specs allesinds niet op een generation change. Ik kan moeilijk inbeelden dat ze dit gaan proberen te verkopen als een major version change van 4000 naar 5000, want dan kan je gewoon beter blijven op je 4000 reeks of overstappen naar intel ARC of AMD, die bovendien ingebouwde NPU's hebben

Laatst is de vraag of gpu's nog een grote rol gaan spelen als intel ram in de cpu begint te steken. Want dan is vram niet veel sneller meer dan onboard ram. Ik zou dus verwachten dat Nvidia net extra hard zou moeten werken om zich te onderscheiden van die nieuwe cpu's.

[Reactie gewijzigd door sebastienbo op 22 juli 2024 16:10]

AI ja heb je VRAM nodig maar "normaal gebruik van je pc" 32gb vram? LOL
Wat is daar nu LOL aan?

Als AI deel uitmaakt van je dagelijkse tools, dan is het continue onder load en moet het model continue ingeladen zijn.
Je hebt duidelijk het nieuws niet gevolgd de laatste maanden...

Koffiesoft heeft aangekondigd dat de vintage Windows versies steeds atalantalijk gaan zijn van een npu of gpu die minimum 100 tflops aankan. En dat is enkel de allereerste versie. De Microsoft ai zal continue analyseren wat er op het scherm staat. Voor je te helpen in eender welke taak
onzin
Ik denk dat je beter niet op tweakerswebsite reageerd als je het nieuws niet volgt.

https://futurism.com/the-...-recall-recording-feature
Jij loopt duidelijk zelf achter.

Dit is één voorbeeld: https://futurism.com/the-...-recall-recording-feature

En er zijn nog veel andere evoluties die het nodig gaan hebben.

Bijvoorbeeld de igpu van Intel shared de taak van het systeem.
Als je een meteor lake cpu hebt met npu of gpu, dan word een groot deel van je ram daardoor al gebruikt. Mijn Meteor lake gpu maakt gebruik van 16gb systeem ram, waardoor ik nog maar 16 overhoud voor mijn apps. En dat word zelf erger als ik een lokale llm draai zoals llama 3

De nieuwe ai pc's die binnenkort uitkomen zijn allemaal daarop gebaseerd. Dat is ook de hoofdreden dat Intel ram in de cpu begint te steken. Want de latency moet heel klein worden, voor te concurreren met vram op gpus

[Reactie gewijzigd door sebastienbo op 22 juli 2024 16:10]

Het gaat er mij niet om wat de geruchten zijn, het gaat er mij om dat jij denkt dat :
dat je tegen 2026 32GB vram nodig zal hebben voor normaal gebruikt van je pc.
Dat toont gewoon een absoluut gebrek aan kennis omtrent die zaken , informeer je dus zelf eerst voordat tegen andere te zeggen.
Lees mijn opmerking van hierboven.

Er komt een hele nieuwe generatie pc's uit vanaf juni , die noemen ze ai pc's

Die hebben allemaal minimum 32gb ram nodig, voor de shared gpu en shared npu te kunnen draaien. Die op hun beurt offline ai mogelijk moeten maken. Copilot keyboard button make daar ook deel van uit, en dat is ook de reden dat sodimm 2025 niet meer gaat bestaan (veel te traag ) , soldered ram was een tussenstap, naar integrated ram (voor gpu en npu te ondersteunen)

[Reactie gewijzigd door sebastienbo op 22 juli 2024 16:10]

Dat weet ik allemaal, echter is 32gb vram voor "gewoon gebruik" waanzinnig hoog, dergelijek pc's zijn er nog niet en tegen dat die uitkomen gaan die echt niet gewoon mainstream zijn want de prijs zal er ook naar zijn.

Vandaar dus neen, de 50xx range van gpu's heeft daar weinig mee te maken en zal dus zeker niet 32gb vram nodig moeten hebben om mee te kunnen. Voor zowat alle kaarten en voor gamen is dat nutteloos.
Dat is net wat ik bedoelde: het nieuwe "gewoon gebruik", gaat veel hogere minimum eisen hebben. (als we Microsoft mogen geloven die nu minimum teraflops als een specificatie hanteren )
EN dat bedoel ik juist: dat je geloofd dat dat de miniumeis is toont aan dat je niet veel van pc's kent laat staan de kost ervan.
Veel blabla, maar jij komt met geen enkel substantieve argumenten af. Je heb zelf helemaal geen argumenten gegeven behalve jouw gevoel (wat geen argument is). Ik heb de links gestuurd dat de mijne onderstaven en jij komt met niets af die dat zou kunnen tegenbewijzen.

Kan je de moeite doen om uit te leggen waarom jij dat gevoel hebt dat ik (en mijn bronnen) fout zouden zijn?
Ik spreek niet van je bronnen (die trouwens louter speculatie zijn) ik spreek van jouw uitspraken "32gb vram voor gewone gebruik". Je bronnen ondersteunen dat niet en als je wat kent van hardware zou je zien dat dit redelijk absurd is.
Is het echt zo bizar dat 32GB in de volgende generatie de nieuwe normaal zal zijn?

Ik weet nog de tijd dat ze beweerden dat 20MB harde schijven total overkill zou zijn (mensen zoals jij) , niemand zou dat nodig hebben of willen kopen. Wat kan je daar in godsnaam mee doen, 4MB.

Hetzelfde verhaal zag ik met ram toen we 2 x 256Mb ram zouden nodig hebben, dat was maar liefst 512MB ram , geen enkel windows pc zou ziets ooit nodig hebben.

Ik zit intussen aan 64GB en bots tegen de limieten aan als ik LLAMA 3 70b draai.

[Reactie gewijzigd door sebastienbo op 22 juli 2024 16:10]

LOL ik denk dat je ram en vram door elkaar haalt gewoon.
Dat is dus niet hetzelfde, maar zelfs daar : ja zelfs 32gb ram als "doorsnee" is veel.

En voor wat? Wat AI dat amper die doorsnee gebruiker zal gebruiken?

Nogmaals denken dat dit binnen 1.5 jaar de norm zal zijn is een beetje de hardware , kost en mensen onderchatten.
LOL ik denk dat je ram en vram door elkaar haalt gewoon.
Het was een analogie ... ken je dat?

Er zijn nu al grafishe kaarten met 24GB vram voor consumers, waarom zou volgens jou dan 32GB nooit de norm kunnen worden??? Vooral nu we aan de start zitten van een technologie die daar heel erg gebruik van gaat maken (AI modellen)

[Reactie gewijzigd door sebastienbo op 22 juli 2024 16:10]

Ja, maar dat is dit niet. Dat is gewoonweg fout, VRAM is anders dan gewone RAM en daar bedoel je ook iets heel anders mee.

Je haalde die gewoon door elkaar gebeurt.
Ja, maar dat is dit niet. Dat is gewoonweg fout, VRAM is anders dan gewone RAM en daar bedoel je ook iets heel anders mee.

Je haalde die gewoon door elkaar gebeurt.
zucht ... laat maar .. fijne avond
Idd denk dat dat het beste is ;-)
Ram == Vram voor igpu's(wordt geshared - op voorwaarde dat het soldered is). Igpu's maken gebruik van de ram om dienst te doen als Vram. Dat is de reden dat tegenwoordig ram soldered is, en ook de reden dat Intel ram gaat inbouwen in de cpu's voor nog sneller te zijn voor hun gpu's en npu's

En als je het artikel correct leest zie je dat dus zelf de Aldi en lidl al een laptop van 32gb tekoop stelt.

Jij was van mening dat 32gb nooit normaal zal zijn. Dat is heel kortzichtig voor iemand die op tweakers actief is.

[Reactie gewijzigd door sebastienbo op 22 juli 2024 16:10]

Nee ik reageerde op je bewering dat binnen bijna een jaar de minimum eis van ai laptops 32 gb vram zou zijn. Vandaar is een gpu met minder belachelijk.

Ik negeer dan even dat je ram bedoeld en dit nergens over gpu’s gng ( en nee vram en ram zijn hardwarematig niet hetzelfde)

Echter wat blijkt nu ? De eerste dergelijke laptop zit niet in de buurt van 32gb. :)
Ik zou dan eens nalezen, want ik heb nooit beweerd dat dit binnen het jaar zou zijn...vandaar dat je zo arrogant waard ...
2026 is minder dan een jarenhalf en kijk maar ach ja de doorsnee laptop zal de ram verdubbelen om "bruikbaar" te zijn.
3080, 10GB VRAM. Cyberpunk@4k: 9GB in use.

ik heb dus andere ervaringen dan jij.
Is natuurlijk erg verschillend per game.

Maar 9GB in use op Cyberpunk alleen of het gehele systeem?

Als je alleen in Cyberpunk 9GB gebruikt dan gebruik je dus max. aangezien andere processen ook wel beetje VRAM snoepen en zou jouw kaart het echt wel een stukje beter doen als je meer tot je beschikking zou hebben.
Neen cyberpubnk pakt gewoonweg niet zoveel vram in.
Duidelijk. Maar nu zeg je het wel zelf. Als 9GB VRAM al weinig in gebruik is, zou dat dus betekenen dat games die wel normale VRAM gebruiken dus niet genoeg hebben aan 10GB VRAM.

Iets wat niet echt normaal is voor een high end kaart.
Nee, de bewering is dat cyberpunk (wat echt wel zowat visueel het mooiste spel is dat er is) meer dan 11gb vram nodig heeft en dat doet het niet.

8gb kaarten kunnen qua gpu cyberpunk op 4k niet aan, je zal dus nooit aan die vram limiet geraken

Nogmaals gpu en vram zijn verschillende zaken, een 4060 met 64gb vram is niet sneller dan 1 met 8gb
Ik zie nergens deze bewering staan.
MPIU8686
@k995 • 9 juni 2024 17:45 • Rapporteer

+1
Voor Hellblade II heb je nu al

12GB VRAM nodig ..

En voor Cyberpunk 2077 : Phantom Liberty ook trouwens ..

als je dan nog eens daarbij Raytracing gebruikt heb je al 16GB VRAM nodig.
Waar ik het op had.
Probleem blijft al jaren hetzelfde; de low end gpu's zijn niet krachtig genoeg om 4k snel genoeg aan te sturen dat vram een issue word.

Vandaar dat een 4060 8gb of 16gb nagenoeg hetzelfde scoren qua fps.
Maar de mobiele 5080 en 5090 krijgen toch 16gb aan vram ? en daarbij zijn het laptop chips, die presteren eenmaal wat minder dan een daadwerkelijk desktop kaart. 5070 is dan ook niet voor 4k bedoelt (laat staan 1440p 144hz) de mobiele 5070 behoort bij het rijtje 1080p.
Nee klopt.

Ik heb het alleen wel over het algemeen om de videokaarten van NVIDIA. Die zijn altijd qua hoeveelheid VRAM tegenwoordig karig.

Over laptops heb ik een heel andere mening, daar moet je naar mijn mening gewoon over het algemeen niet op gamen. Klein scherm, je zit zo krampachtig achter zo een laptop te gamen met de fans die op 100% gaan draaien.

Nee, dat hoeft van mij al helemaal niet haha.
Op 1080p misschien niet, maar ik denk dat de mensen die hogere resoluties spelen soms wel problemen hebben met "slechts" 8 GB geheugen en dat kan wel degelijk een impact hebben. En deze videokaarten zijn toch eigenlijk wel bedoeld om op een hogere resolutie te gamen, want de huidige kaarten kunnen 1080p ook wel prima aan.
Een 5070 mobiel voor hoge resolutie gaming? Dat betwijfel ik... gelukkig krijgt de 5070 desktop wel 12gb mee kunnen al die mensen die zich er druk om maken weer rustig slapen :)
Ik weet het niet zeker (geen zin om het op te zoeken), maar is 1080p niet het nieuwe 1024x786 wat betreft laptops? Volgens mij heeft vrijwel elke laptop tegenwoordig ook wel een hogere resolutie? Qua desktop, yea, definitely daar is het zeker nodig, maar zelfs voor laptops vind ik 8 gb vrij karig. Maar wellicht zijn er idd nog veel 1080p-laptops, daar ben ik niet zeker van.

En ik bedoel, als je laptop een 1440p-scherm (of hoger) heeft, dan ga je normaal gesproken niet vrijwillig met de instellingen rommelen om het naar 1080p te zetten. Of althans, dat is niet ideaal en voelt ook niet helemaal right (of goed, maar dat klinkt toch niet zo lekker imo)...
Klopt en daar ligt de verantwoordelijk van de laptop bouwer. 1080p 120+ hz laptop scherm lijkt mij prima voor gaming met een 5070.

[Reactie gewijzigd door loki504 op 22 juli 2024 16:10]

Alle games zijn gewoon te runnen op 4K met een 4080 12gb kaart.
Ik denk dat het er meer om gaat dat die extra geheugenbuffer mogelijk in de toekomst van pas komt en dat extra geheugen mogelijk een GPU beter tot z'n recht laat komen.

Ik herhaal "mogelijk" aangezien het feitelijk koffiedik kijken is zolang er geen versies van dezelfde videokaart worden uitgebracht met verschillende geheugenconfiguraties om te zien wat/of er daadwerkelijk impact is
als we dat nu nog moeten uitleggen....wow
Ja want tot nu toe ik heb geen game gevonden die mijn rx 6600 8gb niet lekker kon draaien op een resolutie die bij die kaart hoort. Tuurlijk als ik het op 4k gooi met 4k textures en een slideshow van 15 prima vind kan ik inderdaad in de problemen mee. Maar op het moment dat ik voor 60 fps ga kom ik nog niet de buurt van de 8gb. Daarbij gaat het om een mobiele versie. Die zal waarschijnlijk niet boven de 4060 desktop uit komen. En dat is geen kaart die 4k ultra textures überhaupt normaal kan draaien. Dus ja leg mij dat uit.
Nee dat is verspilde tijd.dit is in andere Post ook al verschillende keren uitgebreid uitgelegd ;)
Jeetje wat zwak. Dus onderbouwen van je claims hoeft niet meer?
Zoek het zelf dan op...jij vindt dat zwak? Ik kan ook zeggen dat jij te lui bent om deze onderwerpen zelf op te zoeken ;)


De gr
Hij heeft nochtans gelijk, de gpu van een 4070 mobile is te zwak om 4k aan te kunnen gelijk welke hoeveelheid VRAM.
De 5070 mobile zal naar alle waarschijnlijkheid 128bit bus zijn, en dus 8 of 16gb vram. 16gb is gewoon overkill de 4060 ti 16gb bewijst dat.
Is niet nodig aangezien loki het bij het rechte einde heeft. Voor sommige die het niet snappen lijkt het wel nodig om nog even verder onderzoek te doen.
och....lol.
in meerdere post is het TOCH ECHT duidelijk uitdelgt dat er meer geheugen nodig is!

Blijkbaar moet jij zelf nog huiswerk doen :)

voor jouw dan he ...omdat jij ook te lui was
post van tweakers zelf kerel uit 2023!

8GB videogeheugen: op het randje.

De 8GB-kaarten voldoen op 1080p en 1440p in de tests van dit artikel nog, maar op deze modellen wordt al regelmatig meer gedeeld vram ingeschakeld dan we bij de kaarten met meer vram hebben gezien. Vandaag de dag een nieuwe videokaart met 8GB kopen zit dus eigenlijk al op het randje en als de ontwikkeling van geheugengebruik in nieuwe games op dezelfde manier doorzet als het de afgelopen jaren heeft gedaan, zul je steeds vaker de texture quality moeten terugschroeven om de nieuwe games vloeiend te kunnen spelen. Op 2160p is hetzelfde van toepassing en vertoonden de 10GB-kaarten ook wat van deze verschijnselen. Op die resolutie heb je momenteel dus liever 12GB of meer.

Duidelijk is in ieder geval dat de texture quality verhogen een 'goedkope' manier is om de beeldkwaliteit in games te vergroten zonder daarbij veel aan prestaties in te leveren, tenminste, als je genoeg vram hebt. Is dat niet het geval, dan merk je dat snel genoeg.

[Reactie gewijzigd door noway op 22 juli 2024 16:10]

Nogmaals, lees eens rustig over de post van loki en k995.
Je mist het punt.
Welke games?
Ik kan vrijwel alles nog spelen met m'n laptop RTX3070Ti met 8GB. Met vele instellingen op high-ultra.
Alles loopt gewoon soepel en zeker als ik de 60fps probeer te bereiken.

Nu snap ik ook niet de keuze om de RTX5070 serie van 8GB te laten beginnen, want dat zou juist een ideale kandidaat zijn om nog 12GB te geven, maarja...
2560x1600.
Heerlijke resolutie voor een laptop scherm.
Ik snap van Nvidia ook niet helemaal waarom 16gb de max is?
Lagere kostprijs dus meer winst en mensen moeten sneller weer upgraden wanneer games meer geheugen gaan gebruiken
mensen moeten sneller weer upgraden wanneer games meer geheugen gaan gebruiken
Waarom zouden ze sneller upgraden als het geheugen toch hetzelfde blijft?
Lijkt me een gevalletje kostprijs drukken. Geheugen is weer duurder aan het worden dus er is geen ruimte om meer te bieden voor dezelfde prijs.

[Reactie gewijzigd door Wolfos op 22 juli 2024 16:10]

Omdat 16gb meer dan genoeg is, en zeker genoeg voor een laptop.
En dan moet de laptop zelf natuurlijk 24GB of 32GB RAM hebben, kan natuurlijk nooit goed zijn als GPU en CPU dezelfde hoeveelheid hebben.

/S
Er is apart VRAM en RAM wat niet word gedeeld.
Sorry, was de /s vergeten.
Eigenlijk als je de meest krachtige versie GPU neemt, neem even de RTX 5070 5080 of 5090 dan moet je gewoon minimaal 16GDDR hebben. Veel games werken vanaf 12gb pas enigsinds soepel.
Ik denk dat de meeste spellen die uitkomen en die zijn uitgekomen prima met minder dan 12 GB soepel kunnen draaien op een redelijke resolutie. Het is slechts een handjevol aan AAA-spul dat uitkomt dat hebberig is qua geheugen.
En de videomemoryinfowars gaat de volgende ronde in. :+

Want natuurlijk weet de leek het beter dan de professionals van een marktleider als Nvidia...
Een RTX5070 mobile is niet bepaald de meeste krachtige GPU die er zal zijn in de 5000 serie. Nu staat Nvidia er wel om bekend wel iets teveel te bezuinigen op geheugen, maar tegelijk staat het internet erom bekend wel iets teveel te overdrijven hoe belangrijk 16GB VRAM nu is.
Zet textures op high ipv. van ultra en je hebt ineens genoeg vram en bandbreedte voor hogere resoluties.
Waarom zou je textures lager zetten als je GPU het in principe gewoon aankan? Wat kost een fabrikant nou om er in plaats van 8 nou 16GB VRAM in te stoppen? 2-3 tientjes meer?
Kannibalisatie van het hogere model. Als jij 12 GB wil in plaats van 8 GB, 0f 16 ipv 12, dan is dat gewoon te koop.

Er zijn in principe 3 redelijke klachten: te weinig aanbod aan de onderkant van de markt (geen 6GB kaarten meer), te weinig aanbod aan de bovenkant (geen 32 GB), en een ernstige (50%+) mismatch tussen GPU en VRAM. De niet-serieuze klacht is "ik wil 50X0 performance voor een 50Y0 prijs". Dan kun je naar AMD kijken, of besluiten te wachten, maar dat is verder het melden niet waard.
Veel GPU presteren helemaal niet eens zo veel beter met meer RAM.
Want er is gewoon een memory bandbreedte tekort op die hoge resoluties met ultra textures.
.
Dit is echt weer melk koe idee...8/12 gb op een 5 serie????
Ik word echt moe van Nvidia
Denk dat ze hun zakelijke zooi niet in de weg willen zitten waar ze t grootste gros mee verdienen.
Met 'veel games' bedoel je eigenlijk alleen games die je op 4k wil draaien of zie ik dat verkeerd?

Cyberpunk 2077 heeft op 4k met path tracing inderdaad meer dan 12 gb nodig, maar draait met veel minder VRAM ook prima (wellicht niet op 4k dan).

[Reactie gewijzigd door Justinn1988 op 22 juli 2024 16:10]

Teleurstellend dat de 5070 weer 8GB krijgt net als de 4070, 3070.

Op laptops met 2K schermen en ultra settings zit je vaak al in de knel, of net aan. Wel vervelend als je 4 a 5 jaar wilt doen met je nieuwe 5070 laptop.

Grote misser hier van Nvidia.
2K = 1920x1080... Laten we aub niet de kant van Reddit opgaan hier.

Anyway, 8 GB heeft mij op 3440x1440 nog nooit problemen gegeven, geen idee wat je met 'in de knel' bedoelt.
Nah daar ben in het in de huidige markt helemaal mee oneens. Dit gaat over laptop GPUs en daar zijn er een sloot resuties die allemaal qua pixels een beetje op een hoop gegooid kan worden. Toen alle laptops nog 1920x1080 schermen hadden misschien wel. Maar tegenwoordig kan je echt beter op 2K "klasse" schermen praten. In de price watch vind je 1920x1080, 1920x1200, 1920x1280 en zelfs 2000x1200 en 2048x1280 schermen. Maar dit is voor mij al wel iets raars om te gatekeepen. Op tweakers wordt er al sinds het begin der tijden gepraat over "1080p" schermen genoemd, terwijl die "P" werkelijk nergens op slaat als we het over resoluties hebben, aangezien het de manier van het beeld verversen is. Maar je al die WXGU QHD, FHD, UHD, 4K en WGUXHDGTO benamingen gaat toch ook niemand onthouden. Dus om dat nu te gaan zitten gatekeepen is ook wel een beetje suf.

Overigens heeft bij mij 8GB vRAM op 2560x1440 al eens problemen gegeven. Ontzettende lage, kortstondige, frame drops zodra het geheugen vol zat. Zelfs GTA5 op mijn oude GTX1070 was eerder door z'n vRAM heen dan door de GPU compute. Maar goed, GTA5 vond ik altijd al een beetje een stroeve game.

Er zijn overigens meerdere voorbeelden waarbij die 8GB te weinig is, hardwareunboxed heeft hier wat leuke voorbeelden van. Waar het echt gaat om problemen waarbij je wel speelbare framerates zou hebben als er meer vRAM beschikbaar zou zijn. Of de laatste Harry potter, die had bijvoorbeeld niet eens frame drops maar gewoon textures die niet inladen. Dese test werden gedaan met de 4060 8GB VS 16GB, niet eens een hele snelle GPU.

Verder hebben we het over een toekomstig product. Als er nu al voorbeelden zijn dan zal dit alleen meer erger worden, niet beter. Dus als de GPUs sneller worden en games zwaarder, wordt die 8GB ook steeds een groter "probleem", ook op 2K resoluties.

Dus dat wordt er bedoelt met "in de knel".
Het verschil tussen een 4060 8gb en 16gb is heel klein.
Er zijn eigenlijk geen games (die niet broken zijn zoals sommige ports) die speelbaar zijn op de ene en niet de andere.

EEn laptop 4070 is denk ik maar even snel als een 4060? Geen idee eingelijk , maar je loopt dan snellert tegen GPU limieten dan VRAM limieten.
Ik durf eigenlijk niet te zeggen dat mijn ETS2 met tientallen mods gewoon soepel draait op een 6550XT met 4GB bij 1440p.
De p staat voor progressive, er is ook i, interlaced...
Het is ook maar net hoe groot de textures weer zijn en hoe de engine werkt van het spel. Neem bijv. The Last of Us Part 1, ik speel dat op 3440x1440 en gooi de hele santenkraam open qua instellingen, ofwel alles op ultra. Dat spel gebruikt ~10GB VRAM, dus her en der iets minder qua oogsnoep en zelfs op dat spel kom je uit op 8GB VRAM, dus zo erg nijpend is dat probleem ook weer niet.
Maar je al die WXGU QHD, FHD, UHD, 4K en WGUXHDGTO benamingen gaat toch ook niemand onthouden
Dit is iets waar de mensheid al langer mee worstelt, lol.

In het begin van radio had je langegolf, middengolf en korte golf (high frequency). Toen kwam men er achter dat je nog hoger kon. Toen kwam er VHF bij, Very High Frequency. En oeps, het kon nog hoger. Ultra High Frequency was geboren. Toen SHF, Super High, XHF, Extremely high enz :') :+ 8)7 Was gebrek aan vooruitzicht gestapeld op nog meer gebrek aan vooruitzicht.

Uiteindelijk zijn ze toen de banden met letters aan gaan duiden maar dat heeft zich nooit echt gevestigd in de lagere banden, alleen de 'nieuwe' die erbij kwamen.

[Reactie gewijzigd door Llopigat op 22 juli 2024 16:10]

Op Reddit wordt met 2K vaak een 1440p scherm bedoeld (als upgrade tussen "1K/1080" en 4K. Vandaar de frustratie van OP want het is een erg ambigue term. Niemand spreekt over een 2.5K scherm zoals het hoort.

[Reactie gewijzigd door helldogbe op 22 juli 2024 16:10]

Of je op zo'n klein laptop scherm nog het verschil ziet tussen high en ultra settings.
> 2K = 1920x1080... Laten we aub niet de kant van Reddit opgaan hier.
Yes, laten we dat niet doen want 2k is niet gelijk aan 1080P, 2k > 2000 (horizontal pixels en blijvens rond die bereik van 2k); dus voor monitoren wordt vaak 1440P wordt er vaak mee bedoeld.

> Anyway, 8 GB heeft mij op 3440x1440 nog nooit problemen gegeven, geen idee wat je met 'in de knel' bedoelt.
Ligt er natuurlijk ook aan wat je speelt en settings, want voor 1080P kan 8 gb al te weinig zijn, maar goed dat ligt meestal aan hoe de applicatie gemaakt is.
Iemand op Reddit dacht dat 2K 2X betekende, omdat 2560x1440 is bijna 2 keer zoveel pixels als 1920x1080.

2K is volgens DCI waar cameras en graphic designers mee zitten is 2048x1080,
2.6K is 2560x1440.

Dit heeft te maken met 2K is de benaming welk getal er het dichtste bij de 1000 getallen zit, en 2560x1440 zit het dichtste bij 3K, niet 2K.

2K = 2048x1080
4K = 4096x2160
8K = 8192x4320

Maar omdat de markt met 16:9 panelen werkt krijg je resoluties als 1920x1080 en 3840x2160.

De correcte benaming voor deze resoluties is:
HD (High definition) = 1280x720
FHD (Full high definition) =1920x1080
QHD (Quad high definition) = 2560x1440 (4 keer HD resolutie)
UHD (Ultra high definition) = 3840x2160 (4 keer FHD resolutie)
UHD hoeft helaas niet altijd 3480x2160 te zijn. Zie bijvoorbeeld het ESPN UHD kanaal, waar veel mensen wel geïrriteerd over zijn... gezien het kanaal 'gewoon' 1920x1080 is.

Op hun site zeggen ze:
"Kan er wel gesproken worden van UHD, aangezien het geen 4K-resolutie is?

Het ESPN UHD-signaal sluit aan bij de internationaal gangbare en geaccepteerde UHD-richtlijnen van het Ultra HD Forum, zoals die worden gevolgd door partijen als EBU, BBC, Comcast en Dolby. Zie ook ultrahdforum.org.

Een UHD-kwalificatie wordt gegeven op basis van meer elementen dan pixels alleen. Dus een 4K- of 8K-resolutie is slechts één element, terwijl er meerdere wegen naar Rome leiden. ESPN UHD voegt met HDR een aanzienlijk betere lichtbeleving toe, het kleurenpalet breidt uit dankzij Wide Color Gamut 2020 en ook telt het 1080p-signaal dubbel zoveel frames per seconde (50) dan bij de Full HD-uitzendingen het geval is. Deze factoren samen maakt dat er sprake is van UHD."

Tja ook hier gebruiken ze lekker 4K tussendoor terwijl ze 2160p bedoelen.

Maarja UHD qua pixels en qua certificering is schijnbaar toch verschillend.
720p is hd ready. 1080p is full HD.

https://www.croma.com/unb...esult%20on%20the%20screen.

[Reactie gewijzigd door Visgek82 op 22 juli 2024 16:10]

'HD Ready' slaat niet eens op een resolutie maar is een certificaat voor TV's die capabel zijn een videosignaal van minimum 720p te verwerken en weer te geven op minimum 1280x720pixels.
Hiervoor was zelf niet eens vereist dat de ingebouwde tuner deze taak aankon, extern was ook voldoende. In praktijk hadden de meeste HD ready TV's de gare resolutie van 1366x768.
8K TV's van vandaag vallen ook onder 'HD Ready', hoewel je dat verouderde label niet meer zal zien.

De benamingen van DramaticallyBad zijn correct.

[Reactie gewijzigd door .MaT op 22 juli 2024 16:10]

HD Ready is een label net als HDR Ready en Windows 11 Ready.
Heeft verder niks met de resolutie te maken.
Yes, laten we dat niet doen want 2k is niet gelijk aan 1080P, 2k > 2000 (horizontal pixels en blijvens rond die bereik van 2k); dus voor monitoren wordt vaak 1440P wordt er vaak mee bedoeld.
Wikipedia: 2K resolution

De -K aanduidingen staan niet voor 'meer dan' maar voor 'ongeveer'. 1920px horizontaal valt perfect onder 2K. Er is zelfs minder absolute afwijking dan bij de 3840px die iedereen 4K noemt.

Voor 2560px horizontaal (ik neem aan dat je dat bedoeld met 1440p want dat bereik loopt van 1920 tot 5120) zegt men eerder 2.5K.

Zoals je ziet worden al die -K en -p termen steeds meer en meer een verwarrende boel. Zelfs al gebruik je ze correct zonder misverstanden, wat ook steeds vaker voorkomt, weet niemand wat je exact bedoeld. Gebruik aub gewoon de resolutie zoals hij is in zijn 'horizontaal x verticaal' aantal pixels.
Mijn 2 cameras(Hasselblad en Sony) geven 2560x1440 aan als 2.6K😅
En 2K is 2048x1080, 1920x1080 is FHD.
En 2K is 2048x1080, 1920x1080 is FHD.
Ok... Pas jij de wikipediapagina even aan dan?
Wikipedia kan veranderd worden door iedereen, het heeft niet heel veel nut om dat te veranderen.
Ja, en dat is fout!
4K en logischerwijs dan ook 2K slaat op het aantal horizontale pixels. 4K wordt vaak gebruikt terwijl men eigenlijk UHD gebruikt ook al is dat maar 3840 pixels in de breedte. Waarom zou 2K dan ineens op 2560 pixels slaan? Nee, 2K is de helft van 4K en dus FHD of 1920 pixels in de breedte. 1920 is ook 96% van 2000. 2560 is 123% wat er dus veel verder van af ligt.
Beter zou trouwens zijn om de term 2K helemaal niet te gebruiken. Het is een stomme marketing term die alleen maar verwarring zaait.
Nouja, 2K is 2048x1080, FHD is 1920x1080. Net als 4K 4096x2160 is en UHD 3840x2160. 2560x1440 is WQHD, en 3440x1440 is UWQHD.
Voor textures, animaties, shaders en andere vector data. Plus natuurlijk AI. Met 8gb heb je veels te weinig. Zelfs 16gb is te weinig. Veel microstuttering. Het liefst wil je 64 of 128gb hebben. De reden dat we het niet hebben is voornamelijk door dominantie van Nvidia. Ook wel beetje door de prijs vsn geheugen. Maar vooral gebrek aam concurrentie
Onzin, neen 16gb is genoeg voor alle games zelfs in 4k.
Voor AI zijn deze kaarten niet bedoeld.
Nee niet dus. Performance is hoger met (nieuwe games) meer memory. Wellicht goed om te weten waar geheugen gebruikt voor wordt. 4k is echt wel de minste kwa impact.
Het zit vooral in vertex data van objecten. Zeker met nanite is meer altijd beter. Daarnaast animaties. Alle coordinaten van keyframes. Vroeger had je complete gizichtsanimaties in 1mb. Tegenwoordig is 1gb aan animatie data heel normaal. Enzovoorts Enzovoorts
ZO werkt dat niet, VRAM maakt niet uit tot je niet genoeg hebt

Vandaar dat een 4060 16gb amper sneller is dan een 8gb.
Ik ben vaak genoeg over 16gb aan vram gegaan.. en dat zal in 2025 nog vaker gaan gebeuren.
Is zeldzaam hoor zelfs op 4k, en dikwijls kan je dan van ultra naar high gaan en amper iets merken.
Geen idee waarom dit nu zo'n issue was vroeger was dat doodnormaal dat je met settings prutste tot je deftig framerate had, nu verwacht iedereen ultra 4k speelbaar te zijn zelfs op een 4060 kaart.
Prijzen zijn enorm omhoog geschoten waardoor de verwachtingen ook omhoog gaan.

Als je de hoofdprijs moet betalen dan verwacht je simpelweg meer. Maar helaas pindakaas VRAM gaat niet bepaald omhoog de laatste paar generaties. De performance is wel aardig verbeterd en die combinatie van betere performance maar niet meer VRAM geeft bij een aantal moderne games gewoonweg problemen (zoals o.a. Hardware Unboxed heeft aangetoond).
En als een aantal games nu al niet soepel lopen beloofd dat weinig goeds voor de toekomst.
Nee, 4060 is nog geen 300euro en geeft je heel goede performance
4070 super is 600 euro

Zet fsr/dlss/fg aan en je hebt nog nooit zo een goed prijs/performance verhouding gehad.

EEn handvol cherry picked games die meestal via upodates opgelost worden toonde dat helemaal niet aan. Toonde eerder aan dat HU de hetze volgt van hun kijkers.
Edit: gaat om de Laptop varianten, niet de desktop.
Ik speel veel games op 2560x1600 met de RTX3070Ti. (laptop, 8GB)
Er zijn maar heel weinig spellen die daadwerkelijk de volle 8GB benutten of daadwerkelijk 'in de knel' komen te zitten rond die resolutie.
Forza Motorsport (2023) is daar 1 van. Die stopt simpelweg met het renderen van bepaalde objecten in de races op t moment dat je limiet bereikt is... Maar verder nog geen andere spellen meegemaakt die werkelijk problemen geven als ik minimaal 60fps target.

Kan mij voorstellen dat dat met 4K anders zal zijn.

Maar ik verbaasde mij inderdaad al over de limitaties in videogeheugen van de Laptop 40## series. Als ik het al merk in enkele games, dan gok ik dat 4070 gebruikers er meer tegen aan kunnen/zullen lopen als ze hogere framerates hebben op sommige spellen (als die wel/niet nodig is).
En de 50## series gaat er gewoon mee verder...
Ik hoop eigenlijk dat pc game makers nu meer naar de steam deck en andere handheld gaan kijken en dat als uitgangspunt nemen. Ipv van games te maken die 12gb vram, 160gb opslag en 8 CPU kernen nodig hebben. Zou meteen ook veel kosten schelen lijkt me
Optimaliseren is natuurlijk belangrijk, en te vaak een ondergeschoven kindje. Tegelijk zit ik er ook weinig op te wachten dat games primair handhelds als uitgangspunt gaan nemen waarvoor het ontworpen moet worden. Mooi natuurlijk als games daar op draaien, maar het blijft een kleine groep.
4K, raytracing, zaken wat we vroeger niet hadden vereisen nou eenmaal meer vram.
Daarnaast je hoeft niet op ultra te spelen, dat is voor de betere videokaarten.

[Reactie gewijzigd door mr_evil08 op 22 juli 2024 16:10]

Belangrijke kanttekening hierbij is dat 60 fps bij 800p en low of medium settings voor een steamdeck dikke prima is. Ik verwacht dat bijna elke game wel blijft werken op 8gb kaarten in 1080p low of medium. Dan is iedereen met een steamdeck of oudere pc blij. Als je dan voor PS5 equivalent settings 10gb vram nodig hebt, dan is dat toch een complete non issue, op 3070 en 4060TI na?
Als je tevreden bent met alles upscaled op low texture settings te spelen is 8B .....prima. Ik denk niet dat de xx70 doelgroep daar blij mee is, zeker gezien de kracht van de gpu. Een bottleneck van 8gb vram is dan niet optimaal.

Laptop markt wordt interessant dit en volgend jaar met AMD's Strix and Snapdragon's ARM platforms. Vooral Strix wordt interessant omdat het waarschijnlijk geintegreerde systeem en videoram aanbiedt en daarmee mikt op nVidia's xx50-xx70 markt. Als de geruchten waar zijn is dat slecht nieuws voor Intel.VRam is dan geen probleem meer mits je genoeg ram in je systeem hebt zitten.

Snapdragon is ook interessant als mogelijke macbook alternatief. Mits MS het niet verkloot; windows moet wel gewoon probleemloos werken.

[Reactie gewijzigd door parryfiend op 22 juli 2024 16:10]

Is intel juist ook niet bezig met soort gelijke processors te ontwikkelen waar bij VRAM minder of helemaal niet meer er toe doet. ZHT laten ze ook al vallen want de E cores nemen het over.
Intel loopt helaas hopeloos achter op cpu en gpu gebied tov AMD en nVidia. Dit terwijl de markt echt een 3e speler nodig heeft om tegengas te geven. Voor zover de geruchten gaan heeft Intel geen echt antwoord op AMD's Strix en Qualcomm's Snapdragon.
Echt achterlopen is een groot woord intel is nog steeds dominant op laptop gebied en gaan de zelfde kant op met CPU's die meer van ARM weghebben. Qua GPU loopt intel ook niet meer achter tenzij je high end chips mee gaat rekenen, Intel is hierin juist aan het terukomen. De 3e speler is wel en heeft de grootste markt.

[Reactie gewijzigd door Expanse op 22 juli 2024 16:10]

Technisch gezien loopt Intel achter. Qua markt aandeel zitten ze vooralsnog veilig maar voor hoe lang?
Ik snap niet hoe Intel ARC zo heeft kunnen verkloten. Ook op cpu gebied lopen ze achter op AMD qua effeciency.
Wat ik wil zeggen is dat Intel ook technisch gezien aan het terugkrabbelen als ze doen wat ze zeggen. Met driverupdates wordt ARK ook steeds beter, helaas wordt dat hier niet getest maar elders wel. Pas was er nog een update met enorme prestatieverbeteringen.
Eerst zien dan geloven.
Laat ik het zo zeggen; Intel loopt technisch gezien 2-3x zoveel achter op AMD als AMD op nVidia.
Dat is dan ook terug te zien in de prijzen.

Laten we hopen dat Intel een inhaalslag kan maken want de huidige duopolie vind ik maar niks.
Ik ben benieuwd, volgend jaar ga ik eindelijk een nieuwe laptop kopen. Mijn huidige heeft maar een 1060 dus dit gaat hoe dan ook een grote stap worden. Hopelijk dat vr games Dan wat beter draaien.
Nog maar de vraag of de 5060 dan al in laptops zit. Het is nu al redelijk groot verschil met de 4060 ook voor VR. Ik ben ook benieuwd naar de nieuwe serie. Voornamelijk een 2 slot videokaart en dan de sterkste!
De trend van weinig Vram voor laptops zet zich dus voort, jammer.

De enige varianten met meer dan de magere 8GB Vram, zijn de **80 en **90 varianten. En die verbruiken zoveel Watt, genereren zoveel hitte en lawaai. Dat wil je niet in n compacte laptop. Daarbij betaal je gelijk bijna €1000,- meer. Helaas zijn er ook bij Amd geen opties met meer Vram voor de niet toprange kaarten.

Heb nu een 4070 8GB in de laptop, voor €1100,-. De goedkoopste 12/16GB modellen zijn €2000,- en up. Wat meer keus voor de consument zou zeer gewenst zijn imho.
Dat zou ook nog enige tijd gelden voor de RTX 2050, al wordt genoemd dat die kaart op den duur vervangen wordt door de 4GB-versie van de RTX 3050.
gezien de datum van september 2022 die er op het document staat zou dit al achterhaald kunnen zijn nog voor het einde van het jaar, want er staat ook bij "w/ longer L/T", wat staat voor "without longer lead-time". Met andere woorden: als de 3050 4GB bordjes even snel geleverd kunnen worden als de 2050 4GB dan zullen ze overstappen.

Voor de mensen die Clevo niet kennen: ze produceren voor een hoop merken waarbij Microstar ofte MSI (Microstar International) wellicht het bekendste is, het huismerk van onder andere Media-Markt en Aldi voor pc's en laptops.
Gaan ze nu alweer met die 8GB zitten hannesen. Vind het echt niet meer horen bij de tijd. Begin van 12GB lijkt me meer redelijk.
Wat vreemd dat de RTX2050 nog wordt verkocht, die GPU is al bejaard in computertermen en zelfs toen ie nieuw was, was geen hoogvlieger qua performance.
Ik heb hem ook in mijn gaming laptop zitten van bijna 3 jaar oud.
(in hoeverre je dit nog een gaming laptop mag noemen)
De 4gb VRAM is eigenlijk voor nieuwere games van de afgelopen jaren niet meer voldoende.

Oudere en lichtere gametitels zoals gta 5, eurotruck en Beamng draaien nog wel netjes, maar bij Cities Skylines 2 moet je de settings al zover terug schroeven dat het er niet meer mooi uitziet en dat ik maar bij het oudere deel 1 ben gebleven.
Vanaf GTX1650 uitstekend als transcoding kaart in te zetten voor bv. Plex, Jellyfin.
Artikel klopt helemaal niet ..!..

De mobiele RTX3080 kwam zelfs al met 16GB VRAM.
*
( Later ook de mobiele RTX 4080 met 8Gb en 16GB RAM )

Deze build uit 2021 voor iemand moeten aanpassen toen ik deze verkocht

MSI GE76 Dragon Tiamat 11UH-429BE
uitvoering: MSI GE76 Dragon Tiamat 11UH-429BE


.

[Reactie gewijzigd door MPIU8686 op 22 juli 2024 16:10]

Op dit item kan niet meer gereageerd worden.