Gerucht: Nvidia introduceert RTX 5080 en RTX 5090 in laatste kwartaal 2024

Nvidia is mogelijk van plan om zijn GeForce RTX 5080- en RTX 5090-videokaarten in het vierde kwartaal van 2024 aan te kondigen. Dat melden boardpartners van de gpu-maker tegen UDN Daily. De videokaarten worden naar verwachting gebaseerd op de nieuwe Blackwell-architectuur.

"Boardpartners verwachten dat de nieuwste RTX 50-serie videokaarten van Nvidia in het vierde kwartaal wordt onthuld", zeggen ingewijden tegen het Taiwanese nieuwsmedium. Daarbij wordt volgens UDN Money in eerste instantie gefocust op de meest high-end modellen: de RTX 5080 en RTX 5090. Boardpartners maken aangepaste videokaarten op basis van Nvidia's gpu's. Welke precieze boardpartners hun verwachtingen met UDN Money hebben gedeeld, is onbekend.

Er gaan al langer geruchten rond over de komst van Nvidia's GeForce RTX 50-serie, hoewel er nog weinig concrete details bekend zijn over de individuele modellen. Volgens geruchten wordt de RTX 5090 gebaseerd op een GB202-gpu, terwijl de RTX 5080 een lager gepositioneerde GB203-chip krijgt. De volledig ingeschakelde GB202 en GB203 krijgen naar verwachting respectievelijk 192 en 96 streaming multiprocessors, schrijft VideoCardz.

Dat zou neerkomen op 12.288 CUDA-cores voor de GB203 en 24.576 kernen voor de GB202. Vermoedelijk krijgen de twee videokaarten echter teruggeschroefde gpu's om zo de opbrengsten tijdens het productieproces te verbeteren. In werkelijkheid krijgen de kaarten waarschijnlijk dus minder CUDA-cores. Daarnaast werd eerder gespeculeerd dat de RTX 50-serie gebruikmaakt van GDDR7-geheugen. Verschillende fabrikanten hebben gezegd te werken aan dit geheugentype, dat hogere snelheden levert dan GDDR6 en GDDR6X.

De bekende Nvidia-leaker @kopite7kimi sprak vorige week al de verwachting uit dat de eerste RTX 50-videokaarten eind dit jaar op de markt komen. Die leaker zei eerder ook al dat de RTX 50-kaarten zullen beschikken over GDDR7-geheugen en dat de hoogst gepositioneerde GB202-chip een geheugenbus van 512bit krijgt. Mogelijk worden de videokaarten op TSMC's 3nm-procedé geproduceerd.

Door Daan van Monsjou

Nieuwsredacteur

09-04-2024 • 12:50

160

Lees meer

Reacties (160)

160
158
54
3
0
88
Wijzig sortering
Als die 5080 meer doet dan een 4090 voor de prijs van een 4080S zou ik er nog aan denken, maar anders echt niet hoor, voor 1000 euro hoop ik op dit punt toch echt alles zonder problemen te kunnen spelen op 1440p en 144+fps.

Was al lang naar AMD gegaan als FSR zo goed als DLSS was, ray tracing is voor mij niet meer zo'n must (naast dat AMD daar lagere FPS in krijgt is het kwa brute forcen meestal uit op hogere FPS dan gelijk geprijsde NVIDIA gpu's) tot ze de performance kosten wat verlagen, snap dat het zwaar is om te berekenen maar is het niet waard als het je 50% van je performance kost voor ray tracing en 75% voor path tracing.

[Reactie gewijzigd door Joshuffle op 22 juli 2024 13:38]

https://youtu.be/HaokHyKjq6g?t=407

Voor die handvol games zet je DLSS/FSR aan en je gamed zonder problemen op 144+fps op 1440p met een 4080 .
Speel liever zonder want die upscaling word al misbruikt door sommige developers om niet te hoeven optimaliseren. (remnant 2 bijvoorbeeld, kon ik bij release op de 3070 niet boven de 60 fps krijgen op 1440p zonder een vorm van dlss aan te zetten)

Maar zoals ik zei, niks tegen de 4080, hoop gewoon dat de 5080 meer een 4090 of zelfs beter is voor 1000 euro. i.p.v dat we elk jaar nu omhoog gaan omdat ze voelen er toch wel mee weg te komen aan het begin van de release window vooral.

[Reactie gewijzigd door Joshuffle op 22 juli 2024 13:38]

Speel liever zonder want die upscaling word al misbruikt door sommige developers om niet te hoeven optimaliseren
Dat is gewoon onzin , daarbij zal je amper/geen (tot zelfs een verbetering) merken met DLSS quality en dan kan je dat spelen op 80fps.

EEn 4080 nu kost een 1000 euro (4080 SUPER ook) en is een pak beter dan een 3090 .
Naja en toch zie ik het de seconde dat het aan staat, of het nou DLSS quality is of niet.

Onzin is het niet zo ver remnant 2 bestaat, er zo uit ziet (veel betere en grotere games op de markt) en 45-50 fps geeft/gaf zonder upscaling op elke setting.

Meestal doe ik het aan want zoals je zegt, bij de nieuwste versies zie je het amper (op quality), en de meeste games runnen gewoon normaal zonder raytracing maar het zou niet een MUST moeten zijn tenzij de game next gen technieken gebruikt die we nog nooit eerder gezien hebben, wat niet het geval was bij deze specifieke game.
Naja en toch zie ik het de seconde dat het aan staat, of het nou DLSS quality is of niet.
Betwijfel ik maar zinloos als je denkt dat het slechter is zal je dat zo zien. (wat niet correct is trouwens)
Onzin is het niet zo ver remnant 2 bestaat, er zo uit ziet (veel betere en grotere games op de markt) en 45-50 fps geeft/gaf zonder upscaling op elke setting.
Dat is het wel omdat de meeste klanten voor dat game geen dlss aankonden toen dat uitkwam.
remant 2 is de typische slechte port naar PC, niks te maken met dat DLSS bestaat wel dat men leiver al uitbrengt en verkoopt omdan enkele maanden te optimaliseren.

EN nogmaals dat is een uitzondering, een 4080 kan zo goed als alles op 1440p aan, performance was echt geen issue bijnde 4000 kaarten.
Ja jij gelooft het nooit als iemand zegt dat ze DLSS er slechter vinden uitzien (wat gewoon feitelijk klopt).
Elke keer als er een post over komt zie ik weer dezelfde reactie van je.. :+

Upscaling is niets meer dan een goedkoop truukje om performance te verhogen ten koste van de kwaliteit.
https://www.youtube.com/watch?v=O5B_dqi_Syc

Ik haal gewoon feiten aan, dat is trouwens bijna een jaar geleden sindsdien is het enkel beter geworden zeker FSR.
Een 4080 is niet altijd beter. Voor mijn persoonlijke gebruik ben ik nog niet geupgrade aangezien ze te weinig geheugen hebben in vergelijking met de 3090..
Geef gerust wanneer die 4080 niet beter is dan de 3090, in zowat alle gevallen is die beter hoor, zelfs in 4k.

https://www.youtube.com/watch?v=ResSOxQBUSM

EEn upgrade is misschien zinloos maar je gaat er zeker op vooruit zelfs zonder zaken zoals FG
Als ik op triple 1440p speel ben ik soms blij dat ik 24GB heb, hij tikt soms makkelijk de 20GB aan namelijk.
Dat is "taken" VRAM niet "used", een spel zal je vram zoveel mogelijk opvullen zelf al is niet nodig.


ZOals je daarboven kan zien doet die4080 het veeeeel beter dan een 3090 zelfs op 4k.

VRAM doet echt weinig qua FPS hoor, enkel als je zonder loopt en 16GB is echt wel genoeg voor zowat elk spel.
Goed dat jij dat in kunt vullen voor mij! Ik merk een duidelijk verschil door het VRAM. Maar wat jij wilt, ik merk er dus niks van en aan 16GB heb ik meer dan genoeg, zal er direct (weer) een bestellen!
Nogmaals elke review hierover en gewoon hoe games werken spreken je tegen.

De enige mogelijkheid is dat je zwaar je games mod en dan je die vollaat met 4k textures en zou naar de 20gb VRAM zou gaan.

ANders is er geen enkele manier waarop die 4080super met 16gb vram toch veel sneller kan zijn dan een 3090 met 24gb vram.
De games en applicaties hebben bij mij inderdaad meer dan 20GB nodig! Gelukkig weet ik zelf beter wat mijn systeem gebruikt :D
Blijkbaar niet, nogmaals buiten dat je mod is dat niet het geval, elke review bewijst dat gewoon.
Dan is het toch van toepassing op mij of niet? Man man man, moeizaam gesprek zeg
Ja en allemaal omdat je niet kan toegeven dat een 4080 zowat altijd beter is dan een 3090 .
Ik ben net overgestapt van mn RTX3070 naar een 7900 XTX, goed wetende dat FSR momenteel niet kan tippen aan DLSS, maar wel met het idee dat ik vaak niet eens upscaling hoef te gebruiken dankzij de ruwe kracht én een overschot aan VRAM.
Ray Tracing heb ik dan ook weloverwogen gewoon laten vallen. Ik heb het amper kunnen gebruiken op mijn 3070, dus daar was het ook eerder een dure en nutteloze feature. (scherm is een 3840x1600 ultra wide@75hz)
DLSS doet niet alleen upscaling maar ook anti-aliasing.
En tegenwoordig ook frame generation.

[Reactie gewijzigd door mac5er op 22 juli 2024 13:38]

Zag zelf ook aan de 7900 XTX te denken voor de langste tijd, daarna tussen de 7900XTX of de 4080S (omdat het prijs verschil laatst niet echt super veel was, 1000 vs 1150 ofzo) maar toen bedacht ik me dat ik beter iets kan wachten voor 5000 of 6000 (of AMD soortgelijke) aangezien de 3070 nog niet oud genoeg is en ik nog vast zit in mijn mindset dat ik per 100 euro er minstens een jaar mee wil doen omdat ik toen der tijd als student nog geen inkomen had ;)

Maar hey, als de 5000 uitkomt en niet een groot genoeg stap in mijn ogen is kan ik misschien een goede deal scoren voor de 4080S of 7900 XTX, we zien het wel.

[Reactie gewijzigd door Joshuffle op 22 juli 2024 13:38]

VRAM doet weinig voor performance hoor en raytracing maakt games er echt wel beter uitzien.

EEn 4080/7900xtx kosten ongeveer evenveel en de 7900 doet het amper een paar % beter in "pure" performance. Met RT erbij doet 4080 het beter en begin je met zalen zoals dlss / FG ed dan doet de 4080 het veel beter en die verbruikt ook nog eens veel minder.
VRAM doet inderdaad weinig voor performance, tot je er te weinig van hebt. Ik was overgestapt van een 1070TI naar een 3070. De 3070 was natuurlijk een pak sneller, maar de 8GB kwam als een boomerang in mn gezicht terecht. Met de scalping epidemie was het dan ook onmogelijk om die in te ruilen voor iets anders. Maar ik heb mij serieus bedot gevoeld. De 24Gb die ik nu heb is natuurlijk compleet overkill, dat weet ikzelf ook wel. De prijs was zeker niet evenveel er zat bij aankoop nog op zn minst €200 verschil tussen. Ik heb dan nog eens een leuke deal kunnen doen op de XTX omdat het een retour was bij azerty. Het verschil was daarmee ongeveer €300, dat telt meteen wel op het geheel.
Het enige wat mij deed twijfelen was inderdaad DLSS, maar ik gok op de vooruitgang van FSR of XeSS.
Welke games had je dan zo'n issue met die 3070 ? Buiten een paar zoals flight simulator is er zo goed als niks dat zelfs op 4k high boven de 8gb zit.

Je ziet dat omdat die in zowat alle games beter presteert dan de 2080ti
goeie keuze geweest dan. fsr is helemaal niet zo slecht op 1440p dus dat is helemaal niet erg.

En raytracing tja daar moet je sws niet op gaan focussen als gamer. mooi techniek maar echt nutteloos voor nu. zelfs een 4090 heeft er zonder upscaling moeite mee. en bovendien is amd daar echt niet zo slecht in. zelfs met cyberpunk op ultra met fsr op quality en 1440p kan ik bijna alle raytracing wel aanzetten en 60 fps krijgen met een 6950xt. doe ik dat? nee tuurlijk niet. alleen global illumiation vindt ik persoonlijk mooi genoeg of reflections maar dat kan ik aanzetten zonder problemen. ben van een 2070s zelf naar de 6950xt gegaan. vondt dlss opgeven helemaal niet erg. tenzij je pixelpeept zie je toch weinig verschil als je.. naja.. gamed.
75 hz really..no games I guess.
Niet ieder spel heeft zeer hoge FPS nodig.
Met een 4080 heb ik toch zelden tot nooit problemen om games met 144+fps te spelen op mijn 3440x1440 monitor, dus dat zal met een 5080 helemaal geen probleem zijn.
Zeker niet, was ook geen slide naar de 4080 op zichzelf, meer een lichte hoop dat deze dingen niet weer met een prijsverhoging komen.

Heb zelf een 3070 en die is alleen lichtelijk teleurstellend in moderne games (meestal NET 1440p 60fps) en dat is wel jammer nu ik een 360hz scherm heb.

Daarnaast ben ik een zuinige man dus ik wacht denk ik sws tot de 5000-6000 of AMD equivalent. (alles kan gebeuren)

[Reactie gewijzigd door Joshuffle op 22 juli 2024 13:38]

Hoeveel VRAM krijgen deze kaarten?

Edit: schijnbaar 32gb & 16gb volgens de reacties op VideoCardz.
Weer karig voor de xx80 kaart anno eind 2024 als dat klopt...

[Reactie gewijzigd door HugoBoss1985 op 22 juli 2024 13:38]

Het grote probleem is niet zozeer de geruchten van 16 GB VRAM voor de XX80 kaart, maar eerder de gevolgen voor de lager gerangschikte kaarten. De XX70 kaart zou dan maar 12 GB VRAM hebben, en de XX60 kaart maar 8 GB. En er zijn veel games waarvoor 8 GB VRAM nu al een aardig probleem begint te worden: Last of Us, Hogwarts Legacy, The Calliso Protocol, A Plague Tale: Requiem beginnen allemaal in te storten met 8 GB VRAM. Resident Evil 4 wilt zelfs niet starten met 8 GB VRAM. En Forspoken ziet er dramatisch slechter uit omdat het bij gebrek aan VRAM textures downgradet.

Ik had zelfs in 2022 al expliciet gekozen voor een 6700XT omdat ik een GPU wilde met meer dan 8 GB VRAM, omdat ik toen al bezorgd was dat 8 GB niet lang genoeg zou meegaan. En ik krijg daar nu ook effectief gelijk in.
De eeuwige vraag is waarom het overgrote deel Nvidia blijft kopen. Zelf zit ik nog altijd op een Amd RX 480. En ja die is wel heel erg over de datum aan het raken maar beter dat dan eindeloos bedrijven sponseren die zich extreem consument onvriendelijk gedragen.
In mijn geval is de hoofdreden DLSS.
CUDA is toch wel heel erg prettig. Kan er rekenspul een stuk makkelijk op mikken dan via openCL.
Mijn reden is dat Nvidia de snelste kaarten in huis heeft.
Maar koop je die dan ook?
Dat geldt namelijk enkel voor de 4090. Voor alle lagere modellen is wel een concurrerend model te vinden.
Ik heb een 4090 in mijn systeem zitten, en die heb ik idd gekocht. En hopelijk eind dit jaar/begin volgend jaar een 5090, tenzij AMD Nvidia voorbij gaat. Dan wordt het een AMD.
Wel te hopen dat je die kaart niet alleen om te gamen hebt gekocht.
beetje dure overkill dan.
Ik heb een HTC Vive pro 2 voor VR, en een 4K 138Hz scherm. Beide voor o.a. FS2020, maar ook vele andere games.

Dus ja, voornamelijk voor gamen, maar overkill? Nee dat niet. Ik kom nog steeds rekenkracht tekort, dus kom maar op met die 5090.
Flight Sim kan ik het me nog bij voorstellen eigenlijk, dat is een behoorlijk zwaar spel om een hoge framerate mee te halen.
Zeker als je 't een beetje fotorealistisch wil hebben.
Voor mij de reden DLSS en CUDA cores. Ik gebruik veel VRAY en die kan gebruik maken van de CUDA cores, waardoor deze kaarten vele malen sneller renderen dan een AMD kaart.
Voor mij: Betere prestaties met raytracing en VR.

Ook werk ik in de AI dus ik pruts wel eens met LLM's en daarvoor is CUDA ook nog steeds koning.

[Reactie gewijzigd door Llopigat op 22 juli 2024 13:38]

Zelf heb ik ook AMD vanwege Wayland. Maar ik moet bekennen dat als je upscaling wil, je bij Nvidia DLSS beter zit. En voor ray-tracing geldt dat nog sterker. En ga je naar AI kijken, dan kan je haast niet zonder CUDA van Nvidia.

Voor mij was een goede desktopervaring belangrijker, en daar was AMD beter. Maar ik sluit niet uit dat mijn volgende kaart een Nvidia wordt als ze verder gaan met de ontwikkelingen rondom Wayland, want dan heb ik én de desktopervaring én de features.
Omdat op sommige gebieden (AI) NVIDIA de enige optie is m.b.t. snelheid en compatibiliteit.

Vandaar:
nieuws: Google, Intel, Arm en andere bundelen krachten tegen AI-hegemonie van...

En
nieuws: Reuters: OpenAI overweegt eigen AI-chips te maken

En
nieuws: Amazon toont Graviton4-soc met 96 Arm Neoverse V2-cores en Trainium2-...

etc. de markt probeert het monopolie van NVIDIA hiermee te doorbreken.
Dat wordt idd tijd dat er concurrentie komt. Groq zou hun chips voor ai moeten uitbrengen want die zijn super snel voor inference met LLM's.
Volgens mij komt dit vooral door goede marketing van Nvidia..

Mensen denken oh DLSS dat moet ik hebben! Raytracing dat moet ik hebben!
Raytracing voegt in mijn ogen werkelijk niets toe behalve hele mooie screenshots, en DLSS is eigenlijk alleen interessant voor mensen met een budget kaart want native rendering is gewoon altijd beter.

Ik ben dus inderdaad voor een AMD kaart gegaan, meer performance voor minder geld en een stuk lager energie verbruik.
Raytracing voegt in mijn ogen werkelijk niets toe behalve hele mooie screenshots
Ik vind de raytracing overdrive mode in Cyberpunk anders wel wat meer dan mooie screenshots.
Het blijft altijd persoonlijk met dit soort visuele aspecten.
Als je er specifiek op gaat letten is het heel mooi, maar als je gewoon aan het spelen bent zie je het niet, althans ik niet.
Als ik dan kijk wat het je aan performance kost en wat het je visueel oplevert vind ik dat niet in verhouding.
Misschien over 5 jaar als net als met AA de performance een beetje op pijl is dat ik het dan wel aan zou houden maar meer dan 5% performance verlies heb ik er niet voor over.
Ik zie het wel maar ik speel niet altijd cyberpunk natuurlijk.

Maar ik wilde per se een zware kaart omdat ik veel VR speel. Zelfs nu nog kom ik enorm in de knoop met bijvoorbeeld MSFS2020. Het was een bijkomend voordeel dat ik dan ook Cyberpunk maximaal kon spelen.

Ook werk ik in de AI dus mijn volgende kaart wordt ook weer Nvidia.
Games waar raytracing echt indrukwekkend in is zijn er idd weinig. Maar dlss is wel echt top, zet het in alles aan waar het kan.
In mijn ogen is het probleem niet dat er weinig games zijn maar dat ray tracing gewoon een heel beperkte visuele upgrade oplevert.

Wat betreft DLSS (en FSR) kan ik kort zijn, ik vind het waardeloze technieken.

Ik heb ze beide nog uitgebreid getest een paar maanden terug bij Starfield omdat dat spel zo slecht gebouwd was dat het er zonder upscaling niet uit zag, en heb me er het hele spel aan gestoord.
Allerlei rare artifacts, shimmering, ghosting, motion blur..
Voor mensen met een budget kaart is het misschien een mooie manier om een spel toch net te kunnen spelen, maar als je focus ligt op beeld kwaliteit dan kun je het beter direct uitschakelen.
Nvidia is over het algemeen de eerste met grote features.
Voor mij was dat bij m'n vorige videokaart (2070S) raytracing.
En aangezien de AMD kaarten daar nog steeds niet heel erg goed in zijn heb ik die 2070S ook vervangen voor een 4080.

Cuda cores net zo, dat is toch een standaard aan het worden.. AMD heeft nu ook een alternatief daarvoor, ZLuda maar dat is pas afgelopen maand uitgebracht terwijl Nvidia al jaren bezig is met Cuda cores.

En ook qua snelheid zijn de Nvidia kaarten altijd wel sneller dan de Radeon's.

AMD heeft dan wel weer het voordeel dat ze goedkoper zijn, hun topmodel kost vaak ongeveer hetzelfde als het midrange model van Nvidia.
Maar die midrange van Nvidia is vaak wel ongeveer net zo snel als de top van AMD.
Maar die midrange van Nvidia is vaak wel ongeveer net zo snel als de top van AMD.
Dit is vaak een vertekend beeld. Bij release wel, maar als je de performance van een 6700xt vergelijkt bij launch en nu is daar een significante sprong gemaakt dmv drivers. Een 7900xtx is echt wel sneller dan een 4070 en wordt nog steeds sneller.
4070 is een lastige, die komt duidelijk geheugen tekort.
4070S is al een stuk beter al komt die, zeker ten opzichte van de 7900xtx ook nog geheugen tekort.
Maar die midrange van Nvidia is vaak wel ongeveer net zo snel als de top van AMD.
Bewijst maar weer dat dit niet klopt.
Het grote nadeel van RDNA2 was dat ze bij de release al verouderd waren. Shader model 6.8 word niet ondersteunt, maar bij RTX 30 wel. Ray tracing was vanwege de prestaties nauwelijks bruikbaar en machine learning word niet ondersteunt waardoor je vastzit aan FSR voor upscaling.

Vooral door dat laatste denk ik dat RTX 30 nog een stukje langer meegaat, omdat DLSS een stuk netter omgaat met lage resoluties. Hierdoor kan je waarschijnlijk een generatie langer wachten met upgraden.

RDNA 3 is een stuk toekomstbestendiger. Hoewel het nog maar de vraag is of AMD ook met machine learning upscaling gaat komen of op FSR blijft focusen. Ik begrijp dat ze nog veel game consoles verkopen, maar op een gegeven moment moet de focus toch bij de volgende generatie komen te liggen. Sony heeft naar het schijnt voor de PS5 pro zelf een ML chip gebouwt voor betere upscaling dus het is wel echt belangrijk.

[Reactie gewijzigd door Wolfos op 22 juli 2024 13:38]

Ook dat klopt niet helemaal vergelijk de 3090 vs de 6900xt/6950xt puur op performance buiten raytracing wint de 6900/6950
Stabiliteit en features.
Weer een werknemer van de Nvidia PR-afdeling.
Cuda letterlijk dit. wat je nodig hebt in AI en machine learning. Veel rendering etc etc.
Plus Amd kan geen drivers maken.
Omdat ze, als je alles max wil draaien, de beste kaarten hebben, zo simpel is het. AMD kan niet tippen aan de raytracing capaciteiten van Nvidia, helaas.
Zover ik weet is er maar 1 game die echt zware RTS heeft (Cyberpunk). Voor de rest heeft AMD bijna dezelfde performance en RTS disabled maken die kaarten gehakt van hun NVIDIA tegen hangers voor een lagere prijs. “In games dan”.
Als AMD een kaart maakt die kan concurreren met de 4090 heb je recht van spreken. Dit is echter niet het geval, dus...
Ja als jij 2000 euro kan betalen dan snap ik jou punt :9~
Typisch weer van Nvidia als dit gaat kloppend.

8gb voor de xx60 lijkt mij echt een faal.

Correctie w.b.t. RE4; dat is speelbaar met een HD7970 met 3GB.

[Reactie gewijzigd door HugoBoss1985 op 22 juli 2024 13:38]

Hangt af van de preset die je kiest. HWUB had getest met zowel de RT als de Max quality presets. de RT preset (en low waarschijnlijk ook) gebruikt 1 GB voor de textures, maar de max quality crashte op de 3070, ook op 1080p.
Ja ok je probeert met settings te spelen die je gpu niet aankan wordt ook vermeld
Op de spreekwoordelijke doos dat die settings 12gb nodig hebben (als ik het me Goed herinner)
mijn stelling is: Als de game console op 4,8,16GB ram zit moet ik met mijn videokaart ook op minimaal 4,8,16GB zitten. Dit omdat ports van console dan meestal beter draaien. Ik kan het fout hebben maar dat is waar ik me zelf aan houw. nooit problemen mee gehad.
Klopt grotendeels. Maar op een computer wil je dan nog wat meer, vanwege overhead voor een breder OS en dingen zoals browsers en andere applicaties die ook open staan.
Nee is niet nodig.

Het geheugen van de consoles is gedeeld tussen GPU en CPU.

Bij PC’s hebben we nog apart ram geheugen voor de CPU voor deze extra overhead.

Maar dan nog PS5 heeft ik dacht 12 Gb aan ram. Veel GPU’s zitten op 8Gb.
Ja klopt. Ik dacht dat de huidige consoles al van shared memory af waren.

PS5 is 16GB of VRAM welke gedeeld wordt tussen gpu en cpu.

Meeste games zijn daarintegen grafisch een stuk zwaarder dus, 8tot12 GB voor GPU en dan 2tot4 GB voor CPU zal wel vrij normaal zijn.

Dan zit je nog met het gedoe dat een 8GB echt een generatie achterloopt zelfs op consoles.


Daarnaast moet er wel gezegd worden dat Nvidia een better memory compressie toepast dan AMD.
Dus Nvidia kaarten van 8GB zijn vrijwel vergelijkbaar met 10GB kaarten van AMD in memory gebruik.

[Reactie gewijzigd door ErikRedbeard op 22 juli 2024 13:38]

Klopt, maar geheugenbandbreedte is ook een ding. En Nvidia gebruikt vaak een (te) smalle memory bus op een goedkopere modellen.

Ik denk dat AMD hier kan gaan scoren vanwege hun ervaring met chiplets. Nou was de 7xxx serie een hoofdpijn dossier in ontwikkeling.
Met de ver verlate 7800XT als gevolg.

Maar ze kunnen op deze manier een stuk minder extreem duur 3-5Nm silicon gebruiken. En toch een bredere bus aanbieden met dito geheugen.
De XX70 kaart zou dan maar 12 GB VRAM hebben, en de XX60 kaart maar 8 GB.
De 3060 is er in 12 GB, maar de 3070 is 8GB. 4060TI hebben we in 16GB, maar de 4070TI is 12GB.

Het is nogal kort door de bocht om zomaar uit te gaan van dat die RAM getallen op die manier afschalen. Bij een heleboel generaties van NVidia was dit niet het geval.

Dat heeft denk ik te maken met dat ze vaak op lagere modellen goedkoper geheugen gebruiken en dan soms meer ervan erin kunnen steken (en het moet ook uitkunnen met de bus, niet alle combinaties zijn mogelijk). In het geval van de 4060TI vs 4070TI gaat het dan bijvoorbeeld om GDDR6 vs GDDR6X.
Onlangs een 4070 gekocht met 12 GB VRAM nadat mn 1660S en 1060 het toch echt niet meer trokken met 6 GB VRAM.
Nu ben ik voor de 1660S ook naar een opvolger aan het kijken, maar aangezien VRAM eigenlijk altijd de reden is waarom ik uiteindelijk moet upgraden en zelfs die 12 GB af en toe al vol of bijna vol gaat, zat ik op de 5000 serie te wachten in de hoop dat het beter zou zijn. Maar zo te zien kan ik beter naar AMD overstappen voor een betaalbare kaart met meer VRAM. Het is alleen jammer dat je dan nogal inlevert op andere gebieden.
Overigens, RE4, Hogwarts Legacy, en A Plague Tale: Requiem draaien hier op zich prima op de 1660S met 6 GB VRAM, alleen bij APT:R de textures 1 stapje terug moeten zetten en RT shadows (was het geloof ik) uit moeten zetten, verder alles gewoon maxed out en nog 40-60 FPS. HL draait met alles op ultra prima, alleen TLOU moest ik echt concessies doen om niet de klassieke VRAM stutter te hebben.
Maar ik draai de games onder linux op 1080p, dus misschien dat jij een hogere resolutie draait, of dat Proton onder de motorkap dingen uithaalt om RE4 bijvoorbeeld toch te laten starten. en bij de andere games de prestaties net wat acceptabeler te houden. (tot een week of 2 geleden draaiden al die games "speelbaar" op een 1660S en i5 4460 die nu net vervangen is door een 5600X)
Ik heb die gameresultaten niet zelf getest. Ik heb zelf een 4070, dus ik heb geen eigen ervaring met kaarten met 8 GB VRAM. Maar ik heb wel een video van Hardware Unboxed gezien (en hieronder gedeeld) waarin ze deze games testen met 8 GB VRAM en gemerkt hebben dat deze kaarten bij hogere resoluties, en vooral hogere settings, toch problemen vertonen qua framerate.
Ahh oke, ik dacht al... "huh, we hebben RE4 hier zelfs op een 1060 gespeeld zonder problemen!"
Later is The Last of Us sterk geoptimaliseerd en werkte het prima met 8GB VRAM (RTX 3070 hier).
De eerste weken was het heel lastig de optimale settings te vinden, na iedere update.

Wat ik eigenlijk wil zeggen: Als een PS/Xbox port uit is voor de PC en de port is goed gedaan(lees: de game wordt 'af' uitgebracht) is 8GB best wel genoeg.

Daarom wil ik nu ook minimaal 16 RAM ;) Laat die 5080 maar komen :) :)
Om de Spartanen te quoten: "Als.". Ik heb al lang geleden geleerd om niet te vertrouwen op de mogelijkheid van developers om hun ports goed te doen...
Allereerst weten we niet wanneer de RTX5000 kaarten uitkomen en we weten niet hoeveel de RTX5000 kaarten aan geheugen krijgen. Het heeft geen zin om Nvidia te veroordelen op basis van geruchten.

Ik ga de advocaat van de duivel spelen, want dat geluid horen we hier nooit. Ik denk dat mensen niet tegen de stroom in durven te gaan met uitspreken van waarom ze een "te dure" Nvidia hebben gekocht. De meeste mensen laten het gaan en kopen hun Nvidiakaart stilzwijgend, want men weet prima dat raytracing en DLSS volkomen wordt genegeerd en gebagatelliseerd, terwijl die features wel degelijk een enorme meerwaarde hebben.

Wat we wel weten is wat jij beweert niet klopt, althans dat weet je als je met een open mind reviews leest. [Hogwarts is opeens de standaard(?), maar is een uitzondering; ik was volwassen toen dat eerste boek uitkwam, dus ik heb niets met Harry Potter en ik speel dat niet)] Jouw 6700XT mag meer geheugen hebben dan bv een RTX3700 met maar 8GB, maar die RTX3700 is sneller dan jouw kaart op Hogwarts Legacy op 1440p en 4K Medium en Ultra(hoewel dat vast op beide kaarten niet overhoud om te spelen op die settings). Hier zit hem de crux en waarom de hoeveelheid geheugen bij kaarten als de 6700XT(of RX480 of RX580 die 8GB hebben (waarom???)) niet zou moeten boeien; dat geheugen heb je vooral nodig als de textures groter worden. Die kaart kan Hogwarts Legacy op 1440p en 4K Ultra niet aan, dus waarom heeft zon kaart zoveel geheugen nodig? De RTX3700 met DLSS kan het beter aan, al is het soms behelpen . Ga je games op 1440p of lager spelen, maakt meer geheugen al niet meer uit; uitzonderingen daargelaten. Ik denk sowieso dat problemen vooral liggen aan slechte ports van console games. PS5 en Xbox Series zijn AMD hardware, niet?

Een RTX4700 heeft 16GB helemaal niet nodig volgens deze charts, ondanks dat dat hier geclaimd wordt. Kijk maar na, de Ti Super heeft lang niet zoveel baat bij de extra 4GB en de bredere 256bit bus als vooraf gedacht. Misschien over een aantal jaar, maar wie heeft een glazen bol? De TI super is momenteel op 4K qua prestaties gek genoeg niet zoveel sneller als de 4700 TI

Hoe dan ook. het is een goede verkooptruc om midrange videokaarten met enorm veel geheugen in de markt zetten. Ondanks dat ik weet dat 16GB niet nodig is, ik heb de reviews voldoende gebestudeerd, twijfel ik toch. AMD creert hier FOMO. Ik had laatst bijna die Sapphire Pure 7900GRE gekocht voor €511, omdat die kaart 16GB heeft, maar achteraf ben ik blij dat ik het niet gedaan heb.

Het antwoord op de vraag waarom mensen (in mijn geval momenteel) Nvidia kopen: Ik laat de graka liever op 1080p renderen en het upscalen naar 4K als dat nodig is en raytracing is vet.

PS om een misverstand uit de weg te helpen: veel geheugen bij highend kaarten x800 en x900 begrijp ik, maar een 4600Ti met 16GB is absurd en geldverkwisting. Uitzondering vind ik de Nvidia x700 Ti serie, die onder de x800 gezet wordt. De 4700 Ti had direct 16GB moeten krijgen, denk ik.

[Reactie gewijzigd door ABD op 22 juli 2024 13:38]

Niet iedereen speeld op 1080p en 1440p zijn de games prima te spelen met 8gb videokaarten.
Wat ik net gedeeld heb zijn de resultaten van benchmarks van Hardware Unboxed. Zij hebben wel degelijk gemerkt dat een 3070 met 8 GB VRAM vaak gewoon niet meer bruikbaar is bij moderne games op 1440p en 1080p: https://www.youtube.com/watch?v=Rh7kFgHe21k . Dit vanwege de 1% lows die ineenstorten bij maximale settings. Bij settings een trapje lager gaat het doorgaans nog wel, maar als je ultra wilt spelen is doorgaans 8 GB niet genoeg meer.
Je moet daar echter wel de kanttekening bij zetten dat een 3070 uit 2020 in 2024 natuurlijk ook geen kaart meer voor ultra settings in de nieuwste / nog uit te komen games. In 2020 was het al een midrange / upper midrange kaart, soort gelijke performance gaat nu straks lower midrange / low end moeten zijn bij Blackwell, kaarten die de komende generatie het midden segment 1080P en de onderkant van het 1440P segment moeten bedienen.

In zo'n context zal 8GB vermoed ik voor dat segment nog wel voldoen, en dan 12GB voor de midrage, maar overhouden doet het natuurlijk niet. En het is ook typisch Nvidia, die gaan je geen MBtje meer geven dan wat zij nodig achter voor het segment waar ze de kaarten positioneren voor die generatie.
Horizon forbidden west kan op 1080p nu al boven 8GB gaan.

Als je voor "entry level" in 2024 rond de 300€ moet neertellen mag je denk ik wel op 1080p verwachten dat je alles maxed out kan spelen wat voor die launch is uitgekomen. Dus 8GB is lang niet meer voldoende.

Ik denk dat Nvidia na de ronduit slechte reacties op de 40 serie niet nog eens een 8GB gpu gaat lanceren die meer dan 200€ kost. Waarschijnlijk schat ik Nvidia met die gedachte wel wat te hoog in... maar toch... niemand kan toch niet zo dom zijn...toch?
Dat verwacht ik dus niet direct voor een entry level kaart, kijk naar het voorbeeld dat je zelf aanhaalt met Horizon 1080P Medium is prima te doen voor de midrange van vandaag, maar 1080P Very High is al minder, al weet ik niet of dat volledig aan de ram grootte ligt, sommige kaarten van zowel AMD, Intel als Nvidia met 12/16GB dippen daar bijvoorbeeld ook al onder de 60 FPS 1% low of schuren er gevaarlijk tegenaan.

Ik voorzie voor dat segment dat Nvidia voorop, maar AMD er niet ver achter steeds meer zal inzetten op <kwaliteit X> met DLSS / FRS, in plaats van bijvoorbeeld 1080P Maxed out, al is 1080P Maxed out als uitgangspunt denk ik sowieso wat hoog ingezet voor het entry level segment, veelal zal het met oudere games wel gaan, maar er zal altijd denk ik wel die uitzondering bestaan die de regel bevestigd en waar het dus niet gaat.

En dat Entry level kaarten 'te duur' worden is natuurlijk ook wel een hele discussie op zich, maar ergens moet je wel hopen dat RTX 3070 performance straks in 2025 (want de entry level kaarten zullen vermoedelijk, net als de vorige generaties, veel later komen dan de top modellen, dat 3070 performance op dat moment voor minder te krijgen gaat zijn dan de 4060 nu. Anders wordt de gen over gen winst wel heel karig.
Is niet alleen resolutie wat een rol speelt. Vertex data van objecten, animaties kosten veel memory. Ongeacht resolutie. Daarnaast is AI tegenwoordig nuttig voor bijvoorbeeld upscaling. Rara waar de upscale modellen in moeten worden geladen. En zo is er nog veel meer. 8gb is te weinig. 16 eigenlijk ook.
Ik heb het vooral over gaming dan is 8gb wel genoeg. Iemand die ook voor AI gedoe videokaarten koopt kijkt wel naar videokaarten met meer geheugen. Ik speel zelf bijvoorbeeld TLOU en RE4 met maximale instellingen zonder stutters op 1440p met maar 8GB VRAM .
Ik heb het ook over gaming.
Maar door Upscaling word er juist weer minder vram gebruikt althans met DLSS. 8gb zou ik zelf niet meer aanraden want de limit word wel vaak bereikt.
Dat is inderdaad de grote vraag, @nzall en/of @Ludewig hebben hier wel theorieën over ;)

Hier het "geruchten" topic, kon ff de link niet vinden
forumtopic: [NVIDIA GeForce RTX 50XX] Ervaringen & Discussie

[Reactie gewijzigd door JDx op 22 juli 2024 13:38]

hangt r vanaf wat voorn ram chips ze gaan gebruiken
https://videocardz.com/ne...b-modules-3gb-on-roadmaps

mogelijk dus een latere super versie met 3gb per ram chip ipv 2
De geruchten over de 5090 zijn nog niet consistent, sommigen zeggen een 512 bit bus en anderen een 384 bit bus. Dat zou 32 GB dan wel 24 GB betekenen.

De 5080 zou dezelfde bus hebben als nu, dus weer 16 GB.
je geeft af op NVIDIA omdat die niet zoveel VRAM voorzien als je zou willen, maar niet op de software die hardware vereist die amper bestaat?
Het is imho met name door DX12 dat het management van het VRAM volgens mij meer bij de ontwikkelaars legt.
Het neemt niet weg dat VRAM tekort al jaren een veelgehoorde klacht is bij Nvidia kaarten, en Nvidia er gewoon niets mee doet. Ik denk dat mn laatste AMD/ATi kaart een HD 6850 ofzo was, maar als NV op dit pad blijft zitten, dan gaat dat eerdaags veranderen voor mn 2e game systeem.
Op mn desktop heb ik nog NV nodig vanwege CUDA, maar voor een exclusief game systeem, is het jammer om in te leveren op sommige NV tech, maar als ik net als de afgelopen jaren elke keer mn kaarten moet vervangen omdat het VRAM de beperkende factor is, en niet de GPU/feature set dan gaat dat toch een keer de reden worden om over te stappen.
48gb voor een 5090 zou mooi zijn. Vooral voor AI
Als ik zie hoe mijn 3080 nog mee kan (recent met Horizon Forbidden West) denk ik dat ik nog een generatietje over kan slaan.
Same, 3080ti hier en zeker nog geen plannen om over te stappen, al ligt dat uiteraard ook aan de usecase.

Op 2k 144hz is het meer dan zat, en aangezien ik geen 4k of widescreen ambities heb zit ik nog wel goed.

Heb meer geld in beeldschermen gestoken en 2k oled is voor mij wel echt een pareltje voor gaming/media.
LOL, zelfs mijn 3060Ti kan nog jaren mee, het is maar net wat je wil (en je budget toelaat).
Precies. Denk dat ik pas voor een nieuwe kaart ga als GTA 6 op pc verschijnt.
Dit heb ik ook. Ik was bang dat ik toch echt een nieuw kaart wilde om HFW te spelen, maar zelfs met een 2080 op high haal ik nog >60 fps op 3440x1440p in de buitengebieden.
Moet het niet andersom zijn hier?
Er gaan al langer geruchten rond over de komst van Nvidia's GeForce RTX 50-serie, hoewel er nog weinig concrete details bekend zijn over de individuele modellen. Volgens geruchten wordt de RTX 5090 gebaseerd op een GB202-gpu, terwijl de RTX 5080 een lager gepositioneerde GB203-chip krijgt. De volledig ingeschakelde GB202 en GB203 krijgen naar verwachting respectievelijk 96 en 192 streaming multiprocessors, schrijft VideoCardz.
Dus de GB203 in de 5090?
Alhoewel lijkt hier de GB202 weer krachtiger te zijn:
Dat zou neerkomen op 12.888 CUDA-cores voor de GB203 en 24.576 kernen voor de GB202.

[Reactie gewijzigd door MrRobot op 22 juli 2024 13:38]

AuteurAverageNL Nieuwsredacteur @MrRobot9 april 2024 12:59
In het geval van Nvidia-gpu's is een lager (derde) cijfer beter :)
Ja, dat had in ook even opgezocht, maar waarom heeft de GB203 dan 192 streaming multiprocessors en de GB202 maar 96?
[EDIT]: even opgezocht, de GB202 krijgt er 192, dus het staat in de verkeerde volgorde in het artikel.

[Reactie gewijzigd door MrRobot op 22 juli 2024 13:38]

AuteurAverageNL Nieuwsredacteur @MrRobot9 april 2024 13:02
Dat is gek! Typfout van mijn kant denk ik, het moet inderdaad andersom zijn. Ik heb het meteen aangepast
Dat zou neerkomen op 12.888 CUDA-cores voor de GB203 en 24.576 kernen voor de GB202.
Dan gok ik dat die 24k ook een typo is? 25.576 lijkt logischer gezien dat exact het dubbele is van 12.888.

Edit: of die 12.888 moet 12.288 zijn. Maar 1 van de 2 lijkt niet te kloppen.

[Reactie gewijzigd door watercoolertje op 22 juli 2024 13:38]

Dat laatste inderdaad! 96x128 = 12.288. Tijd voor koffie, denk ik 8)7
Edit: of die 12.888 moet 12.288 zijn. Maar 1 van de 2 lijkt niet te kloppen.
Dat laatste is logischer, want 12288÷128=96 SM's
Terwijl 12888 gedeeld door 96 uitkomt op 134,25.
Het gaat specifiek om deze zin met de inhoudelijke fout die MrRobot bedoelt:
De volledig ingeschakelde GB202 en GB203 krijgen naar verwachting respectievelijk 96 en 192 streaming multiprocessors, schrijft VideoCardz
Dat is dus niet correct.
De hoger gepositioneerde GB202 krijgt 192 streaming multiprocessors.
De lager gepositioneerde GB203 krijgt 96 streaming multiprocessors.
Dat is tenminste wat Videocardz schrijft :P
Nee, bij NVIDIA zijn de lagere nummers vaak de sterkere chips. Dit in tegenstelling tot hun productnamen.

De laatste regel die je quote lijkt me inderdaad niet te kloppen.. de 192 streaming multiprocessors zouden in de GB202 komen en de 96 in de GB203.

[Reactie gewijzigd door fe1995 op 22 juli 2024 13:38]

Pff niet eens een 4050 deze generatie?
De lager gepositioneerde kaarten volgen doorgaans een krap half jaar later bij Nvidia, hetzelfde geldt voor de laptop GPU SKUs.
De 4000 serie kwam al in 2022 uit. Dus dan zijn ze al anderhalf jaar te laat.
leuk al die nieuwe GPu's maar wat gaat dat doen met de prijs? en met de GPU prijzen van de net geintroduceerde kaarten?

de NON-super GPU's krijgen grotendeel al geen reductie in prijs omdat ze op hoge kosten zijn ingekocht en die zijn vrijwel nutteloos om te kopen als de S varianten goedkoper zijn.

als ik zo kijk dan is er mogelijk nog een uitvalsweg naar een AMD GPU die competeert met de 4070 Super als ik mij niet vergis.

ik zelf nog in bezit van een 1070 Ti in sli wat nog steeds meer dan prima werkt.
een nieuwe pc vind ik voorlopig ook nog niet nodig maar met een upgrade zou ik zeker denken m.b.t. prestatie uplift om op zijn minst een 4070Ti super (de oude 4080) maar verbeterde variant aan te schaffen of een 50xx GPU
De 4060 heeft nog steeds een uitstekende prijs, maar idd als je hoger gaat kijken ben je al snel honderden euro's minder kwijt voor AMD.
dat dus, het is in verhouding van prijs en prestatie niet verstandig een 4070 of 4080 te kopen.. dan koop je beter een 4070 Ti super of 4080 super (verkapte 4090)
Dat zou neerkomen op 12.888 CUDA-cores voor de GB203 en 24.576 kernen voor de GB202. Vermoedelijk krijgen de twee videokaarten echter teruggeschroefde gpu's om zo de opbrengsten tijdens het productieproces te verbeteren.
Dit lijkt me niet kloppen als een streaming pocessor 128 cuda cores heeft? Dan zou de GB203 er 96*128=12288 krijgen, niet 12888.
Vermoedelijk krijgen de twee videokaarten echter teruggeschroefde gpu's om zo de opbrengsten tijdens het productieproces te verbeteren.
Het lijkt mij logischer om van een 203 met lage yields een 4070 te maken en van lage yields van 202 een 4080. Als de yields dan verbeteren maak je van de 203 een een 4070 Ti/Super/Mega en van de 202 de 4090.

Maarja, dat levert natuurlijk te weinig winst op...
Ben benieuwd wat het formaat van de kaart gaat zijn. Wordt deze nog groter dan de 4090 nu? Op gegeven moment heb je toch wel een max bereikt qua formaat.

Zou hem graag in een SFF PC willen stoppen en dan ligt de max toch echt rond de 32 cm.
Mooi, kan niet wachten. Hopelijk ook daadwerkelijk Q4 2024 i.p.v. Q1 2025, scheelt weer een paar maanden.
Dit is een aankondiging van de aankondiging, dat staat los van de releasedatum die ze tijdens de aankondiging aan gaan kondigen?

Als ze het op 1 oktober aankondigen kunnen ze natuurlijk wel voor de feestdagen uitgebracht worden, maar dat hoeft niet, het kan zet zo goed wel Q1 worden.
Klopt, als ik me goed herinner kwam de 4090 binnen een maand uit na aankondiging maar dat is uiteraard geen garantie voor de 5090. Lijkt me dat ze de kerstverkopen wel mee willen nemen maar Nvidia maakt wel vaker gekke sprongen.
We zullen zien, je weet maar nooit maar een kwartaal is lang.

Een en ander hangt natuurlijk ook af van wanneer AMD met de RX8000 serie komt, en natuurlijk Battlemage van team blauw.

Wel vreemd dat je in deze prijscategorie rekening moet houden met feestdagen, ik bedoel, wie geeft/krijgt er cadeaus van €1500-2000 of meer? :P
Ja cadeaus van 1.5-2k zijn wat te duur inderdaad haha, maar mensen krijgen hun 13e maand rond die tijd dus wellicht dat ze daar op in willen spelen.
In Nederland zijn dat misschien rare bedragen, maar in de VS geven ze hele auto’s cadeau, dan valt zoiets echt wel mee.
Ik kan ondertussen echt wel prima wachten als het Nvidia betreft, na de fratsen in het begin met de 40- serie en de absurde prijzen die ze er voor vragen.
Zeker als ik hier al weer het woord 'teruggeschroefd' zie staan.

En ik wil de pret niet nog verder drukken maar Q4 2024 zou natuurlijk ook 31 december kunnen zijn.

[Reactie gewijzigd door centr1no op 22 juli 2024 13:38]

Of de prijs het waard is is voor iedereen anders, persoonlijk als het minimaal 50% sneller is dan m'n 4090 ben ik wel tevreden. Even ervan uitgaande dat het niet €3000 of duurder wordt.

Op dit item kan niet meer gereageerd worden.