Door Tomas Hochstenbach

Redacteur componenten

Alles over Nvidia GeForce RTX 50-serie

Van mega-gpu tot DLSS 4 en neuralrendering

07-01-2025 • 09:42

303

Nvidia GeForce RTX 50-serie

AMD en Nvidia kondigden maandag (lokale tijd in Las Vegas) beide nieuwe generaties videokaarten aan, maar de presentaties van de Radeon RX 9000-serie en de GeForce RTX 50-reeks konden bijna niet meer van elkaar verschillen. Waar AMD de verzamelde techjournalisten verbijsterd achterliet door in zijn persconferentie geen woord te besteden aan de RX 9070 XT en co − volgens directeur David McAfee omdat er 'te weinig tijd' was − liep Nvidia-ceo Jensen Huang het podium op in een volgepakte Michelob Ultra Arena, een stadion met een capaciteit van 12.000 mensen, om de wereld kennis te laten maken met vier nieuwe videokaarten.

Nvidia was ook aanzienlijk scheutiger met informatie over zijn nieuwe gpu's. De specificaties kon je vanochtend vroeg al lezen in ons nieuwsbericht, maar in de documentatie die Nvidia na de keynote met de pers deelde, staan nog veel meer details, bijvoorbeeld over DLSS 4, de nieuwe generatie van Nvidia's upscalingtechniek. In dit artikel lees je alles over Nvidia's aankomende videokaarten.

Blackwell voor gamers

De GeForce RTX 50-videokaarten maken gebruik van de Blackwell-architectuur, die Nvidia vorig jaar al introduceerde voor zijn datacenterproducten. Sinds de AI-hype is losgebarsten, zijn Nvidia's gpu's voor doeleinden als het trainen van AI-modellen niet aan te slepen en bovendien goud waard. Niemand met enige realiteitszin kan het Nvidia kwalijk nemen dat het dat segment voorrang gaf.

De Nvidia GB202-gpu uit de RTX 5090
De Nvidia GB202-gpu uit de RTX 5090

Blackwell is wel aangepast ten opzichte van de serverversies, zoals ook voorgaande architecturen niet volledig identiek waren tussen de consumenten- en serverversies. Bij de server-Blackwell lag de nadruk bijvoorbeeld op een enorme geheugenbandbreedte dankzij het gebruikte HBM-geheugen. Bij de gamingversie wordt 'gewoon' GDDR7 gebruikt en is er een nieuwe generatie raytracingcores aanwezig. Sommige van de verbeteringen in de serverversie zijn echter wel overgenomen, zoals ondersteuning voor berekeningen met een zeer lage fp4-precisie. Bepaalde generatieve AI-modellen kunnen daar met bijvoorbeeld quantization al goed mee omgaan en draaien daardoor veel sneller op de RTX 50-serie.

Bij de server-Blackwell was het topmodel, de GB200, een multichipoplossing. De GB202-gpu in de GeForce RTX 5090 is een grote, monolithische chip, met de nadruk op groot. De chip meet naar verluidt 750mm² en bevat 92 miljard transistors. Ter vergelijking: de AD102-chip in de RTX 4090 was 609mm² groot en telde 76 miljard transistors.

Alle nieuwe RTX 50-videokaarten maken gebruik van PCI-Express 5.0, waardoor de totale bandbreedte naar de rest van het systeem verdubbeld is ten opzichte van de voorgaande generaties. We weten uit het verleden dat een nieuwe PCIe-versie lang niet altijd echt nodig is om de volledige prestaties te behalen, maar of dat nu ook weer geldt, moeten we nog bezien.

De nieuwe line-up: GeForce RTX 5090, RTX 5080, RTX 5070 Ti en RTX 5070

Vooralsnog bestaat de nieuwe line-up uit vier modellen. Twee daarvan, de GeForce RTX 5090 en RTX 5080, hebben al een concrete releasedatum; ze komen op 30 januari uit. De RTX 5070 Ti en RTX 5070 volgen ergens in februari.

De Nvidia GeForce RTX 5070
De Nvidia GeForce RTX 5070

Het topmodel van de nieuwe generatie is de GeForce RTX 5090. Deze videokaart maakt als enige gebruik van de high-end GB202-gpu, die 21.760 ingeschakelde CUDA-cores telt, bijna een derde meer dan de RTX 4090. Voor het eerst sinds de GeForce GTX 285 uit 2008 past Nvidia een 512bit-geheugenbus toe, die de gpu verbindt met maar liefst 32GB GDDR7-geheugen met een snelheid van 28Gbit/s. Dat komt neer op een totale geheugenbandbreedte van 1,8TB/s, bijna 80 procent hoger dan bij de RTX 4090. Ook de total graphics power (tgp) van de RTX 5090 valt in vergelijking met zijn voorganger hoger uit. Dat is nu 575W, net onder de limiet van 600W voor de 12Vhpwr-stroomconnector.

De RTX 5080 is gebaseerd op de kleinere GB203-gpu, die met 10.752 stuks bijna precies de helft van het aantal ingeschakelde cores heeft van de RTX 5090. Daarmee is het verschil tussen de twee duurste RTX 50-gpu's veel groter dan het verschil tussen de RTX 4090 en 4080 was. Geheel in dat thema heeft de RTX 5080 ook een half zo grote 256bit-geheugenbus en ook de helft van de hoeveelheid geheugen, met 16GB GDDR7. De tgp is 360W.

De laatste videokaarten die Nvidia vooralsnog heeft aangekondigd, zijn de RTX 5070 Ti en RTX 5070. De RTX 5070 Ti is gebaseerd op dezelfde GB203-gpu als de 5080, maar dan met minder ingeschakelde cores. Er zijn er nog 8960 over, gekoppeld aan 16GB GDDR7 met een lagere kloksnelheid dan bij de RTX 5080. Deze gpu heeft een tgp van 300W. De RTX 5070 gebruikt een kleinere GB205-gpu, heeft 6144 cores en ook minder geheugen: 12GB op een 192bit-bus. De tgp van dit model is 250W.

RTX 5090 RTX 4090 RTX 5080 RTX 4080 RTX 5070 Ti RTX 4070 Ti RTX 5070 RTX 4070
Architectuur Blackwell Ada Blackwell Ada Blackwell Ada Blackwell Ada
Procedé TSMC N4P TSMC N4 TSMC N4P TSMC N4 TSMC N4P TSMC N4 TSMC N4P TSMC N4
Gpu GB202 AD102 GB203 AD103 GB203 AD104 GB205 AD104
Cores 21.760 16.384 10.752 9728 8960 7680 6144 5888
Boostklok 2,41GHz 2,52GHz 2,62GHz 2,51GHz 2,45GHz 2,61GHz 2,51GHz 2,47GHz
Geheugen 32GB GDDR7 24GB GDDR6X 16GB GDDR7 16GB GDDR6X 16GB GDDR7 12GB
GDDR6X
12GB GDDR7 12GB GDDR6X
Geheugenbus 512bit 384bit 256bit 256bit 256bit 192bit 192bit 192bit
Geheugen
snelheid
28Gbit/s 21Gbit/s 30Gbit/s 22,4Gbit/s 28Gbit/s 21Gbit/s 28Gbit/s 14Gbit/s
Geheugen
bandbreedte
1792GB/s 1008GB/s 960GB/s 716,8GB/s 896GB/s 504GB/s 672GB/s 504GB/s
Tgp 575W 450W 360W 320W 300W 285W 250W 200W
Interface PCIe 5.0 x16 PCIe 4.0 x16 PCIe 5.0 x16 PCIe 4.0 x16 PCIe 5.0 x16 PCIe 4.0 x16 PCIe 5.0 x16 PCIe 4.0 x16
Releasedatum 30-1-2025 12-10-2022 30-1-2025 16-11-2022 2-2025 5-1-2023 2-2025 12-04-2023
Adviesprijs 2369 euro 1959 euro 1190 euro 1469 euro 889 euro 910 euro 654 euro 669 euro

DLSS 4

Samen met de RTX 50-serie introduceert Nvidia de vierde generatie van zijn DLSS-upscalingtechniek. DLSS 4 kan tot drie frames extra genereren per gerenderd frame. Tot nu toe werd er bij Frame Generation in DLSS 3 maximaal één gegenereerd frame tussen twee 'echte' frames ingevoegd.

DLSS 4 werkt alleen op de RTX 50-videokaarten en maakt daarbij gebruik van de nieuwe tensorcores van de vijfde generatie. Drie onderdelen van DLSS, namelijk Ray Reconstruction, Super Resolution en Anti-Aliasing, maken bij DLSS 4 gebruik van een transformergebaseerd AI-model. Dit model is vooraf gegenereerd in Nvidia's datacenters.

Bij een transformer worden gegevens omgezet in zogenaamde tokens en opgeslagen in een vector, een getallenmatrix met één kolom. Deze techniek staat ook aan de basis van llm's. Door het gebruik van visiontransformers kan er veel meer data en rekenkracht worden gebruikt voor het toepassen van bijvoorbeeld upscaling en Ray Reconstruction. Nvidia noemt een verdubbeling van het aantal parameters en zelfs een verviervoudiging van de hoeveelheid rekenkracht.

DLSS 4 transformers

Dat er nu meerdere frames gegenereerd kunnen worden tussen 'echte' gerenderde frames, komt door enkele aanpassingen in zowel de hardware als het gebruikte AI-model. Het nieuwe model is volgens Nvidia veertig procent sneller. De hardwarematige berekening van het 'optical flow field', waarin de richting en snelheid van bewegende pixels zijn verwerkt, is bovendien vervangen door een AI-model dat volgens Nvidia veel efficiënter werkt.

Alle gebruikte algoritmes voor opschalen, Ray Reconstruction en Frame Generation worden uitgevoerd op de volgens Nvidia tweeënhalf keer zo snel geworden tensorcores. Het geheel werkt nu zo veel sneller dat het meerdere keren per frame kan worden uitgevoerd. Nvidia noemt het bestaan van een 'X4 Mode', waarbij elk gerenderd beeld wordt opgevolgd door drie gegenereerde beelden, wat suggereert dat de hoeveelheid Frame Generation instelbaar wordt.

DLSS 4 multi frame generation

De pacing van de frames, oftewel met welke tussenpozen de frames worden getoond, wordt natuurlijk wel aanzienlijk complexer als er meer frames worden toegevoegd. Daarom heeft Nvidia de framepacing hiervoor verplaatst van de cpu naar een hardwarematige oplossing in de displayengine op de gpu.

Ten opzichte van native rendering wordt de mogelijke prestatieboost bij DLSS 4 veel groter. Nvidia demonstreerde de techniek in Cyberpunk 2077. Op een RTX 5090 werd zonder upscaling en met volledige raytracing 28fps gehaald. Met de nieuwe Multi Frame Generation, Ray Reconstruction en upscaling in de Performance-mode, steeg dat naar 242fps. Dat is ongetwijfeld een zorgvuldig uitgezocht voorbeeld, en bij snelle bewegingen is een basisframerate van 28fps doorgaans te weinig om een goed eindresultaat te bereiken met dit soort technologieën, maar het geeft wel aan wat de gecombineerde impact van al deze DLSS-technieken kan zijn. In dit voorbeeld worden vijftien van elke zestien weergegeven pixels niet gerenderd, maar gegenereerd, oftewel bijna 94 procent.

Onveranderd is dat ontwikkelaars ondersteuning moeten inbouwen voor DLSS. Bij de release van de eerste GeForce RTX 50-videokaarten zullen 75 games en programma's ondersteuning bieden voor DLSS 4, zo belooft Nvidia. Gebruikers van oudere RTX-videokaarten kunnen wel profiteren van de verbeterde Ray Reconstruction, Super Resolution en Anti-Aliasing, volgens Nvidia in meer dan 50 games en programma's, maar niet van Multi Frame Generation; dat werkt alleen op de RTX 50-serie.

Niet alle ontwikkelaars werken de DLSS-versie even snel bij, of doen dat überhaupt. Het vervangen van de betreffende DLL-bestanden door exemplaren van nieuwere games is dan ook een veelvuldig uitgevoerde truc door fanatieke gamers. Ondersteuning hiervoor wordt ingebouwd in de officiële Nvidia-app; je kunt dan de gebruikte DLSS-versie per game overriden. Er komen losse schakelaars voor Frame Generation, de gebruikte AI-modellen en de gebruikte Super Resolution-optie.

Nvidia app DLSS

Neuralrendering

Waar bij DLSS AI-modellen worden ingezet als alternatief voor 'echte' rendering van frames, gaat het bij alle onderdelen van de nieuwe Nvidia RTX Kit juist om het verbeteren van normale rendering met AI. Met neuralrendering zouden detailniveaus mogelijk worden die normaal gesproken niet haalbaar zijn, aldus Nvidia.

Vermoedelijk het belangrijkste onderdeel van de RTX Kit zijn de neuralshaders, waarmee kleine AI-modellen kunnen worden gebruikt binnen de programmeerbare shaders. Voor nu zijn er drie mogelijke gebruiksdoelen. Het eerste is compressie van textures, waarmee tot zeven keer zoveel vram vrij zou kunnen worden gemaakt dan met traditionele, per 'block' gecomprimeerde textures. De tweede mogelijkheid is het comprimeren van complexe shadercode voor het renderen van materialen, zoals porselein en zijde. Hiermee zou rendering van 'filmkwaliteit' in real time mogelijk moeten worden. De derde en laatste optie is het oneindig laten heen en weer gaan van lichtstralen na het uitvoeren van pathtracing, wat zowel de kwaliteit van de belichting als de snelheid waarmee die berekend kan worden ten goede moet komen.

RTX neural shaders

Een ander onderdeel van neuralrendering is RTX Neural Faces, waarbij een AI-model wordt gebruikt om een gerenderd gezicht een natuurlijkere uitstraling te geven. Dat kan worden aangevuld met de RTX Character Rendering SDK voor het raytracen van haar en huid. In plaats van driehoeken worden daarvoor bolvormige afgeleiden gebruikt, wat tot betere prestaties en een lager geheugengebruik moet leiden dan bij traditionele methoden om haar te renderen. Voor een natuurlijkere, minder plasticachtige uitstraling van huid kan subsurface scattering worden gebruikt, dat de deels doorzichtige eigenschappen van (de bovenste lagen van) de menselijke huid meeneemt.

Verbeterde encoders en decoders

Zowel de encoders als de decoders voor video zijn verbeterd bij de RTX 50-serie. Zo wordt nu video met 4:2:2-kleurcompressie ondersteund, waar sommige professionele camera's in kunnen opnemen. Voor bestaande formaten meldt Nvidia een verbetering van 5 procent in de kwaliteit van het encoderen van HEVC en AV1, en een verdubbeling van de decodesnelheid van H.264. De mogelijkheden voor het gelijktijdig encoderen of decoderen kunnen wel variëren afhankelijk van de gpu. De RTX 5090 heeft drie encoders en twee decoders aan boord; de RTX 5080 heeft er twee van elk; de RTX 5070 Ti heeft twee encoders met maar één decoder; de RTX 5070 heeft er van allebei maar één.

Nvidia werkt naar eigen zeggen met onder meer Adobe, Blackmagic en Wondershare aan de integratie van de nieuwe videomogelijkheden in hun videobewerkingsprogramma's.

Voorlopige conclusie

Hoewel AMD heeft aangegeven deze generatie niet met een antwoord in het topsegment te komen, lijkt Nvidia vol gas te blijven geven op zijn vlaggenschip. De RTX 5090 is in elk geval op papier een grote stap vooruit ten opzichte van de RTX 4090, met een derde meer cores, meer geheugen en een bredere geheugenbus. Daar staat tegenover dat de generatie-op-generatieverbeteringen lager in de line-up kleiner lijken te zijn. Het verschil tussen de xx90 en xx80 was zelden zo groot; in verschillende opzichten is de RTX 5080 bijna een halve RTX 5090.

Daarnaast blijft Nvidia zwaar inzetten op DLSS, waarvan de potentiële prestatiewinst met het nieuwe Multi-Frame Generation bij deze generatie flink toeneemt. Ook de mogelijkheden voor het integreren van kleine AI-modellen in de rendershaders lijken veelbelovend. Of het in de praktijk allemaal net zo mooi is als Nvidia ons wil doen geloven, zullen we uiteraard moeten testen zodra we de nieuwe kaarten in ons eigen testlab ontvangen. Voor nu heeft Nvidia de pc-gamer, zij het die met een goedgevulde spaarpot, in elk geval iets gegeven om naar uit te kijken, waarmee het vrijwel zeker lijkt dat 2025 een veel spannender gpu-jaar wordt dan het afgelopen jaar.

Lees meer

Reacties (303)

303
297
102
8
0
158
Wijzig sortering
Tof dat hier ook de hardware encoders (NVENC) en decoders (NVDEC) worden benoemd, en de verschillende aantallen in de RTX 50 serie. Deze brengen ook in aantallen opvallende veranderingen, waar ik graag even wat dieper op in ga.

Bij de desktop kaarten zijn deze als volgt:
  • RTX 5090: 3x encoders, 2x decoders
  • RTX 5080: 2x encoders, 2x decoders
  • RTX 5070 Ti: 2x encoders, 1x decoder
  • RTX 5070: 1x encoder, 1x decoder
Ter vergelijking: bij de vorige generatie hadden de RTX 4070 Ti t/m 4090 standaard 2 encoders en 1 decoder. Modellen 4070 Super en lager beschikten over slechts 1 encoder en 1 decoder.

Als de encoders en decoders even krachtig zijn, gaan met name de RTX 5080 en 5090 er best een stapje op vooruit!

Dan voor de laptops-GPUs:
  • RTX 5090: 3x encoders, 2x decoders
  • RTX 5080: 2x encoders, 2x decoders
  • RTX 5070 Ti en 5070: 1x encoder, 1x decoder
Vooral de laptop RTX 5090 is opvallend, gezien die gebaseerd is op dezelfde GB203 die als de desktop RTX 5080 en een encoder minder heeft, terwijl de desktop RTX 5070 Ti zelfs een encoder en een decoder minder heeft.

Uiteraard wordt het nog wel even afwachten hoe snel deze NVENC- en NVDEC-eenheden zijn, en of ze nieuwe video codecs ondersteunen (zoals H.266 / VVC decodering).

Wat ik hierover nog kon vinden op Nvidia's website:
NVIDIA’s newest GPU architecture, Blackwell, further enhances the performance and quality of NVENC and NVDEC. The ultra-high quality (UHQ) mode for HEVC introduced in SDK v12.2 extends to AV1 in SDK v13.0 (January 2025). In addition, the Blackwell architecture supports 422 H.264; 422 HEVC; 422i, 420i H.264; multi-view HEVC, and improved H.264 throughput per NVDEC.

Hardware-Accelerated Video Encoding - NVENC
The software enhancements in SDK v13.0 enable extending ultra-high quality (UHQ) mode to AV1 encoding. This makes AV1 encoding on Blackwell NVENC comparable to software AV1 encoding with ~3X throughput. The UHQ HEVC mode was introduced in the SDK v12.2 in the Ada generation.

Blackwell introduces 422 progressive and interlaced encode and decode support in hardware, enabling professional use cases in media and entertainment, video editing and broadcast. Multiple NVENCs working together can achieve performance as high as 8K video at 60FPS+.

Hardware-Accelerated Video Decoding - NVDEC
With Blackwell GPUs, NVDEC doubles the video decoding throughput for H.264 decoding and adds support for 422 decoding for H.264 and HEVC codecs.
Dat zijn dus best wat leuke verbeteringen. Hardware AV1 encoding die vergelijkbaar zou moeten zijn met software encoding (wat normaal gesproken betere kwaliteit bied) zou erg indrukwekkend zijn.

Wat ik overigens nog steeds jammer vind is dat videokaarten geen input poort hebben, ook in laptops. Dat zou ze uitermate geschikt maken om direct een webcam op aan de sluiten, zodat alle beeldbewerking daarvan op de GPU gedaan kan worden in plaats van in de webcam. Dat zou zo veel voordelen op leveren:
  • De webcam kan kleiner, goedkoper en zuiniger worden, gezien er geen encoding hardware meer in hoeft te zitten
  • De webcam data hoeft niet meer over een beperkte USB-verbinding (met alle compressie van dien), maar kan gewoon ruw doorgestuurd worden
  • De videokaart kan alle geavanceerde beeldbewerkingstechnieken toepassen, en daarmee veel hogere kwaliteit encoding (en noise reduction etc.) bieden
Dankje hier voor. Was zelf al op zoek naar de ondersteuning van de nieuwe NVENC/NVDEC.
Ik denk dat het erg interessant is dat ze 4:2:2 support toevoegen. Beetje een inhaalslag tov Intel ook denk ik.
Er lijkt nog geen informatie te zijn ivm het maximum aantal encode sessies op deze toestellen. De consumer kaarten stopten altijd bij 8, maar nu de 5090 3 encoders heeft ben ik benieuwd of dit toch verhoogd zou worden.

Nog vorig jaar ging het van 5 sessies naar 8. (https://www.reddit.com/r/...nvenc_limit_again_from_5/)

https://developer.nvidia....de-gpu-support-matrix-new

[Reactie gewijzigd door 33Fraise33 op 7 januari 2025 13:47]

Ik lees overal dat 4:2:2 (wat ik schiet omdat veel beter is dan 8 bit 4:2:0 Zéér slecht ondersteund word op Nvidia en AMD, Intel cpu ondersteunt stiekem heel goed, Apple m4 (of zoiets) ook, AMD cpu helemaal niet. Zelfs op 16 core cpu, is het zodanig slecht geoptimaliseerd dat je onmogelijk live kan afspelen zonder een converted file.

Ik lees dat AMD codecs ook beter zouden worden. Maar will die nu zeggen dat 4:2:2 codec eindelijk life gespeeld kan worden of zijn er toch problemen nog (qua ondersteuning), er lijkt een zéér specifieke 'chip' nodig te zijn om dat goed te kunnen.
Aan de specs te zien presteerd een 5080 met reguliere games zonder allerlei truuks en optimatlisaties ergens net onder de 4090.
wat zijn de toepassingen van deze encoders/decoders? en vooral wat zijn de toepassingen van meer dan één decoder/encoder?
Ik vermoed dat bij het exporteren van een video deze dan in meerdere delen wordt opgesplitst en daardoor door meerdere encoders wordt verwerkt en daarna weer wordt samengevoegd.
Een ongecomprimeerde 1080p videofeed neemt slechts 144Mbps in, de bandbreedte van USB is totaal neit het probleem bij webcams. Het probleem is luie fabrikanten die je shit verkopen
1920 x 1080 pixel = 2073600 pixels per frame
x 24-bit RGB = 49766400 bits per frame
x 30fps = 1492992000 bits/second
=1.4Gbit

Zelfs met YUV 4:2:0 subsampling heb je nog gemiddeld 0.7Gbit nodig.

Dit zou wel over USB3 moeten passen. Leuk, maar daar hebben we betere standaarden voor zoals HDMI en DP. En die kunnen capture kaarten prima oppikken.
Oeps, ik heb bits en bytes verward, foutje!

Als of: 1.4Gbps is totaal geen probleem voor een ouderwetse USB3 poort.
Zou Apple dat met hun webcams ook zo oplossen? Die doen op hun Macs (net als iPhones en iPads) een hoop beeldbewerking op hun webcams. Je zou zeggen dat wat je beschrijft voor hun de goedkoopste manier is om het op te lossen.
Das allemaal software, al die beeld opwaardeer features.
Dat beeld komt RAW binnen en wordt door systeem verder bewerkt.
Deze update bespaart mij best wat geld! Dank je wel.
Ik zat namelijk te kijken naar een video camera met interne prores 4:2:2 opname.
Maar ik begrijp hieruit dat 4:2:2 h264 decoding voor video-editing nu veel sneller gaat. Dus monteren in Premiere zal met Canon's ingebakken 4:2:2 DCI All-I gaat op Blackwell veel sneller dan hiervoor.

Ik vroeg aan ChatGPT o1 of mijn redenatie klopt:
Kort gezegd: ja, je redenatie klopt in grote lijnen. Door de nieuwe hardware-ondersteuning voor 4:2:2 H.264 (en HEVC) in Blackwell-GPU’s is de verwachting dat de verwerking van 4:2:2-materiaal – zoals dat van veel Canon-camera’s – een stuk efficiënter zal verlopen dan voorheen. Dat betekent minder CPU-belasting en dus vloeiender (real-time) editten, mits je software (Premiere) deze nieuwe hardware-decode optimaal benut.

Een paar nuanceringen:

Versie en implementatie in Premiere
Dat Adobe Premiere (en andere NLE-software) daadwerkelijk gebruikmaakt van de volledige 4:2:2-hardwareversnelling kan afhangen van updates in hun eigen software. Vaak worden nieuwe GPU-features niet onmiddellijk ondersteund; controleer dus altijd of je met de nieuwste versie werkt, of bekijk (na release) de releasenotes om te zien of 4:2:2 H.264-decoding expliciet vermeld wordt.

Bitdiepte (8-bit/10-bit)
Veel ‘4:2:2 All-I’-opnames zijn 10-bit. In principe claimt Nvidia met Blackwell 4:2:2-ondersteuning in H.264 én HEVC. Toch is het goed om erop te letten of het 10-bit-profiel (Main10 of High10) volledig hardware-versneld wordt en of dit bij elke resolutie en framerate geldt. Vaak worden de meest gangbare 4:2:2- en 4:2:0-profielen ondersteund, maar double-check de specs als je (bijvoorbeeld) 4K/120p of iets dergelijks wilt bewerken.

ProRes vs. H.264 4:2:2

ProRes 422 blijft een van de prettigste (en meer ‘lossless’) formaten voor postproductie, vooral bij zware kleurcorrecties of VFX-werk. Het is wel flink groter qua bestandsgrootte.
H.264 4:2:2 is compacter, maar was tot nu toe zwaarder te decoderen op de CPU. Met Blackwell’s hardware-decoder is dat nadeel grotendeels weg.
De vraag is dus niet alleen “Kan ik het sneller afspelen en editen?”, maar ook “Hoe intensief ga ik color grading en VFX doen?”, en “Wat voor workflow heb ik met cliënten/broadcast/archivering?”
Render- en exportvoordelen
Niet alleen het inladen (decoderen) van 4:2:2 H.264 gaat vlotter, maar ook als je uiteindelijk (bijvoorbeeld) in AV1 of HEVC wilt exporteren, heb je extra NVENC-capaciteit op de RTX 50-serie. Dat kan je hele workflow versnellen, zeker bij (semi)professionele projecten.

Kortom, als je voornaamste reden was om een duurdere camera met (interne) ProRes 4:2:2 te nemen omdat je bang was dat H.264 4:2:2 te zwaar zou zijn bij het editten, dan is die noodzaak met de Blackwell-GPU’s inderdaad minder groot. Vooral als de rest van je workflow prima met (10-bit) 4:2:2 H.264 overweg kan, bespaar je hiermee zowel data-opslag als (mogelijke) camera-meerkosten.

[Reactie gewijzigd door Nasha op 9 januari 2025 08:42]

@Tomas Hochstenbach Is het niet logischer om in de vergelijkende tabel de 50-serie te vergelijken met de 40-Super-serie? Dat zijn nieuwere releases met meer performance voor soms een lagere adviesprijs. De 5080 lijkt bijvoorbeeld een grote upgrade vergeleken met de 4080, maar vergeleken met de 4080 Super stelt het eigenlijk niet zo veel voor.
5070 FTW

4090 performance voor 650€, mooier dan dat kan bijna niet.

Een waardige upgrade voor mijn 3070 uit 2020

_O_ HULDE NVIDIA HULDE _O_
Hopelijk begrijp je dat dat enkel met MFG is en dat het op het gebied van rasterization (raw) performance onmogelijk is. Not to mention the limited VRAM capacity.

Wel grappig om te zien hoe Nvidia’s marketingtrucjes inspelen op de gemiddelde consument.
je hebt wel een punt, maar voor de gemiddelde consument maakt het uiteindelijk niet uit hoe het beeld op je scherm getoverd wordt. Zij het door rasterization of door AI generatie, als het resultaat is dat je uit een 'technisch'inferieure kaart eenzelfde output kan creeeren door slimme trucjes, dan is dat ook best bewonderswaardig. Anderzijds ook wel zorgelijk, want het verleidt game devs niet bepaald om hun games te optimaliseren. Zodoende heb je uiteindelijk als consument toch baat bij een kaart met ruwe rekenkracht.
De "gemiddelde consument" heeft simpelweg geen flauw idee hoe verschrikkelijk hard ze belazerd worden wanneer Nvidia ze dit laat zien; '5070 | 4090 Performance'... :+
Al was 5070 echt zo goed als een 4090, met 12gb aan vram zul je met RT sneller in problemen komen.

Vooral op 4k maar ook op 1440p met bepaalde games.
Ja, die 12 gb aan vram in 2025 is echt onnavolgbaar. Er zijn nu al veel gamers die aangeven dat 12 gb eigenlijk te krap is voor moderne games. Als ik een nieuwe game pc bouw, dan doe ik dat met het idee dat ik weer een paar jaar vooruit kan. Dan vind ik zelfs de 16gb van de 5080 nog te karig, maar de 5090 is me dan weer te gortig. Ik hoop dat er snel een 5080Super komt met 24gb vram en een faire prijs.
Zal wel de 5080TI worden. Met 24GB - 384 bit geheugen.
Zo gauw de 5080 verkoop op zijn retour gaat.
Kijk, daar zou ik nu enthousiast van worden. Ik snap niet dat Nvidia nu zo'n gapend gat in de line-up laat vallen.
Dat is zodat 5090 ti ruim boven de 5080 en nog steeds verweg van 5090 waar dan nog ruimte is voor super die ook redelijke afstand heeft tot de 5080ti en de 5090
Ja, die 5070 komt op een gegeven moment te laag met echte frames om nog prettig te kunnen genereren. Die 4090 heeft wel de onderliggende performance om nog iets aan basiskwaliteit te bieden. Hoe verder in de lifecycle dat je komt, hoe sneller de basis onder de 30 fps zakt, en dan heeft genereren weinig zin meer.

Genereren is in mijn beleving vooral top om bijvoorbeeld van 60 fps naar 240 fps te komen. Maar dan is de vraag, hoe lang blijft 5070 die 60 fps halen... die 4090 op zeker langer, ik heb veel liever die 4090 van 60fps naar 120fps jaren langer, dan de 5070 in het begin super duper 240fps en later in de lifecycle toch wat in elkaar storten qua kwaliteit om nog op die 60fps basis te komen.
En gelijk warmte bij gebruik. Dus én speelplezier én verwarming van de kamer met hetzelfde stroom. Daar kan nog een label duurzaam of circulair op!
Dat is inderdaad leuk voor de koude wintermaanden. Maar in de warme zomermaanden is die extra warmte alleen maar extra vervelend..
winter game-rig zomer game-rig nodig.
Als de 4090 ook MFG krijgt dan verschuift dat sowieso...
Nope, MFG is alleen beschikbaar op 50xx-kaarten helaas.
Nee, was dat maar waar.

Als ik de site van NVidia goed begrijp, krijgt de 40-serie wel wat nieuwe features van DLSS 4.0, waaronder een verbeterd algoritme voor de oude Frame Generation, maar Multi Frame Generation (waar er meer dan één frame geïnterpoleerd wordt, hence the 'multi') helaas niet.

"Multi Frame Generation" is echt exclusief voor de 50-serie. [bron]

Op de 40-serie blijft het zoals we altijd al hebben gehad, en bestaat Frame Generation uit één extra geïnterpoleerde frame per twee gerenderde frames.

[Reactie gewijzigd door Heroic_Nonsense op 8 januari 2025 19:07]

X2 is 1 gegenereerde frame
X4 is 3 gegenereerde frames
Maar X2 is dus geen MFG, maar gewoon "FG", volgens dat tabelletje.
Wat is MFG?

-ah frame gen-

[Reactie gewijzigd door James Pond op 7 januari 2025 10:11]

Multi frame gen volgens mij. De rtx 40xx serie beschikt wel over reguliere (DLSS 3) framegen.
Maakt voor mij niet uit. Ik speel niet op native.
Het nieuwe vlaggenschip is geintrodiseerd en het ziet er goed uit.
ondanks de prijs een mooie opvolger van de 4 serie, sneller geheugen en meer cores moeten het gaan doen.2350 euro phoe.wel aan de dure kant,niks voor mij want ik speel geen games meer vroeger wel maar nu niet meer.

[Reactie gewijzigd door rjmno1 op 7 januari 2025 13:34]

Wauw wat een fanboyism.
Ik moet helemaal niets hebben van dlss technieken. Stilstaand ingame, prima. Maar zodra je beweegt en wat onverwachte bewegingen maakt, wordt het een smeuïg geheel. Maar goed om te lezen dat Nvidia marketingstechnieken goed werken bij jou. Maar dan ook niet teleurgesteld raken als jouw 5070 straks niet hetzelfde presteert als een 4090, want dat gaat ie dus echt niet doen.
Ik speel nooit op native, prima als jij het niet wil gebruiken.
Er is ook weinig mis met DLSS, ik ken mensen die het just non stop gebruiken omdat ze op native een game niet normaal draaiend krijgen op 4k.

Ik zelf gebruik het niet (mijn voorkeuren terzijde, tenzij ik RT aan wil hebben is het voor mij overbodig), maar wat mijn grootste probleem met DLSS, maar ook FSR is dat vooral vorig jaar best wat games aangekondigd zijn waarbij DLSS/FSR als een excuus gebruikt worden, om een game überhaupt normale framerates te laten halen (looking at you Monster Hunter Wilds).

DLSS/FSR is prima als mensen met zwakkere hardware betere framerates willen halen op hogere settings of resolutie.

Eventueel met high end hardware Raytracing op 4K.

Maar het wordt een probleem als men het gaat gebruiken zodat een game überhaupt draait, om MH Wilds als voorbeeld te nemen, ze raden framegen aan om 60fps te halen, dat is gewoon absurd.
Nvidia demonstreerde de techniek in Cyberpunk 2077.
Op een RTX 5090 werd zonder upscaling en met volledige raytracing 28fps gehaald. Met de nieuwe Multi Frame Generation, rayreconstruction en upscaling in de Performance-mode, steeg dat naar 242fps.
En als ik dit soort dingen lees, zie ik bepaalde studios al in hun handen vrijwen dat ze nog minder tijd aan optimalisatie van hun games hoeven besteden.

En dan heb ik het over PC markt, met consoles zie ik FSR gewoon misbruikt worden om bepaalde games überhaupt draaiend te krijgen.

Nogmaals, DLSS en FSR zijn prima technologieën, probleem is hoe ze gebruikt worden tegenover waar ze werkelijk voor bedoeld zijn.

[Reactie gewijzigd door Mizgala28 op 7 januari 2025 14:49]

Als ik dit dan lees als cynische klant dan denk ik: dus je kunt op 4k 28 "echte" fps genereren, de rest verzin je erbij en dan doe je net alsof je 242 fps hebt? Dus als ik op mn werk een memo schrijf en deze 4x kopieer, heb ik dan ook 4x zo goed gewerkt?

Ik lees dus 28 fps. Dat kon mijn 2080super in 2019 ook. Waar zijn we dan mee bezig?

Het valt me ook op dat Nvidia veel games als voorbeeld gebruikt die al jaren oud zijn. Hoe zit het dan met moderne en toekomstige titels?

Nu weet ik dat ik veel te cynisch ben en dat er ook wel wat voordelen zijn aan framegeneration, maar mijns inziens kunnen we niet hard genoeg benadrukken dat Nvidia de resultaten hier kunstmatig opklopt.
Exact dit is het probleem momenteel. Ik was toen DLSS net uit kwam best wel hyped want ik dacht: nice! over 5 jaar wanneer games wat zwaarder zijn dan nu, kan ik het alsnog op hoge fps draaien want DLSS. Helaas te naïef nagedacht, games draaien nu amper tenzij je het gebruikt, en laten we niet doen alsof games er ook 25x beter uit zien.

Ik kijk zelf altijd terug naar Battlefield 1. Een onbetwist prachtige game, die met een RTX3060 op native 4K en ultra settings kan draaien en ruim 60fps gemiddeld haalt Link.

Nu komt nvidia met een demo van Dune Awakening link die op een 5090 op 4k native soms amper 60fps haalt en DLSS nodig heeft voor hogere framerates. Sorry, maar *zoveel* beter ziet het er ook niet uit. Als je 't mij vraagt vind ik juist BF1 de mooiere game, maar goed dat is natuurlijk persoonlijk

[Reactie gewijzigd door damaus op 8 januari 2025 13:55]

Dev kunnen load target van 15FPS en dat dlss4 naar 60fps krikken.
Met een 5060
wordt het een smeuïg geheel.
Dat wordt het niet, al meerdere malen bewezen door digital Foundry. Sterker nog, in sommige gevallen verbetert het de beeldkwaliteit.

[Reactie gewijzigd door nullbyte op 7 januari 2025 10:42]

in sommige gevallen verbetert het de beeldkwaliteit.
dat mensen dit geloven verklaart waarom nVidia beter verkoopt dan AMD terwijl AMD gemiddel 10% betere performance/euro biedt.
Performance/prijs is leuk maar als ik onderdelen moet bestellen voor een nieuwe pc en AMD weken geen voorraad heeft terwijl ik zo een nvidia kaart kan bestellen hebben ze toch pech
100% gelijk, snap ik.
Wel alleen als je op lagere settings games, want als je ray tracing aan zet krijg je zelfs minder voor je geld.

Als je €500 of meer voor een videokaart uitgeeft snap ik dag sommige mensen toch ook graag iets van de toeters en bellen aanzetten. Als je naar marktaandeel kijkt lijkt het er zelfs op dat de meeste mensen die paar tientjes graag uitgeven voor een kaart die daar beter mee overweg kan.

Ik hoop op een prijsknaller voor de RX 9070. Gaat concurreren met de 4070 (hopelijk ook op het gebied van RT). Dan zullen ze ver onder het msrp van $550 van nvidia voor de 5070 moeten gaan zitten
Dlss is bewezen scherper dan taa native. Je hoeft het niet te geloven als je feiten wil negeren.
Nou dan moet voor bewijs xo arena esports fp game doen waar men 240fps eisen op 1080p .
Voor noncompetive games zal framegen vaker geen probleem zijn.
Nee bewegen met dlss is bagger. Wazig en ghosting. Logisch omdat de a.i onvoorspelbaar moet genereren. Stilstaand is het prima. Check Linus Tech Tips dat hij de 5090 probeerd in cyberpunk met dlss.
Dat wordt vaker geroepen maar als ik vervolgens om onderbouwing vraag (link naar desbetreffende video) krijg ik die anders nooit.
Hier een video van hardware unboxed, hier zie je in veel (lang niet alle hoor) dlss een betere image quality heeft dan native. Het kan een beetje een hit or miss zijn, echter de baseline is echt wel prima altijd qua beeldkwaliteit. Ik speel bijna al tijd met dlss quality op m'n 4080 super. Ik heb liever de extra frames zodat de bewegingsscherpte gewoon hoger is op m'n 144 hz displays. (Ik gebruik geen framegen, dat is kut).

YouTube: Is DLSS Really "Better Than Native"? - 24 Game Comparison, DLSS 2 vs...
Wat een onzin, het is keer op keer aangetoond dat DLSS erg goed is met minimale artifacts. Er zijn vooral alleen nog ghosting issues in bepaalde scenarios.
DLSS is een indrukwekkende techniek, maar een minder sterke kaart uitbrengen met software optimalisatie positioneren tegen een veel sterkere kaart zonder diezelfde optimalisatie en dan zeggen dat ze gelijk zijn is niet eerlijk. Laten we vooral de echte benchmarks afwachten.

Ik ben wel benieuwd hoe de 5070 zich gaat verhouden tegen die 4090 met DLSS3 bijvoorbeeld en zonder DLSS. En dan natuurlijk DLSS4 op een 5070 vs een 4090 met DLSS3.
En dan hebben we het nog niet over de veel te beperkte 12GB vram (kijkend naar de toekomst).
Zie het hele 8GB debakel van de huidige kaarten en recente games.
Als NVIDIA inderdaad die killer GPU kan uitbrengen dan zou dat een enorme prestatie zijn.
De vram is te weinig inderdaad, bedrijven proberen hun nieuwe producten al sinds het jaar 0 gunstiger te laten lijken dan dat ze misschien zijn. Daarom altijd wachten op benchmarks. Ze komen wel met een nieuw compressie algoritme maar het is niet bekend of dat hardware matig altijd wordt gebruikt of dat er ondersteuning net zoals DLSS voor nodig is.

Zelf liever minimaal 16GB gezien en 24 voor de 5080.
5070Ti is wat mij betreft de sweet spot, maar die prijs he...
En even afwachten wat de RX 9070 XT gaat doen.
DLSS upscaling, sure, maar daar doet deze nieuwe serie 0.0 aan. FrameGen, in alle vormen en maten, is gruwelijk merkbaar als je ook maar even kijkt, of donkere scenarios doet.
Waarom dit toch misschien niet helemaal klopt.
Deze developer claimt dat bepaalde upscale technieken wel degelijk zorgen voor slechtere framerates etc. (asmongold reageert alleen op de developer)

[Reactie gewijzigd door mxmemx op 7 januari 2025 14:49]

Ben bekend met het origineel, en zijn claims zijn niet helemaal correct, hij haalt altijd een voorbeeld build aan welke super slecht geoptimaliseerd is maar geen raakvlakken heeft met de realiteit. Is al door meerdere devs onderuit gehaald.
Laten we frame generation niet verwarren met upscalen. Frame gen is vaak niet mooi, met artifacts enz. bij (snelle) bewegingen. Upscalen is niets mis mee imo.
Downscalen is nog beter , ik wil insane rekenpower voor insane te super samplen :)
Was er ook zoiets, In de tijd van 3dfx, dat renderen op hogere reso zodat nog fijner AA resultaat kreeg.
Je klinkt als mijn vader, die moest ook niets van moderne technieken hebben. Hij beweerde dat zijn PC met 80286 CPU met monochroom beeldscherm professioneel en beter was dan mijn Amiga. Hij noemde mijn Amiga smalend een spelletjescomputer. Wist hij veel wat een GUI of multitasking was, dat wilde hij ook niet weten. Dat is precies zoals jij je je opstelt tav Nvidia; Nvidia gebruikt 'marketingtechnieken' om argeloze consumenten te duperen en DLSS is geen bruikbare tech. Hilarisch.
4090 performance bij de 5070 kan gewoon niet want de 4090 heeft 24 gb vram tegen 16 van de 5070.
Belachelijke claim van Nvidia. Die 8gb ga je missen.

Indiana jones and the great circle geeft namelijk al problemen bij de 4070 kaarten met 16 gb vram. Dit is de eerste game die ray tracing vereist dus een goede benchmark voor de nabije toekomst.
5070 heeft 12gb vram

5070 ti heeft 16gb vram.

5080 zou eigenlijk 24gb moeten hebben vind ik, maar dat heeft nvidia liever niet blijkbaar.
Daar had ik nog overheen gelezen.
Ik stink er steeds in, je verwacht gewoon dat ze de 5070 met 16gb uitrusten.
Ging er ook al vanuit dat de 5080 24 gb zou hebben.
Denk dat de hele 50xx serie gewoon 50% vram te kort komt. De 5090 komt ook niet helemaal tot zijn recht komt met 32gb. Stel dat je 8k wil gaan gamen (weet niet goed waarom, maar vast mensen die dat willen), denk dat de GPU dat wel aan kan maar VRAM schiet dan echt te kort als je alle opties aanvinkt.
Nou, laten we nog even wachten met de hulde. MFG bestaat al in verschillende apps. Het nadeel is dat je enorme input lag krijgt. Het is dus vooral de vraag wat de latency gaat doen in real life zodra we 4X generated frames toevoegen via deze nieuwe DLSS feature.

Eerlijk is eerlijk, Nvidia heeft met FG het redelijk onder controle (beter dan AMD die een base framerate nodig heeft van 60 zonder input delay te voelen), maar het is de vraag of dat met 4X FG ook het geval is.

[Reactie gewijzigd door WiXX op 7 januari 2025 10:04]

Ze hebben al bekend gemaakt dat met de nieuwe versie van dlss er maar een input lag is van 1ms.
Dat zal dan extra inputlag zijn. Die 1ms kan niet de totale inputlag zijn als beelden bij bijv. 200fps per definitie 5ms op beeld zijn. Als die de fps met framegen zou zijn, en er voor elke frame 3 nepframes zijn zit er in dat voorbeeld 20ms tussen echte frames.

[Reactie gewijzigd door Raphire op 7 januari 2025 12:35]

Daar hebben ze nvidia reflex voor die dit probleem effectief oplost. Reflex is een niet heel bekend parade paardje van Nvidia en zit echt goed in elkaar.
Maar reflex kan je input lag niet lager maken dan de tijd tussen frames. Je hebt effectief nog een input lag van minimaal 5ms als je 200fps hebt.
Zo ver ik weet ging dit om 1 voorbeeld specifiek bij Valorant.
En daar heb je reflex voor! En er komt een 2de versie aan wat juist de input gaat verbeteren.

https://www.nvidia.com/nl-nl/geforce/technologies/reflex/
Hulde? CPU en RAM compleet uit balans bij deze kaart.
Het is bijna crimineel.
Jij moet dadelijk eerder een nieuwe kaart kopen want RAM te kort (terwijl compute nog snel genoeg is) - laat dit jouw probleem zijn.
Maar ook eerder tot e-waste getransformeerd. Dit is gewoon zonde.
De afgelopen 4 jaar prima gedaan met de 8GB ram 3070. Waar ook mensen over aan het janken waren want 8GB was allang niet meer genoeg.

Nooit problemen mee gehad. Alle games draaien.
Ik betwijfel het dat u daadwerkelijk elk spel heeft gespeeld.

Maatje van mij heeft de overstap van een 3070 naar een RX 6900 XT gemaakt. Zou volgens hem de beste keuze zijn geweest. Hij houdt namelijk van recente games (Horizon, MH wilds, helldivers 2) en ook van oudere games modden. (Skyrim, fallout etc)

Met zulke games heb je gewoon wat meer vram nodig. Dit kan Nvidia je gewoon niet bieden voor die prijs. Gelukkig AMD wel. :)

Hulde _/-\o_ lol
Geen enkel van die spellen zijn een probleem voor de 3070, ook met uitgebreide mods. Maar oke sure. AMD trolls be trollin
Modded Fallout 4 gebruikt misschien tops een keer 5,5GB Vram, Daarvoor hoef je die iig niet voor te halen.
Niet in raw performance, dan komt hij niet eens in de buurt waarschijnlijk.
Echt no way ... weer een marketing trucje. Als je alleen naar specs kijkt zou ik eerder zeggen dat een 5080 performance net onder of gelijk aan een 4090 zal liggen. Dat is ook vergelijkbaar met vorige gen met 3090 en 4080 performance. Doe 5070ti zal wellicht rond performance van een 4080 zijn maar dan voor minder geld, netjes van nVidia. Jammer dat die 5090 zo duur is maar OK 5090 is wel een halo product dat is prima.
Dat is dus een grove leugen: de 5070 die 'even snel is als een 4090' is een valse vergelijking van de nieuwe interpolatie vs de oude, oftwel: van 1 exhte frame maakt de 4090 2 frames, terwijl de 5070 van 1 frame 4 frames maakt.

Wijk je dus naar echte performance, en geen lelijke frames vol artefacten, dan is de 5070 dus half zo snel als de 4090.
Je mist 10.000 cores en 12GB Vram ten opzichte van de 4090. De 4090 staat alsnog ver boven de 5070 qua performance.
Even invoegen op nachtuil:

Dat is dus inderdaad met MFG, dus 25% doet de kaart "zelf" en de rest met MFG. Dus in de realiteit komt hij niet eens in de buurt van de 4090.
Houd hierbij dus ook rekening dat er op de launch maar 75 games zijn die dit ondersteunen, dus heb jij een game die niet goed loopt op je 4070? Dan loopt hij (als ik kijk naar hun benchmarks) maar +-20% beter.
En het maakt mij niet uit wat voor trucjes ze gebruiken, je kan geen input uitoefenen op frames die niet echt zijn. Dus je soepele 120fps voelt gewoon als 30fps.

Ik vind dit toch wel een zorgelijke ontwikkeling. De echte winst is software afhankelijk en dat gaat voor mij toch tegen de alure van pc gaming. Het voeld nu een kleine beetje als een PS5 pro. Ja het is beter, maar de software(games) moeten het wel ondersteunen

[Reactie gewijzigd door Xander.M op 7 januari 2025 16:28]

Moore's law is al jaren dood dus het is niet anders.
Kijk naar de geheugen bandbreedte, dat is de enige echte indicatie van hoeveel je over de hele linie aan performance erbij kan krijgen. Zonder DLSS of andere AI truuks.
Hulde? Ze doen deze generatie amper een performance winst, reken op een 5-6% winst in vergelijking met de 40-reeks. Wel grappig om te zien dat de marketing tricks al een slachtoffer hebben gemaakt :)
De kaarten in vergelijking met hun 40XX peers hebben tussen de 30~40% performance verbeteringen.

[Reactie gewijzigd door Sn0wblind op 7 januari 2025 11:03]

Niet in pure raster performance. Als je alle AI gimmicks neemt zoals frame gen (waardoor je in principe op een lagere resolutie speelt) wel, maar pure raster performance is amper 5% omdat de CUDA cores lichtjes gestegen zijn EN de node nog altijd op 4nm is van TSMC. Er is geen pure performance increase.
Ze claimen 2x MET DLSS. Cuda core counts + node zijn niet de enige verschilmakers voor performance.
DLSS met 50xx is 3 generated frames per rendered frame ipv 1:1 bij de 40xx serie. Dan zit je dus direct op een verdubbeling. Vraag is hoe goed die 3 generated frames zijn. Dan zijn ze dus frames aan het genereren op basis van een generated frame, of zelf generated -> generated -> generated.
Het valt of staat met de response times, DLSS3 is erg goed, zolang de basis framerate maar 60+ is. Als het bijvoorbeeld 30fps is, dan oogt het vloeiend maar het voelt niet zo.
Klopt, kijk naar Wukong, basis FPS is 30 op de PS5 en gebruikt dan FSR3.0 om op fake 60fps te komen, wat ten koste gaat van de reactietijd.

Zie Filmpje DF: YouTube: Black Myth: Wukong - PS5 Tech Review - Excellent Visuals, But Too Ma...

Met mijn 4070 Super een paar keer gebruikt, maar ik kan heel goed zien en voelen dat er neppe beelden worden toegevoegd, dan gebruik ik vaak liever DLSS 2.0 vaak al dikke FPS winst zonder neppe frames, wel lagere resolutie maar dat maakt DLSS 2.0 dan wel weer goed.

[Reactie gewijzigd door GreasyAce op 7 januari 2025 19:03]

FSR...... dat is geen DLSS3. En zoals ik al zei, als je basis framerate al goed is, dan merk je vrijwel geen nadelen met DLSS3.
Dat snap ik, maar FSR 3.0 heeft hetzelfde doel als DLSS 3.0, extra frames toevoegen zodat je hogere FPS krijgt, de PS5 heeft geen DLSS omdat het AMD hardware heeft maar het principe is hetzelfde.

https://gpuopen.com/fidelityfx-super-resolution-3/

Oneens betreft dat je het niet merkt. ik Speel COD MW3 online en haal met DLSS 2.0 op extreme en 1440p met mijn 4070 Super en i7 12700k rond de 160-180fps (al erg goed) als ik dan DLSS 3.0 aanzet merk ik echt dat het wat vaag oogt, dus ja het zijn meer frames maar ik merk dat het niks doet voor mijn inputsnelheid en daarnaast voegt het vage beelden toe, ik vergelijk het een beetje met het soap opera effect op tv's waar ze 24fps beelden verhogen naar 48 of zelfs 60fps met nep frames.

[Reactie gewijzigd door GreasyAce op 7 januari 2025 12:10]

Het doel is hetzelfde maar de methode niet en daarom is het resultaat dan ook anders. Switch maar bijvoorbeeld in Stalker 2 van DLSS3 naar FSR3, het verschil is enorm, van graphics output tot response door de framegen.

Waar het wel echt problematisch kan worden, is als je harde stutters hebt.
Oke, ik ga het proberen. Ben benieuwd!
Waarom gebruik je FSR met een RTX 4070? Heeft Wukong geen DLSS?
Dit is een test op de PS5 die DF heeft verricht waar ze laten zien wat de game doet, kijk het filmpje maar. Ik zou uiteraard DLSS 3.0 gebruiken op mijn 4070Super, maar omdat Sn0wblind beweert dat FSR 3.0 slechter is dan DLSS 3.0 ga ik dit even testen, ik vind het hoe dan ook niet een fijne techniek, omdat ik het heel goed kan zien dus zet het vrijwel altijd uit en verlaag wat settings om wel op de magische 60 fps te komen.

ps. Wukong heeft wel DLSS zie link: https://www.techpowerup.c...s-fsr-vs-xess-comparison/
FSR3 is waardeloos vergeleken met de nieuwe FG oplossing van Nvidia.
Ja op digitalfoundry
Met DLSS geloof ik nog altijd niet in 2x increase. Ik heb het puur over raster performance because I couldn't care less about DLSS. Dat zegt voor mij niets over de kracht van een kaart. Ik spreek dan ook specifiek over mijn noden voor een kaart, ik heb niets met DLSS en frame gen. Ik blijf nog wel even bij mijn 30 reeks :).
"Ik geef niets, ik geeft niets", lekker boeiend. Ik geef alleen aan dat ze claimen een 2X performance increase met DLSS4 versus de 40 series tegenhanger. Dat het zonder DLSS de usual 30 tot 40% jump is. Blijf lekker bij de 30 reeks als je dit wilt.

Er worden in games als decenia lang de trukendoos opgengetrokken om met shortcuts bepaalde performance metrics te halen, waarom denk je dat 3D modelling zoveel meer performance vergt dan een video game waar je honderden assets tegelijkertijd op je scherm hebt? Heel de screen space reflection techniek is een hack.
1.N4P is een compleet andere node dan N4
2. je kan verschillende cores niet vergelijken tussen generaties. niemand weet de ipc van de cores. ze kunnen 5% sneller zijn, ze kunnen 20% sneller zijn, ze kunnen 100% sneller zijn. Er zijn geen cijfers.
3. ADA was bandwidth starved en de kaarten krijgen hier een enorme boost van 30% tot 80%


reele performance increase zal echt wel minstens 30% zijn.
1: TSMC quotes that N4P further improves N4's performance by around 6% https://www.tomshardware....ss-a-refined-n4-chip-node
2: Niemand weet dat inderdaad, maar je gaat met niet vertellen dat ze opeens 100% sneller zijn. Dat doen ze hun eigen niet aan en is ook niet realiseerbaar in 1 generatie.
3: De geheugenbus is nog altijd maar 192bit voor de 5070, dat sneller geheugen kan wel wat doen maar je gaat me niet vertellen dat dat opeens zorgt voor een 30% boost.

Ik blijf erbij, performance gaat echt geen 30% zijn.
Explain to me hoe ze hier 30% performance boost kunnen uithalen (check de tabel)
https://www.tomshardware....vious-generation-rtx-4070
20% met RT op z'n best, dus raster zal 10, misschien 15% zijn. Dat is gewoon e-waste als je het vergelijkt met de sprongen van de 3000- en 4000 series.
Klopt, dat het pure marketing is maar die 5-6% winst is natuurlijk ook uit je duim gezogen. Ik snap niet dat velen niet gewoon kan argumenteren zonder hyperbolen en fake news. Je argument wordt er echt niet beter op door dingen te verzinnen.
Kijk naar het aantal CUDA cores tussen de verschillende generaties (40- en 50-reeks) en zet dit dan tegenover hetzelfde procede (4nm) met een lichtjes hogere TGP en dan kom je min of meer uit op 5-6%. Misschien als je het zelf nog wat kan optimaliseren dat je rond de 10% zit maar puur out of the box gok ik dat je op raster performance maar beperkte winst hebt tegenover een 40-reeks.
Cuda cores tussen generaties zijn niet hetrzelfde en performen niet hetzelfde, de geheugen architectuur is veranderd evenals gebruiken ze nu sneller geheugen. Je zit gewoon bullshit uit je duim te zuigen.
Hoezo amper performance winst? In vergelijking met een 3070 is hij zeker 4x zo snel. Dus I dunno wat het probleem is
25% met raster, de overige 75% is met mfg. Wat betekent dat? Stel op raster draai je 30 fps met 40ms lag, zet je dlls en nog aan, zie je 120 fps maar de lag blijft 40ms alsof het 30 fps is. Het ziet vloeiend maar reageert nog steeds stroperig.
"4090 performance"

Met 3 frames vs 1 frame aan interpolatie. Leuk: meer poep tussen je frames smeren!
Ga jij lekker je frames tellen, who cares.
...Jij bent net diegene die interpolatie en dus een hoger nummertje ten koste van latency en kwaliteit viert alsof het echte performance is.

Echt, de mate van domheid onder het nVidia klapvee is bedroevend. nVidia doet hier niets anders dan de tv fabrikanten die motion smoothing je stort in rammen, maar omdat de CEO een leren jasje heeft vinden GAMERZ het wel leuk.

[Reactie gewijzigd door kiang op 7 januari 2025 16:06]

Tuurlijk, DLSS is echt kut, heb er echt geen profijt van dat spellen beter draaien.

Man man man, wat een triestigheid
Ten eerste: jij bent diegene die eerste zei "haha, upscaling en interpolatie zijn het beste ooit want nu heb ik meer frames", en wanneer de vinger op de zere wonde wordt gelegd (het FEIT benoemen dat DLSS truukjes totaal geen vervanging zijn voor echte performance) ga je plots bizar zeggen "performance? pfff, jij met je frames, who cares about frames!"

Ten tweede: ja, frame interpolation is gigantisch kut: meer latency en de kwaliteit van de verzonnen frames is bedroevend. Het was al erg toen nVidia 50% van de frames verzon om GAMERZ te doen denken dat hun veel te dure GPUs de absurde prijzen waard waren, maar nu ze verdorie 3 op de 4 frames verzinnen wordt het echt afgrijselijk. Ik ben blij dat Tweakers de cijfers benoemt: in de demo waarbij nVidia liegt over de performance heb je het over een setting waarbij 94% van de pixels verzonnen zijn.

En voordat je gaat janken dat niemand het ziet: je ziet het absoluut. Vaak niet, maar wanneer je het wel ziet is het echt afgrijselijk.
Ik denk dat AMD een probleem heeft als de 5070ti een prijs heeft van rond de € 900,-. De 9070 XT van AMD mag dan niet veel meer zijn dan € 550,- Ik zit zelf ook te twijfelen tussen deze twee kaarten. Maar aangezien ik de laatste tijd ook aan het spelen ben met Cuda (statistische berekeningen) in Visual Studio, heb ik nu een kleine voorkeur voor de 5070ti. Volgens mij is het veel gedoe om Cuda code op een AMD GPU te draaien in Visual Studio maar ik kan het mis hebben.
Ik hoop het ook. AMD heeft zich flink goed in de voet geschoten door de 7000 serie GPU's te duur te maken. Hopelijk hebben ze hun les geleerd maar ik verwacht helaas van niet :/
Als AMD duur is (wat ze ook ietwat waren, zeker bij launch) dan is Nvidia Peperduur, toch kopen mensen Nvidia. Ik zit nu naar 4070 ti super op 930€ te kijken, die kaart is niet eens 6 jaar future proof, hoogstens 4. Ik geef max 600€ uit aan kaart die 4 jaar meekan (dus 7900xt beschouw ik als 4-6 jaar), maar die is net te duur op 699€ (en ook iets te hoge power consumptie). Anders had ik die al gekocht.

Als 9070 450€ is en 9070xt 525€ zie ik er wel heil in, zeker als infinity cache deel van lage geheugenbandbreedte kan oplossen en toch goedkoop zijn.
Ze waren flink aan de prijs, maar nog kreeg je met de 7900 XTX wel een kaart die met veel games gelijk aan de 4080 of zelfs tussen de 4080 en 4090 in zat op rasterisation en zelfs soms gelijk of beter dan de 4090 (rasterisation) met bijvoorbeeld CoD en een handje vol andere games. Ook was hij iets van 300 euro goedkoper dan de 4080 in de praktijk.
Amd speelt al 15 jaar bewust tweede viool. Ze willen gewoon niet het R&D budget gelijk trekken met Nvidia.
Ergens begrijp ik het wel want het budget van Nvidia is astronomisch hoog( waarschijnlijk unlimited)
AMD heeft geen probleem jullie hebben een probleem. De wereld aan gamers voor pc heeft gekozen voor nvidia eco systeem en zijn dus in nv val gelopen. AmD kan zich focusen op enterprise client cpu apu consoles.
Waarbij veel belangrijkere deal binnen trekken .
Dell HP Lenovo laptop OEM
En APU met dikke npu en dikke igpu.
AMD kan net Matrox S3 de dgpu verlaten als niks opbrengt. En dat gebeurt als ze van gamers geen marge mogen hebben.
Intel stond sterk door overheersing in de OEM sector.
Ik denk dat big gpu plaats heeft gemaakt voor APU voor OEM laptops.
En dat is hele goeie set van AMD.
Van de retail markt sletten die 5% al laten vallen als baksteen moet je het niet van hebben.
Er komt tijd dat handdoek in ring moet gooien. En “ well played nvidia “ zeggen.
Dat wordt vaker geroepen maar als ik vervolgens om onderbouwing vraag (link naar desbetreffende video) krijg ik die anders nooit.
AMD heeft natuurlijk wel een probleem want die hebben meer dan 5 miljard neergelegd om Ati Radeon te kopen. Tot heden heeft het ze dat nog geen windeieren gelegd. Natuurlijk hebben ze verdiend aan de consoles, maar dat heeft het bedrijf niet gezond gemaakt. Daar was die omzet en winst veel te laag voor. Het was Ryzen, een cpu zonder igp, die AMD weer winstgevend heeft gemaakt.
Lange termijn denken.
Ati is gekocht voor APU.
Igpu worden steeds groter.
Dgpu wordt meer vanaf midrange.
Als apu doorbreken bij OEM.
Gezien partner ship benadrukking op CES. Gaat dat eindelijk gebeuren.
Dell of HP met 40cu rdna3,5 zit bulk van omzet.
RTX50 mobiel wordt samen met hx3d cpu in laptop verkocht als top gaming laptop.
Die ATi overname is buiten de consoles in heden ook cruciaal voor AMD
Maar de val voelt wel als een warm bad voor mij als consument dus ik kan er mee leven.
Dus van specs op basis van nvidia en zonder enige spec van AMD , zonder ook maar 1 echte test kom jij al uit met performance en prijs conclusies.... super fantastisch :+

CUDA is een ander propriatary verhaal, maar de typische marketing talk dat er niks anders is werkt duidelijk goed...

[Reactie gewijzigd door d3x op 7 januari 2025 11:00]

Gezien de vorige generatie van AMD, zie reactie van @Khrome, vrees ik ook dat AMD in eerste instantie de prijs te hoog zal inzetten. Lang verhaal kort -> veel slechte reviews vanwege de hoge prijs. Als de prijzen dan later verlaagd worden, moet AMD eerst een lange inhaalslag maken voordat ze markaandeel kunnen terugpakken.
Dat DLSS 4 klinkt leuk, maar ik weet van de DLSS 3 dat dit erg lang duurde voordat de games het gingen ondersteunen. Met DLSS3 werd ook Cyberpunk ook getoond als demo, maar het duurder meer dan 6 maanden voordat de ondersteuning in het spel zat.
De demo driver en driver die aan de pers werd gegeven was gewoon niet te downloaden (was een tussen nummer) voor de eind gebruiker (was teveel beta of alpha).
Hoop voor de kopers dat ze dat nu beter hebben geregeld.
Reken er maar op dat de kerstboom weer staat voor de ergste bugs onder controle zijn en dit breed wordt toegepast.
Wat niet zo goed bij het Tweakers artikel uit de verf komt is dat de DLSS verbeteringen backwards compatible zijn met huidige integraties, de nieuwe opties in de Nvidia app maakt het mogelijk huidige frame gen implementaties te upgraden naar MFG, en de huidige DLSS implementaties naar het nieuwe transformer model.
Both Multi Frame Generation and the new transformer models are built to be backwards compatible with existing DLSS integrations.
Tegen de tijd dat DLSS 4 overal in zit, is het tijd voor de 6000 serie.
Denk julie dat Nvidia. 4090 in prijs gaat taken tegen over 5090
Ik denk dat die zo ongeveer ongewijzigd blijft en "langzaam uitsterft", tenzij er nog enorme voorraden liggen waar leveranciers vanaf willen, maar dat verwacht ik niet. je hebt meer kansen een 4090 gebruikt te kopen van een hijgerige gamer die per se de beste wil.
Nee. In Oktober 2024 is de productie al gestopt van de RTX 4080 en RTX 4090.

Zelfs webshops die nu nog met een voorraad zitten weten (uit het verleden) dat de verkrijgbaarheid van nieuwe videokaarten in het begin nog zeer slecht kan zijn.
Ik las op een andere website dat men verwacht dat Nvidia zal stoppen met de productie van de 40xx series en dat er na dit nieuws veel mensen zullen zijn die liever nog een 4080 of 4090 op de kop tikken. Vraag + schaarste betekent dan dat de prijs zou gaan stijgen.

Om eerlijk te zijn komt dit niet uit een hele betrouwbare bron maar uit een discussie in de comments onder een artikel, dus neem het met een korreltje zout.

Ik vind het echter geen rare gedachtegang, want de 4090 is voor mij eigenlijk een beter passend product dan de 5080 of 5090, en ik zal niet de enige zijn.

Als de prijs gaat zakken zul je er dus snel bij moeten zijn, want de resterende voorraad zal snel weg zijn denk ik.
Ik ben niet zo'n enorme hardware expert, maar als ik een 5070 zou willen installeren, heb je dus een moederbord nodig met PCIe 5.0 ondersteuning?
Nee is niet nodig om een 5.0 te hebben. Maar als je moederbord dit wel heeft is het een pluspunt
PCIE 4.0 is nog steeds meer dan voldoende, PCIE 4.0 wordt nog niet eens volledig benut, dus die PCIE 5.0 is gewoon een beetje future proof.

Hier wordt het goed uitgelegd:
https://www.sabrepc.com/b...hQUfa9IGx4C4J5x_Jg5tSkTqS

En Gamer Nexus had een filmpje, iet wat gedateerd maar nog steeds relevant:
YouTube: NVIDIA RTX 4090 PCIe 3.0 vs. 4.0 x16 & '5.0' Scaling Benchmarks

Maar als je een nieuwe MOBO koopt dan gewoon direct pcie 5.0 nemen inderdaad.

[Reactie gewijzigd door GreasyAce op 7 januari 2025 12:50]

Niet nodig, weten het niet zeker tot het getest kan worden maar prestatie verschil voor een kaart op een oudere standaard PCIe is meestal maar 1-2%. x16 PCIe 4.0 is al veel meer bandwidth dan huidige kaarten nodig hebben.

[Reactie gewijzigd door Sagittary op 7 januari 2025 17:48]

Nog meer frames ertussen die niets met het spel te maken hebben, krijgen we bijna een spel binnen een spel. vind het er in dat filmpje beetje te smooth (onnatuurlijk) uitzien.
Het zijn ook een beetje statische beelden, iemand die alleen rechtdoor loopt. Ik ben benieuwd hoe dit in de praktijk speelt maar ga het voor mezelf eens uitproberen als ik mn nieuwe kaart heb.
Ik krijg sterk de indruk dat er volgend jaar een 5080 TI gaat komen met 24 GB ram. Het gat tussen de 5080 en 5090 is groot. Daarnaast gebruiken games zoals Indiana Jones TGC al de volledige vram capaciteit op een 4080 zodra je alle toeters en bellen aanzet op 4K.

Dit zorgt ervoor dat ikzelf nogal sceptisch blijf over een upgrade. Ik snap dat een 4080 nog prima mee kan (die ik heb), maar als ze de 5080 van het begin af aan 24GB hadden gegeven was mijn keuze om over te stappen een stuk makkelijker geweest.

Edit: Het is ook nergens vermeld wat het formaat van de kaarten gaat zijn. Ik heb een ITX systeem en ben benieuwd of het formaat weer groter is geworden of dat het gaat passen.

[Reactie gewijzigd door WiXX op 7 januari 2025 10:12]

Als je het filmpje van de keynote kijkt dan kan je zien dat de reference 5090 maar twee slots is, dus ze zijn kleiner geworden in ieder geval in het reference design.

Op deze Nvidia pagina kan staat onderaan een knop met "Volledige specificaties bekijken" en daar staan in ieder geval de maten van de reference 5090: https://www.nvidia.com/nl...cards/50-series/rtx-5090/
Hier staan ook de formaten en de bevestiging van de SFF-gecertificeerde modellen:
https://videocardz.com/ne...only-5090-sff-ready-model
Founders edition is 31cm volgens Nvidia website (5090 rtx), gezien vie Vexx youtube kanaal, AIB groter natuurlijk.
Ik betwijfel dat we een GB202 5080 Ti krijgen, de GB202 in de 5090 is al een redelijke cutdown van de volledige chip (van 24576 naar 21760 voor de 5090).

Daarentegen is de 5080 al een volledige GB203, dus als ze iets als een 5080 Super willen maken zullen ze toch iets moeten doen.
Zou mislukte 5090’s wat kunnen zijn? Waarvan ze dan minder cores activeren?
Dat bedoel ik, de GB202 in de 5090 is al een mislukte GB202, ongeveer 11% minder cores dan de volledige chip. Ik betwijfel of Nvidia veel chips gaat krijgen die nog erger mislukt zijn.
Als ik de prijzen in de tabel zo zie, lijkt deze quote niet te kloppen:
Dat terwijl de prijzen voor ieder model niet exorbitant veel, maar toch duidelijk zijn gestegen ten opzichte van de RTX 40-serie.
De releaseprijzen van de RTX 5070 en RTX 5070 Ti zijn iets lager dan die van hun voorganger, en die van de RTX 5080 zelfs flink lager. Bovenstaande quote gaat daardoor alleen op voor de 5090.

@Tomas Hochstenbach Wellicht kun je dit in het artikel aanpassen.
Ik denk dat de quote specifiek over de voorgangers van deze kaarten gaat en niet over de kaarten in de tabel. De voorgangers van deze kaarten waren de 4070 Super, 4070 Ti Super en 4080 Super. Kaarten die wel degelijk goedkoper waren dan deze 50xx kaarten (maar ook veel goedkoper waren dan de 40xx kaarten).

Hoe dan ook is het inderdaad verwarrend geschreven of gewoon foutief als ze tegen de non-Super kaarten vergeleken worden.

Op dit item kan niet meer gereageerd worden.