Door Mark van der Kruit en Tomas Hochstenbach

Alle Nvidia RTX 50-videokaarten van CES - Eerste modellen van meer dan 8 merken

10-01-2025 • 07:00

126

In deze video bekijkt Tomas alle GeForce RTX 50-videokaarten die hij kon vinden op CES 2025. Naast de Nvidia Founders Edition zijn dat de RTX 5090's, RTX 5080's, RTX 5070 Ti's en RTX 5070's van onder andere ASUS, Gigabyte, MSI, Inno3D, Palit, Gainward, Zotac en PNY.

00:00 - Intro
00:23 - MSI
03:41 - ASUS
06:34 - Nvidia
08:35 - Gigabyte
10:22 - Zotac, Inno3D, PNY, Palit en Gainward

Meer weten over de features, specificaties en prijzen van de RTX 50-kaarten? Kijk dan onze eerdere video over de aankondigingen van Nvidia.

Reacties (126)

126
126
30
1
0
82
Wijzig sortering
Ik zit op een rtx 2080ti maar nog altijd heb ik voor mijn gevoel een gpu die gewoon alles draait op hoge settings. Ik denk eerlijk gezegd dat ik bij mijn volgende upgrade gewoon wacht op de 6080 series en dan goedkoper een 5080 aanschaf.
Dat is toch niet heel gek. De tijd dat een nieuwe generatie midrange kaart beter is dan de vorige high end kaart is voorbij. Met iedere generatie krijg je er volgens de fabrikanten zo'n 15% performance bij. Vaak is dat iets te rooskleurig en komt het uit op zo'n 10%. Je bent 5 generaties verder voor je een kaart hebt die 50% beter is dan wat je al had. Neem daar de prijs in mee en het wordt helemaal onaantrekkelijk. 2300 euro om van flagship naar flagship te gaan zodat je 10% extra fps hebt. Wat in veel games neer komt op 5 tot 15 fps meer, is niet iets waar veel mensen zullen bij staan te juichen. Daarom maken ze er dan ook van die sensatie presentaties van.
Dat is echt niet juist hoor. Ik draai cyberpunk pathtracing 4k met een boel mods tegen 60fps
Een 2080ti heeft daar 10-15 fps en is onspeelbaar.
Lang niet iedereen speelt echter op 4k, of heeft pathtracing nodig voor een goede ervaring. En voor wie Cyberpunk wil spelen, het ziet er natuurlijk ook zonder pathtracing bijzonder goed uit.
Maakt weinig uit op 1080p /1440p heb je net dezelfde winsten, beweren dat er "maar" 50% verschil is met de titan x tov de 5090 is van de pot gerukt debiel. In de realiteit is zelfs in 1080p het verschil een 500-1000% en dat zonder zaken zoals dlss tussen een titan x & 4090

[Reactie gewijzigd door k995 op 10 januari 2025 09:57]

Als je op 1080p of 1440p speelt dan zijn veel spellen al snel CPU limited zelfs als je een 2080 hebt, dus dan verdampt een groot deel van het voordeel. Of het maakt een verschil tussen 100fps of 140fps, daar merk je in de meeste games ook weinig van.

De stap van 1080p naar 4K wordt een beetje onderschat, zonder DLSS heb je letterijk 4x zo veel raster performance nodig op dezelfde framerate (tenminste, als je dingen als RTX etc weg denkt, maar die zal je op een 2080 toch wel uit zetten). Een 5080 is zonder alle trucs echt geen 4x sneller dan een 2080.

Geluk bij een ongeluk dat mijn ogen niet echt goed genoeg meer zijn om het verschil tussen 1440p en 4K nog te zien :+
Het ging dan ook niet over 2080 vs 5080 (dat is 3 generaties verschil) maar over een 980 vs 5080 (dat is 5 generaties).

maar zelfs met die vergelijking een 4080 was bij release :
in 1080p 79% sneller
1440p 108%sneller
4k 142% sneller

https://www.techpowerup.c...-founders-edition/31.html
De notie dat je dus elke generatie maar 10-15% wint is een beetje belachelijk.

Voeg je daar RT & DLSS mee toe (en geen idee waarom je dat "trucs"zou noemen) dan word dat verschil nog dubbel of meer zo groot.
Frame generation is wel een truc, het voegt bovendien extra latency toe dus het is onwenselijk voor snelle shooters op bvb een 360Hz monitor of meer.
Pure rekenkracht is beter voor die doelgroep icm de graphics zo laag mogelijk zetten op FHD.
Voor hele zware games kan het wel nuttig zijn omdat er simpelweg niet genoeg pure rekenkracht bestaat in de huidige lineup. Zo kan je alsnog kunstmatig een vloeiendere ervaring hebben, maar bvb 60/120 is zeker niet hetzelfde als 120.
Ik heb zelf met lossless scaling app (steam) getest met 180/360 vs 360 en die laatste is merkbaar vlotter maar misschien ligt dit deels ook aan mijn 4060 die te licht is voor dergelijk hoge refresh rates maar zeker ook deels aan het concept van frame generation.
Maar die Lossless Scaling app ( ik gebruik hem ook ) is echt wel ff iets anders dan FGx2 en x4 van de RTX 50xx kaarten. De FG op de 50xx serie genereerd extra frames op basis van Motion Vectors die op de Tensor cores worden berekend. Omdat die Vectors weten hoe het volgende frame er uit gaat zien, hoeft deze niet te wachten op het volgende frame. Loss Scaling zet als de thuis TV gewoon gegenereerde beelden tussen de frames. Hiervoor moet hij eerst wachten op het volgende frame. Lossless Scaling heeft op 60Hz een minimale input delay van 80ms. FG op de Tensor cores maar 1ms ( hoewel naar eigen zeggen van Nvidia, dat moet eerst nog blijken, maar dat het sneller is, is wel zeker. ) Laatstgenoemde zal ook veel minder beeldfouten hebben.
Ok interessant. Helaas dus geen frame generation in oude games. Ik speel nog slechts 1 game met een engine van 15 jaar oud (serious sam hd).
In mijn optiek zou Nvidia dan beter werken om de feature te kunnen aanleggen zonder engine ondersteuning.
In mijn optiek zou Nvidia dan beter werken om de feature te kunnen aanleggen zonder engine ondersteuning.
Maar dat is met hun techniek dus niet mogelijk zonder de Vectors te raadplegen. Het zal dus ten allertijden via de Game Engine ondersteund moeten worden.

In dat opzicht is Lossless Scaling ( LS ) wel interessant, want dat werkt in principe zonder soft en hardwarematige ondersteuning. Ik ben pas een handvol games tegengekomen waarbij ik LS echt niet aan de gang krijg. Vaak is het probleem dat die game dan geen Window-Fullscreen ondersteun, of geen Framelimiter heeft waardoor je de game niet vast kan zetten op 60Hz om te extrapoleren naar 120 hz.

De techniek van Nvidia is een prachtige techniek. En hoewel het ondersteund moet worden vanuit de game-engine, is dit wel een techniek die meer en meer ondersteund gaat worden, en niet meer uit gameland verdwijnt.

Ik zie echter ook een schaduwkant aan deze techniek:

-developers worden lui om te optimaliseren, want ja, we hebben toch FG? Hier kunnen ze op dit moment nog niet helemaal mee wegkomen, want er zijn nog veel gebruikers die deze technieken niet tot hun beschikking hebben, maar dat is een kwestie van tijd en adaptatie.

-AMD kan straks niet meer meekomen met al dit geweld, ( hebben eigenlijk nu al de handdoek in de ring gegooid wbt high-end kaarten ), en zal Nvidia achterlaten als monopolist op het gebied van high end gaming.
Houd er ook rekening mee dat er steeds meer high refresh rate schermen bijkomen.
240, 360, 480, 520Hz zijn al een tijdje gemeengoed, 600 en nu ook 750Hz zijn in aantocht.
Er zijn dus nog altijd veel echte frames nodig (in absolute cijfers) voor gebruikers van dergelijke displays.
Dat klopt wel, maar wees eerlijk; wie heeft er nu 600 frames nodig?

Zelfs voor E-sports is het nut daarvan al discutabel. Vaak alleen al omdat dergelijke monitoren niet eens een gray 2 gray waarde hebben die dergelijke refresh waarden aankan, waardoor je effectief helemaal niets hebt aan framerates boven die grey 2 grey waarden. Zeker niet wanneer je van kleurechtheid houd, want met lage g to g waarden zullen de pixels nooit tot hun echte kleurwaarden komen.

ik ben zelf echt een framerate guy, maar voor mij ( als casual, maar toch gedreven gamer ) ligt het omslagpunt van visueel en gevoelsmatig vloeiende gameplay op ongeveer 100 fps. Alles daarboven is leuk, maar niet nodig.

En die laatste zin laat mij zien dat je nog nooit FG hebt gevoeld/ meegemaakt, tenzij je dus een E-sporter bent, want die "echte frames " heb je als casual speler echt niet nodig, tenzij je een pixelpeeper bent.

Ik ben echt een hoge framerate fan, maar 100 a 120 fps is voor mij meer dan prima. Ik ben zelf van plan om een 5090 aan te schaffen, met het oogpunt daar jarenlang plezier van te kunnen hebben op 100a120 frames. En later, als de games echt zwaar worden met DLSS4 nog steeds een goede framerate te kunnen hebben, omdat die techniek voor mij meer dan voldoende is om een goede game ervaring te bieden.

Maar ieder zijn ding natuurlijk. Laat ik dat wel even zeggen..

[Reactie gewijzigd door micla op 10 januari 2025 20:18]

Ik zit momenteel op de 360Hz Zowie met TN paneel. Ik ga inderdaad niet upgraden gewoon omdat de 1% lows rond de 250 liggen op een 9800x3D. Als gpu gebruik ik dus de 4060 met alles op ultra low, de gpu load tikt overigens nooit hoger dan 70%, cpu load op 1 core is uiteraard dan 100%.
Dus upgraden heeft geen zin want meestal ben je toch cpu limited.

Ik heb lossless scaling pas sinds enkele dagen in gebruik, voor die ene game die ik nog speel ga ik het niet meer inzetten maar wel nog voor video. Zonet even 4x framegen aangelegd voor een Youtube video en de upscaling van 60 naar 240 frames ziet er uitstekend uit: YouTube: Peke on hole, SS the second encounter deathmatch

Stel dat we later 120fps videostreams kunnen voorzien van 4x framegen dan rechtvaardigd dit imho wel nog steeds 480Hz displays. De vraag is dan of nog meer zoals bvb 750Hz wel zin heeft, het mag duidelijk zijn dat het verschil steeds kleiner wordt en het op den duur nauwelijks nog merkbaar zal zijn. Oled heeft dan ook wel nog een aanzienlijke marge in pixel responstijd om high refresh rates te rechtvaardigen. Voor lcd panels heb je "scanning backlight" wat enorm veel doet maar het is sterk afhankelijk van scherm tot scherm of er nog blur is of niet.
Vooral dat eerste genoemde nadeel, nu merk je al dat console ports worden omgezet in PC games zonder optimalisatie.
Grafische, slechte optimalisaties met anisotropic filtering en de User Interface die te groot is en gemaakt voor controllers.
Game developers zijn nu al lui met hun engines, al zij merken 30-60 fps te bereiken met V-sync, dan zeggen zij dat het prima loopt! Helaas zal dat met DLSS waarschijnlijk alleen nog maar erger worden.
Tja dan is SSAA ook een "truc"
het voegt bovendien extra latency toe dus het is onwenselijk voor snelle shooters op bvb een 360Hz monitor of meer.
Dan gebruik je het daar niet? Lijkt me redelijk eenvoudig voor die enkelingen die echt elke ms uit hun machine willen persen.
De notie dat je dus elke generatie maar 10-15% wint is een beetje belachelijk.
Dat heb ik dan ook nergens geclaimed (hoewel het dus voor 4080 naar 5080 lijkt of het inderdaad 'maar' een procent of 25 is in raw power zonder FG en DLSS, maar daar gaat het nu niet over).

Dat je in 1080p met een 4080 200fps kan halen ipv van 120fps met een 2080 als de game niet CPU-limited is is leuk op papier maar totaal niet relevant tijdens het spelen.
Dat heb ik dan ook nergens geclaimed (hoewel het dus voor 4080 naar 5080 lijkt of het inderdaad 'maar' een procent of 25 is in raw power zonder FG en DLSS, maar daar gaat het nu niet over).
De persoon op wie ik reageerde beweerde dat
En dat zullen we zien hoeveel de winst is.
Dat je in 1080p met een 4080 200fps kan halen ipv van 120fps met een 2080 als de game niet CPU-limited is is leuk op papier maar totaal niet relevant tijdens het spelen.
Tja als je shit hardware koopt en zo je gpu fnuikt is dat jouw probleem natuurlijk.
Trouwens als ik naar een recent spel kijk : indian jones dan haalt een 2080 super 45fps & een 4080 190fps op 1080p dat is wel een enorm verschil en maakt dat nieuwe games soms slecht speelbaar worden op een 2080 .
Indiana Jones is dan ook een van de (de enige?) game waar RTX niet optioneel is toch? En zelfs dan is 45 fps niet direct 'slecht speelbaar' vind ik zelf, ja 200fps is veel fijner maar 45fps is nog steeds beter dan wat veel console games waar ik in het verleden veel plezier aan heb beleefd deden dus tja.

Je kunt natuurlijk niet claimen dat een moderne GPU geen voordelen heeft ook op 1080p dat begrijp ik ook wel, maar voor iemand die op 1080p speelt en het geen groot probleem vind om zonder raytracing te spelen en de settings een beetje terug te schroeven kan je met een RTX 2080 echt nog prima uit de voeten, en lever je behalve resolutie in veel gevallen ook niet eens zo heel veel in. Wat ik al zei, je kunt natuurlijk obsessief blijven eisen dat je alles op 4K wil spelen en dan heb je bijna letterlijk een 4x snellere GPU nodig, maar ik persoonlijk zie dus oprecht weinig verschil op 3 meter van de TV, dus voor mijn use case is al die GPU kracht gewoon verspilling als het alleen maar voor meer pixels wordt gebruikt.
IK pakte gewoon de recente AAA release
Stalker 2 : 1080p medium 60fps met 1% 45fps (wat duidelijk stotterend beeld dus zal geven)
4080 : 110 /80 fps

Black Myth: Wukong
2080 : 1080p cinematic 25/20 fps
4080 : 70/60fps

...
Die 2080 is dus gewoon te traag geworden om 1080p op high/ulta te spelen zelfs zonder raytracing en je zal dus settings naar beneden moeten halen om het speelbaar te houden.

En ja voor iemand half blind die 10m van een tv zit zal 360p en 2160p er hetzelfde uitzien, maar dat is een beetje een absurde redenatie natuurlijk ;-) Feit is en blijft dat een 2080 al een tijdje moeite heeft zelf op 1080p een nieuwe kaart zal zelfs op 1080p je game er veel beter laten uitzien en het veel vloeiender laten spelen.
Ik ben half blind en kan je verzekeren dat die redenering absurd is (en niet klopt, althans in mijn geval)
4080 -> 5080 is inderdaad wat minder verschil, maar dat is vooral omdat de 5090 een veel groter verschil heeft met de 5080 dan de 4090 met de 4080
Koop een bril zou ik zeggen, gaat er weer een wereld voor je open..
En wat voor GPU gebruik je zelf dan?

Je moet een 2080ti overigens niet onderschatten, die heeft nog altijd betere prestaties dan bijvoorbeeld een 4060. De xx80 series waren lang het topmodel van de generatie, en die gaan gewoon erg lang mee. Zelfs mijn 1080 (alhoewel ik die nu wel wil gaan vervangen) draait de meeste games gewoon op 4k met eventueel een paar settings op een lagere stand of uit.
4090 , daarvoor een 1080ti & 970 , de verschillen zijn enorm hoor.

En de 2080ti was het topmodel lijkt me logisch dat die nog beter scoort dan de low end kaart die 5 a 10 keer zo goedkoop is. Het is trouwens niet volledig correct, met raytracing en/of dlss scoort de 4060 beter.

De 4060 ti heeft gelijkaardig "raster" prestaties dan de 2080 ti.

Maar idd een 2080 ti of zelfs 1080 ti (die in de PC van mijn dochter zit) gaat nog perfect mee zelfs voor hedendaagse games, je moet gewoon wat aan de settings prutsen .
5 keer 10% is geen 50%.
1,1^5 = 61%

Daarnaast is een kaart van 5 generaties oud echt wel slechter dan 61%. Niet elke generatie is een grote sprong, maar die zijn er nog wel.

Die flagships dat is inderdaad overpriced. Een xx70 is veel goedkoper en waardevaster. Kan je voor minder geld veel vaker upgraden.
Niet als je kijkt naar de performance charts van onafhankelijke reviewers. De laatste generatie 4080 is geen 50% sneller dan een 1080ti. En daar zitten heel wat videokaarten tussen. Zeker als je er rekening mee houdt dat snellere heruitgaves ook gewoon mee tellen. Zoals de Ti's, de supers en weet ik veel welke andere marketing naampjes ze meegeven.
Nouja, als ik even wat vergelijkingen op zoek van een 1080ti en een 4080 zie ik op 1440p of 4k toch echt wel meer dan 100% performance winst…..
Je hebt gelijk. De 1080ti heeft de helft van de rekenkracht van een 4080. Maar de 4080 presteerd daarmee 100% beter dan een 1080ti. In de meeste gevallen zelfs nog iets meer.
De RTX 4080 is zelfs 182% sneller dan de GTX 1080 Ti volgens tweakers op 1440p.

review: Nvidia GeForce RTX 4080 - De enige echte 4080
Ik snap dat je er een beetje naast kan zitten maar jij bent echt wel uit je nek aan het kletsen. Een 4080 is meer dan 200% sneller dan een 1080Ti. Een 4080 is zelfs 50% sneller dan een 3080.

https://tpucdn.com/review...performance_3840-2160.png

De 1080Ti staat er niet meer in maar een 2070 is sneller dan een 1080Ti en die heeft ongeveer 1/3de van de prestaties van een 4080.
Als ik kijk naar de g3dmark score van een 4080 en die vergelijk ik met een 1080ti dan presteerteen 4080 nog geen 50% beter dan een 1080ti. Dus we kunnen een hele discussie gaan voeren over welke benchmark je wel of niet wil gebruiken, en welke scores je wil cherry picken om je eigen setup te verdedigen, maar daar wint niemand iets mee.
Je beseft toch wel dat die g3dmark score geen enkele waarde heeft wanneer de verschillen in framerates veel groter zijn en dus ook merkbaarder voor de doorsnee gamer?
Als ik kijk naar de g3dmark score van een 4080 en die vergelijk ik met een 1080ti dan presteerteen 4080 nog geen 50% beter dan een 1080ti.
En als je de RTX 4080 vergelijkt met de Super scoort eerstgenoemde ook hoger - wat natuurlijk complete onzin is gezien de betere specs van de Super. Dus wat is je punt nu precies? Het geeft alleen maar aan dat die G3DMark scores niet te vergelijken zijn.
Dus we kunnen een hele discussie gaan voeren over welke benchmark je wel of niet wil gebruiken
Wat dacht je van, you know, games? Niks cherry-picken. Pak een handjevol games van de afgelopen 10 jaar en je weet genoeg.
Dat is maar 3 generaties, en je vergelijkt verschillende niveau kaarten.

GTX 780 vs RTX 4080 is 5 generaties en dat verschil is behoorlijk veel groter

[Reactie gewijzigd door Dekar op 10 januari 2025 10:04]

Vandaar dat het nu wel eens tijd wordt om mijn GTX 1070 te gaan upgraden i.c.m. i5 6600K.. Sinds 2017 met name race sims op kunnen draaien (i-Racing) maar nu is het wel tijd.

De grote stappen zijn inderdaad voorbij, hoewel dit gevoelsmatig door fabrikanten in toom wordt gehouden zodat ze ten alle tijden voldoende headroom hebben om de volgende generatie zonder al te veel moeite opnieuw 15% sneller te maken.
Nee hoor, kanalen als HardwareUnboxed spreken duidelijk hun verwachtingen uit: beneden 30% bang/buck verbetering zou een magere GPU generatie zijn, Zulke kwantificatie maakt het duidelijk wanneer men iets een goede of slechte generatie kan noemen, los van alle DLSS features, mooie marketing of mooie cijfertjes in je favoriete game.

Mijn eigen verwachting ligt daarmee in de lijn van: de prestaties die eerst op een xx80 kaart te vinden was, moet de volgende generatie op een xx70 kaart zitten. Enzovoort. Natuurlijk op hetzelfde prijs niveau, want wat er onder de motorkap moet gebeuren om iets een xx80 kaart te maken zou mij als een eindgebruiker helemaal niks uit moeten maken.

Dan zou een vlaggenschip kaart zoals de RTX2080Ti met zo'n 3 generaties toch wel verdreven moeten zijn naar een xx60(Ti) kaart of lager. Of wat mensen vaak doen: haal pas weer dezelfde tier GPU zodra die x2 prestaties levert, wat vaak na 2-3 generaties wel gehaald kan worden (1,4^2 = 196%, of 1,3^3 = 220%).

Of NVIDIA deze trend ook waarmaakt is nog een tweede. Het mooiste geweld lijkt toch vrij exclusief behouden te worden tot xx70 kaarten of hoger, waarbij de andere kaarten de nek om worden gedraaid. Plus doet NVIDIA enorm hun best om hun producten zacht aan te prijzen, ook al waren de RTX4000 Super kaarten ook al in prijs/prestatie verlaagt t.o.v. de normale RTX4000 kaarten.

[Reactie gewijzigd door Hans1990 op 10 januari 2025 16:28]

Groot gelijk. Je mist bar weinig. 1440p is een geweldige game ervaring en de "oude" GPU's draaien alles daarop nog vloeiend.

De GPU industrie heeft de afgelopen jaren bar weinig aan prijs-kwaliteits verbetering gedaan. Upgrades zijn een stuk minder merkbaar dan vroeger.
Dat moet jij weten. Ik draai nu op een 3080 en ik wil graag een 5080.
Ik draai een RTX 3080 en begrijp eerlijk gezegd niet waarom je een 5080 nodig zou hebben. Met de 3080 kun je nog alles probleemloos doen, zeker als je op 1440p speelt zoals ik. Overstappen naar 4K lijkt me overkill voor deze kaart, aangezien het een enorme belasting is zonder dat je daar grafisch veel merkbare verbeteringen voor terugkrijgt.

Daarnaast zou ik persoonlijk de 5000-serie niet willen ondersteunen met mijn portemonnee. Door te investeren in die kaarten geef je Nvidia eigenlijk de boodschap dat het prima is om pure hardwarekracht in te ruilen voor AI-scalingtechnieken, wat volgens mij ten koste gaat van de echte beeldkwaliteit. Natuurlijk moet iedereen doen wat hij wil, maar ik vind deze richting die Nvidia inslaat een zorgwekkende ontwikkeling. Het lijkt erop dat ze zich meer richten op marketingtrucs dan op het leveren van échte technologische vooruitgang.
- VRAM, mijn 3080 heeft nog 10GB en je merkt dat je daar soms echt tegen de grens aanloopt.
- Ultrawide resolutie is iets veeleisender dan 1440p en dat is in nieuwere games te merken.
- Brute forcen van tergende optimalisatie van tegenwoordig.
- Frame gen om gebruik te kunnen maken van de 165hz met max settings
- Voor VR is het bijna een must als je games als Cyberpunk wil kunnen ervaren op die manier + dan kun je gebruik maken van AV1 codec in virtual desktop (kan pas vanaf een 40 serie).
Het helpt enorm als je zelf wat setting files kan tweaken. Dan maak je een game op zijn mooist/best op je huidige videokaart. Maar dan moet je wel de INI files in duiken.
Het verschil tussen 1440p en 4k gaming is echt enorm, althans dat vond ik. Alles ziet er zoveel scherper en crispy uit.
Geen idee waarom iemand dit zou downmodden naar -1. Je hebt helemaal gelijk. De sprong die je maakt van 1440p naar 4K (+125% meer pixels) is zelfs veel groter dan die van 1080p naar 1440p (+77,8% meer pixels).

1920x1080: 2073600 pixels
2560x1440: 3686400 pixels
3840x2160: 8294400 pixels
ja, ben ook wel verbaasd over de -1 ;( .

Was gewoon mijn mening omdat toen ik overstapte van 1440p naar 4k, dit zichtbaar een ongelooflijk verschil vond en nog steeds vind. Vorig jaar naar een oled 4k 32inch alienware met 240hz monitor overgestapt, en dit is wederom een enorme stap voorwaarts in hoe je games ervaart.

Maar moet er wel bij zeggen, het is een dure hobby. 8)7
Dat ligt maar net aan de grootte van het scherm. Een 42 inch 4k is minder scherp dan een 34 inch op 1440p UW.

Het wordt alleen scherper als je hetzelfde beeld formaat aanhoudt. Ik speel nu 1440p UW en dat is even scherp als 1440p ondanks vele pixels meer. Maar die worden enkel uitgesmeerd over de lengte omdat het scherm breder is.

Meer pixels is niet automatisch scherper. Ik heb ook een 4k 42 inch OLED van LG naast mijn normale scherm gehad en dat was niks scherper.

Ik zou dan eerder voor UW gaan dan voor 4k want UW maakt gamen nog veel meer immersive.
Uiteraard, maar we hebben het in deze discussie puur over resoluties en geen andere variabelen zoals screen size of afstand van het scherm. Dan krijg je inderdaad andere resultaten.
Wat mensen zoals jou vergeten is dat het steeds moeilijker word om veel winst te boeken.
Vergelijk dat met CPU's , boycot je al jaren de nieuwe CPU's omdat die amper vooruitgang boeken?
wat volgens mij ten koste gaat van de echte beeldkwaliteit.
DLSS ziet er in vele gevallen beter uit, geeft lagere latency, meer fps en/of betere raytracing.
Zie niet in wat er daar mis mee is. Enige probleem is dat games het moeten ondersteunen.
Waar eerder de GPU markt dominant was in hun omzet, is dat nu de AI. Het is dan goedkoper om niet alles opnieuw te ontwikkelen en vooral veel te lenen uit de AI circuits. Dat is nu precies wat ze doen.

Dat vind ik erg logisch, maar ik vraag me af of je het niet kan inzetten op een andere manier om games interessanter te maken dan om de sprong te maken van 1440 naar 4k te maken, een paar extra frames boven de 60fps te maken of het beeld net een klein beetje meer te polijsten.

Ik zou graag zien dat ze de gameplay mechanics verbeteren of de fysica uitbreiden. Die blijft nog vreselijk gescript.
"Nvidia eigenlijk de boodschap dat het prima is om pure hardwarekracht in te ruilen voor AI-scalingtechnieken, wat volgens mij ten koste gaat van de echte beeldkwaliteit."

Sorry maar als je niet weet wat het doet, waarom dan zulke uitspraken?

DLSS ziet er altijd!! beter uit dan native.
DLSS beter dan native? Wat een onzin tenzij je ogen en scherm niet zo best zijn...

Ik game zelf op 3440x1440 op een 4070 ti super en ik kan je verzekeren dat al die scalingstechnieken resulteren in wazigheid op armlengte afstand, zeker wanneer het gaat om fast-paced fps games waarbij je snelle muisbewegingen maakt. Objecten/spelers op lange afstand zie je simpelweg minder goed/scherp. Daarnaast krijg je extra latency. Zeker niet wenselijk.

In singleplayer games is dat allemaal minder belangrijk. Het is dus maar net wat je doel is en hoe goed je ogen zijn. Dat is voor iedereen anders.

Rasterperformance is dus voor mij persoonlijk belangrijk en het is dan wel treurig om te zien dat bijvoorbeeld de 5070 ti waarschijnlijk nauwelijks sneller gaat zijn in dat opzicht dan mijn huidige kaart. De 5080 zal ongeveer 20% sneller zijn. Dat vind ik persoonlijk tegenvallen.

https://technical.city/en...ER-vs-GeForce-RTX-5070-Ti

[Reactie gewijzigd door bruutone op 11 januari 2025 09:28]

DLSS beter dan native? Wat een onzin tenzij je ogen en scherm niet zo best zijn...
Neen dat is in vele gevallen effectief zo, het werkt bepaalde fouten in de game engine weg waardoor je een beter beeld krijgt .
en ik kan je verzekeren dat al die scalingstechnieken resulteren in wazigheid op armlengte afstand, zeker wanneer het gaat om fast-paced fps games waarbij je snelle muisbewegingen maakt. Objecten/spelers op lange afstand zie je simpelweg minder goed/scherp. Daarnaast krijg je extra latency. Zeker niet wenselijk.
Neen, scaling (super resolution) zal juist latency verlagen omdat je meer fps hebt, iets als frame generation zal het idd een beetje verhogen tov zonder FG.
Rasterperformance is dus voor mij persoonlijk belangrijk en het is dan wel treurig om te zien dat bijvoorbeeld de 5070 ti waarschijnlijk nauwelijks sneller gaat zijn in dat opzicht dan mijn huidige kaart.
Zou ik de reviews afwachten
Fijn dat jij er ook verstand van hebt
"DLSS beter dan native? Wat een onzin tenzij je ogen en scherm niet zo best zijn..."

Ja, ten alle tijden. Dat heeft DigitalFoundry (en andere kanalen) allang bewezen.

Maakt verder niet uit als je het niet geloofd, het is gewoon een feit.
Of een prijs al dan niet is te rechtvaardigen hangt geheel af van de doelgroep, het budget en het beoogde gebruik (en of hier inkomsten mee worden gegenereerd).

A.I./machine learning workloads bijvoorbeeld presteren beter bij meer VRAM, CUDA- en tensor cores.
Dat NVIDIA deze kaarten op de markt brengt zal betekenen dat er vraag naar is en het ook iets productiefs brengt dan marketing alleen.
Ok maar hij zegt toch ook niet dat jij niet mag upgraden?
Alles hangt af van het geen dat je er aan wil uitbesteden.

Zelf heb ik nu rtx3080 en als ik zie hoe de fans van de rtx5090 gemonteerd zitten. Dan heb ik daar best interesse in. Eindelijk niet een fan die tegen een pcb aan blaast.

Rtx3080 heeft 2x noctua fan gekregen en draait zonder probleem in een mini itx tower.
2 slot meer is er niet.
In geval van de rtx5090 kan je dezelfde kant pakken en dan een fan guard omheen printen. Dan zuigt het de buitenlucht aan voor de beste koeling.

Maar alles hangt of valt bij de review. Als deze tegen vallen ga je het minder snel doen
Doe je goed! Ik zit nog op de GTX 1080 OC van Gigabyte haha, 1440p Warzone (Low settings) draait ook gewoon nog. Misschien toch wel tijd voor een upgrade?!
Frame Generation is wel een hele mooie feature en zeker als deze uitgebreid wordt om meer FPS te krijgen dan zonder. Ook de nieuwe versie van DLSS is goud waard, maar zelf prefereer ik DLAA.

Ik zit hier met een rtx4080 op 1080p360Hz aangestuurd door een 7800X3D. Overkill hoor ik jullie nu denken, maar ik kan wel met path tracing gamen in Cyberpunk. Ik haal dan 70-80 fps mét FG ingeschakeld. Zou ik dit op een rtx5080 doen dan kan ik door de nieuwe versie van FG wel heel ver over de 100fps reiken met dezelfde rekenkracht. In die zin is deze generatie een hele goede stap vooruit. Als je heel kritisch bent voor ghosting of andere kleine artefacten door FG dan is deze line-up niet veel beter dan de 40 serie. Ook dit wordt natuurlijk beter over tijd.

Nee, mijn GPU snort nog altijd zalig, dus voorlopig voer ik geen upgrade uit. Wel heel fijn dat er een opvolger is. De rek is er voorlopig niet uit :)
Hier ook een 2080ti bezitter. In 2024 heb ik met Black Myth Wukong en Indiana Jones and the Great Circle voor het eerst het gevoel gehad dat het wellicht tijd wordt voor een upgrade. Want je moet toch best wat settings terugschroeven om die games op 4k op meer dan 60 fps te kunnen spelen op een 2080ti. Dus ik neig toch naar een 5090 als upgrade de komende maanden.

Dat neemt niet weg dat je idd gelijk hebt: je kunt echt lang doorgaan op dezelfde GPU tegenwoordig. Helemaal als je oude GPU genoeg VRAM heeft, zoals een 2080ti met 11 GB.
Ik denk niet dat ze goedkoper gaan worden, ze laten eerst de stock opdrogen voordat de 60 serie komt.

Ik had zelf ook een 2080ti maar sommige van de games die ik wilde spelen maakte me wel doen upgraden. Ieder z'n library verschilt.

[Reactie gewijzigd door Xfade op 10 januari 2025 12:36]

Ik zit op de 3080 (12gb versie) en heb nog niks gezien wat de 50 serie voor mij aantrekkelijk maakt...

Misschien het video ram maar ik speel voornamelijk op 2160x1440 en dat doet mijn kaart vrij makkelijk op "max"settings.

Floating particals, motion blur en dergelijke zet ik altijd uit, ik wil gewoon scherp beeld het hoeft echt niet realistisch te zijn.

[Reactie gewijzigd door silenoz op 10 januari 2025 14:56]

Dat is toch logisch? Praktisch alle games worden tegenwoordig gemaakt om op een PS5 te kunnen draaien.
Tomas gespot in de video van Hardware Unboxed.
Ik heb de RTX 4090 OC van Gigabyte maar deze generatie ga ik voor de RTX 5090 Founder Edition. Je hoort weleens dat Nvidia de beste kaarten voor zichzelf selecteert en de mindere naar partners stuurt. Ik geloof er niks van, vindt 5090 FE vooral strak uitzien, relatief klein en slechts 2 maar grote fans.
Je bedoelt de beste chips. En dat is inderdaad niet waar. Tenminste, voor zover ik kan beoordelen. Ik heb namelijk vijf FE-modellen (2x 3080 Ti en 3x 4090) getest en geen één sprong eruit met een uitzonderlijke goede voltage/frequentie-curve wat een indicatie is voor de kwaliteit van de chip. Bij het testen van twee Palit 4090's echter sprong er wel één uit met een uitzonderlijke goede curve.

[Reactie gewijzigd door Degrader op 10 januari 2025 10:16]

Die topmodellen founders edition zitten wel mooi compact in elkaar. Ik zou dat ook prefereren boven zo'n grote lompe kaart. En de koeling dan meer oplossen met goede kast airflow. Dat is zeker chiquer.

EDIT: rond 17 minuten ook een wild LTT techneut te vinden in die video.

[Reactie gewijzigd door kujinshi op 10 januari 2025 12:28]

Wat zijn de redenen dat je voor een aftermarket kaart zou kunnen gaan? Buiten de esthetische redenen en misschien een stillere koeling?
Dat zijn de redenen. En evt bios waar de power limit hoger kan oid
Ah ok bedankt, ik dacht misschien hebben de aftermarket kaarten hogere geheugen modulen of iets dergelijks. Voor een persoon zoals ik met een zwarte doos onder zijn bureau is een FE dan perfect.
Ik kom van een 1070 TI FE waarbij de koelingconstructie veel minder is vergeleken met de andere partijen maar de 5000 serie ziet er op dat gebied veel beter uit.
Je kan komende maanden ook de perfecte kans zien om ergens goedkoop een RTX3070 of RTX4070 te bemachtigen. Dan ga je er ook flink op vooruit en niet zo op achteruit in de portemonee.
Wat een held is die @ThomasHorstenbach zeg! Ik ben aan het kijken en denk; ze zijn allemaal hetzelfde en zie geen verschillen anders dan het ontwerp van de koelerklikfrontjes. En dat hij daar zo enthousiast van kan worden, de verschillen ziet en uitlicht! Diep respect en mooi dat jullie dit doen. Ben erg blij dat jullie er zijn en dit is mijn primaire kanaal om te horen wat er allemaal te zien is op CES dit jaar.

[Reactie gewijzigd door Jochem op 10 januari 2025 09:16]

Dat is nou leuk, zo'n compliment voor @Tomas Hochstenbach! :)
Geweldige video, Tomas, bedankt daarvoor! 🙌

De MSI Suprim Liquid 5090 lijkt op het eerste gezicht echt next level. Ben heel benieuwd wat het prijskaartje gaat worden, maar het ziet er veelbelovend uit. Ik gebruik nu een AIO 4090 (Inno3D iChill Black) en ben echt onder de indruk van de prestaties: nooit boven de 60 graden! O-)

De AIO 5090 heeft sowieso mijn voorkeur. Met de radiator als exhaust boven in de case blijft de rest van de componenten heerlijk koel én kan de verwarming op zolder gewoon uit. Efficiëntie op z’n best, toch? :9
Wie is de man op de thumbnail van de video; moeten we die kennen; is die van NVIDIA ?
Tijdje geen reviews gezien of zowieso niet op tweakers geweest, dit is de technische man die veel reviews van moederborden, systemen en videokaarten doet.
Oké duidelijk. Dank je. Ik begrijp niet waarom hij zoals vele influencers, vloggers, etc... ook met z'n gezicht de thumbnail moet versieren. Ik vind het ook geen meerwaarde, om hem te zien, als het artikel over een stuk hardware gaat.
Doet u mij maar een Asus Astral 5090 (luchtgekoeld). Wat een mooi ding zeg. Zal wel een dikke premium extra kosten, bovenop het toch al grote bedrag :o
Ik denk oprecht dat het niet gaat passen in mijn Fractal Design North maar wel inderdaad een dikke kaart!
Hier keek ik dus ook naar en ik denk dat het past. In dit filmpje zie je dat hij een 4090 Rog strix in de kast krijgt, en kaart die volgens ASUS exact dezelfde dimensies heeft als de 5090 Astral.

YouTube: Beauty Defined! | Fractal Design North White TG Gaming PC Build | RO...

Ik probeer een 5090 FE te bemachtigen, maar ga anders voor de ASUS mocht dat niet lukken.

[Reactie gewijzigd door scandalous op 10 januari 2025 10:03]

Thx! Fijn om te weten dat ik geen zorgen over hoef te maken. Prijstechnisch zal ik mij ook focussen op de FE versie (nog wel in dubio tussen 5080 en 5090).
Kwa uiterlijk zijn die Astral kaarten denk ik het beste wat er tussen zit, prachtige kaarten. Mijn mening natuurlijk, maar inderdaad de premium die daar naar verwachting bij gaat komen oef.
helaas weer een zeer beperkte oplage aan FE kaarten. De 5080 FE zou toch wel heeel mooi in mijn build passen...
Als je moeite doet en de kanalen in de gaten houdt, moet het mogelijk zijn één te bemachtigen. Het is alleen niet dat de Bol.com's en Azerty's ze in grote schaal verkopen.
Jammer dat er weinig fabrikanten een mooie kaart zonder RGB maken. De FE is wel het mooiste cleane design dat er tussen zit.

Zelfs de sobere verselies van Asus, MSI etc. zien er uit als plastic kermisspul.
Ik vind de Gainward Phantom kaarten er wel strak uitzien. Alleen t logo is verlicht voor zover ik kan zien, lijkt me dat je die ook uit kan zetten.

Uiteraard niet zo'n strak design als de FE kaarten, maar t komt redelijk in de buurt.
Maar ja Gainward. Heb ik toch, zonder reden of ervaring, een gevoel bij alsof het niks is.
Maar je kan normaal die RGB toch gewoon uitschakelen als je het niet wil? Plus het lijkt mij dat je met wat leuk ingestelde kleuren toch wat meer 'sfeer' in je kast creeert. En dan bedoel ik dus niet dat je hele regenboog moet instellen, maar gewoon subtiel bijvoorbeeld één kleur?

Ieder zijn ding, maar het lijkt mij dus dat wat verlichting wel noodzakelijk is als je een mooie kast wil hebben om in te kijken. Wil je dat niet, zoals ik, dan koop je gewoon een dichte kast en maakt het je niks uit. (Waarbij granted, dichte kasten vinden wordt wel lastiger. Maar goed, als er nog mesh in zit en je de RGB uitschakelt zie je toch niks).
Vetste kaart is de Astral 4 fan, wat een beest, mooiste is de 5080/90 FE versie, maar als ik die laatste (5080 FE) niet kan krijgen dan de Windforce "SFF".

Op dit item kan niet meer gereageerd worden.