Eerste benchmarkresultaten van Nvidia RTX 5090 verschijnen in database Geekbench

Nvidia's aankomende RTX 5090 is verschenen in de database van Geekbench. Het gaat om verschillende OpenCL- en Vulkan-tests. Afhankelijk van de precieze benchmark is het Blackwell-vlaggenschip tot iets meer dan een derde sneller dan zijn voorganger.

De RTX 5090 behaalt een Vulkan-score van minstens 331.525 en maximaal 359.742 punten, merkt VideoCardz op. Dat is respectievelijk 26,3 en 37,1 procent sneller dan de RTX 4090, die volgens de ranglijst van Geekbench 262.487 punten scoort in deze test. Wat OpenCL betreft gaat het om een bereik tussen 338.847 en 367.740, ofwel een uplift van respectievelijk 6,8 en 15,9 procent ten opzichte van de RTX 4090. Het Lovelace-vlaggenschip behaalt een gemiddelde OpenCL-score van 317.365 punten volgens Geekbench.

De RTX 5090 kost 2369 euro en verschijnt op 30 januari, samen met de 1190 euro kostende RTX 5080. De RTX 5090 bevat 21.760 cuda-cores en 32 GDDR7-videogeheugen. Nvidia liet eerder deze week de compacte Founders Edition zien, die uit drie afzonderlijke pcb's en een relatief compacte dualslotkoeler bestaat. Dit model moet in staat in zijn om de 575W-tgp van de RTX 5090 onder controle te houden.

Benchmarks van de RTX 5090 vergeleken met die van andere relevante videokaarten. Bron: VideoCardz.
Benchmarks van de RTX 5090 vergeleken met die van andere relevante videokaarten. Bron: VideoCardz.

Door Idriz Velghe

Redacteur

17-01-2025 • 18:02

224

Reacties (224)

224
221
87
3
0
104

Sorteer op:

Weergave:

Moet ook het verbruik vergelijken natuurlijk.
Hoeveel performance per Watt en dan weer extrapoleren naar de rtx4090.

[Reactie gewijzigd door klakkie.57th op 17 januari 2025 18:17]

Jammer dat je reactie op +0 wordt gezet, want het is wel relevant.

Maar voor de RTX5090 op zichzelf niet zo. Hoe meer hoe beter, want het is het flagship product..

Maar voor de algehele generatie is het wel belangrijk. Als je een snellere GPU wil met maar 1 PCIe aansluiting of in een TDP beperkte in een laptop, dan kan niet anders dat de efficientie omhoog moet. Dat daar meer FPS uit komt (omdat er bijvoorbeeld altijd ~200W power target wordt verstookt) is dan bijna een bijzaak.

ALS deze cijfers zijn neergezet met 450W voor de RTX4090 en 575W voor de RTX5090, dan is dat maar +7% verbetering in GB6 Vulkan, en zelfs -9% in GB6 OpenCL. Maar dat is met dikgedrukte 'ALS' deze kaarten hun TDP verbruikten tijdens deze tests. Want iets zegt mij dat deze scores beter moeten kunnen.
De 50-serie is gemaakt op nagenoeg hetzelfde procede als de 40-serie en het gros van het werk om efficientie te verbeteren lijkt hem in het AI deel te zitten (waar wij als gamers nauwelijks wat van merken). nVidia heeft zelf niks over efficientie voor gaming gezegd en zelfs als je hun gains met hun groei in TGP vergelijk lijkt het erg op stagnatie kwa efficientie. Dat terwijl ze volmonding over de efficientieverbeteringen bij AI toepassingen spraken (o.a. door de toevoeging van INT4 waar wij als gamers grofweg helemaal niks aan hebben).

Je kunt er denk ik gerust van uitgaan dat de winsten minimaal zijn. Sterker nog, ik vermoed dat alleen de 5090 en 5070 Ti op dat vlak vooruitgang boeken. Het zou me niks verbazen als het bij de 5080 en 5070 dankzij hogere kloks zelfs een stapje achteruit gaat.

Volgens geruchten zullen de eerste reviews over ongeveer een week droppen (5090 op 24-1). Dus dan weten we wel iets meer. Maar itt de 5080 en 5070 halen de 5090 en 5070 Ti een groot deel van hun prestatiewinst uit een grotere chip met meer cores met (iets) lagere clocks waardoor die nog het meest kans maken op efficientiewinsten. Bij de 5080 en 5070 zijn de cores naar verhouding een stuk minder gegroeid en de clocks zijn gestegen. Dus dik kans dat die de andere kant op gaan.
Maarja, overgrote deel van de gamers zal het een reet roesten of die kaart wat meer verbruikt, zolang die maar een stuk beter presteert als de kaart die ze eerst hadden. Mij interesseert bv alleen het verbruik in normale windows/idle gebruik me wat, maar zodra die voor gaming gebruikt moet worden zal het me echt een reet roesten hoeveel die kaart verbruikt.
Eens, ik denk niet dat de meeste gamers echt wakker liggen van de vermogenopname van hun GPU. Hoewel dat met al die variabele stroomcontracten nog wel eens zou kunnen veranderen in de toekomst. Zoals meerdere mensen hier al aangaven is het grootste probleem de hitte in de zomer. Ik heb bijvoorbeeld een soort "zomer-profiel" voor bij hardware waarbij de GPU op ~60% power zit en de CPU in ECO-mode.
Daarom blijf ik ook bij gpu's die rond de 150 watt zitten, makkelijk koel te houden en in de zomer verwarmd het je huis een stuk minder, wel zo fijn als het weer is een week lang 30+ graden is.
Nou die ene week per jaar of het dan 30 graden of 31 graden is zal me echt worst wezen hoor :d
Ik ben het niet met je eens dat AI niets voor gamers doet. In tegenstelling zelfs. DLSS is inmiddels van dusdanige kwaliteit dat ik ze in veel games gebruik en niet kan onderscheid maken tussen met of zonder zonder er heel erg bij stil te staan en inzoemen en dergelijke.

Ik gebruik wel altijd quality voor dlss. Ook gebruik ik al geregeld Raytracing. Mijn 4080 super doet het prima.
En met DLSS4 van de 5000 series komt er veel nieuwe features ook naar de oude generatie kaarten vanaf de 2000 serie. Enkel niet MFG en de optimalisatie voor AI gebruik voor oudere series dan de 4000 en MFG enkel voor de 5000 serie.

Je kan een monolithische die maar beperkt groot maken en dan stopt het op een gegeven moment. Dus zal je ook andere manieren moeten verzinnen wil je verder kunnen groeien. En of het nu fake frames en andere zaken zijn kan ik niet van wakker liggen zolang ik er weinig tot geen onderscheid van kan maken en de fps elke gen goed vooruit gaat.

We hebben altijd lopen klagen dat Raytracing (RT) niet een feature was die bruikbaar was door het instorten van de FPS maar inmiddels is dat een heel stuk beter. En met MFG en de verbetering met AI in de 5000 serie kan je zo op hoge FPS 4K games draaien die er geweldig uitzien.

Dus ik zie er wel de meerwaarde van in en ben blij dat Nvidia blijft ontwikkelen niet enkel op raster performance.
Ik ben het niet met je eens dat AI niets voor gamers doet. In tegenstelling zelfs. DLSS is inmiddels van dusdanige kwaliteit dat ik ze in veel games gebruik en niet kan onderscheid maken tussen met of zonder zonder er heel erg bij stil te staan en inzoemen en dergelijke.
DLSS is geen AI en MFG net zo min. Het zijn ML algoritmes en dat is toch echt iets anders dan kunstmatige intelligetie. De stappen die nVidia heeft gezet om AI sneller en zuiniger te maken op blackwell zullen bij DLSS helemaal niks uithalen.
Ik gebruik wel altijd quality voor dlss. Ook gebruik ik al geregeld Raytracing. Mijn 4080 super doet het prima.
En met DLSS4 van de 5000 series komt er veel nieuwe features ook naar de oude generatie kaarten vanaf de 2000 serie. Enkel niet MFG en de optimalisatie voor AI gebruik voor oudere series dan de 4000 en MFG enkel voor de 5000 serie.
Dat is dus geen efficientiewinst. MFG levert meer frames maar ook met meer latency.
Je kan een monolithische die maar beperkt groot maken en dan stopt het op een gegeven moment. Dus zal je ook andere manieren moeten verzinnen wil je verder kunnen groeien. En of het nu fake frames en andere zaken zijn kan ik niet van wakker liggen zolang ik er weinig tot geen onderscheid van kan maken en de fps elke gen goed vooruit gaat.
Dat klopt deels natuurlijk: Je kunt het oppervlak ven een chip afhankelijk van het kwaliteit van het procede maar tot een bepaalde grotte schalen voordat het economische waanzin wordt. Maar er is al meer dan 2 jaar een nieuwer procede dan de 5nm-class waar nVidia met Blackwell op zit (TSMC 3nm namelijk) en de eerste chips met TSMC 2nm zullen dit jaar verschijnen. Het 3nm procede levert flinke stappen wat efficientie betreft en de verwachtig is dat ook 2nm nog eens een flinke stap wordt. Anderzijds kunnen ze natuurlijk ook hun cores slimmer ontwerpen om met minder energie dezelfde taken uit te voeren. Dat hebben ze ook wel gedaan, maar gericht op AI toepassingen waar jij als gamer niks van gaat merken want de ML toepassingen die jij runt kunnen met INT4 en dergelijke nieuwe features niks.

Als jij alleen naar FPS kijkt, dan is dat gewoon erg ongenuanceerd. Het is juist dit gebrek aan nuance dat nVidias marketingafdeling tracht te misbruiken als ze zeggen dat de 5070 evenveel performance kan leveren als de 4090. Hij kan evenveel beelden leveren maar als een 4090 met FG 60FPS levert, dan zal dat op een 5070 met MFG volstrekt onspeelbaar zijn. Wel 60FPS maar met een torenhoge latency en enorme variabiliteit in frametimes die het erg onprettig zal maken.
We hebben altijd lopen klagen dat Raytracing (RT) niet een feature was die bruikbaar was door het instorten van de FPS maar inmiddels is dat een heel stuk beter. En met MFG en de verbetering met AI in de 5000 serie kan je zo op hoge FPS 4K games draaien die er geweldig uitzien.
Geen idee waarom je RT erbij haalt. Daar ging dit helemaal niet over. RT heeft zeker meerwaarde in een select aantal titels. Maar er zitten nog steeds (7 jaar na de introductie) veel haken en ogen aan. In alle gevallen ruilen we het ene voor het andere optische artefact gepaard met een enorm verlies aan prestaties. GPU makers zullen alsnog flink krachtigere kaarten moeten leveren (AMD meer dan nVidia op dat punt) om in de mainstream (6/7-class) echt goede RT effecten te kunnen halen bij redelijke frame-rates & latency. Hardware Unboxed heeft daar laatst een zeer gedetaillerde serie over gemaakt. Het is beter tegenwoordig. Maar het is nog steeds zo dat mainstream-kaarten gigantische concessies moeten doen voor RT die de games meestal in het territorium van onspeelbaar brengen. Zelfs met FG en MFG (wat met FSR en Lossless Scaling trouwens ook op oudere kaarten gewoon goed kan)
Dus ik zie er wel de meerwaarde van in en ben blij dat Nvidia blijft ontwikkelen niet enkel op raster performance.
Niemand zei dat daar geen meerwaarde inzit. Maar het levert geen schone performance vooruitgang op. Verbeteringen in DLSS Upscaling zullen ook op oudere kaarten runnen en zodoende is dit over de hele linie winst maar geen reden om 50-serie te kopen. MFG levert latency voor frames in. Dat is voor sommige scenarios prima maar in veel andere scenarios is het niet draagbaar en het zorgt er niet voor dat deze kaarten langer meegaan, want MFG zal met lage base-FPS gewoon lijden aan veel te hoge latency. Als je nu spellen met DLSS Upscaling op 60-120 FPS krijgt dan is dat allemaal best. Maar als over 2-3 jaar de volgende CP2077 een 5090 naar 20 FPS (incl DLSS Upscaling) brengt, dan zal die 70 FPS met MFG geen prettige ervaring zijn, laat staan wat een 5070 met 1/3 de rekenkracht ervan gaat maken.

Maar omdat het blijkbaar nodig is: Ik heb een 3090 en ga een 5090 kopen. Ik zie ook best meerwaarde in MFG als je een 240Hz+ display hebt en single-player games speelt. Maar voor displays met lagere refresh rates is FG voldoende (en is er nauwelijks verschil tussen NV FG en FSR FG en Lossless Scaling FG). Zodra je alleen met MFG naar de 120FPS komt, zal de latency gewoon te hoog zijn voor een prettige ervaring.
Je trekt nogal wat conclusies zonder dat er ook maar een kaart getest is.
Het klinkt allemaal redelijk en het internet gonst al van opmerkingen als 'fake frames' en de onwaarschijnlijke potentiële performance van de 5070 met MFG maar het zou bijzonder dom zijn van NVidia om dat soort uitspraken in een keynote te doen als het een paar weken later hun toch al wankele imago onder gamers onderuit kan halen.

Tot er uitgebreide tests beschikbaar zijn overweeg ik helemaal niets te kopen.
Persoonlijk speel ik voornamelijk games die helemaal niet per se op 165 fps (van mijn monitor) hoeven draaien maar die vaak wel extra 'waarde' krijgen van pathtracing, reflecties, grotere textures e.d..
Hoewel mijn 3080 voor pathtracing en FG al niet meer voldoet, 10GB VRAM nog maar net voldoende is en in theorie iedere nieuwere kaart een upgrade zou zijn zie ik NVidia goed in staat over 11 maanden met DLSS 5.0 te komen dat alleen draait op de 60xx serie en dat je met de 16GB VRAM van zelfs de 5080 al weer op de grens zit.

Ik zie de uitgebreide tests wel verschijnen, hopelijk met duidelijk onderscheid tussen de verschillende versies DLSS, RT en FG wat op dit moment erg weinig gebeurt, maar eigenlijk ben ik al voornemens om op de Ti en Super versies te wachten.
maar het zou bijzonder dom zijn van NVidia om dat soort uitspraken in een keynote te doen als het een paar weken later hun toch al wankele imago onder gamers onderuit kan halen.
Dat is letterlijk wat zij bij de 40-serie hebben gedaan. 2x, 3x en zelfs 4x performance stond op hun slides toen ze de 40-serie introduceerden (de beelden staan nog op tweakers in het nieuwsartikel). Toen bleek dat FG te zijn en iedere serieuze publicatie heeft dat als onzin afgedaan. De feature heeft zeker wel waarde. Maar het is geenzins vergelijkbaar met echte frames en iedereen weet dat (ook nVidia).
Ik zeg niet dat NVidia betrouwbaar is en ik ben net zo cynisch over de hele ontwikkeling als de volgende.
De prestatietoenames zijn bij iedere introductie van een nieuwe serie of model gebaseerd op specifieke
situaties. Daar is niets nieuws aan.
Jij geeft ook aan dat er situaties zijn waar er meerwaarde kan zijn en in in welke situaties er potentieel problemen zijn. Helemaal terecht.
En volgens mij zeg ik vrij duidelijk dat ik voor mijn specifieke situatie die meerwaarde wel kan zien, maar dat ik alsnog sceptisch ben.
Het enige dat ik zeg is dat ik graag testresultaten zie van realistisch gebruik in specifieke scenario's voor ik conclusies trek.
Is dat zo vreemd tegenwoordig?
het is geenzins vergelijkbaar met echte frames
Als gamer, hoe geïnteresseerd ik ook ben in de achterliggende techniek, boeit het me uiteindelijk vrij weinig welke chip of proces die frames op het scherm zet als ik verschil niet merk wanneer ik gewoon een spel speel.
Ik wil gewoon weten of, in hoeverre en in welke situaties het goed of slecht werkt.

Zolang er geen testresultaten zijn noem ik jouw (en die van 'serieuze' media's) conclusie over de 5070 voorbarig..
Het klinkt allemaal redelijk en het internet gonst al van opmerkingen als 'fake frames' en de onwaarschijnlijke potentiële performance van de 5070 met MFG maar het zou bijzonder dom zijn van NVidia om dat soort uitspraken in een keynote te doen als het een paar weken later hun toch al wankele imago onder gamers onderuit kan halen.
Ik zeg niet dat NVidia betrouwbaar is en ik ben net zo cynisch over de hele ontwikkeling als de volgende.
De prestatietoenames zijn bij iedere introductie van een nieuwe serie of model gebaseerd op specifieke
situaties. Daar is niets nieuws aan.
Je spreekt jezelf letterlijk tegen.

Wat betreft de conclusies, daar kun je van vinden wat je wilt natuurlijk. Ik heb ze goed onderbouwd en ik heb bij alles een redelijk nuance aangebracht. Er zijn daar geen keiharde conclusies op specifieke getallen omdat die inderdaad niet mogelijk zijn. Maar het bereik van de uitkomsten is nu al zeer duidelijk en als het echt anders was, dan was het van nVidia juist zeer dom geweest om dat niet te tonen.

En technische leiders van nVidia bevestigen dat impliciet ook gewoon al in interviews. MFG heeft nog steed evenveel base-FPS nodig als SFG. Je zult dus alsnog vooruitgang in ruwe performance moeten boeken om nieuwe games die er beter uitzien op een acceptable prestatieniveau te brengen. En er is dus weinig vooruitgang geboekt op ruwe performance (ie de performance waar je geen afweging tussen prestaties op een dimensie vs prestatie op een andere dimensie hoeft te maken). En ten slotte ist het ondanks alle trucs nog steeds zo dat die prestaties het belangrijkst zijn.

[Reactie gewijzigd door Darkstriker op 20 januari 2025 15:29]

Het zijn dan ook "neppe beelden", want de gamer kan in die drie frames niets doen behalve dan toezien hoe soepel het beeld is. Die drie framegen. beelden doen niets voor de echte performance. En daarom is er niets mis mee om het neppe frames te noemen.
Ja ik weet hoe het werkt, dank je.
Het zijn gewoon frames. Dat ze op een andere manier tot stand komen doet daar niets aan af.
Er is ook geen enkele regel die zegt dat je op ieder frame iets moeten kunnen doen.
Die performance waar jij het over hebt, latency of vertragingen in hardware en software zoals de discrepanties tussen wat een GPU genereert, het scherm laat zien en de rest registreert zijn niet nieuw.
De taak van de GPU is om beeld op het scherm te zetten en hoe het daar komt zal me persoonlijk een worst wezen als ik het verschil niet zie of merk.
Als in sommige games de 'performance' van 30 fps goed genoeg is maar je dus 120 fps op je scherm hebt zie ik het probleem niet.
Wat dus belangrijk is is hoe die 'echte performance' uit pakt voor verschillende GPU's en verschillende situaties.
Iets waarvoor ik dus gewoon werkelijke tests wil zien.
Doet er niets aan af 8)7 8)7 :) . Er is geen regel, want tot niet zo lang geleden, bestond er geen framegen. Dankje. En ja, het doet er alles aan af. Het word meer een beeld show, ipv. Dat er realtime gerenderd en dus gereageerd kan worden. Daar gaat je zero latency input.

Het probleem is dat je input performance niet meeschaalt met de getoonde fps, het blijft 30* per sec, en word nooit 120. Plus dat de latency juist erger word.

[Reactie gewijzigd door Madrox op 20 januari 2025 07:47]

2 Keer hetzelfde zeggen maakt het argument niet beter.
Het wordt niet een beeldshow, dat is het altijd geweest. Een GPU is een grafische processor. Het ding genereert beelden/frames.
En moderne tv's hebben al jaren motion smoothing techniek die ook kunstmatig frames toevoegt.
Dat er realtime gerenderd en dus gereageerd kan worden.
Je kunt altijd real-time reageren. Je reageert alleen niet meer 100% op real-time gerenderde beelden.
En het is nog maar de vraag in hoeverre dat dus een issue is bij met name de 5070 met '4090 performance'.

Je kunt er overigens van vinden wat je wilt, maar er is altijd een balans geweest tussen wat hardware kan en games laten zien. Het heeft namelijk niet veel nut om een game te maken die geen enkele PC kan draaien.
Het zou redelijk bekend moeten zijn dat de hardware tegen grenzen aan loopt. Niet alleen op technologisch gebied maar ook in hoeverre het nog betaalbaar kan blijven voor iets dat voor de meesten feitelijk niet meer is dan een hobby, een vrijetijdsbesteding.
Als we games op steeds hoger grafisch niveau willen dan is er geen ontkomen aan dat die beelden op een andere, slimmere manier gecreëerd moeten worden.
Frame generation is een middel om op dit moment, met de huidige techniek dingen als pathtracing voor elkaar te krijgen met een acceptabel aantal frames en het ziet er naar uit dat dat voorlopig het enige middel blijft.
Niet omdat het zo goed is, maar omdat er op het moment geen alternatief is..
Leuk dat je dat vind maar de echte gamers zien dit anders. Die onzin gaat dus nooit aan. Die kopen gewoon een snellere kaart alles draait on latency. Ook render ik alleen native al die dlss zooi blijft tering blurry vergeleken gewoon een 5090 dus dan heb je die poor mans gimmicks niet nodig. Zelfs warzone met de frame gen met maar een extra generated frame voelt al raar en laggy op een 40 series kaart
echte gamers, onzin, dlss zooi, tering blurry, poor mans gimmicks, raar en laggy
Ik heb geen idee wie je denkt te overtuigen met deze ongenuanceerde kwats.
We zijn (overduidelijk) niet allemaal hetzelfde en gamen ook niet hetzelfde.
Als jij vindt dat je €2500 uit moet geven om Warzone te spelen moet je dat helemaal zelf weten.
Ahhh daar komt de aap uit de mouw
Geldt dit straks ook voor de mobile kaarten? Of zijn die compleet anders?

Als ik dit zo lees valt de verbetering van deze generatie n beetje tegen.
Ik vermoed dat ook mobile de performance/watt geen noemenswaardige stappen zal zetten. Als je de geruchten kan geloven is het net als in de desktop een "brute-force" vooruitgang van performance door grotere chips en of hogere clocks in de zelfde benoemingsklasse. Of dat ook vertaalt naar betere performance per Euro moet nog blijken. Maar de mobiele series is nog niet aangekondigd, dus het is wat speculatiever. Al verwacht ik niet dat nVidia voor de mobiele GPUs een moderner procede heeft gekozen. Het ligt in de lijn der verwachtigen dat ze net als bij vorige generaties de desktop chip van een klasse eronder gebruiken voor de meeste kaarten (Mobile 4090 ~= Desktop 4080, Mobile 4080 ~= Desktop 4070 Ti, Mobile 4070 ~= Desktop 4060 Ti).
Maar deze benchmarks zijn toch ruwe performance, en niet met DLSS etc? Ik snap het punt niet. Ik zie een hele grove verbetering in performance, en ik zie nergens terug dat dit door AI komt.

[Reactie gewijzigd door MrFax op 18 januari 2025 09:16]

Dit zijn natuurlijk synthetische benchmarks dus daar moet je altijd een flinke lepel zout bij nemen. Enerzijds hebben we geen idee hoe die kaarten geconfigureerd waren nog weten we hoeveel stroom ze hierbij hebben verbruikt. Het blijft dus allemaal wel speculatie. Als we naar deze twee benchmarks hierboven kijken, dan leveren de 5090 resultaten gemiddeld 33% en 12% meer performance tov de 4090 en de GPU heeft een TGP die 28% hoger is dan bij de 4090. Ook bij de resultaten die nV zelf heeft gedeelt waren prestatiewinst en TGP groei over de hele linie vergelijkbaar.

Maar zoals ik al zei, de hoofdredenen dat ik verwacht dat er geen noemenswaardige vooruitgang op efficientie is dat nVidia het zelf geen enkele keer heeft benoemd. Ze hadden het uitgebreid over de efficientiewinst voor AI maar er is geen woord gerept eraan dat de GPUs voor gaming efficienter worden. Gezien hoe aggresief manipulatief de performance-grafieken waren (4x MFG tegen 2x FG) om de 5070 als opvolger van de 4090 te kunnen presenteren zouden ze dat echt wel hebben genoemd ze er een noemenswaardige stap hadden gezet.
Jij hebt beter neergeschreven wat ik bedoelde :9
OpenCL is zo goed als dood, zowel bij NVIDIA als AMD. Er wordt dus geen grote effort gestoken in de drivers die nodig zijn voor OpenCL.

Dus het verwondert me helemaal niks dat de scores in OpenCL zoveel lager zijn dan de scores in Vulkan.

De echte performance tests voor NVIDIA compute zullen allemaal in CUDA gedaan moeten worden, daar wordt namelijk wel actief geoptimaliseerd door NVIDIA.
Ik zie deze comments vaker terug komen, maar denk je echt dat 4090 en 5090 users ook überhaupt maar kijken daarna?

Die willen toch het snelste van het snelste. Ook al moeten ze een extra groep aanleggen in de meterkast.

Edit: wat ik ook bedoel te zeggen is dat de reden dat die kaart er überhaupt is, is omdat er een hele grote doelgroep is die het niet uit maakt hoeveel watt zoiets trekt. Die doelgroep wilt Nvidia bedienen en ze betalen er dik voor.

Ik snap dat er heel veel mensen zijn die de kaart om andere redenen interessant vinden en daar graag het “beste” (voor hun) uit willen halen. Maar die doelgroep is een stuk kleiner.

[Reactie gewijzigd door WiXX op 17 januari 2025 21:09]

Nou ik kijk er toch wel naar hoor. Niet zo zeer het stroom verbruik zelf, maar de hitte die er vanaf komt. De hitte daar maak ik mij zorgen om.
Vooral ook dat hitte = ventilatorlawaai.

De afgelopen drie generaties van RTX kon je door de kloksnelheid ~7% te verlagen de voltage curve zodanig naar beneden brengen dat je 30-50% minder watt verbruikte. Gaat bij maximale load je GPU van lawaaiig naar fluisterstil, terwijl je maar 3-5% aan prestaties inlevert.
Als je een 5090 straks met 5 procent minder performance op minder dan 300Watt kan krijgen fenomenaal natuurlijk, maar in welke game of welke verdere workloads. Of was die 5 procent performance verlies het meest verlies uit allerlei verschillende testjes op een 4090, en valt dat ook op elke 4090 te halen waar je het maar probeert, of is dan een golden sample verhaal?

Maakt het ergens wel vreemd dat ze die kaarten dan standaard af fabriek zo vreselijk veel meer laten gebruiken dan nodig is
Maakt het ergens wel vreemd dat ze die kaarten dan standaard af fabriek zo vreselijk veel meer laten gebruiken dan nodig is
Dat komt omdat prestaties verhogen niet linear is op het bovenste stukje van de curve. Je ziet dit bijvoorbeeld bij de Steam Deck ook, waar je het verbruik van 11w TDP naar 15w TDP met gemiddeld 40% toeneemt, maar de prestaties met slechts 15-20%

Ventilatorlawaai kun je niet op een doos zetten, en al kun je dat dan begrijpen mensen decibels toch niet goed. "6% overlock!!11" en uberhaupt hoge kloksnelheden lijken veel indrukwekkender.
Ze verkopen geen 5090 minder als ie 5% langzamer is. Dat ding staat op zodanig eenzame hoogte voor heel 2025 is nu al bekend, dat is al bijna niet grappig meer.

Je zou juist denken mooi, brengen we nu een 300W 5090 uit, des te groter kan straks de sprong waar nodig zijn voor een 5090S als een concurrent ergens mee komt voordat de 6090 alweer klaar is.

Ook blijven mijn vragen over de omstandigheden van die claims onbeantwoord. Voorlopig maar even met een korrel zout nemen en zien hoe goed een 5090 ook op minder power is. Wie weet koop ik toch eens in mijn leven zoiets duurs om het toch eens zelf uit te proberen als zo een founders edition me gegund zou zijn. Ze zijn zeker dat eerste jaar vrij waardevast mogen we net als met de 4090 weer vanuit gaan.

[Reactie gewijzigd door OruBLMsFrl op 18 januari 2025 22:18]

Ik heb mijn 4080 super ook met deze curve gezet. En ben met mijn Asus tuf exemplaar van niet teveel lawaai naar fluisterstil en koel gegaan.

Mijn kaart komt eigenlijk niet boven de 58c met 70c hotspot uit tijdens uren gamen en verbruik ligt dan max op zo een 220 watt. Heerlijk stille pc.

Zo heb ik ook mijn 14700KF undervolt en een core voltage max toegespast. Mijn 14700KF haalt nog steeds een r23 multi score van ruim 33K punten met een max verbruik van 185 watt.

Blijft tijdens gamen lekker stil en koel met een zeer laag fanprofiel van mijn 360 aio. Ik ben altijd voor minder verbruik tegen een kleine prestatie inleveren.
Heeft Nvidia niet vergelijkbare features zoals AMD Chill of Eco profielen?
AMD Chill is wat anders, dat past dynamisch de resolutie en frame limit aan.

Je hebt bij sommige GPUs wel een GPU BIOS toggle voor een silent, balanced en performance profiel en fancurve. Maar dat haalt het niet bij je eigen curve vaststellen.
Nou dat viel mij anders behoorlijk tegen. Met de RX580 merkte ik al dat de GPU zelf al best prima om ging met de load en daarbij horende energieverbruik. Dat ik met eigen curves eigenlijk alleen marginale verbeteringen gezien heb op het algehele stroomgebruik. Met de 7800X lijkt het dusver weinig anders. De GPU kan dat grotendeels prima zelf.

Wat veel meer impact had, waren features zoals AMD Chill. Wanneer er weinig op je scherm gebeurd, heb je geen hoge framerates nodig.

Het is ergens ook raar om een GPU te kopen en deze dan te downclocken, koop dan een stapje lager. Ik benut graag wel die 100% wanneer nodig. Al stel ik de meeste games af op 70-80% constante loads en de GPU regelt het stroomverbuik best prima.

Zolang je je GPU niet tegen de 100% aan drukt zijn die winsten met undervolten en downclocken vrij margineel naar mijn ervaring (of in het AMD kamp). En een GPU wil je niet constant tegen de 100% aan hebben zitten. Tenzij je meer frames rendert dan dat je monitor aan kan, maar wat is dan nog het punt van het bezuinigen?

[Reactie gewijzigd door batjes op 20 januari 2025 19:25]

Zolang je je GPU niet tegen de 100% aan drukt zijn die winsten met undervolten en downclocken vrij margineel naar mijn ervaring
Mijn 3070 Ti ging onder maximale load met ongeveer 32% minder stroom gebruiken, en werd daardoor echt 2-3x zo stil. Op 80% load werd 'ie daardoor fluisterstil.

Je moet het ook niet zien als je GPU underclocken, eigenlijk haal je de debiele factory OC er vanaf.
Dan hoef je niet naar performance per watt te kijken, maar gewoon naar het totaalverbruik. Want *alle* watts die erin gaan als electriciteit, komen eruit als warmte.
Als je daar naar kijkt dan heb je ook geen 4xxx serie?
Ik heb op dit moment een 4070. Maar dat gaat niet zo lekker in cyberpunk.
Alsnog wel boeiend, zeker als tweaker! Ik heb een paar uurtjes in m'n 3060 voltage curve gestoken en zit n 10 watt onder TDP maar score nu ongeveer hetzelfde als een 3060 Ti.

Plus natuurlijk ook stukje millieu en vraagtekens bij de marketing. Beetje "exceptioneel design" marketen terwijl je de TDP een boost heb gegeven. Tuurlijk is het veel genuanceerder maar ik zou heel graag eens weer een paar grote stappen op perf per watt zien. Denk na voor de datacenters, zeker nu met AI. Als je dezelfde performance met 20-10% minder verbuik kan krijgen, de gigantische besparing op het gebied van... TDP maar ook koeling. Maakt een serieuze CO2 impact.
De 40-serie was toch juist een grote stap op perf/watt. De 50-serie zit op nagenoeg hetzelfde procede. Daar moet je vooral niet veel van verwachten op perf/watt. De 6000 serie van AMD was dan ook efficienter dan de 30-serie van nVidia voor een groot deel omdat AMD destijds met TSMC 7nm op en moderner procede zat dan nVidia met Samsung 8nm. Nu gaan we van TSMC 4N naar TSMC 4NP. Dat zijn allebij gewoon 5nm procedes met optimalisaties. Tot nVidia overgaan op een 3nm of 2nm procede (Samsung, TSMC en Intel verwachten allemaal dat ze 2025 met 2nm procedes klaar zijn) zal er niet veel bewegen. Met andere woorden, als het je echt om efficientie gaat moet je de 50-serie naar verwachting gewoon overslaan. De 60-series zal vermoedelijk wel weer een aardige stap zetten.
dit, mensen die zich zorgen maken om het milieu of hun portemonee kopen geen 5090 van meer als 2000 euro.

En als je je 5090 gebruikt om te gamen, dan game je sowieso niet 24 uur per dag, de rest van de dag gebruikt een 5090 met goede drivers bijna niks.Of helemaal niks als je je computer powermanagement gewoon op sleep na 15-30 minuten idle zet.

Als je AI models lokaal wilt trainen speelt dit wel.
Juist voor AI zou de 50-serie nog eens een stuk efficienter kunnen worden omdat dat nou juist de focus van nVidia is geweest de afgelopen 2 jaar en alle innovatiekracht daar heen is gegaan. Jensen zijn ook tijdens de keynote iets over 3x efficiency winst voor AI door gebruik van "nieuwe" methoden als INT4. Dat zal voor gaming niks flikken maar het lijkt erop dat er met de juiste keuze van lokale AI model best wat te behalen valt.
zeker waar, op AI gebied is ie veel sneller, en efficienter, dus je jobs zijn 3 x zo snel klaar, tegen een waarschijnlijk minimale verhoging van power consumptie..

Ik bedoelde meer dat als je een model aan het trainen bent voor een paar dagen, dat ie dan wel wat verbruikt. Omdat je langer gebruik maakt van je grafische kaart, als bij een gaming sessie.

Ik denk wel dat de meeste mensen een 5090 kopen om te gamen, en niet om AI models mee te trainen. Als je echt professioneel models wilt trainen kan je beter naar de cloud gaan, want 32gb memory is vaak niet genoeg daarvoor.

Als je het puur wilt gebruiken voor inference is een 5090 denk ik overkill.
Als je het puur wilt gebruiken voor inference is een 5090 denk ik overkill.
Daar zit je dus flink naast. Zelfs de 5090 zal echt grote modellen niet lokaal kunnen runnen (grotendeels door de VRAM limitatie). Er zijn zeker wel toepassingen in die richting.

Er is een mooie github die LLM performance op verschillende (deel consumenten) GPUs gebenchmarkt heeft. Een 70 miljard parameter model zal praktisch niet meer passen op een 32GB VRAM GPU. En recentere GPT en Gemini modellen zitten ergens rond de 200+ miljard parameters.
Yup dit. Alhoewel t fijn is als je meer perf per wat hebt. Total performance is king.
Het gaat niet om kosten of energieverbruik ansich.
Het gaat er om in hoeverre de prestatiewinst is toe te schrijven aan innovatie, of aan het simpelweg verhogen van het aantal cores, lanes en geheugen.

26,3 tot 37,1 prestatiewinst voor 27,78% meer energieconsumptie (TDP) lijkt aan te geven dat er van innovatie weinig sprake blijkt te zijn.
Naja we hadsen het eerdsr nog nooit te voren? Innovatief dus lijkt me.
denk je echt dat 4090 en 5090 users ook überhaupt maar kijken daarna?
Ik ben vanwege het verbruik geen RTX xx80 of RTX xx90-gebruiker. Ik geniet van een RTX xx70 (niet-Ti), al meerdere generaties lang. (Al sla ik vaak eentje over, om vervolgens na een tijdje weer een goed Tweakers V&A dealtje te zoeken.)

Maar juist ik ben dus ook benieuwd naar deze cijfers. En het zou voor mij heel informatief zijn om te weten of de normalisatie van het groeiende verbruik nogsteeds doorgaat, stabiel blijft of zelfs terugloopt. En om me daarover te informeren kan ik de cijfers, óók van deze xx90's, goed gebruiken om me te informeren.

Ik begrijp wat je zegt, maar ik denk dat het dus niets afdoet van @klakkie.57th's (of mijn) informatiebehoefte. :)
Ik heb een 4080 super die al een van de meest zuinige chips is. Daar draait een power curve op waardoor ik zo een 5 tot 7% prestaties verlies en zo een 30 a 35% minder verbruik heb.

Mijn 4080 super piekt nu op zo een 225 watt. En daar heb je heel veel prestatie voor terug.
Ik denk niet dat hij dat bedoelde. Om twer kaarten te vergelijken moet je appelen met peren vergelijken. FPS/watt en FPS/€.

FPS/watt is een goede indicator hoeveel beter de volgende generatie kaarten echt zijn.

Dat staat helemaal los van het feit dat een heel kleine maar aanwezige doelgroep idd het beste van het beste wil en geen rekening houd met die factoren.
Eens. Het verbruik interesseert me absoluut niet. Ik wil gewoon de krachtigste kaart. En dat zal voor de meeste 5090 kopers wel zo zijn.
Ja zeker omdat ze dan moeten beslissen of weer power unit upgrade nodig is.
Als ze al 1500wat hadden dan niet.
Maarja, op 60% gebruikt die niet zijn potentieel. Dat jij daar tevreden mee bent, OK, anderen gebruiken em tot de max, je geeft niet voor niets bakken geld uit om een topkaart te kopen. Dat je em buiten gaming terugvolt naar lager zodat die in idle/windows gebruik een stuk minder verbruikt, ok.
Er zullen vast mensen zijn die het geen probleem vinden om 200watt extra (+airco in zomer) te verbruiken voor een verschil in fps wat je niet merkt als je geen fps counter gebruikt. Maar dat is denk ik niet een "ik vs anderen". De 100% power limit is niet inherent aan de chip. Het stroom gebruik is ook maar gewoon ingesteld in de bios. Het maximale potienteel is niet 100%. En de beste performance/watt is ook niet 100%. En een 60% power limit instellen doets helemaal niets voor idle verbruik.
Waarom zou je dat moeten? Je vergelijjt zo een huidige videokaart met 1 van 15 jaar geleden toch ook niet?
Wat interesseert mij het verbruik als die nieuwe kaart vele malen sneller presteert?
Waarom niet. 🤷🏻‍♂️.

Als er gewoon meer vermogen is omdat je meer stroom in de kaart stopt dan is dat weinig spectaculairs.
Meer vermogen = betere graphics = spectaculair. :)
Kijk daar verschillen we van mening …
Als ze diezelfde performance kunnen bekomen met 75W, gewoon wat een pcie slot kan keveren … dan hebben we wat spectaculairs , nu vind ik dat maar “meh”, “logisch”, niks spectaculairs. 🤷🏻‍♂️
Absurde prijzen met absurde powerdraws. De 5090 lijkt dan ook gewoon dikke overkill voor gaming.
En toch gaan er mensen deze toch gewoon weer kopen. Ik zou het ook graag anders zien, als men hier gewoon eens collectief de vinger op zou geven en ze links zouden laten liggen zouden dit soort prijzen misschien ooit weer eens richting het normale kunnen gaan, maar aangezien het nog aftrek krijgt ook komen ze ermee weg. Plus dat AMD geen alternatief kan bieden.
Alles wat je zegt is hypocriet, laat mensen zelf beslissen. Jouw mening jouw keuzes, niet dat mensen geïnteresseerd zijn. Als mensen budget hebben en betere prestaties hebben koop je dit en anders fijn niet, wat is nu het probleem?
Ik ben het hier ook mee eens.

Ook niet iedereen hoeft dezelfde supercar te kopen. De 1 wil een auto van a naar b. De ander een supercar om mee te pochen of juist kwaliteit voor op een circuit.

Voor ieder wat wils. Je kunt gewoon zelf keuzes blijven maken.

Koop desnoods een goede tweedehands. Laatst nog gedaan op tweakers: mooie 3070rtx op de kop getikt. Voor mijn doeleinden top ding voor goede prijs!
Ook ik ben het hier roerend mee eens. Eventuele jaloezie is verspilde energie. Ik kán best een nieuwe computer kopen, maar waarom zou ik? Als ik zie hoe stabiel en fijn mijn PC is dan zou ik wel gek zijn om te upgraden voor om te pochen. Of ik nu 90 of 120 fps heb, dat verschil zie je niet. Hetzelfde voor mijn auto: het is een fijn bakkie en hij doet wat ie moet doen en daarvoor heb ik geen dikke BMW nodig.

En jouw pas gekochte rtx3070 kan nog meer dan prima mee, hoor ;) Dat is helemaal geen slechte kaart. Het gaat erom dat jij tevreden bent en dat ben je en dat is prima :) Mijn moeder zei ooit tegen mij: een tevreden mens is niet te verslaan.
titan kostte ook zoiets 6 jaar geleden
Titan staat nog boven de 90 klasse
in de tijd dat de nieuw titan was, was r geen huidige 90 serie ;)
Nee dat was de 90 klasse want toen stopte die nog bij 80
Vrees ik ook. Hij word eigenlijk ook "nodig" zodra een game slecht geoptimaliseerd is. En dat zijn de laatste jaren de meeste games.. ik ben erg benieuwd naar goede geoptimaliseerde games (bijv Doom Eternal) en de max haalbare fps daar.
Probleem is alleen, of de concurrentie echt wel concurrerend genoeg is. Dat lijkt er dus op van niet. Wil je dus performance videokaarten hebben (zeker icm raytraycing) dan zit je gewoon aan nVidia vast.
Dat is net als bij super cars, welke veel techniek uit de professionele auto racerij overnemen. Die super cars zijn ook voor een select publiek. Maar die opgedane kennis gaat uiteindelijk ook over naar de gewone burgerauto's. Dus het grote publiek heeft wel degelijk baat bij wat een select publiek graag wil hebben en gebruiken.
AMD doet juist wat je zegt: Vinger naar de snelste, maar nieuwe kaarten in het middensegment waar de meeste verkoopmogelijkheden liggen.
Dus mensen die geen $2300 voor een GPU kunnen betalen, moeten deze trend boycotten? Komt voor elkaar!

Maar serieus, wat maakt het uit dat er van een bepaald product een versie is die het beste en het duurste is? Dat is er in werkelijk elke markt. Er zijn borden van tienduizenden euro's en horloges van miljoenen. Hoor je nooit iemand over zeggen dat je die niet moet kopen.Het lijkt potdomme wel of er een recht is om tegen een lage prijs het beste beste te kunnen kopen.

De 5090 is een prestige product. Firma's doen dat om te laten zien wat ze kunnen. Ook als ze er maar een handjevol van zouden kunnen verkopen zouden ze dit soort dingen doen. In dit geval zullen ze ze vrij makkelijk verkopen omdat de markt van gamers die het beste willen vrijwel onverzadigbaar is. Daarnaast is er een mooie markt voor professioneel gebruik, je wilt dat je ontwikkelaars werken met de hardware die over 5 jaar als je product uitkomt redelijk gebruikelijk is. Ik werk met een studio die meer dan vijftig 5090s zal kopen zodra ze beschikbaar zijn. Ik zelf ook, gewoon hardware die je nodig hebt voor je werk.

Maar denken dat een boycot zal leiden tot prestaties van een 5090 voor 3090 prijzen is onzinnig. De huidige technische ontwikkelingen maken hogere prestaties alleen mogelijk met zeer dure ontwikkeling en veel duurdere productie.

Ik koop er wel een voor prive gebruik (naast de zakelijke) omdat ik het kan betalen. Er is is kans dat ik ook een duurdere auto heb dan jij. So what?
Ja want de 5080 is ook zeer betaalbaar met €1100. Alleen de 5070 is min of meer betaalbaar met €600 maar die heeft dan weer slechts 12GB vram wat te weinig is voor 4K gamen. Prijzen die Nvidia vraagt voor hun videokaarten zijn veel te hoog!
Die producten waar jij het over hebt zorgen er echter niet voor dat de "normale" producten opeens een stuk onbereikbaarder worden.
Wat betreft de zakelijke markt en zoals in jouw voorbeeld dat je er 50 gaat aanschaffen, vind ik compleet los staan van de consumenten markt. Er waren altijd al Quadro kaarten met enorme prijzen maar die waren ook niet gericht op de consument. Het beeld wordt echter wel "verziekt" doordat de consumenten en zakelijke markt elkaar nog meer aan het kruisen zijn.
Waar mijn frustratie dan ook meer zit is wanneer je kijkt in de fora dat iemand z'n 4090 gaat upgraden naar een 5090 en dat het in veel gevallen gewoon dik doen is. Niet iedereen heeft een of ander AI taalmodel of een flightsim rig staan, dus in veel gevallen is het gewoon overkill en absoluut niet nodig. Daarmee verziek je het voor de normale gamer voor een deel ook. En tuurlijk, inflatie en weet ik het allemaal, maar je kocht een aantal jaar geleden nog voor de adviesprijs van 719 euro een RTX 3080 en dat voelde weer eens een beetje normaal aan. Ook dat is destijds verziekt door toedoen van anderen, al dan niet door Nvidia zelf die de vraag niet aan konden en het gedoe rondom mining.
Het betreft luxeproducten in een markt voor enthousiastelingen die het er voor over hebben.
De 5090 is sowieso absurd en totaal niet bedoeld voor de doorsnee gamer.
Als de prijs/kwaliteitsverhouding werkelijk scheef is blijven de kaarten vanzelf op de plank liggen. Zoals ook al eerder gebeurd is.

De hier genoemde prijs van €2369 voor de FE van NVidia is niet de prijs de je straks betaald voor kaarten van MSI, Gigabyte, Asus, enz.. Reken maar dat die een paar honderd Euro meer kosten. En dan heb ik het nog niet eens over de marges die winkeliers kunnen rekenen of zelfs scalpers.
Ik vond +/- €1000 voor mijn 3080 ook maar net acceptabel en ben totaal niet geneigd om fors meer te betalen voor een 5080 of waarschijnlijk rond de €900 voor een 5070Ti.
De ontwikkeling van NVidia's techniek heeft miljarden gekost en die moet uiteraard ook terugverdient worden. Ze hebben de gok gemaakt te kapitaliseren op RTX, DLSS en nu 'AI' en het is simpelweg afwachten hoever ze daarin kunnen gaan. Tot welk punt een groot deel van de consumenten zegt dat het het geld niet waard is.

Het heeft ook al effect gehad bij de fabrikanten. Er zijn goede redenen waarom EVGA geen NVidia GPUs meer maakt en waarom AMD niet mee doet met het spelletje. Waarom Microsoft en Sony voor console hardware NVidia niet eens overwegen.
Je ziet in de reacties en op fora ook steeds vaker mensen zeggen dat ze geen behoefte hebben aan het RTX-gebeuren, de toegevoegde waarde niet zien.
De overgrote meerderheid gamed met een mid-range kaart. Een xx60 of xx70. En dat zal met deze prijzen alleen maar meer worden.
Cyberpunk 4k , path tracing en wat mods en een 4090 zonder dlss zit aan 20-30fps.
Zelfs met dlss quality , RR & FG haalt die amper 60fps.
Hier een rtx4080 op een 360Hz 1080p scherm. Met dezelfde instellingen die jij hebt, alleen dan op 1080p haal ik rond de 60fps. Hier geen dlss maar dlaa. :o
Dat is dus niet echt vergelijkbaar, 4k is 4x de hoeveelheid pixels van 1080p. Dat het voor jou voldoende is, helemaal prima natuurlijk, maar het is natuurlijk een beetje een dooddoener om te zeggen dat je een hogere FPS haalt op een kwart van de resolutie.
Om maar aan te geven hoe zwaar games zijn ;)
1080p is 2 megapixel, 4k is 8 megapixel. Dan snap je het verschil in performance, haha.
Ik vraag mij bij o.a. Cyberpunk af of ze alles niet te gedetailleerd hebben gemaakt waardoor er teveel berekend moet worden voor slechts een paar pixels schermuitvoer. Rendering wordt daardoor veel te complex. Op 8K resolutie zal het er nog steeds super uitzien, maar het gaat nu ten koste van framerates op lagere resoluties.
Dat zou zeer zeker kunnen. Ik kan enkel zeggen dat het het mooiste spel is wat ik ooit speelde.
Er was wel iets over RTX Mega Geometry Wat raytracing sneller en beter moet maken.
CP77 ziet er geweldig uit, maar games met veel natuur trekken mij het meest. Ik heb CP77 op de SSD staan, maar na AC Odyssey eerst Valhalla nog en dan komt CP77 aan de beurt.

Oeh, jimh307 heeft nog heel wat te gamen om zijn lijstje af te krijgen :P
Dat is exact de reden dat ik nooit zal overtappen op 4K maar altijd op 1440p zal blijven.

4K verbruikt zo krankzinnig veel resources tov 1440p tegen echt minimaal beeldkwaliteit op 32 inch en lager
De markt voor dit soort kaarten is klein; dus moeten de ontwikkel- en productiekosten door een kleine oplage gedragen worden. En dan ontbreekt er ook nog concurentie.
Hoe klein die markt is valt ook nog wel mee

Steam Hardware Survey:
NVIDIA GeForce RTX 4090 1.16%
NVIDIA GeForce RTX 4080 SUPER 0.94%
NVIDIA GeForce RTX 4080 0.90%

1.84% voor beide iteraties van de 4080, tegenover 1.16% voor de 4090. Dat verschil is een stuk kleiner dan de prijs zou doen vermoeden. De 4090 is de 28e meest gebruikte kaart in de Steam Hardware Survey, die vervuilt is met slechte hardware uit internetcafés in arme landen.

De 5090 zal eenzelfde lot beschoren zijn. De calibratie prijs / marketshare is niet 100% fair, maar nVidia weet dat de kopers in dit segment 400 dollar meer ook wel kunnen missen, daarom is de xx90 serie dus altijd ongeveer 15-20% duurder dan nodig vergeleken met de onderliggende klassen.

[Reactie gewijzigd door TV_NERD op 17 januari 2025 21:23]

Dus alle 4080 en 4090 kaarten samen zijn totaal slechts 3% van wat Nvidea levert. Ik vind dat best wel een bevestiging van een 'klein aandeel'.
Je denkt verkeerd! Het is helemaal niet 3% Zal eerder richting de 10% gaan wat nog steeds niet een heel groot deel is maar wel significant meer.

Je vergeet even dat AMD en Intel ook op die lijst staan. En Intel vooral onboard heeft. De eerste niet Nvidia videokaart die op de lijst staat is de AMD RX6600 die 1 plaats boven de 4080 super staat.

Intel en AMD staat daar nog 2x boven met onboard graphics. Maar dus niet met dedicated hardware.
Dus even voor jouw beeldvorming, de rtx4090 verkoopt beter dan de best verkocht AMD RX6600 gpu!

De 7900XT/XTX komen daar ver onder. Dus voordat je gaat zeggen dat het een klein aandeel is kijk dan even naar de echte verhoudingen. En je er zijn meer bronnen dan enkel steam natuurlijk.

Daarom vind ik het altijd grappig en frappant dat veel mensen doen alsof AMD beter is en meer verkocht. Maar het is vooral meer gesponsord en men wil doen voorkomen meer verkocht terwijl dit niet zo is.

Nvidia heeft nog steeds iets van 75 of meer % van de totale dedicated gpu markt. Steam neemt ook onboard video mee omdat mensen daar nu eenmaal ook op gamen. En idd zoals eerder vermeld dat Aziatische internet cafés ook aan bijdragen aan de nummers die de verhoudingen van nieuwe kaarten omlaag brengen.
Voor VR zit je nog lang niet aan de max met een 4090 en resoluties van nieuwere headsets gaan alleen nog maar omhoog.
Klopt wat je zeg het is voor mij ook de reden om de rtx 5090 te kopen.
De vr headset MeganeX superlight 8K komt straks ook uit, wacht nog ff de review af maar daar sluit deze videokaart goed op aan.
Zijn die 2x 4k of 2x 8k?

Maar even opgezocht was net zo makkelijk. 2x 4k dus.
Een beetje als mijn 24bit NeoGeo met 16 bits CPU en 8bit geluid.
Maar de bril ziet er wel klein en licht uit.
Donker.

Er komen steeds meer van dit soort producten gelukkig.
Misschien toch eens de sprong wagen.
Hoe zit dat tegenwoordig met vr brillen?

Kun je daar gewoon alle pc spellen op spelen zoals cod of battlefield of moeten die spelen daar speciaal voor gemaakt worden?
De meeste wel maar kan ook met uevr
Met dat programma kan je de meeste unreal games vr spelen.
ik kan de meeste nu niet goed spelen, met de rtx 5090 wel denk ik.

[Reactie gewijzigd door smokerrules op 17 januari 2025 21:10]

Spellen moeten er speciaal voor gemaakt of aangepast worden.
ivm met de headtrack, evt. eyetracking, de hand tracking etc.
Hoe je met dingen omgaat en pakt in de game is meestal allemaal anders.
Rondrennen maakt je meestal misselijk als je verder gewoon zit.

[Reactie gewijzigd door Aerophobia1 op 17 januari 2025 20:39]

Het is meer dat de games die uitkomen gewoon niet goed genoeg zijn :(
Dat is omdat de wereld op 60hz en enkele esporters zijn met 1080p 500hz monitor.
In LAN tournooi doet. Wij gewoon gamers online. En dus je isp router bufferbloat en andere invloeden eerder de lag bepalen. Als ik dekking heb gezocht achter cover denk server er toch anders over. Netwerk lag. Had ik beter gewoon kunnen knallen en hopen wat de server er van maakt dat health van opfor wat sneller decimeert.
Absurde prijzen met absurde powerdraws. De 5090 lijkt dan ook gewoon dikke overkill voor gaming.
Die logica kan ik niet volgen. Noch de prijs noch de vermogensbehoefte bepaalt of de prestaties voor gaming onvoldoende, toereikend of dikke overkill zijn.
Ik begrijp je punt. Volgens mij is het eerder de vraag wat het je waard is.
Met 1440p en de meeste settings op high/ultra ben ik tevreden.
Die laatste settings die het een minuscuul beetje mooier maken boeien mij oprecht niet. Dat extra geld wat ik over houd stop ik wel in de aanschaf van echt goede games.

Is de pc je hobby of wat je ermee doet... Klinkt als de sexuele voorlichting op school..

[Reactie gewijzigd door StormRider op 17 januari 2025 18:47]

Niet als je VR gebruikt....
Zolang hij zonder DLSS nog geen 300fps haalt in de meeste moderne titels op resoluties als 1440P of 4K zal ik het nog geen overkill noemen. :+ Dat de prijs absurd is ben ik eens. Ik mis de halo-tijden van de 1080Ti terwijl die ook redelijk hoog geprijst was heeft hij ook een lange adem.
Denk dat wel meerdere mensen de hoop hebben dat ze met een hele mooie RTX 5080 Ti komen die ons doet denken aan de GTX 1080 Ti. Het gat tussen de RTX 5080 en RTX 5090 is enorm, ook qua prijs, al is RTX 5080 met circa 1200 euro al een hoop geld voor een videokaart. We moeten natuurlijk benchmarks afwachten, maar met dit gat in specificaties en de voor sommige (verwachte) situaties beperkte hoeveelheid geheugen, lijkt er toch heel veel ruimte voor een flink betere RTX 5080 Ti. Het zal wel dromen zijn. Nvidia zal dit wel heel goed hebben uitgekiend en er is voorlopig geen concurrentie die Nvidia ertoe pusht dit te doen.
Dat is al in ten treure getest en grotendeels ontkracht.
Van 60 naar 144hz, is voor nagenoeg iedereen goed te merken, inclusief mijzelf. Het loopt allemaal gewoon net even wat soepeler, beeld blijft scherper met bewegingen. Je ziet het zelfs aan je moisepointer in Windows, die wordt niet meer 'wazig' en blijft scherp.

Van 144 naar 300+ ligt het anders. De hogere framerate ondervind je niet meer als nog 'soepeler'. Echter de hogere framerate zorgt ervoor dat je, al is het maar heel kort, bepaalde dingen iets sneller 'te zien' krijgt.
In een shooter, als iemand achter een hoek of muurtje vandaan komt, heb je net een minuscuul fractie van een seconden extra tijd om daarop te reageren. En zodoende hebben competievere gamers dan een klein voordeeltje.
Je hebt het over aantal hz en niet over het aantal frames. Dat zijn toch echt twee verschillende waardes met verschillende eigenschappen. Dat ze bij elkaar horen is een feit. Maar je moet zaken niet verwarren.
Dan verwarren we ze beiden, jij hebt het namelijk ook over hz in beeldschermen en knipperen ;)
Dus voor de een is een 60hz scherm rustig om naar te kijken en een ander vind een 100hz prettig om naar te kijken.
Hoewel dit klopt, echter alleen in de CRT tijdperk, waar een elektronenkanon xx aantal keer per seconde een pixel van fluorescerend materiaal raakt zodat deze even heel kort oplicht, maar ook weer snel afzwakt. Door een voldoende aantal keren die pixel te raken ervaren wij dat als een continu belichting, 50 of 100 keer per seconde.

LCD-LED schermen hebben dit euvel niet, de pixels zijn continu en het LED panel achter knippert ook, maar dan in de orde van 1Khz of hoger.
Zodoende praten we dan alleen nog over hoe vaak het scherm een nieuw 'plaatje' kan laten zien.
Wat eigenlijk gelijk staat aan de FPS, ware het niet dat het bij een non-VRR scherm een statisch getal is (meestal 60x per seconde, of hoger bij game schermen)
Het nut van een GPU dat 300fps kan uitsturen op een scherm dat maar 60 beeldjes per seconde kan laten zien klinkt onzinnig, maar het kan net die ene (halve) frame iets eerder laten zien dan dat er een vSync plaats vind. Als het scherm nog bezig is om frame1 te laten zien en frame2 is binnen die tijd al klaar, gaat het doodleuk verder met het laten zien van frame2, je krijgt dus meerdere frames te zien in 1 frame van het scherm. Dat ondervinden we als tearing, maar je krijgt nog wel steeds de meest actuele stand van zaken te zien.
Ik merk het verschil makkelijk tussen 144Hz en 165Hz, ik kan mij indenken dat een 240Hz 4K paneel zeer fijn is om op te gamen zolang je de framerates ook haalt zonder DLSS, want je hebt ook te maken met input latency dat nog steeds gebaseerd is op de basis framerate met DLSS-type technieken.

Dat het aardig vloeiend is met G-sync op 60fps wilt niet zeggen dat het niet beter kan natuurlijk.

Overigens films op 24fps zien er erg schokkerig uit voor mij, heb je wel eens zo'n film met hoge bewegingssnelheid bekeken of op pauze gezet? Dan zie je gewoon een grote waas.
Aantal hz van een scherm is natuurlijk wat anders dan fps van een videokaart.

Er zijn verschillende discussies al in verleden geweest ook op tweakers en verschillende studies van de ogen wat wel en niet kan.

Mbt aantal Hz van een scherm: alle ogen zijn anders. Van diverse merke TL. Balken zie ik flikkeringen. Maar vergelijk het eens met de shutterspeed van een camera.

Als je camera te hoog of te laag staat ingesteld tov van bv je scherm. Dan zie je zwarte balken.

Dus voor de een is een 60hz scherm rustig om naar te kijken en een ander vind een 100hz prettig om naar te kijken.

Maar 165hz en 240hz kunnen ogen niet bijhouden.

Om te zeggen nu 300fps is de bom? Uitdagingen zijn er altijd dus mensen zullen wel proberen te halen. En dat is prima. Nadeel is wel altijd hoe zwaarder de videokaarten zijn en worden hoe meer de game industrie uit de kaart wil halen. 4K 1440 of 1080? Dat is een keuze.
Aantal hz van een scherm is natuurlijk wat anders dan fps van een videokaart.
Dat is niet waar, tegenwoordig met variable-refreshrate technieken synchroniseren de framerates van de videokaart met de Hz van het scherm waardoor de refreshrate 1:1 als de framerate op het scherm getoverd wordt. De gaming schermen met dergelijke verversingssnelheden met Free/G-sync zijn niet voor niks zo populair in de recente jaren.

Mensen kunnen het aantoonbaar zeer goed merken.

En ja games blijven evolueren, maar het is bedoelt voor de huidige generatie games voornamelijk waar ik op doel, en dat halen ze zonder DLSS nog bijlange na niet, dus overkill zijn de GPUs niet als je een beetje deftige visuals wenst.
Dat een gpu of een scherm zich aanpast. Wil toch totaal niet zeggen dat die twee waardes gelijk zijn.

Het zijn nog steeds twee verschillende waardes. En zegt niets over elkaar. Aantal hz is hoe vaak een pixel van zwart naar wit kan schakelen. Maar zegt niets over aantal frames wat een video kaart uit spuugt.

Dat er technieken zijn waarbij een scherm zijn verversings snelheid kan aanpassen naar de beelden die het binnen krijg is mooi meegenomen dan worden minder frames gemist. Maar dan blijft nog een feit dat als je 300 fps hebt frames niet getoond worden. Als je scherm de fps niet kan bij benen.

Zo zijn er nog steeds mensen die kicken op 300fps, maar een scherm hebben van 100 of 180hz. Wat heb je dan aan die 300fps? Helemaal niets.

Naast het feit dat een menselijk oog 180hz niet kan bij benen.

[Reactie gewijzigd door To_Tall op 18 januari 2025 00:10]

Het zijn nog steeds twee verschillende waardes. En zegt niets over elkaar. Aantal hz is hoe vaak een pixel van zwart naar wit kan schakelen. Maar zegt niets over aantal frames wat een video kaart uit spuugt.
De framerate die je videokaart genereert, bijvoorbeeld 150fps op een 165Hz scherm met een VRR technologie ververst daadwerkelijk 150 keer per seconde op dat moment zonder dat de beelden gemist worden.
Zo zijn er nog steeds mensen die kicken op 300fps, maar een scherm hebben van 100 of 180hz. Wat heb je dan aan die 300fps? Helemaal niets.
Dat is wederom fout, ja als je buiten je VRR range gaat dan krijg je tearing, maar de input respons is nog altijd sneller met hogere framerates. Mensen die vroeger Call of Duty speelden op de Quake engine zweerden bij dergelijke hoge framerates en nu zie je dat veelal bij CSGO maar het is in het algemeen gewoon zo dat je inputs veel directer worden gecommuniceerd.

Ik speelde vroeger ook op 60Hz, maar het speelde veel fijner in shooters als je 200fps haalde i.p.v. 80 op een 60Hz scherm zonder sync.
Daar gaat het toch helemaal niet om of je oog 180hz kan bijbenen of niet? Het gaat erom hoe vloeiend beelden zijn en hoe scherp ze zijn. En dat kan bijna iedereen zien.

Doe maar de UFO test op YT als simpel voorbeeld. Ik heb een 240 hz scherm. En ik zie de verschillen tussen 30-60 tot 240 enorm goed.

Tevens wat je zei over films klopt. Maar elk snel bewegend beeld is blurry en schokkend omdat er eigenlijk frames missen. Veel tv's hebben dat beeldupscalers om dit te compenseren. Maar ik zie het altijd.

In beelden van bv een grote stad van bovenaf gefilmd en dan snel naar links of rechts draaiend. Schok schok schok.

Ik denk dat veel mensen verwarren waaronder jij dat je niet meer dan 60hz ongeveer kan waarnemen maar wel goed onderscheid kan maken tussen wel of niet scherp. Maar voor mensen die bv snelle shooters spelen en andere beelden waarbij je snel draait is den uitkomt van 240 of 300 hz ideaal.

Er zijn tal van voorbeelden online te vinden van bewegende beelden van shooters waar je bij een hoog refreshrate scherm gewoon net iets eerder een vijand ziet en vooral scherper ziet waardoor je veel beter kan mikken.

Veel mensen gaan gewoon simpelweg over dat feit.
Je hebt wel gelijk als je bv een 180 hz scherm hebt met 300 fps dat het weinig verschil gaat maken hoewel het nog steeds iets kan uitmaken.

Nvidia had vaak de G-sync chip op monitoren die en output en input met elkaar synchroniseert. omdat ons net op 60hz draait en je scherm dus 60x per seconde aan een uit gaat kan je gpu zonder zo een chip en met chip ook dus beelden sturen wanneer die uitstaat waardoor je stoters kan krijgen.

Op zulke hoge fps zal dat weinig tot niet merkbaar zijn maar zal het nog steeds iets bijdragen op constantheid.
Denk dat eerder placebo effect is. En dat sommigen voor elk voordeeltje flink cash dumpen. Voor wat in esport shooter k/d ratio te verbeteren.
Bij blind test zullen de meesten door de mand vallen maar verschil tussen 1000 bunny hop encounters in CS-go waar ipv 600 winnaar uitkomt 601. Als van 360 naar 500 gaat voor die 14 jarige die 6 jaar intensief cs-go gamed.
Die 30 jarige 240 tot 360.
Als casual gamed en 50+ Cod speelde is 120fps zat. 30 jarige casual gamer heeft merk baar voordeeltje aan 144fps.
Casual competitive shooter lijkt mij PSN met PS5pro aan 120hz vrr monitor beste zodat er meer gelijkheid is tussen de games en ander voordeel minder cheaters.
Bij auto sport is dat zoiets als clio cup of elke ander sport waar met gelijkere race auto raced.
Naast dat hoge fps ook energie verspilling is. Als 300fps geen meerwaarde is is vermogen verspilling. Als 120 smooth enough is en amper beter presteert.
Zelf slow pace shooter gespeeld waar fps zakte van 30 naar 15fps. Dat was te doen. Omdat slow pace inertia en stamina core gameplay bunny hop exploit tactiek zwaar verzwakt. Dan voelde een 60fps zeer smooth na g-kaart upgrade.
Die snelle online shooters waar je inertia en stamina loos als vlieg kan bewegen zullen de jongeren altijd grote voordeel hebben. En oudere e-sporters leveren dan in. En moetend dat compenseren zo lang dat kan met meer ervaring. Ik trek de grens voor pc gamen vooral bij Single player bij 120fps waar 60fps goed genoeg is. Bij 1080p 1440p
Ik ben 50+
Als zo een 20 jarige e-sporter een 5090 met 500hz monitor moet hebben. Zijn tegen speler zullen het ook wel hebben op enkele na 360 die mogelijk toch ook de prijs binnen kunnen slepen omdat voordeeltje zeer subtiel is.
Denk dat eerder placebo effect is
Voor mij niet, zowel de Hz niet als de input respons. De input respons is zeer merkbaar anders omdat er veel meer bewegingen per seconden worden geregistreerd waardoor er sneller op je acties gereageert wordt, dat is zowel op een 60Hz scherm merkbaar als een 240Hz scherm, de monitoren veranderen daar in principe weinig aan behalve dat je met VRR gewoon een betere ervaring hebt met gesynchroniseerde beelden.

Natuurlijk zullen de mensen die ouder zijn (lees: geboortejaar ouder dan 1980-1985 bv.) op Tweakers hiervan het nut minder inzien en dat kan ik best begrijpen maar ze moeten ook begrijpen dat dit niet voor iedereen geldt, voor mij gaat het niet echt om K/D ratio's het gaat gewoon om een vloeiende levensechte ervaring die prettig op het netvlies terecht komt met hoge scherpte tijdens bewegingen zonder tearing.

Ik snap overigens de relevantie niet met cheaters i.c.m. een VRR scherm want een VRR scherm veranderd er niets aan als je een wallhack of aimbot hebben, al betwijfel ik dat op PSN. Een sneller scherm maakt hun nog geen cheaters, dat is van een heel andere rangorde. Anders kan ik net zo goed zeggen dat iemand die met een dikke game-PC tegen een pentium 4 aan het spelen is dat de dikke game-PC speler een cheater is, maar daar klopt natuurlijk niets van.

In elk geval is het echt niet alleen maar marketing, net zoals een SSD vs een HDD is dit wellicht een van de grootste veranderingen die de weergave van beeld dusdanig hebben verbeterd de afgelopen 10 jaar. Dat HDR en OLED bv. is weer een aparte discussie dat niet echt slaat op het krijgen van vloeiend beeld.
Je hebt helemaal gelijk hoor..

Eerst was 60fps de bomb, later 100fps, weer later 160fps, weer later 240fps en weer later 360fps.
Al die fabrikanten doen je indd geloven dat je 750fps nodig hebt, waaatttt, 2000fps en de hele meut volgt dat. En daar heb je natuurlijk wel een RTX7950090 voor nodig. Uit fabrikant perspectief snap ik dat..

We worden allemaal gek gemaakt, vooral door die thumbnails op youtube.. maar of het nou echt nodig is, is een tweede......

Ik hou het lekker bij mijn 32K ultra-wide met een JTX8090-XTXPE Pro-Super ULTRA met HDRR-PLUS Atmos 25.10 W12 PLAID

[Reactie gewijzigd door Audione0 op 17 januari 2025 21:59]

En voor mij ziet video met een hogere fps er uit als een goedkope soap.
Ik kan er best mee eens zijn dat het cinematische effect wat verloren gaat wat we vroeger gewend waren, maar de verandering naar dat formaat van vroeger met de zwart/wit TV's was natuurlijk ook een cultuurshock. Dit is gewoon een kwestie van tijd alvorens het normaal voelt.

Dus ik snap wat je bedoelt maar dingen veranderen.
jij denkt dat films in hoge framerate de toekomst zijn? vraag dat nog eens aan Peter Jackson en zijn 48fps hobbitdrol van tien jaar geleden. het is simpelweg een goedkoop tv-serie effect zoals maevian zegt. ik kan niet geloven dat mensen die moeite niet doen om die functie uit zetten op hun tv's, film ziet er -tig keer beter uit in 24fps
Wow geloof je die onzin zelf? Films zien er tig keer beter uit in 24 fps? Lekker altijd dat schokkend beeld bij iets wat snel draait zoals een auto of een beeld die snel van links of rechts gaat.

En wat heeft het ermee te maken of iets in 24 fps beter zou zijn dan 48fps? Weet je waarom ze bv in de F1 speciale camera's hebben die veel hogere fps hebben? Of wat denk je van de foto shots van f1 auto haarscherp met een sluitertijd van 1/1000e van een seconde...

Des te meer native fps je hebt zonder dat de resolutie verandert de beter de vloeibaarheid van een film wordt. Tegenwoordig zijn alle films op tc altijd geupscaled door de video processor op de tv om het blokkerig tegen te gaan.

Kijk eens naar bv een YT filmpje van die ufo test. Des te hoger de fps des te duidelijker het beeld is en hoe minder goosting enz je hebt.

Het gaat gewoon om het formaat waarmee de industrie opneemt waarom het zo verkloot is. 24 fps is al zolang de norm, maar dat zou het niet moeten zijn.

Als jij een films hebt waarbij de camera snel van 1 kant naar een andere kant beweegt is het onmogelijk om niet beeld te hebben dat "verspringt" omdat de volgende frame de camera al een stuk verder is en er dus beeld mist.

Wat mij betreft zou elke film liefst 240 fps mogen hebben. En als je dan een goede tv hebt die dat bij kan houden zie je haarscherp beeld onder elke omstandigheid.
je vergelijkt film met non-fictie beelden zoals sport en nieuws, dat zijn twee compleet verschillende media die toevallig op dezelfde beelddrager worden getoond. het belangrijkste aspect aan film is illusie, waarin van de kijker verwacht wordt om in een fictionele wereld te betreden. dat verdwijnt bij hoge framerates en alle kleine beweginkjes van de camera en actie, en imperfecties van de acteurs worden in beeld gebracht, als ware het een documentaire is. ooit die rotfilm met will smith en z'n uncanny valley cg tweeling gezien? de film zou beter én overtuigender geweest moest die in 24fps zijn gedraaid. nu lijkt het gewoon alsof je naar will smith zit te kijken die zijn scènes aan het testen is alvorens écht op te nemen.

ja, 24fps heeft een historisch verleden van een technische en economische oplossing te zijn, maar als side effect helpt het wel voor immersie een stuk te verhogen door het invul-aspect van je brein aan te spreken.

ik heb zelf ook monitors en smartphones met hoge hrtz, dat wil absoluut niet zeggen dat elk stukje media een zo hoog mogelijke framerate moet hebben just because. denk dat menig regisseur al gevloekt heeft op die rotfunctie van een motion smoothing in elke tv die hun estethische visie verknalt.
Het is koffiedik kijken maar ik denk dat het een kwestie van tijd is, over smaak valt niet te twisten en dat is per persoon anders.
Nou, ik weet uit ervaring dat mensen die functies op hun TV niet uitzetten, of dat (philips) TV's die uitgezette functies niet onthouden. Bij philips TV's is het zo crappy omdat je dan ook duidelijk motion artifacts ziet.
Is toch echt meermaals getest en onzin.
Nee je praat over iets waar je geen verstand van hebt. En dat geeft niet, Maar je mening is geheel onjuist! Je verwart namelijk iets!

Onze ogen kunnen idd maar ongeveer tussen de 45 en de 60 hz zien. Dat is niet waar het verschil in zit.
Hoe hoger de fps is des te vloeiender het beeld wordt en des te scherper.

Een heel simpel voorbeeld. Zet bv een camera op 24 fps en laat die een auto volgen 60 meter per seconde rijd.

Dan maakt de camera elke 2.5 meter een beeld of foto zoals je wilt. Als je dan die beelden achter elkaar zet en ze langzaam afspeelt is de auto elk beeld 2.5 meter verder. Dit geeft schokken op 24 fps. Heel simpel.

Maar als de camera niet op 24 maar 240 hz draait maakt die elke 25 cm een beeld en is het verloop van de beelden op 240 fps veel natuurlijker.

In de F1 gebruiken ze camera's met een 1/1000e sluitertijd voor snaar strakke foto's en beelden.
Zo heb je ook bv zeer hoge snelheid camera's die 1000fps op 4k en hoger hebben waardoor bv een kogel gevolgd kan worden vanaf het moment dat deze afgevuurd wordt tot inslag en details verhuld worden die niet met het blote oog of gewone camera te volgen zijn maar dan heel interessante zaken aan het licht brengen of het patroon van uitspatten en andere zaken van de kogel.

Met andere woorden hoe meer fps des te duidelijker zaken worden als beelden bewegen. Op stilstaand beeld maakt het natuurlijk niets uit. Maar alles waar motion op zit wel. En des te sneller de motion is des te meer de noodzaak voor meer fps.

Zelf wordt ik altijd misselijk als ik films zien van snel bewegende auto's vliegtuigen of achtergronden zoals gebouwen en zo. Vreselijk is dat. en niet iedereen heeft natuurlijk dezelfde beleving.

Sommige mensen hebben daar meer last van zoals ik.
Onze ogen kunnen idd maar ongeveer tussen de 45 en de 60 hz zien.
Het maximum lijkt voor de meesten ergens tussen 60 en 90Hz te liggen, wat in veel onderzoeken gebaseerd is op het punt waarop men bij afwisselend wit en zwart geen onderscheid en alleen nog maar grijs waarneemt.
Die 45 - 60Hz is gebaseerd op het punt waarop 'normale' beelden vloeiend/realistisch worden.
Er zijn onderzoeken geweest waaruit blijkt dat we in staat zijn op veel hogere frequenties bepaalde specifieke dingen wel degelijk te 'zien'. https://www.nature.com/articles/srep07861

Uiteraard is het voor gaming beter zo veel mogelijk frames te hebben omdat je te maken hebt met interactie.
Zoals je duidelijk probeert te maken zal een voorwerp dat met een vaste snelheid over het beeld beweegt met 30 fps veel grotere sprongen maken dan met 240 fps.
Iets dat in de video die DLeijen linkt ook duidelijk wordt.

Wat nu de vraag is is of alles boven de 240-300 fps nog werkelijk verschil maakt en het de moeite en het geld waard is door te ontwikkelen.
Wat je zegt klopt in theorie, maar kijk onderstaande eens.

https://youtu.be/OX31kZbAXsA?si=EdmqGduc-BxcDneQ

[Reactie gewijzigd door jeryz op 17 januari 2025 19:51]

Ik zou deze discussie niet weer opnieuw beginnen, helemaal omdat je compleet fout zit. Het verschil tussen 60fps en 120fps is heel goed te zien door iedereen. Ook nog hoger is prima te zien en geeft een veel vloeiender beeld. Boven de 250fps kan je nog een discussie over voeren, maar 60 en 120 is zo enorm duidelijk dat er geen discussie over mogelijk is.
Wie ben jij (of ik) om te bepalen of iets overkill is voor iemand?
Niemand zal ooit bepalen of jij hem wilt :) Er zijn zeker scenario's voor de 50-serie en dit is onderdeel van neuro learning. Het zijn niet altijd games waarvoor ze gekocht worden en via deze weg heeft Nvidia groot gelijk om de prijs hoog te houden (belachelijk idd). Ga je dan aan de gang met 4K@240Hz dan zul je de nieuwe frame generatie nodig gaan hebben. DLSS wordt ook beter bij elke generatie en laten we wel zeggen dat stilstaan achteruitgang is voor Nvidia.

Laten we reëel blijven om te zeggen dat 4K@240Hz geen enkele kaart kan verzadigen en zeker niet mét ray tracing. Trucks zoals de nieuwe frame generation is dan noodzakelijk en al helemaal als je alle instelling op ultra hebt staan.

Hoe zwaar? Cyberpunk 2077 met path tracing en je weet wat ik wil gaan zeggen: de markt voor de 50-serie zal groot zijn ongeacht de prijzen en dit vind ik een zorgelijke ontwikkeling. Menigeen met een modaal inkomen zal dan overstappen naar een console.
G-kaarten die 4k/240 uitgang leveren zijn ook nog niet zo gangbaar naast dat 4k moetje is. Als je fps zo belangrijk vind dan ga naar 1440p dan haal je wat makkelijker 240fps.
En cyberpunk2077 is nv sponsord meer techdemo game.
Zo ook een game die RT-on eist.
Als RT meer gemeen goed gaat worden zal intel arc en udna ook steed meer chip real estate toewijden aan RT en AI logic.
Deze rtx 50 gen is een van kleinste stappen vooruit kwa raw raster performance.
En leund het zwaarst op ai technieken. Frame gen. Wat lap middel is.
De review van RTX50 serie wordt spannend. En veel werk voor de reviewers met al die features. Zou wel eens kunnen tegen vallen.
Voor native 4k is er geen alternatief.
Maar ja, 1440p ziet er net zo gelikt uit voor 1/4 van de prijs.
Ik speel native 4K met high settings... Op een 2080.

Dus doel je op een bepaalde game ofzo? Want er zijn games die je op 4K nog wel op een nog oudere kaart kan spelen. Ook onder de nog modernere games.
Denk ook aan lokale A.I. toepassingen zoals stablediffusion. lokaal plaatjes e.d. maken. Daar zijn deze kaarten natuurlijk heer en meester in.
En plop, we moeten dankzij jou een half uur scrollen om iets anders te lezen dan reacties op jouw uitgekauwde gemekker over prijzen. Bedankt!
Dat is toch ook het meest opvallende detail? :Y)
Waar mekker je over
Daar is de 5090 ook op gemaakt. De 5080 is eigenlijk top of the line, maar 5090 is meer de overtreffende trap. Het opgefokte broertje van de 5080. Vanuit Nvidia is het dus puur om te flexen. Het is m.i. zo bizar dat je em eigenlijk niet serieus kan nemen.
Idd, schandalig hoge prijzen. Veel te hoog verbruik.
En hoeveel van die punten zijn met ai gegenereerd?
Als visueel het beeld amper tot niet onderscheidbaar is van raw, who gives a F. Tijdens gamen let je op de game zelf en zit je je niet te concentreren of elke pixel wel correct getoond wordt. En de meesten zullen het vaak niet eens zien zonder side-by-side vergelijking of alleen als ze er echt op aan het letten zijn (maar dan dus niet meer met de game zelf bezig zijn).
Wel, het genereert input lag, hoe minimaal het ook is, als je daar gevoelig voor bent kan dat best frustrerend zijn, zo ben ik van muis veranderd, puur omdat ik voelde dat de performance inconsistent was (enhanced percision is zo ook één van de eerste dingen die ik op een pc uitzet).

Ik durf even niet te zeggen hoe de gegenereerde frames geïnjecteerd gaan worden, tussen 2 gerenderde frames in (interpolatie)?
Dan ga je dus feitelijk 3+ frames achter lopen met wat het spel al gedaan heeft, daar kraken we beeldschermen momenteel op af, omdat het onacceptabel is.
Gaat de "ai" gokken wat we gaan doen? Leuk, maar ik schiet later dan het verwacht, gaan we dan bij nadere inspectie geen dubbele frames voorbij zien komen?

Het komt op mij gewoon weer over dat nvidia met wat mooi trucage de kluit weer besodemieterd "look, look, we have the highest number fps, don't look how we got there or how much power it uses, who cares about that".
Iirc. Bij doom 2016 was de rendering onder vulkan smeuiger bij nvidia dan bij amd, bij benchmarks werden er dingen net buiten het beeld niet gerenderd.
Om nog maar over crysis 2 te zwijgen.
Precies.. Ik vind de hele discussie over echte en nep frames ook wel grappig.. Wat zijn dat sowieso?!? Alles wat je in een game ziet is nep, geproduceerd door een computer.. Maakt het nou echt veel verschil of dat door een game-engine of door een slimme zogenaamde AI chip op je videokaart gebeurt? Nee dus als je amper tot geen verschil in kwaliteit ziet.. Sterker nog, veel games zien er zelf iets beter uit als je DLSS op quality gebruikt (minder aliasing etc).. Die creert dan wel geen zogenaamde "nep" frames, maar gebruikt wel AI om lagere render resoluties te verhogen naar de native van je monitor.. Als een game het ondersteunt dan zet ik het altijd aan.. Frame generation heb ik nog geen ervaring mee, mijn RTX 3080 ondersteunt dat helaas niet, maar van wat ik er tot nu toe van gezien heb bij o.a. Digital Foundry etc ziet dat er ook helemaal niet slecht uit, zeker de nieuwe in DLSS4.. Zolang de "bron" maar van genoeg goede kwaliteit is, dus niet willen upscalen van te lage resolutie met te lage basis fps (ivm inputlag met frame gen)..

[Reactie gewijzigd door Inflatable op 18 januari 2025 04:19]

Ik ga er vanuit dat dit om de raw performance gaat.

De TDP is van de 5090 27% hoger dan zijn voorganger. Dus op basis van deze beperkte benchmarks vind ik dat tegenvallen. Aangezien het verbruik meer toeneemt dan de raw performance van deze beperkte dataset.

Natuurlijk hebben we meer data nodig en het ook werkelijke verbruik van de benchmarks.
Voor context de 3090 geekbench scores:

193353
OpenCL Score

172850
Vulkan Score
Waarom geeft een 2 generaties oude GPU context en de vorige (de 4000 serie) niet of minder? :?
Om de vooruitgang van de nieuwe generatie tegenover de vorige (7-16% voor OpenCL en 26-37% voor Vulkan) te kunnen vergelijken met de vooruitgang van de vorige generatie tegenover 2 generaties terug. En dan merk je dat de 4090 in beide ongeveer 50-60% sneller was dan de 3090. Vandaar dat veel mensen teleurgesteld zijn over de 5090, omdat die "maar" een performance uplift van rond de 30% heeft. Begrijp me niet verkeerd: enerzijds is de uplift van de RTX 4090 VEEEL hoger dan de gemiddelde uplift van ervoor, en anderzijds is de gemiddelde uplift van de ene generatie op de volgende sinds de GTX 200 series iets van 20 jaar terug ongeveer 37%. Dus wat dat betreft is de nieuwe generatie een middenmoter. In combinatie met de licht lagere prijs zou dit interessant kunnen zijn.
Omdat deze al in de grafiek staan?
2x meer cuda cores als de 5080 maar niet 2x de performance helaas. De 5090 schaalt wel met 30% performance tov 4090. Wellicht SLI maar weer in het leven roepen 😈
Benieuwd in welke games je dat ultrasnelle geheugen gaat terugzien in de cijfers.
Waarschijnlijk in alles dat met AI te maken heeft inclusief de nieuwe dlss versie. AI vreet geheugenbandbreedte, al die high end AI accellerators hebben ook HBM type geheugen en deze brede bus met GDDR7 komt daar heel dichtbij. Zal met het prijspeil geen toeval zijn. Geen woord van een AMD 32GB model ook voorlopig helaas.
Twee vrouwen maken de komst van 1 kind ook niet sneller inderdaad. Dus dat het niet per se ook dubbele performance geeft, is zo gek nog niet, er zijn immers ook andere limiterende factoren. Denk aan geheugen bandbreedte bijvoorbeeld.
Je hebt met twee vrouwen wel 2x zoveel kans dat er een zwanger wordt :)
Eerlijk gezegd had ik op zelfs hogere prijzen gerekend, maar de suprim liquid 5090 van MSI zal ongetwijfelt een stuk duurder zijn. Laat ik nou net daarvoor in de race zijn.

Eindelijk kan ik uit mn oled 4k 240hz het maximale gaan halen _/-\o_
Mij te duur. speel ook alleen op 1080. Ga voor 5080. Zit nu nog op 3080 :Y) 4080 overgeslagen. kan niet wachten.
Zat ook te kijken naar die 5080. De 3080 op 5120x1440 begint toch ook wel krapjes te worden.
Lol 5120x1440 :| Denk wel vet met bepaalde games. Maar idd dan een nieuwe video kaart wel extra fijn.
Ik kan zo snel niet op een game komen waar het niet vet was! Shooters en racers doen het altijd erg goed, maar ook bij Factorio werkt het gewoon :)
Zo absurd is die resolutie niet. Het zijn minder pixels dan 4K.
Wat denk je van een 2e hands 4090?
Wil mijn inno3d ichill black 4090 binnenkort verkopen. Mocht je interesse hebben, stuur me even een DM. 8-)
een 2e hands kaart koop je alleen als je kan leven met de kleinere featureset ervan, ook al is de ruwe performance mss inderdaad al voldoende voor je. Ook zal efficientie (performance per watt) achterlopen bij oudere generaties. Efficientie in de zin van performance per euro zat wrs wel voorop liggen bij 2e hands :)
Waarom geen AMD als je toch op 1080p speelt? Price/performance gaat waarschijnlijk een stuk hoger liggen.
Weet ik niet voor mijn Linux pc pak ik altijd AMD GPU/Intel CPU. Maar voor mijn Game pc altijd NVIDIA GPU En sinds mijn laatste pc AMD CPU. Uiteraard voor dat ik de 5080 bestel vergelijk ik hem even met de concurrentie.
Mijn Linux PC IS mijn game PC hier :p
Heb je voor 1080p dan zo'n kaart nodig? Of ik zal de vraag anders stellen: Zijn er games die je niet kan maxen op 1080p met de 3080?
Kan alles op max spelen. Maar fps kan altijd hoger... En wil toch een nieuwe pc bouwen. Dan ook nieuwe videokaart nodig. Oude pc krijgt me neefje. Bespaar beetje op video kaart zoals nu 5080 ( Niet de 5090 ). Cpu/Ram pak ik wel altijd maximaal.
Aanvullend op deze eerste resultaten, zijn hier wat meer gegevens te vinden van andere modellen:

https://www.techpowerup.c...cording-to-nvidia.331211/
5080 vs 4080 maar +15% :o
5070 va 4080 +21%

[Reactie gewijzigd door Rogers op 17 januari 2025 20:08]

Let wel op dat dit RT en DLSS benches zijn... meesten zullen RT al niet eens gebruiken (tenzij latency bij games laag blijft en fps hoog)
Gamepc aan, kachel uit.
Deze kaart gaat hoe dan ook gamen een heel stuk duurder maken!
Of je koopt hem gewoon niet en de games ook niet O-)
Als je een beetje goed geïsoleerd huis hebt en de kachel tyfus duur is... Je kan op de achtergrond ook nog hoohash coins minen (o.i.d.) .. Kan je nog steeds gamen en hou je het nog een beetje warm als je niet gamed ;) Maar zet vooral 5 computers aan. 1 comp is niet genoeg bij 2 graden :)

[Reactie gewijzigd door BasHouse op 17 januari 2025 18:59]

Oh 2400 eu.. ja dan toch beter de kachel aan. Never mined ;)
Niet per se. Games worden over het algmeen geoptimaliseerd voor de zwakste van alle ondersteunde platforms, en daaronder vallen inmiddels weer de consoles. Maar ook PC-only games zullen gemaakt worden om goed te werken op de GPU die de meeste gamers hebben. Het is niet in het voordeel van de developer om een game te maken die nergens goed op kan draaien.
Mooi toch, twee vliegen in 1 klap (hobby en verwarmen). Maar wat een gezeur toch, ja, jij kunt/wil het niet betalen, maar genoeg mensen wel want anders zou Nvidia echt niet die kaart maken.
Deze resultaten liggen aardig in lijn met die van Nvidia zelf. In gaming is de 5090 ongeveer tot 33% sneller dan de 4090. Eerlijk gezegd had ik veel meer verwacht van de prestaties van de 5090, vooral omdat de geheugenbandbreedte, wat bij de 4090 met zijn 1 TB/s toch wel een bottleneck was, nu 80% hoger ligt met 1,8 TB/s. In combinatie met 33% meer cuda-cores en interne optimalisaties, had ik gedacht dat deze minimaal de helft sneller zou worden dan de 4090. Helaas niet. Nvidia lijkt hierin een beetje op Intel, die ook bij gebrek aan serieuze concurrentie bij de 6e tot 10e generatie Core-cpu's steeds maar de TDP liet stijgen en meer cores toevoegde en geen noemenswaardige verbeteringen maakte in de architectuur.

[Reactie gewijzigd door Degrader op 17 januari 2025 20:53]

Geheugenbandbreedte was in games in ieder geval geen bottlenek met de RTX 4090.
Jawel, want het overklokken van de gpu had weinig effect, het overklokken van het geheugen daarentegen had juist wel duidelijk effect. Dus de bottleneck bij de 4090 is niet de compute power, maar de geheugenbandbreedte.
Dat zie je alleen terug op 8k 3dmark Superposition dan zat er nog 39% winst in 21gbps vs 26gbps. Met gamen op 4k zit er hooguit nog hooguit 1-3% winst in tussen met decdoirvoer van 26gbps. Dat is dus ook de redenen dat meer bandbreedte de RTX 5090 niet veel sneller maakt. De spellen en meeste benchmarks zijn de extra bandbreedte niet nodig om maximaal te presteren.
Voelt een beetje als de GTX580 t.o.v. de GTX480.

[Reactie gewijzigd door Buck Naked op 17 januari 2025 22:59]

Alleen kost dit 2k+ ipv 5-600 euro :'(
Nou nee GTX580 is refresh tov GTX480 ongeveer dezelfde performance maar ook efficiënter.
De 5090 is meer GTX480 grens verleggende power draw.
Het grootste verschil is dit keer zonder concurrentie

Op dit item kan niet meer gereageerd worden.