Ben je onder de indruk van de RTX 5090?

De review van Nvidia's nieuwe topmodel is er!

Nee, ik had er meer van verwacht
51,4%
Een beetje, het is ongeveer wat ik had verwacht
29,6%
Ik heb een genuanceerdere mening en laat die achter in de reacties
11,7%
Ja, mijn verwachtingen zijn overtroffen
7,4%

Aantal stemmen: 3.450. Deelname gesloten op 30-01-2025 14:59. Stemmen is niet meer mogelijk.

Reacties (46)

Sorteer op:

Weergave:

1 de prijs is VEEL te hoog.
Corrigeren we voor inflatie de prijs van een titan uit 2015 van 1050 euro, dan zou een 5090 ongeveer 1400 euro moeten kosten INCLUSIEF VAT
met een te verwachten prijs die dichterbij de 2400 euro (en mogelijk hoger) ligt...

2 de TDP is idioot, en is de hoofdreden dat ik nog met 2080ti zit.
-als stroomverbruik omhoog gaat is dat geen ECHTE prestatiewinst.
in ben misschien blijven hangen in 2000 series en daarvoor maar het topmodel gebruikte altijd 250W voor decennia (+/- 20W als je wilt muggezitften) ik heb nooit 350W van de 3000 series en 450W van de 4000 series geaccepteerd en het stroomverbruik van 575W van deze kaart is helemaal idioot.. das meer dan TWEE titan RTX in sli gebruiken.
-vooruitgang is meer prestatie bij GELIJK stroomverbruik, dat dat niet geleverd word, zie ik als nalatigheid in het r&d vlak

3 Ik zet DLSS en upscaling altijd uit, en haat het diepgrondig, ik zie "fake frames" dus als minpunt niet als pluspunt (die als dubbel nadeel luie programeerders van toekomstige spellen tot gevolg kunnen hebben)
ipv al die extra AI cores had ik liever meer cudacores en ECHTE prestatiewinst gekregen,

4 15-30% prestatiewinst in een ideale testsituatie (en maar 5-10% voor andere modellen in de 5000 series lijn) is erg aan de magere kant voor een generatie (ik verwacht 40% prestatiewinst per generatie.. wat hier dus niet geleverd word.

5 de ray tracing performance is niet om over naar huis te schrijven (we zouden toch voor een topmodel tock wel 80+ fps full ray tracing 4k ultra mogen verwachten?
maar ook ray tracing is a devils edge.. ray tracing is vooral een gimmick die programeurs werk bespaard, maar die ons de rekening presteerd, in praktijk zijn de games er niet beter door uit gaan zien vs games die nog met ouderwets handmatig leveldesign gemaakt werden.
Toegegeven als je dat handmatige werk combineerd MET raytracing zou je leuke dingen kunnen krijgen.. maar in praktijk gebeurd dat dus niet.
**gamers betalen voor deze ray trading onzin steeds hogere prijzen voor gpu, stroomverbruiken en krijgen lelijkere games met minder frames, terwijl studio's steeds meer besparen op developers en steeds minder geoptimaliseerde crap uitbrengen. ik zie daar niet het voordeel van.
2 de TDP is idioot, en is de hoofdreden dat ik nog met 2080ti zit.
Wat een bikkel kaart is dat toch :)
Ik heb hem ook. Iedereen zei dat ik gek was -1200 euro- en toen kwamen de peper dure 30xx.
de mijne was zelfs 1600 euro toendertijd..

(mijn 980ti was kapot gegaan tijdens de eerste cryptogekte, en er was domweg geen enkele 1080ti te koop van het merk en type die ik wilde voor 15 maanden (was dus erg overleven) kon wel eenmaal een 1070ti kopen.. van verkeerde merk en soort.. maar je wilt niet als je een ferrari rijd naar een dafje..

en met de uitkomst van de 2080ti was die gekte nog niet geheel over, dus had ik geen keus dan voor 1600 euro het verkeerde merk en soort te kopen om iig weer iets fatsoenlijks te hebben (de look van mijn build was daarmee wel om zeep)
(gigabyte 2080ti wc, koste dus destijds 1600 euro)

er was een kort moment dat 2080ti's voor 500 euro per stuk gedumpt werden net voor de 3000 serie uitkwam maar toen die serie uiteindelijk uiitkwam brak de 2e cryptogekte uit.. die duurde tot aan de 4000 series... (wat dat betreft liever hoge prijzen dan een terugkeer naar dat kaarten helemaal niet te krijgen zijn maar daar waren consument-vriendelijkere oplossingen voor geweest)

maar het is natuurlijk wel van de gekke zat je met de 980ti voor onder 700 euro met de op een na beste kaart.. koste je dat meer dan het dubbele met de 2080ti en de 4000 series misde een propere 4080ti.. wat je naar een 4090 bracht, wat je meteen 3 ruggen at launch zou kosten..
maar wat me echt wegjoeg was dat stroomverbruik.. elke kaart die ik heb gehad in 20 jaar was 250w.. en dan opeens 450w.. wat is dat voor gekte ECHT niet.

het is dat stroomverbruik hoofdzakelijk waarom ik upgraden blijf uitstellen.. het was altijd upgraden als je dubbele prestaties voor dezelfde 250w kon krijgen.. en dat is er domweg nog niet zelfs niet 3 generaties verder.. zo erg is de markt gestagneerd.

[Reactie gewijzigd door DutchGamer1982 op 29 januari 2025 02:50]

[...]


Wat een bikkel kaart is dat toch :)
Ik heb hem ook. Iedereen zei dat ik gek was -1200 euro- en toen kwamen de peper dure 30xx.
Ja, een 2080 Ti voor 1200 euro was gek. Ik kocht me begin 2021 een 3080 voor 800, en doorheen dat jaar voor enkele vrienden en kennissen 3080's onder de 800.
1) en toch verkopen ze bij bosjes, je ziet overal reacties van mensen die een 4090 bezitten en het kennelijk geen probleem vinden om een paar ruggen neer te leggen voor een high-end videokaart. Nvidia maakt daar gretig gebruik van.
Algoritmen pushen die reactie omhoog. Blijkbaar zijn dat de soorten reacties die voor de meeste traffic en wederreacties zorgen. Blijft een vorm van anekdotisch bewijs, omdat we het gevoel krijgen dat veel mensen er 1 hebben terwijl dat een laag percentage kan zijn van een complete game populatie.
Algoritmen? Eh, wat dacht je van hier eens naar beneden scrollen door de comments.
In dat geval is er topic bias. Je zit op tweakers op een poll over nvidia tech, dus de aantal eigenaren die er zijn voor de 4090 zullen daar snel op reageren. Uberhaupt is er meer incentive om te praten over je videokaart als je er 2500 euro voor hebt neergelegd. Zou ik ook doen als ik zo gek was.
Je verwachtingen zijn al mild. 40% per generatie als er ze er tegenwoordig 2-3 jaar over mogen doen is al triest zat. Dat we stagneren vanwege natuurkundige wetten zal best maar vraag dan niet absurde prijzen bij 0 perf/W uplift. Ik heb er spijt van dat ik toch ooit nvidia ben gegaan en zit nog steeds met die kaart na 7 jaar (gtx1060-6). Maar heb inmiddels ook al de hoop opgegeven (moderne) pc gaming ooit nog op te gaan pikken en heb er vrede mee. Word niet goed van nvidia en de feeststemming die men heeft over dat anti-consumer bedrijf.
Hoezo spijt van? De GTX 1060 was dacht ik jaren lang de beste budget keuze.

Ik zit zelf nog op de GTX 1080. Vanaf volgend jaar gebruik ik hem al 10 jaar- en nog steeds geen behoefte voor een upgrade omdat hij alles draait. De Pascal architectuur was ongekend goed.

Je kan altijd nog overstappen naar AMD. Het is geen vendor lock, reden voor spijt is er niet. Alle bedrijven krikken prijzen omhoog bij tekort aan concurrentie.

[Reactie gewijzigd door Stronk op 27 januari 2025 14:12]

In 2017 zaten we midden in een priceboom vanwege mining. Toen was 380 euro voor een midrange kaart nog niet een standaard. Ik wilde ca 500-600 uitgeven voor een flagship kaart, maar die waren toen 1000+ dus werd het ipv 200 euro voor midrange 380. Verder was de value best goed, maar het geld is daarna naar een fabrikant gegaan die de situatie nijpender heeft gemaakt. In dat opzicht, veel spijt. De laatste nvidia aankoop waar ik achter sta stamt uit 2003 (FX5200)
Zit ook nog op de 2080 en zolang ik alles nog op hoge settings kan spelen vind ik het prima zal denk ik pas bij de 6000 overstappen op een 80 kaart
De titan rtx waar je bij het stroomverbruik naar refereert was 2499 dollar in 2018: 3308 met inflatie. Het kan dus altijd gekker.

Het tdp is an sich indrukwekkend, maar het valt inderdaad heel erg tegen dat de nieuwe architectuur geen hogere ipc lijkt te hebben. Sterker nog met die veel hogere bandbreedte lijkt het eerder een achteruitgang.
er zijn twee verschillende zaken gaande :
de prijzen van gpu's begonnen "gestoord" te worden met de 2000 serie.
de tdp van gpu's begonnen "gestoord" te worden met de 3000 serie

de titan rtx en 2080ti was dus kwa tdp de "laatste" topkaart die net als de 1080ti, 980ti, 780ti, etc.,.
en de titan, titan black, titan x, titan z en titan y..
250 wat gebruikte.

waar het de 1080ti en de titan xp waren die als laatste normale prijzen hadden.

-> ipv dat de normale prijzen na de cryptoschaarste terugkeerden heeft nvidea gewoon scalper prijzen als default ingevoerd..

ja de titan RTX was erg hoog geprijst net als dat mijn 2080ti al 1600 euro was (2016 euro inclusief inflatie)
wat vergeleken met de <700 euro van de 980ti die hij verving (915 euro inclusief inflatie) zeer pijnlijk voelde, maar ik moest wat.. ik zat al 1 maanden zonder propere gpu.

maar ik herrinner me nog de 600 euro per maand energienota's en 1.20 euro per kwh die ik op een gegeven moment betaalde (met verwarming en pc uit, waar daarvoor ik 150 per maand betaalde met die aan)
(en nog steeds betaal ik 36 cent per kwh.. fors hoger dan de 23 cent die ik begin 2016 betaalde)
**in die maanden moest ik noodgedwongen gewoon de pc uitlaten en deed me denken, misschien moet ik bij de volgende build toch wat meer op het energieverbruik letten.. en misschien iets minder prestatie..

en dan komt nvidea met gpu's met tdp's die nog idioter zijn, compleet wereldvreemd voor in wat voor energiemarkt we leven..

[Reactie gewijzigd door DutchGamer1982 op 30 januari 2025 04:54]

Ik houd mij niet bezig met gaming dus videokaarten zijn voor mij niet relevant.
Ik ben wel een gamer, maar de prijs is zo achterlijk hoog dat ik deze toch nooit zal kopen. Bovendien heb ik nog geen jaar geleden mijn 1080 voor een 4070 super vervangen. Pas als die niet meer voldoet zal ik eens kijken wat beschikbaar is voor een prijs die ik wel de moeite waard vind.
De games die ik speel gebruiken over het algemeen nul GPU power. Ik reken wel simulaties uit op GPU, en daar ben ik helemaal voor meer=beter. Meer geheugen, en meer rekenkracht, make me a happy boy. Het is echt niet alleen maar voor games.
We zitten nu in een tijdperk van: Diminishing returns
Wikipedia: Diminishing returns
De kosten gaan flink omhoog, maar het rendement gaat omlaag.
Vorige generatie gaat nog prima mee, je moet meerdere generaties wachten voordat je het verschil gaat zien.
Dat zaten we sinds nVidia's GTX 1000-series. De GTX1080 Ti is bijna 8 jaar oud, kostte toen wat een "mid end" kaart tegenwoordig kost, maar komt nog redelijk mee met huidige rasterization performance. Ray Tracing is nog steeds een gigantische gimmick met nog steeds gigantisch veel grafische glitches die verborgen moeten worden. De grafische performance+kwaliteit komt nog steeds niet bij simpele rasterization + pre-baked lighting.

Het is eerder een achteruitgang voor consumenten dan stagnatie. De enige vooruitgang zijn de aandeelprijzen.
Die prijzen zijn idd belachelijk. Een jaar of wat geleden heb ik mn videokaart vernieuwd. Ik zat met de gedachte dat ik voor €150-200 wel een mooie midrange kaart kon vinden. Nou, kwam ik even van een koude kermis thuis.. Meer dan €400 wil ik er gevoelsmatig gewoon niet aan uitgeven. Dan maar op medium graphics een spel spelen.
de woekerprijs is iets minder bij midrange and lowend.

voor 200 euro kon je nooit een nieuwe midrange kaart kopen.
midrange was de x70 serie en die koste altijd al rond de 350 euro.

een budgetkaart zoals de 960 was 200 euro in 2015, dat zou nu gecorrigeerd voor inflatie 265 euro zijn.
(de 5060 heeft een mrsp van 299 usd, wat waarschijnlijk betekend dat hij hier zo'n 349 euro zal zijn bij release)
wat nog steeds 30% teveel is, maar niet de indiote markup die een 5090 krijgt

ook is vram verhoudingsgewijs veel meer toegenomen bij de lowend modellen. (x6 vs maar x2.4 in 10 jaar tijd)

een midrange 970 van 350 euro, zou nu gecorrigeerd voor inflatie 463 euro zijn.
de 5070 heeft een mrsp van 549usd, wat betekend dat hij hier ws zo'n 639 euro zal kosten.
-> wat bijna 40% te hoog is gecorrigeerd voor inflatie.

ik kan je wel adviseren de nieuwe kaarten van intel in de gaten te houden.. die lijken in jouw prijsklasse wel leuk te worden.

[Reactie gewijzigd door DutchGamer1982 op 29 januari 2025 01:14]

Ik heb hiervoor de r7 370 gehad, wat volgens het tweakers artikel een midrange kaart was en zo'n €160 kostte in 2016.

[Reactie gewijzigd door LA-384 op 28 januari 2025 06:41]

dan was dat artikel (iig voor mijn defenitie van midrange) nogal fout.

de R7 370, was een rebranded R9 270 en die is een rebranded HD7870
(zelfde chip en prestaties, is gewoon nieuwe naam voor zelfde ding min of meer)

de 7870 was toen hij uitkwam in 2012 vergelijkbaar met een 670 in dat tijdperk een midrangekaart in prestaties.
(wat zich ook vertaalde met een prijskaartje van rond de 400euro voor de 670 en 350 euro voor de 7870)

tegen de tijd dat hij gerebrand werd als R9 270 in 2013.. was hij kwa prestaties gelijk aan een gtx 760
een budgetkaart dus.
-> dit toonde zich ook in de prijs van 230 euro voor de 760, en 180 euro voor de 270

tegen de tijd dat de derde rebrand als R7 370 uitkwam in 2015 was hij zelfs niet langer geschikt als budgetkaart. (hij presteerde zelfs lager dan de gtx 950, (en ik heb de 50 series zelf altijd als "kantoorwerk cpu" gezien.. voor budget is de 60 serie.
-> wat zich ook toonde in de prijs.. van 150 euro voor zowel de 950 als 370
***
noem me een elitist maar er is geen enkel moment dat de r7 370 (als die rehash) een midrangekaart was.. hij was zelfs feitelijk altijd ongeschikt als budgetkaart.

[Reactie gewijzigd door DutchGamer1982 op 29 januari 2025 01:02]

De 1080 ti komt absoluut niet meer mee. Die bungelt onderaan: https://gamersnexus.net/g...y#1080-ti-game-benchmarks.

De kaart zat rond de 850 ipv 450 voor een 1070, die veel eerder uit kwam. Had je dat geld in je zak gehouden en later de 1070 verkocht en die 400 euro die je over had er weer bij gelegd dan had je veel meer performance gekregen. Dus ook de 1080 ti heeft helaas de markt niet verslagen.
Mijn genuanceerdere mening is dat ik niet geïnteresseerd ben in videokaarten maar wel in polls.
Dit. Voorheen had je nog wel eens de optie “geen mening maar ik wil gewoon ergens op klikken”.
Het is wat ik had verwacht van de 5090. Ik blijft toch gewoon op mijn 4090 OC
Zelfde hier - ik houd mijn Noctua 4080 voorlopig wel :) De 5090 biedt geen betere performance per euro dan de vorige generatie.

[Reactie gewijzigd door Gamebuster op 24 januari 2025 09:54]

- Ik heb nog een prima kaart (2ehands RTX3080), dus het boeit me zeer beperkt
- Ik weet dat het gruwelijk duur is, dus ik ga het niet kopen (en niemand in mijn kringen), dus ik heb niets aan de kennis
- Er komt een aggregaat bij elke videokaart geleverd, echt knap vind ik het niet.

Het zal zeker een mooie output kunnen leveren, maar voor mij is de [kwaliteit]/[prijs + verbruik] verhouding zo scheef dat ik niet eens de moeite neem om te informeren.
Had gehoopt op meer VRAM zodat hij ook bruikbaar zou zijn om grotere LLMs lokaal te draaien. Maar dat zal ook wel een bewuste keuze zijn om het professionele segment te beschermen. Voor mij in ieder geval geen reden om mijn RTX4090 te upgraden.
Ik ben vooral onder de indruk van de koeler :+
De performance vind ik weinig bijzonder te noemen met hoeveel stroom hij verbruikt. En met kunstgrepen als upscaling en framegen heb ik sowieso al niets, dus wat er voor mij over blijft is een te dure kaart die teveel verbruikt en niet de verbeteringen van een nieuwe generatie laat zien waar ik op hoopte.
Ik ben niet geinteresseerd in een videokaart die net zoveel kost als een complete high end gaming pc en laat alles wat met deze kaart te maken heeft links liggen, dus ook de reviews :)
Ik vind de prestatiewinst van DLSS4 wel echt indrukwekkend. 40 fps of 350 fps is echt wel een verschil.
Het is ook wel overdreven veel, al die verloren frames zie je toch niet door de beperkende factor van de refreshrate van je beeldscherm.

Op dit item kan niet meer gereageerd worden.