Gerucht: chip van Nvidia RTX 5090 is vijfde groter dan die van RTX 4090

GB202, de chip die Nvidia naar verwachting gebruikt voor de aankomende RTX 5090, heeft een die size van 744 vierkante millimeter. Dat is 22 procent groter dan de AD102 van de RTX 4090. De RTX 5090 wordt begin volgend jaar verwacht.

De doorgaans goed geïnformeerde leaker MegasizeGPU beweert op X dat de GB202-chip 24x31mm meet, gevolgd door 63x56mm voor de volledige package. In vergelijking met relatief moderne Nvidia-gpu's voor consumenten is de diesize van GB202 alleen kleiner dan de Turing-gebaseerde TU102 van de RTX 2080 Ti. Laatstgenoemde is 754 vierkante millimeter groot.

De RTX 5090, het vermeende Blackwell-vlaggenschip, krijgt naar verluidt naast 21.760 CUDA-cores een 512bit-geheugenbus met 32GB aan GDDR7-videogeheugen. In de wandelgangen wordt een tgp van 600W genoemd. Volgens geruchten gaat Nvidia zowel de RTX 5090 als RTX 5080 aankondigen tijdens de CES van begin januari. Eerder vandaag schreven we over de RTX 5070 en 5070 Ti, die eveneens in het eerste kwartaal van 2025 worden verwacht.

Door Idriz Velghe

Redacteur

22-11-2024 • 21:07

136

Lees meer

Reacties (136)

136
133
54
2
0
49
Wijzig sortering
Als je nu met de black Friday een compleet nieuwe pc wil samenstellen geschikt voor 4k gaming, vr en een super ultrawide monitor zoals de Samsung g9, doe je er dan verstandig aan om te wachten op deze nieuwe gpu's, of gaat de prijs echt torenhoog zijn? De 4090 is al absurd duur nl. Of is het verstandig te wachten, maar alsnog voor een 4080 super of 4090 te gaan omdat die mogelijk in prijs gaan dalen??
Het is altijd een beetje een gok.

Het verleden leert wel dat nieuwe modellen vaak minimaal net zo duur zijn als het equivalent uit het vorige model. Als de oplage dan ook nog schaars is, kan het zijn dat ze weer boven de adviesprijs worden verkocht. Verwacht dan maar geen prijsverlagingen op de 40xx serie op korte termijn.

Sowieso is de vraag hoe snel de prijzen zullen gaan zakken zelfs als de oplage voldoende is. Ik denk dat het dan alsnog minimaal 3-5 maanden duurt voordat de prijzen uit de vorige serie gaan dalen.

De uiteindelijke vraag is: ben je bereid te wachten? Maar besef je wel: Uiteindelijk kan het altijd beter en kun je oneindig wachten. Wachten kan het waard zijn voor als je echt zoekt naar specifieke specs, maar dan is dat je antwoord.
Ik vermoed dat je best tevreden gaat zijn met de 4090 of de super (maar check wel de benchmarks voor beide om de afweging te maken tussen de twee in vergelijking tot de prijs)

Overigens heb ik zelf gewacht op een ander onderwerp, namelijk een televisie. Had ik tevreden geweest met een model eerder? Wellicht. Maar nu kijk ik wel steeds terug op een beslissing waar ik nog steeds achter sta om anderhalf jaar te wachten, omdat deze precies de specs had die ik wilde hebben.

[Reactie gewijzigd door TomONeill op 22 november 2024 21:55]

Zolang wij hebben laten zien dat wij als consument maar wat graag genoeg laten zien dat wij de beurs opentrekken hiervoor, dan ga je denk ik zelfs over een jaar nog niet echt prijsverlaging zien.

Commercieel gezien, als je de oplage kunstmatig laag houdt, gaan mensen dan "toch maar" voor de next best thing.
Als je om de prijs van een grafische kaart geeft, koop je sowieso geen 4090 of 5090. Maar zet je jezelf meer in praktische rationele modus. Dan koop je nu nog een 4080 Super voor goedkoop ergens of wacht je op de 5080. Kan je ook prima op 4K mee spelen.
Jij en ik, een handvol aan anderen. Legio aan mensen die stemmen niet met hun beurs als zodanig.

Edit: ik wacht bijv. rustig op een leuke aanbieding voor een tweedehands 3090-Ti. 24Gb VRAM, snel genoeg voor mijn gaming, emu's en generative ai zoals stable.

[Reactie gewijzigd door SkyStreaker op 23 november 2024 14:00]

Ik zat ook aan een 3090-Ti te denken. Maar de power consumption en temperatuur van dat ding is gewoon niet meer leuk. Zit nu te kijken naar een 4080 super, maar denk dat het verstandig is om een half jaar te wachten en dan te kijken naar wat de markt doet
Ik heb dus een 3090, dat ding trekt idle 50 a 100 watt(ligt aan de driver versie), best bizar.
Maar, wel super leuk ding. Draai er nu Flux dev op, dan merk je ineens dat de plaatjes wat langer duren ;)
Als je een AMD hebt met een NPU, kan ik je ook Amuse aanraden. Het is wat minder veelzijdig, ook onder "advanced" en sommige tensorpacks zal je naar ONNX moeten zien te converteren (veelal via Olive), maar ik merk daar een snelheidswinst. Zelfs als ik alleen een iGPU gebruik en 512x512 doe met Euler A (of andere Ancestral types.

Edit: hoewel de idle mij niet in de weg zit, zal ik wel kijken of ik wat kan undervolten natuurlijk :)

[Reactie gewijzigd door SkyStreaker op 25 november 2024 16:46]

Ik zie dat je dat ook zonder GPU kan draaien, maar de vraag is hoeveel sneller dat is dan met een GPU. Is die Zcuda lib nog een dingetje geworden? Ik zou heel graag terug naar AMD gaan.
@Die_ene_gast - Zluda kom ik in ieder geval bijna niet meer tegen in geen enkele tool. Volgens mij waren ze er ook mee gestopt en later is het weer opgepakt.

SD.Next is de enige vziw die het nog oppakt.

[Reactie gewijzigd door SkyStreaker op 26 november 2024 17:20]

In de 2dehandse sectie zal de 4080 en een 4090 wel een prijsverlaging kunnen krijgen als de 5000 serie released wordt, maar nieuw ? Nee, daar is juist het tegenovergestelde het geval. De productie ligt dan stil dus de prijs gaat als een malle omhoog.(Vraag en aanbod) Kijk nu maar eens voor de gein naar een 4090 in de pricewatch.
Als je voor het topsegment gaat, ga je altijd diep in de geldbuidel mogen tasten, maar is het dat wel waard ? Maar de prijzen zijn er momenteel gewoon over, zeker voor de RTX4090.

Dus kan je wel al verwachten
wat de prijs van de RTX5090 gaat worden bij de release .. 8)7 .. jouw faillissement

Ik zou eerder voor de RTX5080 gaan die 1,1x sneller is dan de RTX4090,
nvidia's belofte was dat deze voor niet meer dan €900 ging verkocht worden bij release.
Maar nu blijkt dat de prijs bij release eerder tussen de €1200 tot €1400 gaat liggen voor de RTX5080.

Ik game al sinds 2019 op 4K met mijn 2080Ti, wel niet de laatste titels, maar de titels van rond 2020 en daarvoor .. maar een topgame zoals Cyberpunk 2077 in 4K kan ie net niet aan of ik moet wat andere opties uitschakelen .. dus een nieuwe gamePC is voor mij ook wel noodzaak.
Wat iets waard is bepaal je natuurlijk zelf. Het is immers of een hobby. Waarbij het kopen van een RTX 4090 voor de gaming hobby niets anders is dan het kopen van die dure Drone, wielrenfiets, karperhengel, lego set of wat voor hobby je anders zou hebben (of misschien wel tegelijkertijd).

Of je koopt het omdat je het zakelijk kan inzetten om geld mee te verdienen (of beide), waarbij je simpelweg een kosten / baten analyse doet.

Een belofte van Nvidia dat de 4080 of 5080 niet meer dan €900 zou kosten is er volgens mij nooit geweest.
Een belofte van Nvidia dat de 4080 of 5080 niet meer dan €900 zou kosten is er volgens mij nooit geweest.
Toch wel, begin dit jaar was dit al gezegd voor de delay en zelfs in september dit jaar nog was de belofte dat de RTX5080 voor $1000 over de toonbank zou gaan. Dit gaat natuurlijk over de Founders Edition.

https://www.dexerto.com/t...erything-we-know-2652004/
Dat staat daar helemaal niet, er staat:
There is no confirmed data on the expected price point for the RTX 5080. With the RTX 5090 predicted to cost around $1699 at launch, we can then use the price distribution of previous Nvidia GPUs to estimate that the RTX 5080 will be around $1000 at launch.
Of te wel, het is een gokje van de schrijver van dat artikel, die er op gokt dat de 5090 geen price bump krijgt, en dat op basis daarvan de 5080 mogelijk $1000 gaat kosten. Dat is heel wat anders dan dat Nvidia dat beloofd of zelfs bevestigd zou zou hebben.

Hou er ook rekening mee dat als dat al zou kloppen en de prijs in de US $999 dat dit geen €900 gaat zijn, immers US consumenten prijzen zijn altijd zonder belastingen, terwijl consumenten prijzen hier wettelijk verplicht inclusief belastingen geadverteerd moeten worden. Haal je op dit moment $999 door een wisselkoers calculator en voeg je de BTW toe kom je op een prijs van €1.160, Rond dat af op een 'mooie' prijs en goede kans dat Nvidia hier €1149 of €1199 gaat vragen als de 5080 inderdaad $999 gaat zijn.
Wat ik heb geschreven is :
Ik zou eerder voor de RTX5080 gaan die 1,1x sneller is dan de RTX4090,
nvidia's belofte was dat deze voor niet meer dan €900 ging verkocht worden bij release.
Maar nu blijkt dat de prijs bij release eerder tussen de €1200 tot €1400 gaat liggen voor de RTX5080.
Het enige wat ik nog terug kon vinden waar dit vermeld werd van die $1000, dit is trouwens ook geen artikel van begin dit jaar waar de delay in vermeld werd, want die artikels vind je nu niet meer terug.

Behalve waar men zegt de RTX6000 serie uit te brengen eind 2025 .. wat dus ook al niet meer gaat gebeuren met de delay van de RTX5090 en RTX5080 neem ik aan ..

https://seekingalpha.com/...-earnings-call-transcript
nvidia's belofte was dat deze voor niet meer dan €900 ging verkocht worden bij release.
Je schreef inderdaad over die belofte, een belofte die simpelweg nooit gedaan lijkt, immers Nvidia zegt of beloofd normaliter nooit iets over consumenten prijzen voor hun officiële aankondiging, zo'n belofte ver voor release uit de mond van Nvidia zou dus hoogst uitzonderlijk zijn, en die officiële aankondiging is nog niet eens geweest. Als je meent dat die belofte wel gedaan is, dan graag even duiding met een bron.

€900 is dan sowieso eigenlijk weinig realistisch kijkende naar wisselkoersen en belastingen. Om hier €900 te kosten te kosten in de winkel zou de 5080 in de US voor +-$775 in de winkel moeten liggen. Dat lijkt me, zacht uitgedrukt, erg vergezocht als prijsstelling voor Nvidia de komende generatie. Dat zou heel erg uit de pas lopen met de verwachtingen dat de 5000 serie minimaal hetzelfde gaat kosten als de 4000 serie en niet onwaarschijnlijk zelfs meer.

Misschien even quoten wat je precies wil duiden met deze link: https://seekingalpha.com/...-earnings-call-transcript

Want ik vind daar geen belofte in terug dat de 5080 €900 zou kosten, maar ook geen belofte dat de 6000 serie in 2025 zou komen (wat imho nooit zou gebeuren), dat past immers eigenlijk totaal niet in Nvidia release cycle's die al sinds de 900 serie jaar gebaseerd zijn op een generatie iedere +-2 jaar (give or take een paar maand), met tussentijdse refreshes. De laatste keer dat er maar +- een jaartje tussen zat was bij de 700 naar 900 serie (maar de 700 serie was eigenlijk een beetje een refresh van de 600 serie), zou je naar 600 en 900 serie kijken zit er wel weer 'netjes' 2 jaar tussen.

[Reactie gewijzigd door Dennism op 23 november 2024 11:33]

Zelfs op tweakers is dit als artikel verschenen en kun je wel degelijk terugvinden :

nieuws: Nvidia gaat jaarlijks nieuwe architectuur voor gpu's en AI-chips uitb...

Dan moet je wel alles lezen en dat heb jij duidelijk niet gedaan op die 10 minuten.

.
maar ook geen belofte dat de 6000 serie in 2025 zou komen (wat imho nooit zou gebeuren), dat past immers eigenlijk totaal niet in Nvidia release cycle's die al sinds de 900 serie jaar gebaseerd zijn op een generatie iedere +-2 jaar (give or take een paar maand), met tussentijdse refreshes. De laatste keer dat er maar +- een jaartje tussen zat was bij de 700 naar 900 serie (maar de 700 serie was eigenlijk een beetje een refresh van de 600 serie), zou je naar 600 en 900 serie kijken zit er wel weer 'netjes' 2 jaar tussen.
Ook daar staat dat niet in. Zowel de 'belofte' van €900 niet. Maar ook geen belofte over RTX 6000 in 2025. En laat ik eerlijk zijn, ik zie liever je bron voor die €900 belofte dan door te gaan over deze 'bliksem afleider' die je nu opgooit over de 6000 serie (waar je het initieel niet eens over had). Maar om er toch nog even op in te gaan:

Wat daar in staat is dat Nvidia voor hun server chips naar een 1 jaarlijkse cycle wil gaan. Met de nadruk op wil. dat is geen belofte en ook geen garantie dat dit gaat lukken. Het lijkt er immers op dat ze dat niet gaan lukken (al kan uitstel van Blackwell er wel voor zorgen dat de generatie daarna wel binnen het jaar komt, als ze die niet uitstellen omdat Blackwell problemen heeft gehad).

Maar Nvidia rept nergens over hun RTX 6000 desktop chips in dat artikel (en dus ook niet over een jaarlijkse cadans op dat vlak), en maakt daar al helemaal geen beloftes over.

De auteur van het Tweakers artikel probeert daar echter wel het volgende uit af te leiden:
Het lijkt er door deze stap ook op dat er na de RTX5000-kaarten ook snel RTX6000-kaarten zullen komen.
Maar ook dat is geenszins een belofte van Nvidia of ook maar iets wat daar op lijkt, maar simpel een mogelijkheid die de journalist tussen de regels leest en waar geen enkele conclusie uit te trekken valt.

En dat is ook waar je een beetje voor moet oppassen. Uitspraken in zulke investor calls zijn vaak boterzacht (waarom, omdat als je daar harde beloftes maakt, investeerders je daar aan mogen houden, wat dus ook weer hetgeen is waarom op dat soort momenten nooit echt harde beloftes worden uitgesproken). En je moet dus ook niet een samenvatting van zo'n artikel door een journalist, bijvoorbeeld op Tweakers, als belofte gedaan door Nvidia zien.

[Reactie gewijzigd door Dennism op 23 november 2024 11:59]

Uit dat artikel blijkt helemaal niet dat Nvidia heeft gezegd dat de 5080 een msrp van 1000 dollars krijgt. Het is allemaal pure speculatie, even geciteerd vanuit het artikel:
There is no confirmed data on the expected price point for the RTX 5080. With the RTX 5090 predicted to cost around $1699 at launch, we can then use the price distribution of previous Nvidia GPUs to estimate that the RTX 5080 will be around $1000 at launch. This is in line with current pricing for the RTX 4080 Super, which launched in early 2024.
Mijn 4090 kan zelfs Cyberpunk 2077 niet helemaal aan in 4k zonder DLSS3.0.

Al heb is dat dan wel met path tracing en ‘ray reconstruction’. Een setting die zwaarder is dan de ‘psycho’ ray tracing setting.
Tja.. alles van raytracing moet natuurlijk uitgeschakeld worden bij mij wil ik Cyberpunk 2077 in 4K kunnen spelen. En dan nog is het op het randje . :D

Nee, een RTX5080 is nodig om tot 2030 verder te kunnen. Als ie dan zo goed gaat presteren als mijn RTX2080Ti ben ik wel bereid hiervoor tot €1400 uit te geven.
nvidia's belofte was dat deze voor niet meer dan €900 ging verkocht worden bij release.
Een MSRP van 900 dus. Maar geloof mij nou maar dat retailers het dubbele gaan vragen en ze nog steeds als warme broodjes over de toonbank gaan.
Deze kaarten zullen denk ik hoger in de markt worden gezet dan de 4090. De PC gaming markt is op een bepaalde manier aan het stagneren, de meeste mensen gamen gewoon nog op 1080p, daarna een stukje op 1440p en minder dan 5% op 4k. Dat betekent dat voor het gros van de mensen een videokaart van een paar generaties geleden eigenlijk meer dan voldoende is.

Eigenlijk is het veel minder relevant geworden om voor de nieuwste generatie te gaan, en gewoon de kaart te vinden die bij je gewenste specs en prijspunt valt. Dat kan een nieuw generatie zijn, maar je kan netzogoed een 3000 series kaart halen.

Als onder zulke condities dus aan de bovenkant van de markt performance bijkomt, dan koppelen ze daar de afgelopen paar keren ook steeds een prijsverhoging aan. Anders gezegd, de prestatie per dollar blijft relatief gelijk over de generaties, er komt alleen meer absolute prestatie aan de bovenkant bij, en dus gaat de prijs omhoog. Dat is al helemaal zo nu AMD niet meer concurreert op het hoogste segment en Nvidia dus de prijs zelf kan bepalen. Dat is nog los van de kunstmatige schaarste die ze in dat segment introduceren wanneer de kaart net uitgebracht wordt.

Al met al, ik verwacht zelf dat de nieuwe Nvidia kaarten gewoon reteduur worden en het niet eens zo enorm veel prijsverlichting op de vorige generaties gaat geven.
Mja mijn gewenste specs zijn "zo snel mogelijk". Want zelfs met de 4090 kom ik met VR tegen flinke beperkingen aan. Met FS2020 kon ik niet eens hoger dan medium details.
Heb je 2024 al geprobeerd? Ik heb 2024 nu maar met laatste Windows update werkt mn reverb g2 niet meer...

Met 7800xt was fs2020 eigenlijk net niet prettig voor mij. Hoorde wat over vr perf. Verbeteringen in 2024 maar kan het niet testen.
Hmm, welke Windows versie zit je? Ik heb ook een reverb G2 maar dan wel nog op Windows 10
Op windows 10 blijven of 24H2 niet installeren voor W11.
Dan kun je het nog uitzingen tot 2026 inc updates meen ik.

hekjeZelfdeSchuitje.

Dan heb ik 'm 6 jaar. Niet optimaal, maar te overzien.

Qua flightsims trekt m'n 3080 VTOLVR meer dan prima, maar DCS lonkt.

Eens kijken hoe de prijzen er in de herfst voor staan van 9950x3Ds en de high end GPUs. (In de zomer is het mij iets te hard zweten met een VR-bril op)
Die vorige generaties zijn er dadelijk niet eens meer. De 40xx serie (althans de 4080 en 4090) wordt gewoon niet meer geproduceerd en de bestaande voorraden verdwijnen dus langzaam, dus geen prijsverlichting.
Dit dus, op 1440p ben ik nog wel even zoet met mijn 3090. Overigens mijn tweede videokaart die ik ooit kocht. Een benodigde upgrade naast de videokaart zou ook een 4k scherm moeten zijn, anders is het gewoon zonde van de prijs, overkill performance en de 600w verbruik 8)7
> Overigens mijn tweede videokaart die ik ooit kocht

Wat wil je daarmee zeggen?
Dat je hele slimme keuzes heb gemaakt bij het kiezen van een videokaart, of dat je nog maar net komt kijken in de computerwereld? 8-)
Hier draait alles goed op 1440p ultrawide met een 3060ti icm een 5800X3D, lekker zuinig. Niet op ultra omdat ik 100fps wil maar je moet goed kijken om het verschil te zien als je wat met de settings speelt.
Die 5800X3D geeft ook wel een aardige boost aan dat kaartje _/-\o_
4090 behoudt zijn waarde de 5090 word nog duurder gaat het gerucht. De 4090 stijgt in waarde van 2000 naar 3000 de laatste tijd. Rond deze tijd worden ze black friday duur.

[Reactie gewijzigd door Techman op 22 november 2024 22:02]

Zou denk eerder zijn dat 4090 prijst stijgt omdat de productie is stilgelegd.
Ja of zelfs stijging. Op moment van spreken was hij 3000 euro beetje het maximum vandaar.
Als je nu met Black Friday een nieuwe pc wilt samenstellen is het niet handig te wachten op de nieuwe Nvidia GPU’s. Want die zijn dan nog niet uit. :+
nu een nieuwe 4090 kopen is echt de slechtste keuze die je kunt doen, over 2 maanden heb je veel sneller voor hetzelfde geld, of een 2e hands 4090 voor minder van iemand die dan een 5090 heeft gekocht.
High end hardware nooit aan het einde van zijn levens cyclus kopen ( tenzij dikke korting zoals met AMD cpu's )
De 4090 was bij release een kaart voor mensen met "more money thans sense" (aldus Steve van GN). Dat gaat bij de 5090 niet anders zijn.
Ff wachten tot ze in de verkoop gaan en dan een 4090 systeem oppikken op marktplaats voor een leuke prijs. Dan maak je de echt leuke deals.
Ik denk dat dit het eerste jaar flink gaat tegenvallen.
Was toevallig recent in de markt voor een tweedehands systeem. Kon al een AM5 systeem met een 4080 oppikken voor rond de 1500. Uiteindelijk voor nog wat bespaard door voor een 3080 systeem te gaan maar je kunt nu dus al best goeie deals maken op 4080 systemen.
Zoals de andere reacties al aangeven is dat koffiediek kijken. Maar daarbij is ook als kanttekening dat Nvidia videokaarten niet zoveel prijswisselingen lijken te hebben, dus in dat opzicht is wachten iets minder aantrekkelijk misschien.
Mensen willen nog steeds €500 voor een 3080 dus vergeet maar dat de prijzen zullen zakken.
Je doet er verstandig aan om te genieten van je games ipv het beste van het beste te willen. Je wil het beste van het beste. Dan betaal je ook het meeste. De tijd van deals doen is lang verleden tijd.
Kijk op de user markt. Mensen(inclusief mijzelf) dumpen vaak hun oude (high end) kaarten als de nieuwe aangekondigd worden om dan met een grote korting te kunnen upgraden.

Heel veel 2de hands concurrentie zorgt voor een lagere prijs.

In retail heb ik de afgelopen 10 jaar nouw niet echt gezien dat oude generatie kaarten flink goedkoper werden.
Ik zou zelf niet wachten en voor AMD gaan. AMD out performed de rest qua gaming en ze verwachten dat pc hardware volgend jaar veel meer gaat kosten. Ik denk dat dit een goed instap moment is. In ieder geval de hardware zoals PSU en een case en mobo zou je nu kunnen halen. Zelf zou ik nooit van mijn leven een 4090 kiezen wegens de uitzonderlijk hoge prijs.
AMD outperformed de rest qua gaming? Hoe bedoel je dat? Ik lees overal dat Nvidia de enige echte topspeler is het op het moment als het gaat om gaming. Mogelijk door RT en DLSS, maar in het algemeen de beste keus. Helaas is de prijs door gebrek aan serieuze concurentie er dan ook naar.
Groter, en die krengen zijn al te groot.
Meer stroom, en die krengen zijn al planet-killers.

Ik zal er wel weer op gedownvote worden, maar we zitten op een doodlopend pad met deze technologie. Dit kan en mag niet doorgaan zo.
Op deze manier voegt je reactie ook niets toe natuurlijk. Wat stel je voor dan wat wel kan binnen de huidige technologie? Hoezo is het pad ‘doodlopend’? Omdat jij dat vindt?
Zijn punt is denk ik dat alles zuiniger wordt en daarmee minder vervuilent.
B.v Je 2200Watt stofzuiger is nu max 750W en zuigt nog beter.
Mijn huidige auto is veel zuiniger en toch veel sneller dan mijn oude.

Maar gpu,s gaan maar meer en meer verbruiken.
En dat is met huidig klimaat een doodlopend pad.

Dat weten de fabrikanten ook.
Het is niet alleen verbruik, ook is het steeds lastiger te koelen etc.
Als je het compenseert met je stofzuiger en auto, je hebt vast al ‘groene’ energie, sluit dan nog een paar zonnepanelen aan op je GPU dan is het probleem toch opgelost, ouwe dramaqueen ;)

[Reactie gewijzigd door cbr600f4i op 23 november 2024 22:01]

Een moderne stofzuiger van 750W is waardeloos vergeleken met die oude krachtige zuigers waar je niet 3 keer mee over het zelfde plekje moet. Misschien is het nog zuiniger ook omdat je het vuil sneller weg heb.
Je moet voor de aardigheid eens kijken naar de presentatie die Jensen Huang heeft gegeven in India. Daarin zegt hij zelf letterlijk dat Moore’s Law op zijn laatste benen loopt en dat zijn bedrijf op nieuwe technologieën inzet zoals AI om op een andere manier de performance op te krikken. Voor de 5090 gaat het nog om de ‘klassieke’ manier van opschalen en vanwege de fysische limieten (kleiner proces is niet meer haalbaar) moeten ze de chip groter maken, met de grotere energieconsumptie van dien. Huang is het zelf met de OP eens dat het huidige pad doodloopt.
Ik zou niet weten waarom dit niet zou mogen. Het mag gewoon wel. Jij bepaalt de regels niet in je eentje. Gelukkig hebben we vrijheid van keuze en indien het te veel energie gaat kosten haken consumenten uiteindelijk vanzelf wel af.

[Reactie gewijzigd door P. vd Loo op 23 november 2024 09:29]

...en indien het te veel energie gaat kosten haken consumenten uiteindelijk vanzelf wel af.
Daar kan ik wel om lachen, gister hadden mijn buren de buiten jacuzzi weer aan voor een uurtje bubbelen met uitzicht op de sneeuw
Snap ik ;-) Ik bedoel de gemiddelde consument, zonder jacuzzi, waterbed en airco in iedere kamer ;-)
Maar ondertussen mag je stofzuiger van de EU niet meer dan 900w verbruiken. Want daar ben je natuurlijk uren mee aan de slag. 8)7
Er zijn iets meer stofzuigers dan high-end videokaarten in gebruik. Daarnaast is het veel makkelijker aannemelijk te maken dat van meer watts je huis niet schoner wordt en je niet sneller klaar bent. Vrij logisch dat het ene wel gelimiteerd wordt en het andere (nog) niet.
Met meer zuigkracht pak je met minder halen meer stof, en je kan een bredere zuigmond gebruiken, je kan dus wel degelijk eerder klaar zijn:)
Er zullen vast meer stofzuigers dan videokaarten zijn, ik weet wel zeker dat videokaarten veel meer stroom gebruiken dan stofzuigers omdat videokaarten veel meer uren gebruikt worden.
offtopic:
Extra vermogen zorgde niet voor evenredig veel extra zuigkracht. Meer vermogen werd als beter gezien, terwijl de stofzuiger niet perse beter was.
gelukkig zijn r / komen r ook lower end cards dan de xx90 ;)
Die toevallig hetzelfde probleem hebben.

Zoek maar eens naar een nieuwste generatie videokaart die onder de 100W verstookt (zoals die uit het doosje komt).
de RTX 4000 SFF of de RTX 2000?
Hier heb je wel een punt en downvoten gebeurt door tweakers die alleen willen horen hoe geweldig de 5090 wel niet is.
Met zo'n kaart raak je de enthousiastelingen. Voor veel gamers een natte droom vanwege de vermoedelijke hoge prijs. Dat maakt de 4090 niet meteen slecht.
Nee maar de mensen die nu de 4090 hebben, hebben die omdat ze het beste van het beste wilden. Ik ook. Dat is hij niet meer als de 5090 uit is, en voor VR kan ik altijd meer performance gebruiken. Als je traditioneel 2D speelt dan is er niet zoveel nut voor een 5090 denk ik.
Eens, maar als je op 4K gamed met alles op ultra dan is een 5090 echt wel nodig. De doorsnee gamer zal zo'n kaart niet snel kunnen betalen. Dankzij dlss en frame gen zit er heel veel rek in huidige videokaarten. Echt nodig zal de upgrade voorlopig niet zijn, maar wel goed dat er telkens weer opvolgers komen want anders zouden de prijzen al helemaal door het dak gaan. Ook vind ik de vermoedelijke 600 watt wel heel erg veel en ik ben dan benieuwd naar alle verhalen over die 12vhpwr aansluiting. Die trekt 450 watt al moeilijk.

En ja, ik ben het met je eens dat er genoeg mensen zijn die de 5090 maar al te graag kopen en veel geld in hun hobby stoppen. Echter is dit niet het leeuwendeel en zal er ook een markt zijn voor de 5080 en 5070.
Ik vind de specificaties eigenlijk best wel tegenvallen. Blackwell moet wel enorm efficiënt gaan presteren wil het een enorme prestatie verschil zijn met de 4090. De afgelopen generatie zagen we dat het aantal cores omhoog gaat, maar de prestaties per core gaan omlaag, zelfs met een hogere kloksnelheid.

De 4090 heeft immers 52% meer cores dan de 3090 Ti, maar scoort gemiddeld ergens rond de 45% beter dan de 3090 Ti, dat terwijl de kloksnelheid véél hoger ligt.

De 5090 lijkt zo'n 33% meer cores te krijgen dan de 4090 en de kloksnelheid zal waarschijnlijk niet veel hoger liggen. Ik hoop dus van harte dat de 'tot 70% betere prestaties per core' kloppen.
De vraag is wel of dit zo blijft, er gaan al langere tijd verdenkingen dat de vorige generatie top modellen cpu's niet alles uit de 4090 konden halen dat er in zit voor gaming. Ik zou bijvoorbeeld dus wel eens een hertest willen zien met de 4090,, 4080, 3090 Ti, 3090, 3080 en AMD's modellen zoals de 7900XTX, 7900XT, 7800XT, 6950XT, 6900XT, en de 6800XT met de 14900K, 285K, 7800X3D en 9800X3D, vooral om te zien of de 9800X3D er extra performance uit weet te halen ten opzichte van de andere cpu's.
Breaking News!!!! Nvidia komt met een krachtiger chip die een tikje groter is dan andere, minder krachtige chips.

Werkelijk?
Wat? Chips varieren per generatie in grote, de grote van de chip is geen lineaire lijn met performance. De 4080 is beter dan een 3090, en is een veel kleinere chip.

[Reactie gewijzigd door Sagittary op 25 november 2024 11:15]

Nice! Ik hoop dat hij niet ook een vijfde duurder wordt want de 4090 was al erg duur. Ik ben al aan het sparen :)

[Reactie gewijzigd door Llopigat op 22 november 2024 21:10]

Ik zou het belangrijker vinden dat ze fatsoenlijk leverbaar zijn voor iedereen die zo'n kaart wil hebben.
Want daar schort het wel aan de laatste tijd.
met een die size van 7,5 Cm2 kun je er niet veel uit een wafer halen :(

Bij die grote heb je volgensmij ook enorm veel waste aan de zijkanten van de wafer, vraag me af wat ze daar mee doen is dat gewoon waste ?

[Reactie gewijzigd door Scriptkid op 22 november 2024 21:55]

Dat wordt altijd zoveel mogelijk geoptimaliseerd, maar inderdaad zullen er altijd dies niet volledig op de wafer passen en dus niet werken. Zolang ze alles wat past yielding hebben is dat het maximaal haalbare (haal je er toch 80-100 uit), een zo'n wafer kost dan ook 30k.
misschien een patroon ontwerp waarbij er niet 10x dezelfde chop uit en wafer komt maar grotere chips in het midden en kleinere eromheen bijv mobi
Mobi is een energiezuiniger geoptimaliseerd procedé. Waar GPU’s puur prestatie gericht zijn.

Kan natuurlijk wel de RTX 5070 dies er omheen hebben.
Hoewel het technisch gezien een optie is zullen ze het niet doen. Je maakt liever 1 type chip. Dat is sneller en maakt de werkende chips ook beter. Ze ontwerpen de chip om delen uit te kunnen schakelen. Zo kun je nog deels defecte chips verkopen.
Chips on de rand werken vaak helemaal niet omdat ze niet compleet zijn, die gaan de prullenbak in.
Dat komt omdat het wel 1 geheel moet zijn om elektronische redenen. Alles moet goed aan de package gebonden kunnen worden.

Om een design te maken waarbij je daar rekening mee houdt, lijkt me echt zeer lastig.

[Reactie gewijzigd door MrFax op 23 november 2024 01:20]

Dat valt wel mee: Als je een kleine die/tegel hebt, gaat er meer verloren in de zaagsnedes. Bij een grotere verlies je meer aan de rand inderdaad. Maar yield/opbrengst is denk ik de grotere uitdaging bij zulke grote chips. Ik neem aan dat ze defecte gpu kernen kunnen uitzetten, en voor een lagere prijs verkopen.
Niet alleen aan de zijkanten van de wafer. Er gaat ook af en toe iets mis, dat verlaagt de opbrengst 'de yield'. Of er zit bijvoorbeeld een vuiltje in het kristal.
Stel, je haalt er 200 uit een wafer, en er zitten tien foutjes in, dan heb je een yield van ongeveer 95% (niet precies, omdat er meerdere oopsies in dezelfde chip kunnen zitten). Stel, je haalt er 100 uit een wafer, dan is de yield nog maar ongeveer 90%. Dat maakt 'm ook duurder.
Daarop nog wel dat de 5090 geen volledige GB202 zal zijn, zal een kleinere versie zijn met die fouten meegeteld. De perfecte dies gaan naar servers.
Kan zijn dat er daarvan nog kleine chips gemaakt kan worden?
De 4090 is volgens mij al maanden/jaren zonder problemen verkrijgbaar
De FE alleen niet helaas
Maar dat was dan ook volgens mij vanaf het begin al duidelijk (net als voorgaande generaties) dat Nvidia de eigen kaarten niet ongelimiteerd ging leveren de hele product cycle. Als je een FE wil moet je er vaak relatief vroeg bij zijn, want hoe later in de cycle, des te minder drops je normaliter ziet tot er uiteindelijk (vrijwel) geen drops meer zijn.
Maar de FE maakt herrie als een malle. Er zijn veel stillere, of wil je ze ergens in een serverhok neerzetten waar het niet uitmaakt dat er een orkaan rond je hoofd jaagt?
Ik heb nu een 3090 FE in een Dan A4-H2O kast, het valt wel mee in de praktijk. Nou is er in die kast niet veel mogelijk qua fans / airflow maar met 2 goede fans erin is de airflow prima en valt het geluid meer dan mee!
Fair enough. De mensen die zich een xx90 kaart kunnen veroorloven hebben doorgaans geen bijzonder gevoelig jeugdig gehoor meer, waaronder ondergetekende :+ .
Hahaha dat zou ook mee kunnen spelen inderdaad 😂
Ik zou het belangrijker vinden dat ze fatsoenlijk leverbaar zijn voor iedereen die zo'n kaart wil hebben.
Want daar schort het wel aan de laatste tijd.
Precies:
Wat kost het en wanneer heb ik hem?

Zit nog op een 2080ti dus mag wel een upgrade.
Heb ik wel verdient vind ik zelf.
Geen relevante vraag voor geruchten, wacht tot release. dan heb je duidelijkheid

Afhankelijk van wat je doet komt n 2080 nog prima mee :P
(speel hier voornamelijk oudere titels met n 3060ti)
Dat is wel een punt ja. Vooral de founders edition. Ik wil niet zo'n OEM kaart. Ik vind het jammer dat Nvidia ze niet allemaal zelf maakt.
Volgens mij hebben de grote tech bedrijven tijdens corona geleerd dat mensen bij krapte meer bereid zijn te betalen per unit. Het gevoel bekruipt me dat de huidige tekorten kunstmatig/gepland zijn.
2000€ gaat hij zeker wel kosten. :)
Apple Vision Pro prijzen.
Gegarandeerd.
Ja maar dat kostte de 4090 ook. Dat is wel okee, ik denk dat ik daar ook nog wel 1000 voor terug kan krijgen zoniet meer.
Ja zo ben ik ook aan het rekenen. Ik vind het verkopen van dingen alleen altijd zo’n gedoe. Zou ‘m graag inruilen bij de verkoper voor 1000 euro korting op de 5090
Dat kunnen wij onderling wel regelen hoor, bestel ik de 5090 voor je, geef je mij nieuwprijs van de 5090 min 1000 + je 4090 :)
Ik ga uit van EUR 2500.
Edit: max configureerbaar TGP voor overclock versies van 660W even verward met gewoon TGP.

[Reactie gewijzigd door 87Dave op 22 november 2024 21:50]

De 4090 heeft een opgegeven stroomverbruik van 450W, geen idee waar jij 600W vandaan haalt?

600W vind ik wel erg veel voor alleen een GPU, maar net zoals de 4090 zijn er genoeg mensen die het geen bal uitmaakt en deze gewoon kopen omdat het kan. Prima, maar ik blijf wel bij een wat efficiëntere kaart.
Verbruik alleen zegt echter weinig over efficiëntie en een maximaal opgegeven verbruik zegt ook niet zoveel over het werkelijke verbruik. Als je wil weten welke kaart efficiënter kan je dus niet afgaan op de opgeven TBP waarde, maar zal je verbruik moeten meten en afzetten tegen bijvoorbeeld het aantal FPS.

Bij de 4000 serie krijg je dan best interessante cijfers, waar juist de top kaarten, met de hoogste TBP's, zo'n beetje de meest efficiënte kaarten zijn, terwijl de Sku's met minder verbruik minder efficient zijn.

Zie bijvoorbeeld deze chart die de efficiëntie meet van zo'n beetje alle AMD en Nvidia kaarten van de huidige generaties en enkele van de generaties daarvoor. https://www.techpowerup.c...-founders-edition/42.html

Op de 4080 Super, 4080 en de 4070 Super (2 van die kaarten zijn refresh kaarten die vaak, doordat ze later uit komen profiteren van beter sillicon en binning en dus vaak wat efficiënter zijn dan niet refresh kaarten) zie je dat de 4090 op van de originele 4000 serie enkel iets minder efficient is dan de 4080, maar verder alle AMD kaarten uit de 7000 serie en alle andere originele 4000 serie Sku's verslaat op basis van efficiëntie.
ja das een leuk argument maar als jij een kaart hebt van 600watt en 100 fps is dat altijd nog beter dan een kaart van 2000watt en 1000fps

ja die 2e kaart is 3x zuiniger maar 0x nuttiger
Tot je hem op 100 fps lockt. Dan verbruikt je 200w ipv 600. En je hebt headroom over.
Sterker nog wss nog veel minder als je undervolt gezien de performance curve
Het kan inderdaad zijn dat je niet graag een kaart hebt met een hoog verbruik. Wat natuurlijk prima kan, niet iedereen wil een extra warmtebron op de game of werkkamer. Maar geef dat dan als argument, in plaats van een argument over efficiëntie.

Want nogmaals, zoals ik al aangeeft in mijn vorige post is dat een compleet ander argument dan wanneer je zoals de post waar ik op reageer claimt te blijven 'bij een efficiëntere kaart'. Immers die kaart die minder verbruikt kan heel goed minder efficient zijn, maar alsnog de persoonlijke voorkeur hebben.

Maar dat veranderd niet dat het argument volgen van de poster waar ik op reageer die heel basaal aangeeft 'hoog verbruik = minder efficient' vaak simpelweg niet klopt. En al helemaal niet als je conclusies gaat proberen te trekken op een mogelijk maximaal vermogen uit een spec 'leak', daar kun je simpelweg geen enkele conclusie over het al dan niet efficient zijn van de kaart uit trekken.

En wat betreft jouw voorbeeld, dat maakt natuurlijk enorm uit waar je de kaart voor gebruikt. Voor gaming hoef ik inderdaad geen GPU van 2000W, ook al is deze zeer efficient. Doe je echter zaken op die machine waar ik geld mee verdien, is die 2de kaart stukken interessanter dan de 600W kaart. En dat is zeker een niche waar dit soort kaarten voor gebruikt worden om duurdere alternatieven (professionele Nvidia GPU's) te vermijden, omdat die stukken duurder zijn. Lang niet iedereen (ik vraag me zelf soms af of het wel het grootste gedeelte van de kopers is) koopt een RTX 4090 100% exclusief voor gaming.

[Reactie gewijzigd door Dennism op 22 november 2024 22:10]

fps per watt ook berekend in deze (en dus t effect van n targeted frameterate ala console)?
dan is die oppene 3x nuttiger / zuiniger / stiller ;) (even vanuit gaande dat schaling zo danig makkelijk is, zonder andere bottlenecks ofc)

[Reactie gewijzigd door JWL92 op 23 november 2024 00:28]

Er gaat een 600w power kabel in vanaf je voeding dat is vast de verwarring geweest.
Je moet ergens je opgewekte zonnestroom aan kwijt 🫠
Ach, het is maar een gerucht. Don't worry. :)
Ja, raar. Ik had een filter voor geruchten in het hoofdmenu.
Zeker per ongeluk uitgezet of gewist uit Greasemonkey. }:O
Dan had je zeker ook het gerucht gemist op Tweakers dat MrMonkE wel eens Greasemonkey script bugjes produceert.
Geen bug. Stond gewoon uit. Dus PEBCAK :)
Maar bugs produceer ik wel eens. Inherent aan het vak. O-)
Zo!!!! Weer een nieuw type inductie kookplaat op de markt van NVIDIA. :+ :+
Hier nog een tevreden bezitter van een RTX 4090 kaart. Ik speel standaard op 4K resolutie met 144Hz refresh rate. Toch ben ik heel benieuwd wat dit allemaal gaat brengen. Ik ben toch al niet van plan om te upgraden naar een RTX 5090. Het was al een dure videokaart voor mij €1.869 voor mijn GIGABYTE GeForce RTX 4090 24GB Gaming OC kaart. Ik zit komende jaren nog goed.

Op dit item kan niet meer gereageerd worden.