Gerucht: Nvidia RTX 5090 krijgt 512bit-geheugenbus en 32GB GDDR7-geheugen

De Nvidia GeForce RTX 5090 krijgt naar verluidt een 512bit-geheugenbus met 32GB aan GDDR7-vram. De RTX 5080 zou een 256bit-bus krijgen met 16GB GDDR7-geheugen. Er is vooralsnog geen officiële informatie over de RTX 50-serie bekendgemaakt door Nvidia.

De bekende Nvidia-leaker @kopite7kimi meldt dat het topmodel van de RTX 50-serie een GB202-300-A1-gpu krijgt en beschikt over 21.760 CUDA-cores. Eerder werd nog gesuggereerd dat er meer van dergelijke kernen aanwezig zouden zijn, met de kanttekening dat het aantal zou dalen om productieopbrengsten te verbeteren. De 5090 krijgt volgens de bron een stroomvereiste van 600W, al is niet duidelijk of het om de tbp of andere aanduiding van stroomverbruik gaat. De leaker stelt opnieuw dat de videokaart een koeler van twee slots krijgt.

Dezelfde bron claimt dat de RTX 5080 voorzien wordt van de Blackwell-generatie GB203-400-A1-gpu met 10.752 CUDA-cores. Deze videokaart krijgt naar verluidt een stroomvereiste van 400W. Volgens eerdere geruchten kondigt Nvidia de topmodellen uit de RTX 50-serie ergens eind dit jaar aan, al vertelden bronnen tijdens Computex tegen Tweakers dat de videokaarten naar 2025 zijn uitgesteld.

Door Yannick Spinner

Redacteur

26-09-2024 • 21:13

191

Submitter: qbig1970

Lees meer

Reacties (191)

191
189
73
6
0
86
Wijzig sortering
Dit is wel erg opmerkelijk. Als deze geruchten kloppen, dan is het verschil tussen het flagship (5090) en het model daaronder (5080) dit keer nog groter dan bij de RTX 40-serie.
De 5090 heeft meer dan 2x zoveel CUDA-cores en een dubbel zo grote geheugenbus en geheugencapaciteit als de 5080.
Zeg maar in de praktijk grofweg twee keer zo snel als een 5080 (afhankelijk van de kloksnelheden). Daar zal de prijs dan ook naar zijn verwacht ik.

De verschillen tussen de 4090 en 4080 zijn:
16384 vs. 9728 CUDA-cores
384-bit vs. 256-bit
24 GB vs. 16 GB
In de praktijk is de 4090 meestal zo'n 35% sneller dan de 4080, in zware raytracing-benchmarks tot dik 40%.
Het werd in het begin ook gelekt als 512-bits met 32GB volgens mij, en daarna 448 bits met 28GB, en nu dus weer 32GB met 512-bits, laat dit maar waar zijn hopelijk want meer bandbreedte is alleen maar beter voor hogere resolutie geweld en meer VRAM is altijd welkom, maar het gat met de 5080 hoeft mijn inziens ook niet zo groot te zijn.

Eindelijk iets waardigs om de inmiddels 7,5 jaar oude EVGA 1080Ti FTW3 mee te vervangen naar wat erop lijkt een fully-unlocked chip, grote hoeveelheid VRAM, PCI-E 5.0 en DisplayPort 2.1 voor 4K 240Hz mogelijkheid in de toekomst zonder beeldcompressie.

Nu nog hopen dat hij niet echt veel duurder dan een RTX 4090 wordt en dat K|NGP|N samen met PNY een waardige kaart op de markt zet dan die halfbakken drie merken, zien we tenminste ook eens de stroomconnectoren op de lengte van de kaart en niet waar het ding al te heet is, past ook makkelijker horizontaal in de kasten zonder de hele boel te blokkeren met een verticale mount.

Kleine edit:
Ik dacht aanvankelijk een full-fat chip, maar er is een reductie van 13% aan FP32 (Cuda) cores t.a.v. de volledige chip, van 24.576 cores naar 21.760, maar ondanks dat en de aanvankelijk wat tragere GDDR7 geheugen van 28Gbps zal dit alsnog een beest zijn en ik denk toch niet dat ze met een Ti op de proppen gaan komen want de RTX 5090 verbruikt al 600W maar de kans zit er dik in dat ze later met versies komen die sneller GDDR7 geheugen hebben, beetje zoals de 1080Ti toen 12Gbps geheugen kreeg wat origineel 11Gbps was.

Verder lijkt het erop dat de Founders kaart nog steeds volgens de geruchten een 2-slots model wordt, interessant hoe dat gaat uitpakken.

[Reactie gewijzigd door CriticalHit_NL op 27 september 2024 08:18]

Dit geeft wel meer ruimte voor de 4080 ti/super.
Toch zeer magertjes die 32GB. Alsof ze bang zijn dat het gaat concurreren met andere AI kaarten. Had ook prima gewoon 64GB in gekund zodat consumenten ook meer met AI kunnen doen. Dit krijg je nu geen enkele concurrent het meer durft op te nemen tegen NVIDIA en ze alleen heerser zijn. Intel heeft de handdoek in de ring gegooid. En AMD maakt er een gigantische potje van op de GPU markt.

[Reactie gewijzigd door Immutable op 27 september 2024 05:47]

Vanuit AI-doeleinden geredeneerd volg ik je wel, dan is 32GB niet ruim bemeten. Maar de 5090 is natuurlijk primair bedoeld als gaming-kaart en dan is 32GB meer dan voldoende. En zelfs dat is een understatement aangezien de meeste moderne games niet meer innemen dan 12-16GB VRAM (zie performance reviews van moderne games op Techpowerup).
We krijgen binnenkort games die werken met AI, stel je de NPC een vraag via je microfoon en dan antwoord het dmv AI. Hopelijk is het voor zulke games ook genoeg. 1 op 1 gesprekken waarschijnlijk wel, maar als de hele game wereld acties uitvoert dmv AI dan misschien weer niet. Dan zullen we moeten wachten op de 5090 ti of 6000 series :+
Hoe binnenkort verwacht je dit dan? Ik zie deze situatie er zeker aankomen maar dat zal toch nog zeker even duren. Lang genoeg neem ik aan dat een 5090 al een aantal jaar oud zal zijn en nieuwere modellen al de 5090 vervangen.
Er zijn al ontwikkelaars bezig met zulke games, dus denk dat die tijdens of net de de launch van de nieuwe gen wel zullen verschijnen.
De 4090 was vroeger de titan voor semi professionals zonder budget voor de duurdere reeks… ik wil hem ook kopen voor AI maar zal vermoedelijk gewoon 2 extra 4090 of 3090 kopen..
De moderne games van nu inderdaad. Als ik ~€2000 moet gaan stukslaan op een videokaart verwacht ik dat hij 8~10 jaar courant blijft. Dan is voldoende vram een vereiste.
Nvidia wil niet dat je er AI mee kunt doen. Ze willen dat je dan een Quaddro kaart koopt.
"En AMD maakt er een gigantische potje van op de GPU markt" zeht u. In welk opzicht bedoeld u dat dan?
32GB zeer mager? Je maakt een grapje hoop ik. Dat er discussies komen over 8,10,12 ok, maar 32 GB is echt niet mager te noemen op een gaming kaart. Ik denk niet dat er echt geen nuttige tools zijn voor de consument die 32 of meer goed gaan ondersteunen in spelletjes de komende jaren. Als je zwaar AI wilt doen, dan is een gaming kaart dus niet wat je zoekt.
Veel game development bedrijven en vfx bedrijven gebruiken gewoon dit soort consumenten videokaarten voor developement. Zelf werk ik ook bij een post production house waar ik vfx artist ben. Wij hebben ook gewoon normale videokaarten. Quaddro's zijn gewoon veel te duur en niet echt worth the money. Denk niet dat dit heel erg anders bij veel bedrijven, zeker in Nederland. Misschien dat het in America anders is maar denk dat de meeste game development bedrijven gewoon consumenten kaarten gebruikt. Ook voor testen namelijk veel interessanter. Ik heb nu een kaart op werk met 16gb en in werk zit in heel vaak aan de limiet. Een kaart met 32gb is dus zeker niet overdreven.
Voor puur gaming is het overkill maar videokaarten worden tegenwoordig voor zo veel meer doeleinde gebruikt.
Voor 3D rendering zou ik ook erg blij zijn met 64GB ipv 'slechts' 32GB.

Voor gaming totaal overdreven, heb nog geen game gespeeld die de 24GB van m'n 4090 ook daadwerkelijk volledig nodig had. (Slecht geoptimaliseerde games daar gelaten)
Wellicht later nog een Ti, Super of wie weet een Ti Super of iets in die orde.
Wat ik wel jammer vind is dat ze SLI/multi-gpu al een tijd helemaal hebben uitgefaseerd en door zo'n beetje niets nog wordt ondersteund, dat terwijl men met de komst van DirectX 12 een kleine belofte hadden gedaan dat de support en performance juist verbeterd zou worden.
2 of 3 van deze kaarten in SLI zou wat zijn geweest ;)
Voor 3D rendering is meerdere kaarten in je systeem nog steeds the way to go. Het schaalt bijna 1 op 1 in snelheid.

Momenteel een 4090 en 3080ti er in hangen, maar ben echt aan het wachten op de 5090. Zodra deze er is ga ik er meteen 1 of 2 halen. 3D is mijn werk, en videokaarten zijn gereedschap.
ja want dat SLI werkte zo lekker?
SLI en CrossFire waren een leuke theoretische oefening met veel gebrande vingers. vooral geile potentie maar veel teleurstelling.
Dus leuk, 2 5080s naast elkaar laten blazen en alles in 16k120 om je oren - met de kanttekening dat alles gelijk is aan een minimaal % van je steam library.
In de tijd dat SLI nog goed werd ondersteunt door zowel drivers als games werkte het voor het grootste deel meer dan prima hoor. Ik heb een GTX 780 en GTX 980 SLI setup gehad. Het is nooit dubbel zo snel geweest als een enkele kaart, maar ik heb nooit problemen gehad. Perfect is het nooit geweest, maar nutteloze ellende was het zeker niet. Zoek maar eens een GTX 780 SLI review op uit die tijd.

Verder prima dat die tijd over is en we weer naar enkele GPU's zijn gegaan. Wat kan je tegenwoordig niet fatsoenlijk spelen op 1440p of zelfs 4K met een RTX 4080/4090 of 7900XTX ? Als ik de RTX 5090 specs zo zie moet 4K met alles op de max ook geen probleem zijn. Dan hebben we verder nog upscaling wat best prima geworden is. Nee, SLI is niet meer nodig zoals het er nu voor staat. Misschien met 3 schermen nog wel, maaar voor een enkel scherm niet. Betekend echter niet dat SLI ellende was zonder nut. In die tijd dat SLI een ding was kon het voor genoeg games ook helemaal geen kwaad om 1440p te draaien op de max.
Draai sinds vorig jaar op een 4090 en speel vele spellen op 4k ultra moeiteloos (100 fps of hoger, met DLSS 160 fps)
De 5090 zal denk ik 1,5x de prijs worden van een 4090 en 8k game support gaan leveren. Maar als we eerlijk zijn is 4k momenteel al geen game standaard, laat staan 8k. Een echt niche product wordt de 5090 wat de 4090 al was voor 4k gamers
hoe geen game standaard? 4K schermen zijn supergoedkoop tegenwoordig.
De 5K en 8K widescreens komen eraan (zijn er al)
Hoe? Omdat, om dit te bewerkstelligen, je toch wel ruim boven het budget voor een computer komt voor de meeste mensen? Dat de schermen betaalbaar zijn, mee eens. Maar een kale computer zonder enige apparatuur, zoals bijvoorbeeld een muis, van 2k+ is voor velen niet te betalen, en verder voor velen gewoon teveel, inclusief mezelf. Ik ga niet meer dan 1,7k (en dan is het al flink gezakt in prijs) betalen zodat ik een paar jaartjes eerder op 4k kan spelen, ook nog eens ten koste van de fps en velen met mij. Voor ruim minder dan de helft van de kosten heb je een 7900 xt, waarmee je op 1440p op hogere fps kan spelen op ultra. Daarom dus geen game standaard.

[Reactie gewijzigd door yustme_x op 27 september 2024 17:23]

Het is maar dat er technieken zijn zoals DLSS en de andere zooi, maar heel veel vooruit gegaan zijn wij niet als je naar performance gaat kijken zonder al de toeters en belletjes zoals frame generation enzovoort.
Nou, hier iemand die op zo'n beetje de eerste game consoles heeft gespeeld. Dat was pong dat je bediende met een paar veredelde potmeters op een oude zwart/wit tv. Ik kan je vertellen dat we een paar stapjes hebben gezet in de afgelopen jaren.
Vind het vooral jammer dat de 5080 nog steeds op 256bit/16GB blijft steken, had eigenlijk gehoopt op 320/384bit met 20, resp. 24GB.

Niet zozeer omdat ikzelf een 5080 wil maar meer dat de kans dat het volledige xx70 segment een upgrade gaat krijgen naar 16 I.p.v. 12GB hiermee toch wel een stuk kleiner geworden is.
Aaah dat was precies de reden waarom ik op dit artikel klikte.
Hoopte inderdaad te zien dat de 5080 kaart bv 20gb zou krijgen, waarmee de kans zou komen dat 70 de 16gb zou krijgen (kunnen ze 10-12gb aan de 60 geven en eventueel 8gb aan een 50 kaart)
De 3050 heeft al 8GB en een 4050 kaart bestaat niet. Kan goed dat er geen 5050 gaat komen.
Het is aannemelijk dat er later nog een 5080Ti tussenin komt (24gb?)
Dat leek mij ook aannemelijk bij het grote verschil tussen 4080 en 4090, we zijn echter nog niet zover.
Hoe zou de 5080 er dan uitzien tegenover de 4090 nu?
Komt nog wel een 5080 Super, 5080 Ti, 5080 Super Ti, 5090D, enzv.. :+
Vervelend, al die geruchten. In aanloop naar de CES zie ik ook steeds meer van die speculatiefilmpjes op Youtube...20 minuten over niks - zou, kan en misschien.
600W klinkt als een DOA voor een hoop ITX systemen.

[Reactie gewijzigd door PietPineut op 26 september 2024 21:18]

Iedere generatie stapelen de geruchten zich op deze manier op. Altijd met enorme hoeveelheden cores en 512 bus etc etc en altijd goedkoper dan ooit tevoren. Nog nooit is het waar geweest. De 5090 gaat gewoon netjes vallen waar Nvidia dat wil in de product line up. En als je die idiote specs wilt dan moet je gewoon 10k neer leggen voor een hele dure Quaddro.
Waarom zou dat? Als de kaart ook oprecht 600W verbruikt (wat ik overigens niet denk dat zo is) kom je prima uit de voeten met een SF850 + 7800X3D.
Wie weet word er eigenlijk maar rekening gehouden met 350W indien je een ATX 3.1 voeding hebt welke power spikes van 200% aankunnen .. }:O
Dit is eerder ook mijn gedachtengang. Een 2 slots kaart die 600W moet afvoeren gaat gewoon niet gebeuren.
Anoniem: 80910 @Thomg26 september 2024 22:37
ik wacht toch nog even tot dat ze 64 GB hebben, dan kunnen er mooie taalmodellen in draaien, vind het jammer dat ze bijvoorbeeld niet 40 GB hebben gedaan, dan kun je meta's model 70b in het videogeheugen draaien en ik denk dat capabele modellen wel rond de 40 / 50 GB gaan zitten.
Gek hè dat ze dat niet doen. Daar verkopen ze andere zeer lucratieve producten voor. Een 5090 is toch primair bedoeld voor gaming.
Deze kaarten zijn bedoeld voor werk stations.
GeForce is bedoeld voor gamers en de 50xx reeks zijn dus de Blackwell cores die niet stabiel genoeg zijn voor servers/werkstations.

De Quadro RTXx000 Ada (20-48G VRAM, actief of passief gekoeld, waarvan de lagere modellen single-slot zijn) of de L40(S) (48/96GB VRAM dubbel slot, is passief gekoeld, dus speciale dozen voor nodig) is voor werkstations, als de GeForce een 512-bit bus krijgt, vraag ik mij af hoeveel de Quadro en server reeksen zal krijgen, typisch is dat een stapje omhoog, dus 768-bit en 1024-bit modellen, de AI heeft wat bandbreedte nodig.

De L40(S) en H100 (allemaal passief) zijn voor servers en de nieuwe Grace-Blackwell systemen zijn gewoon geintegreerde servers, servers zullen waarschijnlijk moeten overstappen op ARM architectuur om het onderste van de kan te kunnen halen, de L40S/H100 zijn al met moeite te voeden met een Intel CPU.

[Reactie gewijzigd door Guru Evi op 27 september 2024 02:45]

Wat is op dit moment het beste om te kopen voor meer performance voor o.a. machine learning. Heb nu een 3090. Gewoon een 3090 erbij prikken? Het probleem is geheugen. Wat is de beste prijs voor in een reguliere desktop workstation en geen server.
Nee, en ook niet voor complexere multimediadingen; Genlock/multi output sync is een Quadro driver functie. Op een GeForce kun je dan wel prima een rendertje doen in Redshift, of hardware encode in de gebruikelijke videosoftware.
600w afvoeren heb je weer fans voor nodig, die nemen weer ruimte in. Ruimte is iets wat je bij SSFPC’s beperkt hebt zeker als je richting of sub 10L wilt gaan.
Zelf zie ik tot 20L nog steeds als een ITX/SFFPC zoals ik nu al heb. Als de kaart direct tegen de behuizing aanzit is het niet heel veel anders dan een iets meer gelimiteerde vorm van een open bench. Er word vaak vergeten dat je geen fans nodig hebt als de videokaart zelf al in staat is om al het lucht zelf aan te zuigen en weg te pushen. Je hebt fans nodig als de videokaart ver verwijderd is van de buitenlucht en er veel liters van stale air om de kaart bevind. Dan circuleert het zijn eigen hitte.

[Reactie gewijzigd door Thomg op 26 september 2024 22:11]

Dat dus - die 600W is behalve pixels ook een hoop hitte en dat moet je kunnen afvoeren, sommige (veel?) ITX behuizingen doen dat via de AiO fans en dan krijg je echt een hotbox van machine.
De meeste ITX behuizingen doen, vziw, simpelweg het zo dat de videokaart direct tegen de behuizing aanzit, verse lucht aanzuicht en meteen naar boven, links, rechts en onder weg kan blazen de behuizing uit. Bij Nvidia stock koelers dan soms ook naar achter, maar dat werkt vaak niet bij ITX.

De Lian Li H2O en Fractal Terra zijn hier goede voorbeelden van (alhoewel wel beiden niet naar rechts gekeken naar de koeler).
Goede voorbeelden noem je, als de fans tegen de zijkant aanzitten krijg je turbulentie, iets waar de Terra berucht om is.

Warme lucht naar beneden duwen is bijzonder inefficiënt op de manier waarop je het nu uitlegt. De lucht gaat niet op magische wijze een paar centimeter naar beneden, de behuizing uit en precies goed opzij uit de weg om niet weer aangezogen te worden het CPU deel in of langs de zijkant waar de videokaart aanzuigt. Dat is tegen natuurlijk.

En omhoog zal er ook eea blijven hangen omdat convectie alleen beperkt effectief is en 600w veel warmte is.

Beide problemen los je op met fans maarja dat neemt weer veel ruimte in of gewoon een videokaart die niet zó achterlijk veel warmte genereert :+
Of we stoppen met het geloven van leaders? De 4090 zou ook de 600w verbruiken maar blijkt de 500 niet aan te kunnen tikken. Dus de kans is extreem groot dat deze ook de 500w niet zal aantikken.
Zeker waar en met een (kleine) undevolt zal de piek ook nog flink dalen :)
Goede voorbeelden noem je, als de fans tegen de zijkant aanzitten krijg je turbulentie, iets waar de Terra berucht om is.
De Terra heeft er eigenlijk alleen last van icm cpu koeler fans. icm GPU koelers veel minder en vandaar dat ook altijd het advies was in de terra om het gpu compartiment zo klein mogelijk te maken.
De Terra verergert het probleem met de langwerpige slats. Gewoon gatenpatroon of mesh/stof heeft hier véél minder last van.
Die watts moeten er ook weer uit als warmte.
Je zult perfect je PC moeten onderhouden en dan mag je hopen dat het 2-3 werkt.
Denk bijvoorbeeld ook aan het vervangen van koelpasta. Maar wie gaat dat nu doen binnen garantie: een kaart van 1500 euro+ open schroeven en dan lekker lopen prutsten.

Het slaat gewoon nergens op en is eigenlijk niet geschikt voor consumenten.

Ben zelf in de markt voor een gforce 50XX voor mijn toekomstige systeem, maar ik wil eigenlijk gewoon geen high end card vanwege die warmte en energie. Omdat het lawaai maakt, omdat het belachelijk warm wordt en je eigenlijk gewoon niet ongestoord het ding open kan zetten zonder framecap zonder zorgen over slijtage. En als het stuk gaat buiten garantie is het verlies alleen maar groter. Kun je gewoon beter een budget model kopen en die na 2 jaar vervangen. (ik hoef niet te gamen op 4k zonder upscaling)
Denk dat het een 5070 achtige kaart wordt, maar dan zit je misschien ook al tegen 400w aan te kijken.

[Reactie gewijzigd door friketje1 op 26 september 2024 22:34]

Tja content uitspugen is cashen, ikzelf kan er niet warm of koud van worden en kocht een 4070ti super. Die 5080 krijgt wederom te weinig geheugen mee.
Had nu toch wel verwacht een RTX5080 met minstens 20GB -vram te kunnen aanschaffen zodat ik safe zat met mijn nieuwe build die ik ga bouwen. Wederom niet .. was met de 40-series ook al een teleurstelling en had toen de bouw van een nieuwe build overgeslagen hierdoor.
..komt AMD straks aanzetten met 20-24 gigabyte voor respectievelijk de x700 en x800 met heftig opgepoetste raytracingprestaties. O-)
Raytracing is waardeloos, doet amper iets en kost heel veel performance, heel leuk als je stil staat voor een screenshot maar dat was het dan ook, in een gevecht bijvoorbeeld ga je echt niet kijken hoe mooi de reflectie op de grond zijn of de muren.
Er zijn een paar spellen die het goed toepassen en dan vind ik het persoonlijk echt geweldig. Is het de performance hit waard? Ook daar kun je over (sterk) van mening verschillen ;)
Ik heb tot nu niet eens spel gezien waarin het de performance loss waard is, er zijn zo veel technieken die geen performance verlies hebben en die er super goed eruit zien zoals planar reflections enzovoort. Maar dat is blijkbaar te veel werk voor de game makers om het fatsoenlijk te implementeren...
Cyberpunk pathtracing is echt fantastisch vind ikzelf. Moest wel mijn 3090 een generatie upgraden en ben het met je eens dat dat voor velen een stap te ver is, maar het kán wel
Ik ben wel benieuwd hoe vaak het wel echt aan raytracing ligt, als je bijvoorbeeld naar minecraft kijkt is het echt niet alleen het licht wat anders is maar ook letterlijk andere shaders, de blokken enzovoort hebben een compleet ander textuur en dat zou vast wel in veel meer games worden toegpast. En als je sommige games gaat kijken tussen een shader mod en raytracing is een shadermod vaak net zo mooi.
Dat zal idd heel veel doen. Denk ook dat RT een overhyped buzzword is geworden en maar snel overal op wordt geplakt ipv degelijk geïntegreerd
Nog een mooi voorbeeld hiervan is bijvoorbeeld de shader patch van Assetto Corsa, dat is gewoon totaal niet te vergelijken met het orginele spel. In eens is er reflectie in het spel, de lampen die er super realistisch uitzien enzovoort.
geen performance verlies hebben en die er super goed eruit zien zoals planar reflections enzovoort.
Haha dit is inderdaad een quote die je past bij "Raytracing is waardeloos". Je kan inderdaad met Planar hetzelfde resultaat bereiken als met RT reflecties. De kost zal echter vele malen zwaarder zijn las RT. Dat is tegenwoordig trouwens vaak het geval met hoe goed GPUs RT aankunnen waarbij RT goedkoper is dan hetzelfde resultaat proberen te bereiken via raster.

Raytracing is onvermijdelijk in de toekomst, zeker nu met UE5 waarbij ze gewoon automatisch defaulten naar software RT. Als je trouwens denkt dat shadermods via Reshade ofzo gelijkaardig zijn aan PT dan denk ik wel dat we uitgepraat zijn want daar kan ik echt niets op antwoorden. Toen ik dat las, werd ik even sprakeloos.
Je kunt het het niet waard vinden, maar de hele techniek wegzetten als waardeloos is hetzelfde als eind jaren negentig commentaar geven op modellen op basis van polygonen en skelet animatie TOV sprites.
Enkel in Cyberpunk 2077 vond ik dit de moeite waard, gaf een mooi effect aan de gehele stad. Maar bij andere games vind ik raytracing eerder storend en het neemt heel wat performance van je GPU weg. Dan maken ze nog Remasters voor een hele boel oudere games waarbij ze raytracing proberen inwerken en het meer kwaad dan goed doet.
Het is elke keer dezelfde cycle over het verbruik. Destijds zeiden ze dat ook van de 4090. Maar de 4090FE past prima bij mij in een DAN Case C4-SFX van 14L

De 4090 zou ook > 600 TDP krijgen volgens de berichten terwijl de 4090FE een TDP heeft van 450w, met een mogelijkheid om deze zelf op 600 te zetten.
Itx met zo'n kaart past toch amper...

Zou dit niet in een itx doen
600W klinkt als een DOA voor een hoop ITX systemen.
Is ook wel een beetje krom om een reuzenkaart te willen in een minisysteem.
Dat dat niet lekker gaat zal de verkoopcijfers niet drukken.
Nm. :X

[Reactie gewijzigd door MaZo op 27 september 2024 08:50]

Schijnbaar is er zonder de teaser van de trailer van de teaser trailer geen animo meer voor (nieuwe) producten/content. [/sarcasme]
Latere gens top g-kaarten zijn altijd al nogo voor compacte ITX PC alsof 4090 zuinig en klein is. Naast case flow en ruimte voor 30++cm G-kaart 2++ sloten monster kaarten.
ITX kaarten waar meeste 4090 past zijn zeldzaam , of je bent beperkt tot aantal specifieke 4090 modellen naast specifieke itx cases die sommige 4090 aankan.

Is van zotte om top end gaming ITX rig te gaan.
Naast 1KW voeding en CPU die mogelijk ook 400Watt kan boost pieken.
Het is niet onmogelijk maar je moet dan diep onder zoeken welke 5090 en uiteraard heel bewust itx case die dat mogelijk maakt zo case zal dan minimaal in 40cm diep zijn.

Mijn itx case Fractal node 304 kan 30cm G-kaart in doet dienst als windows server.
Helaas een verkeerde platte brede koeler die over PCie slot gaat voor 10gb nic.
Maar die server wordt met de tijd afgebroken een Qnap Nas gaat zijn rol overnemen.
Dan wordt het licht GamePC met G-kaart midrange en kies ik voor meer low profile midrange G-kaart.
Als ik van de ground up game PC maak minsten ATX in ATX case met voldoende ruimte voor G-kaart midi tower en dat is klein zat. Naast dat high-end sowieso out of budget voor G-kaart is. Midrange G-kaart wat beter te doen is in ITX formaat.
Ik draai moeiteloos een 4090FE in een case van <10L (air-cooled). Als de 5090 inderdaad 2-slots is, dan verwacht ik weinig problemen.
Veel mensen zouden liever meer VRAM zien in een consumenten kaart, maar NVIDIA weet dat ze dit voor een veel groter prijskaartje aan bedrijven kan verkopen.
Veel* vram maakt ze geschikt voor AI, misschien dat ze daarom wat exclusiever gehouden worden

*vanaf 24gb

[Reactie gewijzigd door sircampalot op 26 september 2024 21:46]

Ja maar dan is 32GB nog niet veel beetje AI kaart heb al 80GB. Waarom niet 64GB in de 5090... Jammer.
Als je een beetje met AI wil hobbyen dan kun je beter 64GB in een cloud huren dan een 32 GB kaart aanschaffen. Wij hebben de berekening hier intern gedaan; wij hebben kaarten gekocht omdat we meer dan 8 uur per dag utilization halen. Maar dat is professioneel.
32gb vram is genoeg voor games en zelfs beter 3d en ai werk hoor.
De 4090 maakt workstation kaarten in veel gevallen ook al overbodig. Je krijgt zoveel meer prestaties voor je geld, en pas vanaf de RTX 5000 Ada krijg je meer geheugen - die kost ruim het dubbele.
De 4090 had al veel last van gesmolten kabels. Northridgefix plaatst nog regelmatig video's hiervan op zijn YouTube kanaal. Als de 5090 150watt meer gaat trekken dan vrees ik wel het ergste.
Kabels zijn nooit gesmolten, alleen de connectors.
Is er een mogelijk het potentieel op te krikken om het met minder stroomsterkte te doen?
Ik zie liever de ontwikkeling gaan naar meer prestatie met minder TDP. Natuurlijk snap ik dat prestatie gelijk is aan wattage, maar het is zo tegenstrijdig met al andere technologische vooruitgang.
Ik zie liever dat alle game devs de spellen zo maken dat je geen high end videokaart meer nodig hebt die al het moois binnen de game laat zien op respectabele frame rates..

Problem solved✌️

[Reactie gewijzigd door Audione0 op 26 september 2024 22:19]

Die kennis is helaas met een rap tempo aan het vergrijzen...
Als ik naar high res mods kijk (cyberpunk voorbeeld), lijken er nog wel wat mensen te zijn die die capaciteiten wel hebben. Helaas doen ze daar bij de studio’s weinig mee.
De goal van publishers of investers is volume sales en daarvoor is zo breed mogelijk mainstream voor nodig om dat te maximaliseren en grootste platformen consoles 2 generaties en 4 generaties pc hardware. En daarmee games worden niet gemaakt voor top high-end gpu en cpu maar voor recommended target vaak beinvloed door 2 gen consoles.
Daarnaast de time to market. Dus productie moet efficient voor asset content team.
Game engines is 1st preoriteit productie art team efficientie dan komt performance.
Performance kan getweaked worden door game lichter te maken . Zware optimalisatie van engine maar ook content vergt heel veel meer productie tijd zo ook polish. Dus daar is tijd maar ook kosten limiet.
Dev zijn niet lui zij krijgen tijd opgelegd om hun ding te doen wat producer aan hand van productie resources de dev oplegd. Daar verschillen games ook in zelfde game in 2 jaar of 4 jaar maakt heel veel uit een 1jaar productie van simultaan film en game release zie dat 1jaar niet te doen is dat de dev voor alle aspecten te weinig tijd krijgen hun ding te doen. Waar bugs critical er nog in kunnen zitten en elk aspect van game niet uitgewerkt is. Maar bordeline niveau van net niet voldoende. En ruk buggy game. Lage optimalisatie polish kan vergeten en lage korte q&a traject.
Modders hebben deze restrictie niet, doen eigentijd puur game gedreven. Zulke games mod kunnen daardoor zeer zware hardware eisen krijgen.
Mogelijk omdat game engines voor efficiëntere productiviteit zeer breed data driven zijn. En modders kunnen dus wild gaan met data ook script zonder aan engine te hoeven aanpassen.

En daarmee is ultieme MT schaling ook niet de prioriteit. En mainsteam aan SMT cores 6/12 tot 8/16 gebaseerd op wat consoles heden bieden.

En dan krijg je dus die andere branche x86 cpu firma die prestige kroon voor game performance willen pakken dus extremer inzetten op single core performance en architectuur en heel belangrijk hoog klokbare transistors implementeren op moderne nodes en probleem aanpakken door hoge kloks 6ghz met zware vermogen penalty door die keuze ook slechtere transistor density.

En dan wat blijkt ARM apple silicon niet gericht op games hebben die drive voor aaa prestige kroon. Hebben met nu de M4 op magere kloks 4ghz de single tread prestatie kroon. Ipv hogere kloks kan je transistor density gaan wat kan gebruiken voor flink wat meer IPC op klokken dichter bij efficiëntie curve en dus hoge performance haalt tov x86
Dus kan al zuiniger. Ik heb het gevoel dat iNtel met lunarlake en arrowlake ook iets in die richting gegaan zijn. Veel meer IPC bij mindere klok en dus ook vermogen reductie.
Batt duur van lunarlake is goed maar 4+4 core is low end of ultra mobile sku. Vergelijk baar met A18/M4 een mac mini /studio M4 stock pro max is kwa hardware als 3 tiers aan console hardware. Dus als triple A game productie dat ook als target nemen.
Dure hardware m-pro m-max maar ja dat zijn g-kaarten ook.
Ik snap dat ze zo'n breed mogelijk publiek proberen te bereiken, maar als modders met wat texture wijzigingen een game kunnen oppoetsen tot een heel mooi uitziend spel, dan moet de developer die optie toch ook gewoon kunnen bieden. Zorg gewoon dat de PC-versie de 'super texture' heeft en je maakt gelijk duidelijk dat je wel zulke kwaliteit kan leveren (op apparaten die dat aankunnen) en dus niet blijft hangen op games die er al 4 jaar oud uitzien.

PS: Sorry, ik vind dit je tekst lastig om te lezen. Mochten andere mensen er ook last van hebben, hopelijk is het zo wat duidelijker geformuleerd.

1. Doelen van publishers/investeerders: Publishers willen zoveel mogelijk verkopen, dus richten ze zich op het ontwikkelen van games die compatibel zijn met een breed publiek en de meest gebruikte platforms. Dit betekent dat games meestal worden ontworpen om goed te werken op consoles van twee generaties terug en op pc's met hardware van vier jaar oud. Ze richten zich niet op de hoogste prestaties voor de nieuwste high-end GPU's en CPU's.

2. Productie-efficiëntie: Gameontwikkeling moet efficiënt zijn vanwege tijd- en kostendruk. De prioriteit ligt vaak bij het efficiëntie van het art-team, met game-engines die vooral gericht zijn op productiviteit. Optimalisatie en prestatieverbeteringen komen pas later en vereisen vaak veel meer tijd en middelen.

3. Beperkingen voor ontwikkelaars: Ontwikkelaars krijgen vaak beperkte tijd en middelen opgelegd door producenten, wat leidt tot games die niet volledig geoptimaliseerd of uitgewerkt zijn. Dit kan resulteren in bugs en matige prestaties, met als gevolg dat de games "bordeline" werken of buggy zijn.

4. Modding: Modders, in tegenstelling tot professionele ontwikkelaars, hebben deze beperkingen niet. Hierdoor kunnen zij games zwaarder maken en hogere hardwarevereisten opleggen door te spelen met data en scripts zonder de beperkingen van commerciële game-engines.

5. Hardware-optimalisatie: Verschillende hardwarebedrijven, zoals Intel en Apple (met hun ARM-gebaseerde chips zoals de M4), proberen zich te onderscheiden in game-prestaties door te focussen op single-core prestaties en efficiëntere architecturen, zoals hogere IPC (Instructions Per Clock) in plaats van simpelweg hogere kloksnelheden. Dit levert betere prestaties op, soms met een lager energieverbruik.

6. Vergelijking van hardware: Er wordt een vergelijking gemaakt tussen ARM-chips zoals de M4 van Apple en x86-chips zoals die van Intel. ARM-chips lijken beter te presteren in termen van energie-efficiëntie en transistor-dichtheid, terwijl Intel meer inzet op het verhogen van de kloksnelheid. ARM-chips, zoals die van Apple, presteren beter in termen van single-thread prestaties bij lagere kloksnelheden.
Voor gewoon gamen kan je met een 4090 ook prima uit. Het is meer met VR dat je echt tegen de beperkingen aan loopt.
Voor gewoon gamen kan je met een 4090 ook prima uit.
Ik mag hopen dat je "prima uit kan" voor "gewoon gamen" met een videokaart van rond de 1800 EUR.

[Reactie gewijzigd door The Zep Man op 26 september 2024 23:26]

Dat is ook al een aardige tijd zo hoor. Op wat slechte ports na kun je de meeste spellen nog prima spelen (aldanniet op wat lagere settings) met oudere GPU's.

Ik zit nu opeen 3080 en heb hiermee 0 issues op QHD 144Hz.

Hiervoor zat ik op een 1080 en ben eigenlijk alleen overgestapt wegens een goede deal op de 3080. Met de 1080 kwam ik ook nog prima uit de voeten.

Alle niet AAA games kan ik meestal sowieso moeiteloos spelen. De zwaarste van AAA games hebben soms even een wat zwaarder momentje maar gaan ook absoluut prima.
Als je de nieuwste technieken (zoals RTX en 4K) van je af kunt schuiven, kun je bijna alle games nog prima spelen met de budget kaarten.
Natuurlijk snap ik dat prestatie gelijk is aan wattage.
Niet helemaal; performance per Watt neemt wel degelijk toe, alleen niet meer zo snel als tot ca 20 jaar geleden. De rek gaat er steeds verder uit naarmate halfgeleidertechnologie dichter bij het einde van de wet van Moore komt.

Je zal deze kaart kunnen underklokken en undervolten zodat ie meer prestatie met minder TDP heeft dan een 4090. Maar het verschil zal marginaal zijn en de vraag is of het de paar duizend euro waard is wat zo'n ding kost.
tegenstrijdig met al andere technologische vooruitgang.
Iedere technologie heeft andere grenzen.
Performance per watt neemt wel degelijk toe. Maar grootste probleem is dat klok ceiling verder schuift en veel meer performance mogelijk wordt met meer watage eer je tegen klok ceiling loopt. Dat is omdat transistor implementatie em architectuur conservatief gericht is op klok schaling. De betere aanpak zou veel minder stages lagere schaling en voor hogere IPC gaan.

How er ook rekening mee dat we met modeX 320x240 640x480 800x600 voodo sli
1080P dat zag er al heel goed uit 1440p werd de meerwaarde al subtieler 4K subtielste
8K als je 1080p gamed heb je niet laatste gen midrange of hoger nodig 3 gens oude midrange voldoet nog. Heb je de mani niet om 144++ hz monitoren aan te sturen maar is 60 90 zat. Want dat is luxe. Merk je dat makkelijk een game pC langdurig kan gebruiken. Op enkele games na die ruk lopen omdat tech demo zijn of slechte ports

Met dezelfde game eisen 1080p 8core cpu game setting hoog niet extreem wat setting uit die amper wat toevoegen in de game beleving en met 2 3 gens verder krijg met dezelfde vermogen meer performance.
Want console is sterkste voorbeeld van formfactor met vermogen limiet. En dus constante.
Grof gezien
PS4 vs PS4 slim is same performance minder vermogen.
PS4 pro is same vermogen meer performance naar ps5 same vermogen meer performance vs PS4pro. En PS5 pro vs PS5 same vermogen met meer performance.

Bij PC is hardware component keuze niet op vermogen constante gericht.
We zijn als PC gamers iig ik vanaf 80386 van voeding 250 330 450 550 650 850 en dat met midrange sub high-end g-kaarten. Luxe gamers met 4090 zijn de 1KW al voorbij.

Vroeger had je voor basic pc gebruik lelijke beige ding met 250 wat voeding. Dat doe tegenwoordig met NUC. 30 tot 60watt.
Voor mensen met 20 jaar het zelfde gebruik van pc ,zijn hun 4de pc stuk zuiniger geworden en kunnen veel meer. VGA naar 4K scherm. Beige desktop of tower naar nuc.
Uiteindelijk wordt het veroorzaakt doordat we steeds dichter bij fysieke grenzen van halfgeleider technologie komen (oftewel steeds dichter bij het einde vd wet v Moore). Essentie daarvan is dat bij steeds kleinere afmetingen van transistors de lekstroom (en dus lek vermogen) per transistor minder snel afneemt dan het tbv schakelen opgenomen vermogen.
Die RTX 5090 klinkt goed m.b.t. specificaties, de RTX 5080 met ‘maar’ 16GB RAM ook al is het GDDR7, daar wil ik eerst weleens reviews van zien. Vergeet niet de GTX 1080 Ti kwam in maart 2017 al met 11GB GDDR5x (wel een stuk trager), maar toch.

Voor mijn gevoel houdt nVidia de hand op de knip met geheugen hoeveelheid, om mensen maar sneller te laten upgraden na een paar jaar. De midrange RTX 40 kaarten zitten op het randje.

[Reactie gewijzigd door Jumpman op 26 september 2024 22:21]

Alsof 16GB niet genoeg is voor de komende 4-5 jaar?!? Ik gebruik nog steeds een RTX 3080 met 10GB (ook alweer 4 jaar oud) op 3840x1600 resolutie en heb daarmee tot nu toe met geen enkele game problemen, dus dat zal met 16GB voorlopig ook niet gaan gebeuren.. Zeker niet voor de overgrote meerderheid van PC gamers die nog steeds op hooguit 2560x1440 resolutie spelen.. En anders koop je toch lekker een 5090 of AMD videokaart met meer VRAM als je echt denkt dat je dat je daarmee beter af bent, probleem opgelost..
Op 4k had ik bij hogwarts heel veel pop in van textures en dat is direct te linken aan te weinig geheugen op je gpu. Ook 3080. Toen maar een upgrade gedaan.

Op lagere resoluties en settings merk je het minder dat klopt, maar moderne games passen nu dynamisch je lod aan dus meer pop in van textures. Je merkt het dus niet meer in je fps maar je ziet het wel.

[Reactie gewijzigd door Torched op 27 september 2024 07:21]

400W-600W is echt absurd voor een grafische kaart.
Helemaal mee eens, nog niet zoo lang geleden werden er altijd grappen gemaakt over AMD kaarten, maar dit is gewoon, nou ja een lekker kacheltje erbij voor in de winter.
De prestaties dus ook. Er zullen ook heel zuinige kaarten komen zoals een 5060 en 5070 met nog steeds heel veel prestaties maar wel heel zuinig.

Je moet niet kijken naar een 5090. Want degene die dat kopen zijn of echte diehard gamers en anderen hebben dat geweld niet nodig.

Als je straks de prestaties zal zien zullen ze performance/watt weer beter zijn geworden dan de goede 4000 serie nu ook al is.

We zeggen toch ook niet een vliegtuig verbruikt veel dat is absurd? Het gaat toch om de verhouding?
Intel had voorheen de strategie Tik Tok. Wat Nvidia ook had.
Dat wilt zeggen: bij de tik gaat de performance omhoog en bij de tok gaat het efficiëntie omhoog en het verbruik omlaag.
Nvidia heeft nu de obsessie om steeds meer performance eruit te persen zonder maar enige vorm van vermogensbeperking toe te passen.
Nvidia is een totaal verkeerde weg ingeslagen.

Ik had eerlijk gezegd verwacht dat Nvidia met de 5000 serie juist een zuinigere kant op zou gaan. Helaas.
ik heb nu de 4090 en zal zowiezo niet upgraden maar het vermogen schrik ik van. overigens herinner ik mij dat voordat de 4090 uitkwam er al verhalen rond gingen over absurd hoog wattage verbruik van de 4090. dat viel achteraf wel mee. ik heb veel plezier van mijn 4090 omdat hij gewoon alles kan inclusief alle games die ik speel op epic in 4k.

ik ben content creator en vond destijds het prijsverschil tussen de 4080 en 4090 zo minimaal weggeschreven over 6-7 jaar dat ik het wel waard vond. wie weet doe ik er 6 jaar mee. ik verwacht te upgraden ergens in 2026 als het om pc gaat naar de opvolger van de AMD 9950x en de 4090 kan voorlopig nog wel mee.

elk jaar komt er iets snellers uit maar je moet ook kijken of het nodig is. ik ben overgestapt van een gtx 1080 naar de 4090. dit zal hem onder andere in het extra geheugen en de extras die de rtx kaarten boden en software die de gtx lijn niet ondersteunde. ik gebruik bv dagelijks de broadcast software.
Ben benieuwd hoeveel mensen geld willen uitgeven aan een GPU waar je 2 zeer nette electrische fietsen voor kan kopen want dit ding gaat zeker richting de 3,5 a 4 k kosten als we de vorige generatie ermee gaan vergelijken. Ik houd het wel bij AMD met iets realistischere doelen voor de nieuwe generatie.
als er nu 1 item overpriced is zijn het wel elektrische fietsen...

Ontopic : van zodra de custom versies van die 5090 er zijn, en de nieuwe 3D cache modellen van AMD de moeite blijken, komt er hier een full upgrade en wordt de huidige PC er eentje voor vrouwlief, die 5090 specs lijken wel erg de moeite nu. Eindelijk een 512bit-geheugenbus O+ , iets waarmee ze vroeger altijd de net niet top kaarten mee dichtknepen. Ik ben benieuwd wat zo'n 512 bit bus gaat geven met snel geheugen, wellicht ideaal voor hogere framerates tov de 4090 op 4K.
Waar vind jij een zeer nette elektrische fiets voor 1750?
De fiets van Lidl met Blaupunkt motor aka Bafang bbs01 is een goede fiets ;)
Nee dankje.. verschillende standaarden dus
Als je verstand had van elektrische fietsen wist je dat Bafang zowat nummer 1 is van de beste motoren ;)
Maar het gaat ook ok de rest van de fiets en comfort. Ik ga voor een bosch of Shimano
de rest is ook dikke prima, bij een stadsfiets kun je niks fout doen ;) als jou dat 3x het bedrag waard is voor minimaal comfort meer, wat trouwens gewoon tussen je oren gaat zitten is dat prima.
Even gekeken en 3x niks :)
koop liever een mountainbike dan heb je veel beter spul voor hetzelfde geld 😂 als je voor een betere schakelgroep wil gaan en dergelijke.
Ik fiets nooit dus dat geld bespaar ik dan weer lekker :) voor mij is een gpu dan veel nuttiger dan een fiets

[Reactie gewijzigd door Llopigat op 26 september 2024 23:04]

Weet niet wat voor elektrische fietsen jij koopt, maar de mijne full option loopt al snel tegen de 6k aan. Daar kan ik 2 5090s van aanschaffen.
Wat een vergelijking. Ik ben echt helemaal niks met een elektrische fiets als ik wil gamen...
Nog een paar jaar en je moet krachtstroom aan laten leggen om je PC met een stevige videokaart van power te voorzien.
Vroeger had meen 1080ti in sli had ook 600 watt nodig.
Anoniem: 454358 @k99526 september 2024 22:33
en 2 van deze dus 1200 watt
En dan nog een aardige CPU, wat andere dingen, en het vermogen loopt makkelijk op richting de 2kW.
Ik vind het niet normaal.
Persoonlijk zie ik liever dat ze hun kennis steken in het maken van CPU's en video-kaarten zodat je een energie-zuinig systeem hebt met dezelfde eigenschappen als zo'n straalkachel.
Sorry dat is onzin de max cpu is iets van een 250 watt en dat is voor een gaming systeem overkill maar stel. Moederbord, ram en ssd nemen nog een 100 in, dan zit je dus aan een 1000 watt piek belasting.
Er is geen sli meer. Dus tenzij je ze apart zet voor berekeningen ken je maar 1 kaart gebruiken. En 2kwh?
Zo een systeem zal onder load max 800 watt aantikken als je dat al haalt.

Verder worden ze steeds zuiniger, maar doordat mensen steeds meer willen en er nu dus ruim 21k cores in zitten stijgt het verbruik.

Maar als je kijkt bv naar mijn 4080 super met een kleine undervolt gebruikt die nu zo een max 230 watt piek en 7% minder prestaties dan op vol vermogen van 320 watt.

Als je kijkt naar bv de rtx 3090 en de rtx 4070 super is het verbruik ongeveer gehalveerd en de prestaties hetzelfde en soms beter. Enkel minder ram.

En dat is in 1 generatie.

Dus je opmerking is echt geheel onjuist. Een 5090 zal echt voor 0.5% of minder van normale mensen gebruikt worden. De meeste doen het met kaarten die veel minder zullen verbruiken.

Een 5070 of 5060 zal wellicht net een 100/150 watt verbruiken en richting de 3090 prestaties gaan.
Ja maar nu is SLI geen ding meer.
moderne gpu's hebben geen SLI meer
600 watt dus, de eerste 1000watt psu dateert van 2005, we zitten dus al lang aan deze waardes dat is echt niet plots nu.
De 5090 krijgt volgens de bron een stroomvereiste van 600W
Gaan we weer. :(
Nvidia: maak eens kaarten waarbij het vermogen niet boven de 200W komt. Het kan wel, maar de wil is er blijkbaar niet.

Zoals Nvidia nu doet, zou mijn AMD Ryzen 9 7950X nu zo'n 1.000 W moeten verbruiken.

Op dit item kan niet meer gereageerd worden.