Leaker: Nvidia Geforce RTX 5090 krijgt monolithisch chipontwerp

Nvidia-leaker kopite7kimi claimt dat de komende GB202-gpu een monolithisch chipontwerp krijgt. Deze gpu zou voor de komende GeForce RTX 5090 worden gebruikt. De lay-out van de geheugenmodules van de RTX 5090 is volgens geruchten ook compacter gemaakt.

Kopite7kimi gaf antwoord op een vraag van een X-gebruiker onder een artikel van techwebsite VideoCardz waarin geruchten rondom de gewijzigde interne lay-out van de GeForce RTX 5090 worden besproken. In dat artikel wordt aangegeven dat de interne lay-out van de GDDR7-geheugenmodules compacter zal zijn dan de lay-out van de GDDR6X-modules in de RTX 4090. Er zouden op die manier ook meer geheugenmodules geïmplementeerd kunnen worden. Kopite7kimi schreef dat de GB2020-gpu, die vermoedelijk in de RTX 5090 gebruikt wordt, een monolithisch chipontwerp krijgt. Meer details werden niet gegeven.

Er gaan al langer geruchten rond over de komst van Nvidia's GeForce RTX 50-serie. Volgens eerdere claims van kopite7kimi wordt de RTX 5090 gebaseerd op een GB202-gpu, terwijl de RTX 5080 een lager gepositioneerde GB203-chip krijgt. De volledig ingeschakelde GB202 en GB203 krijgen naar verwachting respectievelijk 192 en 96 streaming multiprocessors. Daarnaast werd eerder gespeculeerd dat de RTX 50-serie gebruikmaakt van GDDR7-geheugen. Verschillende fabrikanten hebben gezegd te werken aan dit geheugentype, dat hogere snelheden levert dan GDDR6 en GDDR6X.

Kopite7kimi gaf begin april ook aan dat de RTX 5080- en RTX 5090-videokaarten aan het einde van dit jaar op de markt komen. Nvidia heeft de gpu’s nog niet officieel aangekondigd.

Door Jay Stout

Redacteur

27-05-2024 • 13:08

127

Submitter: CriticalHit_NL

Lees meer

Reacties (127)

127
126
52
7
0
34
Wijzig sortering
Wat is een monolitisch chipontwerp?
Je kan een monolitisch chip zien als een puzzel, waarbij elk puzzelstuk met dezelfde hoogte en dimensies gemaakt is. Je creëert (ontwerpt) elk puzzelstuk zodat binnen de dimensies en zo kan je een plaatje op leveren. Met nieuwere fabricage processen zou je meer puzzelstukjes in een mm^2 puzzel kunnen plaatsen, maar de kosten hiervan stijgen steeds meer.

AMD, Intel en NVIDIA zijn ook bezig met een "chiplet" chipontwerp, hierbij kan je een puzzel maken waarbij elk puzzelstuk zijn eigen afmeting en dikte kan hebben om zo hetzelfde soort resultaat te ontwikkelen. Het voordeel hiervan is dat bepaalde puzzelstukjes goedkoper zijn om te ontwikkelen en te plaatsen. Het nadeel kan zijn dat niet bepaalde zaken niet altijd zo goed bij elkaar past en het verhoogt de complexiteit van de chip design. Soms kan het ook zijn dat bepaalde secties van je puzzel groter zijn dan je zou willen en het gehele puzzel toch iets groter is dan je zou verwachten.

Iniedergeval, de fabricage processen voor het ontwerpen en produceren van de chip zijn fors in kosten gestegen, chiplet design is een oplossing hiervoor, aangezien je bepaalde secties van je chip op een goedkopere fabricage processen kan ontwikkelen. Monolithisch chipontwerp doet dat niet en je creëert je chip met 1 process.

Tweakers heeft hier nog een artikel hierover;
review: Chiplets: de grote toekomst van kleine chips
Ik dacht dat 1 van de redenen was dat je hierdoor ook minder hoeft af te keuren? Als je 1 grote chip maakt en er zitten een paar fouten op je wafer dan moet je hem al weggooien of als een lagere geplaatste chip verkopen omdat niet alles actief is. Als je Chiplets gebruikt en er een paar fouten op de wafer zitten haal je de defecte chiplets eruit maar kun je de overige nog gewoon gebruiken voor hig-end chips.
Dat ook inderdaad. Maar er kleven zoals @slamhk al zegt ook andere voordelen aan vast. AMD gebruikte bijvoorbeeld voor Zen2 en Zen3 dezelfde IO-die en het zou me niks verbazen als Zen5 straks dezelfde IO die krijgt als Zen4 ie al heeft. In een interview met een van de leidende personen van de chipdivisie van AMD zeiden ze bijvoorbeeld dat dat enorm veel tijd en moeite heeft bespaart en dat ook de ontwerpers liever aan de cutting edge CPU-cores sleutelen dan aan de media-engine en dat het dus ook voor de motivatie van de medewerkers nog wel zo z'n voordelen heeft.

Bijkomend voordeel in geval van den AMD Zen2 (en nieuwer) architecturen is dat het een krankzinnig flexibiliteit oplevert voor het design. Tegenwoordig kan AMD met 2 CPU-chiplet designs en 2 IO-die designs alles afdekken van krachtige laptops tot de beste gaming-CPU tot krachtigste server-CPU ter wereld. Meer vraag naar desktops? Gewoon wat (veel goedkopere) IO-dies erbij produceren. Veel yields die niet geweldig klokken? Huppa in de servers die toch alleen 2.x GHz halen. Vraag na meer CPU-cores in een segment? Bouw een IO-die die met wat meer chiplets overwegkan en boom: 96-core Threadripper. Vraag naar super-efficiente servers? Bouw een tweede CPU-chiplet die je kan mixen-en-matchen met je regulieren chiplets op dezelfde IO-die en ineens kun je 192-beesten bouwen.

Voor al die verschillende use-cases zit je anders al gouw een dozijn verschillende ontwerpen te maken om te voorkomen dat je gigantische hoeveelheden silicium zit uitteschakelen (zelfs als de architectuur fundamenteel hetzelfde blijft is dat enorm kostbaar).
krijg je dan niet meer van...komen niet door de keuring heen?
Een monolithische chip bestaat uit één geheel. AMD gebruikt chiplets waarbij verschillende chips aan elkaar worden geplakt met een soort brug ertussen, wat de productie goedkoper maakt. Volgens mij gebruikt Nvidia alleen chiplets voor de professionele markt, maar dat weet ik niet zeker.
Tenzij ik iets heb gemist gebruikt NVIDIA nog geen chiplets voor hun professionele markt, maar met NVLink koppelen ze meerdere chips aan elkaar. En met de laatste iteratie van NVLink is het mogelijk dat je applicatie niet meerdere GPUs ziet, maar de GPUs vormen samen 1 grote GPU (net zoals de M1 Ultra).

[Reactie gewijzigd door slamhk op 22 juli 2024 14:49]

de Blackwell GPUs voor datacenter zullen ieder twee "chiplets" gebruiken die met een chip to chip interface aan elkaar geplakt worden.

Van hun product page:

"A New Class of AI Superchip

Blackwell-architecture GPUs pack 208 billion transistors and are manufactured using a custom-built TSMC 4NP process. All Blackwell products feature two reticle-limited dies connected by a 10 terabytes per second (TB/s) chip-to-chip interconnect in a unified single GPU."

https://www.nvidia.com/en...s/blackwell-architecture/

Als je goed kijkt naar de foto van de GPU aan de top van de pagina, dan kun je de twee dies naast elkaar zien zitten.

De Blackwell GPUs worden daarna op een zogenaamde NVIDIA GB200 Superchip geplaatst. Deze Superchip heeft dan weer twee Blackwell GPUs in combinatie met een Grace CPU (72 core ARM gebaseerde CPU die NVIDIA inhouse ontwikkeld heeft) op een PCB zitten, allemaal met elkaar verbonden met een high speed NVLink interconnect (900 Gigabytes/seconde bidirectioneel).
Een monolithische kernel is in de informatica een kernel waarbij alle diensten, of het merendeel ervan, door de kernel worden uitgevoerd, dus in supervisormodus. Monolithisch is afgeleid van de Oudgriekse woorden monos, alleen of eenzaam, en lithos, steen of gesteente, dit omdat de kernel het merendeel van de diensten, zoals toegang tot hardware via een bepaalde interface, geheugenbeheer, etc., zelf afhandelt, terwijl dit niet het geval is bij een microkernel, de tegenhanger van de monolithische kernel.
Wikipedia: Monolithische kernel
Nee in deze context gaat het om een chip die uit 1 stuk bestaat, in tegenstelling tot chips dit uit meerdere ‘chiplets’ bestaan.

Monolitische chips zijn duurder omdat er meer snijverliezen optreden aan de randen van de wafer, en als er 1 klein stukje van de chip een fout bevat kan de hele chip in de vuilbak (tenzij ze in een lager gepositioneerde kaart gebruikt kunnen worden met een deel van een chip uitgeschakeld).

Chiplets zijn dus goedkoper om te produceren, maar die moeten een vorm van interne communicatie hebben om samen te werken (met extra lagency tot gevolg).

Voorbeeldafbeelding:
https://cdn.wccftech.com/...18-Could-Be-MCM-Based.png

Volgens AMD is hun chiplet ontwerp ongeveer 10% groter qua oppervlakte dan een monolitisch ontwerp -> dus 10% overhead aan extra interne communicatie binnen de chip, tegenover een 40% kostenbesparing.
https://www.techpowerup.com/img/wxr6wz3w5QhbjpO4.jpg

[Reactie gewijzigd door Malantur op 22 juli 2024 14:49]

Voor 1 of meerdere foutjes zitten er al redundante functies op de chip. Bij veel meer fouten gaat hij door naar bv een 5080.
Dit heeft niks met de context te maken.

Het gaat hier om GPU chips. In dat geval betekent het dus dat Nvidia voor z'n GPU een enkele, grote chip gebruikt. En geen "chiplet" concept, waar, zoals ook door @Expanse aangegeven, meerdere kleine chips aan elkaar gekoppeld worden om tot dezelfde prestaties te komen.

Allemaal details die, als het goed is, volledig irrelevant zijn voor de eindgebruiker. Die heeft immers enkel te kijken naar prijs/prestaties/verbruik. Desondanks natuurlijk niet minder interessant als je je voor de techniek interesseert.
Een (monolithische) kernel is het hart van een OS en dus software. Dat heeft niets met chip design te maken.
5090s zullen ongetwijfeld beesten van kaarten zijn, maar zal ook wel dan rond 2500 Eur + zitten.
Beetje te dol wat mij betreft die high end kaarten. 4090s zijn nog steeds 2000 Eur, dan vind ik een 3090 toch een veel betere bang for buck.
Ik snap dan ook echt niet dat iemand meer dan 600-700 voor over heeft. Alles daarboven is voor mij het niet waard.
Bij professioneel gebruik, al helemaal met compute, kunnen dit soort kaarten behoorlijk wat tijd schelen. Officieel zijn daar de Quadro kaarten voor maar die lopen achter qua releases, zijn nog een pak duurder en hebben ook niet persé voordelen voor iedere toepassing.
Precies dit. Wij doen ons CUDA-spul op veertig GTX1080 Ti's. Prima kaarten en ze gaan als een tierelier.
Ik vlieg in DCS (Digital Combat Flightsimulator) en andere flightsims met een PIMAX Crystal op mijn hoofd.
Kan je vertellen dat ik zonder Quadviews naar een slideshow zit te kijken zelfs met een RTX4090.

RTX4090 heeft voor mij dus zeker wel een meerwaarde en het is maar net wat je hobby is toch? De één geeft duizenden euros uit aan een auto, motor, vakantie, fiets of noem het maar op en ik stop het in een videokaart.

No harm done ;)
Mijn 4090 was inderdaad veel goedkoper dan 1 van de fietsen van mijn vriendin 😁
Ik vind scherpte erg belangrijker, daarom gane ik op 4k. Bij VR wil ik ook altijd zo scherp mogelijk hebben vooral bij DCS World inderdaad.

Ik speel regelmatig ook met Unreal Engine en ik vind character design geweldig om te doen, naast 3D belichting. Ik werk soms ook met DAZ3D en Nvidia Iray, waar renderen gewoon een uur tot anderhalf uur in beslag neemt.

Ik heb zelf nu een RTX 4080, maar zit te denken om een RTX 5090 te pre-orderen.
Voor CUDA doeleinden is een 4090 letterlijk 8x-10x zo snel als een 1080 Ti. Heeft meer dan dubbel zoveel VRAM en verbruikt minder dan de helft van die 8 1080 Ti's. Op de schaal van 40 stuks lijkt me dat toch het onderzoeken waard.
Dat ligt volgens mij heel erg aan de workload, daar komt bij dat je TFlops niet per generatie met elkaar kan vergelijken. Zelfs binnen een generatie daar alleen naar kijken is niet meer een indicatie van de performance.
Sluit niet uit dat het onderzoeken hiervan erg nuttig kan zijn.
TFlops is redelijk te vergelijken, vooral naar "voren", de nieuwere generaties hebben bijna allemaal een betere cache layout en memory controller, dus je als je de TFlops haalt op een oude GPU dan haal je die waarschijnlijk ook wel op een nieuwe.
Wat vind je recent? Want er zijn 2 recente architecturen van Nvidia en AMD waar dat dus helemaal niet opgaat. Bij Nvidia is dat Turing (2000) naar Ampere (3000), waardoor je door een dubbel aantal Cuda cores per SM die vergelijking lastig kan maken. Bij AMD zie je iets vergelijkbaars als je naar RDNA2 (6000) naar RDNA3 (7000) gaat.
In beide gevallen is het aantal TFlops enorm gestegen; maar de extra winst in games is te verwaarlozen. Nu zal dat met gpgpu compute beter schalen, maar dan zou je dat moeten gaan benchmarken en ik kan mij voorstellen dat echt niet elke workload zo goed schaalt.
Het hangt puur af van hoeveel compute je per item die je uit memory trekt doet. Als je ook maar iets doet wat interessant is, dan kom je een heel eind ook op Ada Lovelace. Daar schalen de TFlops nog steeds heel goed, al helemaal vergeleken met Pascal. Dat dat voor games niets doet maakt verder een stuk minder uit.
Denk je dat een paar 4090's zijn 40 1080ti's niet kunnen vervangen ongeacht workload ?
Dat hoef ik niet te denken want die 8-10x haal je nooit in (alle) games en dat is meetbaar getest, Gemiddeld genomen is een 4090 maar 3.3 x sneller dan een 1080 Ti. In dit geval heb ik het over games; maar als je het over compute workloads hebt en je pakt specifiek FP64, dan is die 4090 echt geen 8-10x sneller. Zie onderstaande link voor de cijfers:
https://www.techpowerup.c...geforce-gtx-1080-ti.c2877

De winst per gpu generatie stagneert steeds meer dus je hebt niet meer die grote sprongen in performance als je van generatie naar generatie gaat. Je ziet inderdaad soms nog wel grote winst in specifieke workloads.

Dit is een beetje loze discussie, want ik geloof best dat er specifieke workloads zijn waar de 4090 rondjes loopt om een 1080Ti. Alleen stellingen dat hij dat met elke workload doet zijn gewoon ongefundeerd.

Als je claims doet over de 4090 tegenover de 1080 Ti, wees dan heel specifiek in de aantallen en in de workload.
De 4080s zijn inderdaad een heel stuk sneller, maar er is nu even geld voor een upgrade, We vragen steeds budget aan voor projecten, en er zou een keer iets een machine learning project oid moeten komen waarin budget is voor een stel nieuwe GPUs, maar dat is er nu even niet. Geld stroomt dun in de wetenschap, momenteel.
Niet zo handig, 4090 is 8x sneller in CUDA. En meer dan 4x zo efficient.

FP32 Performance (TFLOPS) 11.34 82.58
Performance per Watt (GFLOPS/W) 0.04536 0.183511

Theoretisch gebruik je 10 kw/h met je 40 kaarten.
Met 6x een 4090 heb je meer performance tegen max 2.7 KW/h.

Afhankelijk van hoeveel uren je ze gebruikt kan het best interessant zijn om 4090 of straks 5090 te overwegen. Stroomtechnisch, maar ook in het doorlooptijd. Met 10 kaarten ben je bijna 2x zo snel met de helft van het vermogen.

[Reactie gewijzigd door OriginalFlyingdutchman op 22 juli 2024 14:49]

Toen we ze kochten was de 10xx generaties de nieuwste generatie. En door politiek hoeven we zelf de stroom niet te betalen, maar zouden we een upgrade wel zelf moeten betalen.
Niets van. Los van het feit dat er nog een RTX Axxx lijn is, is het xx90 model daar exact voor gemaakt. Dat is al zo sinds de eerste aankondiging van de 3090 "BFGPU". Ik snap niet dat mensen anno 2024 nog steeds roepen dat RTX kaarten niet voor professionele doeleinden gebruikt worden.
Vind ik ook raar gezien ze Quadro al lang vervangen hebben met RTX:

https://www.nvidia.com/en-us/design-visualization/quadro/

Om precies te zijn 13 november 2018..... 5+ jaartjes pas ;)
Ik koop een keer in de paar jaar een nieuwe kaart, dan heb ik dat er best voor over om de komende 3 jaar beter te gamen. Wat is nou die duizend euro op 3 jaar? Zo denk ik ook dat dit eindelijk mijn 3090 gaat vervangen (die toendertijd ook boven de 2k was...)
Een veel betere strategie is elke generatie een midrange kaart halen ipv elke x aantal generaties een high end kaart. Zo zit je constant bovenop nieuwe technologie en stijgt de performance van je kaart met hoe demanding games worden.
Dat kun je helaas niet zo eenvoudig zeggen.

Case en point: de 1080ti. Die kon mee tot aan de 4xxx generatie.
Je had beter de 1080ti kunnen kopen en pas een upgrade bij de 4070 oid. Als je een 1070 had gekocht dan had je waarschijnlijk tussendoor 2 upgrades genomen, uiteindelijk een kaart gehad die even goed als de 1080ti was geweest, totaal duurder uitgeweest terwijl je ook al die tijd van een 1080ti had kunnen genieten.

4090 is performance/dollar ook een betere koop geweest dan de 4080. Stel de 5080 wordt vergelijkbaar met de 4090 qua performance (redelijk aannemelijk imo) dan ben je beter uit met de 4090 dan een 4080 -> 5080. Je hebt dan voor hetzelfde geld 2x generaties de performance van een 4090. Zeker als je het relativeerd naar de total system costs (betere kaart is dan +30% totale kosten ipv +100% gpu kosten)

Afgelopen jaren schrok ik zelf echt hoe ENORM duur de mid-range kaarten zijn geworden. Zeker als ik de kosten van een
Ik ben voor de 4090 gegaan, en hoewel ik blij ben met mijn keuze en de kaart, vind ik het enorm moeilijk om vrienden/collega's een 'normaal' geprijsde kaart aan te raden. Zeker met hoe weinig geheugen nvidia in zijn kaarten stopt en hoe onaantrekkelijk ik amd vind om aan te raden aan de gemiddelde gebruiker.


Beste oplossing is natuurlijk gewoon enkel 5 jaar oude games te spelen.
Ik dnap niet waarom mens3n soms 2000 euro aan een zomer vakantie uitgeven voor maar 2 a 3 week plezier.
Geinig, die gebruik ik altijd als motivatie naar mijn vrouw toe als ik iets van tech wil kopen waar we minimaal 5 jaar lol van hebben en ze wel gewoon een paar duizend euro naar een all-inclusive op Mallorca wil brengen.
Als ik de keus heb, ben ik pleite. Lekker op het strand.
Hehe, goed punt! Zo is het maar net, de een geeft dit uit aan dat, de ander aan zus. Ieder z'n ding toch :)

Gamen is eigenlijk helemaal niet zo'n dure hobby als je kijkt wat het je per uur kost. De xx90 is dan relatief wel een pak duurder als andere kaarten, maar absoluut over al die uren en jaren lol valt het ook wel weer mee.
Die 4090 gaat 2e hands ook weer weg voor een stevige prijs. Per saldo valt het dan wel mee wat het heeft gekost. Mn 3080 heeft me destijds 400 gekost, 2,5 jaar plezier van gehad. Mn 4090 nog even zien wat die oplevert als de 5090 er is.
Snap ik ook niet van een Tesla....of 3 milj voor klein huis in Amsterdam :)
Voor mij wel, maar dat is ook meer de toepassing en het aantal schermen wat ik aanstuur! Gelukkig voor ieder wat wils!
Verschilt eigenlijk wat is een goede koop en slechte koop, als je een gamer bent die veel speelt met een specifiek setup dan zou dit ongeacht 2500 of niet een prima koop kunnen zijn.

Maar natuurlijk vice versa kan het ook waar zijn natuurlijk.

Zijn ook vele Zakelijke use cases en ai related tasks.
De RTX XX90 kaarten moet je ook niet zien als een echt consumentenproduct. Ze zien er wel zo uit met de gamer design koelers, maar in feite is het gewoon een soort Titan. Net geen Quadro, maar ook niet echt Geforce (met name qua prijs).

Ja, je hebt gamers/enthusiasts die het allemaal niet zo veel boeit wat het kost en alsnog het absolute topmodel kopen. Die klanten houd je altijd. Maar voor de normale gebruiker stopt het bij de 80 kaart toch echt wel. Het is niet voor niets dat de RTX 4070, ook al een soortvan prijzige kaart, meer dan 2x zoveel marktaandeel heeft in de steam hardware survey tov de 4090.

Maar de 4090 is wel enorm goede value voor compute doeleinden. Hij kost een fractie van een "echte" quadro met hetzelfde aantal cores en dankzij die gamer koelers kan hij ook nog eens een veel hoger wattage langdurig koel houden. Zo lang je voor je model niet meer VRAM nodig hebt dan de 4090 kan bieden, is het een uitstekende workstation kaart.
xx90 reeks kaarten zijn heerlijk om mee te werken. (3D visualisatie & rendering) Veel cores en veel geheugen op 1 kaart. Lekker eenvoudig en veel snappier tov multi GPU workstations.
Als bezitter van een 4090, van de lijst videokaarten die ik de afgelopen 20jaar in mijn bezit heb gehad, is dit met afstand de beste.

Waarom? In elke game die ik speel haal ik met gemak 120+ fps op 4K met meestal alle opties vol open. En dat is precies wat ik wou. De prijs? Tja dat is een gevolg van mij behoefte. Ik betaalde er 2100 voor maar 3100 had ik ook nog redelijk gevonden gezien de prestaties.
Tja, natuurlijk heb je gelijk als je normaal redeneert. Maar er zijn genoeg mensen die het beste van het beste willen hebben en daarvoor willen betalen. Daar zijn deze kaarten voor.
Gelukkig is er genoeg te kiezen en als intel met de 2e generatie gpus komt zal dat hopelijk nog beter worden.
Voor mij hangt het echt er vanaf wat de performance is van de kaart. Ligt deze dusdanig hoger tov bijvoorbeeld de 5080, dan wil ik het nog wel overwegen. Sowieso wil ik een nieuwe build maken het einde van dit jaar/begin volgend jaar, dit heb ik specifiek uitgesteld voor de 50 series.
Ach ja mensen hebben een hobbie, buren doen beide aan rijden met motoren. Die kosten 15k het stuk plus nog eens 4-5k allerhande onkosten per jaar.
Als het om gamen gaat: De 4090 is zo ongeveer de enige kaart waarmee je op 1440p met alle race tracing opties aan fatsoenlijk boven de 100 a 120 fps uitkomt.
Dat verschilt van persoon tot persoon. Ik heb een 4090. Veel te dure kaart maar ik geniet er met volle teugen van als liefhebber.

Ik heb vrienden die 15.000 euro steken in een motor waar ze minder uren in de maand plezier aan hebben. Ook helemaal prima overigens, ieder zijn ding. In mijn ogen mag een hobby geld kosten.

[Reactie gewijzigd door DLSS op 22 juli 2024 14:49]

Vroeger betaalde je inderaad voor de flauwekul en de heb. Tegenwoordig kan het best uit zeker ook om een high end kaart te kopen zeker omdat de ontwikkelingen wat langzamer gaan en je je GPU niet meer na 2 jaar bij het grof vuil hoeft te zetten.
Een 4090 is 60% duurder dan een 4080. Kijk je naar bijvoorbeeld Cyberpunk dan is de prestatie ook 50% beter. Dus dan betaal je slechts een kleine premie voor de extra prestatie, een tientjeskwestie.
Mijn laatste PC was alweer zo'n 15 jaar geleden en in de tussentijd altijd laptops gehad. Ik heb altijd gezegd dat als ik nog een keer een PC bouw dat ik een dikke bak wilde hebben. Niet perse omdat ik het nodig heb, maar als ik dan een keer geld uitgeef voor een PC wil ik gewoon dat er een beest staat.

Nou vond ik de 4090 een beetje overdreven, zag het nut er niet echt van, maar wel een 4080 gekocht die toen 1300 euro was en eerlijk gezegd nog geen moment spijt van gehad...
Ach...een hobby mag wat kosten. Sommige mensen geven duizenden euro's uit aan het pimpen van hun auto, en ik weer aan mijn pc die nooit snel genoeg is.
Is het ook niet eigenlijk. Heb wel een 4090. Terwijl je weet dat tie niet meer waard is dan 400-500 euro.
Ik ga nu tot 1000, inflatie enzo
Heb nu 6900xt (in de slechte tijden gekocht, wel via and dus voor redelijk normale prijs). 2000 is echt te veel, grote kans dat ik wel voor 5080 ga (ooit de gyx580 gehad, in sli :-). Maar wellicht wacht ik nog een generatie.
Denk dat de 5080 niet zo bijzonder word (relatief)

Dezelfde of net wat minder raster dan 4090, wel betere raytracing, maar een pak minder vram dan 4090.

Het ligt echt aan de prijs, en Nvidia kennende zal dat wel weer teleurstellen. Wanneer mensen hun 4090 wegdoen voor leuke prijzen want 5090, zou ik geen 2 keer nadenken als je toch al in dit segment aan het shoppen bent.
Ja goed punt. Hangt echt van de prestaties af en de stap vanaf de 6900xt. Ik speel overigens (nog) niet in 4k en ook wel spellen die geen drol vergen van de gpu. Het moet wel een dikke stap zijn, anders wachten we gewoon nog ff. Ik denk dat de meesten wel vrij rationeel kiezen, behalve als.je echt fan bent of geld over hebt...
Het ligt sterk aan de toepassing. Voor realistische VR toepassingen zijn de GPU's in veel gevallen eigenlijk nog niet krachtig genoeg. Als je bril al meer dan 2k kost, dan is €2500 voor een kaart om het aan te sturen ook weer niet een onoverkomelijke drempel, lijkt me. Maar voor een beetje CS is het inderdaad wel tamelijk duur.
Ja precies dit. Ik heb een 4090 en die kan ik met gewoon 2D gaming gewoon niet 'vol' krijgen. Zelfs niet met cyberpunk 2077 met RTX Overdrive aan.

Maar zodra je naar VR gaat is het nog steeds matig allemaal.
Of probeer FS2020 met alles op ultra, dan kun je in sommige gevallen onder de 40 fps uitkomen met zelfs frame generation aan. Laat staan dat je dat in VR probeert...
Ja precies, FS2020 is ook mijn belangrijkste graadmeter. Met name omdat ik het gewoon vaak draai.

Het is echt wonderlijk in VR maar er is nog een hele hoop vooruitgang te bereiken. Hoe mooi het er in 2D uitziet, hoe matig in VR :'(
Het is maar wat de koper ervoor over heeft. 4090 kaarten heb je btw hier en daar al vanaf 1600 euro.

Asus TUF 1848
https://www.alternate.nl/...-7l_s5qxS1rYaAnwYEALw_wcB

ASUS VENTUS ~1700
https://azerty.nl/product...T9VPY_SIJAAcaAshuEALw_wcB

ok geen 1600 maar wel duidelijk onder de 2k

[Reactie gewijzigd door MetalSonic op 22 juli 2024 14:49]

Op die TUF zat tot vorige week nog een cashback van 150 euro, dus minder dan 1700, zo heb ik een ProArt 4070 gescoord voor 544, maar dat wist jij al ;)
Als je naar "bang for buck" kijkt dan moet je nooit voor een xx90 kaart gaan maar voor een xx60 of xx70 (Of het rode kamp). De xx90 is voor mensen die het beste van het beste willen hebben en die zijn doorgaans ook bereid daar flink voor te betalen. Overigens ben ik wel benieuwd hoe jij de prijzen nu al weet.

[Reactie gewijzigd door Jorissie87 op 22 juli 2024 14:49]

Lol sinds wanneer werden de kaarten van Nvidia goedkoper? Nooit toch....sind de mining hype en de coronacrisis hebben zij er een slaatje uit geslagen.
Alleen heel veel mensen zijn echt naïef en gelooft deze prijsverhoging.....zoals Maxima vertelde.....beetje dom :)
De RTX 40 generatie is zo'n beetje de enige generatie in de recente geschiedenis van Nvidia waar de hoevelheid FPS/euro niet noemenswaardig beter was dan bij de vorige generatie. In de regel worden Nvidia kaarten elke generatie goedkoper. Niet voor dezelfde tier, maar wel als je normaliseert voor hoe snel ze daadwerkelijk zijn. Een RTX 3050 is gewoon ~ een GTX 1080 in raster performance en is toch echt een stuk goedkoper dan die kaart ooit nieuw geweest is.

Ziet er naar uit dat dit bij 50 opnieuw niet het geval gaat zijn helaas.

[Reactie gewijzigd door youridv1 op 22 juli 2024 14:49]

Een architect die 200 per uur kost die elke dag 15 min meer gedaan krijgt door zijn nieuwe videokaart. Kan gerust een videokaart van 10k als best bang for his or her buck hebben.
Vroeger de workstations van een architectenbureau geserviced. Dat was even omdenken.
Hoeveel geheugen heb je nodig? Wat een vraag. Hoeveel kan er in.
En niets mocht kapot gaan. Dat was duurder dan welke CPU er maar op de markt was.
Ik ben met je 100% eens.
Ik moet geregeld workstation voorstellen en assembleren voor mensen die 3D renderen.
Hoe sneller een rendering klaar is, hoe sneller hun klanten hun product hebben en hoe sneller er een andere klant kan geholpen worden.
Hoe sneller de rendering door vb RTX 4090 kaart, hoe meer geld die 3D renders verdienen.
En in geen tijd is die RTX 4090 uitgespaard.
Ja kende ook iemand die bij zon bedrijf werkte. Die hadden gewoon een la vol high end CPUs liggen, er zal eens wat doorbranden.
Ik moet zeggen, ik heb de 4090 FE zo'n 2 jaar geleden gekocht net na de release en de eerste prijsverlaging. En ik doe er nu al 2 jaar mee met veel plezier. Ik heb nog steeds de snelste kaart die er te krijgen is. Heb er toen mijn 3080Ti voor verkocht. Destijds voor de Ti gegaan omdat het prestatieverschil tussen de 3080Ti en 3090 bijna niks was. Met de 4000 generatie was dat helaas veel groter.

Als de 5090 uitkomt denk ik dat die nog wel zo'n 1000 euro waard zal zijn, bet wel kans dat ik daar naar zal upgraden als ik mijn vakantiegeld krijg. Het enige probleem is dat het altijd zo'n vervelend gedoe is om een FE te kunnen krijgen, met dat constant in de gaten houden van die site :( Ik wil per se een FE want die zitten fysiek veel beter in elkaar vind ik (mooie metalen behuizing, niet al te overdreven blingbling)

Helaas is de 4090 nog steeds behoorlijk licht voor bijvoorbeeld MS Flightsim in VR. In 2D mode werkt het perfect maar zodra je meer dan medium details aanzet wordt het schokkerig.

Ik vind het alleen wel jammer dat je geen HBM geheugen krijgt voor die hoge prijs. Maarja...

[Reactie gewijzigd door Llopigat op 22 juli 2024 14:49]

Waarom zou je nog voor een RTX 3090 willen gaan? Wanneer ik de RTX 3090 in Google in type, zie ik prijzen vanaf 1399 t/m 1699.

Waarom zou je dan niet voor een RTX 4080 willen gaan? Dan heb je pas echt 'bang for buck'. Natuurlijk heeft de RTX 3090 meer GB's (24) als een RTX 4080 (16). Maar de RTX 4080 is superieur op alle andere vlakken, en dat voor een goedkopere prijs.

Was er een tijdje geleden ook niet een rel uitgebroken onder RTX 3090 owners, omdat de RTX 4080 beter presteerde voor minder geld? Het grootste gedeelte hebben ook nog maanden moeten wachten voordat ze hun GPU kregen.

Kortom, je kunt beter voor een RTX 4080 gaan als je een RTX 3090 zou gaan kopen. Kost minder en je hebt betere performance.

[Reactie gewijzigd door Toonen1988 op 22 juli 2024 14:49]

Compacter doet mij denken als moeilijker te koelen. Want zijn die nieuwere componenten ook energiezuiniger of hetzelfde of verbruiken deze meer energie?

Dat de kaarten dan mogelijk weer wat kleiner kunnen worden is mooi, maar als je meer koelvermogen hebt, bekruipt mij toch het gevoel dat er toch geen netto winst uit te halen is.
'compacter' kan je wellicht ook vertalen naar dunnere race width? 4 of 2 nm misschien?
Het geheel kan dan waarschijnlijk ook zuiniger omgaan met energie wat minder warmteontwikkeling met zich meebrengt.
Ik denk eerder dat DDR7 dichter op de chip moet zitten vanwege de snelheden die de ram kan halen.
Dat dat leidt tot een hogere warmte dichtheid is zeer waarschijnlijk, hoewel het maar een klein beetje is. De chip zelf zal veel meer verbruiken dan de 4090, dan valt dat een beetje in het niet vwb compacter ram design.
De 'kaart' wordt waarschijnlijk groter dan de 4090, met meer slots die het inneemt en er zullen 3 PCBs worden gebruikt volgens geruchten. Ik zou het meer een module noemen dan een kaart.
Ik denk dat alles wel kleiner zal gemaakt worden overegins kunnen ze wel alles kleiner maken met als doel dus dat de design van de geheugenmodules meer op een oppervlakte zou kunnen prijken en dus meer geheugen voor handen is voor de gpu.
Ik weet niet of ze de gpu zelf kleiner zullen maken.Dit alles zou dus op minder voltage kunnen gaan lopen anders zoals normaal voorhanden is op de 4090 series.Ik denk dat de nieuwere ddr 7 varianten kleiner en zuiniger zullen zijn.
Theoretisch is het verschil tussen monolithisch en modulaire dat modules ingewisseld kunnen worden. Ik kan me voorstellen dat ze dit doen dmv compartimenten en interfaces. In een monolithisch ontwerp heb je dit minder nodig en kan je dus, in theorie, kleinere chips maken
Het compactere slaat juist op de geheugenmodules, niet op de GPU zelf.

Wat voor- en nadelen klopt het volgens mij wel. Latency in de communicatie tussen de chiplets is natuurlijk ook een risico.

Een nadeel van een gigantische chip is daarentegen dat, als een deel niet werkt, je meteen een kneiter van een chip weg kunt gooien of naar een goedkopere GPU moet degraderen. Is een modulair gedeelte defect, dan pak je een ander chiplet en is er geen topmodel verloren gegaan.

Zeker omdat je maar een beperkt aan chips uit een wafer kunt halen, is het risico op een groot verlies bij een monolitisch design groter dan wanneer je er allemaal chiplets uithaalt. Plus dat deze rond zijn, dus je versnijdt ook minder.

Aan de andere kant hebben zowel Nvidia als AMD op het moment echter sowieso geen probleem met slechte yields, dus wat nu de betere aanpak is buiten de theorie om, durf ik echt niet te zeggen.
Ik ben benieuwd wat de 5080 gaat doen. Ik hoop dat ze net zoals bij de 4xxx serie een dikke koeler erop zetten zodat je een kaart hebt die en goed presteert en die uitstekend koelt en dus lekker stil is zonder dat je het geluid van een stofzuiger onder je bureau hebt.
Dit is dus de reden waarom ik custom watercooling heb. Het geluid van standaard fans is niet te harden, daar zouden ze eens wat tijd en moeite in moeten steken..Wat je wel eventueel kan doen is de maten opnemen en een bracket laten uitprinten waardoor je dus 2 tot 3 custom fans op je gpu kunt monteren, maar mooi is anders..
Wat ik diverse keren heb gedaan is hele plastic verhaal van GPU afgehaald en zelf 2 14cm fans erop gezet. Ook al steken die uit, mijn kast is toch dicht. Die 14cm fans sluit ik aan op het moederbord zodat je ze apart kan regelen.

Je kan dan een GPU veel stiller maken qua fan noise. Ik vervang ook de coolpasta op de GPU door iets beters.
Nog nooit van Noctua gehoord dus .. :)

Deze versie is trouwens geruisloos ..

ASUS GeForce RTX 4080 SUPER 16GB GDDR6X Noctua OC Edition

uitvoering: ASUS GeForce RTX 4080 SUPER 16GB GDDR6X Noctua OC Edition
Koop ik liever een 4090 van..
Voor 1349 euro? :)
Zeker wel... Maar voor die prijs zijn er betere mogelijkheden.. ipv een downgraded tuf oc versie met betere fans

[Reactie gewijzigd door Hawkysoft op 22 juli 2024 14:49]

Wordt nochtans veel verkocht bij ons in de winkel,
moest er eentje in een build steken dit weekend en waren alle 12 alweer uitverkocht.

Maken minder lawaai dan die met een waterkoeling en geven geen problemen.

Zo loopt je PC tenminste niet onder :D
Is het niet zo dat RTX 4000 GPUs juist stiller zijn vanwege de grootte van de heatsinks en waardoor de fans niet veel hoeven te draaien voor koeling? Hangt natuurlijk wel vanaf welke merk/variant je hebt.
Er zit wel een verbetering in, echter is het naar mijn opinie nog steeds veel te luid.
GPU fans kan je aanpassen met Fan Control, geen MSI Afterburner voor nodig.
Denk dat je op de verkeerde reageerd ;)
Je zegt dat (sommige) RTX 4000 series fans te luid zijn, daarop antwoord ik met Fan Control ;) Fan curves aanpassen zodat je een goede compromis hebt het tussen koeling en geluid.
Ah zo, oké :) Persoonlijk sloop ik alle fans overal vanaf hoor, volledig custom koeling met phanteks als fans en staan echt op een lage rpm max temp wat ik haal tijdens gamen is +- 46 graden (cpu&gpu) (dus ja ben wel bekend met fan control ;))
Ze zijn ontworpen voor 600W in plaats van 450W. Nvidia was er weer eens niet duidelijk in naar de AIB partners.
Zou ook leuk zijn als ze 600 euro gaan kosten :) :D ;)
Dat kan je wel x2 doen denk ik :D
Doe maar keer 3 voor de 5080 en keer 4 voor de 5090 |:(
Ik vrees dat je met 2x nog niet eens in de buurt komt.
Denk maar aan 3000-4000 euro
Compacter qua kaart? Dat zou mooi zijn maar niet ten kosten van koeling. De RTX 4090 is al een monster van een kaart en ben benieuwd naar de nieuwe RTX 5090. Ik ga niet upgraden met de nieuwe RTX 5090, ik heb zelf een RTX 4090 in het bezit t.w.v €1869

[Reactie gewijzigd door Van der Berg op 22 juli 2024 14:49]

Moet je zelf weten. zo lang ik het meeste nog op ulta kan zetten vind ik het goed.
Met DLSS 3.0 hoef ik de komende 10 jaar niet te upgraden. Dankzij frame generation. :*)
Met bijbehorende inputlag, nee dank u
single player en zelfs multiplplayer maakt dat dikwijls weinig uit.
Single player vind ik inputlag ook storend. De een zal het minder boeien dan de ander.

Er zijn talloze actie-rijke single player games waarbij meer latency echt een nadeel is.
En toch zijn er zat mensen met een LCD beeldscherm. De beste LCD beeldschermen hebben 5 ms input lag, maar vaak is dat veel hoger (>30ms is niet uitzonderlijk). Terwijl goede OLED schermen <1ms input lag hebben. Ook zijn er genoeg mensen die een muis via bluetooth verbinden, weer 10 ms input lag. En spellen zelf hebben vaak >50ms input lag, waar vrijwel niemand over klaagt totdat het getest wordt. Mensen gebruiken een AMD videokaart terwijl die tot voor kort geen goed alternatief hadden voor Nvidia Reflex.

Opvallend dat elke keer dat iemand tevreden is over DLSS 3 mensen het nodig vinden te klagen over de 4 tot 12ms latency van framegeneration. Als iemand tevreden is met zijn LCD monitor of bluetooth muis of AMD videokaart, zie ik dat niet.
Ja deels waar maar aan de andere kant mensen die ook soms competitief iets doen zoals online games merken het verschil echt wel. Een IPS kan makkelijk 5ms zijn respons, maar TN of VA zijn vaak al lager richting de 1ms, en beetje gamer heeft 120 of 144 Hz.
En ook een beetje gamer heeft geen bluetooth muis maar vaak of Logitech/higher end wireless of bedraad.
En spellen hebben lag snap ik niet helemaal wat je bedoelt, ja CPU en GPU hebben ook nog render/simulation en drawing tijden inderdaad die nog aan de end to end latency toevoegen.
En AMD is niet per se zoveel slechter, ja Reflex tegenwoordig heeft meer inzicht maar kan maar tot bepaalde hoogte instellingen verbeteren.
En alles is extra natuurlijk als je alles perfect hebt dan is DLSS latency misschien minder erg want absoluut is de latency nog steeds oké al is het relatieve verschil misschien groter. Maar als je 10ms kan besparen dan ja is dat wel gewenst. Dus als het niet genoeg oplevert op andere vlakken heb je liever 0ms extra en dan maar minder kwaliteit of minder frames.
- Je verward (geadverteerde) pixel response met input lag. Input lag is veel hoger op LCD beelschermen.
- Zelfs een bedrade gamer muis heeft wat input lag. Goede rond de 1ms, minder goede rond de 3ms.
- De Relex toggle in spellen zorgt voor afstemmen van simmulation op de CPU en rendering op de GPU, zodat er geen frames in de renderqueue hoeven wachten. Dat verbeterd input lag voor GPU limited spellen zonder dat je een fps limiet in hoeft te stellen. En framerate limieten verhogen inherent input lag. AMD heeft sinds kort een alternatief "Anti-Lag 2", maar dat heeft jaren geduurd.
- Bijvoorbeeld een recent Spider Man spel had zeer veel input lag. Het is nooit bekend gemaakt waarom. En niemand die daar echt over viel totdat het naar voren kwam in reviews.
- Ik zeg niet dat dit alles een compensatie is voor DLSS. Mijn punt is dat ik keer op keer gezeur zie over framegen. Waarbij mensen framegen afzweren ivm inputlag. En veel minder (niet) over oudere bronnen van input lag.

[Reactie gewijzigd door cnieuweboer op 22 juli 2024 14:49]

Die 10-20ms maakt echt niks uit hoor.
In VR wel helaas.
Merk ik niks van.
Het ligt een beetje aan de toepassing of je de foutjes die met DLSS 3.0 ook onderdeel van het pakket zijn voor lief wil nemen. Voor sommige toepassingen, zoals bijvoorbeeld geechtsvluchtsimulaties, waar een paar pixels alles is wat je van de tegenstander ziet, kan dat echt een vervelend verschijnsel zijn.
Framegen is leuk om van 100 fps naar 120 te gaan, niet om van 40 naar 60 te gaan...
In Alan Wake 2 is het wel leuk om van 50 naar 85 te gaan.
Maar dan speel je wel met latency alsof het 43 fps is
En? Alan wake 2 is single player, wat maakt die 10-20ms extra uit?
Het voelt meer als lockt 60fps waarbij 45 fps veel meer stottert en trager aanvoelt.
Tuurlijk wel, is soms het verschil tussen onspeelbaar en speelbaar (op een bepaalde resolutie)
Van 70 naar 100+ in een single player game is ook wel prima. Ik geloof dat dat ongeveer de cijfers zijn die ik met mijn 4090 haal in cyberpunk 2077 met path tracing.

Ziet er insane goed uit, de game op die settings uitgespeeld. Ik ben gevoeliger dan gemiddeld voor input lag en het was prima te doen.
technisch gezien doen alle gpu's aan frame generation :+
en controlled pixel positioning
Zullen in het begin maar heel mondjesmaats op voorraad zijn - Nvidia verkoopt zijn GPU's als zoete broodjes aan AI boeren.
Het is ook denkbaar dat de 5090's gemaakt worden van GB202's met een paar defecten waardoor ze niet bruikbaar zijn voor professionele kaarten. De AD102 in de 4090 wordt ook al gedeeld met de Quadro lijn. (RTX 5000 Ada Generation - niet te verwarren met deze Geforce RTX 50x0 lijn voor gamers)
De nVidia RTX 5090 zal zeker een beest worden, daar twijfel ik niet aan. De geheugengrootte zal interessant zijn. En zeker hoe nVidia gaat spelen met de parameters krachten van de chip, de bussnelheid en de geheugengrootte op XX60/70/80 om de toekomstbestendigheid van de GPU's wat te remmen (want je moet wel blijven upgraden). Want dat is de trend die we gevoelsmatig zeker bij de nVidia RTX 40XX GPU's zijn ingegaan.

Hier nog wat meer mogelijke informatie over de memory layout: https://videocardz.com/ne...-modules-in-denser-design. Deze zou dus op een 512-bit memory-bus en met 2GB modules op 32GB GDDR7 uit kunnen komen.

[Reactie gewijzigd door Jumpman op 22 juli 2024 14:49]

De 4090 werkt nog steeds super. Ik denk dat de 5090 een nog groter beest gaat worden, maar ben niet van plan nog eens 2000+ euro uit te gaan geven.
Als er plek komt voor 16 modules zou dit kunnen beteken dat deze 16x2 en dus 32GB VRAM krijgt.

Ligt eraan wat je er mee doet, maar dat kan interessant zijn. Moet je de verkoop van je "oude" kaart ook even mee rekenen. ik ben voor nog geen 300 euro van 8GB naar 12GB gegaan. Scheelt mij met AI heel veel ergernis.

Tegelijkertijd is ook de FPS in games een stuk hoger, maar had het niet gedaan als de 4070 ook nog 8GB had. Hoopte nog op een 5070 met 16GB, maar die kans lijkt klein en is nog veeeeeeeer weg.
Nvidia doet goede zaken i.v.m. AI allemaal partnerships met Crypto companys enzo... De 5090 wordt vast weer een beest! Arme AMD.

Op dit item kan niet meer gereageerd worden.