Foto's tonen vermeend Nvidia RTX 5090-pcb en GB202-gpu

Er zijn foto's verschenen van een leeg Nvidia RTX 5090-pcb en een afgewerkt exemplaar waarop een GB202-chip is te zien. Het beeldmateriaal suggereert dat de aankomende videokaart 32GB GDDR7-geheugen krijgt. Nvidia kondigt de eerste Blackwell-gpu's naar verwachting in januari aan.

De eerste afbeelding, die voor het eerst op het Chinese Chiphell-forum is gespot, bevat een leeg pcb waarop rechtsonder het opschrift '5090' is te zien. Daarvoor staat mogelijk 'PNY', een Nvidia-boardpartner. De resolutie is echter te laag om dat met zekerheid te zeggen. De tekst is inmiddels geblurd in de Chiphell-post, maar is zichtbaar in een bewerkte versie die HXL heeft gedeeld op X. Rechtsboven bevinden zich contactpads voor een enkele 12V-2x6-stekker. Dat wijst op een stroomverbruik van maximaal 675 watt indien ook het PCIe-slot stroom voorziet.

Waar de foto van Chiphell een leeg pcb toont, heeft een gebruiker op Baidu een afbeelding gedeeld van een vermeend afgewerkt exemplaar. Daarop is een gigantische gpu met het opschrift 'GB202-300-A1' te zien. De GB202-chip wordt al enige tijd gelinkt aan de RTX 5090, het verwachte vlaggenschip van de volgende generatie Nvidia-gpu's. Daarnaast zijn er zestien geheugenchips te zien, wat met een capaciteit van 2GB per stuk wijst op een totale hoeveelheid van 32GB. Dat komt eveneens overeen met geruchten: de RTX 5090 zou 32GB GDDR7 gebruiken.

Nvidia-ceo Jensen Huang houdt op 7 januari een keynote tijdens de CES in Las Vegas. Het bedrijf komt naar verluidt in eerste instantie met de RTX 5080 en RTX 5090.

RTX 5090RTX 5090

Door Idriz Velghe

Redacteur

26-12-2024 • 09:57

138

Submitter: CriticalHit_NL

Lees meer

Reacties (135)

Sorteer op:

Weergave:

Wat een monster van een kaart, al die condensatoren (powerstages?) ook... En 32GB geheugen, de meeste systemen hebben dat nog niet eens aan RAM... :D Erg benieuwd wat dit gaat kosten, 2.999 euro?
en 675W max, wat een giller
Theoretische max. Dat gaat ie niet verbruiken.
Ligt er aan wat je van plan ben te doen. Als je AI gaat trainen, dan moet je zorgen voor een goede PSU hebt want dan kan de kaart zomaar zijn max tdp halen.
Maar die 675 watt is niet het de total board power, dat is het maximum van de 12v6x2 connector (600W) + het maximum van het PCIe slot (75W).

Dit zegt helemaal niets over het tbp of werkelijke verbruik van de kaart: de 4070 had ook die connector en gebruikt ongeveer 200W

[Reactie gewijzigd door kiang op 27 december 2024 09:24]

Sowieso powerstage/voltage mod doen. Kleine moeite via msi afterburner bespaart toch gauw 20-30% energie en hoop hitte. Of je doet lichte down clock want ze laten kaarten vaak net iets te hard zweten met echte kleine inlevering van prestaties 5% 100-200 MHz lager je wint weer erg veel energie besparing nog beter koel vermogen. Combineer dat met een undervolt. Draait ie waarschijnlijk 400-450W max.
Maybe met vr of indie game ;)
Dan is het erg veel (W)
Dat is net zoveel als de meeste electrische kachels op de laagste stand. Lol.

Kun je weer bezuinigen. Daar op
Max. Een 4090 is ook veel zuiniger dan een 4060 of 4070.
Een 4090 is echt niet zuiniger als een 4060 of 4070. De prestatie/watt is enkel beter, maar het max verbruik van de 4090 is het hoogste uit de gehele serie.
Ik kan een 4090 terugklokken naar 4070 wattages
ik vind dat eigenlijk best belangrijk.Ik heb nu al jaren een 3060ti en als ik die ga upgraden ga ik ook zeker op het verbruik letten, of undervolten zoals ik nu doe
Undervolten heeft zeker effect. Ik heb mijn RTX 4090 mild ge-undervolt, waardoor het verbruik daalde van 450 watt naar 350 watt, met nagenoeg geen prestatieverlies.

Maar om heel eerlijk te zijn is dat verschil in de praktijk verwaarloosbaar. Stel dat je GPU 100 watt extra verbruikt en je gamet 10 uur per week, met een (vrij hoge) stroomprijs van 30 cent per kWh. Dan kost dat je ongeveer 30 cent per week. Dat lijkt me niet voldoende om een relevante factor te zijn bin de aanschaf van een GPU.

(30 cent per week is zelfs nog een vrij duur scenario, in de praktijk zal het verschil tussen concurrerende GPU's met vergelijkbare prestaties niet eens 100 watt zijn en is je stroomprijs waarschijnlijk ook geen 30 cent per kWh)

[Reactie gewijzigd door DLSS op 28 december 2024 07:33]

Ik gebruik mijn PC voor werk en gamen, en zeker meer dan 20 uur per week. Ik werk momenteel vceel thuis en dan is het nog veel meer, er zullen best weken zijn dat ie 80 uur aanstaat. Hoewel voor werk de GPU niet zo hoeft te blazen, dus mijn 5950x is ook ge-undervolt (nederlands?).
Maar als ik het verbruik kan verminderen wil ik dat wel doen. Het gaat me niet zo om het geld eigenlijk. Undervolten is eigenlijk een beetje een sport.
Bij idle verbruik van je gpu zijn de verschillen al helemaal verwaarloosbaar.

Voor mij is undervolten overigens ook een hobby, haha 😜. Maar een paar watt meer of minder verbruik van de GPU onder full load is voor mij absoluut geen overweging in de aanschaf van een GPU.
Yep, weer één met een eigen stekker. ;) Scheelt wel je huis verwarmen in de winter! Heerlijk warme voetjes.
Lekker zweten 's zomers
675W: Je kan je huis verwarmen en gamen tegelijk. :)
Game systemen zeker high end hebben al een paar jaar 32GB RAM. Maar de gemiddelde computer zit nog altijd op 8-16 inderdaad. 8GB wordt nog volop verkocht. Maar bij gaming zie je soms al 32GB RAM is de systeemeisen staan, dus zou ik voor alles behalve budget gaming builds al snel naar 32GB RAM stappen, want triple channel architecturen voor 24GB zijn er al even niet meer, en 2x8+2x4GB maakt vrijwel gelijke kosten al bijna en vaak van alles suboptimaal in je geheugensnelheid weer. Dus 2x16GB.
Triple channel, dát is lang geleden! Hoewel, volgens mij zou je het nog kunnen gebruiken op de laatste lichtingen HEDT's (al is het niet optimaal ivm quad channel support).

Maarehm, moderne games vragen dan wel 32GB volgens de systeemeisen, maar hebben ze dat ook werkelijk nodig? Ik heb hier al eventjes geen tests meer over gezien.
Hardware Unboxed heeft hier een (redelijk) recente video over genaamd "How much RAM do gamers need in 2024" waar ze 16 versus 32 versus 64 GB testen en geen enkel spel tot nu toe verbruikt zoveel dat je meer dan 32 GB nodig hebt.
Hogwarts Legacy was de grootste uitschieter met 24 GB RAM verbruik maar dat is meer omdat het een enorm slecht spel is dan dat het ook maar iets met de prestaties heeft te maken.
Wanneer een uitgever van een spel als vereiste 32 GB aangeeft dan betekend dit simpelweg dat je meer dan 16 GB nodig hebt in totaal en het spel zelf 12 tot 20 GB gebruikt met nog een deel gedeeld geheugen als je een 8 GB videokaart hebt dus de max ligt rond de 24 GB.
Komende jaren kan het geheugen verbruik natuurlijk nog toenemen, maar je zal met 32 GB nog wel een paar jaar vooruit kunnen.
Indiana jones kwam ook erg hoog uit
Mijn game systeem uit 2016 had al 64GB nu ben ik er een aan het bouwen met 192GB want als ik 6 ARK servers draai aan elkaar gelinkt kom ik ram tekort. Laatste tijd knoei ik ook met Machine Learning en als laatst een model die 136GB ram wou allocate. Was ik ook weer teleurgesteld 😉 Combineer dat weer met gameservers en een game spelen op diezelfde machine. Hele tijd tekorten. Maar heb nu een server 64GB pc gebouwd voor hosting taken en de 192GB systeem waarschijnlijk de 5090 wordt mijn nieuwe game systeem en A.I werkzaamheden. 32GB is wel minimaal wat ik ook aanraad tegenwoordig. 16 GB is echt te weinig. Zo duur is ram niet meer. Op het moment een van de goedkoopste pc onderdelen de rest is relatief wat duurder geworden.
Volgens de leaker in dit artikel ligt de MSRP tussen 2000 en 2500 USD.
Disclaimer: over de betrouwbaarheid van de website kan ik niets zeggen.
2.999 euro lijkt me een vrij redelijke schatting, ja.

Het kan naar vermoeden aanzienlijk harder rekenen dan een CPU van 3000 euro, dus als je rekenwerk goed parallelliseerbaar is en niet zo veel geheugen nodig heeft is dat een prima investering.

Ik heb nu rekenklusjes draaien op CPU ipv op GPU, omdat onze GPUs maar 12 GB geheugen hebben wat niet genoeg is, en die doen er ongeveer een maand over per stuk, op 48 cores. Dat zou op die 5090 passen en dan een stuk sneller klaar zijn. Misschien wel in de orde van enkele dagen. Best de moeite!

(edit: taalfout)

[Reactie gewijzigd door hooibergje op 26 december 2024 12:33]

Misschien stomme vraag en ik weet niet wat voor rekenklusjes je doet. Maar kun je niet GPU gebruiken met system ram. In principe is alles in VRAM voor GPU berekeningen natuurlijk beter maar als je nu toch al systeem ram maar dan met cpu gebruikt die aanzienlijk slechter paraliseert zeker met kleine taakjes. Dus als het kan is dan systeem geheugen met GPU nog steeds beter of is dat niet mogelijk? Normaal probeer gpu toch sowieso als het echt niet VRAM uit te breiden met RAM of zeg ik nou iets geks? Of is dan de geheugen naar CPU link beter dan geheugen naar GPU?

[Reactie gewijzigd door PaulHelper op 26 december 2024 18:49]

Er zit veel latency tussen het geheugen van het CPU en geheugen van het GPU. Daarom duurt het relatief lang om steeds data op en neer te kopieren tussen beide geheugens.

Daarnaast is het probleem wel klein genoeg om in het cache van het CPU te passen, zodat het niet direct uit het RAM getrokken hoeft te worden. Dat zorgt dat uiteindelijk de leestijd naar het geheugen heel erg meevalt. :D
Het is voor jou vast logisch en een detail zal verklaren wat voor jouw specifieke sport dan het verschil maakt. Maar in ieder geval voor mij kom ik er niet uit met 12GB VRAM is te klein voor de klus, maar probleem past wel in CPU cache? want zelfs de grootste CPU L3 caches zijn nog niet eens 1GB op workstations, bedoel je dan het algoritme zelf past in cpu cache maar de data niet?

Een ding is zeker, de pci-e bus is de grootste bottleneck die er in die wereld maar bestaat, tot je multi node ofwel supercomputer scale in gaat. Straks met een Nvidia 5090 en 5080 en hopelijk ook snel met de nieuwe AMD 9070 serie verdubbelt dat een zeldzame keer van 32GB/s voor x16 pci-e 4.0 naar 64GB/s x16 pci-e 5.0, echter dat is maar eens in de zoveel gpu generaties.

Dit blijft zelfs nu die zeldzame stap nog moet gaan komen, alsnog stukken minder dan 100GB+ /s met multichannel DDR5 systeem RAM. En dat RAM wordt de komende jaren alleen nog maar sneller ook, en kan met 2, 4, 8 zelfs 12 kanalen per CPU voor workstations waar het echt moet. RAM bandbreedte is daarmee enorm te schalen al ver voordat pci-e 6.0 ooit op moederborden zit.

En toch is GPU/NPU/Accelerator VRAM dan nog weer veel sneller met al vaak 1-2TB/s... het zijn ook wel gek grote getallen en gekke tijden dat we zoiets dan als minimum al nodig hebben om bepaalde modellen te kunnen draaien

[Reactie gewijzigd door OruBLMsFrl op 27 december 2024 11:03]

Oh, wacht. Mijn brein deed raar.

Het probleem past inderdaad niet in het CPU Cache. Megabytes... Gigabytes... Wat komt het toch ook precies allemaal. 8)7

De latency van de PCI-e bus is een dingie, maar de data snelheid is weer best indrukwekkend.
Tijdens een cursus was er een mooi voorbeeld waarin we van een groot array (paar miljoen getallen) elk zoveelste getal moesten kopieren van het CPU geheugen naar het GPU geheugen. Dan meten hoe lang het duurt, om het effect van de latency te merken. Daaruit bleek dat het sneller was om alles te kopieren en 99 van de 100 getallen weg te gooien, dan om los elk honderdste getal te kopieren. Het break even point lag bij de 300-ish.

Terabytes per seconde is inderdaad wel een extreme unit. maar het is geen overbodige luxe.
In de supercomputer business sta ik ook versteld van de netwerksnelheid. Dat is nog een grote beperkende factor, ondanks dat dat ook al met enkele honderden gigabytes per seconde gaat, over Infiniband. Het is daar wederom latency die het probleem is, en die zit ook al onder de microseconde.
Zal in de EU met BTW wel tegen 3k aanliggen ja.
Inno3d heeft ook per ongeluk details gelekt over de eigenschappen.

Enhanced ray tracing
Advanced DLSS technology
Neural rendering capabilities
AI enhanced power efficiency

Wat dat ook precies moge betekenen.

[Reactie gewijzigd door Dekar op 26 december 2024 10:05]

Marketing termen die ons erin moeten verleiden om woekerprijzen te betalen voor inferieur pc gaming. En dat werkt ook nog enigszins vanwege streamers met hun partnerships en rgb pc's. Het was toch een stuk leuker allemaal 10 jaar terug
Vind het juist nu veel leuker dan 10j terug :). Prijzen zijn inderdaad er een beetje over maar de technologie is wel heel leuk. Wat bedoel je juist met inferieur pc gaming? Vind persoonlijk net dat de hardware die je krijgt in bv een ps5 pro inferieur tegenover de prijs die je ervoor betaalt(tegenover de normale ps5 that is).
De games zelf zijn meer anti-speler aan het worden. Onafgemaakte producten die steeds meer dienen als raamwerk voor nog meer omzet en reclame i.t.t. een afgemaakt product die ontworpen worden om zo leuk mogelijk te zijn en zoveel mogelijk replay waarde te bieden.

Dit geld iig voor de reguliere gamemarkt. Waar grote spelers die hier verantwoordelijk zijn meer terein winnen en een Zelda of baldurs gate steeds minder gelding heeft. En dus minder marketing capaciteit. Beetje een trechter effect.

Thank god voor het success van Indië gaming en de groeiende populariteit voor retro

[Reactie gewijzigd door Chrono Trigger op 26 december 2024 11:35]

De laatste jaren zie je toch een beetje een trend dat de echt grote meer en meer afgestraft worden op de rommel die ze uitbrengen. EA met battlefield 2042, Ubisoft met hun skull en bones of hoe noemt het ook alweer? Ik heb het al eens eerder aangegeven maar tegenwoordig wil elke grote developer precies een kitchen sink game uitbrengen waar je alles in kunt. Je core mechanic, maar ook nog potje koken, huisje bouwen, visje vangen, enzovoort (you get the point :) ). Dat resulteert naar mijn mening in extreem veel overhead die je ook moet onderhouden en leuk zien te houden. Resultaat meer werk en vooral meer kans op bugs. Hiervoor is dan weer extra budget nodig en heb je dus een eindeloze stroom aan dlc nodig. Het houdt zichzelf wat in stand.

Dat zie je minder bij indie, die hebben sowieso niet het budget hiervoor en zetten dus strakke gameplay op rond 1 of 2 core mechanics die goed zijn. Dat was hoe het vroeger ook bij de grotere werkte. Probleem is alleen dat de opbrengst ook een stuk lager zal liggen en je dus geen studio van 1000 man hier mee recht kan houden.

Ik stem in ieder geval voor simpelere games met een goeie core mechanic en klaar. Dat kan vanalles zijn, gameplay, goed verhaal, enz. Maakt het imo veel simpeler voor iedereen. Wil je wat anders dan ga je gewoon wat anders spelen.

[Reactie gewijzigd door Powerblast op 26 december 2024 11:45]

Stoppen met preorderen scheelt al een hele hoop.
En reken maar dat de prijs van €800 of nog duurder de standaard prijs gaat worden voor de toekomstige PS6 (wanneer die er ooit komt) .. dat is een stap die ze genomen hebben waarop ze niet meer terugkeren.

Let wel op dat er is aangekondigd geweest dat toekomstige games nog lang ondersteuning gaan krijgen op de PS5Pro, net zoals dit voor de PS4Pro het geval was. Dus op een bepaald moment ga je met een verhaaltje Cyberpunk 2077 zitten zoals op PS4 .. dat wel gewoon werkte op PS4Pro
Nee hoor maar jij wilt ineens 10keer zoveel als toen.

Ga nou weer eens gewoon op 1900 gamen op een 24 inch met 60fps en ineens draaien alle games gewoon op een 1060 van 5 generaties geleden.

Het feit dat jijineens 8k wilt op 140fps is een enorme verandering wat de hardware gewoon nog niet kan.
Vooral de resoluties maken het inderdaad zo lastig. Merk je volgens mij zelfs meer dan de shadows open draaien (wat vroeger de bottleneck was). En dat is de laatste jaren veel zwaarder geworden. Ik game nog steeds op 1440p en vind het zo wel goed genoeg. 4k vind ik leuk voor tv te kijken maar niet om te gamen. Mn pc is me daar ook dankbaar voor :).

Vind het altijd zo vreemd dat iedereen op een console genoege neemt met 60fps maar op een pc wel alles vol wil opendraaien zonder de hoofdprijs te moeten betalen. 60fps vind ik zelf ook een beetje laag maar ik top nu alles op 144. Goed voor de warmte ontwikkeling en stroomverbruik ook :P

[Reactie gewijzigd door Powerblast op 26 december 2024 11:35]

Daar game in ook op. Heb al 7 jaar geen gpu gekocht en mijn interesse is geshift naar andere soorten gaming. Dacht altijd behoefte te hebben aan 4k144 maar niks is minder waar.

Gaat uiteindelijk altijd om gameplay, die vind ik meer bij 240p dan bij 2160
lol 8k???
overdrijven is ook een vak haha
chrono heeft in een paar punten gewoon gelijk.
Jij lacht op 8k maar zijn al zeker gamers die 8k schermen hebben en dan ook daarop willen gamen en dan heb je toch wat power nodig
dat kan :) wel hele dure aanschaf { scherm + videokaart }
niet weg gelegd voor iedereen.
Je praat over niche alsof het mainstream is..
Nee ik zeg juist dat 1920x1080 mainstream is en dat iedereen altijd maar denkt dat 4k mainstream is.

Wol je 4k of 8k gamen tja dan moet je portemonee trekken en niet zeiken dat het duur is.

https://store.steampowere...e-Survey-Welcome-to-Steam
Yes! Ik had je denk ik verkeerd begrepen.

[Reactie gewijzigd door Audione0 op 27 december 2024 15:54]

Ja, veel mensen onderkennen niet dat het geen verdubbeling is maar verviervoudiging wanneer je van 1920x1080 naar 3820x2160 gaat. Gaat hard dan :P
Volgens mij was 10 jaar geleden zo'n beetje de piek van de rgb hype, nu zie je juist best wat mensen die liever voor een clean-look gaan. Dat van de streamers en hun partnerships ben ik wel eens maar dat is een gevolg van zo lang de market domineren, als AMD de dominante speler was in de gpu markt dan hadden al die streamers partnerships van AMD.
Klinkt alsof DLSS4 of hoe NVIDIA het ook gaat noemen, exclusief wordt voor RTX50 series?
Lijkt mij ook wel zo, zal ze ook helpen met het verkopen van kaarten net zoals ze deden bij frame generation die ze blijkbaar niet konden laten werken op de 30 series of ouder.
Haha, ze hebben echt alle hippe woorden gepakt die ze konden vinden!
Klinkt alsof het uit een Star Trek aflevering komt. :P
Volgens mij zijn de consumenten GPU’s een uitgeklede versie van de zakelijke Blackwell chip. Kortom, leuk dat wij het straks in onze desktop hebben - maar het gaat AI toepassingen en grafische pracht en praal in UE5 niet verbeteren.

Wie ziet dit anders?
Ik denk dat UE5 devs wat beter hun best moeten doen, want games van de laatste paar jaar zijn echt waardeloos geoptimaliseerd. Draw distance, lighting, texture geometrie en rasterisation worden gewoon niet goed gemaakt, want met DLSS draait het toch wel redelijk.

[Reactie gewijzigd door Dekar op 26 december 2024 10:12]

Precies dat, en vergeet vooral de stutters niet als een game released wordt! Dat maakt het voor mij nog het ergste, dat ik DLSS moet gebruiken met een stevige gpu maakt me niet zoveel uit maar de games zijn vaak niet tot okeisch speelbaar. (Op de pc.)

Ik hou me hart vast met The witcher 4. En waarschijnlijk sla ik hem over puur en alleen omdat het op een unreal engine 5 draait.
Een youtuber laat goed zien dat de EU5 weldegelijk te optimaliseren is.
Dus moet geheel aan de devs liggen met hoe veel tijd voor optimalisatie ze er in willen steken. Ligt niet zozeer aan UE5, die geven helaas alleen de tools om échte optimalisatie "te skippen".

Deze: YouTube: Challenged To 3X FPS Without Upscaling in UE5 | Insults From Toxic D...
Hij/zij hebben nog meer video's over dit onderwerp. Maar het is best interessant.
Dat kanaal is imho een hoop onzin - de aanpassingen die hij doet kunnen redelijk zijn voor de testscènes die hij gebruikt, maar in de context van een volledig spel ligt die balans anders. Zeer aggressief toontje, ook.

[Reactie gewijzigd door Forceflow op 26 december 2024 11:41]

Een hoop onzin is het niet. Precies reacties zoals jij nu geeft is de reden van de "agressieve toon". Ze krijgen veel te maken met "EU5 developers die hun video's onzin vinden" (wat raar is, want ze laten in-engine, in-tools zien wat ze aanpassen, je kan het 1 op 1 nabootsen)

Zoals ik al zei: dit is niet de enige video. Hij laat in hoog-gecompliceerde scènes zien, waarbij een hoop verschillende structuren zijn gebruikt om 1 bepaald gebied zo mooi mogelijk te maken, weldegelijk geoptimaliseerd kan worden op meerdere vlakken.
Is het toepasbaar op alle games? Natuurlijk niet, claimen ze ook niet. Vergt het een klein beetje tijd en kennis van optimalisatie van developers van hun eigen games? Jazeker.

Als men Tomb Raider 1 op de GBA kan weten te draaien, dan kan een paar kleine optimalisatie slagjes door LOD aanpassingen en out-of-view culling echt al een hoop doen in een EU5 spel. Echt waar.
Over culling verkoopt hij onzin: Nanite doet culling van geometrie per cluster, dus zijn punt over model LODs is echt gewoon mis.
Dan heb je z'n punt niet goed begrepen.
Als je een hoogpoly kamer betreed dan kan je verder optimaliseren door alles buiten die kamer meteen te cullen. Zelfs als dit in hetzelfde cluster zit.

Dit is zijn/hun hele punt: je kan de basis tools gebruiken wat "optimaliseert" maar je kan met eigen verdere optimalisaties 2 tot 3 keer meer fps winnen.

En als jij dus een spel hebt wat veel performance kost maar in relatief kleine kamertjes zich afspeelt, dan is er nog een hoop te winnen door niet op de "ingebakken optimalisaties" te blijven leunen maar zelf nog een hoop te doen.

Maarja, dat kost tijd.
Jij veroordeelt mensen op hun toon?

Over aggressief gesproken dan....

De vraag is vooral hoeveel tijd deze ideeën kosten in een daadwerkelijke praktische workflow.

Dat games niet altijd goed geoptimaliseerd zijn, is (helaas) niks nieuws
Dat is ook het idee dat ik er van krijg. UE5 moet je denk ik meer tijd in steken als developer om het goed draaiende te krijgen maar het is zeker en vast mogelijk. Het lijkt er alleen op dat developers Unity gewend zijn waar het per default een stukje beter draait. Blijft opzich wel een probleem van kitchen sink engines, je moet ze optimaliseren voor je specifieke game.
Nanite en Lumen zijn ook geen oplossing voor betere prestaties. Maar om tijd tijdens ontwikkeling te besparen. Dus geen LODs meer maken, retopo niet nodig en geen light maps bakken Probleem is dat Epic het toch echt als een soort performance booster op de markt heeft gezet waardoor de technieken overused worden.
En dan ook nog 3k vragen voor een high end gpu. No thanks. Dan maar geen pc gaming, console/retro gaming doet toch niet onder met het aanbod aan games.
Achja, het blijft een hobby en de keuze is reuze. Je hoeft geen 4k met alle toeters en bellen aan en zo hoog mogelijke refresh rate, je kan ook gewoon voor 1080p gaan met alle settings op het maximale met een midrange gpu.(Dat ligt helemaal aan je zelf) Dat de gpu prijzen omhoog gaan (is idd wel iets voor het zeggen) maar een 5090 krijgt dan ook geen concurrentie en is breed inzetbaar.

Doe vooral je zelf niet te kort.
De relatieve stijging zit vooral bij high end maar met 500 euro is midrange ook na inflatiecorrectie aardig aan het stijgen. Bovendien zullen die prijzen ook niet zo blijven en als we ons meer begeven op die markt. En dat zal zo blijven als er een zeker groen bedrijf de spelregels zelf blijft bepalen en wij het als makke lammetjes aanvaarden. Zeker niet wenselijk met wat je er voor terug krijgt in technologie (frame generation, wet van Moore is dood) of met de games die gereleased worden waarbij je steeds meer unfinished producten krijgt die raamwerken zijn ingame monetization. Voordeel is wel dat de meeste games multiplatform zijn geworden, dus de noodzaak voor een gpu is lager dan ooit. Voor mij in elk geval.
CD project red werkt wel specifiek samen met epic om zo alles te optimaliseren. Dus als de witcher 4 ruk draait, dan lukt het geen enkelel game om fatsoenlijk te draaien met UE5😉
Het is telkens hetzelfde verhaal om niet te willen verbeteren inzake games, omdat de meerderheid van de gebruikers/consumenten nog met veroudere hardware zit en als ze enkel games gaan uitbrengen voor de nieuwste hardware krijgen ze tonnen van kritiek over zich en wordt de game sowieso afgekraakt en dan vallen de verkoopcijfers tegen. Het zijn net die games die hun tijd net vooruit zijn en gebruik maken van de nieuwste hardware en innovatie van nieuwe technologie waar we nu 22 jaar/15 jaar later nog steeds over spreken en dat zijn dan ook meestal games die momenteel nog niet remastered zijn.

Willen developers toch de nieuwste games uitbrengen met de belofte veroudere hardware te ondersteunen krijgen we een Cyberpunk 2077 op PS4 verhaal.

Een game die momenteel afgekraakt wordt net omwille van hun innovatie inzake pathtracing te implementeren als standaard is Indiana Jones and the Great Circle

Laat maar komen zou ik zeggen, tijd dat we weer eens een stapje verder gaan .. :)
Precies, Fortnite draait hier gewoon soepel zonder microstutters, ligt echt niet aan de engine.
Fortnite zit vol PSO en traversal stutter.

https://bsky.app/profile/...social/post/3lbtvtoimul2s

[Reactie gewijzigd door napata op 26 december 2024 13:03]

Persoonlijk geen last van.
Dat kan natuurlijk, sommige merken het verschil tussen 30 en 60 fps niet eens maar dan moet je niet beweren dat Fornite aantoont dat het niet aan de engine ligt.

Ik vind Fortnite juist een perfect voorbeeld van dat het wel degelijk aan de engine ligt want als zelfs de makers van de engine geen soepel spel kunnen maken op hun eigen engine dan kan je dat ook niet verwachten van andere devs.
Ik merk zelfs het verschil tussen 59 en 60 FPS, dus ik weet waar ik het over heb.

In Fortnite heb ik geen last van microstutters of FPS drops.
32GB VRAM bied wel meer mogelijkheden qua lokaal draaien van LLM's, image generation, etc.
Maar Multi-GPU bied kennelijk geen of amper voordelen?
Kan meestal wel. Dan kom je op een standaard desktop moederbord veelal lanes tekort, dan moet je naar workstation borden toe, met bijbehorend stroomverbruik, lawaai (want hitte), en uiteraard de niet goedkope cpu, plus dat de trend van kleinere behuizingen en pc's daar niet echt op aansluit want groter dan ATX dan heb je wel een monster nodig.
Een gpu verbetert de grafische pracht en praal ook niet, dat doet de game engine. Met een snellere gpu kun je meer features van die game enige op hogere settings draaien zodat het er beter uit ziet maar geen lage fps krijgt zodat het onspeelbaarwordt.
Wat ik vooral hoop is dat deze kaarten niet alleen significant sneller zijn dan de voorganger, maar ook significant goedkoper. Want €2500 voor een videokaart, al is dit het vlaggenschip, is een absurd bedrag. Zeker als je rekening houdt dan Nvidia het duurste bedrijf ter wereld is (al komt dit grotendeels door AI toepassingen. Nogmaals, voor alle gamers (waaronder ik) hoop ik dat ze veel sneller en goedkoper zijn. Op dit moment game ik op een 1440p 360Hz OLED monitor (ja, ik weet het, zwaar overkill). Maar het gamet zo lekker. Als ik dan met een RTX5080 of RTX5090 alle games ook daadwerkelijk rond de 360Hz kan spelen zou dit fantastisch zijn. Ik weet dat ik hierin een enthousiasteling ben, maar ja, daarom koop je ook dit soort kaarten. ;)
Ik zou er niet op hopen. Ze hebben geen enkele economische reden om het goedkoper uit te brengen. Ze verdienen bakken met dezelfde chips voor AI en ging kaarten zijn dus eerder een activiteit voor erbij geworden voor nvidia. Zolang AMD ze niet onder druk zet met een topkaart zal er weinig veranderen aan de prijssetting. Verkoopt het niet meer, jammer maar ook eigenlijk niet want dan is er weer een extra lijn vrij voor blackwell AI chips…

[Reactie gewijzigd door Powerblast op 26 december 2024 11:50]

Ik reken er op (maar geen AI, ik reken er differentiaalvergelijkingen mee door) en ik hoop ook dat ze sneller en goedkoper zijn, dus wat dat betreft kunnen we dan de handen ineens slaan. :D

Daarnaast hoop ik wel een beetje op te gamen tussen het rekenwerg door.
De geruchten waren dat er een significante meerprijs aan deze nieuwe kaarten plakt, aan heel de 50xx serie trouwens. De verwachtingen zijn $1899 - $1999 voor de 5090 niet overklokte versie (4090 was $1599). Sommige geruchten zetten de prijs zelf hoger, tot $2500. Er wordt gezegd dat NVidia met de prijsstelling van de nieuwe kaarten wil testen hoe ver ze kunnen gaan met prijs en, indien nodig, na release stap voor stap de prijs terug richting die van de 40xx kaarten brengen.

De prijzen van de 4080/4090 waren al pittig, gezien we toen vollop in het corona/scalpen tijdperk zaten en NVidia hier vollop gebruik van heeft gemaakt.

[Reactie gewijzigd door dgtazzman81 op 26 december 2024 13:23]

360 Hz lijkt me tamelijk overkill. Maken die 0,1 ms verschil in reactiesnelheid dan echt zoveel uit voor je prestaties? Als, dan zou je beter op een veel lagere resolutie gaan games, bv. Full HD of nog wat lager.
Hallo Evi Dent,

Het maakt wel degelijk verschil. Dankzij de hoge refreshrate en de snelle responstijd van OLED merk ik vooral dat bewegende beelden veel sneller zijn.

Ik merk het bijvoorbeeld in PUBG als ik in een auto rijd. Ik had dan altijd dat het nooit echt scherp werd op mijn IPS, nu met OLED is het een ander verhaal. Daarnaast is 240 Hz OLED een totaal andere ervaring dan 240 Hz IPS. Vooral de responstijd van de monitor zelf is belangrijk. Liever 240 Hz OLED dan 480 Hz IPS.
Okee, dat is goed om te lezen. LCD is een heel eind gekomen maar loopt nu op zijn laatste benen.
Ik zit er aan te denken om ook een OLED te kopen, en 240 hz ligt dan voor de hand. Ik koop vooral een OLED vanwege de fantastische beeldkwaliteit en de enorme openingshoeken. De monitor waar ik nu nog mee werk is een s-ips fotomonitor met fantastisch beeld voor een LCD maar een OLED is mooier.
Ik ga er een keer voor denk ik. De ultimate pc bouwen.
De "ultimate pc" bestaat niet!
Op het moment dat je een pc gebouwd hebt is er al weer wat nieuws (beter?) te krijgen.
En al zou je het voor elkaar krijgen, hoelang kan je het dan een "ultimate pc" blijven noemen?
Misschien een paar maanden als je geluk hebt.
De 4090 komt uit 2022. Dus je hebt ruim 2 jaar de Ultimate PC.
Als er niet ondertussen een betere cpu of ssd is uitgekomen, want dat is ook onderdeel van het totaal pakket. Er is een ding waar je beter niet wacht op nog wat beter, en dat is pc gaming.
CPU is ook net de nieuwere regeratie uit. 7800X3D komt uit april '23 dus ook daar heb je bijna 2 jaar de Ultimate CPU.

Nieuwere SSD maakt verschil tov huidige topsegment.

Wat ik wilde benadrukken: Het niet bestaan van een Ultimate PC is natuurlijk overdreven. Mocht iemand dat echt willen, dan kan dat en ook voor een behoorlijke periode voor PC hardware begrippen. Zeker nu dat generationele verschillen kleiner en kleiner lijken te worden.

[Reactie gewijzigd door Dekar op 26 december 2024 11:52]

Voor hetzelfde geld kun je twee keer een heel behoorlijke compu in elkaar draaien. Heb je twee keer pret.
MSRP is 2500 dollar volgens leaks. Dus zet je kerstbonus maar vast opzij.
En dat voor die paar fps extra die je niet merkt.

Vroeger was het verschil tussen 30 of 50 een groot verschil.

Nu gaat het om fps van 200 of 250 wat je niet merkt.

Tenzij je op een 80 inch scherm wilt gamen en je 4k nodig hebt maar dan is het ook iets totaal anders.
Een 4090 kan geen path tracing aan op 60fps zonder dlss op balanced en frame generation.

Er kunnen grote stappen gemaakt worden bij de 5000-series
Het zou me verbazen als er generatie op generatie geen ( grote ) stappen waren.

En path tracing is leuk en al, maar het zit maar in 2 games, ik zou niet bepaald een GPU halen van meer dan 2K voor 2 games. Voor mij om dat in overweging te nemen moeten er veel meer games zijn met ( goede ) implementaties van path tracing.
Drie games voor zover ik weet, maar ik snap wat je bedoeld.

Mijn gedachte is dat zodra er meer kaarten path tracing een beetje kunnen er ook meer games path tracing gaan ondersteunen.
Ach verkoop je uw 4090 voor 1000… dan is het maar 1500 euro
Mijn verwachting is niet dat de 4090 zoveel waarde gaat verliezen tijdens de 5000 launch. Als je kijkt naar de specificaties van de 5080 is dat nog steeds niet in de buurt van een 4090. Tenzij er een generational uplift van 50% wordt gerealiseerd.

Als je kijkt naar niet alleen de cores, maar ROPs en TMUs dan lijkt het er toch op de 4090 boven deze kaart gaat presteren of iig in de buurt.

Opmerkelijk in de specs is dat het performance verschil tussen de 5090 en de 5080 groter gaat zijn dan bij de 4090 en de 4080.

5080:
https://www.techpowerup.com/gpu-specs/geforce-rtx-5080.c4217

4090:
https://www.techpowerup.com/gpu-specs/geforce-rtx-4090.c3889

5090:
https://www.techpowerup.com/gpu-specs/geforce-rtx-5090.c4216

4080:
https://www.techpowerup.com/gpu-specs/geforce-rtx-4080.c3888
Bij de launch van de 4000 series heeft nvidia ook geprobeerd de 4070 TI als 4080 12GB te launchen. Misschien proberen ze nu de 5070 als de 5080 te verkopen. https://en.wikipedia.org/wiki/GeForce_40_series
Het zou verklaren waarom er zo'n groot verschil zou zijn tussen de 5080 en 5090.
Mogelijk wel de RTX5070TI omdat die met dezelfde GB203-chip komt als de RTX5080

De RTX5090 heeft een GB202-chip
De RTX5080 heeft een GB203-chip
De RTX5070Ti heeft een GB203-chip
De RTX5070 heeft een GB205-chip

.
De RTX 5080 moet beschikken over 10.752 CUDA-cores, 16GB aan GDDR7-geheugen en een 256bit-bus.
Mogelijk 400W

De RTX 5070 Ti over 8960 CUDA-cores, 16GB aan GDDR7-geheugen en een 256bit-bus.
Mogelijk tot 350W

En de RTX 5070 over 6400 CUDA-cores, 12GB aan GDDR7-geheugen en een 192bit-bus.
Mogelijk tot 250W

.
Inderdaad verhaaltje misleiding zoals bij de RTX4080, de betere RTX5080 komt dan later uit.
review: Nvidia GeForce RTX 4080 - De enige echte 4080


.
.. nog steeds geruchten natuurlijk ..


.

[Reactie gewijzigd door MPIU8686 op 26 december 2024 12:47]

Let wel op, U spreekt hier over de RTX4080 met 16GB vram en AD103-300-A1 chip

Maar inderdaad .. het verschil is duidelijk groter ..
Nvidia maakt het verschil gewoon groter om enkele maanden later een RTX5080 Ti / Super op de markt te brengen aan een duurdere prijs die dat verschil zal dichten of komen ze met twee verschillende RTX5080 modellen naar voren zoals verleden jaar met hun twee RTX4080's .. ??
Eentje duurder met normaal vram en eentje goedkoper met ondermaatse vram ....

Die RTX5080 TI / Super komt dan waarschijnlijk wel met een GB202-chip net zoals de RTX5090
of een verbeterde GB203-chip met 20GB vram of 24GB vram

Daarna annuleren ze de gewone RTX5080 en gaat die uit het assortiment zoals vorige keer bij de RTX4080 12GB vram is gebeurd.

review: Nvidia GeForce RTX 4080 - De enige echte 4080

.
Aangezien de RTX5080 al met een GB203-chip komt hebben ze daar geen tussenoplossing meer voor zoals bij de RTX40 reeks het geval was voor de AD103


RTX4070 12GB vram met . . / AD104-250-A1
RTX4070 12GB vram Super met AD104-350-A1
RTX4070 12GB vram Ti met . . / AD104-400-A1

RTX4080 12GB vram met . . / AD104-chip
RTX4080 16GB vram met . . / AD103-300-A1
RTX4080 16GB vram Super met AD103-400-A1
RTX4090 24GB vram met . . / AD102-chip


.

[Reactie gewijzigd door MPIU8686 op 26 december 2024 12:37]

Is er eigenlijk een rede om 16x 2GB aan geheugen te voorzien en niet 4x 8GB of 2x 16GB. Kan men de GDDR7 niet in hogere hoeveelheden maken, of heeft dit snelheidsvoordelen?
De RTX5090 zou een 512-bit brede geheugenbus krijgen. Elke geheugenchip heeft een 32-bit brede aansluiting en daardoor heb je er dus 16 van nodig om de bus te vullen.
675 watt, mss beter om kaart rechtstreeks aan stopcontact aan te sluiten
Naast dat de 5090 een extreem krachtige en peperdure kaart is kan het ook dienen als kachel voor de koude wintertijden. ;)
230v draaien ze maar heel kort op
Hoezo? Je kan ongeveer 3600W op een gemiddeld 230V WCD kwijt, uitgaande van geen verdere belasting op de automaat.
Tijd om een grotere kast te kopen…
Denk niet dat de 50 series veel langer of wijder zullen worden, denk vooral dat ze breder zullen worden. Zou me niet verbazen als een aircooled 5090 5 of 6-slots is.
foto 2 is van de stroomvoorziening van de wijkverdeelkast.
Weer een nieuwe voeding zeker ? Heb er net een met een 12pin gekocht.
Nee 12pin kan meer leveren dan de 4090 nodig had… dus kans dat er een nieuwe connector nodig is is nihil
Er moeten zeker wel 2 van die 12vhpwr connectors komen op de 5090.

De 4090 heeft een TDP van 450w en de 12vhpwr is rated voor 600w, maar omdat je er zo dicht op zit brand die door, duidelijk te zien aan de vele verbrande connectors op de 4090. Het hoeveelheid stroom wat door een PCIE 8-pin kan is veel hoger dan 150w, maar 150w is een extreem veilige limiet.

Als je kijkt naar bijvoorbeeld de Kingpin 3090 Ti, zitten daar 2 12vhpwr connectors op en Kingpin heeft die daar niet voor niks op gezet.
Wat een warrig verhaal...

Ten eerste is het helemaal niet zo dat die verbrandde connectoren kwamen omdat de kaarten "zo dicht op het limiet zaten". Check het betreffende filmpje van Gamers nexus, het is gewoon slecht ontwerp. Als je boven de 450watt een 2e connector nodig hebt is de het limiet van de 12vhpwr connector dus 450 watt en niet 600...
Daarbij, als de limiet 600 watt is, dan is een verbruik van 450watt dus veilig met 1x12vhpwr en exact nul reden om een 2e connector op een kaart te zetten. De geruchten spreken niet over een kaart die meer van 675 watt (600+75 van het slot) gaat gebruiken dus het lijkt me totaal niet aannemelijk.

Ten tweede, die Kingpin kaart is absoluut geen goed voorbeeld, dat is een kaart bedoelt voor overclocken. Onder LN2 kan je wel over die 675watt heen. Dan kan een 2e aansluiting dus nuttig zijn. Maar anders dan in dat specifieke geval heeft het geen nut.
Kingpin heeft er ook wel kritiek op dat de fabrikanten de stroomconnector plaatsen op de plek waar de videokaart het warmst wordt, komt er nog bij dat deze dan bij horizontale plaatsing gemiddeld veel sneller in het geding komt van kasten die niet zo breed zijn terwijl de meeste normale kasten meer dan genoeg ruimte hebben in de lengte, het ziet er ook wel mooier uit wat mij betreft.

Als de samenwerking met PNY doorgaat en hij krijgt zijn zin dan krijgen ook de nieuwe kaarten 2 pluggen, op de lengte van de kaart, want daar is het logischerwijs gewoon koeler, en natuurlijk kan je met 2 plugs de load wel beter balanceren waardoor het algehele plaatje stabieler is maar beiden gemiddeld ook koeler kunnen opereren en dus risico's verder verkleint.

Praktisch is het natuurlijk ook beter want als je met LN2 pots gaat overklokken zitten de connectoren daar gewoon in de weg en een kabel tegen een zijpaneel gedrukt is esthetisch ook niet heel mooi of als deze boven de GPU hangt in verticale positie.

De Kingpin 3090 Ti mocht hij origineel van Nvidia eigenlijk geen 2 stroomconnectoren op plaatsen maar na veel communicatie mocht het toch, zolang beiden volledig elektrisch gescheiden waren.

YouTube: "EVGA is Gone" | KINGPIN's Future, NVIDIA RTX 5090 Plans, & Lab Tour

Nvidia is overigens al jaar en dag bezig met het limiteren wat je als gebruiker mag doen op overklok gebied, eerst mocht EVGA geen EVBot connectoren meer plaatsen voor externe voltage aanpassingen, de laatste kaarten waren volgens mij de EVGA GTX 680 4GB Classified die dit hadden, daarna werden de vbioses verder gelimiteerd betreft voltages en zelfs bij de 1080Ti FTW3 werd de 127% geadverteerde powertarget standaard niet behaald omdat Nvidia dit op vbios niveau limiteerde en hij op 117% bleef steken, totdat Kingpin zelf vbios versies 'uitlekte' zodat dit wel volledig benut kon worden, die links heb ik persoonlijk laten archiveren.

De enige opsteker is dat GPU boost zo goed functioneert, over dat Nvidia voltages hard-capped voor veiligheid zodat je de GPU niet per ongeluk opbrand of heel snel kapot maakt kan je over discussiëren.

Op dit item kan niet meer gereageerd worden.