Nvidia houdt op 7 januari CES-keynote, mogelijk voor aankondiging RTX 50-serie

Nvidia bevestigt dat ceo Jensen Huang op 7 januari een keynote houdt tijdens de CES in Las Vegas. Mogelijk introduceert de topman dan de komende GeForce RTX 50-videokaarten; er gaan al maanden geruchten rond dat Nvidia die tijdens de CES gaat aankondigen.

Nvidia houdt de keynote omgerekend op dinsdag 7 januari 2025 om 3.30 uur Nederlandse tijd, zo bevestigt de organisatie achter de elektronicabeurs CES. Daarbij worden nog geen officiële details bekendgemaakt over de aankondigingen die ceo Jensen Huang tijdens die presentatie zal doen. Het ligt echter voor de hand dat de topman dan de eerste RTX 50-desktopvideokaarten aankondigt.

In juli meldde bekende Nvidia-leaker kopite7kimi al dat de eerste RTX 50-videokaarten tijdens de CES aangekondigd zouden worden. Dat volgde op berichtgeving van Tweakers, dat op basis van ingewijden kon melden dat de kaarten begin 2025 op de markt zouden verschijnen.

Naar verwachting komt Nvidia in eerste instantie met een RTX 5080 en RTX 5090, waarvan onlangs de mogelijke specificaties al uitlekten. Zo zou de RTX 5090 beschikken over 21.760 CUDA-cores, 32GB aan GDDR7-geheugen en een 512bit-geheugenbus. De RTX 5080 moet 10.752 CUDA-cores, 16GB vram en een 256bit-bus beschikken. De videokaarten worden gebaseerd op de Blackwell-architectuur. Vermoedelijk verschijnen de videokaarten eind januari in de winkel.

Vermeende specificaties Nvidia GeForce RTX 5080 en RTX 5090
Videokaart RTX 5090 RTX 5080
Gpu GB202 GB203
CUDA-cores 21.760 10.752
Vram 32GB GDDR7 16GB GDDR7
Geheugeninterface 512bit 256bit
Tgp 600W 400W

Door Daan van Monsjou

Nieuwsredacteur

07-10-2024 • 18:01

105

Submitter: Vurenvos

Lees meer

Reacties (105)

Sorteer op:

Weergave:

Uit de video van Gamers Nexus begreep ik dat de vermelding van een TGP van 600W voor de mogelijke RTX 5090 waarschijnlijk betrekking heeft op het koelvermogen, niet noodzakelijkerwijs op het daadwerkelijke stroomverbruik van de kaart zelf. GN zegt dat dit vaker voorkomt, zoals eerder gerapporteerd bij eerdere generaties zoals de 4090, waarbij Nvidia partners adviseert om koeloplossingen te ontwerpen die dergelijke wattages aankunnen. In plaats van dat de kaart zelf constant 600W trekt, gaat het er meer om dat de koeler in staat moet zijn om die warmte af te voeren. Zo vatte ik het in ieder geval op na het zien van hun video, of zijn er ondertussen nieuwe lekken?

Bron: YouTube: HW News - RTX 5090 & 5080 Leaks, Valve ARM64 Experiments, Intel Arc ... (+/- 1 min kijktijd)

@Llopigat Is niet hetzelfde, de 4090 had volgens geruchten ook een TGP van 600W, en dat werd uiteindelijk 450W, dat later veranderde in een 4090 Ti 600W gerucht.

[Reactie gewijzigd door jdh009 op 7 oktober 2024 18:38]

Mja is toch ongeveer hetzelfde. Energie in, energie uit.

Het betekent niet dat hij de hele tijd 600W trekt maar hij kan het blijkbaar wel, anders hoeft hij het ook niet weg te koelen. En dat betekent dus ook dat je een voeding moet hebben die zo'n hoge piek kan leveren zonder in de hik te schieten.

Betekent dus dat ik na mijn 4090 weer aan een nieuwe voeding ga moeten :/ Heb nu een 850W en dat is voldoende voor de 4090 + 5800X3D maar voor 5090 zal dat wel niet gaan.

Het daadwerkelijke verbruik op de stroomrekening kan me dan weer niet zo boeien. Dat valt in het niets bij de aanschafprijs van die kaart, zeker omdat ik niet zo heel veel zwaar loop te gamen. En waar ik woon betaal ik 17c per kWh incl. BTW dus ik kan wel wat hebben :P

[Reactie gewijzigd door Llopigat op 7 oktober 2024 18:30]

aan de andere kant, er zijn 4070's en 4080's met hetzelfde koelblok wat gebruikt werd op 4090's.
Kan het kloppen dat het koelblok van mijn Strix 4070TiS daaronder valt?
Met een beetje overklokken zie ik af en toe de 360w aantikken.
Daarom zou ik het enigszins plausibel kunnen vinden dat de 5090 zeker de 600w haalt.
7mm minder dik en 2cm korter dan die op de 4090. Maar ook 4 slots.Dus die zal best overkill zijn voor een 4070 ti s. De 4080 Super heeft hetzelfde blok als de 4090. Is goedkoper voor de fabrikant.

[Reactie gewijzigd door Xfade op 7 oktober 2024 20:00]

TGP is Total Graphics Power. Dat is de maximale stroomverbruik. TDP gaat om koelvermogen en is vaak een gemiddeld stroomverbruik, geen piekvermogen.

Dus jammer weer van al die termen die blijkbaar niks meer betekenen.

[Reactie gewijzigd door MrFax op 7 oktober 2024 23:00]

Als je niet zwaar gamed.....waarom zon dikke kaart?
Ik bedoel dat ik het niet zo vaak doe. Maar als ik game dan is het wel zwaar ivm VR.
Kan ik me voorstellen... maar bekijk even de specs boven: als die kloppen heeft de 5090 2x het aantal Cude cores, VRAM en bus breedte, dus eigenlijk als 2 5080s te beschouwen. Interessant genoeg ligt de 4090 daar precies tussen. Nu zijn de cores ook vast weer beter geworden, maar ik denk dat de 5080 nog onder de 4090 gaat komen, de 5090 er weer eens stuk overheen en dan is die 600 W weliswaar een maximum, maar niet onwaarschijnlijk. Met een 1000W voeding gaat het net lukken.
Nog sterker dan bij de 4090 is de 5090 echt een monster en voor normale spelers simpelweg te krachtig. Reken ook maar op een prijs ver over de 2000€. Voor enthusiast spelers begint het leven dan bij de 5080. De 5090 is puur voor professionele toepassing of mensen met een interessante verhouding tussen IQ en banksaldo...
Niet alleen dat. Ook voor VR.

Met mijn VR headset loop ik in Flight Simulator 2020 met medium settings al tegen schokkerigheid aan met de 5800X3D en 4090. VR is echt enorm zwaar, helaas. Die 5090 gaat erg veel verschil maken.

PS: Voor Cyberpunk 2077 met raytracing overdrive mode was het ook subliem om zo'n zware kaart te hebben <3

[Reactie gewijzigd door Llopigat op 7 oktober 2024 19:20]

Die 5800x3d trekt dat ook niet in bebouwd gebied.
Hmm dat zou kunnen. Maar ik had gelezen dat het de beste CPU was voor FS2020 (behalve de 7800X3D uiteraard maar die was niet vreselijk veel sneller).

Met name omdat meer cores er tegenaan gooien toch geen zin heeft omdat het niet met meer cores kan werken.

[Reactie gewijzigd door Llopigat op 7 oktober 2024 19:17]

7800x3d is vaak toch wel meer dan 30% sneller. Maar ik ga mn 5800x3d ook niet upgraden. Tenzij de 9000 x3d's boven verwachting snel en betaalbaar zijn, maar dat verwacht ik niet.
Same here, ga de mijne ook niet upgrade heb een 4090 msi suprime x, draait als een zonnetje. 1
heb je geen last van CPU bottleneck met de 5800X3D?
Zie mijn reactie op @haarbal. Het zou kunnen. FS2020 heeft een profiler maar die kan je niet goed zien in VR helaas.
ik zie het helder
Ook in VR? Bij mij zag ik hem ergens in een ooghoek een beetje, maar hij zat op een heel rare plek. Maar ik zal er wel een topic voor openen op GoT, dat is een betere plek dan hier.
denk da deze voor @batteries4ever bedoeld was?
Zelfde voor X-Plane 12 op mijn Vive Pro 2 8-)
Ah... ik loop nu nog vrolijk stand-alone met een Quest 3 rond. Leuk, maar de graphics ... Zit ook aan een PC te denken, schrik wel terug voor de 3000€ voor een RTX 4090 5090 systeem. Voor sims is de maximale grafische pracht wel vereist.
Niettemin vind ik het schokkend dat je met een 5800X3D + 4090 MSFS niet voluit kunt draaien: heb je dat vergelijken met anderen, is dat normaal? Mocht je een nieuw systeem kopen, bied ik je hierbij alvast een royale €100 voor dat oude aftandse systeem dat echt niet meer kan in 2025! ;)
Ja ik heb dus ook een Quest 3 inderdaad. Wat er gebeurt is dat alles helemaal vervormd wordt zodra ik te hoge settings gebruik. De compressie van de Quest 3 zelf raakt dan in de war denk ik. Ik heb geen goede headset meer die gewoon displayport heeft anders had ik dat wel geprobeerd.
Heb je meer artefacts met VR?
Op één of andere manier heb ik bij m'n Rift S, bij snel m'n hoofd draaien dat er in de hoeken zwarte vervormingen optreden. Hoge of lage resolutie maakt geen verschil.
Ja veel artefacts. Vooral als de computer het zwaar heeft inderdaad.

Die zwarte vervormingen zijn waarschijnlijk de ASW (asynchronous spacewarp). Dan houdt de computer het niet bij en verplaatst hij het vorige frame in de ruimte aan de hand van de veranderende stand van je hoofd. Maar omdat hij niet weet wat er buiten de hoeken gebeurt, wordt dat zwart.
Maar moet je daar dan niet achteraan, b.v. Pimax Crystal o.i.d. of op MSFS Forums?
Een pimax is me veel te duur. Die gaat er niet komen. Een Immersed Visor lijkt me wel wat. Die heeft nog een hogere resolutie dan de Apple Vision Pro en is minder duur dan de Pimax. Maar ik kijk de kat even uit de boom. Sowieso heb ik dan zeker een 5090 nodig vanwege de hogere resolutie :)

En forums, tja daar heb ik niet echt tijd voor gehad. Daar zitten ook zoveel fanbois en daar heb ik niet zo'n zin in. Ik kan het wel eens hier op tweakers vragen.

[Reactie gewijzigd door Llopigat op 7 oktober 2024 19:37]

Pimax heeft nu ook de Crystal Light, die is (zonder controllers en zonder korting) ergens rond de ~750, er struinen volgens mij ook referral en kortingscodes voor 5 of 10% korting rond. Dan kom je enigzins in de buurt van de Quest 3 qua prijs, maar is wel de vraag of je controller wilt ja of nee.

Ik zit inmiddels zonder headset sinds einde van WMR, dag Reverb G2 :(

Ik kijk de kat nog even uit de boom qua wat de volgende word, weet wel zeker dat ik dit echt PCVR wil, zit persoonlijk niet te wachten op draadloos / standalone. Je kan de resolutie nog zo hoog hebben, uiteindelijk zit altijd je met videocompressie waardoor het eindplaatje nooit als goed kan zijn als een DP of HDMI connectie.

Ik zou persoonlijk ook headsets in de gaten houden die eye tracking ondersteunen voor foveated rendering (headset tracked via je ogen waar je kijkt, en alles dat niet in je center of vision zit word automatisch op een lagere resolutie / kwaliteit gerendered). In DCS scheelt dit tientallen FPS, FS2024 schijnt er ook support voor te gaan krijgen. Ik speel zelf vooral ACC en had daar met de G2 via OpenXR fixed foveated rendering, zelfde principe maar dan zonder de eyetracking. Dat scheelde toch een FPS of 20, alleen zonder eye tracking heel noticable helaas.

Een headset met DP/HDMI connectie i.c.m. met foveated rendering en FSR/DLSS/XeSS levert denk ik en mooiere plaatjes op en heeft minder resources nodig om te draaien waardoor je misschien ook af kan zonder 5090, maar toch een mooi plaatje. (maar begrijp mij niet verkeerd, als ik mijzelf de huidige prijzen kon verantwoorden had ik dat 100% zeker gedaan! Er zijn alleen nog zoveel andere ook leuke dingen :p)
Oh bedankt voor de tip van de pimax light. Misschien wel eens een optie. Maar ik ben momenteel erg met de Quest bezig omdat ik er ook wel eens software voor maak. Ik doe niet alleen PCVR. Als ik hem rond de 500 kan krijgen dan doe ik het wel.
Ik zit inmiddels zonder headset sinds einde van WMR, dag Reverb G2 :(
Oh, is HP niet met een andere oplossing gekomen dan? Dat valt me tegen van ze :-( HP is eigenlijk de enige die nog WMR deed en zo oud is de Reverb G2 niet dus ik had verwacht dat ze wel met een eigen driver gekomen zouden zijn. Heel raar dat ze hun klanten gewoon in de kou laten staan.

DLSS heb ik veel slechte ervaringen mee met VR. Dat is ook een van de redenen dat ik zo'n zware kaart heb. In 2D gaat het allemaal wel, maar in VR zie ik blurry meters, soms een dubbele horizon afhankelijk van de lichtomstandigheden en dergelijke rare artifacten.

[Reactie gewijzigd door Llopigat op 7 oktober 2024 20:55]

Helaas v.z.i.w. niet. Als ik hem nu aansluit doet 'ie gewoon niks meer. Eigenlijk ook van de pot gerukt. Ik heb de V2 versie (tweedehands dat wel) die volgens Google in 2022 (V1 in 2020) op de markt is gekomen voor ~700 euro welke nu 2,5 jaar later softwarematig onklaar is gemaakt. Dat is eigenlijk nog gewoon in de garantieperiode voor gemiddelde electronica 8)7 Ben nog wel benieuwd of iemand er 'werk' van gaat maken.

Ik doe (deed...) zelf eigenlijk alleen simmen met VR. Vooral race-games maar MSFS of DCS World af en toe ook zeker niet verkeerd, ben erg benieuwd naar FS2024 en er komt een nieuwe Asseto Corsa aan met nog verder verbeterde VR support. En ik begreep dat er in Q3 dit jaar nog wat grote VR hardware releases gaan komen, vandaar dat ik nog even de kat uit de boom kijk.

Zelfde ervaring gehad met FSR1/2 inderdaad, ook flickering af en toe dat best storend kon zijn, ik heb nog niks kunnen proberen met (native) FSR3.x en AMD FluidMotionFrames (frame generation), en zat altijd met een WMR vertaallaag ertussen wat OpenXR af en toe nogal lastig deed doen.

Uiteindelijk is het een (voor mij) een kosten/baten dingetje aangezien ik weet dat een X090 GPU niet voor mij in verschiet ligt, dus ik moet de performance ergens vandaan halen :p Daarom voor mij voor de volgende headset ook de focus op eyetracking, voor de foveated rendering wat een flinke performance boost oplevert zonder grote downsides.
Toevallig nieuwe windows 11 update geïnstalleerd?
Ze hebben WMR er zomaar even uitgesloopt.

Dit is ook besproken in de reacties van betreffende artikel (niet in artikel zelf)

Staat ook aangekondigd bij microsoft

Zelf trouwens ook een reverb G2 gebruiker, maar heb ook een quest 3 ondertussen.
Toch zonde dat ze het op deze manier spelen, zeker omdat ze geen alternief driver package aanbieden
Jup. Heb standaard Windows Update gewoon aanstaan, had het hele WMR stuk gemist tot ik de headset wou gebruiken en deze niet meer gedetecteerd werd in Windows. Optie om de update proberen te verwijderen, downgraden naar Windows 10, allebei dingen waar ik niet op zit te wachten.

Ik kwam gisteren nog wel dit tegen, een opensource implementatie van WMR (?): https://monado.freedesktop.org/#supported-hardware

Hiermee zou de G2 (en andere WMR devices) weer werkend te maken moeten zijn, maar ik heb het zelf nog niet geprobeerd.

Neemt niet weg dat ik het eigenlijk stuitend vind dat HP / Microsoft dit juridisch gezien kunnen flikken, over keihard genaaid worden gesproken :/
Met een 7800x3d, rtx 4090 en een reverb g2 kan je ook fs2020 niet op max draaien. Heel zwaar spel is het.

W leuk met een rtx 4090 is dsr. Hiermee kan je spellen op hogere resolutie dan je beeldscherm aan kan renderen en dan wordt het teruggeschaald, wat veel beter werkt dna anti aliasing. Zo speel ik horizon zero dawn op max settings op 6k resolutie op mijn 4k oled tv. Gta5 speel ik 1440p en kan daarmee dus op 4k renderen.
Toch gestoord eigenlijk: goed MSFS is natuurlijk in veel opzichten HET spel: waar anders hebben een stel maniakken zo ongeveer de complete wereld ingestopt? Maar dat het spel te zwaar is voor een €3000+ game PC is wel echt ernstig... wellicht hebben ze het spel eenvoudig voor de toekomst alvast ontwikkelt en heb je een RTX 7090 o.i.d. nodig om het spel echt soepel te draaien... Ergens wordt een Cessna dan toch goedkoper!
Ik wou net vragen wat voor een voeding je dan nodig zou hebben, 1000 watt zou dus genoeg zijn dan haal ik dat niet maargoed ik ben ook niet van plan een videokaart aan te schaffen van 2000 euro.
Je koelvermogen is een continu iets, maar piekstromen kunnen een hogere piek hebben dan je koelvermogen. Het is geen thermisch probleem als je kaart tijdelijk 0.1 graad opwarmt, maar het kan wel betekenen dat je elektriciteitsconsumptie tijdelijk de TDP overstijgt.

Een TDP van 600W betekent dat er uitgegaan wordt van een gemiddeld verbruik van 600W over meerdere seconden onder hoge load. Dat kan dus schommelen tussen de 550W en 650W, en je voeding moet ook die 650W piek dan kunnen leveren.
600W tgp? Moet niet gekker worden….
Zal een 850 watt voeding nog net gaan?
Ligt eraan of je er een 14700K bij steekt of niet :X
Heb nu nog een 5800x3d
Ja dit vraag ik me dus ook af. Ik heb nu 5800X3D + 4090 + 3x SSD (2xNVMe). Gaat prima met mijn 850W maar met een 5090? Ik vrees het niet. Ben ook wel benieuwd wat de anderen daar van denken.
Samen met een recente intel processor vermoed ik van niet 😟
Daar zou ik me niet zo druk om maken, als je dit beest weet te bemachtigen, wat duur (~2500 euro gok ik) en vast wel lastig gaat zijn, dan kan er ook wel een voeding bij van 1000W.
Hoort ook nog een energierekening bij.. voeding zal de laatste zorg zijn vrees ik. 600W x 10 uur/week x 25ct = 78 euro per jaar.

En dan ook nog de kaart aanschaffen. Reken er maar op dat NVIDIA de 5090 niet goedkoop gaat maken. Ik heb geen enkele basis voor deze geruchten, dus neem het met een korrel zout: maar zou mij niets verbazen als de 5090 ver boven de 2000$ wegzetten. Het is letterlijk 2x zoveel specs als de 5080, en meestal vragen ze al een extra premium voor. 3k$ zou mij dan ook niet verbazen.

Gelet op het aantal cores dat de 5080 krijgt tov de 4080, heb het ik het idee dat ze de vlaggenschip xx90 kaarten deze generatie nog veel laten lopen uitlopen tov de xx80 kaarten (netzoals de 4090 dat ook was)

[Reactie gewijzigd door Hans1990 op 7 oktober 2024 19:38]

78 euro is 1 keer uit eten voor Nederlanders.
en dan de maaltijd delen going dutch!.
Zo werkt dat niet. De opgegeven nummers zijn max mogelijk verbruik voor korte duur. Met normaal gebruik haal je dat bij lange niet, laat staan met Windows zaken.
TGP is Typical Gaming Power. Het typische verbruik tijdens gamen met onbeperkte framerate. De piek vermogensafname kan nog hoger liggen, met name momentaan. Het verbruik kan ook lager liggen als je de settings verlaagt en/of framerate locked.

In 2D zal verbruik idd stuk lager liggen, daarom reken ik ook met 10 uur in-game tijd per week.

[Reactie gewijzigd door Hans1990 op 8 oktober 2024 13:03]

600W tgp? Moet niet gekker worden….
Exact wat de 4090 was voor launch.
Bovendien kan je em altijd terugklokken als je dat teveel vindt. Krijg je betere performance per watt dan midrange kaarten.
Doet me beettje dat als je heel voorzichtig rijdt met een dikke auto met een V8 er in, je zuiniger kan rijden dat kleine autootjes:

YouTube: Top Gear - Audi A8 Fuel Economy Challenge from London to Edinburgh a...
Er zitten wel wat haken en ogen aan de vergelijking omdat kleinere autos ook minde massa en frictie hebben om te verplaatsen. Dus ik denk dat er nog steeds een beter optimum is voor kleine autos.

Bij GPUs zou dat ook het geval kunnen zijn zij het niet dat de meeste caseloads sterk paralleliseerbaar zijn en de overheid van een grotere gpu beperkt. Maw liever veel rekenkernen op lagere clockspeed dan weinig op hogere clock speeds. Wang hogere clockspeeds zijn minder efficient vanuit een performance per watt perspectief.

Kortom een grotere GPU is meestal gewoon zuiniger vanuit dat perspectief. Het hoeft zijn eigen gewicht en banden en luchtweerstand niet te dragen. Bij een auto is dat wel anders.

De vergelijking zal wel opgaan als je kijkt naar trekkracht per watt. I.e. je wil zo efficient mogelijk een grote massa verplaatsen in plaats van zo snel en efficient mogelijk van A naar B.

[Reactie gewijzigd door PjotterP op 8 oktober 2024 14:31]

Ik ben wel benieuwd wat het verbruik gaat zijn van de 5090, en hoe groot een gemidelde kaart gaat zijn.
Het prestatieverschil en prijs was ongeveer 35% tussen de 4080 en 4090 bij release. De vermeende specificaties duiden op een groter verschil bij de nieuwe generatie.

Als de 5080 de 4090 prestaties evenaart en 1000 euro kost, dan is dat een mooie vooruitgang, maar ik verwacht niet dat de 5090 tweemaal sneller wordt dan zijn voorganger.

Ik als enthousiasteling zie wel graag meer prestaties. Nieuwe games (vooral UE5) in 4k met alle toeters en bellen zonder upschaling halen de 60fps niet met de 4090 :)
Ik zoek vooral betere 'value for money'. In plaats van kaarten groter en zwaarder te maken zou ik liever zien dat ze de huidige of vergelijkbare prestaties in een kleinere, goedkopere, stillere en veel minder stroomvretende kaart weten te krijgen. Met de huidige energietoestanden maar ook klimaatproblematiek zou zuinigheid een speerpunt moeten zijn, zowel in de marketing als in de productontwikkeling.

Dat er dan ook ontwikkelingen in de top-range zijn is verder prima, maar ook daar verwacht je niet dat die prestaties bereikt worden door simpelweg meer energie te verstoken.
De 4090 IS value for money. Je betaalt veel maar je krijgt ook veel.
Je krijgt wel veel ja, maar als je vergelijkt met de 4070 super dan is de 4090 50% sneller maar 200% duurder.
Precies dit. Leuk dat ze de maximale performance steeds hoger weten te zetten, maar de prijzen zijn evenredig en zo niet meer, gestegen. Prijs/performance ratio is daarmee goed zoek imo.

4K schermen en bijbehorende toestanden bestaat al een behoorlijk tijdje, maar het is zelfs na al die jaren nog steeds stervensduur om daar een passende videokaart voor te kopen waarmee je de games goed kunt spelen. Ik kan me niet herinneren dat dit met de introductie van 1080p zo lang duurde. In mijn herinnering (kan vertroebeld zijn) kon je met een 200-300 euro kaart alles van die generatie games op ultra spelen en waren de duurdere kaarten vooral om de toekomst voor te zijn. Maargoed wellicht is de herinnering mooier dan de realiteit toen was.

Maar verder, van een 4090 kaart qua prijsniveau en het feit dat dit de zwaarste kaart is die je kan kopen verwacht ik eigenlijk monsterprestaties. Dan denk ik niet aan 60fps in een enkel 4K scherm, maar 3 4k-schermen met 144hz / FPS;
Dan moet je kijken naar AMD's APU's. Dan krijgen ze de hele GPU bij de CPU gepropt. Kleiner dan dat wordt het niet.

Alsnog, bij constante performance is élke NVIdia kaart efficienter dan z'n voorganger, zonder uitzonderingen.
Denk niet NVIDIA uit de goedheid van haar hart je 'meer voor minder' aan gaat bieden.

Ze hebben slimme marketingmensen in dienst die hardware zo kunnen plaatsen dat het de shareholders maximaal over de stropdas streelt.
Dat lijkt me wel duidelijk. Wat moeten ze anders aankondigen voor consumenten? Het is immers de CES. Ik hoop dat de prijzen niet al te gek worden en ik weer een FE kan vinden. Ik ben erg dol op de Founders Editions. Die hebben niet dat lelijke blingbling RGB gerommel van OEM kaarten met schreewende designs en hebben een mooie stevige metalen behuizing. Ik wou dat ze ze niet zo exclusief zouden maken. Het is elke keer weer een gedoe om ze te vinden.

Wel jammer dat er maar GDDR7 in zit. Voor de prijs die hij ongetwijfeld gaat kosten had er best wel HBM3 in gemogen. Bijvoorbeeld die van Samsung die Nvidia niet goed genoeg vond voor hun pro kaarten. Maar ik denk dat dat hem te aantrekkelijk zou maken als alternatief voor hun LLM kaarten.

[Reactie gewijzigd door Llopigat op 7 oktober 2024 18:36]

Wat ik me alleen afvraag, hebben die FE kaarten niet wat mindere prestaties waar het gaat om bijvoorbeeld geluidsproductie? Want ik zie ze vaak niet bepaald bovenin de benchmarks hangen.
Oh geluidsproductie interesseert me niet. Ik game atijd met een hoofdtelefoon of een VR headset op (meestal het laatste). En ik gebruik die PC alleen om te gamen en wat ontwikkeling (en tijdens het laatste staan de GPU fans gewoon stil).

Maar ik moet zeggen dat de geluidsproductie me heel erg meevalt. Heb nu een NXZT H5 Flow v1 kast met 6 fans erin, en die maken meer herrie dan die van de 4090. Heb ze dan ook wel vrij hoog gezet omdat ik in een warm land woon. En er hadden wel Noctua's in gemogen. Heb nu enkele BeCool en de twee NZXT's die bij de kast zaten (flut dingen zonder PWM).

[Reactie gewijzigd door Llopigat op 7 oktober 2024 18:38]

Naja dat kan. Ik ben persoonlijk erg gevoelig voor geluid en heb het liefst een systeem wat je niet hoort. Dus dat is voor mij wel echt een focus-punt. Ik heb een gehooraandoening (milde hyperacusis) waardoor geluiden erg snel storend zijn.

Wat ik apart vind is dat al die OEM kaarten OC versies betreft. En idd veel RGB-onzin. Ik ruil dat minieme beetje extra performance graag in voor een super-stille grafische kaart, waarin men bijvoorbeeld ook aandacht heeft besteed aan het reduceren van coil whine. Daar zou ik graag wat meer voor betalen.

Zo heeft iedere zijn wensen :)
HBM3 op de 5090, terwijl je GDDR7 voor de 5080 gebruikt zou de 5090 teveel een niche-kaart maken. Dit is geen kaart die in hoge volumes verkoopt, en dan is een afwijkende architectuur een dure uitzondering.
KFA2 kaarten zijn prima neutraal. Bijna saai zelfs. Niet zo'n knappe behuizing als de FE edities, maar ook niet van die Fernandes kleuren.
Hier kijk ik zeer naar uit!
Tgp 600W 400W
Blij met m'n 200 watt 4070 Efficiency Monster :) I'll pass.
Helaas geen optie met mijn 240hz 4k oled monitor :+
Dus die ligt nu te verstoffen omdat de 5090 nog niet uit is?
4090 lukt het wel redelijk :+
Ah ok, lekker, dacht dat je erop doelde dat je per se deze 5090 uit het artikel wilde.
Een 4090 trekt dat ook wel met wat minder details :)

Misschien niet alles 240Hz alleen. Maar die schermen zijn toch bijna altijd variable framerate.
Helaas geen optie met mijn 240hz 4k oled monitor :+
Vind het nog wel aardig gaan met die combi eigenlijk. Alleen moet dlss wat harder zn best doen.
Probeer hem eens te undervolten, je zult zien dat ie prima stock snelheden haalt op ~920mv, hoogste verbruik wat ik gezien heb is 130 watt :9~
hmm , dan hoef ik tenminste niet in de winter mn verwarming aan te maken, als ik een rtx5090 heb, die kan een kamer zo voor je op warmen :Y)
De rijksoverheid wil ons van het gas af hebben.

Dus eigenlijk moeten we wel, als brave burgers zijnde. :+
Ligt het aan mij of is het verschil tussen de 5090 en 5080 significant groter dan bij alle andere voorgaande generaties? 2x zoveel Cuda cores, 2x zoveel geheugen en een dubbele bandbreedte voor dat geheugen. Volgens mij hebben we bij nVidia nog nooit zo'n groot onderscheid gezien tussen de beste kaart en die daar onder voor 1 generatie.
Ligt niet aan jou. Als deze specs kloppen is de 5080 gewoon generfed zodat ze later een super variant met meer VRAM kunnen lanceren.
32GB GDDR7 met een 512bit geheugenbus, mijn pc heeft gewoon nog minder (16GB DDR4), we’ve come a long way.

Ik vroeger nog blij zijn met mijn Voodoo 3 2000 PCI met 16MB geheugen, wat toen al een hele upgrade was! Vooral als je games speelde die de Glide API ondersteunde of OpenGL, wat een tijden 😁

[Reactie gewijzigd door storchaveli op 7 oktober 2024 18:51]

2x Voodoo II 12 MB, toen bestond SLI ook al :) Dat kwam dan in Device Manager als "Monster Voodoo", wat een lekker moment was dat zeg.

edit:
19:20
@storchaveli De Voodoo 2 was ook een add-on kaart met VGA kabel buitenom, volgens mij had je voor SLI dan een interne pass-through kabel tussen de 2 Voodoo 2's en hoefde je er maar 1 naar je 2D-kaart te lussen, maar het is wel erg lang geleden dus pin me er niet op vast.

[Reactie gewijzigd door TV_NERD op 7 oktober 2024 19:20]

Klopt ja 😉 Voodoo 2 heb ik nooit gehad, wel de voodoo 1, wat een ‘add-on’ kaart was die je buiten je kast om met een monitor kabel moest koppelen aan je bestaande grafische kaart. En toen A2 Racer deel 2 en Carmageddon 2 opstarten en zag je het 3DFX logo, dan wist je gewoon dat je een leuke tijd tegemoet zat te komen geweldig. 😁

[Reactie gewijzigd door storchaveli op 7 oktober 2024 19:11]

Voor huidige games is die 32GB totale overkill natuurlijk.. Het is meer bedoeld voor mensen die aan videobewerking etc doen..
Is ook waar, maar er zullen genoeg mensen zijn met diepe zakken die hem aan gaan schaffen om puur op te gamen, gewoon ‘omdat het kan’ 🤷‍♂️🤣
En omdat het veruit de best presterende videokaart is om mee te gamen.. Waar de komende jaren waarschijnlijk niks overheen gaat totdat de RTX 6090 uitkomt..
16 GB is wel krapjes, tegenwoordig, hoor. Firefox trekt dat met gemak vol.
Ik heb zelf geen pc, alleen een oude iMac van 13 jaar oud. Maar ik vraag me echt af wat het stroomverbruik is van een Nvidia 4090 in combinatie met andere top-spec pc hardware. En wat zou dat per maand kosten op de energierekening?
Ik denk niet dat veel RTX 4090 kopers daar wakker van liggen..
triviaal bedrag aan energie voor gaming. Als je het voor rendering gebruikt dan bespaart het alleen maar energie juist.

Grote kaarten zijn relatief juist zuiniger.

[Reactie gewijzigd door PjotterP op 7 oktober 2024 19:48]

Ik heb een RTX4090 en met mijn LG OLED tv, monitor, Denon versterker en SVS subwoofer, gebruik ik gemiddeld 1 kWh, dat is ongeveer € 0.40 per uur. Ik game per maand zo'n 100 uur. Dus 100 uur × € 0.40 = € 40 per maand.
Vergeleken met mijn andere hobby's is PC gaming goedkoop.
De vuistregel is: 1 Watt continu kost 2 euro per jaar.

Dus zeg dat die kaart 500 watt trekt, dat je 2.4 uur per dag (10% van je tijd) gamet, dan is dat per jaar 500 * 2 * 0.1 = 100 euro, of 8 euro per maand.

Zeg even voor het gemak dat het GPU de helft is van je compu, dan trek je in totaal 16 euro per maand, of te wel 50 cent per dag. Kun je tien minuutjes van parkeren :P

Op dit item kan niet meer gereageerd worden.