'Krachtigere versie van Nvidia RTX 5090 komt uit in Q3 2026'

Nvidia brengt dit jaar mogelijk een krachtigere variant van zijn RTX 5090-videokaart uit. Bronnen van het Franse Overclocking.com stellen dat de fabrikant rond het begin van het derde kwartaal een 5090 Titan- of Ti-model wil uitbrengen.

Overclocking.com schrijft dat 'vijf of zes' betrouwbare bronnen gehoord hebben dat Nvidia momenteel werkt aan een videokaart die boven de RTX 5090 geplaatst wordt. Dat is momenteel de krachtigste consumenten-gpu die de fabrikant levert. De Franse site zegt 'concreet bewijs' te hebben dat een RTX 5090 Titan of 5090 Ti aan het begin van het derde kwartaal verschijnt. De oplage van de kaart zou klein zijn. De gpu wordt naar verluidt voornamelijk als Founder's Edition uitgebracht. Er worden verder geen specificaties over het product bekendgemaakt.

De komst van de gpu zou niets te maken hebben met het recente gerucht dat de RTX 50 Super-modellen zijn uitgesteld naar volgend jaar. Nvidia zou dat hebben besloten vanwege de huidige geheugentekorten. Daardoor leek het erop dat er in 2026 helemaal geen nieuwe RTX-videokaarten worden uitgebracht, maar volgens Overclocking.com klopt dat dus niet.

Nvidia GeForce RTX 5090

Door Kevin Krikhaar

Redacteur

09-02-2026 • 09:30

88

Reacties (88)

Sorteer op:

Weergave:

De gpu wordt naar verluidt voornamelijk als Founder's Edition uitgebracht.
Het komt Nvidia voor de gpu tak best goed uit dat de prijzen nu absurd zijn. Ze doen al jaren moeilijk tegen partners, met steeds meer focus op hun eigen versie.
Nog even en alle partners gaan overkop en Nvidia heeft wat het wil, totale controle over hun gpu's. En ze hoeven niet eens de boeman te zijn door te stoppen met leveren als alle partners gewoon failliet zijn gegaan.
Wel benieuwd wat er gebeurd met de AMD & Intel gpu aandeel als er in de gemiddelde winkel slechts 5 nvidia sku's liggen. Het is wat dat betreft alleen maar hopen dat nvidia hun reputatie met leveranciers nog verder verknalt.
Vind ik een vreemde reactie. Tot nu toe brengt Nvidia nog altijd wel de betere kaarten op de markt. Tegen een forse premium, dat zeker, maar het is niet alsof Nvidia troep op de markt brengt.
Tot nu toe brengt Nvidia nog altijd wel de betere kaarten op de markt.
Sneller niet perse beter. Imo 2 hele andere zaken, ik vind AMD beter, ondanks dat nvidia sneller is ;)

Maargoed hij schetst toch een specifieke voorwaarde die uit moet komen en pas DAN wenst hij iets (toe)? Die voorwaarde laat jij dan weg door naar het heden/verleden te kijken, jij oordeelt dus over nu en hij over een mogelijke (dus gespeculeerde) toekomst...
Sneller niet perse beter. Imo 2 hele andere zaken, ik vind AMD beter, ondanks dat nvidia sneller is
Performance is wel grotendeels de onderscheidende factor als het gaat tussen “slechte” en “goede” gpus. Neem daarbij betere compatibiliteit met software buiten games om vanwege cuda. DLSS dat nog voor versie 4.5 reeds de beste upscale techniek is en met 4.5 echt een grote streep voor heeft op de concurrentie. Dan blijft er de prijs over, maar amd en Nvidia vragen voor dezelfde performance, dezelfde prijs. Klinkt voor mij dat jou keuze om amd als de betere te zien nogal subjectief is.
In Linux land staat AMD ondanks dit performance nadeel toch een stuk beter in de boeken dan Nvidia gewoon puur rond (driver) support.
Dat zie je ook in Nvidia's marktaandeel hier.

Dit mag je afschrijven als een marge die er niet toe doet maar hier is evengoed al enige tijd flink groei gaande door de efforts van Valve, en de open source community, om Linux geschikter te maken als platform voor gaming.
En (vermoedelijk onbedoeld) Microsoft's efforts Windows minder geschikt te maken voor een steeds bredere groep mensen door arbitraire systeemeisen en een betrekkelijk harde push richting cloud en AI.

[Reactie gewijzigd door Polderviking op 9 februari 2026 11:12]

Absoluut waar wat je zegt, maar laten we nou eerlijk zijn. De keuze voor AMD HW in Valve producten (Steamdeck) is niet om driver support. Maar letterlijk omdat Nvidia niks op de plank had liggen wat voldoet aan de hoofd design criteria v.d steamdeck. 15W TDP voor zowel CPU alsmede GPU.

Nvidia heeft behalve de ARM Tegra SOC's alleen GPU's voor x86 land, en geen integrated oplossingen zoals AMD dat heeft, en nog voor een nette (anno 2022 , originele Steamdeck release) power budget waar niemand tegenop kon. 100% zeker weten als nvidia wel wat op de plank had, en Valve daarvoor koos omdat het gewoon beter voor hun product/visie was, driver support hun allerminste problemen waren geweest, dat zou dan gewoon worden geregeld in de deal die Valve zou maken.
Het is niet alleen de handheld markt waar AMD terrein heeft hier, gebruikers met Linux op hun PC, zeker die echt bewust de switch gemaakt hebben, zijn ook veel meer geneigd voor AMD te gaan of er op termijn naartoe te switchen omdat die support gewoon ingebakken zit.

[Reactie gewijzigd door Polderviking op 9 februari 2026 12:29]

Klinkt voor mij dat jou keuze om amd als de betere te zien nogal subjectief is.
Zou ik daarom schrijven:
ik vind AMD beter
Naar mijn idee is wat beter (of slechter) is altijd subjectief in deze context :)

Een ander gaat nooit voor mij bepalen wat ik beter of slechter vind :Y)
Dus een algemeen statement dat X beter is dan Y gaat er gewoon niet in.
Performance is wel grotendeels de onderscheidende factor als het gaat tussen “slechte” en “goede” gpus.
Voor jou, voor mij niet.

En DLSS en FSR kunnen mij gestolen worden, dus goed voorbeeld van iets wat net zo goed persoonlijk is.

[Reactie gewijzigd door watercoolertje op 9 februari 2026 12:12]

Waar grote partijen voor AI het blijkbaar weinig interesseert, is dit met uitzonderingen daar niet het geval voor de gewone consument. Sterker nog met het uitblijven van nieuwe GPU's, met het uitblijven van consumenten die de laatste GPU's kopen vermoed ik dat spel ontwikkelaars ook minder de limiet zullen pushen aangezien maar weinig mensen een 5090 hebben laat staan op termijn een FE.

Dan mag Nvidia wel de beste kaarten produceren, maar het zou me niet verbazen dat toch minder mensen er na vragen, niet alleen vanwege de hoge prijzen maar ook dat het minder nodig is. Ik game niet zoveel meer maar ik ben best wel tevreden met m'n 3060, het moet raar lopen dat ik dit jaar iets nieuws koop en met mij velen andere.
Veel gamers zullen toch steeds wat mooiere graphics willen, of meer fps bij actiespellen. Met betere videokaarten zullen ontwikkelaars games ontwikkelen die daar gebruik van maken, wat weer de vraag naar nog betere videokaarten aanwakkert.

Dat geldt voor zowel het midden- als top segment denk ik. Alleen, waar vroeger het topsegment voor een flinke groep nog betaalbaar was is het dat nu niet meer. Waar ik vroeger om de paar jaar een nieuwe top-kaart kocht doe ik dat nu niet meer, maar ik koop ook geen middensegment kaart. Dan zou ik er qua VRAM op achteruit gaan, en dat voelt niet goed.

Dat heeft op termijn ook gevolgen voor andere hardware die ik zou kopen, want zonder nieuwe GPU is er minder noodzaak om de rest van de PC te upgraden of te vervangen.

Hopelijk komt er enige concurrentie op het hogere segment, maar volgens geruchten lijkt AMD zich óók van de consument te vervreemden om zich te concentreren op de AI hype. Indien waar dan moeten hobbyisten zich op de profesionele markt begeven of tevreden zijn met de kruimels die overblijven.

[Reactie gewijzigd door Allard op 9 februari 2026 13:12]

Nee maar wel brandende troep :P
Net zoals AMD dus.... Want ook AMD heeft problemen (gehad) met die connectors..
AMD is ook al begonnen met zichzelf weg te prijzen bij consumenten door vol mee te gaan in de AI hype.
Dit is wel de strategie die 3dfx uiteindelijk de kop heeft gekost. Op het hoogtepunt van hun succes dachten zij ook "we hebben die tussenpartijen niet nodig, we gaan volledig zelf onze eigen videokaarten uitbrengen", met als gevolg dat hun partners allemaal overstapten naar de concurrenten (ironisch genoeg was dat vooral Nvidia) en dat 3dfx aan relevantie verloor en uit de markt gedrukt werd.

Nu is de huidige situatie wel compleet anders, met minder variatie aan GPU designs en veel minder concurrentie, maar desondanks maakt Nvidia zichzelf op dit moment niet populair bij de consument, noch bij hun partners. Als ze zich volledig op de enterprise-markt willen focusen dan is dat hun keuze, maar dan moeten ze niet verbaasd staan te kijken als ze op een bepaald moment compleet weggevaagd en vervangen zijn op de consumentenmarkt.
Ik mis iets in het verhaal.
Een ASUS/MSI (de fabrikant) koopt het recht om de NVIDIA GPU te gebruiken en ontwikkelen zelf een bord en brengen het uit (zo werkt het toch?).
In het geval van 3DFX gingen ze zelf de functie van ASUS/MSI overnemen, waardoor ASUS/MSI de GPU van de concurrent gingen verkopen. Prima, maar als de 3DFX dan prijs/kwalitatief beter was dan de concurrent, waarom zou ik dan niet van 3DFX kopen? Of stegen de videokaarten toen in prijzen waardoor klanten massaal overstapten?
Het was een samenloop van een aantal factoren. Met de Voodoo 3 ging het 3dfx nog wel goed af, maar ze misten de boot een beetje qua innovatie, waar Nvidia en ATi wel volop aan het ontwikkelen waren met features als 32-bit color support en hardware T&L. Met de Voodoo 4 & 5 maakte 3dfx weer een inhaalslag, maar die kaarten werden meer de markt in gezet als premium producten met een premium prijs, en dat terwijl de Voodoo 1 & 2 juist zo succesvol waren omdat ze betaalbare kaarten voor de alleman waren.

Maar wat ook sterk meespeelt is marketing. Al die voormalige 3dfx-partners die overstapten naar Nvidia en ATi, die zetten ook al hun gezamenlijke marketing-krachten in om hun GPU's aan de man te brengen. En daarnaast maakte gezonde concurrentie dat de prijzen van Nvidia- en ATi-kaarten flink naar beneden gepusht werden, waardoor die na verloop van tijd een veel betere prijs-prestatie-verhouding hadden dan wat 3dfx te bieden had. Het was dus geen verrassing dat 3dfx-verkopen al snel als een plumpudding in elkaar zakten.
Ik ben zelf destijds overgestapt van de voodoo banshee 16MB naar de radeon 32MB. De voodoo 3 had inderdaad slechts 16 bit kleur en dat zag je vaak meteen ingame aan de color banding. 3dfx had ook zijn eigen Glide api naast direct x en opengl. Ik denk dat de kaarten na de voodoo 3 ook geflopt zijn door het concept van SLI toe te passen op 1 kaart. Je had kaarten met 1, 2 en zelfs 4 gpu's, kortom meer stroomverbruik voor relatief minder fps. Nvidia had vanaf de Geforce 2 ook de populaire mx lijn, met dezelfde featureset als de duurdere kaarten. Niet alleen fps was toen belangrijk maar ook welke gfx features je kon aanleggen.
voodoo was beter en ik bleef trouw aan voodoo tot het eind (ik ging letterlijk met cash in de hand om een vooodoo 5 5500 agp die net uit zou zijn te kopen toen ik de planken bij de mediamarkt waar tot voor kort alleen voodoo kaarten lagen, leeg aantrof... noodgedwongen een geforce2 moeten kopen, die EN duurder was EN lichtjaren achterlag op voodoo.. de val van voodoo heeft de gpu performance zeker 4 jaar teruggezet in een tijd dat gpu generaties elkaar elke 12-15 maanden opvolgden en elke generatie een nieuwe dx versie en features hadden.

feitelijk als je gewoon zoals ik altijd wilde gewoon overzichtelijkheid wilde, was voodoo beter.
geen 100 modellen zoals nvidea deed per serie.

gewoon 1 of 2 (de x000 was de maincard de x500 was een sli kaart, met twee chips op 1 kaart.., identiek aan het kopen van twee keer x000 maar dan maar 1 slot gebruikend en vaak net iets goedkoper dan twee x000s..

dus er kwam ALLEEN de voodoo 5 uit, was die te duur voor je dan lagen de voodoo 4 van een jaar geleden, voodoo 3 van twee jaar geleden, voodoo 2 van drie jaar geleden, en voodoo 1 van vier jaar geleden er als je budgetopties naast.

voor ons als klanten IDEAAL geen vaagheid dan de 5070 sneller is dan de 3090 of dergelijke onzin, geen 8gb en 16gb varianten van dezelfde chip, geen normale, super, ti en tisuper varianten van 1 kaart
om nog te zwijgen over laptop versies die niet eens dezelfde chip zijn maar wel dezelfde naam..
===>

maar dat woud van "puin" en "verwarring" lokte natuurlijk wel domme klanten binnen die gelukt werden met "5000 series gpu" en praatjes als bij ons krijg je WEL de laatste generatie niet 3 generaties oud.. en verwarrende statestieken die voor een model gelden maar niet de anderen..en kunnen adverteren met "bij ons kunnen

het blijkt dat gewoon rechtoe rechtaan een eerlijke prijs vragen en geen woud van onzinnige aantallen producten in een lineup.. en een beter en goedkoper product, uiteindelijk minder rendabel was dan de mess van ngredia..

het feit dat 3dfx alle productie binnenshuis hield was niet zozeer een bezwaar, het zorgde dat ze meer marge konden maken, die ze doorrekenden aan klanten en dus een goedkoper product neer konden zetten.
anders dan ngredia, die elke kans om te graaien altijd heeft aangepakt..

[Reactie gewijzigd door DutchGamer1982 op 9 februari 2026 13:31]

AMD heeft een gouden kans om nu in te springen maar laat het afweten. Dus Nvidia blijft lekker aan kop.
AMD heeft hetzelfde probleem met kosten door de RAM shortage.

AMD kan dus helemaal niet zomaar inspringen. Dat word al jaren gezegd, maar het moet financieel en logistiek ook kunnen. Ik denk dat AMD naar financieel nu echt niet bijkan.

Daarnaast denk ik eigenlijk dat AMD het zo wel prima vind gaan. Dat kan je zien aangezien ze de 90 generatie enkel mid range kaarten uitbrachten (9070 XT = ongeveer gelijk aan 5070 Ti).

Ze zitten gewoon lekker te spelen in het middensegment. En dat bevalt ze denk ik prima.

Misschien in de volgende generatie duiken ze wel weer de high end kant op. Misschien niet. Maar ze doen het wel voorzichtig. Wat verstandig is. NVIDIA is enorm nu. Daar wil je jezelf niet aan branden door radicaal er opeens in te gaan springen.

[Reactie gewijzigd door Ricco02 op 9 februari 2026 10:24]

AMD maakt goede winsten op deze prijzen, dus die hebben er ook baat bij om de prijzen hoog te houden. Ze zouden wel lager kunnen aanbieden maar ze kiezen er zelf voor niet te concurreren om de prijzen hoog te houden.

Het bevalt ze inderdaad prima. Maar de hearts & minds van de gamers winnen doen ze zeker niet.
Het is gek gezegd bijna liefdadigheid dat ze op dit moment nog aan consumenten verkopen. De winstmarges liggen echt een stuk hoger in de enterprise-markt dan in de cosumenten-markt. Als ze op dit moment meer winst willen maken dan stoppen ze gewoon met het verkopen en poduceren voor consumenten en gebruiken ze hun capaciteit anders. Geldt voor zowel voor AMD als NVDIA. Persoonlijk ben ik bang dat dit de prijs voor consumenten zo hoog maakt waardoor de diensten zoals Geforce Now relatief aantrekkelijk worden. Niks tegen deze dienst, maar wel een stap in de richting van steeds meer betalen voor producten waar je geen eigenaar meer van bent. Ik heb persoonlijk goede ervaringen met Geforce Now dus daar zit de frustratie niet, maar de uiteindelijke onderliggende gedachte met steeds meer macht die bij de bedrijven komt te liggen is niet goed voor de consument.
Dat is zeker geen vreemde gedachten, ook ik moest hier aan denken. Je ziet inderdaad dat bedrijven, steeds meer macht willen en dit is de perfecte manier.
Voor gamers blijven dan straks alleen de consoles over. Spellen koop je niet meer, die stream je via de console.
Voor IT-hobbyisten die performance willen voor andere zaken dan gamen blijft er dan niets over. Wellicht kan je performance in de cloud kopen huren maar dan bepalen bedrijven wat je ermee mag en kan.

Uiteraard zal men laptops, tablets e.d. moeten blijven aanbieden zodat consumenten kunnen blijven consumeren, maar bedrijven bepalen dan je IT-hobby. Misschien dat we dan maar moeten gaan vissen, want aan auto's sleutelen wordt ook steeds moeilijker gemaakt.
Klopt, maar AMD blijft een bedrijf die zo veel mogelijk winst moet draaien om investeerders tevreden te houden.

Als ze minder winst maken als ze gaan inspringen, dan heeft dat geen zin.
Je ziet het aan de CPU markt. Voorheen was Intel duur en AMD goedkoper.

AMD heeft de laatste 5 jaar zeker hun CPU verhoogt naar wat de markt betaalt. En de topmodellen zijn duurder dan Intel nu. Zie hoe goedkoop een Intel 265K is, en hoe duur een 9950X is bijvoorbeeld.

Ze zijn commercieel en zullen zeker GPU prijzen ook verhogen als dat kan.

[Reactie gewijzigd door kujinshi op 9 februari 2026 11:05]

Het lijkt mij niet dat amd het prima vind gaan met minder dan 8% marktaandeel op de gpu kant.
Waarom niet? Als ze lekker de centjes verdienen en kunnen doen wat ze willen doen dan is dat toch ook prima?

Willen ze meer marktaandeel? Vast wel. Maar niet door radicaal in te springen. Daarmee doe je jezelf schade aan.
Zo werkt de wereld ook niet.
AMD heeft langlopende contracten bij de producenten van de chips, TSMC. Net als elk ander techbedrijf trouwens. AMD heeft ook langlopende contracten met haar grote klanten bijvoorbeeld Xbox, Playstation, Steam Deck, etc.
AMD kan niet zomaar van TSMC eisen dat ze meer gaan produceren, die capaciteit is er niet bij TSMC want die heeft ook nog andere verplichtingen. Net zoals AMD niet zomaar kan zeggen dat ze stoppen met Xbox en Playstation chips leveren zodat ze meer videokaarten kunnen maken.
Dit is wel de strategie die 3dfx uiteindelijk de kop heeft gekost.
Ik denk dat er veel meer redenen voor de ondergang van 3dfx zijn geweest dan het besluit om eigen boards te gaan maken. Belangrijkste probleem was meer dat ze niet in staat waren hun hardware op een compatible manier door te ontwikkelen. Dan gaan tientallen board partners je ook niet helpen.
Uiteindelijk zijn er wel ladingen bedrijven die met geïntegreerde producten succesvol zijn geweest. Vrijwel niemand wordt warm van Intel graphics, maar het zijn toch de meest verkochte PC GPUs ter wereld.
Wat je beschrijft m.b.t. de neergang van 3dfx was wel een deel van de oorzaak maar er waren er meer. Een ander deel was ook dat ze technisch overvleugeld werden (o.a. door Nvidia) en ze niet goed mee konden komen in prijsstelling en snelheid van het op de markt brengen van nieuwe producten. Op die vlakken is de huidige positie van Nvidia toch wel heel anders dan de positie van 3dfx toen.
Geloof maar dat deze nieuwere gpu,s flink aan de prijs zijn net zoals die titan videokaarten.

En dan ook nog een ti maken.Ze zullen snel zijn en kort bij versie 6 zitten ze dan volgens mij wel.

[Reactie gewijzigd door rjmno1 op 9 februari 2026 12:33]

Ze hebben vroeger ook 3dfx overgenomen nadat die alles zelf gingen maken en daar onderdoor gingen. Misschien zit die bedrijfscultuur ook in hun genen.
Op zich zou ik dat niet zo heel erg vinden. Ik vind die partner kaarten allemaal lelijk en slecht gebouwd. Grote heatpipes die overal uitsteken, lelijke felle stukken plastic met RGB lichtjes. Bah. Vaak zitten er ook open stukken in waardoor je de printplaat aan kan raken (ESD risico). Ik koop al jaren alleen nog maar FE's. Mooie stevige metalen behuizing en er steken geen stukken printplaat of heatpipe uit. Behalve de PCI connector uiteraard.

[Reactie gewijzigd door Llopigat op 9 februari 2026 12:54]

Het zal me niets verbazen dat ze deze gebruiken om 60 serie uit te stellen.
We hebben wel vaker gezien dat Nvidia dikkere topmodellen boven de topmodellen uitbrengt.

Wat dat betreft is dit geen actie waar wat achter gezocht hoeft te worden.
Wel als het alleen om een absurd duur topmodel gaat en de rest van de line-up geen "refresh" krijgt.. Dan is dat wel afwijkend en opvallend waarover gespeculeerd zal worden waarom dat is..
Ik gok 48GB geheugen net als de RTX Pro 5000 (die de helft minder cores heeft als de RTX 5090) en een 300Watt modus net als de RTX Pro 6000 Q-Max (die ongeveer evenveel cores heeft als de RTX 5090).

[Reactie gewijzigd door djwice op 9 februari 2026 09:38]

En waarschijnlijk met meer ingeschakelde SM's. De GB202 chip van de 5090 heeft 192 SM's waarvan er 170 zijn ingeschakeld. De RTX PRO 6000 gebruikt dezelfde chip met 188 SM's ingeschakeld.
Er zijn al videokaarten boven de RTX 5090, neem bijvoorbeeld de RTX 6000 pro welke een volledig ingeschakelde GB202 chip heeft. Dus waarom zou Nvidia in deze markt iets uitbrengen gepositioneerd boven de RTX 5090 wat ze bovendien alleen als FE editie uitgaan brengen.
Klinkt ook niet heel logisch.

Voor gaming alleen hoef je het niet te doen; Voor workflows ben je beter uit met een RTX 6000 pro (want ik verwacht dat de kaart dicht bij die prijs gaat liggen). Zou dan echt voor de idioot zijn die gewoon het beste wil hebben zonder er eigenlijk gebruik van te maken.
Wat denken jullie/ €5000?
5k is de toekomstige richtprijs van de 5090. Dus ik vermoed meer dan dat...
5K is een gerucht, met weinig geloofwaardigheid. Het is letterlijk een meme. Het blijft rondzingen omdat er teveel games boos zijn op NVidia, niet vanwege feiten.

Dat gezegd hebbende, we kunnen niet helemaal uitsluiten dat het gerucht de wereld in is gekomen door deze 5090 Titan.
Uhu, de richtprijs van de 5090 was €2369, als ik nu in de Pricewatch ga kijken (vreselijk met de prijs evolutie grafiek nu by the way) zie ik dat de goedkoopste €3199, vertrokken op €2849 begin dit jaar. De 2de goedkoopste is nog eens €100 duurder, de 3de goedkoopste voegt daar nog eens €300 aan toe. De 4de en 5de nog eens 200 euro. Je bent de top 5 goedkoopste nog niet uit en je zit al aan €3799. €5000 tegen het eind van het jaar zit er absoluut wel in. En natuurlijk heeft de 50 serie al bewezen dat er zelfs een markt bestaat in de €5000.

Prijzen voor GPUs zijn sterk aan het stijgen en Nvidia heeft daar direct invloed op. Is het gerucht vals? Misschien, maar ondanks dat jij zegt dat er "weinig geloofwaardigheid" voor is, zijn de voorspellingen van dat gerucht toch echt wel gewoon aan het uitkomen.
Er zijn nog steeds FE drops van 2099 euro, je moet er alleen verrekte snel bij zijn (als in minder dan een minuut) helaas. Maar de richtprijs hebben ze dus niet verhoogd.
En toch hebben we gezien tijdens de introductie dat er weldegelijk een handel in 5k RTX5090 kaarten was. Hoe groot dit geweest is, is een vraagteken maar er stonden behoorlijk veel 4 t/m 5k advertenties hier in NL en in de VS. Dus als Nvidia weer een rem zet op de afgifte en daardoor bewust een WW schaarste creëert geef ik ze toch veel kans op succes. Kopers zijn ook inmiddels bewust gewend gemaakt aan deze mega prijzen voor Vkaarten.

[Reactie gewijzigd door Toine1 op 9 februari 2026 09:53]

Tja er zijn mensen die hetzelfde geld aftikken om sportiever uitziendere velgen onder hun BMW te hangen. Of voor sjieke golfclubs. Eigenlijk is het raar dat het zo lang geduurd heeft.

Het is aan de concurrenten om onder de prijs te gaan en aan consument om de afweging te maken.
Er is een markt voor de 5090 voor 5000 euro, het is alleen een hele korte termijn markt. Het is niet duurzaam, elk jaar een upgrade doen voor een nieuwe XX90 GPU die ook elk jaar duurder wordt gaat op een gegeven moment ook niet meer leuk zijn voor de hobbyisten en streamers die de top of the line willen.
Gelukkig is de cadans elke twee jaar, scheelt toch weer.

RTX 5090 officieel uitgebracht op 30 januari 2025.

RTX 4090 officieel uitgebracht op 12 oktober 2022.
Lol, misschien is NVidia nu zover doorgeslagen dat ze de versienummers gewoon als richtprijs kunnen gebruiken :)
Dan is het wachten tot na de 9800GTX9090RTX weer een RTX 150 uitkomt.
Maar dan kan die nooit meer kosten dan 5090.
Het is natuurlijk een mooie eigenschap om als gamer positief te kunnen denken maar dat doen de aandeelhouders van Nvidia ook. En gezien de huidige vraag/aanbod-situatie rondom Nvidia-producten vrees ik dat hun positieve gedachten (in de zin van 'hogere opbrengsten') eerder een feit gaan worden. Helaas.
Een rug minder, met als tagline “4K44K”
Is het nu al niet rond de 4000€? Pak maar 8000€
Als Nvidia een echte 5090 Super uitbrengt:
MSRP rond €2.400 – €2.800

Als het een 5090 Ti / Ultra is (waarschijnlijker volgens geruchten):

MSRP rond €2.900 – €3.600

Als het een echte Titan-achtige Blackwell is
MSRP rond €3.900+
Ik denk eerder ronde de 3500-4000. En dan gaan ze nog steeds als warme broodjes.
Mijn eerste gedachte toen ik de titel las
Dus even voor mijn beeld:
Vorige week was het nog "we stellen de Super-serie en RTX 60 uit want er is een gigantisch geheugentekort".
En nu lezen we dat er wél ruimte is voor een nog lompere 5090 Titan/Ti?


​Dat laat toch precies zien hoe de vork in de steel zit. Dat 'tekort' is dus heel selectief. Voor een 'Founder's Edition' kaart waar ze waarschijnlijk 3K+ voor kunnen vragen is er ineens wel geheugen beschikbaar, maar de productie voor de wat betaalbaardere kaarten ligt stil.


Bevestigt eigenlijk gewoon dat ze puur sturen op maximale winst per chip en de gewone consument achteraan sluit in de rij. Als je maar genoeg betaalt is er blijkbaar helemaal geen tekort.
“Als je maar genoeg betaalt is er blijkbaar helemaal geen tekort.”

Op zich is dat ook het hele idee van prijsstijgingen bij een tekort. Dat heet marktwerking :)
Inderdaad, als ze op een 5090TI/Titan net zo'n marge maakt als op AI aan datacenters, blijft Nvidia netjes deze kaart uitbrengen. Dat noemt men spreiden van risico.

Kan zelfs goed voor gamers zijn, want slechte exemplaren komen dan ook weer uit de wafer en dat worden dan weer 5090's en 5080's.
Dat 'tekort' is dus heel selectief....Als je maar genoeg betaalt is er blijkbaar helemaal geen tekort.
Maar dat is gewoon hoe economie werkt. Er worden er op dit moment meer geheugenchips gemaakt dan ooit tevoren. Maar de vraag is veel hoger dan het aanbod en de grote klanten kunnen de daaruit volgende hoge prijzen betalen. Als NVIDIA een nieuwe GPU maakt en ze klanten hebben die de hoge prijs willen betalen, moeten ze het zeker doen.

Er is geen werkelijk tekort aan memory chips. Je kan ze gewoon kopen. Maar je zal moeten opbieden tegen andere klanten. Economie 101.
Ze zouden zich nog meer moeten richten op de zakelijke markt, daar verdienen ze veel en veel meer per GPU, minder leuk voor ons de gamers maar voor het bedrijf veel beter.
Nvidia is groot geworden dankzij gamers. Jarenlang hebben wij het merk opgebouwd, de drivers getest, de hype gecreëerd. En nu ze dankzij AI ineens datacenters kunnen melken, worden diezelfde gamers behandeld als tweederangs klanten met opgeblazen prijzen voor midrange hardware (de 5090 bedoel ik niet trouwens. Dat is geen gaming-kaart imo). Ze zouden moeiteloos een competitieve gaming-lineup kunnen uitbrengen zonder dat de CFO er wakker van ligt. Het is geen óf-óf situatie, het is puur hebzucht. Dat verdedigen vanuit 'het is beter voor het bedrijf' is Stockholm-syndroom van de consument.

[Reactie gewijzigd door stx op 9 februari 2026 10:01]

Is elk bedrijf niet zo.
De marges op hun AI-producten zijn blijkbaar echt wel fors hoger dan dan die van hun GPU's voor de consumentenmarkt. Blijkbaar maakt gaming nog maar 7% uit van de winst en leveren AI-producten bijna 10x zoveel winst op. Als ik aandeelhouder was zou ik dan wel weten waar ik zou willen dat men de focus op legde.
kortetermijn winst!

... en zodra de bubbel barst, terug naar de klantengroep die je links hebt laten liggen, die je met open armen ontvangen.
Dat is misschien de reden waarom ze de consumentenmarkt nog niet volledig verlaten. Maar laten we eerlijk zijn: als het gaat om high end graphics zijn er weinig alternatieven en dat zal ook niet zo snel veranderen. Wat dat betreft vermoed ik dat ze bij Nvidia niet zo angstig zijn dat hun traditionele klanten (gamers) zich snel van hen zullen afkeren.
Ze zouden zich nog meer moeten richten op de zakelijke markt, daar verdienen ze veel en veel meer per GPU, minder leuk voor ons de gamers maar voor het bedrijf veel beter.
Op korte termijn misschien, maar andere aanbieders krijgen dan ruimte en kunnen ook de gamers als springplank gebruiken om juist ook de AI markt in te gaan :)

Dus nee op lange termijn hoeft het helemaal niet positief te zijn voor Nvidia om een markt (die ze zelf als springplank hebben gebruikt naar AI) te laten liggen zodat een ander dat ook kan gaan doen.

[Reactie gewijzigd door watercoolertje op 9 februari 2026 09:59]

Zéér onwaarschijnlijk gezien de huidige situatie, maar het is dan ook een gerucht.
Mee eens, ik de huidige markt lijkt het me heel erg onwaarschijnlijk. En als het al uitkomt is de kaart of onbetaalbaar en als deze kaart wel betaalbaar wordt zal die permanent uitverkocht zijn.

Dit lijkt mij meer wensdenken, of de AI markt moet instorten.
Even de gamers paaien voor t geval de bubble knapt. Kunnen die chips weer mooi verkocht worden als grafische kaarten. Het extra ram is toch al gekocht.

Klapt ie niet, gerucht
Nog krachtiger?! Waar is dat goed voor, vraag ik me af.
Voor meer pracht en praal/resolutie/frames/ai...
Als er genoeg geheugen op zou zitten zou ik grotere LLM modellen lokaal kunnen draaien. Als ik nu een GPU zou kopen voor bijv. Kimi K2.5 zou ik een H200 nodig hebben. Van dat bedrag kan ik een auto kopen. Zelfs een RTX 6000 met 48GB zou ik er 5 van moeten kopen a ~ €8K per stuk.
De RTX 5090 Deep Sea Whale Uitmelk Edition.

Om te kunnen reageren moet je ingelogd zijn