'Krachtigere versie van Nvidia RTX 5090 komt uit in Q3 2026'

Nvidia brengt dit jaar mogelijk een krachtigere variant van zijn RTX 5090-videokaart uit. Bronnen van het Franse Overclocking.com stellen dat de fabrikant rond het begin van het derde kwartaal een 5090 Titan- of Ti-model wil uitbrengen.

Overclocking.com schrijft dat 'vijf of zes' betrouwbare bronnen gehoord hebben dat Nvidia momenteel werkt aan een videokaart die boven de RTX 5090 geplaatst wordt. Dat is momenteel de krachtigste consumenten-gpu die de fabrikant levert. De Franse site zegt 'concreet bewijs' te hebben dat een RTX 5090 Titan of 5090 Ti aan het begin van het derde kwartaal verschijnt. De oplage van de kaart zou klein zijn. De gpu wordt naar verluidt voornamelijk als Founder's Edition uitgebracht. Er worden verder geen specificaties over het product bekendgemaakt.

De komst van de gpu zou niets te maken hebben met het recente gerucht dat de RTX 50 Super-modellen zijn uitgesteld naar volgend jaar. Nvidia zou dat hebben besloten vanwege de huidige geheugentekorten. Daardoor leek het erop dat er in 2026 helemaal geen nieuwe RTX-videokaarten worden uitgebracht, maar volgens Overclocking.com klopt dat dus niet.

Nvidia GeForce RTX 5090

Door Kevin Krikhaar

Redacteur

09-02-2026 • 09:30

133

Reacties (133)

Sorteer op:

Weergave:

De gpu wordt naar verluidt voornamelijk als Founder's Edition uitgebracht.
Het komt Nvidia voor de gpu tak best goed uit dat de prijzen nu absurd zijn. Ze doen al jaren moeilijk tegen partners, met steeds meer focus op hun eigen versie.
Nog even en alle partners gaan overkop en Nvidia heeft wat het wil, totale controle over hun gpu's. En ze hoeven niet eens de boeman te zijn door te stoppen met leveren als alle partners gewoon failliet zijn gegaan.
Wel benieuwd wat er gebeurd met de AMD & Intel gpu aandeel als er in de gemiddelde winkel slechts 5 nvidia sku's liggen. Het is wat dat betreft alleen maar hopen dat nvidia hun reputatie met leveranciers nog verder verknalt.
Vind ik een vreemde reactie. Tot nu toe brengt Nvidia nog altijd wel de betere kaarten op de markt. Tegen een forse premium, dat zeker, maar het is niet alsof Nvidia troep op de markt brengt.
Tot nu toe brengt Nvidia nog altijd wel de betere kaarten op de markt.
Sneller niet perse beter. Imo 2 hele andere zaken, ik vind AMD beter, ondanks dat nvidia sneller is ;)

Maargoed hij schetst toch een specifieke voorwaarde die uit moet komen en pas DAN wenst hij iets (toe)? Die voorwaarde laat jij dan weg door naar het heden/verleden te kijken, jij oordeelt dus over nu en hij over een mogelijke (dus gespeculeerde) toekomst...
Sneller niet perse beter. Imo 2 hele andere zaken, ik vind AMD beter, ondanks dat nvidia sneller is
Performance is wel grotendeels de onderscheidende factor als het gaat tussen “slechte” en “goede” gpus. Neem daarbij betere compatibiliteit met software buiten games om vanwege cuda. DLSS dat nog voor versie 4.5 reeds de beste upscale techniek is en met 4.5 echt een grote streep voor heeft op de concurrentie. Dan blijft er de prijs over, maar amd en Nvidia vragen voor dezelfde performance, dezelfde prijs. Klinkt voor mij dat jou keuze om amd als de betere te zien nogal subjectief is.
In Linux land staat AMD ondanks dit performance nadeel toch een stuk beter in de boeken dan Nvidia gewoon puur rond (driver) support.
Dat zie je ook in Nvidia's marktaandeel hier.

Dit mag je afschrijven als een marge die er niet toe doet maar hier is evengoed al enige tijd flink groei gaande door de efforts van Valve, en de open source community, om Linux geschikter te maken als platform voor gaming.
En (vermoedelijk onbedoeld) Microsoft's efforts Windows minder geschikt te maken voor een steeds bredere groep mensen door arbitraire systeemeisen en een betrekkelijk harde push richting cloud en AI.

[Reactie gewijzigd door Polderviking op 9 februari 2026 11:12]

Absoluut waar wat je zegt, maar laten we nou eerlijk zijn. De keuze voor AMD HW in Valve producten (Steamdeck) is niet om driver support. Maar letterlijk omdat Nvidia niks op de plank had liggen wat voldoet aan de hoofd design criteria v.d steamdeck. 15W TDP voor zowel CPU alsmede GPU.

Nvidia heeft behalve de ARM Tegra SOC's alleen GPU's voor x86 land, en geen integrated oplossingen zoals AMD dat heeft, en nog voor een nette (anno 2022 , originele Steamdeck release) power budget waar niemand tegenop kon. 100% zeker weten als nvidia wel wat op de plank had, en Valve daarvoor koos omdat het gewoon beter voor hun product/visie was, driver support hun allerminste problemen waren geweest, dat zou dan gewoon worden geregeld in de deal die Valve zou maken.
Het is niet alleen de handheld markt waar AMD terrein heeft hier, gebruikers met Linux op hun PC, zeker die echt bewust de switch gemaakt hebben, zijn ook veel meer geneigd voor AMD te gaan of er op termijn naartoe te switchen omdat die support gewoon ingebakken zit.

[Reactie gewijzigd door Polderviking op 9 februari 2026 12:29]

Er is vast wel een distrotje waar nvidia het aardig op doet
Klinkt voor mij dat jou keuze om amd als de betere te zien nogal subjectief is.
Zou ik daarom schrijven:
ik vind AMD beter
Naar mijn idee is wat beter (of slechter) is altijd subjectief in deze context :)

Een ander gaat nooit voor mij bepalen wat ik beter of slechter vind :Y)
Dus een algemeen statement dat X beter is dan Y gaat er gewoon niet in.
Performance is wel grotendeels de onderscheidende factor als het gaat tussen “slechte” en “goede” gpus.
Voor jou, voor mij niet.

En DLSS en FSR kunnen mij gestolen worden, dus goed voorbeeld van iets wat net zo goed persoonlijk is.

[Reactie gewijzigd door watercoolertje op 9 februari 2026 12:12]

Het is wel handig wanneer je dit op een discussie fora plaats er een rationaliteit achter zit die je dan ook deelt. Zo niet dan wordt het allemaal erg willekeurig.

Radeon is bijvoorbeeld is meestal goed in prijs/prestatie (helaas minder afwijkend dan vroeger) en linux drivers. Geforce is op zijn beurt weer beter in prestaties/watt, maximale prestaties, dlss en het aantal ontwikkelaars waarmee ze samenwerken ligt (veel) hoger.
Dan blijft er de prijs over, maar amd en Nvidia vragen voor dezelfde performance, dezelfde prijs.
Dat klopt natuurlijk voor geen meter. AMD vraagt doorgaans een stuk minder voor dezelfde prestaties deze generatie terwijl het featuregat dankzij FSR4 toch een stuk kleiner is (ook tov DLSS 4.5 dat in veel opzichten meer een side-grade dan een upgrade is).

9060XT 8GB is sneller en even duur als de 5060, de 9060XT 16GB is nagenoeg dezelfde performance als de 5060 Ti 16GB voor €80 minder, de 9070 is sneller dan de 5070 voor hetzelfde geld (om over de VRAM niet te beginnen) en de 9070XT is nagenoeg even snel als de 5070 Ti voor een slappe €150 minder. Prijs-prestatie heeft AMD het deze generatie goed voor elkaar en hoewel DLSS nog steeds wel een streepje voor heeft, is het verschil in de praktijk hoofdzakelijk in de game support waar AMD helaas wel wat achterloopt (maar in oudere games is het natuurlijk ook gewoon minder relevant omdat de nieuwe kaarten die ook prima zonder upscaling goed draaien). En er komt natuurlijk ook altijd nog bij dat als je een upgrade uitvoert van alleen de GPU de AMD GPUs doorgaans minder van je CPU vragen en dus in scenarios waar de CPU de beperkende factor is toch wel een stuk beter presteren en in menig realistisch scenario (lees: niet de review-benchmark met de 9800X3D) ook betere minimum-FPS leveren die bestwel vaak door de CPU worden bepaald.

nVidia maakt wel veruit de snelste kaart. Maar de prijs-prestatie verhouding was al absurd en dat is met de recent prijsstijgingen alleen nog erger geworden (inmiddels betaal je >4x de prijs van de 9070XT voor minder dan 2x de prestaties.)

[Reactie gewijzigd door Darkstriker op 9 februari 2026 23:14]

Die 80€ extra voor dlss en cuda is het in mijn ogen helemaal waard. Tot zover komt fsr niet in de buurt van dlss. En dlss4.5 is zo goed dat het zonde is om het niet te gebruiken. Het levert vaak betere kwaliteit op door de goede AA. Maar verder heb je wel gelijk.
Waar grote partijen voor AI het blijkbaar weinig interesseert, is dit met uitzonderingen daar niet het geval voor de gewone consument. Sterker nog met het uitblijven van nieuwe GPU's, met het uitblijven van consumenten die de laatste GPU's kopen vermoed ik dat spel ontwikkelaars ook minder de limiet zullen pushen aangezien maar weinig mensen een 5090 hebben laat staan op termijn een FE.

Dan mag Nvidia wel de beste kaarten produceren, maar het zou me niet verbazen dat toch minder mensen er na vragen, niet alleen vanwege de hoge prijzen maar ook dat het minder nodig is. Ik game niet zoveel meer maar ik ben best wel tevreden met m'n 3060, het moet raar lopen dat ik dit jaar iets nieuws koop en met mij velen andere.
Veel gamers zullen toch steeds wat mooiere graphics willen, of meer fps bij actiespellen. Met betere videokaarten zullen ontwikkelaars games ontwikkelen die daar gebruik van maken, wat weer de vraag naar nog betere videokaarten aanwakkert.

Dat geldt voor zowel het midden- als top segment denk ik. Alleen, waar vroeger het topsegment voor een flinke groep nog betaalbaar was is het dat nu niet meer. Waar ik vroeger om de paar jaar een nieuwe top-kaart kocht doe ik dat nu niet meer, maar ik koop ook geen middensegment kaart. Dan zou ik er qua VRAM op achteruit gaan, en dat voelt niet goed.

Dat heeft op termijn ook gevolgen voor andere hardware die ik zou kopen, want zonder nieuwe GPU is er minder noodzaak om de rest van de PC te upgraden of te vervangen.

Hopelijk komt er enige concurrentie op het hogere segment, maar volgens geruchten lijkt AMD zich óók van de consument te vervreemden om zich te concentreren op de AI hype. Indien waar dan moeten hobbyisten zich op de profesionele markt begeven of tevreden zijn met de kruimels die overblijven.

[Reactie gewijzigd door Allard op 9 februari 2026 13:12]

Nee maar wel brandende troep :P
Net zoals AMD dus.... Want ook AMD heeft problemen (gehad) met die connectors..
minder.....en de rede weet jij ook
Beter in welk opzicht?

Die kaart vreet teveel stroom!

Er is geen ene game op de markt die er gebruik van maakt!

De studio's zijn lui geworden
Mwah, als je 12v niet kan reguleren
Meerkeuze:
Te dom

Foutje

Scheelt kosten hardware

Te lui

Geeft niks om consumenten


Verder hele mooie hardware, goede drivers maar 5000 series Nee Dank je.
AMD is ook al begonnen met zichzelf weg te prijzen bij consumenten door vol mee te gaan in de AI hype.
Dit is wel de strategie die 3dfx uiteindelijk de kop heeft gekost. Op het hoogtepunt van hun succes dachten zij ook "we hebben die tussenpartijen niet nodig, we gaan volledig zelf onze eigen videokaarten uitbrengen", met als gevolg dat hun partners allemaal overstapten naar de concurrenten (ironisch genoeg was dat vooral Nvidia) en dat 3dfx aan relevantie verloor en uit de markt gedrukt werd.

Nu is de huidige situatie wel compleet anders, met minder variatie aan GPU designs en veel minder concurrentie, maar desondanks maakt Nvidia zichzelf op dit moment niet populair bij de consument, noch bij hun partners. Als ze zich volledig op de enterprise-markt willen focusen dan is dat hun keuze, maar dan moeten ze niet verbaasd staan te kijken als ze op een bepaald moment compleet weggevaagd en vervangen zijn op de consumentenmarkt.
Ik mis iets in het verhaal.
Een ASUS/MSI (de fabrikant) koopt het recht om de NVIDIA GPU te gebruiken en ontwikkelen zelf een bord en brengen het uit (zo werkt het toch?).
In het geval van 3DFX gingen ze zelf de functie van ASUS/MSI overnemen, waardoor ASUS/MSI de GPU van de concurrent gingen verkopen. Prima, maar als de 3DFX dan prijs/kwalitatief beter was dan de concurrent, waarom zou ik dan niet van 3DFX kopen? Of stegen de videokaarten toen in prijzen waardoor klanten massaal overstapten?
Het was een samenloop van een aantal factoren. Met de Voodoo 3 ging het 3dfx nog wel goed af, maar ze misten de boot een beetje qua innovatie, waar Nvidia en ATi wel volop aan het ontwikkelen waren met features als 32-bit color support en hardware T&L. Met de Voodoo 4 & 5 maakte 3dfx weer een inhaalslag, maar die kaarten werden meer de markt in gezet als premium producten met een premium prijs, en dat terwijl de Voodoo 1 & 2 juist zo succesvol waren omdat ze betaalbare kaarten voor de alleman waren.

Maar wat ook sterk meespeelt is marketing. Al die voormalige 3dfx-partners die overstapten naar Nvidia en ATi, die zetten ook al hun gezamenlijke marketing-krachten in om hun GPU's aan de man te brengen. En daarnaast maakte gezonde concurrentie dat de prijzen van Nvidia- en ATi-kaarten flink naar beneden gepusht werden, waardoor die na verloop van tijd een veel betere prijs-prestatie-verhouding hadden dan wat 3dfx te bieden had. Het was dus geen verrassing dat 3dfx-verkopen al snel als een plumpudding in elkaar zakten.
Ik ben zelf destijds overgestapt van de voodoo banshee 16MB naar de radeon 32MB. De voodoo 3 had inderdaad slechts 16 bit kleur en dat zag je vaak meteen ingame aan de color banding. 3dfx had ook zijn eigen Glide api naast direct x en opengl. Ik denk dat de kaarten na de voodoo 3 ook geflopt zijn door het concept van SLI toe te passen op 1 kaart. Je had kaarten met 1, 2 en zelfs 4 gpu's, kortom meer stroomverbruik voor relatief minder fps. Nvidia had vanaf de Geforce 2 ook de populaire mx lijn, met dezelfde featureset als de duurdere kaarten. Niet alleen fps was toen belangrijk maar ook welke gfx features je kon aanleggen.
voodoo was beter en ik bleef trouw aan voodoo tot het eind (ik ging letterlijk met cash in de hand om een vooodoo 5 5500 agp die net uit zou zijn te kopen toen ik de planken bij de mediamarkt waar tot voor kort alleen voodoo kaarten lagen, leeg aantrof... noodgedwongen een geforce2 moeten kopen, die EN duurder was EN lichtjaren achterlag op voodoo.. de val van voodoo heeft de gpu performance zeker 4 jaar teruggezet in een tijd dat gpu generaties elkaar elke 12-15 maanden opvolgden en elke generatie een nieuwe dx versie en features hadden.

feitelijk als je gewoon zoals ik altijd wilde gewoon overzichtelijkheid wilde, was voodoo beter.
geen 100 modellen zoals nvidea deed per serie.

gewoon 1 of 2 (de x000 was de maincard de x500 was een sli kaart, met twee chips op 1 kaart.., identiek aan het kopen van twee keer x000 maar dan maar 1 slot gebruikend en vaak net iets goedkoper dan twee x000s..

dus er kwam ALLEEN de voodoo 5 uit, was die te duur voor je dan lagen de voodoo 4 van een jaar geleden, voodoo 3 van twee jaar geleden, voodoo 2 van drie jaar geleden, en voodoo 1 van vier jaar geleden er als je budgetopties naast.

voor ons als klanten IDEAAL geen vaagheid dan de 5070 sneller is dan de 3090 of dergelijke onzin, geen 8gb en 16gb varianten van dezelfde chip, geen normale, super, ti en tisuper varianten van 1 kaart
om nog te zwijgen over laptop versies die niet eens dezelfde chip zijn maar wel dezelfde naam..
===>

maar dat woud van "puin" en "verwarring" lokte natuurlijk wel domme klanten binnen die gelukt werden met "5000 series gpu" en praatjes als bij ons krijg je WEL de laatste generatie niet 3 generaties oud.. en verwarrende statestieken die voor een model gelden maar niet de anderen..en kunnen adverteren met "bij ons kunnen

het blijkt dat gewoon rechtoe rechtaan een eerlijke prijs vragen en geen woud van onzinnige aantallen producten in een lineup.. en een beter en goedkoper product, uiteindelijk minder rendabel was dan de mess van ngredia..

het feit dat 3dfx alle productie binnenshuis hield was niet zozeer een bezwaar, het zorgde dat ze meer marge konden maken, die ze doorrekenden aan klanten en dus een goedkoper product neer konden zetten.
anders dan ngredia, die elke kans om te graaien altijd heeft aangepakt..

[Reactie gewijzigd door DutchGamer1982 op 9 februari 2026 13:31]

De Geforce2 lag echt geen lichtjaren achter op de Voodoo van die periode, waar haal je dat nu.
Interessant om te lezen, maar ik geef toch de voorkeur aan "100" modellen. Als budget betekende dat je een kaart van vorig jaar moet gebruiken, dan vraag ik me ook af of daarbij het verbruik van vorig jaar bij hoorde. Praktisch is het ook om te diversificeren: de best gebakken chips zijn voor de top-GPU's en chips die je anders weg zou moeten gooien, kun je nu voor langzamere kaarten gebruiken. Door die inkomsten kunnen de duurdere chips ook wat goedkoper worden, plus de andere chips zijn wel op het laatste procedé, wat zuiniger is.
voodoo was beter en ik bleef trouw aan voodoo tot het eind (ik ging letterlijk met cash in de hand om een vooodoo 5 5500 agp die net uit zou zijn te kopen toen ik de planken bij de mediamarkt waar tot voor kort alleen voodoo kaarten lagen, leeg aantrof... noodgedwongen een geforce2 moeten kopen, die EN duurder was EN lichtjaren achterlag op voodoo.. de val van voodoo heeft de gpu performance zeker 4 jaar teruggezet in een tijd dat gpu generaties elkaar elke 12-15 maanden opvolgden en elke generatie een nieuwe dx versie en features hadden.
Ik verwacht dat je in de war bent met de Geforce 2 MX budget lijn. De Geforce 2 GTS was al sneller; GeForce2 GTS vs. Voodoo5 5500 - Tweakers. Er was daarnaast ook nog een Geforce 2 Pro, Ti en Ultra. Die waren nog een klap sneller. De GTS had namelijk 200 Mhz core clock, 166 Mhz memory en 5.3 GB/s terwijl de Ti op 250 Mhz draaide, 200 Mhz geheugen en 6.4 GB/s.

De eerst volgende nieuwe architectuur was tevens ook helemaal niks mis mee. Ik had zelf volgens mij de Ti 4400 die ongeveer 2x sneller was dan de Voodoo 5. Ondertussen had Radeon ook prima opties.

Dus nee van het verval dat je beschrijft is geen sprake.

Dit is overigens wel een leuke kijk in het verleden (vooral de comments ook): nVidia neemt bijna compleet 3dfx over! - Tweakers.

[Reactie gewijzigd door sdk1985 op 9 februari 2026 15:50]

de voodoo5 5500 agp kwam uit eind juni 2000.

ik had dat jaar examen gedaan en was dus al vanaf mei hard aan het werk er een bij elkaar te verdienen.

-> zwart werk.. cash in hand, en geen gezeur over teveel uren wegens leeftijd e.d.

ik weet nog dat hij 949 gulden zou kosten.

ik kocht een geforce 2 aan het einde van die zomer voor veel meer, ik dacht 1199 Gulden maar het kan ook 1399 geweest zijn..

ik weet wel dat ik me goed bestolen voelde voor iets wat slechter was dan ik had willen kopen..

**dat is gezien de prijs absoluut geen MX

**en dat kan ook geen MX200, MX400 of TI geweest zijn, die kwamen pas in 2001 uit.

-> de GTS was het niet, die was nooit zo duur.

**de Pro, kan, maar ik meen me toch echt te herrinneren de kaart eind van de zomer gekocht te hebben, niet pas mer sinterklaas.

maar het moet die wel geweest zijn, aangezien de 2 ultra (die kwa maand dat hij uitkwam klopt met mijn herrinnering) 1600 was..

dus het was ok een Geforce 2 Pro in december 2000, of een geforce 2 Ultra in augustus (geheugen 26 jaar later is blijkbaar toch niet 100% vlekkeloos)

(en ik heb alleen erna een Geforce3 ti500 gehad, waarvan ik nog steeds vond "dat ie slechter was dan mijn voodoo"

pas bij de GeForce4 Ti4600 die ik dan daar weer na had, kreeg ik het idee "nu zijn we op het niveau waar ik met mijn voodoo 3 3500 jaren terug al was"

maar dat was dus pas in 2002

waar ik de voodoo 3 3500 al in 1999 had.. oftwel "3 jaar progressie verloren"

en die voodoo 5 5500 uit 2000 daar ver boven had gezeten.

ja ik kan statestieken teruglezen, maar dat doet de ervaring die ik als tiener/jongvolwassene in die jaren had.. niet ten onder.:)
Tja blijkbaar was je die tijd niet zo goed op de hoogte (wat geen schande is):
Zoals uit eerdere reviews bleek is de performance vaak niet veel beter dan de van de al 6 maanden oude GeForce DDR.
en
Last year, we were worried about the Voodoo3's longevity. Its lack of 32-bit-color rendering and its low-resolution texture support will hurt its longevity, we thought. We were right: dozens of games are using 32-bit color and high-res textures, and Voodoo3 owners are either complaining or looking for an upgrade. We're similarly worried about the new Voodoo5 5500's long-term outlook: its lack of T&L support and the lukewarm response from game developers to its biggest feature, the mighty T-buffer, has us wondering if this otherwise decent card will be a liability at this time next year.

[...] In raw performance benchmarks, the Voodoo5 5500 proved to be a competent Direct3D board, although the numbers paled in comparison to GeForce2 GTS benchmarks. The Voodoo5 5500 is actually more competitive with the GeForce 256 DDR, which it trounced in nearly every D3D benchmark we ran. It wasn't quite as consistent as an OpenGL performer, but its Quake III Arena numbers were still respectable.

Here's where the longevity question arises, however: We know our benchmarks consist of established games, and that all of the cards in the performance chart run them reasonably well. Think of the future, however, and know that it's likely that the card that runs current games the fastest will deal best with games that push the envelope, adding more polygons, more detailed textures, and more features. The fastest card today will probably outlast the others, and the Voodoo5 5500 is not the fastest card.
Niemand was positief over de Voodoo3 en 5, laat staan dat Geforce een x jaar stilstand betekende.


Zeker naar mate hardware T&L een ding werd;
Joshua schrijft dat bij Thresh's FiringSquad een niet al te spectaculair derde deel van hun Quake III videokaarten roundup te vinden is. De GeForce2 en GeForce2 Ultra worden vergeleken met de Ati Radeon en Voodoo5. De Conclusies zijn niet al te schokkend: de GeForces zijn overal snel, de Radeon gaat pas meedoen in de hoge resoluties en de Voodoo5 hobbelt er een beetje achteraan:
moet je even naar de reacties onder jouw oude post kijken -> ik ben zeker niet de enige die mijn gedachte had.
zat in 2000 nog niet veel online -> toen zat ik nog aan inbellen vast, wat duur en langzaam was, en tot ergens midden jaren 00 had je nog een datalimiet voor thuisinternet.
AMD heeft een gouden kans om nu in te springen maar laat het afweten. Dus Nvidia blijft lekker aan kop.
AMD heeft hetzelfde probleem met kosten door de RAM shortage.

AMD kan dus helemaal niet zomaar inspringen. Dat word al jaren gezegd, maar het moet financieel en logistiek ook kunnen. Ik denk dat AMD naar financieel nu echt niet bijkan.

Daarnaast denk ik eigenlijk dat AMD het zo wel prima vind gaan. Dat kan je zien aangezien ze de 90 generatie enkel mid range kaarten uitbrachten (9070 XT = ongeveer gelijk aan 5070 Ti).

Ze zitten gewoon lekker te spelen in het middensegment. En dat bevalt ze denk ik prima.

Misschien in de volgende generatie duiken ze wel weer de high end kant op. Misschien niet. Maar ze doen het wel voorzichtig. Wat verstandig is. NVIDIA is enorm nu. Daar wil je jezelf niet aan branden door radicaal er opeens in te gaan springen.

[Reactie gewijzigd door Ricco02 op 9 februari 2026 10:24]

AMD maakt goede winsten op deze prijzen, dus die hebben er ook baat bij om de prijzen hoog te houden. Ze zouden wel lager kunnen aanbieden maar ze kiezen er zelf voor niet te concurreren om de prijzen hoog te houden.

Het bevalt ze inderdaad prima. Maar de hearts & minds van de gamers winnen doen ze zeker niet.
Het is gek gezegd bijna liefdadigheid dat ze op dit moment nog aan consumenten verkopen. De winstmarges liggen echt een stuk hoger in de enterprise-markt dan in de cosumenten-markt. Als ze op dit moment meer winst willen maken dan stoppen ze gewoon met het verkopen en poduceren voor consumenten en gebruiken ze hun capaciteit anders. Geldt voor zowel voor AMD als NVDIA. Persoonlijk ben ik bang dat dit de prijs voor consumenten zo hoog maakt waardoor de diensten zoals Geforce Now relatief aantrekkelijk worden. Niks tegen deze dienst, maar wel een stap in de richting van steeds meer betalen voor producten waar je geen eigenaar meer van bent. Ik heb persoonlijk goede ervaringen met Geforce Now dus daar zit de frustratie niet, maar de uiteindelijke onderliggende gedachte met steeds meer macht die bij de bedrijven komt te liggen is niet goed voor de consument.
Dat is zeker geen vreemde gedachten, ook ik moest hier aan denken. Je ziet inderdaad dat bedrijven, steeds meer macht willen en dit is de perfecte manier.
Voor gamers blijven dan straks alleen de consoles over. Spellen koop je niet meer, die stream je via de console.
Voor IT-hobbyisten die performance willen voor andere zaken dan gamen blijft er dan niets over. Wellicht kan je performance in de cloud kopen huren maar dan bepalen bedrijven wat je ermee mag en kan.

Uiteraard zal men laptops, tablets e.d. moeten blijven aanbieden zodat consumenten kunnen blijven consumeren, maar bedrijven bepalen dan je IT-hobby. Misschien dat we dan maar moeten gaan vissen, want aan auto's sleutelen wordt ook steeds moeilijker gemaakt.
Ja maar ook het idee dat je die kracht zelf straks niet meer mag bezitten geeft me een slecht gevoel daarom zal ik geforce, ook niet steunen met dit beleid.

Begrijp, natuurlijk wel dat het handig is maar ik vind dat je als consument, ook de kans behoort te krijgen om deze kracht in huis te mogen hebben.

Ze geven me nu het gevoel: dat dit ons ontnomen word.
Ik ben het met je eens hoor. ik koop ook nog steeds CD's en BluRays, simpelweg omdat ik het fijn vindt om dingen fysiek te hebben en niet afhankelijk te zijn van een streamingdienst. Daarnaast ook voor de beeld- en geluidkwaliteit die vaak ook beter is bij fysieke media.
Dit is net zoals de politieke gedachten: Heel veel belasting ophalen bij de rijke mensen, die hebben toch veel geld etc?
Het probleem is alleen: er zijn er heel weinig van en dus is er op den duur vrij weinig te halen :D.

Die A.I. hype is preces zo, is alles eenmaal ingericht (en hoeveel is er nog nodig over 2a3 jaar?) dan
zakt de verkoop in als een pudding.

Nu dus even geduld hebben dus. Bij de 100-miljoenen consument valt veel meer te halen.
Klopt, maar AMD blijft een bedrijf die zo veel mogelijk winst moet draaien om investeerders tevreden te houden.

Als ze minder winst maken als ze gaan inspringen, dan heeft dat geen zin.
Je ziet het aan de CPU markt. Voorheen was Intel duur en AMD goedkoper.

AMD heeft de laatste 5 jaar zeker hun CPU verhoogt naar wat de markt betaalt. En de topmodellen zijn duurder dan Intel nu. Zie hoe goedkoop een Intel 265K is, en hoe duur een 9950X is bijvoorbeeld.

Ze zijn commercieel en zullen zeker GPU prijzen ook verhogen als dat kan.

[Reactie gewijzigd door kujinshi op 9 februari 2026 11:05]

Het lijkt mij niet dat amd het prima vind gaan met minder dan 8% marktaandeel op de gpu kant.
Waarom niet? Als ze lekker de centjes verdienen en kunnen doen wat ze willen doen dan is dat toch ook prima?

Willen ze meer marktaandeel? Vast wel. Maar niet door radicaal in te springen. Daarmee doe je jezelf schade aan.
Zo werkt de wereld ook niet.
AMD heeft langlopende contracten bij de producenten van de chips, TSMC. Net als elk ander techbedrijf trouwens. AMD heeft ook langlopende contracten met haar grote klanten bijvoorbeeld Xbox, Playstation, Steam Deck, etc.
AMD kan niet zomaar van TSMC eisen dat ze meer gaan produceren, die capaciteit is er niet bij TSMC want die heeft ook nog andere verplichtingen. Net zoals AMD niet zomaar kan zeggen dat ze stoppen met Xbox en Playstation chips leveren zodat ze meer videokaarten kunnen maken.
Sony & MS kopen hun eigen capaciteit aan bij TSMC. Dat is ook logisch want het ontwerp is op maat gemaakt met inbreng van Sony & MS zelf en ook niet alleen van AMD. Ze zullen natuurlijk wel een licentie kost betalen aan AMD voor het gebruik van hun technologie.
Zelfs als Nvidia gewoon volledig de consumentenmarkt uitstapt en zich enkel toesplitst op enterprise producten gaat het voor AMD enorm lastig zijn om ineens 20X meer GPU's te maken. Ze hebben daar gewoon het geld niet voor. Het kleine stukje van Nvidia dat de Geforce consumentenmarkt voorstelt is groter dan het VOLLEDIGE bedrijf AMD, inclusief processoren, consoles, handheld gaming en hun eigen AI server hardware. Het is gewoon een illusie dat AMD dat ineens zou kunnen overnemen als Nvidia zou wegvallen.

En ik geloof overigens ook niet dat Nvidia zo dom zou zijn om de consumentenmarkt te laten vallen. Ja, het is nog maar 7% van hun omzet, maar dat is niet omdat GeForce zo hard gekrompen is, maar omdat hun enterprise producten zo fel gegroeid zijn. Geforce groeit nog altijd, en de omzet was in 2025 met 30% gestegen tegenover 2024. Als bedrijf stoot je niet zomaar permanent een divisie af die elk jaar met 30% groeit, zelfs als die divisie maar een fractie van je omzet is.

Nvidia beseft daarnaast zelf ook maar al te goed dat hun serverdivisie niet eeuwig kan blijven groeien, en dat als de AI bubbel uiteindelijk een koerscorrectie zou ondergaan (grote kans daarop als OpenAI niet in staat zou blijken om hun 100B CapEx ronde te voltooiien) ze beter nog steeds hun consumentenhardwaredivisie behouden, want dat is nog altijd een goede bron van inkomsten om op terug te vallen.
Dit is wel de strategie die 3dfx uiteindelijk de kop heeft gekost.
Ik denk dat er veel meer redenen voor de ondergang van 3dfx zijn geweest dan het besluit om eigen boards te gaan maken. Belangrijkste probleem was meer dat ze niet in staat waren hun hardware op een compatible manier door te ontwikkelen. Dan gaan tientallen board partners je ook niet helpen.
Uiteindelijk zijn er wel ladingen bedrijven die met geïntegreerde producten succesvol zijn geweest. Vrijwel niemand wordt warm van Intel graphics, maar het zijn toch de meest verkochte PC GPUs ter wereld.
Wat je beschrijft m.b.t. de neergang van 3dfx was wel een deel van de oorzaak maar er waren er meer. Een ander deel was ook dat ze technisch overvleugeld werden (o.a. door Nvidia) en ze niet goed mee konden komen in prijsstelling en snelheid van het op de markt brengen van nieuwe producten. Op die vlakken is de huidige positie van Nvidia toch wel heel anders dan de positie van 3dfx toen.
Geloof maar dat deze nieuwere gpu,s flink aan de prijs zijn net zoals die titan videokaarten.

En dan ook nog een ti maken.Ze zullen snel zijn en kort bij versie 6 zitten ze dan volgens mij wel.

[Reactie gewijzigd door rjmno1 op 9 februari 2026 12:33]

Ze hebben vroeger ook 3dfx overgenomen nadat die alles zelf gingen maken en daar onderdoor gingen. Misschien zit die bedrijfscultuur ook in hun genen.
Op zich zou ik dat niet zo heel erg vinden. Ik vind die partner kaarten allemaal lelijk en slecht gebouwd. Grote heatpipes die overal uitsteken, lelijke felle stukken plastic met RGB lichtjes. Bah. Vaak zitten er ook open stukken in waardoor je de printplaat aan kan raken (ESD risico). Ik koop al jaren alleen nog maar FE's. Mooie stevige metalen behuizing en er steken geen stukken printplaat of heatpipe uit. Behalve de PCI connector uiteraard.

[Reactie gewijzigd door Llopigat op 9 februari 2026 12:54]

"Nu absurd zijn" waar in de afgelopen tien jaar waren ze dat niet?
Wat denken jullie/ €5000?
5k is de toekomstige richtprijs van de 5090. Dus ik vermoed meer dan dat...
5K is een gerucht, met weinig geloofwaardigheid. Het is letterlijk een meme. Het blijft rondzingen omdat er teveel games boos zijn op NVidia, niet vanwege feiten.

Dat gezegd hebbende, we kunnen niet helemaal uitsluiten dat het gerucht de wereld in is gekomen door deze 5090 Titan.
Uhu, de richtprijs van de 5090 was €2369, als ik nu in de Pricewatch ga kijken (vreselijk met de prijs evolutie grafiek nu by the way) zie ik dat de goedkoopste €3199, vertrokken op €2849 begin dit jaar. De 2de goedkoopste is nog eens €100 duurder, de 3de goedkoopste voegt daar nog eens €300 aan toe. De 4de en 5de nog eens 200 euro. Je bent de top 5 goedkoopste nog niet uit en je zit al aan €3799. €5000 tegen het eind van het jaar zit er absoluut wel in. En natuurlijk heeft de 50 serie al bewezen dat er zelfs een markt bestaat in de €5000.

Prijzen voor GPUs zijn sterk aan het stijgen en Nvidia heeft daar direct invloed op. Is het gerucht vals? Misschien, maar ondanks dat jij zegt dat er "weinig geloofwaardigheid" voor is, zijn de voorspellingen van dat gerucht toch echt wel gewoon aan het uitkomen.
Er zijn nog steeds FE drops van 2099 euro, je moet er alleen verrekte snel bij zijn (als in minder dan een minuut) helaas. Maar de richtprijs hebben ze dus niet verhoogd.
Prijsbewegingen doortrekken? Dat is wel vergezocht. Gangbare economische theorieën zijn het unaniem eens dat je prijsontwikkelingen moet modeleren als een random walk.

Logisch ook: als €5000 in december gegarandeerd zou zijn, dan is het een veel betere investering dan spaargeld. Is het "alleen maar" waarschijnlijk, dan is het alsnog een betere investering dan aandelen.

Nu zal er wel enige speculatie in deze markt zijn, maar duidelijk niet zo veel dat de prijs vandaag naar €4800 gaat (wat je zou verwachten als €5000 in december een zekerheidje was).
En toch hebben we gezien tijdens de introductie dat er weldegelijk een handel in 5k RTX5090 kaarten was. Hoe groot dit geweest is, is een vraagteken maar er stonden behoorlijk veel 4 t/m 5k advertenties hier in NL en in de VS. Dus als Nvidia weer een rem zet op de afgifte en daardoor bewust een WW schaarste creëert geef ik ze toch veel kans op succes. Kopers zijn ook inmiddels bewust gewend gemaakt aan deze mega prijzen voor Vkaarten.

[Reactie gewijzigd door Toine1 op 9 februari 2026 09:53]

Het feit dat die advertenties er nog stonden was een indicatie. De 3K aanbiedingen waren snel uitverkocht.

(Vaker gemaakte fout: vraagprijzen verwarren met evenwichtsprijzen. Je had ook genoeg posts van gamers die claimden maximaal €1500 te willen betalen. Andere kant van de medaille, ook geen evenwicht)
Tja er zijn mensen die hetzelfde geld aftikken om sportiever uitziendere velgen onder hun BMW te hangen. Of voor sjieke golfclubs. Eigenlijk is het raar dat het zo lang geduurd heeft.

Het is aan de concurrenten om onder de prijs te gaan en aan consument om de afweging te maken.
Er is een markt voor de 5090 voor 5000 euro, het is alleen een hele korte termijn markt. Het is niet duurzaam, elk jaar een upgrade doen voor een nieuwe XX90 GPU die ook elk jaar duurder wordt gaat op een gegeven moment ook niet meer leuk zijn voor de hobbyisten en streamers die de top of the line willen.
Gelukkig is de cadans elke twee jaar, scheelt toch weer.

RTX 5090 officieel uitgebracht op 30 januari 2025.

RTX 4090 officieel uitgebracht op 12 oktober 2022.
Lol, misschien is NVidia nu zover doorgeslagen dat ze de versienummers gewoon als richtprijs kunnen gebruiken :)
Dan is het wachten tot na de 9800GTX9090RTX weer een RTX 150 uitkomt.
Maar dan kan die nooit meer kosten dan 5090.
Het is natuurlijk een mooie eigenschap om als gamer positief te kunnen denken maar dat doen de aandeelhouders van Nvidia ook. En gezien de huidige vraag/aanbod-situatie rondom Nvidia-producten vrees ik dat hun positieve gedachten (in de zin van 'hogere opbrengsten') eerder een feit gaan worden. Helaas.
Hij spreekt wellicht over de 8GB versie :-)
Een rug minder, met als tagline “4K44K”
Is het nu al niet rond de 4000€? Pak maar 8000€
Als Nvidia een echte 5090 Super uitbrengt:
MSRP rond €2.400 – €2.800

Als het een 5090 Ti / Ultra is (waarschijnlijker volgens geruchten):

MSRP rond €2.900 – €3.600

Als het een echte Titan-achtige Blackwell is
MSRP rond €3.900+
Ik denk eerder ronde de 3500-4000. En dan gaan ze nog steeds als warme broodjes.
Mijn eerste gedachte toen ik de titel las
Nee ik denk €6000.
Dus even voor mijn beeld:
Vorige week was het nog "we stellen de Super-serie en RTX 60 uit want er is een gigantisch geheugentekort".
En nu lezen we dat er wél ruimte is voor een nog lompere 5090 Titan/Ti?


​Dat laat toch precies zien hoe de vork in de steel zit. Dat 'tekort' is dus heel selectief. Voor een 'Founder's Edition' kaart waar ze waarschijnlijk 3K+ voor kunnen vragen is er ineens wel geheugen beschikbaar, maar de productie voor de wat betaalbaardere kaarten ligt stil.


Bevestigt eigenlijk gewoon dat ze puur sturen op maximale winst per chip en de gewone consument achteraan sluit in de rij. Als je maar genoeg betaalt is er blijkbaar helemaal geen tekort.
“Als je maar genoeg betaalt is er blijkbaar helemaal geen tekort.”

Op zich is dat ook het hele idee van prijsstijgingen bij een tekort. Dat heet marktwerking :)
Inderdaad, als ze op een 5090TI/Titan net zo'n marge maakt als op AI aan datacenters, blijft Nvidia netjes deze kaart uitbrengen. Dat noemt men spreiden van risico.

Kan zelfs goed voor gamers zijn, want slechte exemplaren komen dan ook weer uit de wafer en dat worden dan weer 5090's en 5080's.
Dat 'tekort' is dus heel selectief....Als je maar genoeg betaalt is er blijkbaar helemaal geen tekort.
Maar dat is gewoon hoe economie werkt. Er worden er op dit moment meer geheugenchips gemaakt dan ooit tevoren. Maar de vraag is veel hoger dan het aanbod en de grote klanten kunnen de daaruit volgende hoge prijzen betalen. Als NVIDIA een nieuwe GPU maakt en ze klanten hebben die de hoge prijs willen betalen, moeten ze het zeker doen.

Er is geen werkelijk tekort aan memory chips. Je kan ze gewoon kopen. Maar je zal moeten opbieden tegen andere klanten. Economie 101.
Dit roepen hordes met mensen maar men gaat niet zo snel 5K neerleggen voor deze GPU. Niet heel raar dat ze het niet echt aandurven en het is zelfs schadelijk voor de ontwikkelingen. ( corona crisis iemand? )
Het probleem zit nu niet in het lage aanbod ala €500 en dan doorverkopen voor €1000 euro maar om iets op de markt te zetten wat geen €5000 waard is OF bedoelt is voor een niche markt.

Je moet er verder een minimaal aantal van maken. Maar stel je verkoopt er dan maar 10.000 dan gaat het product simpelweg van de markt af of men stopt er toch maar even mee.

Voor echte winsten maakt je elk 2 jaar een T-FORD GPU :)
Zéér onwaarschijnlijk gezien de huidige situatie, maar het is dan ook een gerucht.
Mee eens, ik de huidige markt lijkt het me heel erg onwaarschijnlijk. En als het al uitkomt is de kaart of onbetaalbaar en als deze kaart wel betaalbaar wordt zal die permanent uitverkocht zijn.

Dit lijkt mij meer wensdenken, of de AI markt moet instorten.
Even de gamers paaien voor t geval de bubble knapt. Kunnen die chips weer mooi verkocht worden als grafische kaarten. Het extra ram is toch al gekocht.

Klapt ie niet, gerucht
Het zal me niets verbazen dat ze deze gebruiken om 60 serie uit te stellen.
We hebben wel vaker gezien dat Nvidia dikkere topmodellen boven de topmodellen uitbrengt.

Wat dat betreft is dit geen actie waar wat achter gezocht hoeft te worden.
Wel als het alleen om een absurd duur topmodel gaat en de rest van de line-up geen "refresh" krijgt.. Dan is dat wel afwijkend en opvallend waarover gespeculeerd zal worden waarom dat is..
Er zijn al videokaarten boven de RTX 5090, neem bijvoorbeeld de RTX 6000 pro welke een volledig ingeschakelde GB202 chip heeft. Dus waarom zou Nvidia in deze markt iets uitbrengen gepositioneerd boven de RTX 5090 wat ze bovendien alleen als FE editie uitgaan brengen.
Klinkt ook niet heel logisch.

Voor gaming alleen hoef je het niet te doen; Voor workflows ben je beter uit met een RTX 6000 pro (want ik verwacht dat de kaart dicht bij die prijs gaat liggen). Zou dan echt voor de idioot zijn die gewoon het beste wil hebben zonder er eigenlijk gebruik van te maken.
De keerzijde is natuurlijk: wat kost het ze om een RTX 6000 te rebranden als 5090 Titan? Als de kosten miniem zijn, dan is het al snel rendabel.
Ik gok 48GB geheugen net als de RTX Pro 5000 (die de helft minder cores heeft als de RTX 5090) en een 300Watt modus net als de RTX Pro 6000 Q-Max (die ongeveer evenveel cores heeft als de RTX 5090).

[Reactie gewijzigd door djwice op 9 februari 2026 09:38]

En waarschijnlijk met meer ingeschakelde SM's. De GB202 chip van de 5090 heeft 192 SM's waarvan er 170 zijn ingeschakeld. De RTX PRO 6000 gebruikt dezelfde chip met 188 SM's ingeschakeld.
Precies. Want inmiddels is de yielt beter dan in het begin van de productie fase.

[Reactie gewijzigd door djwice op 9 februari 2026 17:10]

Zou het zo'n groot verschil uitmaken dat het de moeite is om daar een nieuwe sku van te maken?
Het zal wel verkopen
Ze zouden zich nog meer moeten richten op de zakelijke markt, daar verdienen ze veel en veel meer per GPU, minder leuk voor ons de gamers maar voor het bedrijf veel beter.
Nvidia is groot geworden dankzij gamers. Jarenlang hebben wij het merk opgebouwd, de drivers getest, de hype gecreëerd. En nu ze dankzij AI ineens datacenters kunnen melken, worden diezelfde gamers behandeld als tweederangs klanten met opgeblazen prijzen voor midrange hardware (de 5090 bedoel ik niet trouwens. Dat is geen gaming-kaart imo). Ze zouden moeiteloos een competitieve gaming-lineup kunnen uitbrengen zonder dat de CFO er wakker van ligt. Het is geen óf-óf situatie, het is puur hebzucht. Dat verdedigen vanuit 'het is beter voor het bedrijf' is Stockholm-syndroom van de consument.

[Reactie gewijzigd door stx op 9 februari 2026 10:01]

De marges op hun AI-producten zijn blijkbaar echt wel fors hoger dan dan die van hun GPU's voor de consumentenmarkt. Blijkbaar maakt gaming nog maar 7% uit van de winst en leveren AI-producten bijna 10x zoveel winst op. Als ik aandeelhouder was zou ik dan wel weten waar ik zou willen dat men de focus op legde.
kortetermijn winst!

... en zodra de bubbel barst, terug naar de klantengroep die je links hebt laten liggen, die je met open armen ontvangen.
Dat is misschien de reden waarom ze de consumentenmarkt nog niet volledig verlaten. Maar laten we eerlijk zijn: als het gaat om high end graphics zijn er weinig alternatieven en dat zal ook niet zo snel veranderen. Wat dat betreft vermoed ik dat ze bij Nvidia niet zo angstig zijn dat hun traditionele klanten (gamers) zich snel van hen zullen afkeren.
De 'gamerzz' gaan kruipen om snelle gpu's te mogen kopen van nvidia. Daar gaat dit helemaal niks aan veranderen
Net zoals het met crypto ging, dus. Ik denk dat NVidia daaruit geleerd heeft dat ze de GPU markt niet kwijtraken. Integendeel, de high-end GPUs overlappen met de low-end AI chips.
Dus korte termijn winst en geen verlies van hun oude klanten? Ik snap niet zo goed hoezo ze dit dan niet zouden doen?
Is elk bedrijf niet zo.
Ze zouden zich nog meer moeten richten op de zakelijke markt, daar verdienen ze veel en veel meer per GPU, minder leuk voor ons de gamers maar voor het bedrijf veel beter.
Op korte termijn misschien, maar andere aanbieders krijgen dan ruimte en kunnen ook de gamers als springplank gebruiken om juist ook de AI markt in te gaan :)

Dus nee op lange termijn hoeft het helemaal niet positief te zijn voor Nvidia om een markt (die ze zelf als springplank hebben gebruikt naar AI) te laten liggen zodat een ander dat ook kan gaan doen.

[Reactie gewijzigd door watercoolertje op 9 februari 2026 09:59]

Elke tweaker in de IT kan makkelijk 5K voor een videokaart betalen het is ook allemaal veel te goedkoop.
Elke Tweaker kan ook geen sportauto betalen, daarmee is de 5090 serie vergelijkbaar.
Een 5070ti rond 1K is al voldoende, heeft 16gb vram.

Een 5090 heeft 32gb vram wat voor nu overkill is bij gamen.

[offtopic]
Wat erger is dat laptop kaarten belachelijk weinig vram hebben, de RTX4070 & 5070 had 12gb vram moeten hebben, zijn totaal nutteloos waardoor je net zo goed een RTX5050 kan nemen.
[/offtopic]

[Reactie gewijzigd door mr_evil08 op 9 februari 2026 14:22]

Nog krachtiger?! Waar is dat goed voor, vraag ik me af.
Voor meer pracht en praal/resolutie/frames/ai...
Als er genoeg geheugen op zou zitten zou ik grotere LLM modellen lokaal kunnen draaien. Als ik nu een GPU zou kopen voor bijv. Kimi K2.5 zou ik een H200 nodig hebben. Van dat bedrag kan ik een auto kopen. Zelfs een RTX 6000 met 48GB zou ik er 5 van moeten kopen a ~ €8K per stuk.
Claude is iets van €5/1M tokens. Alleen al de aanschaf van een 5090 kost dus al zo'n 600 Mtokens. Lokaal is een erg dure hobby.

Om te kunnen reageren moet je ingelogd zijn