'Nvidia stelt RTX 50 Super- en RTX 60-series uit vanwege geheugentekorten'

Nvidia zou dit jaar helemaal geen nieuwe RTX-videokaarten meer willen uitbrengen. The Information meldt op basis van betrokkenen dat Nvidia dat heeft besloten vanwege de huidige ramtekorten. Dat betekent dat er geen Super-versie van de RTX 50 uitkomt, maar ook dat de RTX 60-serie vertraagd wordt.

The Information baseert zich op bronnen bij Nvidia. Het bedrijf zou in december hebben besloten dat de standaardreleases van de RTX-kaarten niet zouden doorgaan zoals gepland. Die planning was om de RTX 50 Super-serie tijdens de CES te tonen, maar dat gebeurde niet. Dat was al niet heel onverwacht; leakers zeiden eerder al dat de RTX 50 Super-serie niet helemaal geschrapt zou zijn, maar alleen vertraagd.

Nu zegt The Information dat de release niet meer in 2026 plaatsvindt. De kaarten komen op hun vroegst pas in januari 2027 uit. De reden daarvoor zouden de groeiende geheugentekorten zijn. Ook zou Nvidia zich meer willen richten op de verkoop van AI-kaarten zoals de H200.

The Information claimt verder dat de bestaande productie van de RTX 50-serie verder wordt teruggeschroefd. Ook zou de aankomende RTX 60-serie niet volgend jaar, maar het jaar daarop pas uitkomen. Aanvankelijk was het plan de productie van die nieuwe generatie kaarten eind 2027 te starten. Volgens bronnen van de site wordt dat 2028 'of later'.

ASUS ProArt GeForce RTX 5090

Door Tijs Hofmans

Nieuwscoördinator

06-02-2026 • 09:15

140

Submitter: DrVic

Reacties (140)

Sorteer op:

Weergave:

Als de SUPER series zoveel vertraagd wordt, heeft het dan nog wel nut om die uit te brengen? Kunnen de geheugenchips die dan ondertussen gemaakt worden niet beter gewoon met 60 series gpus gecombineerd worden?
Daarom stellen ze die 60 serie ook gewoon uit.

Dat is winst maximalisatie.
Ja omdat ze met AI chips nog veel meer verdienen. Waarom een RTX6090 uitbrengen voor €10.000 als dezelfde datacenter chip €25.000 opbrengt.
Vooral omdat niemand gaming GPUs gaat kopen als ze 10,000 EUR kosten. toch niet de komende 20 jaar. Misschien wel een workstation kaart zoals de RTX A6000. Ik hoor mensen speculeren dat Nvidia een 6080 van 2000 EUR of meer gaat uitbrengen, maar dat lijkt me een absurd hoge adviesprijs voor een niet-flagship kaart, zelfs als die sneller zou zijn dan de 5090. Ik denk zelf eerder dat de RTX 6000 iets van 30-50% duurder zal zijn dan de RTX 5000 series, wat best wel meer is, maar afhankelijk van de performance increase misschien niet overdreven veel.
Een hobby kost geld uiteraard, en er gaan altijd mensen zijn die het kopen. Ik heb weinig tijd om te gamen (met zijn momenten wel) en dan speel ik wel een spelletje. Ik heb dus wel een 4k monitor (32 inch) en daarnaast nog een 27 inch (2160x1440). Maar ik wil gamen op mijn 4k monitor. Vroeger kocht ik altijd een xx60 reeks gewoon omdat het misschien 5% van de tijd is dat ik game. Mijn aankoop is zakelijk, en de prijs zal me eigenlijk worst wezen om het zo te zeggen, maar vind het zonde van meer geld uit te geven, voor meer electriciteit te gebruiken voor iets wat ik met moeite ten volle benut. Tevens voor mij hoeft al het grafisch geweld niet en moet ik geen 300fps halen. Het mag gewoon niet haperen en er niet uitzien als ik spel speel op die eerste philips tv console of mijn NES als ik "jong/klein" was. Ik kan gerust een 80/90 reeks kopen en heb me een 4070 super gekocht als ze uitkwamen voor de nieuwe pc toen. Echter gaat deze kaart naar mijn zoon nu (niet dat hij dit nodig heeft) en heb ik me een 9070 xt gekocht, de eerste keer team rood in +- 20 jaar tijd (ooit wel eens een ATI kaart gehad). Maar elke hobby kost geld, de vraag is alleen hoeveel heb je zelf over en kan je besteden een een hobby.


Alleen heb ik nu een beetje schrik dat pc gaming voorgoed "over & out" is als het zo blijft gaan. Want wie gaat nog hardware maken als niemand het nog koopt. PC componenten is al meer een "niche" markt en mensen gaan dingen uitstellen, dus dan is de vraag als bedrijf, heeft het nog nut om verder te gaan. Dat is wat ik mezelf nu zou afvragen. Zou wel eens de cijfers willen zien van hardware boeren de afgelopen maanden tov het jaar voordien. Er zal blijven gekocht worden, maar een heel pak minder lijkt me. En als je een nier moet verkopen voor een pc zal er niet veel meer te verkopen vallen, met als gevolg dat er nog dingen zullen geschrapt worden. Enja er zijn nog altijd vaste pc's en dergelijke van makers zoals dell/hp etc, maar dat zijn niet de dingen die het gemiddelde publiek hier kopen. Ik zie het zelf zover komen, dat je met moeite nog zelfbouw zal kunnen doen en je bij Dell/HP zal moeten gaan shoppen. Op zich niks mis mee, maar dat hoef ik dus echt niet. En de pc verkoop gaat minderen, gaan gamestudios dit ook voelen en gaan ze misschien meer richting console gaan. Een shooter zonder muis/keyboard combo is niet voor mij. Ik zie mezelf ook geen WOW spelen op een console. Toekomst ziet er niet rooskleurig uit.
Een 5060 is nog steeds prima betaalbaar, idem voor een degelijke cpu en moederbord, enkel de ram prijzen zijn te hard opgelopen.

Wie natuurlijk het beste van het beste wilt moet steeds meer gaan betalen, maar dat is ook zo met veel andere producten en diensten. Vermoedelijk komt dit omdat er nu eenmaal een klasse is die steeds rijker wordt en zo bediend wordt. Ik heb de 5060 en die is sneller dan de 1080Ti waar ik 5 jaar terug 2,5x meer voor moest betalen. Ik zie niet in waarom graphics nog veel zwaarder moeten worden dan ze nu zijn of waren in 2021, mooier is leuk, maar niet tegen premium prijzen. Ik denk dan ook niet dat game makers iets durven uitbrengen want onspeelbaar traag is op een 60 reeks gpu op minimaal fhd.
5 jaar geleden was de 3080 al uit
Ik denk dan ook niet dat game makers iets durven uitbrengen want onspeelbaar traag is op een 60 reeks gpu op minimaal fhd.
Niemand doet dat expres, nee. Maar de technologie is allemaal erg complex tegenwoordig, en het is makkelijk om een fout te maken die niet binnen redelijke tijd op te lossen is.
Dat bijna alle game engines inmiddels antiek zijn en minimaal drie generaties hardware hebben meegemaakt, en er twee nog ondersteunen, helpt ook niet mee.
ze willen een hele andere kant op en dat is......dat jij gaat gamen online met een gehuurde pc abbo :) zodat jij geen pc nodig hebt he.

dat probeerde google al toch? dat was een flop maar dat is het idee.

eerst lekker maken met goedkope abbo en dan duur gamen online...zelfde idee als netflix { eerst goedkoop en daarna aftakelingen abbo's }
Dat is niet alleen omdat die chip dan duurder wordt, maar omdat er 128 of 256 GB HMB4 geheugen op zit, ipv 24 GB GDDR6.
Ik denk dat het ook een mix is van voorraden en voor hoeveel geheugen de 60 series zijn opgezet.

Waarschijnlijk hebben de 60 series evenveel of meer geheugen dan de super series en daaar de bijbehorende kosten.

Met verbeteringen in het videokaar ontwerp kan de 60 serie goedkoper worden door meer performance op een kleiner oppervlak of op een goedkopere node, maar als er zoveel geheugen in zit dat het nog duurder is en de videokaarten blijven verkopen, kan nvidia net zo goed de oude videokaarten blijven maken :(
Ik vraag me ook af of het idee van "kleiner = goedkoper" nog wel opgaat. De ASML chipmachines zijn nog lang niet uit-geïnnoveerd, maar dat het alsmaar meer kost, is toch ook wel duidelijk.
Dit klopt ja, maar het is natuurlijk mogelijk om:
  1. verbeterd ontwerp op dezelfde node die kleiner is (en/of betere yields)
  2. Nieuwe node (N3) die hogere dichtheid heeft waardoor je meer chips haalt uit 1 wafer.
  3. Efficientere node waar de yields beter zijn, waardoor je meer werkende chips haalt uit 1 wafer.
RTX50 is op N4P, de N3E heeft ongeveer 40% betere dichtheid maar ook 30/40% meer kosten per wafer. (gebaseerd op internet speculatie). Dus dat zou qua kosten hetzelfde zijn maar wel betere efficientie. Met een verbetered (kleiner) ontwerp wat ook van toepassing is op datacenters zou het voor nvidia dan wel goedkoper zijn om over te stappen naar de nieuwe node.

Waarschijnlijk heeft nvidia al orders geplaatst op basis dat je de chips altijd moet ontwerpen voor een specifieke node. Uiteindelijk loopt het contract af voor N4P en er is al capaciteit ingekocht voor bijvoorbeeld N3E.

Wat er denk ik gaat gebeuren is dat de RTX6000 de 5000 gaat vervangen op een N3 node en nvidia er nog meer geld voor gaat vragen :(
Volgens mij is het zo dat 90% van de wafers die TSMC produceert, ook daadwerkelijk in zijn geheel gebruikt kan worden. Andere chipbakkers halen dit percentqage niet eens.

Maar ja, dan heb je dus wafers, wat in feite niets meer dan een onderdeel is. Chips zoals RAM en CPUs bestaan tegenwoordig uit meerdere lagen wafers. Om al deze lagen goed met elkaar te laten samenwerken zijn er een heleboel zeer precieze handelingen nodig. Dit gebeuren is bekend als ;packagen' van een chip.

Met meerdere lagen heb je dus veel meer kans op fouten. Ben je bezig met de 5e laag van een 6-laagse chip en treed er een fout op, dan kun je de chip en alle eerdere lagen weggooien. Denk ook niet dat het restant weer kan worden hergebruikt.

Nu is dat op zich ook een goed lopend proces, maar je komt toch al gauw uit op 70% van de gemaakte wafers die daadwerkelijk een chip vormen. Andere fabrikanten dan TSMC halen dat percentage ook niet.

Er is maar zoveel capaciteit om wafers te maken. En met de nieuwe kleinere ontwerpen is er simpelweg veel meer uitval. Is het niet bij de wafer, dan gebeurt het bij het 'packagen'. Het aantal verkoopbare chips is kleiner, wat de prijs dus opdrijft.

En daarop komen dan de bedrijven die om enorme aantallen chips vragen/beloofde inkoop, waardoor de hele markt word verziekt.
Dus nu gaan ze de technologische ontwikkeling vertragen. Eigenlijk niet goed om te doen. We zouden dan betere hardware kunnen hebben, maar doen het niet.
Nee dan zitten ze AI in de weg
Maar, wat nou als ze NOG MEER geld willen???
Hoe kunnen ze dat anders uit het publiek persen???
Ja inderdaad eruit persen, iedereen weet dat high end gaming en de bijbehorende video kaarten een eerste levensbehoefte zijn... niemand die je dwingt het te kopen.
Daar gaat het toch niet om? Niemand dwingt je iets te kopen, maar dat is niet het punt. Aan alle kanten worden consumenten nu geconfronteerd met hogere prijzen en ik kan mij ook wel vinden in de gedachte van Luuk dat het net is of alles duurder wordt door de grenzen op te zoeken van wat we nog kunnen behappen. Een videokaart wordt onbetaalbaar voor heel veel mensen, en misschien waren we dat punt zelfs al voorbij voor de geheugentekorten. Er is nauwelijks innovatie maar prijzen stijgen meer dan normaal. zo is mijn beleving/mening.
Ja wat verwacht je, we zijn een kapitalistische economie. Er is weinig concurrentie en tekorten. Natuurlijk gaan bedrijven dan die kans maximaal benutten.

Ik vind het zelf ook niks maar ja het is nou eenmaal het stelsel dat we hebben.
Kapitalisme is meer dan monopolistisch extractie gedrag.

Een economie werkt niet als elk product mensen tot hun uiterste drukt qua prijzen, dat zorgt voor inefficiëntie omdat zo bepaalde bedrijven buitensporig veel waarde onttrekt zonder dat het een zelfde maatschappelijke waarde tegenover staat. Op die manier groeit de welvaart niet, zie daar de rol en noodzaak van toezichthouders.

[Reactie gewijzigd door MenN op 6 februari 2026 13:13]

we kunnen er ook voor kiezen om Nvidia te boycotten! en een middelvinger geven met hun absurde prijzen.

Er blijven mensen die hun hobby goed praten en de hoofdprijs betalen.

een bedrijf als Nvidia vind dat geweldig
Doe ik al... Ik heb al heel lang geen RTX-kaart meer gekocht, maar wel Radeon. Het grote verschil is de raytracing. Toch is de 7800xt sneller dan de duurdere 4070 en in sommige gevallen (zonder raytracing, maar ik speel voornamelijk wat oudere spellen) zelfs sneller dan de 2x zo dure 4070 ti.
Dan is voor mij de keus snel gemaakt en ik begrijp ook zeker niet waarom zoveel mensen 2x zoveel geld uitgeven voor een kaart die grotendeels hetzelfde presteert, met als enige verschil betere resultaten in combinatie met een feature. Alleen wordt deze feature niet continu gebruikt, dus er is niet eens sprake van constant (niet beperkte, maar ongeveer 40%) betere prestaties. Nogmaals, dit wel voor 100% hogere kosten.


Zoals gezegd, de 4070 is al duurder dan de 7800 xt en zelfs met raytracing is die kaart nog vrijwel altijd trager dan de 7800. Waarom blijven mensen dan voor Nvidia kiezen? Zo krijgt Nvidia alleen maar meer het idee dat ze kunnen vragen wat ze willen. Mede hierom is AMD gestopt met high-end kaarten en hoeft Nvidia minder moeite te stoppen in innovatie en krijgen ze nog meer het monopolie en kunnen ze nog meer verdienen. Omdat mensen blind de zogenaamd betere, maar feitelijk duurdere, RTX-kaarten kopen. De markt wordt letterlijk verziekt door de consumenten zelf.

Dus ja, ook ik zie ondertussen een volledige boycot als enige remedie.

[Reactie gewijzigd door yustme_x op 8 februari 2026 12:54]

dat klopt....zoals ik al zei....hun praten de hobby goed :) fan boy of niet slimmer worden ze er niet van haha.

uiteindelijk zijn ze bereid om die prijzen te betalen...en Nvidia die lacht er om.
Niemand dwingt met mij met een pistool tegen het hoofd om een doos met eieren te kopen, mag ik dan ook maar gelijk geen mening meer hebben over de prijs? Je zit toch op een discussieforum/nieuwssite dan is het toch normaal dat mensen een mening hebben?

Voor veel mensen is gamen een hobby, of wellicht doen ze wel in de beroepssfeer aan video editing en hebben ze daar een snelle kaart voor nodig (dan is het dus wel degelijk eerste levensbehoefte). Niemand zegt ook dat een bedrijf geen winst mag maken maar op een gegeven moment bevind je je in het onbegrensde kapitalisme en gaat het niet meer om een leuke boterham verdienen maar zoals @Luukebaas aangeeft zoveel mogelijk geld uit mensen persen. Daar mogen mensen best een mening over hebben ook al ben jij het daar niet mee eens.
Gamen is voor mij ook een hobby. Echter niemand die jou dwingt het te kopen of gewoon content te zijn met oudere hardware. Eten daarin tegen is iets wat je wel echt nodig hebt.

Een bedrijf wilt natuurlijk de winst maximaliseren, maar men kiest er zelf voor om het te betalen met zulke niet kritieke goederen.
Dus jouw oplossing is gewoon "wees blij met een inadequaat of oud product"

Respect I guess, ik zelf wil mijn hobby/passie wel gewoon met fatsoenlijke hardware doen.
Nieuwe games komen altijd uit met incrementele hogere hardwarevereisten, en ik wil gewoon een goeie ervaring hebben terwijl ik die speel.

Dat kan niet met oud of low end spul
Nieuwe games komen altijd uit met incrementele hogere hardwarevereisten
Als niemand meer steeds betere hardware kan betalen, dan zullen de gamemakers daar ook op moeten gaan inspelen door dingen beter te optimaliseren, anders verkopen zij ook niets meer omdat het voor geen meter draait. Dus daar ben ik niet zo bang voor.
Ook weer zo grappig, toen ik hier wel eens klaagde over de enorme winsten, winstmaximalisatie en dat een jaartje iets minder winst al een behoorlijke tijd 'verlies' word genoemd, kreeg ik constant de opmerking 'bedrijven moeten toch geld verdienen' of 'mogen toch geld verdienen' naar mijn hoofd.

Met andere woorden 'ik moest niet zo zeuren', en kijk nu eens ?! Ik sprak toen al over compleet doorgeslagen kapitalisme, maar dat viel allemaal wel mee enz. enz.. velen bleven de idiote miljardenwinsten van bedrijven maar verdedigen.

Die mening werd mij dus niet in dank afgenomen..., ik ben het met wat je schrijft eens.
Ik deel dit gevoel hoor, maar ik denk dat het voor een deel echt zo voelt. Voor sommigen (en ik zie het hier thuis ook) is dat echt hun primaire dagbesteding. Als ik mijn zoon een week zijn game devices afneem weet hij niet meer wat hij met zichzelf aan moet. Verslaving in zijn lelijkste vorm...
Dit is een beetje onzinnige. Als ik jou vertel dat je voortaan mag fietsen naar je werk kun je het ook verslaving aan je auto noemen.

Het gaat om gewenning aan luxe, en daar vanaf stappen is altijd vervelend.

Als iemand altijd gamed op de nieuwste hardware ga dan maar eens vertellen dat het voortaan ipv 4k gamen 1080p word of ipv 60fps nu 30.

[Reactie gewijzigd door Verwijderd op 6 februari 2026 09:57]

gewenning aan luxe
Gewenning is in deze context vergelijkbaar met verslaving, want gamen triggered dopamine. Betere hardware kopen om die verslaving te voeden geeft bovendien ook dopamine vrij in het brein.
Maar neem je dan aan dat games steeds zwaarder blijven worden en je met huidige high-end kaarten niet op hoge framerates en resoluties kunt gamen?

Want dat klopt natuurlijk niet. Grafische ontwikkeling lijkt de afgelopen jaren te stagneren. Dat heeft er enerzijds mee te maken dat (heel erg plat geslagen) het verschil tussen 100 polygons 20 jaar geleden en 10.000 10 jaar geleden relatief veel groter is dan van 10.000 naar 100.000, anderzijds met de stagnatie in hardware. Al generaties lang worden de nieuwste kaarten qua performance een minder goede deal. Van de 2080 naar 3080 was een hele grote stap, de 4080 en 5080 presteren behoorlijk vergelijkbaar. Prijzen nog daar gelaten.

De grafische topgames van nu zijn nog steeds o.a. Cyberpunk 2077 uit 2020 en bijvoorbeeld de Horizon serie waarvan zelfs de niet-remastered PS4 games uit 2017 en 2022 er heel goed uit zien.


Games die tegenwoordig bekend staan als zwaar zijn vaak helemaal niet zo mooi, maar gewoon slecht geoptimaliseerd. Ik noem Dragon’s Dogma 2, Spiderman 2, Oblivion Remastered.

Nu je voor een beetje videokaart al gauw 600+ euro neer moet tellen, en wil je de crème de la crème zit je op 2500+, vind ik het wel gezegend met de nieuwe generatie videokaarten.
Al generaties lang valt wel mee dus... t is maar 1 generatie 4080 naar 5080. En de 4090 was een huge jump.
Alleen wordt de optimalisatie steeds slechter, dus je blijft steeds betere hardware nodig hebben.

Ik hoop zelf dat de peperdure componenten zorgen voor betere optimalisatie omdat mensen geen nieuwe onderdelen meer kunnen betalen. Maar ik vrees het ergste. Ontwikkelaars hebben geen zin meer in optimaliseren en gebruiken gewoon die eindeloos brakke Unreal Engine 5. Game eruit gepompt? Hup, en door naar de volgende ongeoptimaliseerde clusterfuck.
Jouw vergelijking gaat alleen niet op. Jij suggeert dat je iets in moet leveren t.o.v. wat je vandaag de dag doet of hebt. Dat is toch helemaal niet aan de hand? Het is alleen een kwestie van even niet mee upgraden.

Terug naar de vergelijking met de auto. Daar zagen we afgelopen jaren ook een prijs piek (met name occasions). Dan kan ik ook kiezen om ipv iedere 3 jaar, nu 5 jaar door te rijden met een auto. En ja, dan loop ik die laatste tech dingetjes op auto vlak even mis, maar dat is dan een keuze.
ik herken het gevoel.
Wij hebben sinds kort bij onze kids van 5-8-9 jaar de regel ingesteld dat om half 8 de telefoons uit gaan en tablets uit.


Dan kunnen ze in de laatste 30-45 minuten van de dag nog even tv kijken, drinken, bordspelletje spelen etc.
Die oudste, die gaat gewoon irritant lopen doen puur omdat hij niet op zijn mobieltje/tablet kan om te gamen.....


Wij hebben het ingevoerd omdat we steeds meer strijd hadden bij naar bed gaan om die telefoon/tablet uit te laten doen.
Volhouden. Het is niet eenvoudig maar later zullen ze er dankbaar voor zijn. Mijn kinderen (32/30/25) jadden pok vaste tijden en schermbeperking. Het laatste uur werd er gelezen of voor gelezen. Dit om de prikkels te verminderen voor een betere slaap. Vooral de 2 jongsten (hoogbegaafd) hadden dit nodig.
Respect, toch nog ouders die hun kinderen opvoeden. Ook al is het niet altijd leuk om iets tegen de zin van je kinderen in te moeten gaan. Uit eindelijk is het wel beter voor je kids :)

Mijn complimenten, zouden veel en veel meer mensen moeten doen.

Merk het in mijn eigen omgeving ook. Mijn broer voedt zijn kinderen ook zo op. Mijn ex vriendin met kind deed dat niet en als ik daar aan het oppassen was, was het altijd gezeur en gejank wanneer hij op bed moest. Zat altijd nog op zijn telefoon, deze mocht hij gewoon meenemen naar zijn slaapkamer. Vervolgens zat hij tot diep in de nacht op zijn telefoon filmpjes te kijken.
Ik deed gewoon de wifi uit, komt meneer om 23:00 avonds nog naar beneden te klagen en te huilen. Kind was 8 jaar oud destijds. Mama boos op mij want kind mag gewoon op zijn telefoon zitten..

Gelukkig is het nu mijn ex, kind is inmiddels 14 en een irritante brutale mafkees geworden die helemaal niks presteert op school en moeder zit inmiddels weer in de bijstand.
Hij is even oud als de kids van mijn broer en het is een wereld van verschil. Die jongens spelen nog gewoon buiten, sleutelen aan fietsen en brommers, voetballen veel etc.
Jaa, het was voor mij best een druppel elke keer met naar bed gaan tot 5 keer moeten zeggen telefoon/tablet uit en vervolgens worden ze gewoon boos, en ik ben niet eens de echte vader van de kids, bonus vader, maar wil ze wel opvoeden met normen en waarden en normale omgangs vormen en gelukkig is hun eigen vader het daar ook mee eens en gaat in het plan mee.


De twee jongste ( meid van 5 en jongen van 8 jaar) die hebben het al door zodra de telefoons en tablet uit moeten is het of tekenen of bordspelletje of kaart spelletje, lekker bakkie thee erbij of een glaasje fristi, met natuurlijk een beetje chips of een koekje...die oudste van 10 denkt gewoon als ik maar ga zitten kutten krijg ik vanzelf de telefoon/tablet weer terug, maargoed, aanhouder wint.
Ja klinkt als een goede reden om het minder bereikbaar te maken.
Dat het geen eerste levensbehoefte is, betekent nog niet dat je je consumenten niet kan naaien in naam van winstmaximalisatie.
Waarom niet? Is dat niet precies de doelstelling van bijna elk bedrijf? Maximale winst. En nu is er weinig concurrentie en veel vraag. Dat is voor een bedrijf de beste positie om te hebben.
Voor een bedrijf is het een goede positie. Voor de consument totaal niet. De consument denkt niet ineens "oh, als het een eerste levensbehoefte was, dan vond ik de prijsverhogingen niet leuk, maar nu een bedrijf als Nvidia er maximale winst uithaalt vind ik het wel leuk dat ik meer moet betalen". De consument wordt nog steeds genaaid in naam van winstmaximalisatie. Zoals ik al zei, ook al is het geen eerste levensbehoefte, het is niet alsof het geen naaien is omwille van winstmaximalisatie. De consument is er gewoon niet bij gebaat.
Niemand dwingt je ooit om iets te kopen behalve eten en belasting...

Slecht argument.
onderdak zou ook fijn zijn maar die prijzen heeft geen consument invloed op..
Prijzen voor onderdak worden hoofdzakelijk bepaald door politieke keuzes. Daar heeft de consument (indirect) wel invloed op.
Pff, dat gaat de laatste 15 jaar erg goed.. is zoveel goedkoper geworden XD
Misschien wordt het dan eens tijd om op andere partijen te stemmen ipv de (centrum) rechtse kabinetten van de afgelopen decennia?
Links, rechts, het maakt allemaal niks uit. Zijn kleine kinderen in het algemeen, alleen maar ruzie met elkaar, en druk met het buitenland ipv NL.
Wat een non reactie zeg.
Klopt, het is geen levensbehoefte. Maar dat verandert niks aan het feit dat het wel degelijk valt onder nog meer geld uit de klanten persen.
Als ze die GPU's al gemaakt hebben, maar geen geheugen dat erbij hoort, dan blijft het beter om ze gewoon uit te brengen.
Ho ho, NV is hier het slachtoffer. Het is niet alsof ze die AI bubble hebben gestimuleerd die nu voor alle schaarsheid zorgt waar niemand beter van wordt.


O wacht ...
Meestal als ze met een nieuwe videokaart uitkomen dan zit er modern geheugen op vandaar dat die 5090 zo duur.of er komt vddr7 op of er komt eentje op die nog ontwikkels moet worden maar ik denk7.
Dit is ook het effect van een "diensten markt" waarbij producten niet meer verkocht worden maar diensten. De meeste LLM's kan je prima lokaal hosten mits je hardware specs voldoende zijn. Alleen aan hardware verdien je 1-malig en aan diensten continue.
Yup. Het zou leuk zijn als meer mensen dit beseffen. De eisen aan de hardware zijn ook weer niet insane het ligt er maar aan wat je doet met AI.
Hopelijk gaan meer bedrijven dit ook beseffen. Dat ze helemaal niet perse dure CoPilot abonnementen hoeven af te sluiten maar wellicht een lokale oplossing kunnen bedenken. Of een hybride oplossing waarbij je veel minder abonnementjes hoeft af te sluiten omdat je voor de meesten met een lokaal draaiende language model genoeg in huis hebt.
Zijn de degelijke language models niet best duur om te draaien? Ik heb wel eens wat gegeind met zo'n lamamodel, dat wil op mijn werk PC nog wel draaien, maar tergend langzaam en met niet heel indrukwekkende resultaten. Al ben ik van de bekende LLM's al niet altijd onder de indruk.

Ik zou wel interesse hebben in lokale LLM's die een beetje degelijk zijn. Bij mij op werk (en op mijn vorige werkplekken idem) zijn we toch wat terughoudend. Ook met de autoaanvulling in de IDE enzo, want er gaat toch weer intellectueel eigendom naar zomaar ergens een server. Ze zeggen wel dat ze het niet gebruiken voor training maar gewoon de data vergeten enzo, dus het zou niet mis moeten gaan, maar we weten toch niet helemaal zeker hoe overtuigd we zijn. Met lokale LLM's kan je doen waar je zin in hebt.

Ik heb thuis nog wel een leuk videokaartje, maar dat is een AMD, en LLM's zijn vaak toch wel een Nvidia feestje.
Mijn AMD 9070 draait de modellen die in VRAM passen prima hoor, GPT OSS 20b, Qwen3 (de 30b heeft beetje systeem-ram nodig maargoed) draait allemaal soepel.

Nvidia is echt niet per-se nodig om gewoon een LLM te draaien. Probeer het eens zou ik zeggen. Al zijn consumentenhardware en de open-source LLM's altijd minder goed dan een Gemini 3 Pro, de echte top modellen hebben onmogelijke hoeveelheden ram nodig.
En juist dat is peperduur geworden.
De GPUs die in de datacenters draaien voor AI, daar zit geen 100 GB aan (HBM2) VRAM op, daar zit geen 500 GB aan VRAM op, er zit geen 1 TB aan VRAM op, er zitten tussen de 13 en 14 TB aan VRAM op.

Er zit dus een klein verschilletje tussen lokale LLM thuis draaien en wat de AI-aanbieders in de cloud aan kunnen bieden.

Maar voor simpele zaken zijn de lokale LLMs echt zo slecht nog niet. Waar ik werk is Engels de voertaal dus gebruik ik lokale LLMs ook alleen in het Engels.

Welke lokale modellen denk ik dat goed genoeg zijn (voor een GPU met 16 GB aan VRAM)?
  • GPT-oss-20b
  • Qwen3 - al hun modellen boven de 14b parameters.
  • Qwen3-8b-deepseek-v3.2-speciale-distill
  • Falcon-h1r-7b - voelt sloom aan, maar levert goede antwoorden, zeker voor de omvang.
  • LFM2.5-VL-1.6b - erg klein, ondersteund tools en vision, waardoor dit toch een bruikbare LLM is, zeker als je via wat MCP servers de functionaliteit flink uitbreidt.
  • LFM2-8b-a1b - het ietwat oudere en grotere broertje.
  • Granite-4.0-micro - is van IBM, is vrij kortaf, maar ook capabel voor de omvang.
  • Ministral-3-14b-reasoning-2512 - is van Mistral.ai wat in Frankrijk is gehuisvest.
  • rnj-1-instruct - 7b model, schijnt gefocused te zijn op mathematica. Hoe goed het daarin is, daarvoor weet ik er te weinig vanaf.
  • SmolLM-3-3b - erg klein, maar kan zich toch behoorlijk goed uit logische puzzels redeneren.
  • x-coder-sft-qwen3-8b - codeert best aardig, zeker voor de omvang.
  • Apertus-8b-instruct-2509 - algemene LLM uit Zwitserland, welke een boel talen in de EU ondersteunt
  • Apriel-1.5-15b-thinker - algemene LLM
Llama.cpp kan via Vulkan ook best rap met AMD GPUs overweg. Zeker als het een modernere GPU is (6600XT en hoger). NVidia is via CUDA wel sneller.
Sure, behalve dat de prijs nog tenminste 10x zo hoog moet voordat het winstgevend kan zijn.
De flip side: utilization van een lokale GPU is doorgaans een orde grootte lager dan een TPU in de cloud. Daarom zijn die GPUs zo duur geworden: 18+ uur stil staan is gewoon niet rendabel.
Fantastisch businessmodel, zelf schaarste creeeren zodat je je product-line met de hoogtse winstmarge nog wat meer winstmarge kunt geven ;)
Zeker. En dan op termijn meer en meer mensen forceren om nieuwe abonnementjes te nemen op cloud computing power omdat je eigen hardware kopen onbetaalbaar is geworden. En hoppa weer een stukje privacy en onafhankelijkheid dat opgegeven wordt.
Ik zie niet echt de logica daar van in. Waarom zou ik een cloud abbo nemen als er geen nieuwe kaarten zijn? Dan heeft die server ze toch ook niet? En de kosten voor die abbo's zullen ook gaan stijgen. De kosten voor de servers gaat immers ook omhoog, niet alleen de GPU's maar ook RAM in die machines.
Die server kan wel 24/7 draaien. Dus als jij slaapt kan iemand in China of Australie op dezelfde GPU gamen.

Dus in theorie kan een server de kosten van een GPU over meer spelers uitsmeren en zou dus goedkoper kunnen zijn. Hoeveel tijd game je nou echt? Laten we zeggen dat 4u per dag al best hard-core is, dan kan een server-GPU zes keer zo effectief ingezet worden als eentje in je home-PC die 20 uur per dag ongebruikt blijft.
Ze creeeren helemaal geen schaarste, ze verkopen aan de hoogste bieders. Vervelend voor de consument, maar het zou raar zijn als een bedrijf het niet deed. Het is geen filantropische instelling
Dat is maar half waar, ze produceren zelf geen geheugenchips en kunnen gewoon niet aan de vraag voldoen. Het is gewoon vraag en aanbod, en de vraag is heel hoog.

Je hoeft ook geen NVidia kaart te kopen, je kunt net zo goed een AMD kaart kopen. Ik zou alleen niet veel anders daar verwachten, ze lopen namelijk tegen het zelfde probleem aan en zijn minder geheugen op hun kaarten aan het plakken.
Zoals ik voorspelde, de evolutie van gaming hardware krijgt een dip. Dit komt omdat er een trendbreuk is. De markt is verzadigd en is niet bereid om er nog meer geld tegenaan te gooien. Daar zit dus geen stijgende groei meer in.

Een troostprijs is dat er voor een langere periode ruimte is voor optimalisatie van spellen voor de hardware waar men vanaf nu aan "vastzit". Wanneer je het AAA(A)-segment negeert wordt het een geweldige tijd voor iedereen die een spel-PC heeft. Het wordt wel heel naar voor iedereen die in de markt stapt of die vervangende onderdelen nodig heeft.

Overigens staat Nvidia aan de wieg van de geheugentekorten, dus dit is een zelfgemaakt "probleem" dat geen probleem is voor Nvidia.

[Reactie gewijzigd door The Zep Man op 6 februari 2026 12:53]

Maar mensen hebben wel al hardware waarop gegamed kan worden. Dus je kan nog steeds spellen uitbrengen maar de specificaties moeten omlaag of beter optimaliseren, wat op zich niet slecht is. Al een minder kritisch punt, het stroom verbruik zal ook beter zijn tijdens het gamen.
Absoluut waar. Zelfs de 30 serie is dik voldoende op 1440P. De games blijven grafisch toch achter of totaal niet geoptimaliseerd. Dat laatste is een vicious circle (niet geoptimaliseerd > betere hardware nodig > framegen/dlss > nog slechter geoptimaliseerd). Nioh 3 is nu het zoveelste voorbeeld van slechte optimalisatie, mijn 3090 gaat het prima af op 1440p maar de CPU heeft te lijden.

Ik bedoel, wie gaat er straks 2000€+ betalen voor een RTX XX80 kaart? Niemand.
Ik bedoel, wie gaat er straks 2000€+ betalen voor een RTX XX80 kaart? Niemand.
Die gaan gekocht worden als zoete broodjes :) gewoon niet door jij en ik.
Die gaan over de toonbank als warme broodjes, let maar op! Ook voor 2000 euro. Sambal bij?
echter zijn er wel games die goed geoptimaliseerd zijn zoals doom eternal, dit spel begint ouder te worden maar ziet er nog steeds extreem goed uit.

Bovendien werkt het erg goed met mijn rtx 3070 op 1440p ultrawide.
ik ging ook zoiets schrijven. We gaan zo te zien even in een soort console situatie komen waar na een release het een tijdje status quo blijft qua hardware. Beetje bizar voor PC-land maar de hardware die we op dit moment hebben is al in staat om gigantisch mooie dingen neer te zetten, dus voor game developers is het de uitgelezen kans om zich meer te verdiepen in de gameplay en verhaal :*)
De ellende zal nog wel een aantal jaren duren maar hopelijk opent het de deur voor nieuwe partijen en nieuwe ontwikkelingen die op de wat langere termijn prijzen juist fors kunnen laten dalen. Het is momenteel natuurlijk een geweldige tijd voor nieuwe toetreders tot de markt voor halfgeleiders en natuurlijk specifiek geheugenchips. Idem voor kleinere, al actieve partijen die nu snel kunnen groeien. Er wordt door velen met veel interesse gekeken naar allerlei Chinese fabrikanten die nu mogelijk een voet tussen de deur kunnen krijgen.
Vreemd, voor hun AI chips hebben ze geen tekort...
Natuurlijk wel, al krijgen die prioriteit. Of dacht je dat hun AI producten niet in prijs stijgen ondanks de schaarste?
Hier en daar rouleren toch wel wat berichten dat Nvidia bij de productie van hun AI-producten zelf ook last heeft van de tekorten. Zie o.a. https://finance.yahoo.com/news/memory-shortage-threatens-nvidias-china-003139128.html
Jawel maar die zijn belangrijker dus daar gaat de capaciteit heen.


Waarom is dit zo moeilijk te begrijpen?
Net toen je dacht dat het niet erger kon met de GPU prijzen en markt, komt dit hoofdstuk even aanwaaien :)
Helemaal verrassend is het niet want de geruchten gingen al eerder. En zelfs zonder die geruchten hadden we dit, op basis van de huidige marktontwikkelingen, zelf al kunnen voorspellen. Het zal nog wel een tikkeltje erger gaan worden vrees ik. 😟
Tekorten die zelf veroorzaken. Fraai hoor, stelletje druiven. Ik heb het wel even gehad met NVidia.
Ja het is totaal bonkers haha. Nvidia investeert miljarden in open AI, open AI koopt met onder andere dat geld alle productie capaciteit op, Nvidia zit met een productiecapaciteit tekort. 8)7
Een oplossing waar ze zelf de oorzaak van zijn dit is een beetje mosterd na de maaltijd.
Ik zie de PS6 en de volgende Xbox voorlopig ook wel wegblijven. Tijd voor focus op optimalisatie en innovatie om meer uit hardware te halen. Vroeger konden ze ook heel veel bereiken met het zeer beperkte geheugen van de PS3 en Xbox 360. Beperkingen leiden tot creativiteit.
Groot verschil met consoles is dat een console maar in principe 1 configuratie heeft, de CPU/GPU/geheugen/eventuele extra hulp chips en het OS, en die zijn dus overal gelijk waardoor tijd en geld steken in optimalisatie zin heeft. Bij PC die draaien op Windows of Linux geb je ontelbare configuraties, alleen al op gebied van CPU en GPU, naast dus wat er allemaal nog in de achtergrond draait. Echte optimalisatie op de PC heeft amper tot geen zin.
Misschien moet de gehele pc sektor eens ophouden met die hele AI hype om daar maar eens mee te beginnen..
Verder gekeken heeft de USA een voorloop genomen op de hele grondstoffen logestiek door hun koper voorraad te verhogen met (80%) van wat ik vernomen heb.
wat dus weer algemene kritieke (wereld) productie ellende oplevert vanwege die import heffingen door die oranje mafkees daar.

Om te kunnen reageren moet je ingelogd zijn