Gerucht: Nvidia brengt GeForce RTX 60-videokaarten uit in tweede helft 2027

Nvidia brengt zijn volgende generatie desktopvideokaarten mogelijk in de tweede helft van volgend jaar uit. Dat stelt de gerenommeerde Nvidia-leaker kopite7kimi. Deze GeForce RTX 60-videokaarten zouden gebaseerd zijn op de Rubin-architectuur. De overige specs zijn onbekend.

Kopite7kimi stelt op sociale media dat de volgende GeForce RTX-videokaarten in de tweede helft van 2027 op de markt komen. In een apart bericht meldt de leaker dat de gpu-maker gebruik zal maken van GR20x-chips voor zijn volgende desktopvideokaarten. Kopite7kimi deelt vaker vroegtijdig informatie over Nvidia-hardware en heeft het regelmatig bij het rechte eind.

De GR20x-naamgeving suggereert dat Nvidia's volgende RTX-videokaarten gebaseerd worden op de Rubin-architectuur. Nvidia presenteerde die architectuur deze week formeel tijdens de CES, maar die is vooralsnog gereserveerd voor de AI-datacenterchips van het bedrijf.

Nvidia voorziet zijn desktop-gpu's van product-ID's met twee letters en drie cijfers, waarbij de tweede letter meestal staat voor de architectuur. De huidige RTX 50-gpu's van het bedrijf gebruiken de Blackwell-architectuur en hebben de aanduiding GB20x. De 'x' wordt vervangen door een cijfer dat de positionering aangeeft: een lager cijfer betekent een betere gpu. De RTX 5090 heeft bijvoorbeeld een GB202-chip, terwijl de RTX 5060 een GB206 gebruikt.

Nvidia heeft zelf nog geen details bekendgemaakt over zijn volgende RTX-videokaarten. De huidige RTX 50-serie werd vorig jaar in januari gepresenteerd.

Door Daan van Monsjou

Nieuwsredacteur

08-01-2026 • 10:35

96

Reacties (96)

Sorteer op:

Weergave:

Maar dat zou dan betekenen geen 50xx super kaarten?
Het waren enkel geruchten, nooit iets officieel, en met de verhogen van DRAM prijzen is het ook veel minder waarschijnlijk.
Effe eh. Dit RAM verhaal. Is dat niet zoiets als dat er een tijd geleden te weinig (domme) chips waren, en een nog langere tijd geleden een tekort aan ps5's?

Is dit gewoon weer niet iets dat binnen no-time overwaait? Het gros gaat nu namelijk RAM produceren omdat ze de hoofdprijs kunnen vangen. Dus dan krijg je over een jaar toch weer overschot?
edit:
Spelfouten

[Reactie gewijzigd door Dlsruptor op 8 januari 2026 11:08]

Voor zover ik weet is er geen productieverhogen van DRAM. Dat zou nieuwe fabrieken nodig hebben, wat jaren en miljarden aan investering kost. Als de vraag naar AI hardware niet gelijk blijft aan wat het nu is, zouden ze inderdaad met een groot overschot zitten. Bedrijven willen dat niet riskeren, dus doen ze geen productieverhoging.

Er wordt wel verwacht dat de DRAM prijsapocalyps tot volgend jaar blijft duren.
Hardware fabrikanten hebben deze cyclus al eerder doorlopen.
Als de vraag instort moeten ze spullen onder de kostprijs verkopen.
Dus nu gaan ze niet zomaar investeren in nieuwe fabrieken, met de kans dat wanneer de fabriek klaar is de storm al weer is gaan liggen.
Dan zit je met een verliespost van vele miljarden.
Nee?
Rammaggeddon word juist veroorzaakt doordat de producenten juist massaal overstappen naar andere types geheugen. Met grote spelers die de voorraden opkopen.

Gaat dit overwaaien? Absoluut, maar ik denk dat die +/- 2jaar niet toevallig gekozen is. Dan is ook de verwachting dat de AI markt is verzadigd en we weer in wat normaler vaarwater komen. En mag je van Nvidia weer eens een nieuwe graka kopen.
Flink deel is veroorzaakt door openai die 40% van de wafers er voor ingekocht heeft zonder doel om er ook wat voor te maken. Met als reden als concurenten het niet kunnen krijgen kunnen die ook moeilijker aan hardware komen.
Is dit gewoon weer niet iets dat binnen no-time overwaait? Het gros gaat nu namelijk RAM produceren omdat ze de hoofdprijs kunnen vangen. Dus dan krijg je over een jaar toch weer overschot?
Zodra de vraag afneemt ja. Wanneer dat is, is nog maar de vraag. Micron heeft zich al teruggetrokken uit de consumentenmarkt dus voorlopig wordt het nog een tijdje eerder slechter dan beter.
Het gros gaat nu namelijk RAM produceren omdat ze de hoofdprijs kunnen vangen.
"Het gros" er zijn maar twee DRAM producenten voor de consumenten elektronica markt en die schalen niet zomaar keihard op.

[Reactie gewijzigd door youridv1 op 8 januari 2026 11:19]

3 producenten ondertussen, CXMT heeft ondertussen al een marktaandeel van 7% en blijft groeien, al is het natuurlijk relatief gesproken nog klein.

[Reactie gewijzigd door dgtazzman81 op 8 januari 2026 11:42]

Zodra de vraag afneemt ja. Wanneer dat is, is nog maar de vraag. Micron heeft zich al teruggetrokken uit de consumentenmarkt dus voorlopig wordt het nog een tijdje eerder slechter dan beter.
Micron doet alleen geen direct sales meer aan consumenten (lees losse modules voor winkel verkoop) maar nog steeds leveren ze oems zoals HP, Dell etc. en die komen ook bij consumenten terecht.
Effe eh. Dit RAM verhaal. Is dat niet zoiets als dat er een tijd geleden te weinig (domme) chips waren, en een nog langere tijd geleden een tekort aan ps5's?
Heb je de afgelopen tijd het nieuws niet gevolgd?
Zal wel weer over waaien, maar de prijzen voor opslag zullen nooit meer dalen, net zoals videokaarten zijn blijven steken na de crypto boom.
Prijzen van oplag dalen gewoon weer na stijgingen. De Crucial mx500 steeg tijdens corona en halverwege 2024 en is in de periodes daarna gewoon gedaald in prijs: uitvoering: Crucial MX500 2,5" 500GB

Hetzelfde met videokaarten. Die hadden exorbitante prijzen tijden corona en de crypto gekte. Daarna zijn ze weer gedaald in prijs. Momenteel zijn gpu's gewoon voor msrp te koop.
Dit gaat naar verwachting nog wel 3 jaar duren voordat de prijzen enigsinds weer "normaal" zijn.
Kopite zou ook aan hebben gegeven dat de super kaarten van de baan zijn vanwege de geheugen tekorten, ergens ook logisch, er lijkt voorlopig steeds meer motivatie om DDR4 producten weer van stal te halen als noodgreep.

[Reactie gewijzigd door dgtazzman81 op 8 januari 2026 10:54]

Aangezien Nvidia de 3060 kaarten uit de dood wilt laten komen vanwege geheugen problemen, lijkt het mij heel waarschijnlijk dat de Super kaarten niet komen
3060 super! Misschien komt die.
Als dit gerucht klopt en de super kaarten zijn nog niet aangekondigd op de CES dan is het onwaarschijnlijk dat de super kaarten komen, niet onmogelijk natuurlijk
Als die kwamen op korte termijn hadden we het nu wel op CES gehoord.

[Reactie gewijzigd door youridv1 op 8 januari 2026 11:21]

Maar dat zou dan betekenen geen 50xx super kaarten?
Waarom? Het is natuurlijk niet per se of / of.
@SuperDre @Olaf van der Spek Lijkt mij toch sterk dat Nvidia dit jaar de S kaarten uit te brengen en pratisch daarna meteen de 6000 serie. Lijkt mij minder tot weinig mensen dan de S Seriekopen en liever wachten tot de nieuwe serie. Of zie ik dat verkeerd
Gerucht: Nvidia brengt GeForce RTX 60-videokaarten uit in tweede helft 2027
Dat is pas over anderhalf tot twee jaar..
Ja vanaf nu, maar er zijn toch nog geen super kaarten. Geruchten gaan rond dat die 2026 Q3 of Q4 of zelf later pas komen.
Geruchten gaan rond dat die 2026 Q3 of Q4 of zelf later pas komen.
Dan nog zit er waarschijnlijk een jaar (of meer) tussen, dus dat kan toch prima?

2027H2 kan betekenen dat de 6090 op 31 december wordt aangekondigd of beschikbaar komt.. het is ook eerder later dan vroeger, en zegt niks over de 6080 en 6070 (bijvoorbeeld).

[Reactie gewijzigd door Olaf van der Spek op 8 januari 2026 14:27]

Ja, oke. Dat kan opzich prima. Ik heb ook even gekeken naar de oudere kaarten en inderdaad zijn al die releases niet echt met regelmaat.
Was bij de 20xx serie ook, de Super versie kwam daar iets meer dan een jaar voor de eerste 30xx versies, juli 2019 vs september 2020.. met de 40 serie niet veel anders januari 2024 vs januari 2025. Dus als de 60 serie pas eind volgend jaar komt dan verwacht ik heel zeker de super versie rond mei/juni.
Hoezo niet? Die supervarianten zouden eigenlijk al in december komen, dus die komen nog ergens dit jaar.
Dan heb ik goed gegokt. Heb van de zomer een 5090 FE gehaald. De intentie was om daar ongeveer 2 en half jaar mee te doen. Als die kaarten uitkomen eind 2027 zijn ze vrij beschikbaar (topmodellen) in de zomer van 2028. Dan heb ik er bijna 3 jaar mee gedaan.
3 jaar met een 5090? Nee joh, dat ding gaat rustig 6+ jaar mee.
Technisch gezien, heb je helemaal gelijk. Maar we zijn Tweakers, toch? We willen graag zoveel mogelijk performance of 'speeltjes', wanneer het kan!

En als de prijs het toelaat, uiteraard!

Ik heb een maand geleden mijn RTX 4070 Super omgeruild tegen een RTX 4080 Super. Die 4070 Super mankeerde niets aan (ook netjes en goed kunnen verkopen), maar heb nu wel weer meer performance.

En daar koop je nieuwe kaarten voor, meestal. Meestal niet 'omdat de oude kapot is'.
He he, fijn dat er nog mensen zijn die het begrijpen dat er nog steeds mensen rondlopen waarbij hardware gewoon een hobby is.

Het aanschaffen van de nieuwste videokaart en zo dagen tot weken lang er lekker mee rommelen en benchmarken.

Vaak is de aanschaf dan ook niet te verantwoorden in de zin van waar voor je geld. Maar het is gewoon een hobby en ja sommige mensen (waaronder ik) worden altijd weer warm bij nieuwe high end hardware producten.

Ik kan nog steeds de momenten herinneren dat ik bij Alternate in Ridderkerk stond bij de rolband wachtend op mijn nieuwe hardware om vervolgens als een blij ei naar huis te knallen om de boel te upgraden of in elkaar te zetten.

En ja ik weet dat mijn 5090 echt niet gelijk vervangen hoeft te worden voor een 6090, maar toch vind ik het leuk om ermee bezig te zijn. Dus dan verkoop ik de 5090 voor een leuke prijs aan vrienden of via Tweakers en koop ik de 6090.

Ik heb twee vrienden die vissen, en als ik af en toe hoor wat die uitgeven aan gadgets dan is mijn pc hobby waarbij ik om de 2/3 upgrades doe redelijk te verwaarlozen :P

[Reactie gewijzigd door marco-ruijter op 8 januari 2026 11:49]

Ik was vroeger ook precies zo, kocht letterlijk elk jaar een nieuwe GPU en tweaken was het eerste wat ik deed, maar hoe ouder ik werd hoe minder belangrijk ik dat vond.

Nu wil ik gewoon gamen, en geen vervelende tweaks of dergelijke willen uithalen, en nee ik wil ook geen Console.

Ik denk dat dit voor veel oudere Tweakers het geval is, het echte "Tweaken" en altijd het nieuwste willen hebben is volgens mij vooral iets van vroeger, het was toen ook veel meer nodig dan nu.

Maar uiteindelijk als je er plezier aan hebt, gewoon blijven doen!

[Reactie gewijzigd door Sinester op 8 januari 2026 12:00]

Ik ben nu zelf bijna 40 en heb inmiddels behoorlijk wat fases doorgemaakt. Van altijd het nieuwste van het nieuwste, naar helemaal niks (klaar met pc’s), vervolgens toch weer een console halen. Daarna begint het weer te jeuken: de console verkopen en weer een monster-pc bouwen. Vervolgens weer geïrriteerd raken door de vage problemen die pc’s kunnen hebben — vooral de afgelopen zeven jaar veel last gehad van stutters en dat soort gedoe. Al merk ik wel dat het qua performance de laatste twee jaar weer duidelijk beter gaat.

Op de een of andere manier kom ik altijd terug bij pc’s; het blijft gewoon kriebelen. Custom watercooling doe ik niet meer, maar ik kan nog steeds enorm genieten van high-end hardware. Alles maxed-out zetten en vervolgens undervolten (mijn 5090 verbruikt bijvoorbeeld nu 350–400 watt met dezelfde stock performance en is daardoor fluisterstil).

Wat ik wel merk, is dat sinds de 30xx-launch en de absurde prijsstijgingen er een andere sfeer is ontstaan rondom hardware, en vooral GPU’s. Zodra je ergens enthousiast over bent — bijvoorbeeld door te zeggen dat je een 5090 hebt (of eerder een 4090) — volgt bijna altijd een discussie over hoe onzin het is, met steeds dezelfde argumenten.

Ik snap dat het voor veel mensen absurde tijden zijn met absurde prijzen, maar het is zonde dat zoveel hardware-gerelateerde onderwerpen (vooral Nvidia GPU’s) telkens weer uitmonden in diezelfde terugkerende discussie. Ik zou het ook echt anders willen zien: een 5090 voor 800–900 euro, een 5080 voor 550–700 euro en een 5070 voor 400 euro. Maar ja, de realiteit is gewoon anders. Ik ga bijvoorbeeld niet echt meer op wintersport en bespaar op andere dingen in het leven (minder op stap, etc.) en kan daardoor wat makkelijker sparen voor high-end, overpriced spul. Toch is het jammer dat er dan veel afgunst is en mensen vinden dat je volgens hun normen en waarden langer met een GPU moet doen, of er argumenten bij halen waarom je bepaalde hardware niet zou moeten kopen.

Laten we gewoon wat liever voor elkaar zijn in 2026. We worden inmiddels al genoeg genaaid door de big corps. 🙂
Ouder: check
Tweaker: check

Maar 'willen hebben' en 'kunnen betalen' zijn twee zaken die elkaar voor mij nog steeds tegenspreken. Ik heb nog nooit van m'n leven een high end PC 'kunnen' bouwen: ik wil graag ook minimaal 1x per jaar op vakantie, af en toe uit (eten) etc. Ik houd me altijd vast aan het idee dat m'n videokaart net zoveel mag kosten als een console en afhankelijk van de markt is dat een xx60(ti) of xx70 kaart - dan kan ik nog aan mezelf verantwoorden.

Ik vraag me nog altijd af wat het besteedbaar inkomen is van mensen die voor een xx80/xx90 en X3D processor gaan met bijpassende monitor gaan. Hebben die dan geen andere hobbies of gewoon te veel geld?

[Reactie gewijzigd door Alxndr op 8 januari 2026 15:37]

Sinds alle hardware zichzelf al altijd tot het uiterste pusht boeit het hardware tweaken mij nog amper. Misschien wat undervolten links en rechts maar daar houdt het ook op. Weg zijn de dagen waar ik mijn Athlon64 en Athlon64 x2 letterlijk op dubbele snelheid liet lopen. Tegenwoordig is het gewoon stroomverbruik gigantisch verhogen om er vervolgens 5% meer performance uit te halen, niet meer voor mij.
Toch nog een tweaker die het snapt. Ik heb die 5090FE er sinds begin dit jaar in zitten, en ik weet dat als de 6090 komt (mits de prijs redelijk is, er is een bepaalde grens natuurlijk) deze er gewoon gaat komen. Als is het maar vanwege de nieuwe features of het lekkere blije ei gevoel.

En mijn 5090 kan dan naar iemand die daar ook weer blij van wordt. Gezellig weer met de Tweakers in een telegram kanaal om via mijn botje weer voor iedereen een 6090 te scoren voor MSRP, nu al zin in.

[Reactie gewijzigd door Senaxx op 8 januari 2026 12:47]

Same here, heb nu een 5090 en weet vrij zeker dat zodra de 6090 komt mijn brein zegt "hmm je krijgt voor die 5090 nog €2000, paar 100 erbij (misschien naief), hoppa 6090"
Nou ja, als je een idioot kan vinden die een gebruikte 5090 voor €2000 wil kopen, terwijl de 6090 dan b.v. €2500 kost, gaat je plan beslist lukken...
Als ik de prijzen voor 2e hands 4090's nu zie lijkt me dat toch niet heel onrealistisch?
Wie weet? Als mensen dat per se willen is dat hun keus - succes ermee!
Dat je dat de moeite van het upgraden waard vind.

Geen groot verschil.
Niet als ik alles vol open wil draaien met 120 fps, misschien deze keer wel omdat de nieuwe console generatie ook naar achter wordt gepushed. Vaak zie je graphical leaps vooral op de console generaties.
je gaat nu al niet 120 fps halen met moderne games zonder downscaling lol.
Klopt, maar downscaling werkt prima. DLSS Quality geeft gewoon native ervaring. Daarnaast als je framegen wilt gebruiken om tot 120 fps te krikken wil je wel een base framerate hebben van minimaal 60.

Dan heb je helaas een 5090 nodig om dat soort zaken voor elkaar te krijgen.

Daarnaast heeft een game als Mafia the old country het issue dat ze geen framegen hebben in cutscenes. Daardoor krijg je hick-ups als je van cut-scene naar gameplay gaat. Dat wil ik dus niet hebben. Dan ben je al beperkt tot het niet gebruiken van framegen. Daardoor heb je al helemaal een snelle kaart nodig om boven de 60 fps (minimaal vereist voor mijn game ervaring) te blijven. Dan heb je inderdaad DLSS nodig, maar het verschil tussen de 5080 en 5090 is dermate groot dat de 5080 dat ook niet red op 4K resoluties bij verschillende games.
geen enkele upscaler geeft "gewoon native" ervaring, de graphical issues die er mee komen zijn onvermijdelijk op dit moment (vooral 2D elementen die raar/glitchen bij upscalers) - vaak zijn upscalers altijd meer wazig dan native, ik kan dlss niet aanzien als optie, de game wordt gewoon echt lelijk met al die smear. gooi ik liever zelf vasseline op et scherm.
Ik bekijk behoorlijk wat Digital Foundry videos en daar sta je dan echt in je eentje in. DLSS Quality geeft tegenwoordig betere resultaten dan TAA op 4k. Daarnaast is de algehele tendens dat AA wel degelijk graphics er beter uit laat zien. Dat jij dat niet vind is jouw goed recht, maar als jij iets wat er lelijker uitziet als native ervaart dan klopt je stelling.

Ik ga liever voor mooiere graphics.
Helemaal gelijk WiXX, zeker met de komst van DLSS 4.0 (en zometeen 4.5) is DLSS Quality gewoon een betere optie dan TAA. De beste optie die je kunt kiezen is DLAA, al geeft dat wel een enorme performance hit (aangezien je dan op 100% native resolution draait maar wel met de benefits van DLSS).
TAA is ook rotzooi, ik zet liever AA uit met 4K, je ziet toch geen "kartel randen" op die resolutie.

Digital foundry kan zeggen wat ze willen, maar het neemt niet weg dat het gewoon een lelijke smear is (dlss). Vooral in motion is dit enorm merkbaar (en TAA is nog erger) zeker bij fine details gaat dit allemaal verloren met dlss.

Dat jij het niet ziet is je geluk denk ik maar zo.
Welk geluk? Dat ik de kartel randen op 4K nog steeds zie? Dat ik daar AA voor nodig heb om het mooier uit te laten zien?

Als jij geen kartel randen ziet maar wel smear, dan ervaren wij graphics gewoon anders op 4K.
ik speel Diablo 4 op 4K (met DLSS, zonder raytracing) met mijn 2080 en haal zo tussen de 70 en 120fps op mijn OLED tv (met HDR en VRR). En dat ziet er top uit en heel smooth.

Is natuurlijk ook geen zware game, maar die pc draait dus ongeveer zoals de performance van een PS5 denk ik.

Bij een PS6 zal ik misschien wel de pc vervangen om weer ongeveer die performance te matchen.
Ik haal die performance alleen op DLSS Balanced op 4K (zonder RT) op een RTX 4070. Jij perst wel veel uit je 2080 :)

Kan dat je de andere settings niet ook allemaal op max hebt staan natuurlijk.
Alleen shadows staat lager, maar dat heeft wel een grote performance impact.

En DLSS staat op performance. Dat vind ik zelf niet veel verschil maken in kwaliteit, maar ik speel op 2,5m afstand van een 55" tv.

Het is er ook wel de game voor, voor een matige upscaling, want voor D4 heb je niet veel pixel-precisie nodig O-)
Ik heb nog een RX 6800, en die is nog steeds ruim voldoende voor mijn doen. Ik hoef geen 200+ FPS met frame generation, zolang ik minimaal 60+ FPS haal met kwaliteit hoog genoeg wisselend tussen 1440p en 4k resolutie, is het mij helemaal prima.
LOL, mijn 3060Ti gaat ondertussen al bijna 5 jaar mee (al upgrade ik normaal gesproken iedere 4 jaar m'n GPU)
Ik doe nu nét iets meer dan 5 jaar met een RTX3090, en eigenlijk hoef ik nog niks echt naar medium te zetten, spelend op een G2 OLED 65". Sterker nog: de meeste games worden geoptimaliseerd voor onder mijn specs, en dat zal niet snel gaan verbeteren gezien de rampocalypse, waardoor voor veel mensen een IGP met "multi purpose RAM" (Intel mikt op grotere IGP's, en AMD doet dat ook) de max is. En wat je daar aan games mee kan spelen is niet te onderschatten. En veel games krijgen ook vaker achteraf optimalisaties voor dat soort hardware (denk aan Cyberpunk, maar ook grote games als Satisfactory en meer UE5 meuk), gaming handhelds zijn een prachtig ding geweest daardoor. Tel daarbij op dat indy games eigenlijk de laatste tijd succesvoller zijn dan de grote AAA+ dingen en totdat GTA6 (wat ook voor een jaren oude APU wordt geoptimaliseerd initieel) eindelijk eens naar de PC komt zitten we wel goed.

Die 3090 van mij kan nog wel een jaartje of twee mee. Ik haal op "high" voor alles behalve écht gekke dingen als RT (wat ik niet mooi vindt) en bepaalde dingen als shadow maps nog ruim 120fps. Kan het meeste zelfs voluit draaien en heb nou niet het gevoel dat ik veel mis: zat double blind studies die het verschil tussen mid/ultra zelden zien. Ik geniet niet meer/minder van games.

Tegen die tijd kijk ik wel wat er te koop is, en als de hardware nog niet fysiek defect is, zal de 3090 een tweede leven krijgen als "niet in de cloud bepaalde rekenmodellen thuis uitvoeren" kaart.

Ik vraag me af wat jij doet en wat je verwachtingen zijn waarvoor je denkt dat je maar 3 jaar met het niveau 5090 kan doen. Voor jouw beeld: mijn 3090 was ~€1100 bij aanschaf. Naar hedendaagse Euro's zal dat volgens de CBS cijfers ~€1400 zijn. Reken ik de energiekosten nog even niet mee want dat is ivm eigen opwek/opslag niet heel transparant, maar dat komt zelfs al zou hij >NU< kapot gaan op €280/jaar. Qua €/fps is dat nog steeds een goed cijfer eigenlijk: stel ik koop een 5070 dan heb ik amper winst in mijn scenario en naar mijn verwachting (ik ben gevoelig voor het gebubbel van de upscaling en raytracing vindt ik nou niet zó geweldig op één of twee voorbeelden na maar art direction heeft eerder mijn voorkeur) en in sommige scenario's zelfs een downgrade. Die 5070 zal het in mijn verwachting bovendien niet zo lang uithouden... dus de €/fps/verwachting/jaar zal niet veel beter zijn...

Gezien berichten als Gerucht: Nvidia wil prijs van RTX 5090 geleidelijk verhogen naar 5000 dollar - Tweakers waar nu we met CES bezig zijn en dan is die som zelfs met de inflatiecorrectie lastiger te verdedigen: ga er maar niet vanuit dat de "top" 60-kaart goedkoper wordt. Waar de 3090 duurder was dan voorgangers (zelfs met inflatie) is het nu al helemaal ontspoort en los van de inflatie. Een 6090 kopen als ze beschikbaar zijn (zelfs na een jaar zullen ze niet goedkoper worden) en er mee omgaan als die 5090 van je (verwachten dat ze 2,5jr mee gaan) is voor jou een praktisch verdriedubbeling van die kosten...

En om heel eerlijk te zijn, met de verwachte prijzen van hardware nog los van de algemene inflatie, en gezien het feit dat "thuis" op zo'n laag pitje staat voor nVidia in vergelijking met de hyperscale datacenters, én het constante gezeik met drivers, weet ik niet of ik voor het vervolg weer voor nVidia ga. Ze zijn duidelijk geen fan van mij.

[Reactie gewijzigd door Umbrah op 8 januari 2026 11:31]

Ik koop in de huidige markt liever een steam machine dan een midrange/ “budget” nvidia kaart.

De prijzen gaan nergens over momenteel.
Exact. Ik heb dit jaar helaas een medische situatie gehad waarvoor ik op gaming aangewezen was op mijn ROG Ally (oorspronkelijke Z1 Extreme versie) voor bijna een maand, en ik kan je zeggen: dat was geen straf, RAM gebrek werd pas een issue toen ik later hem docked ging gebruiken en tegelijk andere apps ging gebruiken, maar voor een moderne UE5 titel als Satisfactory (late game zelfs) met de nodige aantekeningen/sheets ging dat erg goed; heb heel avowed er op gedaan, en BG3 was ook geweldig daarop
Een steambox heeft een budget kaart. Daar schiet je dus niets mee op.
Ik vraag me af wat jij doet en wat je verwachtingen zijn waarvoor je denkt dat je maar 3 jaar met het niveau 5090 kan doen.
Goede vraag voor een gemiddeld persoon. Niet een vraag voor iemand die er casual over nadenkt om van een 5090 te upgraden naar een 6090 in twee jaar. Geld is duidelijk geen belangrijke overweging voor WiXX en je argument over €/fps/verwachting/jaar is dan ook niet zo belangrijk gok ik.
Ik denk dat ze juist de 60 kaarten goedkoper maken dan de "inflated" 50 kaarten zodat ze aantrekkelijk lijken. Denk 3k ipv 5k voor 10% meer performance dan de 5090 oid.
Zelfde hier, ik ga nog een hele tijd verder kunnen met mijn 3090.
same met mijn 3060ti, gewoon games op low/med draaien tegenwoordig.
Als het goed is komen er van de 5000-serie uiteindelijk ook versies met 1.5x het huidige geheugen, door gebruik te maken van 3Gb ipv 2Gb geheugenchips.

Dus een upgrade van een 24GB 3090 zou ik pas doen als die versies de zijn.

Ik heb zelf een 5060TI/16GB en nog niet alle software - o.a. Bricklink Studio (CAD programma) - heeft al ondersteuning voor Blackwell, dus in sommige software draait raytracing op de CPU(!) i.v.m. op de veel krachtigere GPU.

Dus ook in die zin kan nog even wachten fijn zijn.
Afgelopen zomer was de 5090FE iets meer dan een half jaar uit en de cyclus van nieuwe kaarten ligt al enkele generaties op +/- 2 jaar. Als je 1,5 jaar voor een aankondiging het al een gok vind kun je eigenlijk nooit wat kopen zonder er een goed gevoel over te hebben dat je het in de juiste periode gekocht hebt :+
edit:
nee joh vorig jaar januari alweer zie ik, de tijd gaan snel. Dan nog blijft eht staan, als je altijd laat lijden door geruchten kun je nooit iets met een goed gevoel in de tech sector kopen. Tenzij je weet dat iets er écht aan komt is uitstellen vaak zonde.

[Reactie gewijzigd door sapphire op 8 januari 2026 10:56]

Lijkt me een mooi moment voor game developers en engine developers om de komende jaren te richten op meer efficiëntie. Zowel op gebied van geheugen als rendering. Dus dat we toch vooruit kunnen zonder krachtigere hardware. Het voelt toch alsof er de laatste jaren vooral meer processing power is gepushed zonder echt zo efficiënt mogelijk voor de hardware te ontwikelen.
Die hoop heb ik al opgegeven bij de grote AAA ontwikkelaars op een enkeling na. De kleinere developers stoppen daar veel meer tijd en moeite in. Want ook de laatste UE kan met alle pracht en praal draaien op mid-end hardware, maar daar is wel wat werkt voor nodig..
Die hoop heb ik al opgegeven bij de grote AAA ontwikkelaars op een enkeling na. De kleinere developers stoppen daar veel meer tijd en moeite in.
Ja dat klopt maar dat is ook omdat ze de tools niet hebben om dat met een klein team te optimaliseren. Als game engines devs tolls geven om efficientie in te bakken by design gaan ze het veel makkelijker krijgen. Ook kan AI helpen om devs te sturen en te helpen meer te doen met minder resources.

Veel veel studios gebruiken UE5 maar niet altijd op de beste mannier. Te veel studio's denken dat Lumen + Nanite de performance wel geregeld. Ze hebben guidance nodig om clean te werken. Vroeger had je by design een beperkt poly, texture budget. Met Natite is dat helemaal niet meer nodig en is de focus naar efficientie verloren.

Lumen en Nanite hadden eigenlijk als focus om de studio workflow efficienter te maken. Ik denk echt wel dat nu de focus gaat liggen om fps/GPUkracht te verbeteren by design.

Maar games zoals Silent Hill F bewijzen dat je met UE5 echt wel pareltjes kan maken zonder dat de frames inzakken.

Games studio's die games maken met UE 5.3 en vroeger hebben meer last om alles goed te doen dan met 5.4 of later. 5.7 is veel efficienter op de CPU en GPU. Ook lastige scenes zoals bossen zijn drastisch verbeterd. Metal Gear Solid Delta en Ark Survival konden scenes met bossen amper renderen.

Ook is de Shader Stutter aangepakt. Dus haperingen in game zodat alles al ingeladen wordt nog voor het nodig. Zo voorkomen je een spike. Again, het is ook aan de studio's om als die workflow technieken goed in te zetten en niet zomaar te rekenen op lumen en nanite om alles out of the box goed te implementeren.

Soms moet een studio maar terug grijpen naar low poly en de blichting vastzetten om bepaalde scenes speelbaar te houden. Soms moeten ze de instellingen tweaken zodat er lumen en nanite de CPU niet plots overladen.
Gaat niet gebeuren. Developers gaan vooral meer uit van AI-generated frames. Die techniek wordt de komende jaren ook echt veel beter, waardoor het resultaat zal zijn dat games geoptimaliseerd worden voor 30-60fps en de rest AI-generated frames gaan worden.
Zal het echt? Of zal de AAA markt compleet instorten omdat ze dingen maken voor maar een handvol mensen met zware kaarten?
Als ik de benchmarks zo lees kan een RTX 5060 niet eens Borderlands 4 op 1080p met een fatsoenlijke framerate weergeven.
Ach ze komen er vanzelf achter als op een gegeven moment niemand hun games meer koopt.
Frame generation werkt opzich prima met een high refresh monitor i.c.m. een goede basisfps van minimaal 60. Dan kun je dus mooi je 120Hz monitor mee aansturen met 2x, 240Hz met 4x of zelfs 360Hz met de aangekondigde 6x modus terwijl je kaart normaliter er maar 60 hoeft te kunnen berekenen.

Maar denken dat je dankzij framegen een onspeelbare 20fps kunt opkrikken naar een goed speelbare 60fps kom je wel van een koude kermis thuis. Dan krijg je heel veel artifacten en ook latency doordoet er gewacht moet worden op het eerstvolgende echte frame alvorens de tussenliggende berekent kunnen worden.

Daarnaast gebruikt Frame Gen juist méér Vram, laat dat bij laag gepostioneerde kaarten met 8GB nu juist net een probleem zijn waardoor FrameGen je FPS juist verlaagt.
Je kan ook op 1080p scherm blijven gamen.
Dat klopt, vel ontwikkelaars wordt het te gemakelijk gemaakt.
Want tegen de tijd dat de game uitkwam was de GPU power al weer verdubbeld.
Dan heb je nog een de trukendoos met AI en upscaling om je slechte performance te maskeren.
waarom zouden ze? lekker dlss super performance aanzetten op je 5090, kun je weer op 480P spelen.

Optimalisatie zal er nooit meer komen van high-end developers, je kunt immers dlss gebruiken om speelbare framerate ste krijgen, en sommige zelfs framegen verplichten want waarom niet, de gewone consumer merkt er toch niks van (tweakers en andere pc enthousiasten zijn niet de target market)
Ik zie dingen inderdaad al langer die kant op bewegen. Slecht geoptimaliseerde games worden vaak gediscussieerd, maar wat ik ook zie is;
- Battlefield 6 richt grafisch laag om de game toegankelijk te houden
- Ubisoft brengt twee uitstekende ports uit voor de Switch 2
- Verreweg de meeste games hebben nog stééds een 60FPS mode op game consoles

Ik herken me totaal niet in het beeld dat games slechter geoptimaliseerd zouden zijn dan vroeger. Eigenlijk alles dat ik op de Xbox speel is op 60fps. Dat was tien jaar geleden toch echt 30.
Wie weet zien we straks een RTX PRO 6000 Rubin voor dat de consumentenkaarten uit zijn. Ik snap wel dat Nvidia geen haast meer heeft met de consumentenkaarten, AMD levert geen concurrerend product en Nvidia concurreert met een nieuwe kaart enkel met de eigen oude kaarten. Of de nieuwe architectuur een fantastische match wordt voor consumentenkaarten is uberhaupt de vraag. Veel van de nieuwe designkeuzes zijn puur op AI gericht, wat heeft een gamer nu aan meer FP8 performance?
Ik vrees voor de prijs en de hoeveelheid geheugen. Het zal vrijwel zeker nog ongunstiger zijn dan de vorige generatie.
Prijs wordt hoger. Maar ze kunnen niet minder dan gebruiken. De huidige ontwikkelaars hebben niet de discipline om processen daarvoor te optimaliseren. En dat geldt niet eens exclusief voor game ontwikkelaars maar is een industrie wijd verspreid probleem.
Ik speel veel Flightsims in VR en krijg m’n 5090 met gemak op z’n knieën.. voor mij kan die 6090 dan ook niet snel genoeg komen!

ja de aanschaf is duur, maar simpelweg een eigen lunch meenemen naar t werk spaart al genoeg uit om elke 2/3 jaar een upgrade te kunnen betalen 😆
Misschien ligt het aan mij, maar de link naar X in het artikel toont vrij weinig?

Dat terzijde vraag ik mij af hoe de huidige geheugentekorten hier een factor in gaan zijn. Ik zou graag een upgrade willen naar 24GB o.a. voor lokale AI toepassingen naast het gamen, maar de huidige markt ziet er op dat gebied een beetje deprimerend uit.
Goedkoopste instapkaart RTX 6030 met 4GB GDDR6 voor €1500.
Ik denk meer aan de GTX970 dat de rest trager vram heeft.
Hopen op een "normale" prijs! Tijd om mn rtx 2070 te vervangen! 😊
Ik vrees dat dat ijdele hoop is.
Precies wat ik al dacht/op hoopte, heb gisteren een 5080 voor 7% onder MSRP gekocht, met in het achterhoofd dat dit een tijdelijke overbrugging zou zijn tot volgend jaar zomer.

Het is voor mij een flinke upgrade, vooral met lokaal AI draaien en toch weer wat games kunnen spelen op hogere settings, zeker icm een nieuwe monitor, heb nu tijdelijk de samsung G7 gehaald gezien mijn 8(!) jaar oude 4K scherm het begon op te geven. Nog even verder zoeken naar een ander scherm, zat te kijken naar een 49" Samsung scherm of een andere, maar wel minimaal 4K :)

Al met al een mooie tijdelijke upgrade, zodra de 6000-series kaarten beschikabar zijn hopelijk ook een nieuw platform van AMD en wat normalere prijzen met RAM, dan kan ik mijn oude vertrouwde 8086k met pensioen laten gaan :P

Om te kunnen reageren moet je ingelogd zijn