Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien

'Nvidia schrapt RTX 50 Super niet, maar stelt release wel uit'

De RTX 50 Super-serie zou volgens een nieuw gerucht niet geschrapt, maar alleen vertraagd worden. Eerder op vrijdag gingen er geruchten dat Nvidia overwoog de RTX 50 Super niet uit te brengen, maar de bekende leaker MEGAsizeGPU zegt nu dat de release later plaatsvindt.

De bekende leaker MEGAsizeGPU, die vaker correcte informatie over videokaarten en componenten heeft, zegt op X dat Nvidia de release van de gpu's heeft vertraagd. Die zouden niet al in het eerste kwartaal van volgend jaar uitkomen, maar pas in het derde kwartaal.

MEGAsizeGPU reageert daarmee op geruchten van eerder op vrijdag. De Chinese techsite Uniko's Hardware schreef toen dat Nvidia niet voldoende 3GB-GDDR7-geheugenchips kan inkopen. De prijzen daarvan stegen sinds oktober hard vanwege tekorten.

Het is niet duidelijk of Nvidia de kaarten tijdens de CES-beurs wil aankondigen, maar dan later in het jaar wil uitbrengen. De beurs vindt in januari plaats in Las Vegas.

Door Tijs Hofmans

Nieuwscoördinator

07-11-2025 • 20:12

66

Submitter: Scribe

Reacties (66)

Sorteer op:

Weergave:

Is dit dan het resultaat van de AI economie? Geheugen is zoveel opgeslokt door datacenters en pro-GPUs dat consumer GPUs de laagste prioriteit krijgen en gewoon maar uitgesteld worden?

Erg triest, maar ook niet geheel onverwacht van Nvidia. Het jammere is dat dit ook bij AMD/Intel gaat gebeuren dan, tenzij zij nog een generatie met GDDR6 uitbrengen ipv GDDR7.
Is dit dan het resultaat van de AI economie? Geheugen is zoveel opgeslokt door datacenters en pro-GPUs dat consumer GPUs de laagste prioriteit krijgen en gewoon maar uitgesteld worden?
Ik heb geen bron gevonden maar ik legde ook dat verband. Het klinkt zeer plausibel. GDDR7 brengt per Gb meer op in en AI GPU dan op een gaming GPU.

AI-kaarten zijn 10x tot 20x,30x duurder. En per verkochte GPU verdient Nvidia nog aan de hele netwerkinfrastructuur die gepaard gaat met zo’n AI datacenter.

Zodra er een tekort is moeten ze wel de beste betaler voorrang geven of ze verliezen inkomsten in hun belangrijkste markt. Ook geeft GDDR7 een grotere performance boost in AI dan in games.

Hopelijk is er voor gamers ook een voordeel want door de opkomst van AI gaat de technologische revolutie in chips en software sneller dan ooit. Maar zolang die nieuw tech niet betaalbaar wordt en enkel voor AI dient hebben gamers er natuurlijk niets aan.

Ik vermoed dat Sony achter de schermen nu alles op alles aan het zetten is om voor de PS6 voldoende goedkope GDDR7 chips te bemachtigen via hun partners. (Amd)
AI kaarten gebruiken HBM niet GDDR
To be fair, er zijn ook kaarten zoals de RTX pro 6000, die voor professionele doeleinden bedoeld zijn maar gewoon GDDR7 gebruiken. De RTX pro 6000 is eigenlijk een variant op de rtx 5090 met o.a. meer geheugen, maar is veel duurder (9k - 10k). Je kunt er donder op zeggen dat dat soort kaarten ook veel voor AI gebruikt zullen worden.
Je hebt gelijk, maar de RTX PRO 6000 is een zeer niche particulier product. Wanneer men het over AI GPUs heeft ga ik uit van gigantische datacenters met duizenden HGX series kaarten. Ik ben niet op de hoogte van de exacte verkoop cijfers van Nvidia maar ik durf te wedden dat de verkoopcijfers van de RTX PRO series kaarten minuscuul zijn in vergelijking met die van datacenter kaarten.
GDDR7 en HBM komen uit dezelfde pipeline van Samsung/SK Hynex/Micron. En het is niet eens enkel de pipeline, ook voor wafers concureren ze als het ware.
Ik was onder de indruk dat het productieproces van HBM zodanig verschilt met dat van GDDR dat het ene niet echt het ander beïnvloed.

[Reactie gewijzigd door Dutchyrus op 8 november 2025 14:11]

RTX Pro 6000 Gebruikt GDDR7.

Ook Tomshardware maakt de link: https://www.tomshardware....aluable-for-consumer-gpus
De vraag is denk ik ook, waarom zouden ze supers uitbrengen?

De 5000 serie voelt nog heel vers, is het snelst, misschien wachten ze even omdat AMD toch niet echt een antwoord heeft.
Naar mijn idee heeft AMD een beter antwood dan Nvidia. Misschien niet op de 5090 of 5080. Maar voor de normale consument zijn die kaarten toch niet te betalen.
De 5070 is flink goedkoper als de 9070XT en heeft betere features en feature adoptie in games. En de 5070 ti is wat duurder maar ook sneller en heeft wederom verschillende voordelen. Zeker als je games streamed of opneemt kan je niet eens om Nvidia heen. Daar zijn ze gewoon op alle fronten superieur. Er is gewoon geen enkele reden momenteel om AMD te kopen. Die kaarten zijn veel te duur en dat waren ze al sinds dag 1 van de release. Dat het de enige kaart is in de afgelopen 7 a 8 jaar die gewoon leverbaar was bij zo goed als iedere winkel ongeacht de relatief lage oplage zegt al genoeg. Mensen moeten echt stoppen met amd een veer in de kont proppen eant ze doen op gpu vlak gewoon heel veel fout en hebben enorme kansen gemist. Op 499 en 549 incl btw waren die kaarten van de schappen gevlogen maar helaas die kens hebben ze gemist.
Ik heb een Asus TUF 9070xt gekocht om te gamen op 4k en bevalt mij uitstekend! 750 euro vs 1050 euro voor de Asus TUF 5070ti. Van dat verschil nog een mooie nieuwe ssd gekocht.

Weg met Nvidia en lang leve AMD!! Top kwaliteit voor top prijs.
ASUS Tuf 5070ti kost maar rond 859 al best wel een tijdje. Dus wat dat betreft is dat prijsverschil echt niet zo groot meer. En overigens noem je met de Asus Tuf versie ook gelijk 1 van de duurdere 5070ti's, je koopt al een 5070ti voor 769 euro.
Ik was voorheen altijd fan van ATi videokaarten, ben nu wel aan het twijfelen of ik voor een 5070ti of zelfs een 5080 te gaan, maar de RX9070xt trekt me ook wel, vraag me alleen af of die voldoende is voor Ultrawide 1440p
Ik speel er BF6 mee op utra zonder een centje pijn. Kaart is bovendien zuinig. Zeker als je ‘m undervolt, wat makkelijk is en prima gaat.
Graag geen onwaarheden verspreiden;

uitvoering: ASUS TUF Gaming Radeon RX 9070 XT OC

uitvoering: ASUS TUF Gaming GeForce RTX 5070 Ti 16GB GDDR7 OC Edition

Het prijsverschil is zo’n 100 euro, geen 300 euro. Een redelijk vergelijkbaar verschil zie je bij de goedkoopste modellen, oplopend tot maximaal zo’n 150 euro verschil.
Als je uitgaat van de gemiddelde prijs zit je wel degelijk op een verschil van € 250,-- (€ 800 vs € 1050)
Dat verschil is volgens die grafiek aanzienlijk groter geweest, richting de 250,-

Dus 300,- is overdreven, maar alleen naar de prijs van nu kijken en dan gaan roepen dat diegene er naast zat klopt net zo min.
Tenzij je graag van Windows afwilt en een out of the box zorgeloos Linux gaming systeem wilt hebben.

Dat er geen enkele reden is klopt dus niet.
Sorry, maar je gaat nu vol op het orgel terwijl de situatie in de eerste helft van het jaar echt beduidend anders was, zowel qua aanbod als qua prijs. Dat zie je ook terug in der reviews uit die tijd. Redelijk zou zijn als je stelt: 'de prijskwaliteit van AMD was ebter in de eerste helft van het jaar, maar dat is nu niet meer". Dan maak je ook je punt zonder onzin te verkopen en te gaan beweren dat mensen veren in de kont stoppen van een merk terwijl op moment van schrijven het inderdaad een goede keuze was.
Feit blijft dat de AMD kaart gewoon te duur is en beide kaarten zijn afgelopen 4 maanden iig even veel in prijs gezakt.
Nu wel, toen niet. Je kan ook gewoon objectief zijn toch?
De 5070 is flink goedkoper als de 9070XT en heeft betere features en feature adoptie in games. En de 5070 ti is wat duurder maar ook sneller en heeft wederom verschillende voordelen.
Daarbij vergeet je natuurlijk te vertellen dat de 9070XT ook stuk sneller is dan de 5070, de 9070 is vergelijkbaar in prestaties en prijs met de 5070, en dan is vaak de 9070 de betere keuze... mag jij natuurlijk anders vinden, maar de meeste reviews geven dat gewoon aan, en de consumment blijkbaar ook als je naar de verkopen kijkt.
Zeker als je games streamed of opneemt kan je niet eens om Nvidia heen, Er is gewoon geen enkele reden momenteel om AMD te kopen.
Man man daar gaan we weer met de welbekende onbevooroordeeld mening.

Mensen die streamen en opnemen zijn echt een miniscule marge. en de 9070 is gewoon een betere koop dam de 5070 en de 9070xt is ook in vele gevallen een betere koop dan de 5070TI, behalve als je precies dat ene spel speelt waarin de 5070TI een stuk beter is, of je hebt een goeie deal te pakken

YouTube: Radeon RX 9070 XT vs. GeForce RTX 5070 Ti, 55 Game Benchmark
Dit vooral ook ja. Op de 5070 na hebben ze al evenveel geheugen als de AMDs. Ze domineren de GPU markt compleet. Waarom zouden ze meer geld naar de geheugen fabrikanten sturen (immers dat extra geheugen is niet gratis), als dat niet hoeft?

De enige reden die ik zie voor Nvidia om dat te doen is om degene die nu aan het afwachten waren te overtuigen toch een nieuwe kaart te komen. Maar niet omdat het nodig is vanwege concurrentie.
de 4080( super ) zit er echt nog best dichtbij met heel vel games op de meeste resoluties de 4090 maakt gehakt van de 5080 dus ja de enige kaart die echt sneller is en een generational leap is de 5090 en die is echt alleen interessant voor .... ( vul zelf maar in )
waarom zouden ze supers uitbrengen?
Omdat dat de verkopen een nieuwe impuls geeft. Zeker als het mogelijk is ze voor hetzelfde bedrag als de standaard' versies op de markt te zetten.

De huidige modellen hebben ook genoeg om op aan te merken en in de Supers zouden die tekortkomingen verholpen kunnen zijn.
Vooral voor de 5060 denk ik. Dat is het segment dat het best verkoopt, en bleek bij release onvoldoende VRAM te hebben voor sommige games.
Is dit dan het resultaat van de AI economie?
Het is meer het resultaat van gebrek aan concurrentie in het hogere segment. Als je de Steam survey als bron neemt is het aandeel AMD een druppel op de gloeiende groene plaat. Die ook niet lijkt te veranderen. Bij CPU zie je duidelijk een gestaagde verschuiving richting AMD waardoor het aanbod mooi begint te nivelleren richting 50/50.

Waarom zou men tijd en moeite investeren als de huidige kaarten nog steeds goed verkocht worden? Zo lang de verkopen niet minderen en men dus de huidige prijs-product accepteert heeft het voor Nvidia weinig nut om nu een refresh uit te brengen. Als de prijs redelijk gelijk blijft koopt niemand meer een niet-Super kaart.
Nvidia heeft ook geen motivatie ervoor zolang er geen echte concurrentie is.. Ze kunnen idd veel meer geld verdienen op andere (AI) markten tegenwoordig..
Ja klopt maar het geheugen is te duur geworden vandaar deze uitstel.

Dat wilt zeggen in de toekomst dat de videokaarten nog duurder worden.

[Reactie gewijzigd door rjmno1 op 9 november 2025 14:42]

Ik denk ook dat dit zal betekenen dat de RTX 6000 GPUs waarschijnlijk pas laat in 2027 gaan uitkomen.
Er zit altijd twee jaar tussen, dus de 6000 zal eind 2026, begin 2027 verschijnen.

Dat een GPU wordt uitgesteld en/of moeilijke voorraad dat mensen maanden moeten wachten, geeft Nvidia totaal niks om.

Maat van mij heeft toen een RTX 3080 besteld op release, en kreeg pas maanden later omdat de voorraad toen gewoon bagger was. Hij heeft hem een half jaar en toen kwam de 4000 serie alweer uit.
Dat is heel wat anders dan een release hebben vlak na elkaar. Je gaat geen 5080 super uitbrengen om vervolgens met een 6070 te komen die goedkoper en sneller is.
De enige keer dat een nieuwe 70 GPU een vorige generatie 80 GPU deed overtreffen, was de RTX 4070 die sneller was op alle fronten dan een RTX 3080. Daar was toen ter tijd ook veel ophef over, omdat mensen soms tot een jaar moesten wachten, om dan vervolgens binnen een jaar nadat ze hun kaart hadden gekregen, een goedkopere en snellere variant hadden aangekondigd.

Als ik ga kijken tussen de 4080 en 5070, outperformed de 4080 de 5070. Dus hoe jij aan de informatie komt dat een 5080 super trager is dan een 6070, is mij een raadsel. Er is nog niet eens bekend welke specificaties de 6070 gaat krijgen. Gaan we weer hetzelfde zien als tussen de 3000 > 4000 series? Geen idee, dat zullen we eind 2026 of ergens in 2027 gaan zien.

De kloksnelheid mag misschien iets sneller zijn en nieuwe geheugen, maar je vergeet wel dat een RTX 4080 meer VRAM, geheugenbandbreedte, betere geheugenbus breedte en nog meer heeft dan een RTX 5070. En dan praat ik over de gewone variant, niet de Super versie. Userbenchmark geeft voor een RTX 5070 een average score van 98,5% en de RTX 4080 122%.

Wat wel zo is dat de RTX 5070 nieuwe technologieën aanboord heeft. Maar als je kijkt naar raw performance, legt de RTX 5070 toch af tegen de gewone RTX 4080 16gb.

Ik zou je wel meteen gelijk geven als je zegt, "die paar extra% performance is voor mij het niet waard om zoveel meer uit te geven". Dan zou ik ook meteen voor een 70 versie gaan.

Ik vind het ook niet waard om elke twee jaar een nieuwe GPU te kopen. Pas een generatie later begint het aantrekkelijk te worden. Ik heb nu zelf de 4080, en de performance verschil tussen de 4000 en de 5000 is mij gewoon niet waard om weer minimaal 1200 euro uit te geven. De 6000 wordt dan wel weer aantrekkelijker en dan sla ik de 7000 weer over.

[Reactie gewijzigd door Toonen1988 op 8 november 2025 05:02]

Je zeg het zelf. De 4000 serie was sneller dan de 3000 serie omdat die op een kleinere die was gemaakt. De 5000 serie zat op dezelfde die als de 4000 serie. de 6000 serie gaat weer naar een kleinere die. Dus de verwachting is dat die weer dezelfde leap gaat hebben als de 5000 serie. Natuurlijk is het speculatie omdat we de cijfers nog niet hebben.

Maar nog nooit heeft Nvidia 3 maanden na een release van een nieuwe serie (de supers) meteen een compleet nieuwe serie (in dit geval de 6000) gereleased. Als ze dat doen maken ze de supers gewoon meteen oninteressant om aan te schaffen. Ook nog nooit heeft Nvidia een complete dominantie gehad op het high end spec. Ik zou het dus raar vinden als ze de 6000 releasen begin 2027 als de supers van de 5000 serie eind 2026 komen.

Ik verwacht dan ook dat de 6000 serie naar eind 2027 gaan of zelf begin 2028 als ze dit doen. Daarnaast gaan ze dan dus veel 3gb ram gebruiken op de supers die ze dan niet kunnen gebruiken voor de 6000 serie.

Al om al lijkt het erop dat Nvidia door hun dominantie in het high end spec ook de doorlooptijd van hun producten verlengt om zoveel mogelijk winst te pakken. Een 6000 serie zou dan nog niet nodig zijn want AMD heeft nog geen antwoord op de 4090 en de 5090 dus high end users gaan toch voor nvidia. Als AMD met antwoord komt op de 5090 dan releasen ze de 6000 serie die zeker sneller gaat zijn.
Dat verwacht ik ook ze gaan zeker niet binnen een half jaar twee grote releaeses doen
AI onzin sloopt echt alles. Het vreet in een uur meer stroom als dat ik in 600 jaar gebruik, verspilt enorm veel hardware voor mediocre algoritmes is een jasje die we AI noemen en alle gegenereerde content is meer slecht voor mensen als goed.

En na de onzin van minen nu dus deze AI bagger bubble. Ondertussen moeten wij energie besparen... Lachwekkend.

[Reactie gewijzigd door computerjunky op 8 november 2025 05:02]

Je hebt wel een goed punt waar ik het mee eens ben.

Ik gebruik mijn videokaarten alleen maar voor gaming. Niet voor mining en niet voor AI.

Maar jouw verhaal geldt voor gamen ook en daarvan kun je zeggen dat het helemaal niets bijdraagt behalve wat ontspanning/escapism en esports. Wat ik wel doe is in de zomer mijn kaarten zwaar underclocken en in de winter de klok wat meer richting stock/overklok. In de zomer kost het extra stroom omdat de airco dan harder moet werken, maar vaak heffen de zonnepanelen dat weer op. In de winter heb ik er wat geringe verwarming door.

Ik hoop wel dat de gamers onthouden wat Nvidia allemaal flikt zodra/als/wanneer de AI bubbel barst.

[Reactie gewijzigd door HugoBoss1985 op 8 november 2025 10:01]

Energie besparen? Dat is zo 2024. Je moet straks betalen om terug te leveren met al die zonnepanelen. Overdag volop laten draaien levert je meer op dan “besparen”
Mensen gaan simpelweg offgrid systemen meer bouwen, zie je nu al. Het is lichtelijk over met de energievoorziening vanuit overheid. Als je een groot bedrijf bent met een groot dak, vol zonnepanelen en een grote batterijinstallatie ernaast en je kan voort.
Waardoor de stroomprijs omhoog gaat en je er netto niets meer aan verdient. Ik ga letterlijk helemaal niets meer doen tot elke besparing waterdicht is way er ook met de stroomprijs gebeurt.
Het is momenteel te volatile om wat te veranderen en je niet meer kan verwachten je investering terug te verdienen.

Als ik overigens off-grid zou willen moet ik een 10kWh accu hebben en 45x zo veel zonnepanelen (heb er nu 8). Daar is mijn dak in de verste verte niet groot genoeg voor. Ook kost dat meer aan stroom dan dat ik in mijn leven aan stroom ga gebruiken.

[Reactie gewijzigd door computerjunky op 8 november 2025 14:58]

GPU-mining gaf dat de Amerikaanse particulieren die in 2020 hun job verliezen een kans om met hun spaargeld een bedrijfje op te richten en de investering in GPU's betaalde in half jaar tot een jaar terug. Daarna was het pure winst draaien en achteraf nog je versleten grafische kaarten voor 2x aankoopprijs verkopen.

De AI-onzin is de corporate edition van GPU-mining. Niet meer particulieren die tienduizenden tot honderdduizenden dollar investeren. Wel de grote jongens die met miljarden dollar smijten. Veel mensen begrijpen niet wat het nieuwsbericht over 6GW aan AMD GPU's bestellen betekent. Dat zijn 13 kleine kernreactoren zoals wat er in Borssele en Doel staan. Of 6 grote kernreactoren.

Het is niet moeilijk voor de voormalige GPU-mining bedrijven om zich naar AI te rebranden voor de betere beurs-scams. Net zoals tijdens de dotcom bubble, moet je niet veel meer doen dan zeggen dat je iets met Internet AI doet.

Vendor financing is helemaal terug. De leverancier zorgt ervoor dat de klanten geen zorgen over cash ophalen hoeven te maken. Cisco verkocht netwerkmateriaal op afbetaling, bestel zoveel als dat je wilt en het afbetalen doe je in de toekomst als je met het netwerkmateriaal geld kan verdienen. Nvidia schuift geld naar start-ups die het geld terug naar Nvidia schuiven.

De bubble kan barsten als er kritische vragen over het terugverdienen gesteld worden of China verslaat de VS in de AI-race en maakt OpenAI waardeloos. Of er is boekhoudfraude zoals Wirecard, Enron, WorldCom,...

Het verschil met de dotcom bubble is dat toen alleen de Nasdaq opgepompt werd en de S&P 500 werd niet veel opgedrukt. Deze keer is de hele beurs omhoog gedrukt en er is al sprake dat de aankomende crash vergelijkbaar met 1929 is wegens dotcom bubble en 2008 financiële crisis bij elkaar opgeteld.

Over de radio werd een eeuw geleden gezegd dat het ongelimiteerde groei had zoals wat nu over AI gezegd wordt. RCA was de meme stock en Nvidia van toen. YouTube: Why radios were the semiconductors of the 1920s stock bubble

Voor tweakers is de AI-onzin slecht wegens het opkopen van RAM, SSD's en zelfs harde schijven. Het is alsof dat wij met de Vier ruiters van de Apocalyps geconfronteerd worden.
  • Eerste ruiter zagen we al jaren, de GPU's zijn na inflatiecorrectie dubbel zo duur tegen het historisch normaal.
  • Tweede ruiter is (V)RAM-prijzen die op de grafiek parabolisch omhoog spuiten.
  • Derde ruiter is ze gaan de SSD-prijzen verpesten.
  • Vierde ruiter is zelfs de harde schijven moeten eraan geloven.
We hadden in het verleden jaren op het einde van GPU-scalping gewacht. Nu kan er met nieuwsberichten het sentiment voor panic buying gecreëerd worden. Koop nu nog snel voordat alles weer jaren verpest is en zo wordt schaarste, hoge prijzen/winstmarges/waarderingen weer gecreëerd.
Misschien heeft het uitstellen van GTA 6 hier nog wat mee te maken?

In de consumentenmarkt gaan mensen voor GTA 6 een nieuwe pc kopen of bestaande pc willen upgraden. En uitstel van GTA 6 is dus voorlopig nog geen upgrade, dus kunnen ze veiliger nog even wachten met uitbrengen en zo eerst meer verdienen aan de AI producten.
GTA 6 komt eerst alleen voor console, heeft er niks mee te maken
En wat als blijkt dat Nvidia het trucje van Epic heeft afgekeken en een grote zak met geld op tafel heeft gelegd om exclusiviteit voor z’n cloud gaming dienst af te dwingen? ;)

Nergens op gebaseerd hoor. Maar ik zie wel kansen voor ze.
Voor cloud gaming heb je geen monster gpu nodig, alleen een scherm en goed internet
Daarom, een eventuele Nvidia GPU schaarste voor gamers is dus geen probleem, een hoge prijs, of onaantrekkelijk aanbod. De oplossing bieden ze een deurtje/linkje verder aan, zeker zolang de concurrentie ook steken laat vallen.

[Reactie gewijzigd door Cid Highwind op 8 november 2025 09:47]

Ik verwacht als Nvidia wel zo op AI inzet en de consument gamer gaat verminderen, dat AMD en Intel meer in dat gat zullen springen de komende jaren. Een bedrijf zoekt altijd de plekken waar goed geld te verdienen is, voor Nvidia is dat AI nu, voor een Intel kan dat meert toekomstige GPU markt zijn.
Kan niet wachten op de €4000 5090Ti Super
En een 2000 watt voeding 😆
En goede connectie op de videokaart die al die stroom aankan (en niet zoals 5090/4090).
Heeft het nog nut om hierop te wachten? Als je de tijd meerekend dat het duurt voordat de kaarten daadwerkelijke MSRP zijn is het al bijna 2027.
Tja of je wilt wachten hangt af van de situatie. Als je nu een upgrade wilt doen, waarom wachten, tegen de tijd dat deze beschikbaar is er weer iets anders in het verschiet. Zo kun je elke generatie wachten op een nieuwer model of een prijsdaling en weer een nieuwe generatie etc.

Those who always wait, will never have.
Aan de andere kant kan de vraag naar data center gpu afnemen i.v.m. elektriciteitsaansluiting.

Denk aan 135kW per rack of 14kW per server.
Als ze weer 12vx6 high volt power connector gebruiken dan sla ik over. Nu de 9070xt van AMD ook een versie heeft met die connector en die ook al doorbranden ben ik er zeker van dat die connector bagger is en die komt er dus in mijn systeem ook niet in.
Waarom zou Nvidia wat dan ook uitbrengen, bij absoluut gebrek aan concurrentie kunnen ze het prima nog een poosje uitstellen.

En dat doen ze dus ook.
Ik ben ook in de markt voor een upgrade. Nu heb ik de 3090FE die ik in 2020 heb bemachtigd toen die kaarten vrijwel niet te krijgen waren. Destijds was het probleem de mining van crypto's. Soms dropten er kaarten voor MSRP en ik was een van de gelukkigen.

Ik wil MSFS 2024 in VR spelen met een Pimax Crystal Super Micro-OLED (13,6 mln pixels per oog). Dat vraagt een stevige CPU en GPU. Ik denk aan de AMD 9800X3D met of een 5090 of 5080 (of misschien een 4090). De 16GB VRAM op de 5080 vind ik wat weinig (MSFS gebruikt heel veel VRAM). De 5090 is nog steeds belachelijk geprijsd tov de rest.

Om te kunnen reageren moet je ingelogd zijn