'AMD wil zich richten op videokaarten met minder geheugen door prijsstijgingen'

AMD wil zich meer richten op de 8GB-varianten van zijn videokaarten in plaats van de modellen met 16GB vram. Dat claimen bronnen op het Chinese Board Channels. Daarmee lijkt de fabrikant dezelfde strategie te kiezen als concurrent Nvidia.

AMD Radeon RX 9070 RX 9070 XT
AMD Radeon RX 9070 en RX 9070 XT

AMD past zijn line-up van producten aan naar aanleiding van de huidige geheugenschaarste en de stijgende prijzen die daaruit voortvloeien. Dat schrijft VideoCardz op basis van bronnen op het Chinese forum Board Channels.

De fabrikant zou meer 8GB-modellen willen produceren, voornamelijk de RX 9060 XT 8GB en RX 7650 GRE. Tegelijkertijd wil AMD naar verluidt 'aanzienlijk' minder RX 9070-kaarten maken, die standaard voorzien zijn van 16GB ram. De productie van de 16GB-versie van de 9060 XT en de 9070 XT blijft volgens de forumpost ongewijzigd. Het is niet duidelijk in hoeverre deze informatie ook zal gelden voor de westerse markt; het GRE-model is bijvoorbeeld niet buiten China uitgebracht.

Verder melden de bronnen dat AMD-boardpartners de kostprijzen voor 'de meeste' Radeon-modellen afgelopen maand met vijf tot tien procent hebben verhoogd. De verwachting is dat die stijging de komende maanden zal doorzetten, waardoor AMD's videokaarten vermoedelijk ongeveer evenveel gaan kosten als de GeForce-concurrenten van Nvidia.

Overigens lijkt ook die laatste fabrikant zich meer te richten op de modellen met minder geheugen. Boardpartners lieten vorige maand weten dat Nvidia minder 5070 Ti- en 5060 Ti-varianten met 16GB geheugen gaat produceren, terwijl de varianten met minder vram vooralsnog ongemoeid blijven.

Door Kevin Krikhaar

Redacteur

03-02-2026 • 17:25

164

Reacties (164)

Sorteer op:

Weergave:

Het zielige voordeel van de 9060 XT 8GB tegenover de Nivida 5060 Ti 8GB is dat hij significant minder inkakt als hij te weinig geheugen heeft. De reden is dat de 9060 XT PCI-E 5.0 16x is en de 5060 Ti gelimiteerd is met PCI-E 5.0 8x. In beide gevallen is het gewoon droevig, maar voor alle mensen waarvoor de 8GB kaart de enige optie is, des te hoger de PCI-E bandbreedte des te beter als de kaart zelf uit geheugen loopt en het systeem geheugen moet aanspreken.

Specs:
https://www.techpowerup.com/gpu-specs/radeon-rx-9060-xt-8-gb.c4251
https://www.techpowerup.com/gpu-specs/geforce-rtx-5060-ti-8-gb.c4246

Zie ook de volgende review van Hardware Unboxed:
YouTube: Radeon RX 9060 XT vs. GeForce RTX 5060 Ti: The Best-Worst 8GB GPU of 2025
Daar staat tegenover dat je dan over de PCIe bus gewoon DDR5 gebruikt. Dat is ook duur. Misschien kun je beter een stapje terug doen: dan maar high ipv ultra.
Je merkt dit verschil vooral bij de CPUs die nog DDR4 gebruiken, omdat die ook een oudere PCIe standaard hebben, hooguit 4.0 maar vaak nog 3.0. Want hoewel PCIe 4.0 x16 evenveel bandbreedte levert als PCIe 5.0 x8 (wat in principe volstaat bij deze kaarten), is dat niet mogelijk door het fysieke gebrek aan lanes. Je bent daardoor beperkt tot PCIe 4.0 x8, wat gelijk staat aan 5.0 x4. En met PCIe 3.0 is het nog erger, want dan heb je met 8 lanes maar evenveel bandbreedte als 5.0 x2.

[Reactie gewijzigd door Stijnvi op 3 februari 2026 20:57]

watte? Het enige systeem waar ik ooit te weinig lanes had was op een x470. En dat merkte je doordat je niet alle NVME slots kon gebruiken zonder SATA poorten op te offeren. (en de lagere throughput op die nvme ssd te accepteren) er werd in geen enkel geval geknibbeld aan de doorvoer van het primaire PCIe slot. Ja, als je de PCIe bus vol ging proppen (maar wie heeft er tegenwoordig nog meer dan 1 GPU voor games?) dan kon er wat gedoe ontstaan.


Op een fatsoenlijk X570 bord (of een Z series van Intel) is dit afaik sowieso geen probleem.
Ik ben benieuwd of game developers nu meer tijd gaan stoppen in optimalisatie. Dat is vaak een ondergeschoven kindje, mensen kopen toch wel de nieuwste dure GPU. Maar dat gaat de komende jaren steeds minder een optie worden, en ze willen wel hun games verkopen.
Denk dat ze eerder stoppen met grafische vooruitgang zodat ze alsnog niet te hoeven optimaliseren.

[Reactie gewijzigd door Rogers op 3 februari 2026 19:15]

Tegelijkertijd ook zat games die met zeer hoge polygoon-counts en grote textures er zeker niet mooier uit zien dan (oudere) games met lagere graphics maar met een beter uitgewerkte belichting.
Gooi er nog een slecht uitgewerkte HDR overheen en het verschil verdampt al helemaal.

Niet bij alle games, maar toch dat je je afvraagt waar nu het meeste te halen is...

Tegelijkertijd, papieren en meetbare specs verkopen, maar hoe het er werkelijk uitziet is iets anders.
Ik durf zelfs te zeggen: Een game die zaken als physics natuurlijk laat verlopen en waarvan de bewegingen super smooth en vloeiend zijn zonder veel echte input lag, zal er in de eerste indruk 'mooier' uitzien dan een game waarvan elke frame een foto is maar waarvan het gedrag van de game echt te wensen over laat.

Veel games hebben bijvoorbeeld echt veel te veel post-processing waardoor bewegingen onnatuurlijk worden en zelfs onduidelijk (motion blur is echt een kreng) en dat is veel storender dan een texture die niet 4096 maar 2048 pixels breed is voor een auto van een kilometer verderop.
Daar heb je texture mip mapping voor.
Ik heb het natuurlijk over de grootte van alle textures in het algemeen, niet dat ze over een afstand worden gefilterd.

Visueel detail is mooi in een stilstaand plaatje maar het heeft veel minder impact op bewegende beelden. Wat ik juist probeer te zeggen is dat de vloeiendheid van die bewegingen veel meer invloed heeft op hoe 'mooi' een spel grafisch is dan super veel detail overal in zetten wat bergen met VRAM kost.
Dan is nog steeds optimalisatie nodig. Kjjk maar naar borderlands 4.
Aangezien veel nieuwe games domweg UE5 gebruiken, zit er op vlak van optimalisatie en grafische vooruitgang nog veel rek.
Veel grote geheugengebruikers kan je moeilijk optimaliseren: textures, framebuffers, etc. zijn gewoon zo groot als ze zijn. Wil je hogere kwaliteit/fidelity, ga je uiteindelijk gewoon meer geheugen nodig hebben. Sure, er zijn heel (development-)kostelijke manieren om geheugengebruik te optimaliseren. En met de PS5-era "streaming" kan je ook nog wat aanvangen, maar onder de streep gaat dat de grafische pracht en praal die je op het scherm kan toveren serieus limiteren. Met texture compressie lijkt ook wel ongeveer het onderste uit de kan gehaald.

Vroeger werden dezelfde textures veel meer herbruikt, net omdat er weinig geheugen voorhanden was. Maar dat leverde soms ook saaie levels op, of overduidelijke herhaling van bepaalde patronen.

Vandaag de dag ga je meer AI zien voor dingen als texture upscaling en zelfs hele frame upscaling, maar die technieken zijn ook niet zonder geheugengebruik. AI modellen nemen nu eenmaal absurd veel geheugen in, puur omdat ze een gigantisch aantal parameters/operaties bevatten (in vergelijking met een "klassiek" algoritme dat eenzelfde resultaat ambieert, waar dit natuurlijk kan...).
Framebuffer is echt gerommel in de marge. Laten we eens zeggen 100MB ofzo. En qua textures kan je een hoop optimaliseren. Plus als ik kijk zijn recente spellen wel veel meer VRAM gaan gebruiken, maar om nou te zeggen dat het mij opvalt dat de textures zoveel mooier zijn?

Ook daar is natuurlijk los van compressie genoeg te optimaliseren. Eg ipv een muur als texture opslaan, sla je 10 bakstenen op, waarmee je de muur maakt. Gooi er nog 10 soorten 'vuil' overheen, en je hebt 100 mogelijke combinatie hoe een baksteen eruit kan zien.
Ik heb hier weinig kennis van, hoe die frame buffers en textures juist werken, dus ik ga geen uitspraken doen.

Maar zou het niet kunnen dat het toch allemaal beter kan? Tuurlijk, games zien er beter uit vandaag. Maar hoeveel daarvan is effectief door de zaken die geheugen nodig hebben, en hoeveel door snellere hardware en nieuwe snufjes (zoals rebar, hdr en raytracing, zonder in te gaan of het het waard is en altijd beter is)?

Kan het niet zijn dat er de laatste jaren (en langer) gewoon geen optimalisatie gedaan is, want het moest niet, gewoon pompen en mensen kopen wel wat beter?

Vandaag toevallig gelezen over BBF, een CBZ vervanger die 100x sneller is, gemaakt omdat hij CBZ zo inefficient vond, maar de consensus was dat "CBZ is fine".

Als er geen reden is om iets te verbeteren, waarom dan investeren, als het resultaat toch hetzelfde is? Kost alleen geld en tijd, velen zullen falen, maar met de juiste persoon op de juiste plaats met de juiste motivatie ben ik overtuigd dat het echt wel beter kan. En nu de motivatie er is (als gpus gewoon niet meer genoeg ram hebben voor de huidige workflow), kan die persoon hopelijk zijn werk doen.

Ik mis de oude tijden wel, waar pcs relatief hetzelfde waren, en devs maar moesten zorgen dat hun ding werkte binnen de beschikbare specs en toch een verbetering waren dan alles ervoor. Bij consoles hebben we het ook nog lang gezien, waar de latere games beter waren dan release titels, omdat ze meer uit dezelfde hardware wisten te halen (ook al ben ik geen console gamer, denk ik dat we ze toch dankbaar moeten zijn, dat we anders nog minder optimalisatie hadden gezien), helaas heb ik het gevoel dat dat door meerdere versies en refresh binnen de generatie ook weg is. Wat dus weer toont: waar een wil is, is een weg.
Je hebt dan over tijd spanne van oer cpu met enkele KB tot heden 32GB + 16GB vram van nu.

1 Arari 2600 dev kan 1 persoon project runnen en helemaal losgaan C optimalisaties waar code en data binnen Paar KBytes valt.

Toen werd er ook niet maximaal optimaliseert. Ook toen is tijd geld. Optimalisatie is een productie tijd resource . Waar men niet altijd de tijd voor hadden ivm productie budget en deadlines.

Dat probleem is nu in kwadraat gestegen 100++ teams. Data asset pipline driven productie efficiëntie voor het art team productief maken.
Naast script programmers en afdelingen overhead. En dan is er in productie budget en team resources en tijd voor optimalisatie gepland.
Maar vaak komt dat na feature.
complete en gaat doel om target frame rate te halen.
Dus voor productie tijd en budget en prioriteit art team productie efficiëntie. Wordt veel performance opgeofferd. Want 4 jaar ipv 6 jaar binnen 150mil of 250mil eroverheen.
Producties met full backing waar “its done when its done” hebben van veel optimalisatie genoten voor code en data. Meeste producties hebben die luxe niet.
Mensen roepen tegenwoordig bij elke stotterende game meteen “optimalisatie!”, alsof dat een magische knop is. Games worden al geoptimaliseerd, maar er zit gewoon een harde grens aan wat je uit hardware kunt persen. Als GPU‑leveranciers door de RAM‑crisis weer massaal 8GB‑kaarten gaan uitbrengen, dan kan een developer simpelweg minder doen met textures, wereld‑detail en moderne rendering‑technieken.

Je kunt geen next‑gen graphics verwachten op hardware met een VRAM‑budget uit 2016. Optimalisatie lost dat niet op dat heet gewoon een bottleneck.
Optimalisatie is precies dat, het optimaliseren van wat er al is.
Echte performance verbeteringen zullen al aan de voorkant gekozen moeten worden, ipv er gewoon grotere textures tegenaan gooien.

You can polish a turd, but it remains a turd.
Ik denk dat vooral triple A studio's de komende 3j zure tijden tegemoet gaan, zeker als je game de komende tijd uitgebracht zou moeten gaan worden. Veel gamers zullen nu wel al even twee keer nadenken voor ze hun centen uitgeven.

Indie studio die minder zware grafische eisen stellen zullen dan weer goeie tijden kennen. Merk zelf dat al die bling bling me helemaal niet meer interesseert. Geef mij maar gameplay i.p.v. graphics.

Ben ook wel eens benieuwd wat dit voor de volgend generatie consoles betekent. Die gaan hier vast ook last van ondervinden. Dus laat ons hopen dat AI klapt tegen ten laatst eind dit jaar, dan nog een jaartje of twee voor de boel normaliseert. Dat is alvast mijn pronostiek :).

[Reactie gewijzigd door Powerblast op 3 februari 2026 20:19]

Hoop het. The last of us part I liep voor geen meter op mijn 8gb 3060Ti. Maanden later vanaf patch 1.10 liep die game uitstekend op de 3060Ti. Het kan dus wel kost alleen wat meer werk. Ipv. 11gb ging het verbruik naar < 8gb
Optimaliseren betekent dat je game een maand later de markt op gaat dan de concurrent en dan gaan de aandeelhouders lopen steigeren.

Als studio die zelf een indie/early-access game maakt kun je dat nog doen maar de AAA-titels van grote publishers zitten aan tijd gebonden en daardoor is de kwaliteit en performance van die games een race naar de bodem aan het worden.
Je kunt ook zelf de resolutie en kleurdiepte wat lager houden.
Ik betwijfel of gaming en algemene consumenten hardware over het algemeen een toekomst heeft als de Amerikaanse overheid manieren blijft vinden om de grootste AI bedrijven de grootste hoeveelheid aan schaarse computer onderdelen te blijven inkopen.

Dat zou voor veel consumenten gefocuste bedrijven namelijk fataal zijn.
Mogelijk en het zal even duren voor de markt dit opvangt. Dat geheugen duurder is geworden, staat wel los van toevallige marktpech. Het is het directe gevolg van structureel falend beleid. Europa heeft - opnieuw - liggen slapen, bewust afhankelijkheden gecreëerd en zich verloren in onhaalbare ideologische dromen. Het resultaat: Amerika zit aan de knoppen en wij kijken machteloos toe. We klagen vooral, omdat we zelf geen alternatief hebben en alleen de nadelen ondervinden.

Overheden in het algemeen zijn hier schuldig aan. Door overregulering, protectionisme en vriendjespolitiek is het toetreden tot markten onnodig duur en complex gemaakt. Dat smoort concurrentie en leidt onvermijdelijk tot monopolievorming. De VS is daarin geen uitzondering, maar de EU al helemaal niet. Integendeel: Europa is minstens zo verstikkend.

En wanneer de EU merkt dat ze technologisch of economisch niet meer mee kan komen, grijpt ze naar importheffingen. Niet om innovatie te stimuleren, maar om falen te maskeren. De rekening daarvan ligt gewoon bij ons. Vervolgens wordt er met een beschuldigende vinger naar Amerika gewezen zodra zij exact hetzelfde doen. Dat is niet principieel - dat is hypocriet.

Als Europeanen zouden we eens moeten stoppen met extern schuldigen aanwijzen en beginnen met onze eigen politici ter verantwoording te roepen. We blijven dezelfde beleidsmakers herkiezen en zijn dan verbaasd dat de uitkomst niet verandert. Breng eerst de EU op orde. Pas daarna hebben we moreel én inhoudelijk recht van spreken over de VS.

Tot die tijd staan we vooral voor schut: kwetsbaarder dan ooit, afhankelijker dan ooit, en volledig door eigen toedoen. Ook hier. Niemand anders. Al zal dat hier geen populaire mening zijn.
Het is niet goed dat Amerika met zo min mogelijk regulatie zoveel geld steekt in AI.

Als gevolg hebben ze een zeer gevaarlijke economische bubbel gecreëerd waar heel de wereld het economisch zal aanvoelen als het kapot barst.

De verstikkende regulatie is juist gewenst. Het enige probleem is dat het niet globaal even verstikkend is zoals het zou moeten.

[Reactie gewijzigd door RCFProd op 4 februari 2026 19:27]

nieuws: Test kraakt grafische kaart met TurboCache

Ze moeten gewoon turbocache weer leven in blazen we hebben toch rebar, en de RX9060TC uitbrengen met memory sharing van main ram en S3TC variant gebruiken voor textures te comprimeren :P Engines optimaliseren is niet nodig joh echt niet, waarom zou je dat doen alles wordt straks ai geprogrammeerd dus optimalisatie laat me niet lachen.

[Reactie gewijzigd door Flooperke op 3 februari 2026 18:47]

Volgens mij heeft Nvidia nog wel zo iets, maar bij AMD niet, daar heb je wel Smart Access Memory wat de CPU direct toegang geeft tot de VRAM.
AMD heeft dat wel: HBCC. Het hele VRAM wordt in main memory opgeslagen en het geheugen op de kaart zelf is enkel een cache. Vega en Radeon VII ondersteunden het maar het is niet populair geworden. Nu dat PCIe een stuk sneller is zou het nog beter werken dan toen. Met UDNA/RDNA5 wordt het hele VRAM compressed, als dan alles ook compressed over de PCIe bus gesleurd wordt dan haal je er nog meer uit.

Ik wil geen videokaart meer met minder dan 16GB. Maar als AMD HBCC zou terug brengen, dan is dat zeker een optie voor games die over de 16GB limiet gaan.
AMD heeft het dus niet (meer)

Maar als nog heb je dan weer meer RAM nodig als je nu geen overschot hebt.
Ze doen maar, ik richt me wel op het helemaal niet meer kopen van videokaarten.
goed moment om te stoppen met gamen
Zolang niemand nieuwe kaarten koopt hoef je echt niet te stoppen met gamen. Game developers richten zich altijd op de doelgroep. Als de doelgroep geen nieuwe videokaarten heeft. Heb je bij die games ook echt geen nieuwe videokaart nodig.
Ja en nee. Dat nieuwe games speelbaar zijn op 8gb zal voorlopig wel belangrijk blijven, maar gezien de staat van sommige nieuwe games zou het goed kunnen dat "speelbaar" 1080p + FSR is. Hoe lang voordat nvidia beweert dat 1080p30 native met "RTX ON+DLSS4" ineens 4k60 is zogenaamd?
Zolang je boven de PS5 prestaties / featureset zit dan zal het de komende jaren nog wel te doen zijn. Ik denk dat de Nvidia GTX kaarten het binnenkort toch wel gezien hebben maar die zijn ook wel héél oud inmiddels.
Oudere titels / backlog is oppakke ;)
Ik was net op tijd met mijn 7900XTX en de rest van mijn pc aan te schaffen, maar inderdaad. Ouders spellen uitspelen. Merk dat ik Overwatch 2 speel tussendoor en eigenlijk een hele backlog aan spellen nu speel. Bevalt het, prima, bevalt het niet, streep ik het spel af. Echt heel veel plezier aan.

Maar voordeel is dat ik alsnog best nieuwe spellen prima kan spelen.
Tot je GPU kapot gaat en kan je alsnog veel geld uitgeven voor relatief lage performance, relatief tov de rest wat te koop is. Mogelijk al wel een stuk beter dan wat je nu gebruikt....
Vervelend als dat gebeurt natuurlijk... maar je brengt het alsof dat iets is waar je op kunt gaan zitten wachten. Maar over het algemeen gaan die dingen niet kapot hoor.
Waarom zou je stoppen met gamen als je reeds een werkend systeem hebt?
Daar raak je alleen jezelf mee. Logischer lijkt uit protest geen hardware of games meer te kopen en te spelen wat je reeds hebt.

CS2, Anno, factorio, rimworld, lol, oxygen not included. Als mijn library alleen uit deze games zou bestaan, dan kan ik me nog jaaaren amuseren. Maar men library is vele malen groter dan dit… ik zie geen reden om nieuwe AAA games te kopen en daarvoor hardware aan te schaffen. Deels ben ik al bezig met dit soort van protest, ik doe het alleen niet bewust.


CS2, Fortnite en LOL speel ik zonder er ooit geld te hebben ingestoken. Het kost hun geld als ik die games speel.

[Reactie gewijzigd door BlaDeKke op 3 februari 2026 20:21]

Als protest hoor je AI te boycotten . En dus corporaties die daar zwaar inzetten. En dat zijn er veel en ook heel breed.
Als je werkgever ook zwaar gaat inzetten op AI neem je dan ontslag?
Omdat je volwassen wordt?
Jij kent celleoni? Of neem je aan dat ie volwassen wordt? :+

[Reactie gewijzigd door BlaDeKke op 4 februari 2026 09:19]

Eerder een goed moment om in je backlog te duiken of in de wereld van alle fantastische games die er al zijn, ook uit het verleden. Voordeel van al die oude games is dat ze draaien op de GPU die je nu al hebt of die stuk minder dure 2de hands GPU.
Of je te begeven in de wereld van retro gaming. Ik vind het heerlijk om af en toe eens een Amiga spel te spelen
Ik heb zopas Super Mario Brothers ontdekt samen met mijn kleinzoon van zes. Vroeger nooit verder dan world 1-1 gekeken maar loop nu zo door naar 5-3.
Mijn Batocera PC met 5600X en 1660Super draait de meeste Gamecube/Wii/PS2/Xbox spellen zonder problemen in 4K. :) Maart ik zit eerlijk gezegd toch nog veel meer op de gewone PC WoW classic te spelen.
gamen heeft niet mega veel van doen met de huidige hardware perikelen tenzij je pc echt heel oud is. Als je een midrange videokaart van minder dan 10 jaar oud hebt kun je bijna alles spelen wat je wilt met een beetje settings aanpassen.
Ondanks dat je opmerking niet door iedereen gelieft is, ben ik het compleet met je eens.
Ik game al een behoorlijke tijd hierop en ben er best tevreden over.
Ja ik mis het modden van de games wel, maar als fulltime werkend vader heb ik voldoende aan 100 uur per maand gamen.
En voor €200 per jaar kan ik geen gamepc met deze specs samenstellen.

Ik had eerst als doel om misschien in 2026 eens een nieuwe pc samen te stellen, maar kwam in November al tot de conclusie dat dat niet meer in 2026 zal gebeuren.

Nu maar eens kijken of we in 2028 weer normale prijzen gaan zien. (Ik heb weinig hoop voor 2027)
Tot die tijd is GFN een prima alternatief.
je doet precies wat ze willen, overgaan op een subscription van cloud gaming.
Dit gaan er helaas veel doen. pc hardware wordt onbetaalbaar gemaakt zodat iedereen via de cloud moet gaan werken.
Ga toch weg met je complottheorieën en denk eens na.

Nvidia heeft niet een wereldwijd geheugentekort veroorzaakt om meer abonnementen te kunnen verkopen op een gamingdienst. Geforce Now is absoluut niet in staat om al het PC gebruik te kunnen vervangen. Je kunt er games mee spelen, en dan nog hebben ze niet eens alles 8)7

[Reactie gewijzigd door Wolfos op 3 februari 2026 21:54]

Het klopt wel dat er geen causatie is -- ze doen dit niet zodat mensen naar de cloud geduwd worden. Maar het is ontegenzeggelijk ook waar dat ze maar wat graag zien dat veel minder mensen hardware kopen en veel meer mensen abonnementen nemen op serverhardware, want dat is een stuk beter voor hun bottom line. Het komt mooi uit, zeg maar, win-win voor Nvidia.
dus is het geen complot maar een logisch gevolg. Dit is gewoon winst maken op een investering die je 'nu' never nooit terug verdiend. Maar door je investering ook te gebruiken voor andere diensten kan het wel winstgevend worden.
nee hardware is onbetaalbaar omdat AI alle ram opslokt en zij meer geld hebben als gamers.... AMD heeft immers geen cloud systeem. en cloud gamen wordt ook duurder ald hun hardware duurder wordt...
Ja, en? Voor heel veel gamers is GFN gewoon goed, en je kunt heel wat jaartjes vooruit voor het geld dat je anders kwijt zou zijn aan een fatsoenlijke gamepc, wasr je nu ondertussen toch wel bijna 2000 euro voor neer moet tellen, en je dan nog steeds maar een midrange (5070(ti)) hebt. Daar kun je dus bijna 10 jaar een gfn ultimate abo voor hebben (nou last het 8 jaar zijn inclusief enkele prijs verhogingen, maargoed, ook de specs daarvan worden in die 8-10 jaar een paar keer weer verhoogd).
Enige nadeel is wel dat als je geen (fatsoenlijke) internetverbinding hebt dat je dan niet kunt gamen, maar dat is vaak met een losse pc dan ook niet omdat je de games eerst moet downloaden.
2e hands is ook nog optie? Veel mooi spul te krijgen.
Ja, voor scalperprijzen, ofwel oude gpu's die ze dan proberen te verkopen voor meer dan de originele prijs...
Ik heb deze week nog een Intel GPU besteld (B580) voor normale prijs. En oudere AMD kaarten zijn ook wel te betalen. Maar verder eens. High end is niet echt een optie qua prijs, ook niet als tweede hands.
Ja, ken meer mensen die nu ineens naar de Intel grijpen, hopelijk dat dat Intel doet bedenken om alsnog de B770 uit te brengen.
Dit is voor jou vast en zeker een prima alternatief en het aanbod van Geforce Now zal voor velen ongetwijfeld voldoen. Maar ik zie hetzelfde gebeuren als bij de videodiensten. Daar zag je ook dat na een veelbelovend begin het aanbod versnipperde en je steeds vaker op meerdere abonnementen aangewezen was om hetzelfde aanbod te behouden.

Ook zul je zien dat de prijsstijgingen van cloudgaming abonnementen niet mals zullen zijn op het moment dat zelf een gaming PC samenstellen niet meer te doen is bijvoorbeeld omdat onderdelen daarvoor steeds moeilijker voor consumenten verkrijgbaar zijn..

We hebben alles zien gebeuren met Netflix, en dat kan als we het laten gebeuren ook met cloud gaming gebeuren als dat een vlucht neemt.

[Reactie gewijzigd door jumbos7 op 4 februari 2026 00:42]

Steamdeck of Android handheld kopen. Dock + controller erbij en je kan weer overal gamen.

Of een Switch2 :)
Met GeForce Now Ultimate in het achterhoofd is het argument voor het aanschaffen van een peperdure videokaart inmiddels verleden tijd :-P

Eventueel kunnen we de game bakkers vriendelijk doch dringend verzoeken om nieuwe titels zo te optimaliseren dat 4GB videogeheugen niet meteen klinkt als een historisch dilemma :D
De consument vraagt op dit moment om minder grafisch geheugen, dus hup, optimaliseren maar!
En als we dan toch bezig zijn: wellicht kunnen zij er eveneens voor zorgen dat een AAA game niet langer de volledige SSD opeist, zodat men niet na elke nieuwe game install verplicht wordt tot het aanschaffen van aanvullende opslagcapaciteit. Dat zou de gemiddelde gamer aanzienlijk lucht geven, zowel digitaal als financieel. :X

[Reactie gewijzigd door Audione0 op 3 februari 2026 22:22]

Ze doen maar, ik richt me wel op het helemaal niet meer kopen van videokaarten.
Ik vind het ook allemaal wel prima. Developers zullen hier toch rekening mee moeten gaan houden, dus ik denk dat mijn 3080 nog wel even wat langer mee kan dan gepland. Maakt mijn aankoop alleen maar gunstiger. En met nog een gigantische backlog vermaak ik me voorlopig nog wel even.
Ik heb half jaar geleden de 3080 verkocht en voor 100 meer een 7900XT gehald met 20 gb vram, ook gebruikt uiteraard. Helemaal prima. Inderdaad aanhouden en dan zien we wel. Kanttekening js dat wanneer niemand meer gpus gaat kopen als consumer, dat daar ook weinig vooruitgang in te zien zal zijn - want het levert niets op.
Inderdaad, gewoon focussen op gamen ipv videokaarten kopen. Is uiteindelijk waar je ze voor koopt.
Minder ram is gewoon niet handig. 16gb is al amper toekomstbestendig. Kijk naar de benchmarks, 8gb kaartjes scoren allemaal zeer laag. Kun je nog beter een tweedehands last gen kaartje kopen

[Reactie gewijzigd door Bulls op 3 februari 2026 17:37]

Toch enkel als je ram tekort komt. Wat vooral met 4K en ultra settings in de nieuwste games voorkomt. Er zijn zat games te spelen waar 8GB geen impact heeft.
Merk dat 8gb van mijn RTX2080 flink tekort schiet in VR, het meta stuurprogramma verbruikt al 4gb vram.
8GB is gewoon een bottleneck in een hoop moderne games.
Ik kan herinneren dat we van 2010 tot 2017 van 1.5GB naar 11GB zijn gegaan.
1080 Ti met 11GB was GOAT voor zijn tijd.
Ach ja. Gelukkig zullen alle game ontwikkelaars daar ook wel rekening mee houden :z
Indiana Jones gebruikt een hoop VRAM. Stellar Blade op Max textures zag ik 15GB gebruiken.
Als dit natuurlijk nog jaren blijft doorzetten dan moeten de developers wel de textures terug schroeven.
Waarschijnlijk wel. Maar de grote AAA games zullen alleen te spelen zijn straks met een ' ultimate game' abbonement.

Maar dit duurt nog wel een paar jaar denk ik. Of ze moeten de plannen voor de nieuwe ps6 en xbox gaan veranderen, deze zijn al uitgesteld.
ik ben binnenkort een stinkend rijke gast met mijn 7900XTX met 24GB :o

Ook nog een 4GB DDR4 sodimm latje teruggevonden van toen ik men NAS RAM upgrade naar 16GB voor wat wisselgeld... Goud!

Maar inderdaad tijd voor die backlog. Ik ben alvast begonnen met Mass Effect Legendary Edition
Ik verkoop mijn oude latjes nog niet, maar houdt ze reserve. Als iets stuk gaat heb ik dan nog goedkoop geheugen. Anders moet ik de hoofdprijs gaan betalen.
Je kan een leven vullen met de hoeveelheid games op steam die 60 fps op 1440p halen met 8GB Vram. Nergens voor nodig om FOMO te voelen.
Ja, met een 27inch 1080p monitor kan je nog heel lang gamen met een 8GB kaart. De resolutie is niet eens een probleem voor de meeste gamers ogen.
ik zing het ook nog wel een paar jaartjes uit 7800x3d 5070 16 gb 32 gb ddr5 en als die eerder kapot gaat heb ik mijn c64 met floppy nog en winter en summer games space invader e.d.

[Reactie gewijzigd door Maksor70 op 3 februari 2026 20:04]


Om te kunnen reageren moet je ingelogd zijn