Door Reinoud Dik en Tomas Hochstenbach

Overleef de videokaartenschaarste

26 oudere gpu's getest in moderne games

25-09-2021 • 06:00

207

Singlepage-opmaak

Conclusie

Het jaar 2021 valt niet mee voor de prijsbewuste pc-gamer die op zoek is naar een andere gpu. De prijzen van videokaarten zijn al ruim een jaar aan het stijgen en hier lijkt binnenkort nog geen verandering in te komen. Wie de wereldwijde schaarste en hoge prijzen wil uitzitten, kan dit doen met een oudere videokaart. Deze zijn tweedehands doorgaans tegen iets normalere prijzen verkrijgbaar, en in dit artikel hebben we bekeken hoe ze presteren in moderne games.

Waar je met nieuwe, moderne videokaarten er haast wel vanuit kunt gaan dat ze een recente game goed kunnen draaien, is dat bij oudere modellen een steeds groter vraagteken naarmate de leeftijd toeneemt. De gebruikte architectuur in de chip van een videokaart is hierbij een belangrijke graadmeter voor welke hardwarematige features worden ondersteund. Onze testsuite bestaat op Far Cry na uitsluitend uit games die gebruikmaken van de 'nieuwe generatie' api's; DirectX 12 en Vulkan. Oudere kaarten bieden niet altijd volledige ondersteuning voor alle features en onderdelen van deze api's. Zo hebben we gezien dat Assassin's Creed Valhalla, Dirt 5 en Red Dead Redemption niet zijn te draaien op de Kepler-gebaseerde GTX 700-serie en de GCN 1.0-gebaseerde Radeon R7 370 en R9 280X.

Daarnaast is de hoeveelheid geheugen zeker iets om rekening mee te houden. Dit vram is bij enkele games van veel groter belang dan bij andere, maar over het algemeen zullen oudere videokaarten met relatief veel geheugen meer kans hebben om moderne games op hogere instellingen nog goed te draaien.

Radeon R9 280X

Uit onze prijs-prestatieverhouding op basis van de laagste prijzen op V&A komt de Radeon R9 280X als meest gunstige optie naar voren. Omdat dit feitelijk een rebrand van de Radeon HD 7970 GHz Edition is, kan ook voor laatstgenoemde kaart worden gekozen. Naast bovenstaande punten over hardwarematige ondersteuning en hoeveelheid werkgeheugen moet bij oudere videokaarten zoals de R9 280X ook rekening worden gehouden met beperkte driverondersteuning. Tegenwoordig schaart AMD zijn GCN 1.0-architectuur, samen met de tweede en derde iteratie zoals respectievelijk aanwezig op de R9 390X en R9 380, namelijk onder de legacy-driver voor het Windows-besturingssysteem. Dit betekent dat er geen nieuwe drivers meer voor uitkomen en optimalisaties voor net uitgebrachte games uitblijven. Nieuwe spellen zullen mogelijk wel werken, maar zonder garanties.

GeForce GTX 970

Na de R9 280X is de opvolgende optie voor een goede prijs-prestatieverhouding de GeForce GTX 970. Deze oude favoriet onder pc-gamers behaalt bijna evenveel 3DMark-punten per euro. Het voordeel van deze kaart is dat de driverondersteuning door Nvidia vooralsnog wel wordt bijgehouden. Niet alleen heb je voor Windows 10 daarmee recente Game Ready-drivers, ook Windows 11 wordt op dit model met de nieuwste drivers ondersteund.

Onder de streep kunnen we concluderen dat het met degelijk uitzoekwerk en het sluiten van de nodige compromissen nog steeds mogelijk is op een betaalbare manier moderne pc-games op je eigen computer te draaien. Het blijft echter vooral sneu voor gamers in het algemeen dat hardware zoveel schaarser en vooral duurder is geworden. We blijven daarom hopen dat de verkrijgbaarheid van nieuwere videokaarten toeneemt en het prijsniveau weer daalt, maar helaas lijkt dat moment voorlopig nog niet in zicht.

Reacties (207)

207
207
118
8
0
55
Wijzig sortering
Zonde van de tijd dat alleen voor 1080p is getest. Volgens mij is 1440P nu aardig gangbaar.
Als ik de Steam (hardware enquête augutus 2021) moet geloven zit 70.12% op een resolutie te gamen van 1920x1080 dus dat is best wel veel, En maar 9.27% op 1440p

[Reactie gewijzigd door Equazor_ op 23 juli 2024 09:33]

Kanttekening dat daar ook de miljoenen PC's in de game-cafes in Azië in zitten.

In de BeNeLux, en zeker on de de tweakers, zal het percentage 1440p en 4k dus significant hoger liggen.
Dat is ook afhankelijk van de videokaart, ik heb lange tijd op 1440p gespeeld met mijn GTX 970. Maar bij nieuwere games is dit gewoon niet meer mogelijk, vandaar dat ook veel mensen misschien nog op 1920x1080 spelen.

Daarbij zijn er veel mensen die competitief spelen of snelle gamers als online shooters en liever kiezen voor een hogere framerate dan een hogere resolutie. Ik denk dat de percentages in de Benelux en onder fanatieke gamers niet veel hoger liggen. De resolutie zegt namelijk weinig over de videokaart die gebruikt wordt.
Ik doe simracen op 1080P vanwege de stabiliteit met frames, en andere games op 1440P. Ook omdat ik een 1660 Ti heb :). Ook twee verschillende monitoren, 21:9 voor het racen & gewoon 16:9 voor andere games.

[Reactie gewijzigd door Orphu op 23 juli 2024 09:33]

Zelfs gaming laptops hebben tegenwoordig standaard een 1440p scherm (16:9 of 16:10)
Die van €2000+ misschien, de betaalbare zitten vooral nog op 1080..
Ik weet niet of dat representatief is, kijken ze naar de instellingen of max scherm resolutie...

Ik heb ook een 1440p scherm maar ik game op 1080p omdat mijn videokaart het niet trekt... (en er al enige tijd videokaart schaarste is en geen monitor schaarste)
Maar de ontwikkelingen op de monitoren markt zijn niet echt denderend. Lijkt ook al 3 jaar bijna stil te staan.
Dat schaalt toch niet lekker, om 1080 game-pixels te mappen naar 1440 scherm-pixels? In tegenstelling tot de oude CRT-monitors zijn TFT-monitoren altijd waziger op non-native resoluties, zeker als je een lastig te mappen verhouding gebruikt.

Dan zou ik toch eerder de game op 720p draaien met een extra sterke AA en hogere grafische instelling (die marge heb je dan toch met een nog lagere resolutie), of overstappen naar een 4k-monitor waar 1080p dan even gemakkelijk op te mappen valt.
De -tweaker- lezer of premium abbo houder zit ongetwijfeld vakker op 1440p of hoger (dan wereldwijde stats, met alle aziatische cafés)
Kunnen we eens ophouden met die steam gegevens. Er is al vaker aangetoond dat veel van de getallen scheef gaan met de werkelijkheid.
Dat vind ik een relatief hoog percentage...
Zeker voor dit soort kaarten zal de meerderheid nog een 1080p scherm hebben. Niemand met een 1060 of minder heeft toen der tijd die kaart gekocht om op 1440p te gamen.
Dit dus.

Mijn oude GTX970 kwam uit in 2014(!) en is wat betreft games altijd een 1080p kaart geweest. Verwachten dat een 1080p kaart van zeven jaar oud vandaag 1440p gaat draaien is gewoon niet realistisch.

De conclusie die ik verder trek uit de test is dat, tenzij je heel erg gehecht bent aan Ultra en 60FPS, de meeste van deze kaarten recente game nog best kunnen draaien. Tuurlijk het moet allemaal een tandje terug, maar dat lijkt me vrij logisch, gezien de leeftijden van de kaarten.
Eens. Ik lees bijna nooit de plus artikelen en deze leek me wel leuk. Ik haakte af toen ik bij de aankondiging "1080p op Medium- én Ultra-settings" kwam. Ik begrijp dat 1080p erbij zit, maar dat was toch eenvoudig aan te vullen met 1440p? Ik ben zelf recent overgestapt van 1080Ti naar 3080. Bij veel games trok die 1080Ti het nog best wel op 1440p. Dat had een leuke aanvulling kunnen zijn op dit artikel.... "bij welke games kom je nog weg met een 1080Ti op 1440?"
Ik zit nu ook op een 1080ti op dezelfde resolutie en zit er over na te denken om te upgraden. Wat is jouw ervaring tot nu toe? Is het een waardige upgrade? Hoe merkbaar is het?
Ja, ik ben er erg blij mee. Je kunt nog een aardig bedrag krijgen voor je 1080ti dus dan valt de prijs ook wel weer mee.

Bij sommige games kwam ik op 1440/ultra setting toch regelmatig onder de 60fps en dat begon me te storen. Ben nu AC Valhalla aan het spelen en dat komt nooit meer onder de 60, waar dat bij mijn 1080ti toch tegelmatig gebeurde.
Nice, hoeveel is de 1080Ti nog waard tegenwoordig?
Tweedehands videokaarten zijn eveneens hard meegestegen. Waar je in januari voor 200-250 wel een 1080 (niet-TI) had, is dat nu bijna wel verdubbeld.
Top bedankt voor je reactie
Ik verkocht mijn 1080ti voor 520€ en betaalde 1100 voor mijn 3080. Viel dus wel reuze mee. was al langer titels als rdr2 aan het uitstellen en die 3080 trekt dat uiteraard perfect
Hoi ik heb een Asus strix 1080ti en draai alles nog op hoge en ultra settings op 1440p, ook 2077 wel is waar bij die game geen 60 plus fps maar tussen de 40 en 55 fps maar was prima te spelen
1080 non-ti gaat ook nog prima op 1440
Full-HD is volgens mij nog de resolutie van de hele hele grote meerderheid
Dat klopt omdat een beeldscherm ontzettend lang mee kan gaan, als je pc vervangt hoeft dat ook niet je scherm te betekenen.
Dit is helemaal waar. Ik doe het nog steeds met een oude Iiyama ProLite E2209HDS (dat is dus inderdaad uit 2009). Nog geen pixel verloren en de games die ik speel worden door m'n scherm niet tekort gedaan.
Er zijn nog steeds erg veel full-HD scherrmen in omloop.
Bijna iedereen die ik ken werkt 'nog' op 1080p.
Dan werk je bij de ABN ofzo, ken je meteen 200 mensen in je kantoorgebouw die op 1080p werken.

Als je in een grafisch bedrijf werkt, werkt bijna iedereen die je kent op een 4K scherm :+
Ik zit ook alweer jaren achter 4k schermen, maar in dit geval is de 1080p een redelijk keuze voor de prestaties van deze kaarten. Je kan op 4k immers prima upscalen. Bij een aantal games zou je wellicht 4k kunnen draaien op medium, maar ik denk dat de meeste van ons liever 1080p Ultra verkiezen boven 4k Medium...

Dat neemt niet weg dat het een beetje als een onaf artikel aanvoelt door de beperkte scope, wellicht dat dit de standaard is voor de Plus artikelen, no clue. Volgens mij is dit het eerste Plus artikel dat ik lees nadat de Plus Paywall actief is geworden.

Zo mis ik bv. inderdaad performance tests op andere resoluties, de vergelijking met de moderne kaarten en specifiek de Prijs-prestatieverhouding score voor moderne kaarten...
Ja, bij een grafisch bedrijf, dan heb je een 4K Coloredge scherm voor je neus staan. 8-)
Maar dat zal een zeer kleine minderheid zijn. Wel coole schermen. :9
Ja maar ach, ik heb nog lang een 1080p scherm gehad, omdat mijn kaart het toch niet aan kon.

Dus het is vaak ook andersom. Kan echt never meer terug naar 1920x1080, waar laat ik alles :')
Daarvoor heb je meerdere workspaces. Dan is er ruimte voor alles. :-)
Op mijn laptops heb ik nog een 1920x1080 formaat, en waar ik vooral de pest aan heb is de brievenbus verhouding. Op mijn (game)desktop, die ik ook voor thuiswerken gebruik, heb ik 1920x1200 en dat vind ik al een wereld van verschil. En voor het referentiekader, een 970 is met 1920x1200 nog te doen (mijn use case).

Een 1440p scherm vind ik trouwens ook niet te versmaden, 4K vind ik nog steeds een brug te ver. Of de grafische informatiedichtheid in games nu een hogere resolutie noodzakelijk maakt, die vraag stel ik mijzelf wel. Dit zeg ik met wat visualisatie ervaring uit het verleden. Ook omdat de consoles zo dominant zijn geworden drukt dit de game specificaties.
Bijna iedereen die ik ken zit op 1440p of hoger die een losse GPU gebruikt.
Aan de benchmark is toch te zien dat 1080p net nog gaat dan is 1440p toch helemaal niet interessant. Helemaal niet als je de grafische settings van een spel flink naar beneden moet zetten. Dan blijf ik liever op 1080p hangen dan dat ik een 1440p ga aankopen.

Bedoelt voor FDMK.

[Reactie gewijzigd door Jeroentjeeuh op 23 juli 2024 09:33]

Ik gebruik een 240hz 1080P monitor voor te gamen en een 4K monitor voor grafisch werk :)
Ik vind in games frames toch belangrijker als resolutie, zeker shooters.
Mijn videokaart is een 3070 dus ik zit met de meeste games wel tegen de 200+ fps aan.
Ik vind in games frames toch belangrijker als resolutie, zeker shooters.
Prima,maar je maakt geen volle gebruik van je scherm aangezien hz --> minfps betekend. (oftewel, 240hz is 240minfps en je moet erboven zitten) en nee G-sync is geen optie dat werkt weer averechts. Het fps halen zonder trucjes en er boven zitten is vele malen smoother en je hebt minder latency.
Er boven zitten krijg je weer tearing.
Dan heb je waarschijnlijk G-sync aanstaan en dat werkt juist weer niet met een high refresh rate monitor. Je moet er juist boven zitten want dan klopt de frame en dan heb je geen latency.
Dat is niet wat tearing is.
Ik snap dondersgoed wat tearing is maar dit gebeurd niet met een high refresh rate monitor. Ik game zelf Warzone met een rtx3080,1080p144 hz monitor en ik haal 180/200fps zonder ook maar dlls en of oc aan te hebben en ik heb geen last van tearing. Het beeld is dan zo smooth niet normaal.

Ga ik onder de fps zitten(dus onder de 144fps) dan merk ik aan me muis dat het zwaarder wordt.(Dan klopt de frame niet meer) dus lag en je haalt niet het maximale uit je paneel.
Boven de hertz van je monitor komen krijg je tearing, echter bij de meeste mensen kunnen foute beelden haast niet meer waarnemen omdat je hersenen het niet kunnen verwerken zo snel.

Echter wat vaak gebeurd als je op hogere fps gaat draaien is dat het spel zich anders gaat gedragen en je alsware gefopt wordt en de lag minder lijkt.

Boven de hertz komen van je scherm kun je zeker wel tearing krijgen.

[Reactie gewijzigd door mr_evil08 op 23 juli 2024 09:33]

Precies wat ik zeg. Je waarneemt het niet meer op zulke hoge refresh rates, het is verleden tijd. Maar of je gefopt wordt of niet het gamed wel lekkerder maar dan nog moet je wel boven de refresh rate van je monitor komen met je fps...
Je hoeft helemaal niet boven de refresh rate van je monitor uit te komen. Ik snap werkelijk niet vanwaar je dat haalt.

Ik was bang van men razer blade zonder G-sync want ik ben helemaal wild van men 165hz G-sync monitor waarmee ik zonder inputlag en zonder tearing kan spelen. Maar met een monitor van 300Hz zie ik op geen enkele framerate tearing. In mijn opinie gaat high refresh rate boven G-sync omdat je dat dan toch niet meer nodig hebt.

Je begint pas input lag te krijgen als je V-sync aanzet om tearing te voorkomen. Dat is echt een hel, ik ben er al men hele leven tegen.

In tijden van CS1.6 heb ik steeds aan 300FPS gespeeld (hoger en dan begint het spel vreemd te doen) met een 60Hz monitor. Dit voelde veel vloeiender aan dan 60FPS ook al was dit op een 60Hz monitor. Maar die 300FPS voelde vloeiender omdat dat gewoon een eigenschap is van een hogere framerate niet omdat ik hoger zat dan de refresh rate van men monitor.

200FPS op dit 300Hz scherm voelt sowieso smoother en minder 'zwaar' dan 300FPS op een 60Hz monitor.


Wat ik nog niet heb geprobeerd is als ik game op 300FPS op men 165Hz Gsync monitor is die Gsync uitschakelen, jij beweerd dat dat lekkerder aanvoelt. Dat moet ik zelfs eens proberen, geen ervaring mee.

[Reactie gewijzigd door BlaDeKke op 23 juli 2024 09:33]

en nee G-sync is geen optie dat werkt weer averechts
Eh?
Hogere latency zonder g- sync voelt het smoother aan en het gamed lekkerder.

Nogmaals, op hogere refresh rates.
Ik heb absoluut beperkte ervaring, maar ik zou durven zeggen dat VRR tussen 80 en 100Hz iets vlotter aanvoelt dan fixed 120Hz RR waarbij de framerate er steevast onder ligt.

Dit heb ik ervaren met FreeSync, niet G-Sync, maar ik ga ervan uit dat die technieken gelijkwaardig zijn binnen de context van deze discussie.

[Reactie gewijzigd door RuddyMysterious op 23 juli 2024 09:33]

bij minder dan 240 fps ga je geen lag ervaren ...
alles hierboven is zonde ...
moet je eens kijken zelfs met een AMD Radeon RX 6900 XT haal je nog geen 240 fps op 1080 ...
Precies, dus geen 240hz monitor halen het is onzin, marketing...

Tussen 160 en 240hz merk je amper verschil ook al haal de fps.

[Reactie gewijzigd door Jeroentjeeuh op 23 juli 2024 09:33]

Lekker bezig!
Ik heb toevallig gister een Lenovo Legion Y25-25 gekocht (240hz 1080p IPS) voor 199 bij de mediamarkt online en vandaag komt hij binnen. Ik ben echt super benieuwd tegen over een 3440x1440 100hz IPS scherm. :)
En de rest werkt vaak op 4k... wat precies 2x2 schaalt naar 1080p en interessant is voor de performance bij midrange kaarten.
Eerlijk gezegd ken ik meer mensen die thuis gamen op een kantoor monitor dus 1920x1200 in plaats van 1920x1080. Helaas wordt die resolutie eigenlijk nooit meegenomen in testen.
Tja die is redelijk vergelijkbaar natuurlijk, al heb je ietsje meer pixels. Dus vermoedelijk ietsje slechtere prestaties dan de uitkomsten van 1920 * 1080.
Hoezo is dat zonde van de tijd, bedoel je dat ze Full HD hadden moeten overslaan? Ik heb veel liever 1080p dan 1440p voor deze prestatieklasse, als je in de prestatiescore ziet dat een RX 480 en GTX 1060 op gemiddeld 45fps uitkomen bij 1080p Ultra dan hoef ik niet te weten wat ze in wqhd doen.
Ik heb nog 1440p gedaan op een r9 280x, en daarna een rx 480. De 280x kon het niet echt super aan, maar het ging nét, en de rx 480 ging prima.

Ik moet zeggen dat ik zelf 1440p met dan wat minder AA en wat lagere schaduws een veel betere ervaring vind dan 1080p en dan dat alles blurry wordt van de post processing
Op 1080p monitors kan je ook 1440p en 2160p spelen aan de hand van Nvidia DSR. Ik doe dat ook, ik speel geen enkel spel meer op 1080p ondanks ik een 1080Ti en 1080p monitor heb. GTAV heb ik 1440p en oude spellen op 2160p.
Dat hangt er van af, je doet meestal langer met je scherm dat met je PC. Mijn keuze voor een scherm destijds was of 4K 100+ Hz voor boven de 900euro of een full HD 120hz voor 300 euro. Die keuze was toen snel gemaakt. Ondertussen is de pc al een keer vervangen. En waren de prijzen voor het eerstgenoemde scherm nog steeds rond de 900.

Voor gamers die graag een hoge verversing willen hebben waren hoge resolutie monitoren prijstechnisch gewoon niet interessant.
Vind ik ook, alleen juist daar wordt de GPU nog belangrijker, dit artikel is blijkbaar als je genoegen neemt met lagere specs, wat je dan nog kan.
Exact. De lezer/tweaker speelt veelal niet op 1080p.

Veel mensen vast wel, maar 1440p is wel de standaard nu hoor… Premium artikel en dan 1080p..
Hmm ik zit al 10 jaar op 4K
3440x1440 op een 1080. Gaat prima! Cyberpunk... 50 FPS
Jammer dat er nergens een resultaat van de meest gangbare GPUs van deze generatie wordt vermeld als referentie. Zou handig zijn om te vergelijken, zodat mensen die twijfelden over de aankoop van een nieuwe GPU de kostprijs van het prestatieverschil kunnen overwegen.
Hoewel @DaemonReem gelijk heeft dat dat niet helemaal binnen de scope van dit artikel past, snap ik de vraag wel. Vergelijken met de review die @Mschrijver88 noemt kun je beter niet doen, want die testdata zijn natuurlijk alweer een jaar oud - we hebben alle moderne gpu's sindsdien meerdere keren opnieuw getest. Ik heb een pagina aan de review toegevoegd met de nieuwste resultaten die we van alle moderne kaarten hebben, zodat je naar hartenlust kunt vergelijken!
Uitstekend, dank je wel!
Tja ga je een GPU van deze generatie die meer dan 1K heeft gekost gebruiken om op 1080p medium te spelen?

Het had interessant geweest, maar ik mis het niet heel erg zeg ik als iemand die met een 980ti speelt en best interesse heeft in een nieuwe build.
Alhoewel ik je punt begrijp en deze informatie ook op prijs had gesteld, denk ik dat het artikel gericht is op degene die niet de hoofdprijs willen betalen voor een huidige generatie GPU.
Wel mooi overzicht van wat je nog voor je oude kaart kan krijgen. Twee maanden geleden een RTX 3060 gekocht voor 600 euro en mijn GTX 980 verkocht voor 150 euro.

Nu zie ik dat een RTX 3060 al 650 kost, maar je ook 200 kan krijgen voor een GTX 980.

Overigens is het prestatieverschil tussen de 980 en de 3060 voor 450 euro het wel waard.

(van 90fps op 1080p -> 130fps op 1440p)

[Reactie gewijzigd door JDx op 23 juli 2024 09:33]

Dat voelt goed om te lezen. Ik zit er al een tijdje over na te denken nadat mijn kaart, 390x, op legacy werd gezet door AMD en de 3060 spreekt mij het meest aan. Dus erg fijn om te zien dat het bij verreweg de meeste mensen een waardige upgrade is gebleken.
Pak je deze review er toch even bij, dan kan je met een aantal games prima vergelijken tuusen wat hier besproken is en een 3080 reviews: Nvidia GeForce RTX 3080 - Maakt Nvidia de hoge verwachtingen waar?
Ben wel benieuwd hoe er precies getest is met RDR2. Als je alles op ultra klikt krijg je echt een belachelijke slechte fps.

Speel de game op een mix van ultra/high/medium en haal 70-80 fps, wel met resolution scala op 1.25.

Plaats altijd een beetje vraagtekens bij de fps-scores in de benchmarks. Vaak zijn ze getest op de meest gunstige momenten. Sommige kaarten komen er dan ook wel heel goed uit.


Edit: de ingebouwde benchmark is gebruikt. Die is ook altijd wel erg rooskleurig. Heb zelf een 3060 12GB met een 11400F en mij ervaring is dat je er wel gerust 10 fps kan afhalen om de werkelijkheid te benaderen
En dat is nog exclusief het getweak met de ultra setting en de compleet mislukte TAA/AA op 1080p

[Reactie gewijzigd door Deruxian op 23 juli 2024 09:33]

Waar mogelijk gebruiken we de standaard presets. Zeker de doorgewinterde tweaker zal zelf nog wel de settings in duiken om die helemaal af te stemmen op zijn eigen wensen, maar waar je dan op uitkomt is erg persoonlijk. Sowieso verschilt van persoon tot persoon hoe belangrijk je beeldkwaliteit vindt in verhouding tot de prestaties, maar ook binnen het tweaken: de een zweert bij native renderresolutie, de ander zet een hoop postprocessing (motion blur, AA etc) uit, weer een ander probeert de texture-resolutie zo hoog mogelijk te krijgen ten koste van andere settings... Uiteraard testen we elke videokaart op exact dezelfde settings en scène, zodat de resultaten 100% vergelijkbaar zijn.

Wanneer aanwezig heeft de ingebouwde benchmark naast tijdsbesparing nog een groot voordeel, en dat is dat je hem zelf eenvoudig kunt repliceren. Zo kun je dus je eigen systeem vergelijken met onze resultaten, bijvoorbeeld als je wil weten of een upgrade de moeite waard is. En als je daardoor weet dat jouw settings-combinatie inderdaad altijd 10fps lager is dan onze preset, dan kun je daar natuurlijk ook mee uit de voeten.
Voor deze test kijken we enkel naar gamingprestaties op 1080p, omdat de verwachting is dat hogere resoluties te hoog zijn gegrepen voor de oudere videokaarten.
Of in plaats van dingen te verwachten zouden we het kunnen testen, want dit artikel gaat tenslotte over tests...

Nu is de volledige batterij testen nog een keertje doen met 1440p en 4k natuurlijk van de zotte, zeker als de kaart het toch al niet trekt op 1080p, maar een enkele test die de verhoudingen een beetje weergeeft in hoeveel je er op prestaties achteruit gaat (en hoe realistisch het dus nog is) lijkt me niet verkeerd. Immers, gamen op 60 FPS is voor de meeste mensen net zo goed te doen als gamen op 90 FPS (bijvoorbeeld).

We weten dit natuurlijk wel van oudere games, maar de test gaat nu net over nieuwere games. Op zich is het enige wat je dus hoeft te doen kijken wat het prestatieverlies was destijds (voor zover bekend), een enkele test met een spel nu om te kijken wat nu het prestatieverlies is, en dan zijn we toch weer wat kennis rijker (als in, "verwacht ruwweg X% verslechtering, dat was historisch ook zo" of "hoe nieuwer de spellen, hoe harder de achteruitgang", dat laatste zou me op zich verbazen omdat je zou verwachten dat het redelijk proportioneel is met de hoeveelheid pixels die op het scherm geblazen moeten worden, maar ik heb het niet getest).

Dat zeg ik als eigenaar van een GTX 1070 die op 1440p gamet, overigens, een resolutie die zeker niet te hoog gegrepen is voor de kaart -- in ieder geval niet voor de spellen van toen. :P

[Reactie gewijzigd door MneoreJ op 23 juli 2024 09:33]

Bedenk je daarbij wel even dat een resolutie extra in feite gewoon de totale duur van de test verdubbelt ;). De bak testwerk die in dit artikel zit is al erg groot.

Voor het overgrote merendeel van de hier geteste kaarten is meer dan 1080p niet erg relevant/haalbaar, voor de snelste/nieuwste van de 26 kaarten (bv. GTX 10-serie, RX Vega) zal zeker 1440p inderdaad nog prima kunnen. Maar, die kaarten nemen we sowieso nog mee als vergelijkingsmateriaal in reviews van nieuwe GPU's, waar we eveneens recente games voor gebruiken, dus daar heb je dit artikel ook niet echt voor nodig. In de redelijk recente review van de RTX 3070 Ti vind je bijvoorbeeld ook de RX Vega 64, GTX 1070 Ti en GTX 1080 Ti terug in de grafieken, inclusief (waar mogelijk) 1440p en 4k!
Ah ja, dat sluit inderdaad nog net op elkaar aan. (Niet helemaal, de niet-Ti varianten staan er niet bij, maar dat maakt voor de algemene conclusie niet uit.)

Alleen het prestatieverlies in oude spellen bepalen is wat lastiger omdat oudere tests vaak alleen op ultra gingen en geen medium hadden (ook weer vanwege tijdgebrek en omdat het dan nog high-end kaarten zijn, dat snap ik wel).

Als ik dan zelf de getallen naast elkaar zet is de conclusie dat je op ultra met een 1070 Ti er gemiddeld zo'n 30% op achteruit gaat als je van 1080p naar 1440p gaat, zowel bij oude als nieuwe spellen (wel met uitschieters hier en daar van -10% tot -40%, dus de engine kan natuurlijk flink verschil maken). Nou ben ik zelf dan weer te lui om nog meer getallen naast elkaar te houden voor andere kaarten om te zien of deze conclusie generaliseert, maar het is iets. :P
Ik vind het zelf onzin om kaarten die in 2014 uitkwamen als 1080p kaart in 2021 te gaan testen met 1440p. Je moet al concessies doen qua settings/FPS om ze in 1080p te kunnen gebruiken vandaag de dag.
Gtx 1070 zeker nog heel goed hij draaide perfect zelfs in VR , kon hem verkopen voor 220 euro en heb daarna een 3060TI oc gekocht voor 730 euro maandje of 2 geleden .

Teveel geld ja maar voorlopig kan ik 1440p en VR draaien op ultra :)
Die V&A zijn toch niet geheel correct, ik heb m'n RX 580 8Gb op de kop getikt voor 175€ (en dat was zeker niet de goedkoopste die ik zien passeren heb) (overigens is gewoon een hoger geclockte 480 als ik het goed begrijp...)

Leuk artikel, met zeer veel werk in, :Y)
Dank je wel! De prijs voor de RX 480 klopt wel (zie https://tweakers.net/vide...f3G2AHtF1TYvpvhXSEUlesrk_), maar de prijzen van tweedehands RX 580's liggen inderdaad een stuk lager. Zal wel te maken hebben met het veel grotere aanbod van die gpu, maar da's dus idd wel een nobrainer dan :)
Het is toch om te zien hoe ver de 1080 Ti zijn tijd vooruit was.
Intussen al weer vier jaar oud, en nog steeds een heel prima kaart.
Ik ben van een 1080 ti naar een 3070 gegaan en kan bevestigen dat de fps winst tegenvalt. Alleen in games die gebruik maken van DLSS zie ik voor mij merkbaar verschil. 2e hands 1080 ti voor <400e is nog niet zo'n slechte deal imo.
Voor de vooruitgang zou je dan eigenlijk in dezelfde trede moeten blijven: een 3080Ti. Dan zul je het verschil wel goed kunnen zien in je benchmarks, vermoed ik, maar dan moet je er ook voor betalen.

Nu ben je twee generaties vooruit gegaan, maar anderhalve trede terug.
Yup eens gelukkig was in dit geval het betalen gedeelte de reden voor de overstap. De 1080 ti voor 325 aangeschaft en verkocht voor 525 en de 3070 was 699. Aan het einde van de rit dus qua saldo op 0 maar met een 3070 in de kast die nu 750-850 waard is.
Bizar, eigenlijk, als je er even over nadenkt. :z
'Zodra je de winkel uit bent is-ie al honderd euro minder waard' gaat helemaal niet meer op.
hangt er van af hoe je redeneert vind ik, een 3080ti is verschillende tredes hoger als je kijkt naar hoeveel die kost tov de release 1080ti.
Op zich twee generaties hoger, maar dezelfde trede in het assortiment...
De 1080Ti was de snelste kaart uit de serie, nu is dat de 3090.
De 3090 is de opvolger van de Titan in de 1000-serie. Zo verwoorde de directeur van NVidia het tijdens zijn release praatje in de keuken. De Titan zat boven de 1080Ti.
Het meest indrukwekkend vind ik de RX480 (op de voet gevolgd door de GTX1070 trouwens). Die is al 5 jaar oud en kostte bij introductie onder de €250, zelfs met 8GB. De 1080TI is natuurlijk fantastisch, maar was ook een €700 kaart die niet voor iedereen weg was gelegd.

[Reactie gewijzigd door BCage op 23 juli 2024 09:33]

Achteraf gezien was je met die 1080ti spekkoper geweest. Niet alleen heb je er jarenlang op de hoogste kwaliteit mee kunnen gamen, maar ook vandaag de dag komt hij dus nog super mee.

De RX480 was ook een mooie kaart, destijds helaas geplaagd reeds door tekorten waardoor hij al snel naar de 300 ging of er overheen zelfs. Achteraf gezien was het geklaag daarover inmiddels een lachtertje.

Wat mij vooral opvalt is dat je met de 4GB versie eigenlijk best af was omdat die 8GB zo goed als onnodig zijn. Enkel op resoluties die de chip niet trekt, of met textures die op die resolutie niet van meerwaarde zijn, wordt het extra geheugen relevant.
Ben ook nog heel blij met mijn 1080ti/12gb
In combinatie met mijn ultrawide gsync monitor speel ik echt cyberpunk nog met een mooie framerate van rond de 50 (uiteraard niet op ultra setting) en gsync helpt mee aan strak beeld.
Ga lekker de 30xx overslaan en ga volgend jaar de rat race in voor een 40xx kaart. Als dat net zo gaat als de 30xx dan ook gelijk de wachtrij in voor een nieuw moederbord en cpu

[Reactie gewijzigd door LaFleche op 23 juli 2024 09:33]

Echt een mega sterke kaart was/is dat, soms zeggen mensen wel eens, ik ga niet upgraden met dit soort prijzen, mijn 1080 Ti is nog prima, ja, die was ook gewoon extreem goed ^^
In ons rekencluster hebben we er veertig zitten, en die worden gebruikt om numerieke modellen door te rekenen en om neurale netwerken te trainen. Die doen het nog steeds prima. En ze waren niet zo achterlijk overpriced als de HPC GPUs.
Inderdaad Nvidia Tesla/Quadro je betaald 5 x meer voor 2 x minder.
Ik kan me helaas erg goed relateren aan dit artikel. Mijn RTX 3090 die ik 4 maanden geleden eindelijk heb kunnen bemachtigen is 2 weken geleden overleden (schijnt vaker voor te komen vanwege slechte thermal pads). De leverancier kan niet aangeven wanneer ze mij een nieuwe 3090 kunnen geven, dus is het wachten geblazen. 2600eur betaald en wie weet moet ik nu wel maanden wachten op de RMA. In de tussentijd mijn oude GTX 680 erin geschroefd, maar dat is idd janken qua games. GTA 5 draait prima in 1080p dus moet ik me af en toe daar maar mee vermaken. Voor games van de afgelopej jaren is die kaart echt kansloos.
Dat is zuur heb je er alleen mee gegamed of ook mee gemined? Als je gaat minen brand je snel door de stock thermal pads heen. Performance wordt steeds slechter (gaat sneller throttlen) naarmate de pads verder slijten.
Waarom zou dit juist bij minen zijn, met goede instellingen blijft je GPU veel koeler dan met gamen?

Is een vraag, geen negatief commentaar.
De 3070ti, 3080, 3090 worden gewoon erg warm op de vram. Zeker met de stock thermal pads. Met goede koeling en juiste instellingen kun je zeker de temperaturen (iets) omlaag krijgen ze blijven echter warm. Mijn comment was meer gebaseerd op de aanname dat je misschien een paar uur per dag een spelletje speelt vs 24x7 minen met te warm geheugen. De thermal pads slijten dan dus sneller door de langedurige constante belasting.

Ik mine zelf met wat kaarten en heb de thermal pads niet vervangen. Ik sta er niet van te kijken als ze op een gegeven moment te veel zijn gesleten, waardoor de kaart eerder (bij steeds lagere temperaturen) al gaat throttlen en waardoor de pads op een gegeven moment nauwelijks nog wat doen wat het vram zelf kan beschadigen (brand plekken)

[Reactie gewijzigd door timpie81 op 23 juli 2024 09:33]

Ah zo, ik heb een 3060 op 52/53 graden op 78% power, maar als ik ga gamen op 100% haalt ie de 65 graden wel hoor. Doe ik toch een paar uur per dag.

Weet niet wat een 3080 doet, maar op ETH blijft de 3060 zelfs op 45 graden.

[Reactie gewijzigd door JDx op 23 juli 2024 09:33]

De 3060 heeft ander type geheugen dat minder warm wordt. Als je dan ook nog een 3rd party model hebt met betere koeling dan de founders dan zit het zeker goed.

Ik weet niet of je de geheugen temperatuur kunt uitlezen van de 3060 in Windows.
De temperatuur die jij ziet is denk ik van de gpu zelf en niet van het geheugen. Dat maakt het ook zo riskant met de 3070ti, 3080, 3080ti en 3090. De temperatuur die je ziet tijdens minen kan bijvoorbeeld op 52 graden zitten en je ziet dan niet de vram temp. Die vram temp kan dan op 100-110 graden zitten zonder dat je het weet.

Je kunt dit in Windows by deze type kaarten wel zien met bijvoorbeeld een tool als hw info. In hive os wordt de geheugen temperatuur van deze kaarten niet getoond.
Ah dat GDDR6X zeker.
lhr-mode 2 is able to achieve lower average power and temperature. especially suitable for GPUs with gddr6x e.g.3070ti, 3080, 3080ti. Power consumption is fluctuating in this mode, better to be used with locked core clock.
Vram temp is helaas niet te zien bij de 3060, ook niet met hw.
Alleen maar gegamed, en niet eens zo vaak. De eerste waarschuwing kwam toen tijdens een game het scherm op zwart ging en de gpu fans op 100% begonnen te blazen. Reboot en alles was weer goed. Paar weken daarna tijdens een game het scherm weer op zwart en niks meer. Kaart overleden.
Zeker zuur gelukkig zit er garantie op. Hopelijk komen ze snel met een vervangend exemplaar.
Dat is echt gaar, in het ervaringen topic begaf iemand zijn 3080 het ook al.
Welk (sub)merk? Toch niet EVGA?
De 3080 die het begaf was een Inno3D, ben ook benieuwd naar die van @benchMarc die 3090.
Het betreft een Gigabyte RTX 3090 gaming OC.
Zelf zou ik mijn geld terugvragen. 3090's zijn regelmatig weer voor die (imho absurde) prijzen op voorraad, zoals hier, op moment van schrijven. Ook LDLC heeft regelmatig voorraad (voor BE).

https://www.notebooksbill...oc+24g+grafikkarte+685795

[Reactie gewijzigd door finsdefis op 23 juli 2024 09:33]

De gekte is binnenkort voorbij, crypto is helemaal verboden geworden in China, de economie van China staat op instorten door de schuldenlast van Evergrande, dat gaat zorgen voor dalende grondstofprijzen en de consumptie (waar veelal chips in verwerkt zijn) neemt eveneens af. Chinese huishoudens hebben massaal geïnvesteerd in vastgoed. Trek je conclusie.
Als Evergrande omvalt, kopen wij binnen afzienbare tijd voor normale prijzen videokaarten.
Als Evergrande omvalt, kopen wij binnen afzienbare tijd voor normale prijzen videokaarten.
Keep dreaming!
de schuld van het bedrijf bedraagt 2 procent van China's bruto binnenlands product
Zelfs als het omvalt zijn het slechts rimpelingen op de Chinese economie...

We zouden maanden geleden al een enorme influx hebben van Chinese crypto mining videokaart, niet gebeurt en prijzen zijn omhoog gegaan ipv. omlaag. Lage grondstof prijzen doet helemaal niets met het supply van de GPUs, daar is gewoon niet meer ruimte op de productie lijn. Daarnaast doet dat ook niets met de aankondiging over het verhogen van de GPUs door de foundries voor volgend jaar.

Het verbod op crypto mining in China in mei dit jaar zorgde inderdaad voor een flinke daling in de waarde van crypto, maar het deed niets significants aan de profitability van het minen van die crypto, want de difficult zakte ook inelkaar.

Nu hebben we opnieuw een crackdown in China en moeten we nog maar eens zien of dat weer de situatie veranderd op de Crypto en/of de GPU markt. Want zolang de schaarste aanhoud en het mining profitable blijft, dan blijven de prijzen hoog van GPUs.
Ja bijna...
Jammer genoeg is het probleem niet demand maar supply, er zijn gewoon te weinig kaarten voor iedereen, of evergrande nou omvalt of niet.
Daarnaast zijn crypto mining rewards elastisch, dus minder miners = meer winst voor andere miners = een increase in minders = minder rewards etc. Het enige wat je kan hopen is dat de Bitcoin in waarde omlaag gaat maar zelfs de China ban heeft op zijn best 10% van de prijs afgekregen die nu weer aan het stijgen is.
Ik gok dat we het pas gaan merken als cryptominen niet meer rendabel is... Zolang je een videokaart binnen een afzienbare periode kunt terug verdienen is de vraag van miners naar videokaarten oneindig helaas..

[Reactie gewijzigd door Deo_Volente op 23 juli 2024 09:33]

Ik gok dat we het pas gaan merken als cryptominen niet meer rendabel is...
En dat is exact de reden waarom de 2e hands kaarten zoals de R9 280X en de GTX970 zo relatief goedkoop zijn. De eerste komt niet eens meer voor op de mining calculators en de tweede (met Nederlandse stroom prijzen) kost meer geld om crypto te minen, dan het gewoon te kopen. Zo zijn er nog een aantal die gewoon niet meer rendabel zijn om mee te minen in Nederland (legaal).
Dat klopt wel, maar als de totale chipvraag afneemt (afnemende consumptie) kan eerder (als deze al gelijk blijft) aan de chips voor grafische kaarten worden voldaan. Nu is het aanbod te laag.
Nog best tevreden met mijn Gigabyte Vega 56.
Na wat zoeken de beste instellingen gevonden; undervolt op de gpu, hogere power limit en een beetje overclock op het geheugen.
Hij is nu sneller en zuiniger dan voorheen.
Bizar dat hij nu blijkbaar bijna €200 meer waard is dan toen ik hem kocht.
Hij mag nog wel een jaartje draven.
Alleen betaal je als de prijzen zakken dus ook 200 euro meer, omdat je dat niet meer voor deze krijgt.

Ik heb mijn 980 juist verkocht om de prijs van een 3060 te drukken, (600-150=450).
Dat klopt, maar ik doe liever niet mee aan die gekte.
Mijn Vega 56 zou zo'n €450 waard zijn.
Hij is toch bijna 3 jaar oud en ik zou me bezwaard voelen als hij dan binnen een paar maanden kapot zou gaan.
Mijn volgende kaart zou nu een RX 6700 of een RTX 3070 moeten worden, dan moet ik er toch nog flink wat bijpassen als ik er al een kan krijgen.
Ik ben voorlopig tevreden met wat ik heb.
Je kan die Vega 56 verkopen voor het bedrag waar je op de amd site een 6700XT voor kan kopen. Dat lijkt mij een no brainer. Degene die 'm koopt maakt toch zelf de afweging om een oudere kaart voor dit geld te nemen?
Wat is er precies een no brainer? Want de beschikbaarheid op de site van AMD is al tijden 0. Als je je redenatie baseert op de prijzen die AMD op zijn site hanteert sta je wel redelijk los van de realiteit vrees ik, want die prijzen zijn voor 99% van de geïnteresseerden een utopie.
Heb al 6x een kaart via AMD.com kunnen kopen, dus bijna de hele vriendengroep is voorzien inmiddels. Zie ook het topic op het forum hierover.

Met name de RX 6900 XT en RX 6700 XT zijn best prima te verkrijgen als je wat handigheid kweekt in het aankoopproces.
Ik heb op de site van AMD gewoon een 6800 kunnen kopen. Ik hoor eigenlijk alleen maar succesverhalen. Het heeft me zelf wel een week of vier gekost, maar dat kwam voornamelijk door mijn pihole icm ublock origin. Toen ik erachter kwam dat die roet in het eten gooide ging het heel snel.
Als je tevreden bent met wat je hebt dan zou ik niet verder kijken idd.

Mijn 980 was alweer 5 jaar oud en met een 1440p scherm speel je toch graag native.
Misschien toch maar eens tijd om mijn GTX 760 te upgraden.
Alleen als er moderne games zijn die je interesseren en/of je persé de beste instellingen wilt.

Voorlopig gaat mijn GTX680 nog prima mee, en wie weet bevalt de Steamdeck me beter dan een desktop pc. Ik vertik het in ieder geval om woekerprijzen te betalen voor recente of oudere GPU’s.
De steamdeck met dock wordt wel wat denk ik, net als de switch met PS4 reken kracht!

Op dit item kan niet meer gereageerd worden.