Let op: je bekijkt een oudere versie van dit artikel. Bekijk hier de nieuwste versie van dit artikel.

Door Reinoud Dik

Redacteur

Videokaart Best Buy Guide

De beste gpu's in mei 2022

Stroomverbruik en prestaties per watt

  • Opgenomen vermogen ingame
  • Opgenomen vermogen idle
Opgenomen vermogen ingame - Metro Exodus
Videokaart Gemiddelde vermogen in watt (lager is beter)
Radeon RX 6500 XT
120,74
GeForce RTX 3050
123,30
Radeon RX 6600
129,07
GeForce GTX 1660 Super
132,95
GeForce RTX 2060
153,78
Radeon RX 6600 XT
157,89
GeForce RTX 3060
171,58
GeForce RTX 3060 Ti
194,50
GeForce RTX 3070
207,13
Radeon RX 6700 XT
215,47
Radeon RX 6800
228,55
Radeon RX 6800 XT
284,40
Radeon RX 6750 XT
291,22
Radeon RX 6900 XT
295,70
GeForce RTX 3070 Ti
297,63
GeForce RTX 3080
317,42
GeForce RTX 3080 Ti
338,39
GeForce RTX 3090
360,97
Radeon RX 6950 XT
443,13
GeForce RTX 3090 Ti
487,54
Prestaties-per-watt in Metro Exodus
Videokaart Gemiddelde frames per watt in fps (hoger is beter)
Radeon RX 6800
0,40
Radeon RX 6600
0,39
Radeon RX 6900 XT
0,38
Radeon RX 6600 XT
0,38
Radeon RX 6800 XT
0,37
GeForce RTX 3060 Ti
0,36
GeForce RTX 3070
0,36
Radeon RX 6700 XT
0,34
GeForce RTX 3080 Ti
0,34
GeForce RTX 3090
0,32
GeForce RTX 3060
0,31
GeForce RTX 3080
0,31
GeForce RTX 3050
0,30
GeForce RTX 2060
0,30
GeForce RTX 3070 Ti
0,30
GeForce GTX 1660 Super
0,29
Radeon RX 6950 XT
0,28
Radeon RX 6750 XT
0,27
Radeon RX 6500 XT
0,26
GeForce RTX 3090 Ti
0,25

Reacties (135)

135
134
75
5
0
51
Wijzig sortering
Nice, mooi vergelijk! _/-\o_
Kan iemand iets melden over werk relateerde software (dus geen benchmarks / games) met deze kaarten?

Ik ben architect en draai 80% van de tijd CAD Software (ArchiCAD), hiervoor raden 'ze' sinds jaar en dag al de Quadro en Radeon Pro kaarten aan (IMHO écht onzin, want dit draait even goed op een normale kaart) en de andere 20% op GPU rendering software zoals Enscape of Lumion. Vooral Lumion lijkt een 'meer is beter' instelling te hebben, betekent dit dat de snelste kaart ook hier de beste optie is, of spelen hier andere zaken?
Een Geforce kaart doet dat allemaal prima. Een AMD kaart zou ik niet aanraden voor professioneel gebruik. Die hebben een beetje de boot gemist, en veel applicaties gebruiken nu CUDA of Optix.
Veel rendering-software maakt gebruik van CUDA en is daarmee afhankelijk van Nvidia. Dus AMD is meestal niet zo geschikt.

Daarnaast is het geheugen vaak erg van belang. De 24 GB van de 3090 is een groot voordeel. Sowieso lijkt de 3090 stiekem een Titan te zijn, waarbij Nvidia er deze keer voor gekozen heeft om hun kaart te marketen als een game-kaart, terwijl vergelijkbare kaarten vroeger als workstation-kaarten werden verkocht onder de Titan-naam.
Heeft het aanraden van quadro en pro kaarten voor professionele rendering niet te maken met de lagere kans op fouten bij deze kaarten ten opzichte van ‘normale’ gpu’s?
Het hele lijntje "professional" van beide partijen is naar mijn ervaring een wassen neus (op gebied van CAD/CAM), en heb nog nooit problemen ervaren die gerelateerd konden worden aan de (verkeerde) videokaart. Sterker nog, het merendeel van de programma's werkt toch een stuk rapper met een hogere kloksnelheid van een GTX/RTX.

Werk zelf dagelijks met o.a. AutoCad, Inventor, en een variatie aan programma's / viewers afhankelijk van onze clienten. Tevens beheer ik ook de workstations met voornamelijk dedicated GPU's van ca 15 collega's, variërend tussen desktops en laptops, en het loopt toch heel wat vlotter op de machines met een GTX/RTX dan op een Quadro equivalent die ook nog eens een adviesprijs heeft van 2 tot 3 keer zoveel....

Een Quadro P2000 heeft ook exact dezelfde GPU chip (GP106) als het merendeel van de GTX1060 (er gaan ook 1060's rond met GP104 als ik de lijst met Pascalletjes moet geloven).
Heel kort door de bocht is het verschil dat de kloksnelheid van zowel het vram als de gpu naar beneden worden gedraaid om op deze wijze stabiliteit te garanderen en je kans op fouten te reduceren, en kan je in theorie hetzelfde resultaat zelf met MSI Afterburner ook behalen.

Ik spreek hier uiteraard alleen over 3D modelleer software CAD/CAM, bij rekenmodellen en simulatiesoftware e.d. heb ik geen kaas van gegeten en doe ik dan ook geen uitspraak over :)
Ja, maar als architect kan het mij vrij weinig schelen dat er af en toe 'fouten' (nog nooit gezien) optreden in een rendering. Als je het dashboard van de Dragon Capsule aan het engineeren bent kan ik begrijpen dat je op safe wilt spelen, als het gaat om het renderen van een grasveldje of een bankstel is dat iets minder relevant :-)
Er zijn meer verschillen, zoals veel meer ram en betere driver support voor professionele applicaties.
Handig artikel, al zou het denk ik voor velen fijn zijn om ook wat oudere kaarten mee te nemen in de grafieken (Vega/RX 500 en GTX1000 series) om het vergelijken met hun huidige kaart makkelijker te maken. Veel mensen zitten sinds de pandemie al 'vast' op hun toemalige kaart omdat ze sindsdien geen vervanger hebben kunnen betalen.
AuteurTrygve Redacteur @PhWolf18 mei 2022 16:58
Voor deze test hebben we inderdaad weinig ouds in de vergelijking omdat we in principe alleen verkrijgbare producten in een BBG opnemen. Vorig jaar hebben wel uitgebreider oude (en nieuwe) videokaarten in moderne games getest, wellicht heb je daar wat aan :)
Dit artikel beantwoordt de vraag: "welke kaart moet ik kopen voor mijn eerste build".

Is de grotere doelgroep niet mensen die al een gaming pc hebben en zich afvragen of ze willen upgraden?
Mis ik ook enorm.
Is er nu getest met alleen referentiekaarten van Nvidia & AMD? Of zitten hier ook AIB-kaarten tussen? Ik lees diverse opmerkingen dat het laatste het geval zou zijn, wat verschillen kan opleveren in de testresultaten en dus een enigszins vertekend beeld. AIB’s kunnen immers een paar stroom fasen extra in het design opnemen en schuiven met de thermische oplossingen en grenzen daarvan.
Vroeger werd er nog wel eens aan een testverantwoording gedaan, juist om duidelijk de test- en referentiekaders aan te geven, dan heb je die onduidelijkheid in ieder geval niet.
AuteurTrygve Redacteur @Venator18 mei 2022 16:55
We hebben met referentiekaarten getest waar mogelijk, maar er zitten aib-kaarten tussen voor gpu's die uberhaupt geen referentieversie hebben gekregen of die wij niet hebben kunnen bemachtigen. Op pagina 2 kun je de gehele testmethode in het groene kader uitklappen voor een overzicht, net als dat naast de grafieken de productnamen aangeklikt kunnen worden en je zo direct bij de specificaties van de betreffende kaart kunt kijken.
Heb het kader compleet gemist :o Dank voor de toelichting!
Idee om dan in de totaaloverzichten wel een AIB markering te gebruiken?
Ene kant mooi artikel en uitgebreide test andere kant mosterd na de maaltijd. De 40serie van nvdia staat er aan te komen en de 30 serie begint net een soort van mainstream leverbaar te worden maar is gedateerd.

Wat is handig? In een oude kaart investeren of wachten op de 40 reeks?

Mijn gevoel zegt wachten op de 40xx kaarten... Wat denken jullie?

[Reactie gewijzigd door itlee op 22 juli 2024 14:35]

Lekker voor een 30-serie gaan of huidige AMD kaarten.
Niemand heeft straks die 40-serie. Net zo slecht leverbaar, stroomverbruik van een elektrische terrasverwarmer.

Daarbij worden games ontwikkeld voor het grootste deel van de markt. Gezien amper iemand de laatste gen heeft kunnen kopen en heeft willen kopen, zullen er ook geen games voor ontwikkeld worden. Zolang het gros van de mensen niet bereid is meer dan een x-bedrag uit te geven aan een kaart en schaarste de prijs bepaald, kun je net zo goed last gen kopen.

Ik althans wel.
Hangt er natuurlijk ook vanaf hoe erg je nu 'omhoog' zit. Voldoet je huidige videokaart momenteel eigenlijk nog wel dan zou ik wel nog even rustig afwachten wat de markt gaat doen. Kun je nu een half jaar eigenlijk niet gamen zoals je wil en heb je het geld wel, ja dan koop lekker nu een kaart.
Daarbij worden games ontwikkeld voor het grootste deel van de markt.
Dat zijn toch de consoles. Er is net een nieuwe gen uitgekomen. Ik kan me voorstellen dat de grafische prestaties van games daarmee ook een vlucht zullen gaan nemen. Losse videokaarten zijn natuurlijk een stuk krachtiger dan de consoles maar consoles daarentegen weer een stuk efficiënter.
Ik zou denken dat voor een aantal titels DirectStorage ook een vereiste wordt, dus helemaal blind staren op een gpu dat wordt em dan ook niet. Plus dat 8 cores aan het werk zetten wel eens de norm kan worden, dus een leuk formaat cpu is dat een gewenst.
Gezien amper iemand de laatste gen heeft kunnen kopen en heeft willen kopen, zullen er ook geen games voor ontwikkeld worden.
Er is een groot verschil in vereiste rekenkracht tussen 1080p en 4k, dus het is prima mogelijk om een spel te ontwikkelen dat door een 1060 op medium settings gespeeld kan worden in 1080p, maar voor 4k een 3080 vereist.

Unreal komt binnenkort ook uit met hun nieuwe engine die veel beter is, maar ook veel meer eist. Alle ontwikkelaars die daarnaar overstappen zullen automatisch een meer eisend spel ontwikkelen.

De ontwikkelaars krijgen ook meestal de snelste kaarten en de spellen worden vaak ontwikkeld zodat ze op die kaarten Ultra draaien en nog enigszins redelijk draaien op de meest populaire kaarten, op lagere kwaliteit.

[Reactie gewijzigd door Ludewig op 22 juli 2024 14:35]

Die kaarten zijn wellicht ook pas over 2 jaar fatsoenlijk leverbaar. Ik zie eigenlijk geen aanleiding waarom die kaarten opeens veel beter leverbaar gaan worden.

[Reactie gewijzigd door giantgiantus op 22 juli 2024 14:35]

Nvidia en AMD hebben grote hoeveelheden productiecapaciteit gereserveerd bij TSMC. Dat moet ruim van te voren en voor de huidige modellen hebben ze niet zoveel gereserveerd.

Volgens de fabrikanten zelf zal de volgende generatie redelijk goed beschikbaar zijn (al zijn er altijd tekorten geweest bij de introductie van een nieuwe generatie, ook voor de crisis, dus dat zal nu niet anders zijn).
Zoals we inmiddels wel gezien hebben verkopen de meeste fabrikanten een hand vol nieuwe kaarten (20xx/30xx) tegen MSRP, dan worden deze vervangen door "nieuwe" versies van deze kaart en massaal verkocht onder vele malen hogere prijzen. Tegen de tijd dat je een 40xx kaart kan kopen ben je al weer dik een jaar verder en zijn ze nog steeds duurder dan de 40xx kaarten tijdens de "launch". Paper launches wordt dit ook wel genoemd.
Handig is een 30xx 2e hands op de kop te tikken, en alleen betalen voor wat je nodig hebt.
Het is mij iig wel duidelijk geworden dat dit gewoon verkoop strategieën zijn van fabrikanten. Hype creëren tijdens de launch (want aantrekkelijke prijs prestatie scores). En niet veel later deze vervangen met marginaal betere kaarten (Vram temperatuur 5 graden lager bijvoorbeeld). En ver boven de oorspronkelijke (tijd waar 90% van de reviews plaatsvinden) prijs verder te verkopen.
Ik zal wachten op een de 40xx, wellicht dat deze wel leverbaar zijn, wellicht doet het wat met de prijzen van de 30xx serie... Maar dat is echter niet de voornaamste reden, we gaan de warmste periode van het jaar tegemoet, hoe vaak zal je je nieuwe kacheltje niet kunnen gebruiken omdat het te warm is, je op vakantie gaat, je wat anders gaat doen met het mooie weer... Het is niet alleen Nvidia die met nieuwe kaarten komt later dit jaar, maar ook Intel. Allemaal redenen voor mij om de kat uit de boom te kijken...

De afgelopen maanden zijn de prijzen van videokaarten drastisch gedaald, afgelopen maand zijn de prijzen redelijk stabiel gebleven, maar wat gaat het de komende twee maanden doen? Ik verwacht nog verder zakken...
30XX is prima. In de zomer kopen of in het najaar. Zal niet veel schelen en is speculatie, maar net voor een nieuwe release kon je vroeger nog vaak goede deals scoren op de "huidige maar oude" generatie. Na dat de nieuwe release plaats vind kan je vaak ook goed scoren op 2e handjes, dan verkopen de mensen die pas verkopen wanneer ze een upgrade hebben.

Wil je 40XX en beste van het beste - die keuze ligt bij jou. Niemand zal je vertellen wat beter is. Beter voor wat? Portemonnee? Nieuwste features? Meeste performance? Gewoon voor nieuwste van het nieuwste? - voor iedereen is 'beter' anders.

[Reactie gewijzigd door grasmanek94 op 22 juli 2024 14:35]

Als je kunt niet per direct een nieuwe GPU nodig hebt kun je beter wachten. De prijs van de nieuwe lijn en het stroom verbruik is natuurlijk nog wel afwachten. Als ze niet veel duurder zijn dan de huidige generatie en het stroomverbruik er niet veel boven ligt kan het een interessante keuze zijn afhankelijk waar je de kaart voor gebruikt. Ik moet zeggen dat een huidige 3080 alles op 4k met toeters en bellen op 60-120 fps kan draaien.

Als je op 1080p kun je met een veel oudere of goedkopere GPU voort dan op 4k. Met de nieuwe 4080 of 4090 kan je misschien wel lage 8k fps halen maar de vraag is of je dat wilt en de apparatuur voor hebt. Voor mij is het nergens voor nodig tenzij je een thuisbioscoop scherm hebt. Je krijgt dus ook een stuk hoger stroomverbruik terwijl je misschien deze kaart zijn kracht helemaal niet benut.

Ik zou zeggen dat de volgende high end kaarten natuurlijk toekomst bestendig zijn wat mogelijk van pas komt met de aankomende UT5 graphics die eraan komen maar ook voor VR zullen de kaarten high end PC VR, dus AAA games op een hoge genoege fps kunnen draaien waar de 30-series in de buurt komt maar niet goed genoeg is voor 90-120 fps met hoge resolutie en kwaliteit.

Uiteindelijk is de vraag dus wat je met de kaart graag wilt doen.
Jammer dat er vooral naar 'de harde fps' is gekeken. Dat de RTX 3090 Ti er dan met kop en schouders bovenuit springt is totaal niet verrassend, imho. Echter, weeg je andere zaken wat zwaarder mee, zoals vebruik en kostprijs, dan zul je zien dat het speelveld verschuift en dat de RTX 3090 Ti helemaal niet zo'n goede gpu is - krachtig ja, maar niet zuinig en belabberde prijs-kwaliteitverhouding.

Daarnaast zou het in een dergelijke review niet misstaan om ook de softwarekant te belichten. Hoe zit het met de drivers? Welke voordelen bieden de drivers van Nvidia (+Geforce Experience) tegenover die van AMD (+Adrenalin)? DLSS versus AMD FidelityFX, enz. Zaken waar de consument zijn keuze ook op kan baseren.
Ik sta daarom ook zo te kijken van het verbruik van een RX6950 XT van AMD. Dat was toch een "refresh" van de RX6900 XT? Ding verbruikt gewoon de helft meer vermogen! Van een van de beste qua performance / Watt naar een hekkensluiter. Dat is bijna een prestatie opzich :X
Dat ligt heel erg aan het model wat je kiest. De AMD variant gebruikt maar 35watt meer (11-12%). De efficiëntie tov de 6900XT gaat nog steeds wat achteruit maar dat is niet zo veel als bij de AIB versies. De AIB's pushen de kaarten veel te ver :'(. Leuk als je maximale prestaties wilt maar die 3% sneller dan de reference 6950XT is dat nog veel hogere verbruik totaal niet waard.

Daarnaast verbruikt een 3090 Ti nog meer dan deze extreme 6950XT modellen.

[Reactie gewijzigd door Astennu op 22 juli 2024 14:35]

Als het goed is verbruikt de MSI Radeon RX 6950 XT Gaming X Trio waarmee getest is meer watt dan andere 6950 varianten. Zie: https://www.guru3d.com/ar..._nitro_pure_review,5.html

[Reactie gewijzigd door Mirrordin op 22 juli 2024 14:35]

Ik kan geen reden vinden waarom die MSI zoveel meer trekt voor een paar fps extra bij het gebruik van dezelfde chip... Ik heb zelf de originele review erbij gepakt... Jammer genoeg geven ze geen stroomverbruik cijfers bij de overclock, wellicht dat de 6950 extreem veel meer power verbruikt bij een lichte overklok...
Dat was toch een "refresh" van de RX6900 XT?
De xx50 refresh van AMD is helaas grotendeels een overclock. Met name bij de RX6950 XT lijkt dit extreem, vermoedelijk om te kunnen claimen dat deze sneller is dan de 3090, in bepaalde situaties.
Jammer dat er vooral naar 'de harde fps' is gekeken. Dat de RTX 3090 Ti er dan met kop en schouders bovenuit springt is totaal niet verrassend, imho. Echter, weeg je andere zaken wat zwaarder mee, zoals vebruik en kostprijs, dan zul je zien dat het speelveld verschuift en dat de RTX 3090 Ti helemaal niet zo'n goede gpu is - krachtig ja, maar niet zuinig en belabberde prijs-kwaliteitverhouding.
Die zaken staan gewoon in het artikel, zowel in de testresultaten als in de uiteenzetting op pagina 3 en 4. De RTX 3090 Ti is in bepaalde opzichten inderdaad een verschrikkelijke kaart, en de grafiek van de prijs-prestatieverhouding laat dat heel goed zien.
Hetzelfde valt helaas te zeggen voor de 6750 van AMD. Het verbruik van een 6800XT, prestaties onder de gewone 6800, die een kwart minder verbruikt. Dat merk je in hitte, kosten en herrie.

Ik zou liever een 6800 kopen. Maar dan moet deze er dus wel zijn. Laat dat nu net het probleem zijn. Zoals ik hier op tweakers mee heb gekregen zijn die yields gewoon heel goed dat je weinig afgekeurde high end chips hebt, die dus veel cores op een lagere snelheid hebben. Terwijl men veel goede chips hebt die zich gemakkelijk absurd laten klokken, maar dan met een overdaad aan verbruik op de koop toe.
De 6800XT refr editie aan msrp was de beste koop van allemaal in deze generatie voor 1440p high resolutie gaming. De 6800 is ook ok, maar je merkt het verschil toch sterk in fps, vs verbruik en koeling, de 6800xt is op dat vlak veel beter. Helaas zijn ze nu ook uit de webshop verdwenen.

[Reactie gewijzigd door d3x op 22 juli 2024 14:35]

Yep. De gewone 6800 was ook een erg fijne kaart. Minder performance, maar daarvoor ook een wat vriendelijker aanschafprijs en flink lager verbruik.

De gewone 6700XT bood toch net niet de performance die je eigenlijk wilde. De 6750 doet dit wel, maar valt eigenlijk alleen te verantwoorden onder het argument "bij gebrek aan beter", want hij is duurder en verbruikt dus onevenredig meer t.o.v. de performance winst.

Maar ja, die 6800 range bestaat niet meer. :/
Van mij mogen ze dan ook wel ingaan op het punt account en data harvesting bij die software. Voor zover ik weet is voor Geforce Experience een account vereist (toen ik dat bekeek wel, verbeter me als dat veranderd is) en zit er blijkbaar veel tracking in de Nvidia drivers. Ik gebruik nu zelf een tool om dat uit de drivers te strippen. Ik heb zelf de kennis niet voor een deep dive, dus ik ga er vanuit dat wat die tools zeggen wel klopt.

Hoe dat nu bij AMD zit weet ik niet aangezien ik nu geen AMD kaart heb.
Als je een 3090TI kan betalen intresseert het verbruik je helemaal niks. je wil gewoon het snelste. iemand die een ferrari koopt van een half miljoen kijkt ook niet of benzine 2 of 3 eur de liter kost.
Een 3090 Ti koop je ook niet voor de zuinigheid of prijs/prestatieverhouding, maar puur voor prestaties. Iemand met een degelijke portemonnee zal daar ook weinig om geven. Net min als iemand met een BMW M3 of Audi RS6 geeft om de regenwoud, ijsberen of brandstofprijzen. Dat interesseert die mensen helemaal niks. Die willen pure power.
die paar % zijn echt verwaarloosbaar maar daar staat bijna een dubbele prijs tegenover.
Die paar procent zorgt er toch voor dat de 3090 Ti bovenaan staat en dat is eigenlijk het enige afweegpunt voor de doelgroep ;)
wie koopt er nu nog zon duure kaart?
Mensen die het belangrijk vinden om de absolute top in hun PC te hebben. Dat zijn inderdaad dezelfde mensen die een Ferrari of soortgelijke (super)sportauto kopen en daar dan ook de bijbehorende merch bij kopen om te laten zien dat ze in die dure auto rondrijden. :)
mensen met te veel geld. Type mens dat een Ferrari koopt en er mee boodschappen doet of zo iets :)
Maar er is wel een verschil tussen een RS6 die het dubbele vermogen heeft van een normale A6 of een 3090Ti welke maar een paar % sneller is echter gaat het verbruik wel snel 40% omhoog en dan is het toch wel erg zonde. Als de prestaties 30% toegenomen zouden zijn geef ik je gelijk.
Maar er is wel een verschil tussen een RS6 die het dubbele vermogen heeft van een normale A6 of
Maakt niet uit als de real life prestaties (i.e. reistijd) van een RS6 maar enkele procenten scheelt met een gewone A6, toch? Is dat niet exact het punt, dat in real life de meerprijs van de RS6 de toename in resultaten niet waard is? Dat het vooral gewoon leuker is?
Daar zou ik geen RS6 voor kopen. Die koop je om sportief te rijden of te gaan racen. Niet om woon werk verkeer mee te rijden. Daar zijn ze veel te duur voor. En op de snelweg heb je helemaal geen extra lol van die auto. Op een dijk weggetje of op een baan natuurlijk wel.
Dus vind die vergelijking niet echt kloppen. Die auto kan wel daadwerkelijk veel sneller zijn. De 3090 Ti is amper sneller dan de 3090 maar verbruikt enorm veel meer. en de 3090 Ti kan niet heel veel sneller zijn dan de 3090. Waar de RS6 wel heel veel sneller kan zijn dan een normale A6.
En dan nog is een RS6 niet echt een auto voor op de track. Leuk voor Duitsland maar op het circuit zul je die niet snel zien.
Laat volgens mij precies zien hoe onnodig de auto is behalve voor de reis door Duitsland en het lomp optrekken bij het stoplicht. Zeker leuk om te doen maar het geld niet waard
Nee klopt er is dan veel leuker spul :)
Met veel spul tegenwoordig is dat het geval. Snel bij het verkeerslicht maar verder niet zo veel fun.

Ik vind mijn oude 350Z dan leuker rijden. Het is lan niet zo snel maar wel veel spartaanser. En geeft wel veel feedback bij het rijden. Dat is nog wat sterker geworden na dat het onderstel vervangen is.
Maar voor de meeste auto's tegenwoordig geld dat comfort ook aanwezig moet zijn en dat is voor sportief rijden geen voordeel.
We zijn blijkbaar gestoten op de moeilijkheid van het vinden van een gepaste analogie. :)

Het klopt dat een RS6 leuker is om mee te sjeezen en racen dan een A6 en dat het verschil daar groter is dan bij enkel woonwerkverkeer, inderdaad.
Dat is nogal een aanname/generalisatie die je daar doet... Ik denk inderdaad niet dat de gemiddelde M3, RS6 of 3090 Ti koper een groenlinks aanhanger is, maar stellen dat je daarmee automatisch "schijt hebt" aan het milieu dat zou ik dan weer niet zeggen.

Zeker voor een 3090 Ti kan ik mij voorstellen dat er mensen zijn die een goedbetaalde baan hebben, maar een paar uurtjes per week hebben om te gamen en dan die tijd maximaal wil benutten met de beste spelervaring. Of wat te denken van een triple screen race simulator waar je voor sommige games wel 3080 of hoger moet hebben om 3x WQHD te voeden, wellicht 3090 Ti als je serieus 3x 4K zou willen doen. (Gelukkig helpt DLSS in sommige games daar nu een beetje mee).
Daar geef ik je zeker gelijk in. Mocht ik veel geld over hebben zou ik proberen mijn huis CO2 neutraal te maken met alle nieuwe technieken die er nu al bestaan.
Het een sluit zeker het ander niet uit.
Net min als iemand met een BMW M3 of Audi RS6 geeft om de regenwoud, ijsberen of brandstofprijzen.
Mwah, wij geven natuurlijk stiekem wel om ijsberen, maar die doen 't nog niet zo goed op de golfbaan :+
Ye, maar in een BBG verwwacht ik juist dat er naar meer gekeken wordt dan benchmarks....

Dat een 3090 TI daar bovenaan staat wisten we allemaal wel zonder het artikel te lezen.
Prijs/prestatie geldt niet in het ultra-high end/enthusiast segment. Het is altijd al zo geweest dat de prijs/prestatie in dat segment niet de beste is. De 3090(Ti) maakt het wel heel bond, maar het is niks nieuws.

[Reactie gewijzigd door Hulleman op 22 juli 2024 14:35]

Echter, weeg je andere zaken wat zwaarder mee, zoals verbruik en kostprijs
Jij weegt die zwaarder mee, iemand anders wellicht minder zwaar en weer iemand anders geheel niet. Weer iemand anders vind groen een zwaarder meewegende kleur dan rood...

Dergelijke zaken moeten niet meetellen in een beoordeling die primair is gericht op performance. Laat de gebruiker zelf het waarde oordeel maken of het gebruik en de prijs/prestatie wel of niet goed is voor die gebruiker.

Verbruik wordt getest, prestatie per watt wordt berekend, de huidige prijzen staan erbij...

Een Nvidia vs AMD driver (Geforce Experience/Adrenalin) shootout lijkt me ook wel interessant, maar dat lijkt me een geheel apart artikel voor nodig en van beperkt nut, want dergelijke drivers/software veranderen constant en er zit vaak veel verschil tussen desktop en mobile oplossingen...

DLSS vs FSR is al eerder voorbij gekomen, als je versie 2.0 bedoeld is deze nog niet heel lang uit.
Maar dit is een heel mooie vergelijking: https://www.youtube.com/watch?v=y2RR2770H8E

Dit is Tweakers.net en ik mag hopen dat we niet alles voorgekauwd hoeven te worden en dat we zelf ook nog beslissingen mogen maken over wat wel en niet goed is voor onszelf...
Iemand die voor een 3090ti gaat heeft allang geen geld issues :) stroom is niet in zijn belang dus is het pure maximale presentaties waar het om gaat hier.
Dat de RTX 3090 Ti er dan met kop en schouders bovenuit springt is totaal niet verrassend.
Dat valt wel mee toch? Kijk naar de prijs prestatie verhouding. Alleen op 2160p doet de RTX3090 Ti het iets beter tegenover de 6950. Voor bijna het dubbele van de prijs.

De launch van de 6950 maakt de RTX3090 Ti in mijn optiek (met de huidige prijs) bijna overbodig. Ik vind het brilliant. We hebben eindelijk weer concurentie. Hier word ik blij van.
De 6950 schiet zwaar tekort qua raytracing.
Top segment kaarten zijn nooit goed in de prijs-kwaliteitverhouding.
De 3090 Ti is wel een efficiente GPU, maar niet op max TDP.

Wat ik veel mensen kan aanraden is een combi van een underclock and undervolt. Dit brengt de kaar terug naar max 300 watt met een aanvaardbaar prestatieverlies.
goede opmerking ,
maar er moet ergens een maatstaf van vergelijking zijn.
een audi a4 met 1.4 , 2.4 of 5.0 zullen van 0tot 100 2 seconden schelen
maar hoeveel meer kost en verbruikt de 5.0 versie?

ieder kijkt naar zijn budget denk ik zo ..
Die RX 6600 kun je dus zien als een moderne RX580. Dus voor dezelfde prestaties als een aantal jaar terug - 1080p/60FPS - mag je nu ongeveer 2x zoveel geld neerleggen.

Ik ben blij dat ik toch besloten heb om mijn nieuwe gaming PC centjes in een Steam Deck te steken...
Ik ben blij dat ik toch besloten heb om mijn nieuwe gaming PC centjes in een Steam Deck te steken...
Ik wachtte een tijd op een fatsoenlijke en betaalbare upgrade voor mijn oude, trouwe GTX 1080. Dat duurde zo lang dat ik zo snel mogelijk een Steam Deck had gereserveerd toen het kon. Inmiddels heb ik de Deck een tijdje binnen. Voor de prijs van een beetje videokaart nu een hele PC, en dat on the go en ook nog met redelijke prestaties/grafische praal 'gedocked'. Naast dat out of the box ik er veel lol mee heb, blaast het apparaat ook nieuw leven in mijn koude, versteende tweaker-hart. O+

Ik denk dat price for value de Steam Deck er nu bovenuit steekt. Verkrijgbaarheid is een dingetje, net als met alles op het moment. Het is verkrijgbaar voor een goede prijs en wat wachttijd, zonder te lurken op Telegram kanaaltjes of in topics om zo snel mogelijk ergens op een koop knop te drukken.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 14:35]

Ik ben inderdaad ook nog veel blijer met mijn deck dan ik had gedacht, hoewel ik er niet eens zoveel mee tweak nu eigenlijk (tot nu toe alleen Steam games geprobeerd en alles werkt gewoon meteen :+).

Sta er nu zelf verbaasd van als ik terug denk dat ik twijfelde om hem wel te bestellen toen ik aan de beurt was omdat ik helemaal niet meer zo hyped was. Ik heb de afgelopen 1,5 maand de Xbox en switch volledig verwaarloosd (om het over de vaste pc maar helemaal niet te hebben) omdat ik alleen nog maar op de deck speel. Het is echt een geweldig apparaat!

Maar het hangt natuurlijk wel af van wat je wil, het kan niet helemaal alles van een Windows pc met dikke gpu vervangen en ondanks mijn ervaringen kan het wel nodig zijn om flink te tweaken af en toe. Maar zeker als je gewoon wat wil gamen en het geen ramp is als net die ene game niet werkt dan is het een top apparaat en een hele goede value for money.
Ik heb een paar maanden geleden geüpgraded naar een 1080. Had hiervoor een 1070 en daarvoor een RX580. Met een beetje geduld en goed zoeken in v&a zo beide upgrades 'gratis' kunnen doen. Ik verwacht over een tijdje voor hetzelfde geld een 1080ti te krijgen. Die komt prima mee met de huidige generaties, zeker als je geen raytracing gebruikt, voor een fractie van de prijs.
Ben erg benieuwd naar de ervaring met de Steam Deck en hoe dat de gaming ervaring gaat veranderen, hopelijk binnen een maand in huis hier :Y)
Heerlijk apparaat maar heeft ook zo zijn beperkingen. goede GPU maar de CPU is niet zo krachtig.
Wat jammer voor mij is want ik speel graag simulatie spellen als Cities en Planet Zoo, en zeg maar dat latere games niet echt speelbaar zijn. Cities laad of niet in of crashed na een paar minuten in een redelijke stad met mods aan. en planet Zoo haalde nog maar 15fps.
Maar voor de rest ben ik ook erg blij met de steam deck.
Als je een 3080 op launchday had besteld had je best een betaalbare upgrade imo. Ik heb dat zelf ook gedaan, en voor het prestatie verschil van de 1080 en de 3080 was dat de €729 wel waard. Had de 1080 weg gedaan voor €250, had achteraf wel meer gekund was de upgrade goedkoper geweest, maar ben niet echt in de markt voor het scalpen :)
Ik heb gisteren mijn definitieve bestelling geplaatst en kan niet wachten tot hij verzonden wordt :)
Maar kan je hem ook op een beeldscherm gebruiken? En als dat kan, heb je toch veel minder prestaties? Ik bedoel je koopt een game pc, omdat het meestal "beter" is dan een console/handheld....
Ik koop een gaming PC omdat er andere games op zijn te spelen dan op een console en omdat je met een gaming PC veel meer kan dan alleen gamen. Maar dat is mijn reden.

Ik heb mijn RX580 weggegeven aan mijn zoon - vanwege die idiote GPU prijzen - en dus moest ik op een Ryzen 2400G APU PC gamen. Ik gamede dus al veel op 720p en met Radeon sharpening op 80% zag het er goed genoeg uit op mijn ouwe 1080p 40" Sony TV. Mijn Steam Deck is dus sneller dan mijn huidige gaming PC - die inmiddels bij mijn dochter staat voor The Sims, Roblox en Minecraft Java/Bedrock en schoolwerk. Ik heb nu nog een 2012 Macbook Air 8GB met Fedora 36 voor het normale typgeiten werk en dus de Steam Deck als mijn - relatief gezien - goedkope gaming PC. Ik speel meestal handheld, want lekker pick-up-and-play gameplay, maar gedocked op 720p op een 40" TV is voor mij dus helemaal geen probleem. De meeste indie games draaien gewoon op 1080p/60FPS en oudere AAA games ook wel of anders op 1080p/30FPS. Of anders koop ik die game op mijn PS4 Pro als die erop te verkrijgen is.

IMHO moet een 1080p/60FPS GPU niet meer kosten dan tussen de 180 - 250 Euro. En met de huidige GPU prijzen heeft de Steam Deck voor mij veel betere prijs/prestatie verhouding. Ook omdat het een handheld systeem is en ik een zwak voor handheld systemen heb. Ik heb enorm veel plezier aan mijn Deck en beschouw het als 1 van mijn beste aankopen.
Jullie vergelijken niet alleen appels met peren, maar halen de bananen er ook nog eens bij :) .

Voor de echte low power/budget gamers is er zoiets als cloud gaming. Werkt al op een beetje telefoon.

Een RX580 8GB is toch echt langzamer dan een RX6500XT van 190 euro. Neemt niet weg dat ik het er mee eens ben dan videokaarten veel te duur zijn en relatief ook duurder dan in 2017.
Maar kan je hem ook op een beeldscherm gebruiken? En als dat kan, heb je toch veel minder prestaties?
Als je speelt in 800p dan zijn de prestaties vergelijkbaar met spelen op het interne scherm. Je kan ook gewoon bijvoorbeeld met een Xbox One controller verbinden om vanaf de bank op een TV te spelen. Veel spul (met name indie) draait overigens soepel op 1080p, en zelfs hier en daar wat vlot op 4k. Die keuze heb je dan ook.

De software is hard in ontwikkeling. Als je de voortgang per maand bekijkt sinds dat de Deck uit is (nog maar bijna drie maanden), dan zie je dat er grote stappen gezet worden. Qua dat is het jammer dat T.net niet een Deck review 2.0 doet.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 14:35]

Er is ook een enorme inflatie van wat 1080p/60fps betekent tegenwoordig. De 6600 is ongeveer 60% sterker. Je kan je ook afvragen of gamen op ultra kwaliteit op een 1080p scherm iets toevoegt of dat je dan beter een nieuw scherm kan kopen.

Er is wat mij betreft een beetje een te grote focus op cijfertjes. Een ervaringsreview af en toe met een terugblik kan misschien meer inzicht brengen.
Tja de enige waarde van die reviews zijn toch eigenlijk de cijfers? Als je echt in een spel zit en het draait met acceptabele FPS dan merk je volgens mij verder niet heel veel van een duurdere kaart. Of ik die acceptabele FPS kan halen met een bepaalde kaart vind ik dan weer handig om in een review te lezen (wat acceptabele FPS zijn moet iedereen zelf maar bepalen, mij schermen doen niet meer dan 60Hz dus voor mij is 60 of meer acceptabel).

Ik heb voor Elden Ring wat instellingen lager gezet zodat het wat soepeler loopt, maar als ik aan het spelen ben dan zie ik daar echt helemaal niets van omdat ik veel te druk ben met proberen niet dood te gaan :)

Misschien dat het voor strategiegames waar je eens rustig alles kunt bekijken voor je volgende zet (Civ ofzo) wat uitmaakt qua eye-candy, maar dat zijn vaak weer de games die niet zo veel vragen van je GPU.
RX 6600 [...] 1080p/60FPS
De RX6600 is een 1080p120 of 1440p60 GPU, geen 1080p60 GPU.

De noodzaak om altijd alles op Ultra te zetten en daarmee de helft van je prestaties te verliezen voor een marginale of onmerkbare verbetering in grafische kwaliteit heb ik nooit begrepen.
Is de geluidsproductie van de kaarten helemaal niet bekeken?
Goed punt, mis ik ook. Steeds meer mensen willen een stille/ rustige werkplek. Vooral in idle is het prettig als je kaart niet hoorbaar is. Ik ben bereid wat fps op te offeren als ik ook op "load" een redelijk stille kaart heb!
heb een 6800, 6800xt en 6900xt en ben wel verrast over hoe stil ze zijn tijdens gamen/temps van 80c
Goed punt, ik knap altijd af op geluidruchtige kaarten.
Dat lijkt me wel lastig in een overall review. Het is maar net wat de producent als koeloplossing kiest en dat is niet direct gerelateerd aan de gekozen chip.

Verder met je eens, nadat ik de gewenste chip heb gekozen, is geluidsproductie het volgende criterium. Dan pas prijs.
Ik mis wel de 6650xt
Viel mij ook al op, jammer dat tweakers daar nog geen exemplaar voor review van heeft gehad.
Met dit vraagstuk ben ik al een tijd bezig, hoofdzakelijk was ik aan het zoeken voor een 1080P kaart die evt. ook 1440P aan kan ( ik heb hier nog geen monitor voor ). Het hoeft geen FPS monster te zijn maar gewoon speelbaar. Ik was de prijs van de RX6600 in de gaten aan het houden en zag dat de RTX3060 nu ook flink in prijs gezakt is verkrijgbaar voor 423 euro Inc. verzenden. Alleen lees ik uit het artikel dat de 12 GB tegenover de 8 GB van AMD niet veel meerwaarde heeft. Is hier nog iets zinnigs over te zeggen ?

Als ik het artikel moet geloven kan ik net zo goed gaan voor de RX6600, het prijs verschil is op dit moment nog maar een kleine 30 euro vandaar twijfel ik een beetje over de keuze |:(
Ik heb een 1060 6GB en game soms 4K en vaak 1440. Afhankelijk van het type spel kan dat vaak prima, vooral als je je niet blind staart op die 60 fps. Daarbij vul ik met een aantal spellen die 6GB al wel vlot.

8GB is dus het minimum om nu aan te schaffen lijkt me. Je kan daar vast een tijd mee door, maar voor de toekomstbestendigheid zou ik zelf toch echt voor meer VRAM gaan. Vooral als de markt moeilijk blijft en het misschien wel weer 6+ jaar kan duren voordat je 'm vervangt. Dit is uiteraard een advies gebaseerd op mijn eigen use case. Genoeg mensen voor wie andere omstandigheden gelden.
Persoonlijk zou ik ook zeggen voor die 30 euro kun je beter de 12 GB variant pakken, blind staren op de FPS doe ik sowieso niet. Het moet wel gewoon speelbaar zijn, als hij soms wegzakt naar iets minder is voor mij ook geen probleem. Ik hoop eigenlijk dat ze nog iets in prijs zakken maar ben er bang voor.
Als ik diverse filmpjes kijk scoort de RX en RTX nagenoeg gelijk, alleen komt de RTX er in sommige spellen net wat beter mee weg.
Dat is een mooie vraag, waar ik ook wel het antwoord wil op weten.

Ik lees en hoor ook vaak dat de 12GB van de RTX3060 overkill is. Maar geeft het niet wat meer speelruimte naar de toekomst? Herinner mij dat toen ik een 4GB kaart kocht ook iedereen aangaf dat 2 toen meer dan genoeg was. Enkel is mijn kaartje veel langer relevant gebleven dan de toenmalige 2GB varianten.
Dit is waar ik ook mee zit, liever voor die 30 euro iets meer geheugen. Je weet maar nooit in de toekomst. Echter in het artikel wordt er gezegd dat het weinig nut heeft.
Op dit moment heb ik nog de HD7970 OC die heeft toch meer dan 6 jaar vol gehouden inmiddels.

[Reactie gewijzigd door Racer89 op 22 juli 2024 14:35]

noujah dit, ik heb destijds een GTX 980 gehaald met 4GB vram.

Draait bijna alles nog (alleen niet op de hoogste settings), maar sommige games stoppen er soms gewoon mee vanuit het niks, of er is gewoon te weinig geheugen (elden ring runt b.v. prima, maar hele regio's worden niet geladen tot ik een paar minuten wacht). had ik toch maar die 8gb genomen destijds die 'toch overkill was'
De 3060 is vooral een beetje uit balans. De memory bus kon alleen gebruikt worden voor 6 of 12 GB en er is gekozen voor 12. De 3060ti is wel ontworpen om 8gb te hebben.

Game developers stemmen hun aanbod meestal af op de grootste groep. De komende jaren zullen developers zich dus nog richten op vram gebruik onder de 8gb. Daarnaast kan je altijd je vram managen als je kleinere assets laadt zoals lagere textures.

50 euro zou ik het verschil niet waard vinden maar bij 30 of 20 zou ik wel twijfelen. Daarbij heeft Nvidia meer features die interessant kunnen zijn. Behalve als je linux gebruikt, dan is amd handiger. Als ik naar de benchmarks kijk is de prestatie op 1440p van de 3060 ook beter en als volgende upgrade zou ik zeker voor een scherm kiezen.
Zie nu dat de 3060 een stuk in prijs gedaald is. De goedkoopste is nu €419. Is nog wat boven de adviesprijs van €349 maar het komt nu wel dichter in de buurt. Ben benieuwd hoe de prijzen gaan worden over een paar maanden.
Grote kans dat ze bij de release van de 4000 serie weer om hoog gaan. Net als bij de release van de 3000 serie

Op dit item kan niet meer gereageerd worden.