Let op: je bekijkt een oudere versie van dit artikel. Bekijk hier de nieuwste versie van dit artikel.

Door Reinoud Dik

Redacteur

Videokaart Best Buy Guide

De beste gpu's in september 2023 (update)

Bijlage: stroomverbruik en prestaties per watt

  • Vermogen ingame - Metro 1440p
  • Vermogen ingame - Metro 2160p
  • Vermogen idle
Opgenomen vermogen ingame - Metro Exodus - 3840x2160 - Extreme
Videokaart Gemiddelde vermogen in watt (lager is beter)
Radeon RX 6600
129,07
GeForce RTX 3050
130,25
GeForce RTX 2060 FE
159,29
GeForce RTX 4060 Ti 8GB FE
163,98
Radeon RX 7600
166,81
GeForce RTX 3060
181,75
Radeon RX 6650 XT
195,67
GeForce RTX 4070 FE
207,93
GeForce RTX 3060 Ti FE
208,69
Radeon RX 6700 XT
224,62
Radeon RX 7700 XT
230,49
Arc A770
231,12
GeForce RTX 3070 FE
234,22
Radeon RX 6750 XT
236,51
Radeon RX 6800
241,24
Radeon RX 7800 XT
254,71
Arc A750
261,14
GeForce RTX 4070 Ti
291,07
Radeon RX 6800 XT
294,14
Radeon RX 6900 XT
303,97
GeForce RTX 3070 Ti
310,98
Radeon RX 7900 XT
313,37
GeForce RTX 4080 FE
324,57
Radeon RX 6950 XT
339,09
Radeon RX 7900 XTX
353,35
GeForce RTX 4090 FE
436,50
  • Fps/watt - Metro 1440p
  • Fps/watt - Metro 2160p
  • Metro Exodus - 1440p Ultra
  • Metro Exodus - 2160p Extreme

Reacties (206)

206
204
82
3
0
87
Wijzig sortering
Voor diegenen die gamen op ultrawide/super ultrawide (game zelf op 3440x1440) is dit Youtube-kanaal wellicht interessant:

https://www.youtube.com/@ultrawidetechchannel/featured

Deze man richt zich volledig op de resoluties 3440x1440, 3840x1600, 5120x1440 en 5120x2160 en heeft de afgelopen maanden alle nieuwe kaarten van nVidia en AMD getest.
Thanks, onlangs een G9 gekocht en zit wat te zoeken omtrent GPU/CPU combo :)
Ik zie aan de AMD kant helaas alleen 7900XT en XTX. Blijkbaar beperkt hij zich echt tot de nieuwste generatie? aan Nvidia kant zie ik ook alleen de 4xxx reeks.

Ik game nu met een 6700xt op een 32:9 scherm. Gewoonweg omdat ik geen zin had om meer uit te geven aan een videokaart momenteel. Gaat nochtans prima, al haal ik natuurlijk nergens extreem hoge FPS. Maar dat geeft ook niet, ik ben prima gewend aan 30+ fps gaming :)

edit: was bedoeld als reactie op @iskander1970 , excuus :)

[Reactie gewijzigd door Sjekster op 22 juli 2024 21:05]

Geen probleem, ik heb wat video's gecheckt lijkt mij een vrij new channel dat eerder adhv donaties zijn kaarten koopt
Ik heb zelf een RX 6600 voor mijn 3440x1440 scherm, ik speel voornamelijk games als Enlisted, War Thunder en dergelijke. Gaat redelijk, met FidelityFX haal ik zelfs ruim 100fps of meer. Maar vooral de 1% lows zijn niet prettig en als ik de settings iets hoger dan medium zet, begint hij toch te stotteren (ondanks FidelityFX). Ik ben nu naar de 6700 XT aan het kijken, die moet het dan makkelijk trekken. Loop jij ergens tegenaan met deze combi?
Ik heb zelf een samsung met 5120x1440, ongeveer 80% van 4k resolutie. Ik speel niet heel veel nieuwe games meer, her en der wat Borderlands 3, Diablo en voor de rest sim racers. Loopt allemaal best aardig, al heb ik bij Borderlands 3 wel res scaling aangezet (dat is wss gewoon fsr 2?). Dan zit ik aan 70+ frames. Ik heb resizable bar in bios onlangs aangezet, fps lijkt daardoor iets beter, maar had ook wat last van stotteringen 1e paar minuten na starten. Geen idee of er een verband is.

De (sim)racers lopen an sich goed. Ik heb begrepen dat die ook veel baten hebben bij bijv een 5800x3d, dan vloog de performance vaak omhoog.

Ik moet zeggen dat ik verder niet veel heb gekeken naar fps bij meeste games.

Van de normale racers draait een forza echt dikke prima. Fsr 2 aan op 75 met quality mode geloof ik. Schommelt dan tussen 60 en 100fps volgens mij, verder ook alle toeters en bellen aan, zelfs raytracing geloof ik. Dat geldt overigens voor meeste games die ik speel. Dus met wat terugschalen naar wat lager detailniveau valt ook nog wel wat te winnen.

Loopt allemaal best redelijk, maar een stapje hoger zou geen kwaad kunnen. Ik vond het verschil tussen 6700xt en 6800xt niet echt het prijs verschil waard, dus uiteindelijk toch op de 6700xt gebleven.

Aan het einde van de dag heeft zo'n beeldscherm toch wel een flinke kaart nodig, of verdient het iig.

Wellicht als vrij besteedbaar inkomen weer een keer wat ruimer wordt, schakel ik over naar wat meer high end. Tot die tijd red ik het denk ik prima.
Ik denk dat die resizeable bar een placebo effect geeft bij jou.

Of dat je zaken door elkaar haalt.
Resizeable BAR is namelijk een Nvidia feature, amd zijn/haar tegenhanger heet SAM, Smart Access Memory.

Hier is op 2560x1440 met een r5 7600xt en een 7900XT geen verschil merkbaar bij mij.
Is gewoon hetzelfde hoor, hoe men het ook noemt. Het is ook beschikbaar gemaakt voor zen2 cpu's, waar het in het begin zen3+ uniek was.
Hm, mijn 1070 heeft niet veel problemem met 3440x1440 grotendeels high sets. Laatste keer dat ik speelde dropt het naar 50 vliegend over Sweden. Dat is het laagste dat ik heb gezien. Verder altijd 80+. En 66 moet denk ik sneller zijn.
Ik denk dat wij dan andere games spelen... Ik had voor de 6600 namelijk ook de 1070 en die deed het verbazingwekkend goed voor zijn leeftijd, maar zeker voor online FPS games was het echt onvoldoende. Inmiddels heb ik de 6700 XT en die trekt het allemaal makkelijk :)
Leuk... maar maakt het veel uit of je nu meer pixels in de breedte en minder in de hoogte hebt of niet? b.v. 5120x1440=7,4 miljoen pixels. 4K heeft 3840x2160=8.3 miljoen pixels, dus ik zou zo'n 10-15% verschil in performance verwachten.
top dank voor de link
Tip/suggestie: Neem voor toekomstige reviews ook UWQHD (1440p ultrawide, 3440x1440) op in de vergelijking.

3440x1440 zit op net geen 5 megapixel en valt zo mooi tussen 1440p en 4k in. Het is bovendien een gangbare resolutie geworden door de vele beschikbare 34 inch ultrawide monitoren.
Ik zou het er van af laten hangen hoe hoog het aandeel van 34” UW is. Mijn gevoel zegt met dat onder gamers 34” UW een stuk populairder is dan regulier 1440p.

Alleen laat het zich wat lastig staven. De pricewatch heeft waarschijnlijk niet de profilering voorhanden en de Steam survey is niet gedetailleerd genoeg om dergelijke conclusies uit te kunnen trekken.
Ik denk dat het tegen valt. Immers zijn er nog steeds veel games die niet optimaal werken op ultrawide schermen. Als het er echt zoveel zouden zijn denk ik dat uitgevers wel meer prioriteit zouden geven aan het optimaliseren er voor.
Zelf ben ik een tijdje terug juist van een 35" ultrawide naar een 32" qhd monitor overgestapt zodat ik niet meer steeds met beperkingen of hacks hoef te dealen.
Immers zijn er nog steeds veel games die niet optimaal werken op ultrawide schermen.
Zoals? En wat bedoel je met niet optimaal?
Ik heb al vele jaren een ultrawide maar kan me van de afgelopen jaren geen game herinneren die, misschien afgezien van wat cinematics die op 16/9 gespeeld worden, niet goed schaalde naar 21/9.
Mis ik iets?
Met name Japanse games zijn vreselijk op dit gebied. Zo heeft Armored Core 6 als eerste uit de reeks van FromSoft games pas ultrawide support, voor de overige games moest je hiervoor de game modden en offline spelen.

Zo zijn er meer games die wel de resolutie ondersteunen maar alsnog vaak letterboxen of vignetten. Aliens: Dark Descent heeft onlangs een Ultrawide support optie toegevoegd maar gaat ook daar nog wel eens een beetje raar doen met scherm resizing.

Toegegeven, het is echt minder een probleem dan vroeger tot het punt dat het bijna niet meer bestaat. Maar ik herken wel wat je zegt, zelf heb ik sinds 2010~ een ultrawide waar ik ook bar weinig problemen mee heb gehad. Het is echt een non-issue en ik kan absoluut niet zonder de extra scherm real-estate.
Het is een tijdje geleden dat ik terug overgestapt ben... maar wat ik zo nog weet in ieder geval Borderlands 3 waarbij de menu's niet allemaal goed werken op ultrawide schermen (het schaalt met hoe breed je scherm is, maar vervolgens past het in de hoogte niet meer en staat een deel off screen). Verder wat ik me vooral herinner waren oudere games waar het een hoop gemod was (bv Kotor) of bv Blizzard die geen competitief voordeel wil bieden aan mensen met brede schermen (Overwatch en geloof ook Starcraft 2).

Ik liep er wel vaker tegenaan, maar dan moet ik ook zeggen dat ik een aantal jaar weinig op PC gespeeld had (de Covid lockdown had dat even voor me verpest omdat ik op dezelfde plek ging werken waardoor ik meer Xbox gespeeld heb een aantal jaar) en toen ik weer naar PC terugschakelde heb ik een 16:9 monitor gekocht daarvoor, dus ik heb geen heel recente ervaringen meer. Als ik nu op wsgf.org kijk dan lijkt de situatie de afgelopen jaren toch wel verbeterd dus wellicht was mijn kennis wat verouderd op dat vlak. Ik zie tot mijn verbazing dat zelfs Overwatch 2 bv nu wel met hor+ in de lijst staat (wat wil zeggen dat je meer ziet omdat je scherm breder is, ipv dat ze bv de boven- en onderkant er af kappen en inzoomen, of zwarte balken tonen).
Je gevoel zit fout, en dat kan ik staven emt de steam hardware survey.

1440p: 14% marktaandeel (recent 0.76% gestegen)
UW: 2% marktaandeel.(recent 0.06% gestegen)

Als je naar de stijging kijkt is het zelfs niet zo dat UW aan een inhaalslag is begonnen: het is gewoon een niche.
Zoals gezegd is die niet representatief. Daar zijn namelijk ook laptops in opgenomen en zowaar nog apparaten die op 800x600 draaien. En afgezien van alle bijvangst richt Tweakers zich op de Nederlandse en Belgische markt, terwijl in die survey ook waarschijnlijk Aziatische en Afrikaanse gaming cafés zijn opgenomen.

Teveel onbekende factoren dus om dergelijke conclusies uit te kunnen trekken.

Desondanks zijn ultrawides altijd wat duurder geweest, luxeproducten, met nadelen zoals terecht aangegeven door @Finraziel. Het zou me dus ook niet verbazen wanneer het daarom ook onder tweakers een niche zou zijn.

Goed materiaal voor een poll, lijkt me :)
Misschien niet volledig representatief, maar daarom ook niet meteen fout. Ik ken enorm veel mensen in mijn omgeving die op 1440p gamen, omdat het een stuk scherper is dan 1080p (zeker op 27"), maar geen aanslag doet op de performance zoals 4k. Ik ken letterlijk niemand met een UW monitor.

Betekent niet dat niemand UW gebruikt, of dat mijn omgeving een betere sample is dan Steam. Maar het strookt wel met de resultaten die je ziet op Steam (mensen kopen steeds vaker 1440p).
Ik ken letterlijk niemand met een UW monitor.
Ik spreek een beetje uit eigen ervaring en uit wat ik om me heen zie maar het het is pas sinds een aantal jaren dat ultrawide monitoren en daarmee de ondersteunde resoluties in games e.d. een beetje mainstream zijn geworden.
En bij monitors is het veel meer dan bij andere hardware zo dat het pas vervangen wordt als het echt niet meer voldoet.
Dan is er bij sommige gamers misschien ook meer de voorkeur voor fps en zijn de extra pixels ongewenst.
Ik kan zo vlug even geen cijfers vinden maar volgens mij groeit het aanbod alleen maar en stijgt ook het aandeel van ultrawides langzaam maar zeker.
Desondanks zijn ultrawides altijd wat duurder geweest
Duurder dan wat?
Natuurlijk betaal je, als je een 1 op 1 vergelijking zou doen, meer voor het schermoppervlak en de minder gangbare beeldverhouding. Maar er is enorm veel keus in merken, formaten, specificaties en prijzen.
met nadelen zoals terecht aangegeven door @Finraziel
Het grootste nadeel wat ik ondervind van het al jaren thuis werken met een 21/9 scherm is het gebrek aan breedte als ik op m'n werk met 16/9 monitors moet werken en dat te veel websites hun layout aangepast hebben aan de verticale smartphone. 4/5e Deel van mijn scherm is op dit moment volledig leeg.
Qua games voegt de breedte alleen maar toe aan de ervaring. Afgezien van oudere games die de resolutie niet ondersteunen ben ik me daarin niet bewust van specifieke nadelen en ik hoor daarom graag wat die dan zouden zijn.
Het gaat mij om wat ze "pixel fill rate" noemen, hoeveel pixels de GPU per seconde richting scherm kan sturen, wat bepaald wordt door de "ROPs", render output units, van een grafische kaart.

1080p (full hd) 1920x1080 pixels = 2.073.600
1440p (wqhd) 2560x1440 pixels = 3.686.400
2160p (4k-uhd) 3840x2160 pixels = 8.294.400

De benchmark gaat van 2,1 naar 3,7 naar 8,3 Mpixel per frame. UWQHD (3440x1440) is een mooie tussenstap én is meer en meer relevant aan het worden door het toenemende aanbod 34" ultrawides.
Dat is inderdaad wel een fair punt, zo had ik het nog niet bekeken.

Als eigenaar van een 1440p UW scherm zou ik het overigens ook toejuichen.
With ^, zat net aan hetzelfde te denken.

@Trygve
Ik hoop dat ze bij Tweakers hier iets mee doen, ik wil niet meer anders dan uwqhd.
Waarom hebben jullie niet 3 dagen gewacht, zodat de resultaten van de nieuwe AMD 7700/7800 zijn meegenomen? Deze best buy kan over 3 dagen alweer verouderd zijn...
Plus, een test is niet in 1 dag gedaan. Die dingen kosten tijd, dus ik denk dat ze daar rustig aan willen werken zonder de druk om zsm dit artikel te moeten plaatsen. In plaats daarvan gaan ze een update doen zodra ze de resultaten binnenhebben zoals al opgemerkt was.
Plus, een test is niet in 1 dag gedaan. Die dingen kosten tijd, dus ik denk dat ze daar rustig aan willen werken zonder de druk om zsm dit artikel te moeten plaatsen. In plaats daarvan gaan ze een update doen zodra ze de resultaten binnen hebben zoals al opgemerkt was.
Zo werkt het niet. De reviewers krijgen de kaarten al ruim voordat deze verkocht worden, zodat ze rustig een review kunnen maken. Er is dan een embargo zodat reviewers elkaar niet gaan aftroeven voor de clicks, met een halfbakken review. De embargo-datum is normaliter 1 dag voor de verkoopdatum.

Dus ik geef je op een briefje dat Tweakers nu de kaarten aan het testen is en dat ze op 5 september de reviews online zetten.

Ze hadden dit artikel ook kunnen uitstellen naar 5 september en dan de resultaten van de 7800 XT en 7700 XT reviews mee kunnen nemen. Niet dat ik zeg dat ze dat hadden moeten doen, maar het had makkelijk gekund zonder iets af te raffelen.

[Reactie gewijzigd door Ludewig op 22 juli 2024 21:05]

Maar als je op dag 1 publiceert, dan zijn de prijzen ook nog 'onrealistisch'. Pas na een maand of 6 heb je pas gestabiliseerde marktprijzen, en dat is wel van belang in de rubriek prijs-prestatie-verhouding.
Uit het artikel:
De Radeon-fabrikant heeft echter wel twee modellen, de RX 7700 XT en RX 7800 XT, die op het punt staan om te worden uitgebracht. Wanneer duidelijk is hoe het met de daadwerkelijke straatprijzen en beschikbaarheid van die modellen zit, publiceren we een bijgewerkte versie van deze Best Buy Guide.
Top toch. Van de redactie!
Keurig van de redactie ( y )
straatprijzen
Vreselijk he? Gebruik gewoon Nederlandsch, tweakers. :)
Straatprijzen in de Woordenlijst Nederlandse Taal.

Bron:
Het Groene Boekje is de gebruikelijke naam van de Woordenlijst Nederlandse Taal, een overzicht van de officiële spelling van Nederlandse woorden zoals deze volgt uit besluiten genomen door de Nederlandse Taalunie.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 21:05]

Ok, interessant.

Ik kan er ook vast wel een woord in vinden wat zodanig belachelijk klinkt, maar "het staat er in".

Zoals "kankerblij". Zowel kanker als blij staan erin.

Bron:
Het Groene Boekje is de gebruikelijke naam van de Woordenlijst Nederlandse Taal, een overzicht van de officiële spelling van Nederlandse woorden zoals deze volgt uit besluiten genomen door de Nederlandse Taalunie.
Dit woord straatprijs is overgenomen uit het engels, maar klinkt gewoon niet zodanig in het Nederlandsch. Ik koop mijn spullen nl. niet letterlijk op straat, maar in de winkel. In het engels zal het dan ook wel een andere oorsprong hebben, deze uitdrukking, als je mijn richting vangt.

[Reactie gewijzigd door Hatseflats op 22 juli 2024 21:05]

Dan kan de auteur over 5 dagen weer een review maken :) werk hebben / werk houden heh.
De reviewers hoeven voorlopig niet bang te zijn om zonder werk te komen. Er is een redelijk constante stroom aan nieuwe systemen en componenten die getest kunnen/moeten worden.
De nieuwe kaarten zullen ongetwijfeld in een eigen artikel getest worden en tzt in een nieuwe "best buy guide" worden opgenomen. Voorlopig zullen die kaarten op basis van prijs/prestatie toch nog geen aanraders zijn. Daarvoor zijn de introductieprijzen meestal te hoog.
Ja dan kan je wel blijven wachten, want 10 dagen later komt er misschien wel weer een andere kaart uit, en 20 dagen later weer een ander.

Dan kan je nooit meer een test doen.

Daarnaast leert de ervaring, zeker de laatste 2 jaar, dat een nieuwe kaart de eerste paar weken slecht of geheel niet leverbaar zal zijn, dus dan voegt die op dat moment ook weinig toe in een test.

Die kaarten zullen ongetwijfeld wel meegenomen worden in de volgende BBG, als en de prijs wat gezakt is, en de verkrijgbaarheid op een normaal niveau zit.
Daarnaast leert de ervaring, zeker de laatste 2 jaar, dat een nieuwe kaart de eerste paar weken slecht of geheel niet leverbaar zal zijn, dus dan voegt die op dat moment ook weinig toe in een test.
Dat is het laatste jaar zeker niet meer het geval. Los van de 4090 helemaal aan het begin is de verkrijgbaar van GPU's kort na de lancering beter dan het ooit geweest is. Je moet natuurlijk niet naar de situatie kijken tijdens de mining-crisis, want dat is niet representatief voor nu.

Naar verluid zijn de 7800 XT en en 7700 XT ook al massaal geproduceerd, maar vanwege overschotten van de 6000-kaarten in de opslag geparkeerd, dus dan is het zeer waarschijnlijk dat de verkrijgbaarheid uitstekend is.

[Reactie gewijzigd door Ludewig op 22 juli 2024 21:05]

Ja dan kan je wel blijven wachten, want 10 dagen later komt er misschien wel weer een andere kaart uit, en 20 dagen later weer een ander.

Dan kan je nooit meer een test doen.
Als je 99% van de wachttijd uitgezeten hebt, dan kan je het laatste procentje (3 dagen) nog wachten. Daarna is er een lange periode van meer dan 100, 200, 300,... dagen dat er geen nieuwe GPU's uitgebracht worden.

Van herfst 2023 tot herfst 2024 is een dode periode tussen de laatste GPU's van deze generatie en het begin van RDNA4. Tenzij als het om een refresh, Super, RX xx50 XT,... gaat, maar dat is geen nieuwe generatie GPU's.
Daarnaast leert de ervaring, zeker de laatste 2 jaar, dat een nieuwe kaart de eerste paar weken slecht of geheel niet leverbaar zal zijn, dus dan voegt die op dat moment ook weinig toe in een test.
De mining boom is al een tijdje dood en de winkels hebben last van overschotten. Radeon GPU's zijn niet felbegeerd en AMD heeft ontiegelijk veel Navi 32 opgespaard tijdens het afbouwen van RDNA2 voorraden. Tijdens de eerste week gaan ze zien welk werelddeel veel Navi 32 koopt zodat ze weten naar waar de opgespaarde voorraden gedumpt moeten worden.
Die kaarten zullen ongetwijfeld wel meegenomen worden in de volgende BBG, als en de prijs wat gezakt is, en de verkrijgbaarheid op een normaal niveau zit.
Deze BBG is op back to school getimed.

Tijdens Black Friday wordt het kijken naar wie teveel voorraden heeft en het jaar boekhoudkundig wilt redden. Om voorraden zo efficiënt mogelijk in omzet om te zetten, zijn er kortingen nodig.

[Reactie gewijzigd door rapture op 22 juli 2024 21:05]

Ja dan kan je wel blijven wachten, want 10 dagen later komt er misschien wel weer een andere kaart uit, en 20 dagen later weer een ander.
AMD heeft al bevestigd, dat zij geen nieuwe kaarten meer uitbrengen in deze generatie. En het gebeurt zelden dat een kaart zomaar uit de lucht komt vallen. De geruchten machine loopt zeker een maand van tevoren.
Gewoon wat langzamer dan de 7900, en net wat sneller dan de 7600.
Kijk naar de benchmarks en trek een denkbeeldige gemiddelde balk tussen die balkjes.
:)
Waarschijnlijk een beetje een domme vraag... Maar ik game op 3440 x 1440. Moet ik dan eerder naar een kaart die 4K goed ondersteunt kijken, of 1440p?
Jouw resolutie is iets zwaarder dan standaard 1440p (2560x1440), het is zo'n 34% meer pixels. 4k is echter nog een stuk meer, dat is nog eens 67% meer pixels dan jouw scherm.
Nou schaalt dat niet helemaal lineair, maar je kunt dus wel ongeveer naar de 1440p resultaten kijken en ze iets lager schatten voor jouw resolutie.

Het gaat ook vooral om wat voor fps je graag wil en op welke settings je wil spelen (en wat je budget is). Zelf heb ik net een 7900XT besteld die hier voor 4k wordt aangeraden ook al heb ik maar een 1440p scherm. Maar ik merkte in starfield dat mijn huidige 3070 het erg moeilijk had en om rond de 50-60 fps te blijven ik de kwaliteit lager moest zetten dan ik leuk vind. En het speelt mee dat ik net aan een lange vakantie begin maar niet op vakantie ga, dus geld wat andere mensen misschien in een vliegreis zouden steken stop ik in een superdikke videokaart :D
Ik had precies dezelfde vraag dus thanks voor het antwoord _/-\o_
Je kan kijken naar het aantal pixels, da's het belangrijkst wat betreft hoeveel er rendered wordt. 3440x1440 is 4,9 miljoen pixels terwijl 4k 8,3 miljoen pixels is. 2560x1440 is 3,68 miljoen pixels.
Zo kan je dus zien dat jouw scherm pakweg 30% meer pixels bevat dan een 1440p widescreen en dus kun je daarop ongeveer de performance berekenen.

Ik zou zelf gewoon vooral op zoek gaan naar 3440x1440 benchmarks, da's natuurlijk 't meest precies.
Zoals anderen hier al zeiden, je kan het uitrekenen aan de hand van het aantal pixels.. Buiten dat is mijn advies altijd, koop gewoon de snelste videokaart die je kan en wil betalen, je kan namelijk nooit teveel GPU-rekenkracht hebben.. Tenzij je een RTX 4090 gaat gebruiken voor een 19201x1080 60Hz monitor en voor de rest relatief trage PC natuurlijk, dat heeft niet zoveel zin.. Voor 3440x1440 wat jij hebt kan je infeite alles kopen, tot aan de RTX 4090, zolang je processor etc ook maar uptodate en snel genoeg is.. Een AMD 7900XT zou voor jou de beste keuze zijn qua prijs/prestatie denk ik..
Tenzij je een RTX 4090 gaat gebruiken voor een 19201x1080 60Hz monitor en voor de rest relatief trage PC natuurlijk, dat heeft niet zoveel zin.
Dat is nog eens een breed scherm 😮

De power usage van een 4090 begint wel ronduit absurd te worden. Ik draai nu een 3080 maar hoef hierdoor niet meer te stoken in de winter.

In de zomer kost het wel een hoop omdat ik dan met een mobiele airco diezelfde hitte weer het huis uit moet blazen.
Waarschijnlijk een beetje een domme vraag... Maar ik game op 3440 x 1440. Moet ik dan eerder naar een kaart die 4K goed ondersteunt kijken, of 1440p?
Dat zit tussen 1440p en 4K in, maar dichter bij 1440p. Dus ik zou dan kijken naar een relatief zware 1440p kaart of een relatief lichte 4K kaart. Dus richting een 4070, 4080, 7900 XT of 7800 XT.
Ik zit in hetzelfde bootje.
Omdat het tussen 1440p en 4K inzit, halveer ik de 1440p framerate(de mijne is precies 2x1440p) en verdubbel ik doe van 4K om een beeld te krijgen van hoe de fps "schaalt" naar gelang het aantal pixels.
Zelf twijfel ik ernstig tussen 7900XT en XTX. Mijn 2070Super is nog van voor Corona en ik hoop weer 4 a 5 jaar te doen met de kaart.
Ik weet niet of die 10-20% zo veel extra "jaren" koopt, maar ik doe je graag meteen goed.
Wordt er in de tests ook gebruik gemaakt van DLSS waar mogelijk?
Nee, dlss en fsr vertroebelen de resultaten dusdanig dat ze altijd worden uitgezet voor dit soort vergelijkingen.
Maar dan heb je toch geen realistisch scenario, je zult het altijd uitproberen als je zo'n kaart hebt, alleen al omdat het erop zit. En als het bevalt blijft het aan.
nee echt niet dus.... jij gaat er al vanuit dat de SW enhancements de reden zijn om iets te kopen... jij gaat dus in heel de marketing hype mee en bent dus akkoord dat je voor 400eur een kaart krijgt die eigenlijk kwa hw maar 200eur waarde heeft maar met de SW pixel omvorming erop prestaties krijgt van een hogere kaart.
Dat kan toch prima de reden zijn om een kaart te kopen? Het is aan de reviewer om te duiden dat deze functionaliteit op de kaart zit en te laten zien of dat een verschil maakt, en dan kan de koper beslissen of hij of zij dat de prijs waard vindt. Maar bij voorbaat DLSS etc uit zetten lijkt me echt ongewenst.

Alsof je een auto test door alleen het gaspedaal en de rem te gebruiken in plaats van cruise control en lane assist omdat je anders geen BMW met een Lada kan vergelijken.

* piderman gaat bijzonder blij zijn met z'n RTX als de Ray Reconstruction in Cyberpunk 2077 komt met update 2.0 :Y)
Slechte vergelijking, die features van de auto maken de prestaties van de motor niet minder. Met die fratsen bij de gpu wel, de kwaliteit word minder .
En de een vindt DLSS performance goed genoeg, de ander wil enkel op DLSS quality spelen. En hoe vergelijk je dan AMD en nVIdia en Intel kaarten, want ze hebben elk hun eigen upscaling technieken?

En dan heb je nog het feit dat de ene game er beter uitziet met DLSS/FSR dan de andere.

Als je dan alle settings die er nu zijn (3resolutie x 2 of 3 quality settings = 6 of 9 benchmarks per game per GPU) ook nog eens met upscaling technieken wil opnemen (DLSS uit, performance, quality), dan zit je meteen aan 18 tot 27 benchmarks per game per GPU.

Dat is simpelweg niet bij te houden, en maakt de BBG totaal onoverzichtelijk.
Het kan voor jou de doorslag geven om toch voor Nvidia te kiezen, als jij alleen maar games speelt die DLSS ondersteunen. Ik kan hieruit niet opmaken of de 4060ti in DLSS-games wel een verstandige keuze is in vergelijking met de 6800(XT).
Dat gaat veel ver en is niet objectief te meten. Check de reviews van de kaart zelf naar de performance qua DLSS of check elders reviews over de qualitieit van DLSS vs FSR (per game).

Ik krijg eerder het idee dat mensen op hun teentjes zijn getrapt, doordat AMD nu goed naar voren komt.
Ik mis trouwens wel een advies in deze bbg mbt ray tracing. Aangezien Nvidia hier beter in scoort.
Bij iedere benchmark hebben ze toch ook DXR toegevoegd? Op basis van die benchmarks kun je denk ik zelf een besluit nemen.
Dan moet jij voor jezelf beslissen of je ook FSR zou willen gebruiken, en op welke setting.

Die setting bepaalt welke native resolutie er gebruikt wordt in DLSS/FSR, en die kan je terugvinden in de benchmarks, dat bepaalt dan jouw framerate.
Ik mis ook een mooie prestatie en prijs-prestatie chart voor DXR / raytracing. Nu is er wel genoeg data beschikbaar om die zelf na te maken, maar toch jammer dat die er niet bijzit.
Ah ja, een gpu met trukendoos en mindere kwaliteit is beter dan eentje die dezelfde performance bied op ruwe,kracht🙄
Je kan altijd upscaling nog toepassen. Zowel FSR als DLSS hebben een beperkte invloed op de gpu. Dus als je 1440p wilt gamen met een 1080p videokaart dmv upscaling, lekker doen 😁.

Waarom zou je los willen weten wat de prestaties zijn met upscaling?
Omdat het een realistische verwachting schept voor de meeste toepassingen.

Ik mis het in overzichten op youtube ook, al snap ik wel dat het per resolutie en instelling twee keer extra testen is (FSR/DLSS dienen imo beiden getest te worden).
En dan hebben we het nog niet over frame generation uit een der beider stallen.
Is dat hyperspecifiek? Niet echt, al snap ik dat het lastiger is om zuivere resultaten te laten zien.

Die technieken zijn er niet voor niets en ze niet meenemen vertekent net zo veel als alleen die resultaten meenemen.
Het beeld word er zelden beter van en daarom alleen al hoef ik ze niet perse getest te zien.
Het is IMO dan ook en/en, niet en/of.
Helemaal mee eens, als je FSR/DLSS moet gaan gebruiken verslechterd dat toch de beeld kwaliteit, bovendien is het in veel games ook nog eens later toegevoegd met een patch en werkt het vaak niet optimaal.

Je kan dan beter (in ieder geval in eerste instantie) een aparte FSR/DLSS review gaan houden met een paar kaarten en games die het liefst beide ondersteunen om te zien hoe goed FSR/DLSS werkt in die games.
Maar baseer je dan de 'performance' op kwaliteit of harde cijfers?

Een FSR op 'extreme performance' loopt rondjes om huidige FPS, maar de kwaliteit.. is daar net zo slecht in. Maar is hij dan goed, omdat hij hoge FPS haalt, of juist laag, omdat de kwaliteit van uiteindelijk resultaat slecht is? Wie bepaald immers 'wat er bevalt?'
Idd zonder dat zijn dergelijke tests nutteloos.
Dit is gewoon een realiteit net zoals frame generation dat je ook moet testen om een volledig beeld te krijgen
en dat maakt een dergelijke review dus nutteloos.
Je bedoelt een review waarin DLSS/FSR wordt aangezet, toch?

daarom moet het dus uitstaan: native performance is het enige dat telt want dat kan je 1 op 1 vergelijken, en als jij wel DLSS wilt gebruiken kan je de native performance relatief makkelijk mappen op performance met upscaling.
Nee, waar men daar geen rekening mee houd.
Dat is gewoon ene techniek die enorme verschillen kan geven zonder kwaliteitsverlies (of zelfs winst) daar geen rekening mee houden maakt een review nutteloos.

EN neen DLSS en FSR werken anders en reageren anders en die moet je dus zelf vergelijken, native performance zegt daar weinig. Starfield bijvoorbeeld medium 1080p met dlss is dat perfect speelbaar op een 4060 60-80 fps . Onder de 60-50 met een 6700 Xt of 7600 zelfs met fsr (wat er dan nog eens lechter uitziet).
Ok, het fanboyisme voor team groen druipt er overduidelijk vanaf, maar goed, ik zal toch maar antwoorden :+

Eerst schreeuw je met capslock dit stukje:
EN neen DLSS en FSR werken anders en reageren anders en die moet je dus zelf vergelijken
ok, je wil dus HEEL graag dat reviews FSR en DLSS aanzetten... maar dan roeptoeter je dit:
Onder de 60-50 met een 6700 Xt of 7600 zelfs met fsr (wat er dan nog eens lechter uitziet).
Maar snap je zelf nu niet dat je je hele eigen argument onderuit haalt?
Hier geef je zelf aan waarom DLSS en FSR niet kunnen worden gebruikt in reviews: hoe kan je 2 GPUs vergelijken als ze niet hetzelfde beeld renderen, en erger nog: 1 van de twee er duidelijk slechter uitziet?

Momenteel is het simpel: je vergelijkt bvb 1440p ultra op beide GPUs en de kaart met de hoogste FPS wint, maar wat met DLSS en FSR? Vergelijk je bij beiden de preset met de hoogste kwaliteit? Zo ja, wat dan als 1 van de twee een preset gebruikt met een veel lagere native resolution? Dat is een doorslaggevend voordeel. Of ga je de onderliggende native resolution op dezelfde waarde zetten? Dan negeer je weer de iets lagere kwaliteit van FSR: als een AMD kaart dan nipt een hogere framerate heeft is dat een oneerlijk resultaat want het beeld ziet er slechter uit.

DLSS en FSR zijn daarom dozen van pandora die buiten benchmarks moeten worden gehouden: tenslotte draait het erom dat je verschillende GPUs met elkaar kan vergelijken, en dat kan zonder FSR en DLSS in elke review aan te zetten: relatief zie je hier wat de echte performance is, en dat is objectieve informatie.

Als jij zelf weet dat je DLSS performance prima kwaliteit vindt, dan kan je de multiplier die dat oplevert zelf opzoeken, maar dat is geen objectieve informatie meer en hoort dus neit in benchmarks thuis.
Ok, het fanboyisme voor team groen druipt er overduidelijk vanaf, maar goed, ik zal toch maar antwoorden :+
Heb nochtans al meer AMD als NV kaarten gehad.
Maar snap je zelf nu niet dat je je hele eigen argument onderuit haalt?
Hier geef je zelf aan waarom DLSS en FSR niet kunnen worden gebruikt in reviews: hoe kan je 2 GPUs vergelijken als ze niet hetzelfde beeld renderen, en erger nog: 1 van de twee er duidelijk slechter uitziet?
Heel makkelijk : je geeft dat beeld. Ik weet het foto's nemen veel bandruimte en plaats in maar zijn wel de moeite.
Of wie weet een filmpje?
https://www.youtube.com/watch?v=Ekzxv7R3xTM
Momenteel is het simpel: je vergelijkt bvb 1440p ultra op beide GPUs en de kaart met de hoogste FPS wint, maar wat met DLSS en FSR? Vergelijk je bij beiden de preset met de hoogste kwaliteit? Zo ja, wat dan als 1 van de twee een preset gebruikt met een veel lagere native resolution? Dat is een doorslaggevend voordeel. Of ga je de onderliggende native resolution op dezelfde waarde zetten? Dan negeer je weer de iets lagere kwaliteit van FSR: als een AMD kaart dan nipt een hogere framerate heeft is dat een oneerlijk resultaat want het beeld ziet er slechter uit.
Hoe oud ben je? Beeldkwaliteit vergelijken was vroeger doodnormaal.

Is gewoon lui om bepaalde zaken die grote verschillen kunnen geven te negeren.
Maar nee tweakers doet gewoon mee met het inlepelen van simplisme: cijfertje tussen 1 en 10 en hoe hoger hoe beter.
DLSS en FSR zijn daarom dozen van pandora die buiten benchmarks moeten worden gehouden: tenslotte draait het erom dat je verschillende GPUs met elkaar kan vergelijken, en dat kan zonder FSR en DLSS in elke review aan te zetten: relatief zie je hier wat de echte performance is, en dat is objectieve informatie.
Absoluut onzin en gewoon negeren waar de industrie naartoe gaat. Spijtig genoeg geven tweakers reviews dan gewoon niet meer weer hoe gamers die kaarten gebruiken, want fsr en dlss worden wel degelijk veel gebruikt en terrecht en een tweakers review kan daar niks over zeggen.
@Trygve Ik mis in deze best Buy Guide het advies voor machine learning. Daarbij kan een kaart met 16GB en compute capability 8.x (NVIDIA) een duurdere AMD kaart soms met gemak verslaan.

Kun je ook een Best Buy Guide maken met een aantal populaire machine learning modellen?

En kijken wanneer je 8, 12, 16 of meer geheugen nodig hebt op je GPU. En of een kaart met 16GB dan sneller is dan twee met 8GB bijvoorbeeld.

Info waar staat 7.5, 8.x, etc. compute capability voor
https://docs.nvidia.com/c...html#compute-capabilities

Info welke kaart heeft welke capability
https://developer.nvidia.com/cuda-gpus#compute

[Reactie gewijzigd door djwice op 22 juli 2024 21:05]

De enige Nvidia kaarten met 16 GB of meer zijn de 4080 en 4090 en die zijn duurder dan de snelste AMD kaarten dus die opmerking snap ik niet...
Verder heb ik geen verstand van ml, denk dat het ook een beetje niche is voor een best buy guide.
categorie: Videokaarten

Ook de 4060 Ti is er met 16GB en die is te koop voor rond de €500,-.
Ohhh... Ja dat ding wat nergens op slaat. Ja ik vergeet soms dat die bestaat :P

Edit: ik begrijp dat die voor jouw doeleinde wellicht dus net wel interessant kan zijn, maar dat is dus echt een niche. Voor de meeste toepassingen slaat het ding nergens op (met de huidige prijs).

[Reactie gewijzigd door Finraziel op 22 juli 2024 21:05]

Snap ik, in gaming toepassingen is het aantal cores (zelfde type en architectuur) op dit moment nog belangrijker dan hoeveel VRAM.
En absurd dat ze €110,- meer rekenen voor slechts 8GB extra VRAM.

Maar bij het verwerken van veel data (als dat niet meer in 8GB VRAM past) ; grotere textures, veel ML variant data, foto realistische film scenes etc. kan het net uit maken, meer dan bijvoorbeeld twee grafische kaarten of overstappen op RAM (kan mijn NVIDIA kaart: als VRAM op is, spreekt is RAM aan via PCIe bus, ik kan instellen hoeveel).

Maar los daarvan is het interessant hem mee te nemen in de test de 4060 Ti 8GB verschilt in fps/watt maar 3% ofzo met de 4070, dus ook in die zin zou de 4060 TI 16GB de 4070 wel eens met kunnen verslaan.

Ook interessant is dat het een semi-passive model is. Wat ik in deze GPU test ook graag zou zien is, wat als we de GPU alleen passief blijven koelen, dus niet fan geluid accepteren. Hoe presteren ze dan onderling?

Om eerlijk te zijn weet ik niet hoeveel Tweakers community leden bezig zijn met Machine Learning en lokaal AI-modellen draaien. Ik zou bijna verwachten dat in iedergeval iedereen die nu IT (HBO en Universiteit) gaat studeren er al mee bezig is, ik ken 14 jarigen die op de middelbare school ook al machine learning modellen moeten trainen.

[Reactie gewijzigd door djwice op 22 juli 2024 21:05]

De geheugenbus van de 4060ti is niet snel genoeg om die 16gb goed te kunnen benutten.
Dat heb ik me eerder ook afgevraagd en kreeg daar een ander antwoord op dan jij nu geeft. Heb je een referentie hiervoor in welke situaties dit in de praktijk tot bandbreedte problemen leidt? De GPU van de 4060 TI 16GB draait in de basis bijvoorbeeld sneller dan de 4070.
Hij heeft 128bit bandbreedte, terwijl de 4070 192bit heeft. Bij 4k gamen of andere zaken waar bandbreedte wel nodig is ga je dat merken.

Ook gebruikt hij maar 8 pcie lanes. In principe zou dat geen probleem mogen vormen, maar in specifieke situaties als je nog een pcie3 mobo hebt kan het wel een ding zijn.
De geheugenbus van de 4060ti is niet snel genoeg om die 16gb goed te kunnen benutten.
Dat is misschien zo bij spellen, maar bij machine learning is dat anders. Daar moet het model volledig in het geheugen passen. Als je bijvoorbeeld Llama lokaal wilt draaien zul je 16 GB moeten hebben.

Natuurlijk is hij wat trager met een kleinere geheugenbus, maar zo extreem is dat effect niet.

Het hangt echter wel af wat je precies doet. Wanneer je de GPU alleen gebruikt voor beperkte tests en het daadwerkelijke model draait in de cloud, dan heb je niet zoveel VRAM nodig.
Heel specifiek maar fair :)
Zou best kunnen dat Nvidia specifiek gemikt heeft op de AI doelgroep met de 4060 Ti 16 GB :)
NVIDIA kaart: als VRAM op is, spreekt is RAM aan via PCIe bus, ik kan instellen hoeveel
Met wat doe je dat? Ik wil een nas maken war ik ook AI-upscaling wil gaan laten draaien, maar zit te twijfelen of ik het ga proberen met 12GB. Maar als die truc kan, dan wordt het een iets makkelijkere keus.
Met een el-cheapo "fuck de klanten, die kopen toch elke hoop stront die we durven te verkopen aan een te hoge prijs" geheugenbus van slechts 128 bits moet je dat onding echt negeren.
Ik ben voorlopig nog wel blij met m'n huidige kaart. Alleen jammer dat kaarten met 20+ GB voor machine learning zo prijzig zijn.

[Reactie gewijzigd door djwice op 22 juli 2024 21:05]

Geld niet over het algemeen dat voor ML/AI Nvidia de enige keus is? In de AI wereld heeft AMD op dit moment niks.
Dat is ook mijn indruk, daarom mis ik dit item in de best Buy Guide. Als je als startende student je PC bouwt en nog niet met AI geklust hebt maar dat volgende semester gaat doen, is het best balen als je op basis van deze best Buy Guide een mooie AMD gekocht hebt. @Trygve
ik ben benieuwd naar de volgende iteratie als de 7700 en 7800 verkrijgbaar zijn wat dat met het speelveld gaat doen qua prijs en price/performance, want Nvidia gaat hier wel op moeten reageren
... 7700 en 7800 ... , want Nvidia gaat hier wel op moeten reageren
Voor Nvidia is gaming bijzaak geworden, dus is "gaat hier wel op moeten reageren" een stukje 'oude manier van denken'(/wishful thinking).
ondanks dat het niet meer hun grootste tak is, zijn ze nog altijd marktleider en willen ze in de driver-seat zitten. Als ze hun marktaandeel laten verwateren zijn ze niet meer relevant en dat zou gewoon een domme beslissing zijn. Het is niet alsof de gaming-markt niet meer lucratief is.
Het is niet alsof de gaming-markt niet meer lucratief is.
Hun aandeel is door AI 3x over de kop gegaan, en het lijkt nog stijgende. Daarnaast geeft de 40-serie slechte resultaten, dus alles bij elkaar zou het me oprecht verassen als ze gaming/consumenten nog dezelfde aandacht gaan geven.
Hoe geeft de 40 serie slechte resultaten? Ja natuurlijk, de prijs/prestatie is niet wat we zouden willen, maar dat is al een tijd zo. Misschien ben ik te pessimistish, maar de 7800XT verwacht ik niet van dat hij sneller is dan de 4070. Als ze even snel zijn, krijg je 20% meer prestaties per Euro, wat natuurlijk mooi is, maar ook 30% meer energieverbruik per FPS.

Oftewel dan heb je een prima optie voor genoeg consumenten, maar technisch gezien kan je dan niet zeggen dat de 40 serie slechte resultaten biedt.
Ik snap even niet waarom je over techniek begint, de context was nvidia's bedrijfsresultaten en in dat opzicht presteert de 40 series slecht. De 4070 en 4080 willen niet verkopen dus die productie is stilgelegd, de 4090 is voor velen te duur dus die gaat het gat van verkoopvolume niet kunnen opvullen.

Deze generatie presteert heel slecht voor nvidia, maar de AI boom heeft het aandeel gigantisch in de lift gezet. Het zou me dus verbazen als ze nog een serieuze gooi doen naar de consumentenmarkt.
Ah je bedoelde slechte verkoopresultaten voor Nvidia. Zo begreep ik hem niet. Al neem ik zelf wel berichten over productie-stops met een korreltje zout. Hell dat verhaal komt uit Mei, lijkt mij sterk dat ze nu nog steeds productie stil hebben liggen.
Ik denk dat je onderschat hoe groot de orders zijn die worden geplaatst en hoe snel de chips worden gemaakt. Zo heeft Intel vermoedelijk maar 1 productierun gedaan voor de Arc-processoren en die worden al een lange tijd verkocht.
Zag gisteren bij Tom's hardware langskomen dat de 4060ti 16Gb 50 dollar in prijs gaat zakken. Ook is gewoon het stroomvebruik als je niet wilt undervolten (wat een loterij is) bij AMD bagger. Zoveel problemen valt er dus voor het goedlopende Nvidia niet te verwachten. En dan main selling point FSR3 dat ook gewoon op Nvidia kaarten gaat werken... tja.
Hulde aan amd, zou ik zeggen. Geen lockin dlss, maar wijd bruikbare fsr ..tja tja
Tja en dus met flink minder stroomverbruik te gebruiken op een Nvidia kaart ;)
Wat ook wel meevalt, zelden word het max verstookt tijdens gaming .
Dat kunnen we nog niet zeggen over FSR3. Het kan best zijn dat deze de videokaart meer benut en dus het wel flink meer stroom verbruikt
Als ze framegen gaan doen lijkt mij dat zeer sterk. We zullen zien. Btw, ik doel niet perse op fsr, maar gaming in het algemeen. Sommige spellen draai ik met 40watt van de gpu, je lacht je dood

[Reactie gewijzigd door Madrox op 22 juli 2024 21:05]

Waarom word er bij "Beste gpu voor 1080p-gaming met hoge refreshrate" vergeleken tussen de 6700XT en de 6800XT terwijl de 6800 buiten beschouwing gehouden wordt ? De 6800 lijkt me juist de gulden middenweg tussen die 2 kaarten.
Daar ontgaat mij ook de logica. Temeer omdat de 6800XT ook flink meer verbruikt.

De 6800 verbruikt daarentegen nauwelijks meer dan de 6700XT, maar levert wel (meer dan) evenredig veel extra performance voor de extra Euro’s die deze kaart kost.

Ook voor 1440p is het de perfecte instapkaart als een 6800XT je net wat te duur of te dorstig is.

Ik heb het al vaker genoemd in de commentaren: de 6700XT biedt absoluut goede prestaties voor z’n prijsstelling, maar doordat de prestaties geleverd worden dankzij z’n hoge kloksnelheid, is het verbruik een negatieve uitschieter.

En dan is de 6800 ook nog vrij eenvoudig naar 200W te undervolten.
Wat die overigens vaak niet verbruikt maar stukken minder is mijn ervaring
Ik krijg trouwens mijn AMD 6700XT met een undervolt naar 1100 mv @ 2650hz op circa 130 watt. Standaard draait hij op 190 watt (1200@2705).

Ik vraag me dan ook altijd af of AMD zijn kaarten niet te lomp afstelt qua mhz en mv, alleen maar om te kunnen concurreren met Nvidia en zodat alle kaarten foutloos werken.
Waarom wel de 3070 en 3060 meegenomen in de test, maar niet de 3080?
Ja die mis ik ook, samen met de 3080 TI.
Juist in een BBG had ik een kijkje naar de tweedehands markt verwacht waar de 3080 in overvloed is voor 500 euro of lager. Erg relevant aangezien deze nek-aan-nek gaat met de 4070.
Ik was ook opzoek naar de 3080 in de lijst - de 10GB, 12GB en Ti versie...
Ik zag juist dat de 4070ti de laatste tijd weer in prijs aan het stijgen is. Voor de zomer stonden er diverse voor 799,-, nu is de goedkoopste 849,-.
Hoe zou dit komen?

[Reactie gewijzigd door Ricardos777 op 22 juli 2024 21:05]

Misschien om de prijs gelijk te trekken met de 7900XT? Wie weet komt er ook een cashback aan en verhogen ze nog snel even de prijs :)
Black Friday komt eraan (2+ maanden), en dan moeten ze meer dan 1 maand een prijs hebben voor het een aanbieding kan heten? :D
Nvidia is productie aan het verlagen om meer schaarste te creëren en de prijs op te drijven ;)

Op dit item kan niet meer gereageerd worden.