Door Tomas Hochstenbach en Reinoud Dik

RTX 3060 Ti & RTX 3070 Round-up

Negen middenklassers op de testbank

31-12-2020 • 06:00

198

Singlepage-opmaak

Conclusie

Update 31-12-2020 13:26

In eerste instantie werd er in deze review abusievelijk gesproken over de Gigabyte RTX 3060 Ti Gaming OC. De geteste versie betreft echter de RTX 3060 Ti Gaming OC Pro. Het artikel is hierop aangepast. Onze excuses voor het ongemak.

Hoewel veel aandacht naar het high-end segment gaat, bouwt Nvidia zijn RTX 30-serie gestaag uit naar steeds lagere segmenten. In het laatste kwartaal van 2020 introduceerde het bedrijf de GeForce RTX 3070 en RTX 3060 Ti, en naar verluidt hoeven we ook niet lang meer te wachten op een 'reguliere' RTX 3060. Met de nieuwe kaarten krijg je ontegenzeggelijk meer waard voor je geld dan met de vorige generatie, die overigens sowieso niet langer een alternatief vormt, maar de officiële adviesprijzen lijken veel te optimistisch. Zelfs als de tekorten eenmaal zijn opgelost, hebben we er een hard hoofd in dat je een RTX 3060 Ti voor 419 euro kunt aanschaffen, zeker nu Nvidia de prijsdruk van de ketel heeft gehaald door te stoppen met de directe verkoop van Founders Editions.

De beste RTX 3060 Ti's

Van de twee gpu's die we in deze review de revue hebben laten passeren, is de RTX 3060 Ti eigenlijk de interessantste. De snelste 3060 Ti is slechts 11% langzamer dan de langzaamste RTX 3070, een verschil dat in de praktijk gevaarlijk dicht bij de grens van merkbaarheid ligt.

De Excellent-awards in deze categorie gaan naar de MSI RTX 3060 Ti Gaming X Trio en de Gigabyte RTX 3060 Ti Gaming OC Pro, die uitgaande van de adviesprijs even duur zijn. Ze zijn beide bloedsnel, maar de MSI-kaart heeft duidelijk de betere koeler en is daardoor fluisterstil. De kaart van Gigabyte is echter wat compacter, heeft een dubbele bios en biedt een tweede hdmi-poort. Dat maakt hem tot de betere keuze voor wie één of meerdere van die zaken kan waarderen of zelfs nodig heeft.

De Great Value-award gaat naar de nog wat goedkopere Inno3D iChill X3 Red, die qua koeling prima meekomt met de Gigabyte-kaart. Het gemis van een tweede bios vinden we niet groot - bij de Gigabyte-kaart is de quiet mode sowieso de enige die je zou willen gebruiken - maar je moet er wel rekening mee houden dat deze kaart fysiek wat forser is.

De beste RTX 3070's

Bij de RTX 3070's is de ASUS ROG Strix OC de afgetekende winnaar. Zowel qua prestaties als koeling gaat deze kaart eenzaam aan de top, terwijl je ook nog profiteert van extra features als een dubbele bios, FanConnect en een groot aantal monitoraansluitingen. Een Excellent-award is op zijn plaats, al hopen we wel dat de prijs nog wat omlaag gaat als de verkrijgbaarheid eenmaal beter wordt.

In dit segment laten Gigabyte en MSI het een beetje liggen - de koeler op de Gaming OC is ondermaats, terwijl de Gaming X Trio beneden verwachting presteert. Nu komt de iChill X3 op die gebieden ook niet in de buurt van de ASUS, maar daar hangt Inno3D wel een veel passender prijskaartje aan, waardoor de prijs-prestatieverhouding een stuk schappelijker is. Bovendien is de RTX 3070 iChill X3 in tegenstelling tot de 3060 Ti-versie voorzien van instelbare rgb-verlichting die we gerust uitbundig durven te noemen. Ook de RTX 3070 van Inno3D gaat zodoende naar huis met een Great Value-award op zak.

Lees meer

Reacties (198)

198
193
122
20
0
40
Wijzig sortering
Ik mis nu vergelijkings info met andere videokaarten zoals een 2080 super, 2080 ti en een 3070...

Volgens GPU Userbenchmark:

+6% presetatie dan RTX2070 super

-5% presetatie dan RTX2080 super
-11% presetatie dan RTX2080 Titan

Bron: https://gpu.userbenchmark...TX-2070S-Super/4090vs4048

[Reactie gewijzigd door Mic2000 op 22 juli 2024 14:16]

Userbenchmark is een erg slechte bron voor benchmarks. Enkel voor de CPU deelscores kan je er wat mee imho.

Kijk bijvoorbeeld naar techpowerup / anandtech / techspot / etc.;

https://www.techpowerup.c...-founders-edition/35.html

https://www.techspot.com/review/2155-geforce-rtx-3060-ti/

150-200% sneller dan een 1060
100% sneller dan een 1070 / 1660 Super
45% sneller dan een 2060 Super
20% sneller dan een 2070 Super
5% sneller dan een 2080 Super
13-15% langzamer dan een 2080Ti / 3070.
24% langzamer dan een 6800

[Reactie gewijzigd door lasty82 op 22 juli 2024 14:16]

Userbenchmark is juist bekend om zijn onbetrouwbare CPU benchmarks, alhoewel zijn de GPU benchmarks ook redelijk onbetrouwbaar. Komt vanwege het feit dat het allemaal verschillende systemen zijn. Zo kan het bijvoorbeeld ook dat iemand zijn CPU of GPU erg sloom laat draaien, waardoor het gemiddelde van dat onderdeel omlaag gaat.

Zo is bijvoorbeeld een 10900k sneller dan een 5900x volgens Userbenchmark. Dat terwijl volgens vele andere benchmarks bewijzen dat de 5900x hogere prestaties krijgt in meer games dan niet en snellere single- en multicore prestaties heeft dan de 10900k.

Hoewel is Userbenchmark een goede tool om je PC te vergelijken met die van anderen (om te kijken of je pc normaal presteert of niet).
"Userbenchmark is een erg slechte bron voor benchmarks. Enkel voor de CPU deelscores kan je er wat mee imho."

CPU deelscores op userbenchmark; 5900X heeft gewoon op alle items hogere scores tov de 10900K.
Zo is bijvoorbeeld een 10900k sneller dan een 5900x volgens Userbenchmark. Dat terwijl volgens vele andere benchmarks bewijzen dat de 5900x hogere prestaties krijgt in meer games dan niet en snellere single- en multicore prestaties heeft dan de 10900k.
Bij userbenchmark is juist de 5900X bij elke syntethische test sneller dan de 10900K: https://cpu.userbenchmark...-Ryzen-9-5900X/4071vs4087

Ondertussen is bij de gaming benchmarks van TPU de 10900K sneller https://www.techpowerup.com/review/amd-ryzen-9-5900x/17.html

Samengevat precies omgekeerd van hetgeen jij beschrijft.

[Reactie gewijzigd door sdk1985 op 22 juli 2024 14:16]

Dat was ook mijn gedachte. De meeste mensen zitten nog op Pascal een deel op Turing kaarten. Het is in eerste instantie toch veel interessanter om te weten hoeveel extra prestaties deze kaarten opleveren tegenover wat men heeft.

Ik zou zelf een 1060, 2060, 1070, 1080 en 2080 mee hebben genomen in de grafieken. Zo kunnen eigenaren van deze kaarten zien wat ze kunnen verwachten en de totale prijs tegen hun eigen verwachte performance toename zetten.

Zo heb ik twee game pc's 1080Ti en 2080Ti, een 3070 levert tov die eerste bij de meeste games zo'n 20% betere prestaties, met uitschieters naar 30%. Op 1440p haalt die eerste echter bij al mijn games al minimaal 60fps en aan die pc hangt een 60Hz freesync paneel. Dus een upgrade is uiteindelijk niet nuttig. Dat is info die ik uit deze review absoluut niet kan halen.

Sterker nog, tenzij ik helemaal scheel kijk zie ik alleen een nutteloze synthetische benchmark en te behaalde boostclocks. Aangezien prestaties niet lineair schalen met de boost klok, kan ik hier helemaal niets mee!

Even terug naar de tekentafel hoe jullie GPUs testen.
Vreemd om de 2070 over te slaan in je comment. Met de rest ga ik mee.
Ik zou zelf een 1060, 2060, 1070, 1080 en 2080 mee hebben genomen in de grafieken. Zo kunnen eigenaren van deze kaarten zien wat ze kunnen verwachten en de totale prijs tegen hun eigen verwachte performance toename zetten.
De insteek is vermoedelijk dat deze review puur gaat over welke AIB variant het beste is. Er is eerder een algemene review van de 3060 Ti gepubliceerd: reviews: Nvidia GeForce RTX 3060 Ti - Ampere gaat mainstream

In die review staan meer kaarten waaronder de 1060, 1070, 1080, 0260, 2070, 1080 ti, enz.
Anoniem: 63072 @sdk19852 januari 2021 11:07
Dat zal ongetwijfeld de insteek zijn geweest, maar ik vrees dat ze daarmee de plank volledig misgeslagen hebben.

Elders verdedigen ze bijvoorbeeld het alleen vergelijken van de kloksnelheid door te stellen dat dit maatgevend is voor de prestaties. Grotere onzin heb ik nog nooit gehoord. Ik heb nog nooit een GPU gehad die lineair schaalt met de frequentie. En als je een goed voorbeeld wil van waardeloos schalen met frequentie: Vega 56/64 schaalde heel slecht met de GPU frequentie, als je daarentegen de geheugen frequentie verhoogde dan was de winst aanzienlijk. Hetzelfde met mijn RX580, ik onderklokte de GPU een beetje, overklokte het geheugen en het resultaat was betere prestaties bij een lager stroomverbruik en minder herrie.

Een review zonder fps is dus verspilling van bandbreedte.

Daarnaast heb ik - en ik ga er maar even vanuit dat ik daar niet bijzonder in ben - geen enkele behoefte om zelf met de hand twee reviews te gaan combineren die niet eens dezelfde benchmarks gebruiken, noch dezelfde resultaten laten zien om te kunnen beoordelen of een upgrade de moeite waard is.

Goede bedoelingen zonder goede uitvoering zijn waardeloos en ik kan dit artikel dan ook niet anders dan met een :( beoordelen.
Niet testen op fps is inderdaad een gemiste kans. Ik herriner mij de MSI 660 Ti PE waarbij de memory clocks belangrijker bleken dan de core clocks en hierdoor de kaart met de laagste core clock alsnog de hoogste fps noteerde; https://www.techpowerup.c...-ti-power-edition/31.html
Daarvoor kun je beter kijken naar de algemene reviews van RTX3060Ti en de 3070 waarnaar in het artikel ook gelinkt wordt onder het kopje "Inleiding".
Vind dit een vreemd format van hardware reviews zonder te weten op welke resolutie met enige hint naar de game instellingen om iets met deze data te kunnen. Ik zal wel weer is iets over het hoofd hebben gezien.
Ik heb dus precies hetzelfde. Ik zat te zoeken naar de resolutie en fps, maar kon niets vinden. Persoonlijk had ik dat handiger gevonden. Ook vind ik het fijner om in 1 oog opslag te zien wat het scheelt met een andere videokaart.
De resolutie wordt genoemd in de inleiding. 1440p

De instellingen zijn inderdaad ver te zoeken.
Thanks, heb de inleiding gelezen en er ook deels overheen gelezen, meden om dat ik het las en nog steeds lees als refereren naar een voorgaande test die op 1440p en Ultra settings is gedaan waar naar toe gelinkt word.
Het doet misschien wat vreemd aan om de custom kaarten gebaseerd op twee verschillende Nvidia-ontwerpen in één round-up te behandelen, maar op velerlei gebied zijn de RTX 3060 Ti en RTX 3070 zeer goed vergelijkbaar. Ze maken allebei gebruik van dezelfde GA104-gpu, die bij de RTX 3070 voor een wat groter deel is ingeschakeld, en hebben zelfs een volledig identieke geheugenconfiguratie. In onze prestatiescore voor 1440p ultra, toch wel de resolutie die het meest voor de hand ligt bij deze kaarten, was het onderlinge verschil slechts tien procent.
Miscchien zie ik het verkeerd, maar ben van mening dat deze informatie gewoon onderdeel vande Testverantwoording had moeten wezen of voor overzichtelijkheid vermeld had moeten staan boven aan de twee prestaties resultaten pagina's.
In dat laatste geef ik je helemaal gelijk. Weet je meteen waar je aan toe bent qua metingen.
Nu is het inderdaad nogal zoeken.
Een artikel als deze is naar mijn idee vooral om de kaarten onderling te vergelijken, agnostisch van de game en instellingen daarvan. Zolang alle kaarten dezelfde game met dezelfde instelling hebben, kun je een goede vergelijking maken. Ik zou dan ook zeker niet de fps waarden van de games in dit artikel gebruiken om te schatten hoeveel fps jij of ik in die game met dezelfde kaart zouden gebruiken...
En waar zijn de FPS vergelijkingen? En de vergelijkingen met bijv de 2060/2070?. Ik vind kloksnelheden totaal niet interessant.
Dat laatste is ietwat tegenstrijdig, want bij videokaarten met dezelfde gpu is de framerate in principe niet meer dan een afgeleide van de kloksnelheid, waarbij laatstgenoemde preciezer te meten is. Maar om je inhoudelijk op weg te helpen: uitgebreide benchmarks van de RTX 3060 Ti en allerlei andere/oudere videokaarten, waaronder ook de RTX 2060 en 2070, vind je in onze eerder gepubliceerde review. In een round-up van videokaarten gebaseerd op dezelfde gpu zijn dergelijke vergelijkingen niet op z'n plaats, daar leent de testmethode van onze gpu-reviews zich veel beter voor.
Vreemde keuze om de prestaties te vergelijken in kloksnelheid. Waarom niet in FPS? Dan hebben we gelijk informatie waar we een aankoop op kunnen baseren
de verschillen in fps zullen aardig klein zijn gezien het in principe dezelfde kaarten zijn, maar met andere koeling en powerfeatures. Een FPS test zal dan ook in de buurt zitten van meetfouten waardoor het niet echt meerwaarde geeft.
Maar fps zijn tastbaar en het hele punt van grafische kaarten, en zijn mede een gevolg van kloksnelh idz maar ni man's die tijdens een potje gamen de kloksnelheden gaat controleren.

Mij persoonlijk kan het geen ruk schelen of een GPU de 10 gigahertz of 1 Megahertz aantiktz enkel fps telt.

En potentiële koper wil ook graag zien of de verscill n onderling groot genoeg zijn om voor een groot n bepaald model te gaan. Of het verschil in FPS dusdanig klein is dat het de meerprijs van een beter model waard is of niet, dat lukt me belangrijker dan de kloksnelheden.
Maar tenzij er een kaart bijzit die echt zwaar bagger is zal dat verschil nooit heel groot zijn, dat kunnen we je zo vertellen. Je keuze kan dan beter afhangen van andere zaken zoals geluidsproductie en prijs.
En als een kaart echt bagger zou zijn dan komt dat ook naar voren in de kloksnelheid. Die kloksnelheid is wel weer interessant voor wie wel graag elk procentje er uit wil persen (maar dan weer niet voor een duurdere kaart gaat... Ja ik snap die doelgroep ook niet zo maar hij is er wel).
welke kloksnelheid beoordeel je dan? de "oc" clocks van fabrikanten liggen veelal onder de boost frequenties. En wanneer je boost frequenties gaat meten ben je (deels) de silicon lottery aan het beproeven.
in beide gevallen bied het de consument niets wat hij/zij niet in de advertentietekst van een videokaart kan lezen, of wat bij zijn/haar exemplaar anders kan zijn.

Cooler, PCB en VRM design zouden significant kunnen zijn (en daar zit vaak ook het prijsverschil), echter is deze review niet diepgaand genoeg daarin. Dit uit zich natuurlijk allemaal in de klokfrequenties, maar daar zit zoveel tussen wat niet altijd gecontroleerd kan worden dat je foutmarge niets kleiner is dan gewoon de prestaties (FPS) van de kaarten vergelijken.

[Reactie gewijzigd door kid1988 op 22 juli 2024 14:16]

De onderlinge vergelijking is inderdaad prima te doen met de boostclocks. Dat zegt genoeg over de onderlinge prestatieverschillen. Wat ik echter mis is een baseline FPS. Het is leuk dat ik nu weet welke variant de snelste is en welke de stilste maar nu moet ik alsnog een andere benchmark gaan opzoeken om er achter te komen of de 3060Ti of 3070 voor mij uberhaupt wel interessant is.
Maar dan hebben de tests toch sowieso geen nut in jouw voorbeeld, want welke test je ook gebruikt, de verschillen gaan klein zijn...toch?

Dan kan je het beter in een nummer uitdrukken waar wij echt wat aan hebben. En inderdaad, vergelijking met andere kaarten zou echt super geweest zijn....
True, maar mensen kijken naar fps, maar langs de andere kant dat wordt ook beïnvloed door de gebruikte nvidia driver, moederbord, cpu, temperatuur in de kamer etc. Dus ik snap best wel waarom, maar een 2de grafiek met fps bij zou ook mooi zijn. Nuja velen kopen ook gewoon wat maximaal haalbaar is om zo een paar jaar verder te kunnen en dan kan fps ook wel nuttig zijn. Omdat je kan zien dat kaart X in meeste games wel een paar ftps meer haalt.

Persoonlijk kijk ik naar stroomverbruik, geluidsproductie en zal ik altijd voor een Asus of EVGA kaart gaan.
Wat ik wel nog mis is stroomverbruik met 2 schermen, dat is iets waar dikwijls niet veel aandacht aan besteed wordt (nergens trouwens). Nuja ik denk dat mensen met 2 schermen wel sterk in de minderheid zijn. Zeker nu met de opkomst van grote schermen. Maar stroomverbruik is voor vele niet belangrijk, maar als je 10-12u per dag een pc hebt opstaan, doe dat aan minstens 250 dagen op een jaar, dan kom je al gemakkelijk uit op 25-30kwh op jaarbasis. Voor een enkel scherm geteld aan dat je grafische kaart slechts 10kwh de hele tijd gebruikt. In mijn geval is gaming bijzaak en is dit casual, maar de pc dient wel om te werken. Als je bijvoorbeeld 200 dagen (aan 4u/dag) gaat gamen op een jaar en je kaart gebruikt 200w dan komt je uit op slechts een 8kwh. Maar dus met 2 schermen zou ik dan al op 50-60kwh komen alleen voor de videokaart om de schermen aan te sturen. Dit is uiteraard noodzakelijk, maar hier een paar kwh en daar een paar kwh kan op een jaar een aardig pak schelen op je eindfactuur (zeker hier in België). Dat ik 2 fps met een andere kaart kan meer halen, zal me eigenlijk een worst wezen. Maar 5watt minder per uur voor 2 schermen zal al snel zo een 12 kwh/jaar schelen. En dat is slechts op de videokaart alleen al. Ik ben zeker niet zo een groene jongen, heb wel zonnepanelen, maar probeer toch altijd wat te besparen op verbruik. Maar een hobby is een hobby uiteraard, maar hier is het zowel werk als hobby en dat is toch al wat anders
Hoe kom jij aan 900 Kwh? Een modern 27"scherm verbruikt bij normale helderheid nog geen 25 watt:
https://nl.hardware.info/...850.537079#testresultaten

250 dagen * 12 uur * 2 * 25 = 150 Kwh.
Ik heb 2x dell 27 U2715H
Even opgezocht, is 36w met maximaal 88w als je de usb hub gebruikt en maximale lichtsterkte. De usb hub gebruik ik op 1 scherm, maar laat ons er vanuit gaan dat we aan 75w zitten

Dus 250 dagen * 10u * 1 scherm * aan 75 w = 187kwh voor 1 scherm maximaal
Als het maar 40w doet dan komen we aan aan 100kwh

Ik heb deze nu 2-3 jaar ofzo, en ben er best tevreden van, maar 1 4k scherm zal er toch eind 2021 / begin 2022 komen, gewoon professioneel, aangezien het toch meer gemeengoed begint te worden.
Of misschien beide vervangen door een 49inch, zullen dan wel zien, maar momenteel nog niet aan de orde.
Ik heb goed nieuws voor je, het werkelijke stroomverbruik is een stuk lager, zie de onderstaande test van de U2715H: waar de fabrikant maximaal 88watt specificeert (voor zowel USB hub bij maximaal verbruik + de Dell SoundBar), verbruikt deze monitor bij maximale helderheid op 40.1 watt en gekalibreerd op normale helderheid slechts 19.1 watt. Tel daar nog pakweg 5 watt op voor gemiddeld USB verbruik en het verbruik ziet er toch al een stuk zonniger uit, nietwaar?

https://www.tftcentral.co.uk/reviews/dell_u2715h.htm#power

Fijne monitoren overigens, junior heeft ook een U2715H en zelf heb ik de U2515H als 2e monitor.
Ja leuk om te weten, in elk geval deze schermen zijn echt goed. Daarom dat ik niet gehaast ben om te upgraden, voortreffelijk beeld
Dingen gewoon noemen zonder berekeningen te geven is wel erg slap want ik kan nergens vertellen waar je fout zit maar dat je fout zit kan je zelf ook wel begrijpen als je weet wat een gemiddeld huishouden per jaar aan stroom verbruikt (2800kWh).
Ga je zelf niet interessanter maken dan je wijs bent.
200watt 2.5 uur per dag voor 365? (182.5kWh of bedoelde je 2.1917 uur per dag gemiddeld) dus dan gebruikt een monitor volgens jou ~5.6* meer vermogen dan een videokaart :)
Een 40inch lcd tv gebruikt gemiddeld per jaar 91kWh (gem. 4 uur per dag aan)....
In dat geval zal je eerst bij een andere vergelijking beginnen waarmee je bepaald welke videokaart je wilt, 3060ti of een 3080 bijvoorbeeld. Vervolgens kom je hier uit om te bepalen welke van de verschillende 3060ti's je dan zou willen hebben gebasseerd op andere variabelen. Een 3060ti is een 3060ti en je gaat er van uit dat ze allemaal binnen een bepaalde marge opereren.

De variabelen die er dan nog toe doen bij het keizen tussen verschillende merken en typen zijn zaken als geluidsproductie, temperatuur en stroomverbruik.
Helemaal correct, dat je een benchmark anders wil aanpakken is geen probleem, maar nu weet ik niet of deze kaarten helemaal goed zijn met Cyberpunk 2077. Onlangs was er hier een artikel als dat dit een van de zwaarste games is die er is en dat je heel wat nodig hebt om dit op high settings te draaien. Dat zou een zeer goed benchmark zijn en kan nog als game in je benchmark lijst zeker nog even mee. Zeker als je kijkt hoe relevant die game is.

Weer eens moet ik op een ander mijn informatie gaan halen... weer een gemiste kans.
Dat is gek, want ik speel hem prima op een 4 jaar oude rx480 die toen 300 euro kostte.
Draait anders gewoon goed op een RTX 3070, en onspeelbaar... Er zijn wat glitches maar ik heb de hele game zonder al te grote problemen uitgespeeld. Op fullhd met high settings meer dan speelbaar, met raytracing aan is er wel een impact dus die heb ik uit gelaten. Als een note hierop ik ben midden in de game overgestapt van een GTX 1070ti naar de RTX 3070, zelfs op fullhd medium is die meer dan speelbaar op een 1070ti.

[Reactie gewijzigd door Bjornmeijer935 op 22 juli 2024 14:16]

Ik heb het niet over FPS. Ik speel zelf stabiel op 30fps met een Radeon 580. Ik heb het over de game breaking bugs en glitches.
Ik ben er geen tegen gekomen, hooguit soms wat vervelende glitches dat je bijvoorbeeld in combat mode blijft, maar als je ver genoeg weg gaat lost dat zichzelf ook op.
Laat maar weer zien hoe totaal willekeurig bugs kunnen optreden 😉
Welke game breaking bugs ben je tegengekomen?
Bijvoorbeeld een NPC die niet verscheen (ik geloof dat het die ripperdock was aan het begin), ook niet na de vorige save te laden. Of wat dacht je van een gesprek (bij dat winkelcentrum, MIG of zoiets) dat niet wilde starten waardoor ik niet aan een missie kon beginnen? En dan heb ik het nog niet over werkelijk iedere boss die niet terugschiet. Niet game-breaking, maar de game wordt er niet leuker op. Je kunt praktisch iedere missie gewoon brute-forcen met granaten gooien en rennen van checkpoint naar checkpoint. Niet echt goed doordacht 😅

[Reactie gewijzigd door Kastermaster op 22 juli 2024 14:16]

Je hebt cyberpunk dus nog niet gekocht. Had je dat wel gedaan had je gezien dat dat allemaal heel erg mee valt en dat de game prima speelbaar is. Op een 3080 zeker!
Ik heb het gekocht, maar ben meerdere game breaking bugs tegengekomen. Bijv een garage die je niet meer uit kan. Het is deels geluk hoe speelbaar het is.
Wat je nou noemt heeft nu helemaal niets met speelbaarheid te maken.

"Ik heb de game wel degelijk gekocht en de game is nagenoeg onspeelbaar"
"Ik heb de game uitgespeeld in een uur of 25"

Dat is het kromste argument ooit. Dat is juist een statement wat laat zien dat het spel SPEELbaar is.

Ik snap je emotie wel. Heb het spel ook gekocht en weggelegd (voor nu) om dat het "broken"* is op allerlei vlakken (AI, driving, balance, RPG?!, non-keuze). En soms zelfs intentioneel zo lijkt het smart/tech guns, die altijd raak of door verdediging heen schiet. Maar wat in de regel wel werkt is de speelbaarheid (PC), zelfs op mijn zwakke i5 3570k+1060 3GB loopt het zonder crashes of gamebreaking bugs (nog geen quest die ik niet heb uit kunnen spelen).

*Dat maakt het dat het iig in mijn optiek een slecht spel is. Maar het is op de PC iig prima speelbaar. Op consoles is het bijna onspeelbaar vanwege de constante game breaking bugs en hard crashes.
Ik snap je reactie. Ben het er ook deels mee eens zelfs. Maar als je oudere saves nodig hebt om de game uit te kunnen spelen, omdat NPC's niet opdagen in je 'huidige' save, vind ik pijnlijk en noem ik toch wel game breaking.
Met die gedachte had ik daarom ook mijn keuze voor een RTX 3070 vooral gebaseerd op welke combinatie van koeler en plastic ik er het mooist uit vond zien i.p.v. te wachten op uitgebreide reviews. Uit verschillende reviews die in de tussentijd zijn uitgekomen blijkt dat mijn keuze voor de MSI RTX 3070 Ventus 3X OC strikt genomen niet de allerbeste is. Maar uiteindelijk lijkt het niet heel veel uit te maken.

Achteraf blijkt mijn grootste fout het niet kiezen van een kaart van Gigabyte. Het lijkt er op dat ze veruit de meeste kaarten leveren aan Nederlandse winkels in vergelijking met de andere bekende merken.
Dan hebben we gelijk informatie waar we een aankoop op kunnen baseren
Nog handiger zou zijn om er even wat andere kaarten naast te zetten ter vergelijking. Een 1080 (ti), 2080(ti), 3080 bijvoorbeeld. Nu zie ik alleen kaarten die allen hetzelfde presteren. 8)7
Dat is ook de reden voor deze round-up.
De kaarten vergelijken met andere 3060 ti/3070's van de verschillende merken.

Als je wil weten hoe een 3060 ti presteert tov de rest, dan heb je de algemene round-up.
reviews: Nvidia GeForce RTX 3060 Ti - Ampere gaat mainstream

Dat een merk 3% sneller is, maakt niet veel uit, bij die 2080 heb je ook diezelfde varianten die dan ook weer 3% sneller zijn dan de 2080 founder edition..
Anders krijg je een grafiek van hier tot in Tokio :9

[Reactie gewijzigd door SmokingCrop op 22 juli 2024 14:16]

Inderdaad dat had ik ook, en vind de prestaties van de MSI RTX 3070 ook tegen vallen, of Asus heeft het nu gewoon beter voor elkaar :)
Akkoord. Het doel van een grafische kaart is om zoveel mogelijk frames eruit te pushen, niet om een zo groot mogelijke kloksnelheid te halen. De kloksnelheid zegt een gewone gebruiker niets, met frames per seconde kan je toch al iets voorstellen. Het zal technisch-objectief wel allemaal knoppen, maar het is niet omdat je het juist kan meten dat je er ook iets aan hebt. Het is alsof je een stofzuiger zou testen op basis van de omwentelingen die de motor maakt per minuut - en niet op de zuigkracht.

Dat de FPS allemaal in dezelfde buurt zouden komen, vind ik dan weer wel nuttige informatie. Waarom zou je meer betalen voor een kaart als ze dan toch bijna allemaal dezelfde prestaties leveren? Iets grotere verschillen in kloksnelheden meten om het geringe verschil in FPS te maskeren lijkt me dan vrij onzinnig.
Die kloksnelheden maken eigenlijk ook niets uit, net als die FPS'en niet echt veel uitmaken (om deze kaarten van dezelfde 3060/3070 chip 1 op 1 te vergelijken).
Je speelt gewoon de silicon lotterij.
Je kan exact dezelfde kaart kopen en het kan op exact dezelfde test 50Mhz hoger of lager zijn.
Je koopt immers bv. een kaart die rated is voor bv. 1850Mhz. Dat die kaart dan nog boost tot 1950Mhz, dat is eigenlijk gewoon geluk hebben.

Als ze dit echt willen testen, zouden ze met veel meer kaarten moeten testen (dus bv. 10x msi rtx 3060 ti gaming trio en dat vanuit verschillende batches/winkels).

Het enige belangrijke uit deze test is voor mij pagina 8: koelefficiëntie (en misschien het stroomverbruik)
Dan heb je de beste koeler. De rest is gokken.

(je zou bv. wel rekening kunnen houden om een high end model te kiezen, daar ze die wel een beetje gebinned zullen hebben zodat ze die met een iets hogere clock op de markt kunnen zetten. Die gaan gemiddeld ook wel iets verder boosten)

[Reactie gewijzigd door SmokingCrop op 22 juli 2024 14:16]

De volgende videotjes zijn ook wel nuttig:
50 RTX 3060 Ti modellen: https://www.youtube.com/watch?v=9N4_dMHpu1I
38 RTX 3070 modellen: https://www.youtube.com/watch?v=N3lfXsa08CY

Ik wacht eigenlijk op de komst van een 3060 Ti of 3070 met 12GB.

Vraagje: het merk Colorful is in Nederland niet verkrijgbaar?

[Reactie gewijzigd door lordsnow op 22 juli 2024 14:16]

"Wel nuttig".


Jezus, wat een berg informatie.

Tweakers, kijken we even mee? Dít is premium artikel info. Gewoon even 50 modellen vergeleken op specs, power limit en koelprestaties.
Dat vind ik best tegenvallen, die youtuber test niets, kijkt alleen naar andermans data en maakt er een eigen grafiekje van, data die mogelijk niet eens vergelijkbaar is, tenzij alle tests die hij vergelijkt in gelijke condities zijn gedaan.

Nee, het is leuk om naar te kijken, maar zoiets zou ik echt niet onder de noemer premium willen scharen. Leuk knip en plak werk, maar niet meer dan dat. Ik had het premium kunnen vinden als hij daadwerkelijk zelf alle kaarten getest zou hebben in een gecontroleerde test omgeving. Maar knip en plakwerk is wat mij betreft niet het label premium waard.

Ik vind dan een test als: https://www.youtube.com/watch?v=5mXQ1NxEQ1E beter, maar 2 kaarten, maar wel 40 games getest. Ik zie lever de verschillen in prestaties in veel workloads dan dat ik moet kijken naar veel kaarten, zeker omdat de kaarten tegenwoordig individueel vaak maar weinig verschillen (de een is nipt stiller, de ander nipt sneller, maar blijft 'single digit' procenten werk).

[Reactie gewijzigd door Dennism op 22 juli 2024 14:16]

Wat betreft de informatie over power limieten, aantal pin aansluitingen en VRM vermogen, dat kan hij toch prima opsommen? Die informatie verandert niet opeens als je de kaart zelf in handen hebt.

De koelprestaties mogelijk wel, indien hij de informatie van verschillende websites haalt. Maar dan nog, gewoon het benoemen van de power limits op een overzichtelijke manier en de stroomvoorziening is al meer premium dan het huidige artikel, waarbij op bizarre wijze is gekozen om te vergelijken op kloksnelheid ipv frames per seconde. (Want wat zegt kloksnelheid? Niets toch? Ik wil weten wat het gevolg is van die hogere kloksnelheid, draai ik dan op 75 ipv 65 fps?)
Uiteraard kan je dat prima opnoemen, daar zit ook het probleem niet.

Dat zit juist bij de koelprestaties die je zo niet kan vergelijken, en dat is nu juist waarschijnlijk de hoofdreden waarom mensen naar die video kijken. Mensen kijken in de regel naar performance en naar geluidsproductie die bij die performance komt kijken. Zaken als het aantal pins, powerlimiten e.d. zijn vaak secundair, of voor veel kopers helemaal niet relevant. Het is handige info, maar maakt het voor mij niet premium.

Dit Tweakers artikel zou ik ook niet direct als premium bestempelen, maar Dat doet Tweakers dan ook niet, tenzij ik iets mis. Dus de vergelijking met welk artikel / filmpje meer premium zou zijn ontgaat mij even, ik vind ze beide eigenlijk vrij irrelevant om als consument een keuze op te baseren aangezien ik inderdaad de resultaten op basis van kloksnelheid ook niet heel erg handig vind.

[Reactie gewijzigd door Dennism op 22 juli 2024 14:16]

Ik heb beide video's bekeken toen ze uitkwamen. Nu gebruik ik alleen het overzicht (de Tier-list) aan het einde van beide videos ter vergelijking. Het is dus niet nodig om alles te bekijken, er is een mooie opsomming aan het eind.
Ik denk dat 12gb niet gaat gebeuren, eerder 16gb.
https://tweakers.net/nieu...-verschijnen-bij-eec.html
Als ze deze in 12Gb maken, kan de TI of 3070 vast ook in 12Gb

[Reactie gewijzigd door Slider82 op 22 juli 2024 14:16]

Ok apart, ik had recent gelezen dat het 16gb zou worden.

Maar dat maakt weinig uit, 12gb zou de sweetspot zijn denk ik.
Kan wel, maar zal niet gebeuren.

GA104 (3060 Ti/3070) heeft een 256bit geheugenbus. Hier past perfect 8Gb en 16Gb op.

De RTX 3060 (andere gpu chip) daarintegen zal een 192 bit geheugenbus hebben, waar dan weer perfect 6Gb als 12Gb op past.

Het is geleden van de GTX 660 Ti dat nVidia hier van heeft afgeweken.
Achtergrond info: https://www.anandtech.com...force-gtx-660-ti-review/2
Nvidia maakt wel vaker tussenstapjes. De 24GB van de 3090 en 10GB van de 3080 is ook een vreemde stap als je eerlijk bent. AMD pakt netjes 8GB en 16 en in hun volgende generatie zal er vast een 32GB tussen zitten
16GB vind ik ook prima. Zolang de prijs maar redelijk blijft. Want de prijs is best wel een groot minpunt van de RTX 30 generatie.
Weten jullie zeker dat de Gigabyte RTX 3060Ti Gaming OC over een quiet mode of quiet BIOS beschikt?

De Gigabyte Gaming OC Pro beschikt daar in ieder geval wel over en op de betreffende productpagina maakt Gigabyte daar ook melding van (als een feature). Voor het iets minder luxe, normalere (non-Pro) Gigabyte model ontbreekt zo'n melding echter op de productpagina.

Ook een Tweaker die een undervolt-gids schreef a.d.h.v. zijn ervaringen met het door jullie geteste model schrijft dat dit model toch geen quiet mode heeft:
Op de launchdate van de RTX 3060 Ti op 2 december 2020 keek ik even op de site van Azerty, en zag tot mijn verbazing dat er 38 stuks van de Gigabyte RTX 3060 Ti Gaming OC op voorraad waren. Ik had een paar dagen daarvoor al een review van de PRO variant gelezen en wilde deze graag hebben aangezien hij snel (3% sneller dan reference model) en mooi stil was met een 'quiet BIOS' setting. Snel in mijn winkelmandje dus voordat ie uitverkocht was, direct betaald en twee dagen later werd hij thuis bezorgd! Toen ik de kaart echter installeerde, kon ik de quiet BIOS jumper niet vinden. Blijkt dat het ontbreken van een dubbele BIOS dus een verschil tussen de Gaming OC en Gaming OC PRO variant is. Zuiniger, koeler, stiller draaiende RTX 3060 Ti (undervolt)

[Reactie gewijzigd door choogen op 22 juli 2024 14:16]

Klopt, ik heb het aangepast en gereageerd in GR. Nogmaals dank voor de oplettendheid!
Ik heb deze kaart en zou deze graag in een stillere stand gebruiken, maar ik denk inderdaad ook dat er geen dubbele bios in zit. In ieder geval niet via een schakelaartje.
Is het niet gelukt om m.b.v. de undervolt-gids van hemmer2 de geluidsproductie en fansnelheid omlaag te brengen? Ik zag dat je in zijn draad gereageerd had, daarom wel benieuwd.
Sorry Tweakers, maar zijn jullie pro Asus ofzo? De MSI 3070 kaart presteert in jullie eigen tests op gebied van koeling beter dan de Asus kaart, maar toch krijgt de Asus 3 plusjes en de MSI 2.

De MSI kaart is en 4 decibel stiller in-game en 1 graad koeler. In de conclusie staat dat de MSI kaart beneden verwachting presteert op gebied van koeling. 8)7

[Reactie gewijzigd door bounto op 22 juli 2024 14:16]

ACM Software Architect @bounto31 december 2020 07:50
De Asus staat toch echt bovenaan de grafiek met 57 graden onder de 59 van die MSI. Als je streven een zo stil mogelijke koeler is, dan is die MSI inderdaad beter.

Of dat een verschil van 2 vs 3 plusjes moet geven weet ik niet, dat soort oordelen zijn altijd redelijk subjectief (57 is lager dan 59, dat is objectief, maar of dat verschil genoeg is voor een plusje meer/minder is subjectief).
De MSI kaart is en 4 decibel stiller in-game en 1 graad koeler. In de conclusie staat dat de MSI kaart beneden verwachting presteert op gebied van koeling
Die zin moet je nog even beter lezen. Die prestaties-opmerking slaat op de fps-scores in games... de koeling-opmerking in dezelfde zin gaat over de kaart van Gigabyte.

[Reactie gewijzigd door ACM op 22 juli 2024 14:16]

Als je iets verder had gekeken naar de prijzen dan is de Asus bij geen enkele webshop ooit voor die prijs in de pricewatch geleverd. Waarom een excellent award geven voor verruit de duurste kaart van allemaal terwijl de MSI vaak minimaal 50-100 euro goedkoper is. Daarnaast hebben we het over een minimaal presentatie verschil wat je nooit gaat merken. Die minimale boostclock prestaties zijn leuk op papier maar je hebt er niks aan. Elke kaart die jullie hebben kan waarschijnlijk hoger boosten met een minimale undervolt.

[Reactie gewijzigd door bloodlynx op 22 juli 2024 14:16]

Als de MSI stiller is maar warmer dan je wilt heb je dus nog best wat ruimte om de fancurve aan te passen lijkt me? Ik neem aan dat in-game load niet betekent dat de fans op 100% aan het knallen waren toch?
ACM Software Architect @PatrickH8931 december 2020 09:17
Jij en @Gamebuster nemen aan dat ik en (alle) potentiele kopers weten dat je de fancurve kan aanpassen en dat dan ook daadwerkelijk willen doen.

Echter is die MSI in dit geval ook langzamer. Wellicht wil iemand wel liever een wat snellere kaart en neemt het extra geluid tijdens games (idle zijn ze allemaal stil) voor lief.

Maar los daarvan reageerde ik op een reactie. Daarin werd gesteld dat - in tegenstelling tot het oordeel van de redactie - de MSI beter zou koelen dan de Asus; wat volgens de cijfers niet het geval is, tenzij je de Asus alleen in stille modus bekijkt.

En bovendien werd er een boze opmerking gemaakt over een gepercipieerde stelling waarin MSI onterecht zou negatief werd beoordeeld op de koelprestaties; maar dat was domweg verkeerd lezen van de betreffende zin.

[Reactie gewijzigd door ACM op 22 juli 2024 14:16]

Nee, ik neem aan dat alle potentiele kopers meer interesse in geluidproductie van de fans dan temperatuur van de chip. Liever een stille koeler op een hete chip dan een luide koeler op een koele chip. Echter, de doelgroep die zich druk maakt om de temperatuur van hun chip is dezelfde doelgroep die een fancurve kan aanpassen.

Dan kom je terug op de gemiddelde koper, en die heeft vooral interesse in performance per euro, en daarna performance per geproduceerd geluid.

Dat de stillere kaart van 2 graden warmer is... tja uh dat is irrelevant.

Tenminste, dat lijkt mij dan.

[Reactie gewijzigd door Gamebuster op 22 juli 2024 14:16]

Oh, nee hoor. Onze definities verschillen hier gewoon. Ik bekijk 'goed koelen' toch voornamelijk als de temperatuur in combinatie met de geluidsproductie. Niemand wil namelijk dat zijn fans op 100% blazen. Ik begrijp inderdaad dat je er niet vanuit gaat dat iedereen maar even de fancurve aanpast, maar een kanttekening dat de MSI beter koelt bij een lagere geluidsproductie had wel op zijn plaats geweest.
Ik ben het helemaal met je eens.
Bij de RTX 3070's is de ASUS ROG Strix OC de afgetekende winnaar. Zowel qua prestaties als koeling gaat deze kaart eenzaam aan de top
Ik dacht dat ik andere testuitslagen had gelezen toen ik dit las. De MSI is hier duidelijk de winnaar. 2 graden warmer op een gpu onder de 60 graden heeft niemand last van. 4dB verschil, dat merk je pas.
Alleen verliest de MSI kaart dus nipt in de koelefficientie test.


Logisch dat MSI op stock instellingen een stillere koeler kan leveren, qua kloksnelheid ligt de Asus dan ook van 3 tot 7% hoger. Dat betekent een hoger stroomverbruik, en dus moet de Asus koeler meer warmte afvoeren. Maar klok je de MSI weer hetzelfde (zoals Tweakers hier ook heeft gedaan), dan is de Asus dus net een graad koeler bij hetzelfde geluidsniveau.

Anders weet ik nog wel een manier om de "stilste" kaart te leveren. Gewoon underklokken en undervolten uit de fabriek, en vervolgens laten benchmarken tegen modellen die wel reguliere kloksnelheden halen. Maar wel mooi de stilste!

-Overigens is het echt lood om oud ijzer. Zowel de Asus als de MSI zijn prima koelers. Persoonlijk vind ik de Asus zoveel mooier dat ik het de meerprijs waard zou vinden, maar als je een gesloten kast hebt -> lekker voor de MSi gaan, vaak veel goedkoper te krijgen.

[Reactie gewijzigd door Jeroenneman op 22 juli 2024 14:16]

Als je streven een zo stil mogelijke koeler is, dan is die MSI inderdaad beter.
Natuurlijk is dat het streven. Als die 2 graden je uitmaakt pas je de fancurve aan of niet dan?
tenzij de fans lawaai maken.
Dus dan pak je de Asus. Want die presteert bij gelijke dBa en gelijke kloksnelheid beter. Kun je daarna helemaal los met fanprofielen in Afterburner.
hetgeen mij opvalt, de "great value" heeft geen prijs. Gratis zou great value zijn ja.

Deze kaarten zijn zo te zien althans volgens de linkjes hier lang niet allemaal leverbaar.

Daarnaast vind ik het jammer dat er geen AMD kaarten zijn meegenomen. Een volledige roundup zou toch mooi zijn.
- knip -

[Reactie gewijzigd door Mizgala28 op 22 juli 2024 14:16]

Ik vind de verschillen tussen een RTX 3060 Ti en een GTX 1080 Ti relatief klein. Als je niets om RTX en DLSS geeft is een tweedehands 1080 Ti een erg goede deal.
Ik heb momenteel een MSI RTX 3060 Ti Gaming X Trio OC en had daarvoor een ASUS ROG STRIX GTX 1080 Ti.

Ik heb ergens gelezen dat de RTX 3070's en RTX 3060 Ti's met Samsung geheugen makkelijk te overclocken zijn naar +150 a +200 op de core en +1000 a +1500 op de memory, namelijk hier: https://www.reddit.com/r/...gddr6_great_overclocking/

Ik heb met mijn RTX 3060 Ti (met Samsung geheugen) een stabiele overclock van +150 op de core en +1000 op de mem behaald (geverifieerd met 3Dmark Time Spy) -https://www.3dmark.com/spy/16849590

Op 1440P merk ik meer 'performance' dan een GTX 1080 Ti. Dit heb ik ook beschreven in mijn review: https://tweakers.net/prod...060-ti-gaming-x-trio.html

Met mijn overclock behaal ik RTX3070 prestaties, wat ik zeer netjes vind.

[Reactie gewijzigd door aapjuh99 op 22 juli 2024 14:16]

Zeer mooie en goede review! +3 :-)
En inderdaad zie ik dat de 3060 ti (zonder oc) iets sneller is dan de 1080 ti.
Heb je de 1080 Ti nog liggen?
Hoi SubSense,

Dankjewel voor je +3 ! :)

Ik heb mijn GTX 1080 Ti verkocht aan Omni.
Dat hangt ervan af wat je moet betalen voor die tweedehands 1080TI !
Ik zie toch nog steeds vrij hoge vraagprijzen voor 2dehands 1080TI en 2080TI kaarten.
De vraag die je jezelf steeds moet stellen is , betaal ik 5 a 600€ voor een gebruikte kaart waar de garantie bijna weg is ? Persoonlijk heb ik slechte ervaringen met tweedehands videokaarten in de high end !
Kaarten waar 24/7 mee gemined is, en fans zo goed als kapot zijn. Bios problemen enzo.
Als een 3060TI evengoed en soms beter prestaties geeft dan een 2080TI , met 50w minder verbruik +
nieuwere features. Dan moet je al een behoorlijke oen zijn om meer dan 350€ te betalen voor een misbruikte 2080TI :)
Ik had het meer over een 1080 Ti, die gaan momenteel hier voor 300 Euro (laagste prijs).
Ik weet niet of dit relevant is aan deze topic, maar waarom is de AMD RX6800 er uit gelaten.
Ik zou dat persoonlijk wel intressant vinden, wegens dat deze videokaart 16GB heeft inplaats van 8GB aan VRAM.

Ik gebruik persoonlijk een 1440p ultra wide en ik vraag me af of de AMD RX6800 of de RTX 3070 een beter deal is voor de volgende 2 jaar.
Daarvoor kun je je inderdaad beter baseren op onze review van de RX 6800 (waarin we uiteraard ook een compleet opnieuw geteste RTX 3070 hebben meegenomen). Daarin testen we een veel grotere variatie aan games, resoluties, settings etc. dan in een round-up van verschillende 'custom' videokaarten gebaseerd op dezelfde gpu.

Om toch even inhoudelijk te antwoorden: ik vrees dat de beste deal in elk geval de komende maanden vooral bepaald zal worden door de verkrijgbaarheid...
Dankje wel voor de snelle reactie.
Euh, o ja daar had ik zelf niet aan gedacht.

Ik ga waarschijnlijk pas in April een videokaart kopen.
Want dan verwacht ik dat de beschikbaarheid verbeterd.
Hoogswaarschijnlijk zal het chineze nieuw jaar in februari,
ook niet mee helpen met het gebrek in aanbod.
Een midrange kaartje voor 549 euro |:(
Een midrange kaartje die een 2080TI benadert
Want je had verwacht dat generatie op generatie er nooit vooruitgang wordt geboekt?
Niet zoveel vooruitgang als tussen nu en de vorige reeks.
Dus als er genoeg vooruitgang wordt geboekt op de voorgaande generatie, dan mag de prijs een tier omhoog?

RTX5060 voor 1200 euro, here we go!
Ik kocht vorig jaar een 1660ti, voor zo'n 300 euro, nu kan ik voor zo'n 200 euro meer een midrange kaart kopen die rondjes loopt om de topkaart van de vorige generatie, die ook nog eens heel ruim twee keer zoveel heeft moeten kosten. Die prestatiesprong is bij mijn weten nog nooit zo groot geweest in zo'n korte tijd. Ik persoonlijk vind dat het prijsverschil wel waard.
Eensch, de prijzen zijn (zeker op dit moment) belachelijk. Laten we hopen dat met de tijd de prijzen weer een beetje normaal worden. Met de concurrentie met AMD en zodra alles weer een beetje op voorraad is zou dat toch moeten lukken.
Lijkt er niet op. Nvidia lijkt erachter te zijn gekomen dat men veel meer dan vroeger over heeft voor een videokaart.
Niet alleen Nvidia, ook AMD. Die zie ik ook niet meer de budget optie gaan spelen zolang ze concurrerende kaarten hebben.
Idd gewoon lower high end.
Mitst je ook eentje normaal (zonder wachtlijsten) weet te vinden.

Ik weet nog toen ik voor rond de 300 euro een meer luxe (ROG Strix) GTX 1060 kocht, die kaart was midrange en je kon deze nog goedkoper vinden destijds zonder problemen.

Vorig jaar de RTX 2070 Super voor 550 euro gehaald, en ik zwijg erover dat je voor 100 euro minder een even luxe RX 5700 XT makkelijk kon halen... en nu? Op papier zijn beide RTX 3060 Ti en 3070 prima geprijsd, vooral als je naar de dollar prijs kijkt maar kijk ik naar de winkelprijs, dan ben je vrij makkelijk al meer kwijt voor de 3060 Ti dan vorig jaar voor een RX 5700 XT.

En niet dat het gras veel groener lijkt aan de kant van AMD nu, op papier net als met Nvidia allemaal mooie prijzen, in de winkel als je al iets kunt vinden een ander verhaal.

Nou hoop ik dat de prijzen spoedig meer stabiliseren, vooral met de nieuwe AMD kaarten.

ik weet dat nieuwe kaarten ook beter zijn, maar de prijzen blijven alsnog hoog op dit moment
Complete waanzin deze prijzen. En dan over 2 jaar is er weer een nieuwe generatie zodat deze weer niks meer voorstelt.
Eens, dat zijn geen midrange prijzen. In 2017 een RX580 gekocht voor net onder de 300 euro. Toen een middenklasser die niet eens heel goedkoop was.
Ja vroeger was er een norm waarbij dat stupide was... Tijden veranderen en op dit moment is dit een nieuwe, hopelijk tijdelijke, norm.

Op dit item kan niet meer gereageerd worden.