Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: Nvidia komt in oktober met RTX 3060 Ti met 8GB gddr6-geheugen

Nvidia zou van plan zijn om in de tweede helft van oktober een GeForce RTX 3060 Ti-videokaart uit te brengen. Dat zeggen anonieme bronnen van add-in-board-partners tegenover techsite VideoCardz.

De bronnen van VideoCardz melden dat de RTX 3060 Ti gebaseerd is op een GA104-200-gpu met 4864 cuda-cores. Daarmee beschikt de videokaart over 1024 cuda-cores minder dan de RTX 3070, die een GA104-300-gpu heeft. Ook heeft de RTX 3060 Ti volgens de geruchten 152 Tensor-cores en 38 raytracingcores, terwijl de RTX 3070 respectievelijk over 184 en 46 van deze cores beschikt.

De Nvidia GeForce RTX 3070 Founder's Edition

Verder toont de vermeende RTX 3060 Ti gelijkenissen met de RTX 3070. Zo zou de videokaart beschikken over 8GB gddr6-geheugen met een snelheid van 14Gbit/s en een 256bit-geheugenbus. Dat komt neer op een bandbreedte van 448GB/s. De RTX 3070 heeft exact dezelfde geheugenopstelling, zo bleek recentelijk. De kloksnelheden van de 3060 Ti zijn nog niet bekend. Volgens VideoCardz is het stroomverbruik van de RTX 3060 Ti ongeveer 40W lager dan dat van de RTX 3070, hoewel de website naar eigen zeggen alleen gegevens van RTX 3060 Ti-modellen met een fabrieksoverklok heeft. VideoCardz speculeert dat het stroomverbruik van het referentiemodel 180 tot 200W zou bedragen.

De RTX 3060 Ti zou in de tweede helft van oktober op de markt verschijnen, maar een concrete releasedatum of prijs is nog niet bekend. Nvidia maakte eerder bekend dat de RTX 3070 op 15 oktober in de verkoop gaat. AMD presenteert op 28 oktober zijn komende RDNA 2-videokaarten voor desktops.

RTX 3090 RTX 3080 RTX 3070 RTX 3060 Ti*
Architectuur 8nm, GA102-300 8nm, GA102-200 8nm, GA104-300 8nm(?), GA104-200
Cuda-cores 10496 8704 5888 4864
Boostsnelheid 1700MHz 1710MHz 1730MHz nnb
Vram 24GB gddr6x 10GB gddr6x 8GB gddr6 8GB gddr6
Geheugensnelh. 19,5GBit/s 19Gbit/s 14Gbit/s 14Gbit/s
Geheugenbus 384bit 320bit 256bit 256bit
Bandbreedte 936GB/s 760GB/s 448GB/s 448GB/s
Tgp 350W 320W 220W 180∼200W(?)
Releasedatum 24 september 17 september 15 oktober 'tweede helft oktober'

Adviesprijs

(Founder's Edition)

1549 euro 719 euro 519 euro nnb

*volgens onbevestigde geruchten van VideoCardz

Door Daan van Monsjou

Nieuwsposter

13-09-2020 • 14:56

166 Linkedin

Reacties (166)

Wijzig sortering
Dat het geheugen gebruikt wordt zegt helemaal niets over dat dat ook noodzakelijk is.

Dat gebeurt in Windows ook niet, daar wordt er giga veel gecached.
Ik heb een NVMe SSD en 16 GB RAM, en mijn geheugen wordt wel degelijk gebruikt als cache. Als ik bijvoorbeeld een grote game afsluit blijven grote delen van de game in het geheugen staan als 'standby'. Dit is te zien met het programma RAMMap van Microsoft.
Als je het budget hebt, is het nooit een probleem en is duurder altijd beter... Kijk, het kan ook een keuze zijn om vaker van GPU te wisselen maar deze goedkoper te houden zodat je ook telkens de nieuwste featureset hebt. Ben er zeker van dat de 3060Ti voor het gros van de gamers ruim voldoende is, althans voor de komende 2-3 jaar en dan zie je alweer. Dezelfde redenering had je vorig jaar gepusht naar een 2080ti en dan stond je nu te kijken naar de 3070...
Gezien het stroomverbruik kan dat best. Deze rtx3060 verbruikt meer dan de rtx2070. Ik vind het opvallend dat er niemand valt over het stroomverbruik. Volgens Nvidia zijn deze chips net zoveel procenten sneller dan hun voorganger als dat ze aan procenten meer verbruiken. Ergens wel logisch dan dat ze sneller zijn. Ik krijg een beetje het vermoeden dat de 3000 serie niets sneller is dan de 2000 serie bij gelijk verbruik en het daardoor een twijfelachtige generatie is. De rtx2060 had een tdp van 160w.

De higher end chips hebben meer dan 50% hogere tdp in sommige gevallen. Dat is best fors. Zo snap ik de performancewinst wel. Door al het marketinggeweld van Nvidia valt het niet zo op allemaal blijkbaar.

Als AMD inderdaad veel efficiënter gaat worden met Big Navi moet Nvidia wel alles op alles zetten om nu veel 3000 series weg te zetten met hoog stroomverbruik.
Je krijgt een -1 maar als je de reacties onder berichten van de Vega64 doorleest, of van de R290/390 dan staat daar voor een in de praktijk meer geringe stroomtoename veel meer commentaar over. Blijkbaar is nu Nvidia het doet het ineens normaal.

Wel zit er verschil tussen Nvidia en AMD qua tdp. Nvidia tdp lijkt een gemiddelde te zijn en de kaarten komen er gerust 25 tot 40% boven in de praktijk, terwijl AMD meer een max aangeeft die je eventueel kunt configureren in de software als je hoger wilt. Dat geeft een heel vertekent beeld. We zitten met deze Nvidia kaarten boven de 400 watt in de praktijk. Dat is iets waar kaarten in het verleden compleet voor werden afgebrand.
Je doet nogal wat aannames met betrekking tot de 3080 en 3070 performance. Laten we eerst de reviews maar even afwachten. Tussen een RTX2080 en GTX1070 zit in het meest gunstige geval nog geen 50% verbetering. Tussen de 2080 en 3080 zit volgens Nvidia in het meest optimale geval in syntetische benchmarks (en de enige benchmarks die er nu zijn, zijn die van Nvidia bij Cuda en OpenCL) een verschil van 100%. Je zou dus kunnen stellen dat je in het meest gunstige geval, in een workload die 100% past bij de architectuur je een een sprong van 2,5 keer kunt maken tussen een 1070 en 3080.

Maar dat is in het meest gunstige geval in Cuda en OpenCL workloads. De praktijk kan weleens anders zijn. In theorie was de Vega64 ook sneller dan de GTX1080 in specifiek gekozen OpenCL workloads (en minen) en we weten allemaal hoe dat er in spellen uitzag. Er zijn heel wat wijzigingen in de architectuur van de 3000 serie die mogelijk niet zo bijzonder veel effect kunnen hebben op spellen die nu al uit zijn. Voor komende spellen weten we het allemaal eigenlijk nog niet. Maar de hype die Nvidia er nu krampachtig omheen aan het bouwen is, baart mij zorgen. Zo agressief waren ze voorheen nog niet aan het marketen voor hun eerdere chips.

Zie dan nog even dat die snelheidsverbetering ten koste gaat van flink hoger verbruik dat procentueel gezien best dicht bij de groei in performance ligt, heb ik mijn twijfels of de 3000 series wel zo interessant gaat zijn.

Als je 50% meer stroom verbruikt voor 50% meer performance, dan is er netto totaal geen verbetering geweest, want dan had je de 'vorige' architectuur gewoon flink kunnen opklokken. Iets waarop het lijkt dat ze mogelijk gewoon gedaan hebben met de 3000 serie. Een paar kleine wijzigingen en verder gewoon opfokken van de 2000 serie. Ik ben daarom ook benieuwd naar Big Navi, als die inderdaad een stuk zuiniger is dan de huidige Navi, dan is dat juist wel een interessante ontwikkeling.

Voor de GTX1080/1070 serie kon ik nog warmlopen, de RTX2000 serie was niet zo indrukwekkend. De 3000 serie is helemaal slaapverwekkend tot nu toe als je een beetje door de Nvidia marketing heenprikt.
Om op 1440 te kunnen gamen is een 2070/S of RX5700XT al perfect! je hebt echt niet minimaal een 2080S nodig en al helemaal niet voor 1080p. 2060 of een RX5600XT is al bijna overkill voor 1080p. DLSS is leuk maar er zitten ook wel wat nadelen aan vast en is nog geen standaard.

Ik ben wel net als jou zeer benieuwd naar echte benchmarks van betrouwbare reviewers.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True