Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: Nvidia komt in oktober met RTX 3060 Ti met 8GB gddr6-geheugen

Nvidia zou van plan zijn om in de tweede helft van oktober een GeForce RTX 3060 Ti-videokaart uit te brengen. Dat zeggen anonieme bronnen van add-in-board-partners tegenover techsite VideoCardz.

De bronnen van VideoCardz melden dat de RTX 3060 Ti gebaseerd is op een GA104-200-gpu met 4864 cuda-cores. Daarmee beschikt de videokaart over 1024 cuda-cores minder dan de RTX 3070, die een GA104-300-gpu heeft. Ook heeft de RTX 3060 Ti volgens de geruchten 152 Tensor-cores en 38 raytracingcores, terwijl de RTX 3070 respectievelijk over 184 en 46 van deze cores beschikt.

De Nvidia GeForce RTX 3070 Founder's Edition

Verder toont de vermeende RTX 3060 Ti gelijkenissen met de RTX 3070. Zo zou de videokaart beschikken over 8GB gddr6-geheugen met een snelheid van 14Gbit/s en een 256bit-geheugenbus. Dat komt neer op een bandbreedte van 448GB/s. De RTX 3070 heeft exact dezelfde geheugenopstelling, zo bleek recentelijk. De kloksnelheden van de 3060 Ti zijn nog niet bekend. Volgens VideoCardz is het stroomverbruik van de RTX 3060 Ti ongeveer 40W lager dan dat van de RTX 3070, hoewel de website naar eigen zeggen alleen gegevens van RTX 3060 Ti-modellen met een fabrieksoverklok heeft. VideoCardz speculeert dat het stroomverbruik van het referentiemodel 180 tot 200W zou bedragen.

De RTX 3060 Ti zou in de tweede helft van oktober op de markt verschijnen, maar een concrete releasedatum of prijs is nog niet bekend. Nvidia maakte eerder bekend dat de RTX 3070 op 15 oktober in de verkoop gaat. AMD presenteert op 28 oktober zijn komende RDNA 2-videokaarten voor desktops.

RTX 3090 RTX 3080 RTX 3070 RTX 3060 Ti*
Architectuur 8nm, GA102-300 8nm, GA102-200 8nm, GA104-300 8nm(?), GA104-200
Cuda-cores 10496 8704 5888 4864
Boostsnelheid 1700MHz 1710MHz 1730MHz nnb
Vram 24GB gddr6x 10GB gddr6x 8GB gddr6 8GB gddr6
Geheugensnelh. 19,5GBit/s 19Gbit/s 14Gbit/s 14Gbit/s
Geheugenbus 384bit 320bit 256bit 256bit
Bandbreedte 936GB/s 760GB/s 448GB/s 448GB/s
Tgp 350W 320W 220W 180∼200W(?)
Releasedatum 24 september 17 september 15 oktober 'tweede helft oktober'

Adviesprijs

(Founder's Edition)

1549 euro 719 euro 519 euro nnb

*volgens onbevestigde geruchten van VideoCardz

Door Daan van Monsjou

Nieuwsposter

13-09-2020 • 14:56

166 Linkedin

Reacties (166)

Wijzig sortering
Ik dacht dat dit alleen voor onboard video kaarten is? Vaak is dit dan ook een instelling in de BIOS/UEFI hoeveel je wilt reserven hiervoor.
Oud nieuws, dit is opgelost sinds 2004 update van Windows 10.
Check je task manager maar eens. Hier tijdens browsen bijna 0,4GB in gebruik van de 8GB, dat is dus bijna 1/20e deel oftewel nog geen 5%.

Bij het afsluiten van de browser nog maar 0,2GB overigens, dus dat was niet "gereserveerd door Windows".

[Reactie gewijzigd door DaManiac op 14 september 2020 08:46]

"Cached" is niet alleen prefetch en superfetch, maar ook en vooral de disk cache. Vrijwel elke file die gelezen wordt (data en executables) komen in de disk cache. Sinds Windows Vista wordt die cache vrij vol gehouden. Het "legen" van die cache om Free Memory te verhogen is vrijwel instantaan, dus er is nauwelijk snelheidwinst om daar vooruit te werken, terwijl het de kans op cache misses verhoogd.

Het feit dat jouw game de eerste keer langzaam opstart is precies omdat de disk cache dan nog leeg is. De disk cache wordt gevuld bij het lezen van een file.
Ik heb zojuist m'n PC aan gezet en tot nu toe alleen firefox geopend en dit is mijn ram gebruik:
En dat is dan dus ook niet relevant voor het gebruik. Cache is namelijk spul wat je net hebt gebruikt en wat je laat staan om het later makkelijk toegankelijk te hebben. Als je net bent opgestart heb je dat dus niet.
Mensen vergeten vaak het Shared Video Memory, en dat zaken als een browser tegenwoordig ook gewoon dikke chunks met video geheugen gebruiken.

Mensen staren zich steeds meer blind op %usage zonder te weten wat er speelt.
@CzMichiel heeft het over 6 slots, dus 2x 3090. Dat gaat je niet op mATX lukken.
Nou, correct me if I am wrong. Maar bijvoorbeeld de MSI GeForce RTX 3080 Gaming X Trio 10G lijkt ook 3 slots nodig te hebben.
Er zijn inderdaad modellen die meer dan 2 slots in beslag nemen, maar voor zover we weten kan de 3080 geeneens in sli meer.
De 2070 super, 2080 super en 2080Ti ondersteunen allemaal nvlink.
In de nieuwe serie tot nu toe alleen de 3090, wellicht later ook de 3080Ti en 3070/80 super.
De huidige gaming x trio modellen van de msi 20 series zijn ook 3 sloten breed. Hij heeft maar 2 sloten op je MB maar hij steekt een eind over in het 3e slot
Sli is nutteloos voor iedereen die een GPU koopt voor gamen. De 3090 is ook te duur in verhouding met de 3080. Dankzij het DDR6X van de 3080 is deze de beste aanschaf voor verreweg de meeste consumenten die high end GPUs gebruiken. De 3060 zou best weleens ook interessant kunnen zijn. Ik denk dat voor iedereen die nog op 1080P speelt (waaronder ik) de keuze is om te gaan voor de 3060 of de 3080. De 3080 is hoogstwaarschijnlijk overkill, maar dat is wellicht over 2 jaar weer anders.
SLI (Single Line Interlacing) is nutteloos voor gamen? Waarvoor is het dan wel nuttig? Wij hebben hier GPU's voor AI, maar dan heb je dus geen diplay, en dus ook geen beeldlijnen of interlacing. NVLink is dan wel potentieel interessant.
Goede vraag. Denk vooral voor de toepassing die jij/jullie ermee doen. Voor gamen is SLI niet handig, veel games gaan er niet goed mee om en zorgt vooral voor een hoop problemen. Voor editing waarbij veel VRAM nodig is zou het wellicht nog nut kunnen hebben, maar gamen niet echt. Dat is ook de terechte reden dat Nvidia geen SLI mogelijkheid aanbiedt voor de 3080, heeft geen zin als game toepassing. Diegene die wellicht echt SLI nuttig kunnen inzetten hebben toch al snel de topkaart nodig (3090).
Voor dat soort "editing" toepassingen is de 30x0 serie toch al niet bedoeld. Dan heb je de NVidia Quadro serie voor. Die zitten nu nog op de Turing architectuur (net zoals de 20x0 serie), maar de Quadro RTX 8000 heeft al 48 GB geheugen (dubbel dat van de RTX3090).
In beginsel niet maar de ondersteuning laat te wensen over. Er werd her en der gezegd "over op mGPU" wat leuk klinkt en ook wel werkt maar ook hier blijft ondersteuning achter.
ALS een 3070, 2080TI performance heeft...
ALS er daadwerkelijk een 2060TI komt...

De 2070FE kost +/-€500, nou niet bepaald categorie budget gamen in mijn optiek.

De 2000 serie was belachelijk duur, de 3000 serie is goedkoper, maar alsnog een hoop geld.

Woensdag zullen we zien hoe het presteert, daarna is kijken of we al iets gaan kopen of niet.
Klopt is ook nog een hoop geld. Maar ik bedoelde de 3060TI. als die op RTX 2080 niveau is en 350 euro kost. noem ik dat redelijk budget 4k gaming ja. 4k is niet echt een standaard eis.
hzd is misschien een beetje een uniek geval, tenminste zo had ik het begrepen. daarnaast is de port niet fantastisch.

ik moet zeggen dat ik met mijn 1060 nog geen problemen heb met 1080p (ook met HZD)
In welke resolutie is dat? Ik game zelf op 2560x1080 en in shooters probeer ik 120fps te halen op acceptabele details en anders rond de 80fps op (close to) max. Daar heb ik echt niet al te veel geheugen voor nodig. Wat toekomstbestendig is, is dus ook afhankelijk van je scherm en eisen.
Dan koopje dus een RTX 3090 want lekker veel geheugen?

Het probleem met dit soort dingen is dat je nu eenmaal niet met zekerheid kunt zeggen of die 7700MB ook nuttig is of dat men bijvoorbeeld (omdat er toch zo vele geheugen is) alle textures inlaad in een keer in plaats van deze streamt als ze waarschijnlijk nodig zijn omdat je bij dat deel van de map bent aanbeland.

In de game play zul je het niet of nauwelijks merken maar voor de game maker kan het simpel weg zijn dat men efficienter textures en zo inlaad en dus minder kans heeft dat er misschien iets hapert als de disk toevallig op dat moment ook iets anders aan het doen is en het geen SSD is...

Ik zou er zeker niet van uitgaan dat je voor een volgende game een grafische kaart met minimaal 10GB aan geheugen nodig hebt omdat er simpel weg te weinig mensen zijn die zulke kaarten (kunnen) kopen. En als game maker wil je toch graag dat zo veel mogelijk mensen je games kopen en niet dat alleen de top van de markt je games koopt en alle andere mensen de game negeren omdat hun systeem de game niet kan draaien.

Nu kijk ik zelf naar een RTX 3080 of 3070 als mijn volgende kaart, geheel afhankelijk van real world benchmarks en tests en voor een groot deel ook van wat Cyberpunk 2077 er mee doet. Maar dat neemt niet weg dat als een RTX 3060 ti dicht in de buurt komt van de RTX 3080 of in ieder geval een RTX 3070 en nog net even goedkoper is, Cyberpunk vloeiend kan draaien en ik dus alles heb wat ik wil dat ik dan gewoon voor de goedkopere optie kies. Ik kan mijn geld maar een keer uitgeven en er zijn genoeg andere dingen die ik ook graag zou willen kopen.
Je 1070 was gemaakt op 14nm en je overclock de boel. Ik denk dat ik eens de curve erbij moet halen hoe silicone meer vcore gebruikt bij hogere frequencies ( aka overclocken ).

De 3080 is gemaakt op 8nm. De transistor densiteit verhoogt met +- 3x.

Nu voeg je er nog eens bij, dat een 3080 Cuda core NIET een 1070 Cude core is. De 3080 gebruikt stripped down cores in de praktijk. De 1070 kon FPS16 en FPS32 tegelijk uitvoeren ( googel het, ik ben vergeten of het FPS16 en 32 is of een andere combinatie ), terwijl dat veranderd is bij de 3080 dat men maar 1 van 2 tegelijk kan uitvoeren. Architecturaal is er te veel veranderd over de 2 generaties waardoor je niet meer cude cores kan vergelijken ( zeker met de 30xx Serie ).

In de praktijk zal een 3080 +- 3X de snelheid hebben van je 1070. Je vergelijk ook een mid range kaart van 2 generatie geleden, met een top range kaart.

Als de vergelijk klopt met de 2080TI = 3070. Twee 1070's in SLI hebben +- dezelfde performance als de 2080TI. m.a.w 1070 vs 3070 bekeken, dan is de stroom verbruik met +-60W ( 2/5 ) omhoog gegaan voor +- dubbel de performance. Voeg daar nog eens bij de extra performance van DLSS dat gerust 10 tot 50% meer kan opleveren, iets dat de Pascal kaarten niet kunnen draaien.
Nee, vooral omdat met ultra /nightmare settings je vaak 4k textures aan het inladen bent. Zonde als je een monitor hebt die maar 1080p of 1440p doet idd. Dat zet ik ook altijd lager. En shadows ultra vs high zie je inderdaad ook niet veel verschil.

Maar het verschilt wel per game. En je kan daar behoorlijk wat fps winst mee behalen zonder dat je dan inderdaad achteruit gaat in de visuals.
Ligt er aan welke 2070 je bedoelt, want de originele versie wordt al zowat voorbij gestreefd door de 2060super. Denk dat de 3060 voorbij de 2080 zal gaan.
Ik denk dat je te optimistich bent.
Als nvidia zelf zegt dat een 3070 gelijke prestaties heeft als een 2080ti (in door haar uitgekozen spellen en settings) dan denk ik niet dat een 3060ti ook even snel is als een 2080ti.
Eerst maar eens zien dat een 3070 inderdaad even snel is als een 2080ti in onafhankelijke benches.

Overigens zijn de cores niet 1 op 1 vergelijkbaar, dat verhaal is al ontkracht. Dus je vergelijking is appels met peren vergelijken.

[Reactie gewijzigd door Arjant2 op 13 september 2020 23:13]

Nee zo werkt het niet.
Als het namelijk zo zou werken dan zou de 3080 2x zo snel moeten zijn als een 2080ti (immers 2x zoveel cores) en dat is niet het geval.
Lees dit even voor uitleg: reviews: Nvidia GeForce RTX 3070, 3080 & 3090 - Alles over de nieuwe RTX-vide...

Daarbij zal Nvidia er echt wel voor zorgen dat er een gat is tussen de 3070 en de 3060Ti, anders is de eerst genoemde gelijk overbodig. Als de 3070 even snel of iets sneller is als een 2080Ti (en dat is nog maar af te wachten) dan zal een 3060ti niet even snel zijn als een 2080ti. Daarbij ook nog eens flink minder geheugen, dus op hoge resoluties zou je dat verschil ook goed kunnen merken.
Maar de onafhankelijke benchmarks gaan het hele verhaal vertellen.

[Reactie gewijzigd door Arjant2 op 14 september 2020 08:15]

Je schopt de nvidia fanbois want je hebt het over stroomverbruik, dat mag alleen als het amd is...;)
Geen idee, het was heel erg raar, was net of iemand de pik op me had, maar blijkbaar zijn er nog wel meer mensen die nog normaal kunnen regeren en denken, ik heb niet een merk waar ik alles van moet hebben, als die van AMD snel is en goedkoop en ook nog is minder verbruiken ga ik zeker voor AMD hun grafische kaarten.
Ben nergens fan van, ja van most bang for mijn buck, of t nou amd of nvidia is maakt me niks uit.
Ok, maar welke is sneller, de GTX 1660 Super of de GTX 1660 Ti? En de GTX 2060 is sneller en nieuwe dan die twee, toch?

De laatste paar jaar is het wat consistenter geworden, maar je haalt al een belangrijk probleem aan; bij de x80's is de Ti doorgaans gebaseerd op een andere chip, dus hoeveel beter een Ti is, is niet heel voorspelbaar. En bij de andere kaarten met het Ti achtervoegsel is het vaak hetzelfde aantal transistors: GTX 1050 en de GTX 1070 en hun Ti tegenhangers.

GeForce GTX 1060 6GB (GDDR5X) dan...GP104 in plaats van GP106 van de GTX 1060 6GB, de GTX 1060 5GB en de GTX1060 3GB.

En de vraag van de OP is hier zeer terecht: waarom eerst en Ti voor een non-x80 introductie terwijl de Ti's voor lager gepositioneerde kaarten eigenlijk altijd pas later komen.
Laat ik het anders formuleren, dan: Nvidia weet in ieder geval als eerste precies wat Nvidia van plan is in oktober, voor de rest het weet. Natuurlijk is het zo dat geen enkel plan het eerste contact met de realiteit overleeft, ook voor NV niet, maar het is ook weer niet zo dat NV niet alvast een strategie heeft uitgestippeld voor als dingen "naar verwachting" gaan, en wat de markt gaat willen weten ze ook al best goed. Om te beginnen lijkt het er in ieder geval op dat ze er een voorschot op hebben genomen dat AMD een beetje gaat meedoen deze generatie, gezien de specificaties en de prijsstellingen. Aan welke knoppen er verder gedraaid gaat worden en welke gaatjes gevuld moeten worden kan inderdaad nog behoorlijk variëren.
Ze doen het bijna bij elke generatie.
Ik ben er zeker van dat er een 3080Ti komt, een paar maand tot +-6 maanden na de 3080 met een performance die +- 20% lager zit dan de 3090, de 3090 moet je een beetje zien als een Titan.
Dat is het probleem, dit mag je niet zomaar linear scalen. Er zijn meer factoren dan dat.
"voor mij" ik ga er gewoon uit zoals ze zo vaak hebben gedaan weet je.
Er zouden geen supers komen..
Ja die komt er sowieso nog aan, dat is in feite de 3080 versie met 20Gb ram die ze nog zouden uitbrengen. Die komt waarschijnlijk dan ergens in 2de kwartaal volgend jaar, afhankelijk van hoe AMD uit de verf komt met big navi.


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True