Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: Nvidia komt in oktober met RTX 3060 Ti met 8GB gddr6-geheugen

Nvidia zou van plan zijn om in de tweede helft van oktober een GeForce RTX 3060 Ti-videokaart uit te brengen. Dat zeggen anonieme bronnen van add-in-board-partners tegenover techsite VideoCardz.

De bronnen van VideoCardz melden dat de RTX 3060 Ti gebaseerd is op een GA104-200-gpu met 4864 cuda-cores. Daarmee beschikt de videokaart over 1024 cuda-cores minder dan de RTX 3070, die een GA104-300-gpu heeft. Ook heeft de RTX 3060 Ti volgens de geruchten 152 Tensor-cores en 38 raytracingcores, terwijl de RTX 3070 respectievelijk over 184 en 46 van deze cores beschikt.

De Nvidia GeForce RTX 3070 Founder's Edition

Verder toont de vermeende RTX 3060 Ti gelijkenissen met de RTX 3070. Zo zou de videokaart beschikken over 8GB gddr6-geheugen met een snelheid van 14Gbit/s en een 256bit-geheugenbus. Dat komt neer op een bandbreedte van 448GB/s. De RTX 3070 heeft exact dezelfde geheugenopstelling, zo bleek recentelijk. De kloksnelheden van de 3060 Ti zijn nog niet bekend. Volgens VideoCardz is het stroomverbruik van de RTX 3060 Ti ongeveer 40W lager dan dat van de RTX 3070, hoewel de website naar eigen zeggen alleen gegevens van RTX 3060 Ti-modellen met een fabrieksoverklok heeft. VideoCardz speculeert dat het stroomverbruik van het referentiemodel 180 tot 200W zou bedragen.

De RTX 3060 Ti zou in de tweede helft van oktober op de markt verschijnen, maar een concrete releasedatum of prijs is nog niet bekend. Nvidia maakte eerder bekend dat de RTX 3070 op 15 oktober in de verkoop gaat. AMD presenteert op 28 oktober zijn komende RDNA 2-videokaarten voor desktops.

RTX 3090 RTX 3080 RTX 3070 RTX 3060 Ti*
Architectuur 8nm, GA102-300 8nm, GA102-200 8nm, GA104-300 8nm(?), GA104-200
Cuda-cores 10496 8704 5888 4864
Boostsnelheid 1700MHz 1710MHz 1730MHz nnb
Vram 24GB gddr6x 10GB gddr6x 8GB gddr6 8GB gddr6
Geheugensnelh. 19,5GBit/s 19Gbit/s 14Gbit/s 14Gbit/s
Geheugenbus 384bit 320bit 256bit 256bit
Bandbreedte 936GB/s 760GB/s 448GB/s 448GB/s
Tgp 350W 320W 220W 180∼200W(?)
Releasedatum 24 september 17 september 15 oktober 'tweede helft oktober'

Adviesprijs

(Founder's Edition)

1549 euro 719 euro 519 euro nnb

*volgens onbevestigde geruchten van VideoCardz

Door Daan van Monsjou

Nieuwsposter

13-09-2020 • 14:56

166 Linkedin

Reacties (166)

Wijzig sortering
Dat het geheugen gebruikt wordt zegt helemaal niets over dat dat ook noodzakelijk is.

Dat gebeurt in Windows ook niet, daar wordt er giga veel gecached.
Dat cachen in windows (Prefetch/Superfetch) valt enorm mee.
Ik heb even wat gegoogled en het lijkt erop dat, wanneer je een SSD als schijf hebt, het automatisch uit staat? dat is iig wat sommige bronnen lijken te vermelden.

Ik heb zojuist m'n PC aan gezet en tot nu toe alleen firefox geopend en dit is mijn ram gebruik:
4,2/48GB in gebruik
4,3GB cached (volgens task manager)
6,3GB committed (wat dat dan ook mag betekenen)
3,7GB in use (compressed)

Er van uit gaande dat 'cached' staat voor wat windows prefetch/superfetch gegraaid heeft is dat dus in principe ~10% van mijn totale hoeveelheid RAM.. dat zou ik niet als 'giga veel' omschrijven. :|

Windows staat bij mij op een SSD, maar al m'n (Steam) games run ik vanaf een RAID 1 HDD array dus die zouden prima in aanmerking moeten komen om gecached te worden maar toch merk ik dat wanneer ik na een bootup een spel start het de 1e keer 'langzaam' inlaad.
Als ik dan echter later op de dag (zonder PC tussendoor uit te zetten) het spel nogmaals opstart dan laad het véél sneller.. dus ja het schijnt dat het dán wel de bestanden gecached houd maar ik heb niet het gevoel alsof het bij bootup deze zaken al cached.

[Reactie gewijzigd door Ayporos op 13 september 2020 20:10]

Ik heb een NVMe SSD en 16 GB RAM, en mijn geheugen wordt wel degelijk gebruikt als cache. Als ik bijvoorbeeld een grote game afsluit blijven grote delen van de game in het geheugen staan als 'standby'. Dit is te zien met het programma RAMMap van Microsoft.
En de game heeft er ook voordeel van om minder textures steeds van de schijf te halen maar veel sneller uit VRAM te halen.
Idd en Games gaan sowieos meer Ram benutten nu consoles al min 10GB ddr6 gaan bevatten. De PS5 heeft zelfs 16Gb beschikbaar voor de GPU.

Consoles drijven de game-markt en sinds ze nu eindelijk inzetten op SSD wil zeggen dat de HDD beperking verledentijd is en ze die GPU vol textures kunnen proppen om nog meer detail en omvang in een game te kunnen steken.

Het gebeurd niet vaak dat consoles zo’n sprong maken. Ondanks hun absolute rekenkracht snel is, is het niet te vergelijken met wat AMD en Nvidia gaan aanbieden op de pc-markt.

Zeker is dat voldoende GPU ram een must have is om de komende jaren mee te kunnen.

[Reactie gewijzigd door Coolstart op 13 september 2020 23:21]

Als je het budget hebt, is het nooit een probleem en is duurder altijd beter... Kijk, het kan ook een keuze zijn om vaker van GPU te wisselen maar deze goedkoper te houden zodat je ook telkens de nieuwste featureset hebt. Ben er zeker van dat de 3060Ti voor het gros van de gamers ruim voldoende is, althans voor de komende 2-3 jaar en dan zie je alweer. Dezelfde redenering had je vorig jaar gepusht naar een 2080ti en dan stond je nu te kijken naar de 3070...
Exact dit.

GPUs zijn slechte investeringen, een beetje zoals een auto die de eerste 20% aan waarde al verliest als je de showroom uitrijdt.

Game developers gaan geen game maken die op een zeer beperkt aantal PCs te spelen is. Er is echt geen hond die een 2080ti gebruikt (minder dan 1% volgens de laatste Steam Hardware Survey https://store.steampowered.com/hwsurvey/videocard/). Zelfs alle gecombineerd 2080s gecombineerd halen de 3% niet.

En Raytracing is leuk voor de toekomst, maar tenzij het geld je zakken uit doet puilen is het niet zinnig om voor die paar games die dat ondersteunen zoveel geld uit te geven.

Geef iedere 2-3 jaar max 400 euro uit voor je videokaart en je kan heel leuk gamen op PC (wel even goed je research doen).
Dit vraag ik me ook heel sterk af.

Wat is het praktische verschil in games bij gebruik van de 3090 tov 3070. Gaan games er daadwerkelijk beter uitzien, of gaat de framerate gewoon van 100 naar 150? Want om daar 1000,- extra voor neer te leggen...??

Je kunt 3 keer vaker van kaart wisselen met een 3070 lijn en als deze ook instaat is game op het hoogste niveau te draaien, dan snap ik de meerwaarde voor gaming van die zeer dure kaarten niet zo goed.
Zelfs als je het argument van toekomstklaar gebruikt. Gaat een 3090 over 4 jaar de nieuwste kaart in de 500,- pricerange verslaan?
Ik twijfel toch een beetje over die 3090 voor gaming... hij is letterlijk twee keer zo duur als een 3080 voor naar specs gekeken 20% en sneller/meer vram. Is dat het waard? Het is nou weer jammer dat die 3080 bv geen nvlink heeft, maar ik vraag me alsog af hoe een 3090 zich zou meten met twee 3080s... kost hetzelfde
Dikke kans dat 2x 3080 niet ondersteunt gaat worden, gezien NVidia geen uitspraken erover wil doen en het ontbreken van SLi/NVLink connectie.
Los daarvan. Wie heeft er in vredesnaam 6 slots vrij!
De 3080 is 2 slots, de 3090 is 3, daar zie ik alleen e-ATX systemen geschikt voor zijn.
Ligt ook aan de resolutie waar je op speelt. Op 4K heb je meer aan een hoger VRAM dan op 1080p.
Nope, een lage resolutie is een lage resolutie.

Je verwart resolutie met scherpte, 1080p op 22” is namelijk vrij scherp vanwege de relatief hoge ppi. De tijd dat het “high-res” was ligt echter ruim 10 jaar achter ons.
Dus waarschijnlijk heb jij aan 8GB ruim voldoende.
Zoals WhiteFeather al zegt. Dat het spel 8Gb vrij maakt voor het spel wil niet zeggen dat het spel dit ook echt gebruikt in de praktijk. Meeste AAA spellen komen op dit moment meestal niet boven de 5 a 6 Gb.
Als je op 4k speelt kom je MAKKELIJK op 8 gb.
Als je op 4K gamed moet je niet naar een budget GPU kijken.
Vanaf de 3080 zit er DDR6X geheugen in en die werkt sneller en anders.
Denk je nou echt dat Nvidia minder geheugen in kaarten zou stoppen als dit niet goed functioneerd?
Dat is dus niet meer zo. Als een 3070, 2080 TI performance heeft. kun je dus prima gamen op 4k met een 2060 TI voor genoeg games op dit moment nog. Budget 4k gaming is here!
Lees de reactie van WhiteFeather hierboven nog maar eens goed door.
Gereserveerd of gebruikt geheugen is een groot verschil.
De game industrie zal gaan inzetten op de middenmoot, het feit dat 8GB nu genoeg is, wil niet zeggen dat het over 4 jaar niet genoeg is. Grote kans dat als je je video geheugen matcht met wat de nieuwe consoles doen, dat je dan precies genoeg hebt om (bijna) alles op ultra te spelen in 4k, de komende jaren.
Dat is nu exact wat ik hier vertel, dus ik snap niet waarom je het niet met me eens bent
Toekomst bestendig met midrange is de kans groot dat V-ram geen probleem is maar de GPU te licht.
Van nextgen midrange naar low-end kan zo een 2 'a 3 jaar zijn. Niet genoeg om memory minimums en recommended V-ram sterk te vergroten.
Toekomst gericht is high-end en de meeste bang for tja Buck geeft 3080 als daar nu een 20GB versie van kwam. Met de 3090 24GB ben je kwa GPU rauwe power en V-ram toekomst bestendig. Eer dat degradeert tot lowbudget ben 5++ jaren verder.
Toekomst bestendig blijft altijd een gok.
Zo speelde 8500DV met PS1.4 featureset nog BF2 Maar de performance was zwaar gekelderd.
En wat als AMD straks met dezelfde prestaties komt maar dan 50% goedkoper, je portomonnee zal je uitlachen :D
Allocation is niet hetzelfde als gebruik.
Ja je gaat een kaart kopen van 1500 euro om toekomst bestendig te zijn, slim verhaal..
Als de 3070 zogenaamd beter is dan de 2080Ti dan gok ik toch echt dat de 3060Ti echt beter is dan de 2070
Gezien het stroomverbruik kan dat best. Deze rtx3060 verbruikt meer dan de rtx2070. Ik vind het opvallend dat er niemand valt over het stroomverbruik. Volgens Nvidia zijn deze chips net zoveel procenten sneller dan hun voorganger als dat ze aan procenten meer verbruiken. Ergens wel logisch dan dat ze sneller zijn. Ik krijg een beetje het vermoeden dat de 3000 serie niets sneller is dan de 2000 serie bij gelijk verbruik en het daardoor een twijfelachtige generatie is. De rtx2060 had een tdp van 160w.

De higher end chips hebben meer dan 50% hogere tdp in sommige gevallen. Dat is best fors. Zo snap ik de performancewinst wel. Door al het marketinggeweld van Nvidia valt het niet zo op allemaal blijkbaar.

Als AMD inderdaad veel efficiënter gaat worden met Big Navi moet Nvidia wel alles op alles zetten om nu veel 3000 series weg te zetten met hoog stroomverbruik.
Als het amd was geweest had je nu 100 posts gehad over kacheltjes en hoeveel het wel niet kost per jaar aan extra stroom..
Je krijgt een -1 maar als je de reacties onder berichten van de Vega64 doorleest, of van de R290/390 dan staat daar voor een in de praktijk meer geringe stroomtoename veel meer commentaar over. Blijkbaar is nu Nvidia het doet het ineens normaal.

Wel zit er verschil tussen Nvidia en AMD qua tdp. Nvidia tdp lijkt een gemiddelde te zijn en de kaarten komen er gerust 25 tot 40% boven in de praktijk, terwijl AMD meer een max aangeeft die je eventueel kunt configureren in de software als je hoger wilt. Dat geeft een heel vertekent beeld. We zitten met deze Nvidia kaarten boven de 400 watt in de praktijk. Dat is iets waar kaarten in het verleden compleet voor werden afgebrand.
Je doet nogal wat aannames met betrekking tot de 3080 en 3070 performance. Laten we eerst de reviews maar even afwachten. Tussen een RTX2080 en GTX1070 zit in het meest gunstige geval nog geen 50% verbetering. Tussen de 2080 en 3080 zit volgens Nvidia in het meest optimale geval in syntetische benchmarks (en de enige benchmarks die er nu zijn, zijn die van Nvidia bij Cuda en OpenCL) een verschil van 100%. Je zou dus kunnen stellen dat je in het meest gunstige geval, in een workload die 100% past bij de architectuur je een een sprong van 2,5 keer kunt maken tussen een 1070 en 3080.

Maar dat is in het meest gunstige geval in Cuda en OpenCL workloads. De praktijk kan weleens anders zijn. In theorie was de Vega64 ook sneller dan de GTX1080 in specifiek gekozen OpenCL workloads (en minen) en we weten allemaal hoe dat er in spellen uitzag. Er zijn heel wat wijzigingen in de architectuur van de 3000 serie die mogelijk niet zo bijzonder veel effect kunnen hebben op spellen die nu al uit zijn. Voor komende spellen weten we het allemaal eigenlijk nog niet. Maar de hype die Nvidia er nu krampachtig omheen aan het bouwen is, baart mij zorgen. Zo agressief waren ze voorheen nog niet aan het marketen voor hun eerdere chips.

Zie dan nog even dat die snelheidsverbetering ten koste gaat van flink hoger verbruik dat procentueel gezien best dicht bij de groei in performance ligt, heb ik mijn twijfels of de 3000 series wel zo interessant gaat zijn.

Als je 50% meer stroom verbruikt voor 50% meer performance, dan is er netto totaal geen verbetering geweest, want dan had je de 'vorige' architectuur gewoon flink kunnen opklokken. Iets waarop het lijkt dat ze mogelijk gewoon gedaan hebben met de 3000 serie. Een paar kleine wijzigingen en verder gewoon opfokken van de 2000 serie. Ik ben daarom ook benieuwd naar Big Navi, als die inderdaad een stuk zuiniger is dan de huidige Navi, dan is dat juist wel een interessante ontwikkeling.

Voor de GTX1080/1070 serie kon ik nog warmlopen, de RTX2000 serie was niet zo indrukwekkend. De 3000 serie is helemaal slaapverwekkend tot nu toe als je een beetje door de Nvidia marketing heenprikt.
maar in het geval van gamen mocht je er voor zo ver ik begreep er wel vanuit gaan dat je ze alle 8704 kan gebruiken hiervoor.
Volgens mij is dat erg optimistische.

Ook als je Turing vs Ampere shaders vergelijk met de performance is duidelijk dat de shaders van ampere (zoals nvidia ze nu telt) minder krachtig zijn wat gaming workloads betreft tenminste.
Even uit gaande van 3070 = 2080Ti performance
dat is 5888 shaders voor de 3070 vs 4352 voor de 2080Ti.

de 3070 heeft dus 35% meer shaders, maar gaat echt niet 35% sneller zijn.
(en dan laat ik nog even buiten beschouwing dat dat ampere iets hoger is geclocked als de 2080Ti.)

Pas ik niet nvidia's 2xfp32 = 2 shaders logica toe toe dan is het 2,944 shaders, en met een ~10% hogere clock meegenomen kom ik op ongeveer 33% krachtiger als de turing shaders (opnieuw, er van uitgaande dat de 3070 inderdaad ongeveer 2080ti performance heeft)

dit zou betekenen dat in games de 2de FP32 unit slechts 1/3 van de tijd gebruikt kan worden, maximaal, als we er van uit gaan dat de bottleneck idd daar ligt.
We hebben het hier wel over een kaart van 2 generaties later, dan vind ik het een beetje simpel om performance per watt te gaan vergelijken en zeggen dat het allemaal maar normaal is.

Het zijn toch wel erg hoge cijfers qua verbruik als je het vergelijkt met vorige series. Maar goed dat is natuurlijk pas echt goed te zien als de reviews er zijn.
Om op 1440 te kunnen gamen is een 2070/S of RX5700XT al perfect! je hebt echt niet minimaal een 2080S nodig en al helemaal niet voor 1080p. 2060 of een RX5600XT is al bijna overkill voor 1080p. DLSS is leuk maar er zitten ook wel wat nadelen aan vast en is nog geen standaard.

Ik ben wel net als jou zeer benieuwd naar echte benchmarks van betrouwbare reviewers.
Mijn issue met de 2070 (heb trouwens ook een 2070s getest) is dat deze gewoon minder was dan een 1080ti kwa pure FPS performance. Als je dan ook nog RTX games wil spelen dan kan je daar niet voluit van genieten. Het lijkt er op dat je met die kaarten altijd genoegen moet nemen met minder (lagere settings).

En nogmaals, als de nieuwe 3000 serie kaarten voornamelijk op RTX gebied vele malen beter presteren in games over het algemeen naast puur op FPS gebasseerde prestatie winst. Dan kan het nog wel eens interessant worden. Het zou natuurlijk super cool zijn als Raytracing over het algemeen een standaard wordt. Maar ik denk zelf dat we dan nog wel weer een generatie verder zijn. De framerates in Doom Eternal waren zonder RTX. Leuk 100+ fps op 4k, maar ik zag ook dips van wel 20/30 fps. Dus zo geweldig is dat ding nu ook weer niet. En laten we niet vergeten dat Doom een top game is ook kwa optimalisatie. In metro zou je behoorlijk minder scoren. en daarom ben ik benieuwd naar de reviewers zoals jays2cents, linus etc...

Op mijn huidige systeem i9 (9th gen) 2080s haal ik tussen de 180/250 fps in doom. Dat zijn dus ook nog behoorlijke drops. En dan heb ik het niet over dat ik bij 250 fps tegen een zwarte muur aan het staren ben ;) maar gewoon een een wat kleine ruimte aan het spelen ben met minder monsters.

Het is allemaal nog pure marketing. En natuurlijk zullen de kaarten beter zijn dan de 2070/80 series, maar hoeveel beter, al dan niet puur op RTX gebied moeten we nog zien.

Ik hoop gewoon dat deze dingen er voor zorgen dan je zonder problemen op 1080p of 1440p met RTX kan gamen met een hoge FPS. 4k games is echt maar een paar procent van gamers (afgaant op steam surveys dan).
Veel ultra settings zijn ook allemaal puur marketing zie je meestal geen drol verschil met high settings, gewoon voor wannabee's om extra veel geld uit te geven 8)7 8)7 8)7
Ik speel op uktrawide 1440p met een 2070 su0er. Gaat meer dan prima. Haal meestal tussen de 75 a 90fps in moderne titels.
Well, Nvidia heeft gezegd dat de 3070 net iets sneller is dan de 2080 Ti. Goed, dat zijn hun cijfers, dus laten we zeggen dat ie realistisch 10% langzamer is dan de 2080 Ti. 2080 Ti is op zijn beurt een goede 30%-40% sneller dan de 2070. Dus men kan logischerwijs verwachten dat een zogenaamde 3060 Ti beter is dan een 2070. Hij zou, in mijn logica, landen rond een 2080 qua performance.
De 2080 is nu nvidia's snelste GPU die de zelfde hoeveelheid geheugen bandbreedte heeft, dus dat is waarschijnlijk geen slechte gok (Vanaf de 2060S tot de 2080 hebben alle GPU 448GB/s aan geheugen bandbreedte)
Ik zou nog even wachten tot de onafhankelijke benchmarks beschikbaar zijn :)
Lijkt mij wel aannemelijk
Ik zou zeggen van wel ja, maar je kan beter reviews afwachten.
De 3070 komt 15 oktober uit maar de 60 reeks zijn volgensmij altijd best verkopende voor nvidia. Die brengen ze vaak een paar maanden later uit. Denk zelf in januari zoals de RTX 2060 maar misschien willen ze toch nog iets uitbrengen voor de feestdagen en dat ze dan eerst met een duurdere variant uitkomen.

Ik verwacht dat de performance gebaseerd op Cuda cores rond de 2080 zal liggen.
Kan iemand mij uitleggen wat de series Ti en Super nu onderscheidt van de 'normale' types? Ik ben door de bomen het bos kwijt.
De super is iets sneller dan de normale versie en de TI is iets sneller dan de super versie, vaak heeft de TI ook wat meer geheugen.
Ti/super zijn snellere varianten van de ‘normale’ uitvoeringen.
Vaak komen die een jaar later als refresh.
niks. ze hadden het ding gewoon rtx3065 noemen
Super is niet simpelweg een boost maar ook andere hardware, bv. de 2070 super heeft 2560 Cuda Cores, de 2070 heeft 2304 cuda cores.

Ti is wel sneller dan super.

[Reactie gewijzigd door Clemens123 op 13 september 2020 15:25]

Hoezo is het een marketing ding?

Het zijn gewoon verschillende namen voor verschillende producten.

Ze kunnen niet kaarten maken met verschillende specs en verkopen onder dezelfde naam, dan zou je een 3060 kopen en niet weten of je dan bijvoorbeeld een kaart met 6g of 8g aan geheugen koopt en daar pas bij levering achterkomen.
Tweakers: Gerucht: Nvidia komt in oktober met RTX 3060 Ti met 8GB gddr6-geheugen RTX 3060 Ti
En die gebruikt 180∼200W, wow wat gebruiken die RTX 3000 serie Grafische kaarten toch een hoop stroom, mijn Geforce GTX 1080 gebruikt 180w, is toch wat dat een Mid/Low end Grafische kaart 180∼200W kan verbruiken.

Hoop dat AMD met veel zuinigere Grafische kaarten komen, die ook redelijk in de buurt komen van de GeForce RTX 3080 qua snelheid, en goedkoper.

Want dan woord me Grafische kaart zeker weten een Radeon HD 6000 series Grafische kaart.

Ben benieuwd of ze een nieuwe Low Profile 75w Grafische kaart uitbrengen Nvidia en AMD, denk niet Nvidia als ik zo de wattage zie.

[Reactie gewijzigd door AmigaWolf op 13 september 2020 16:30]

De Radeon HD 6000 series Grafische kaarten krijgen ook raytracing zij AMD, dus geen probleem, en helemaal geen probleem als raytracing je niks doet.

En waarom is mijn post boven weer omlaag gemod, wat zeg ik NOU weer fout, dat het niet gezien mag woorden zonder het open te maken?!?!
Tja, was het maar zo simpel. De 1060 bijvoorbeeld kent twee uitvoeringen, aangeduid met de toevoegingen '3 GB' en '6 GB'. Dat onderscheid wordt echter op veel plekken niet gemaakt, ook op nVidia's eigen materiaal. Daarnaast is er meer verschil dan alleen de hoeveelheid geheugen: ook het aantal CUDA cores verschilt en dat zie je alleen door de spec sheets te vergelijken, dus de naamgeving is op z'n minst misleidend.
Denk eerder dat de supers een reactie zijn op de midrange 5serie Gkaarten van AMD.
Als er een 6serie iets ergens mooi tussen valt is dat voor nV weer een reden om misschien daar ook iets te positioneren. TI was er al dus Super.
Waarom een RTX 3060ti? En niet gewoon eerst de RTX 3060? Beetje vreemd.
Het zou kunnen samenhangen met het productieproces; ik meen dat in het verleden de Ti nog wel eens de "hogere stap chip" met uitgeschakelde cores / minder RAM / etc. was. Als de yields voor de chip voor de 3070 aan de lage kant zijn, kan het dan interessant zijn een 2060 Ti te introduceren.

Het is alleen niet altijd zo dat de Ti gebaseerd is op een chip een stapje hoger...Nvidia is op dat vlak niet erg consistent. Naamgeving van GPU's is eigenlijk nooit heel erg voorspelbaar en logisch geweest als je over de langere termijn kijkt.
Het feit dat het vanuit jouw redenering niet logisch lijkt, ligt eerder aan jouw redenering dan de consequentheid van NVIDIA. Het eigenlijk alleen bij de (X)X80 Ti zo geweest dat die de grotere chip (de XX2 versie) gebruikte.
980 -> 980Ti
1080-> 1080ti
2080->2080ti

De Ti versie is gewoon de snellere versie met eventueel meer geheugen. En dat is waar of je nou een GTX 560ti of een 1070ti pakt, ze zijn sneller dan respectieflijk de GTX 550 en 1070 GTX. Het is net als de achtervoegsels super, pro of XT niet meer dan dat, een achtervoegsel. Je zoekt er echt veel te veel in.

Verder, als je gaat kijken naar de 900 of 2000 serie zie je dat het met de onlogica de laatste generatie ook echt wel mee valt:

https://en.wikipedia.org/...g_units#GeForce_20_series

Hoger nummer = sneller
Super = sneller dan zonder super
Ti = sneller dan zonder Ti

Uiteraard mixen ze ook wel eens van alles door elkaar waardoor het ongelooflijk moeilijk wordt om te zien wat je hebt (de 1060 bijboorbeeld). Maar gelukkig geldt ook hier, 1070 > 1060 > 1050, welke 1060 versie je ook pakt.

[Reactie gewijzigd door Thekilldevilhil op 13 september 2020 17:01]

Ik begrijp er niks meer van. Er waren meerdere personen die zeiden dat er geen Ti varianten zouden komen. Waar hebben zij hun informatie vandaan gehaald? Nu lijkt de 3080 het vlaggenschip en de goede keuze voor de langere termijn, maar wat als er een paar maanden later ineens een 3080 TI uitkomt?
En wat als dit gerucht, duidelijk bestempeld als "gerucht", niet klopt? :P Blijkt dat niemand een perfecte glazen bol heeft over wat Nvidia gaat doen, behalve Nvidia. En die willen hun eigen ruiten niet ingooien door nu al in geuren en kleuren uit te leggen welke kaarten er GAAN komen, al was het maar om flexibel in te kunnen spelen op wat AMD gaat doen. Als je zekerheid wil over wat de beste koop is zul je toch echt nog een maand of twee moeten wachten (minstens). NV rekent er natuurlijk op dat de meeste mensen dat niet willen doen en FOMO hun preorders inblaffen.
natuurlijk zijn die er, en hoe meer je daarvan mee pakt hoe langzamer jouw voorgestelde 3080Ti van 3090 -20% zal zijn ten opzichte van de 3080.

Die lineaire scaling was de best case scenario voor jouw, en zelfs dan kom je onder de 3080 uit.
Kan niet wachten op de 30XX series in de laptops! en wat dat voor RTX gaat doen op het mobiel platform
Gezien hij gewoon een TI in de naam krijgt ga ik er stiekem vanuit dat er toch echt gewoon een 3080ti komt. Ik ga wachten ;)
Dit kan wel eens een hele mooie budget kaart worden. 399 euro denk ik?
Lijkt me sterk dat nVidia een Ti gaat uitbrengen dit jaar verwacht eerder een regular RTX 3060 in de 2e helft van Oktober net als met de 20 serie.

Het zou namelijk behoorlijk onzinnig zijn in mijn ogen om het gras voor de 3070 weg te maaien (wat de specs in het artikel dus zeker zullen doen)

Supers en Ti's komen waarschijnlijk volgend jaar pas als refresh van de huidige lineup
Beetje vaag dat ze kennelijk eerder met een 3060Ti komen dan een gewone 3060, maar het zal wel een reden hebben.. Waar AMD mee komt misschien?


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True