Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: Nvidia komt in oktober met RTX 3060 Ti met 8GB gddr6-geheugen

Nvidia zou van plan zijn om in de tweede helft van oktober een GeForce RTX 3060 Ti-videokaart uit te brengen. Dat zeggen anonieme bronnen van add-in-board-partners tegenover techsite VideoCardz.

De bronnen van VideoCardz melden dat de RTX 3060 Ti gebaseerd is op een GA104-200-gpu met 4864 cuda-cores. Daarmee beschikt de videokaart over 1024 cuda-cores minder dan de RTX 3070, die een GA104-300-gpu heeft. Ook heeft de RTX 3060 Ti volgens de geruchten 152 Tensor-cores en 38 raytracingcores, terwijl de RTX 3070 respectievelijk over 184 en 46 van deze cores beschikt.

De Nvidia GeForce RTX 3070 Founder's Edition

Verder toont de vermeende RTX 3060 Ti gelijkenissen met de RTX 3070. Zo zou de videokaart beschikken over 8GB gddr6-geheugen met een snelheid van 14Gbit/s en een 256bit-geheugenbus. Dat komt neer op een bandbreedte van 448GB/s. De RTX 3070 heeft exact dezelfde geheugenopstelling, zo bleek recentelijk. De kloksnelheden van de 3060 Ti zijn nog niet bekend. Volgens VideoCardz is het stroomverbruik van de RTX 3060 Ti ongeveer 40W lager dan dat van de RTX 3070, hoewel de website naar eigen zeggen alleen gegevens van RTX 3060 Ti-modellen met een fabrieksoverklok heeft. VideoCardz speculeert dat het stroomverbruik van het referentiemodel 180 tot 200W zou bedragen.

De RTX 3060 Ti zou in de tweede helft van oktober op de markt verschijnen, maar een concrete releasedatum of prijs is nog niet bekend. Nvidia maakte eerder bekend dat de RTX 3070 op 15 oktober in de verkoop gaat. AMD presenteert op 28 oktober zijn komende RDNA 2-videokaarten voor desktops.

RTX 3090 RTX 3080 RTX 3070 RTX 3060 Ti*
Architectuur 8nm, GA102-300 8nm, GA102-200 8nm, GA104-300 8nm(?), GA104-200
Cuda-cores 10496 8704 5888 4864
Boostsnelheid 1700MHz 1710MHz 1730MHz nnb
Vram 24GB gddr6x 10GB gddr6x 8GB gddr6 8GB gddr6
Geheugensnelh. 19,5GBit/s 19Gbit/s 14Gbit/s 14Gbit/s
Geheugenbus 384bit 320bit 256bit 256bit
Bandbreedte 936GB/s 760GB/s 448GB/s 448GB/s
Tgp 350W 320W 220W 180∼200W(?)
Releasedatum 24 september 17 september 15 oktober 'tweede helft oktober'

Adviesprijs

(Founder's Edition)

1549 euro 719 euro 519 euro nnb

*volgens onbevestigde geruchten van VideoCardz

Door Daan van Monsjou

Nieuwsposter

13-09-2020 • 14:56

166 Linkedin

Reacties (166)

Wijzig sortering
Ik zou toch geen gfx card meer kopen die niet echt toekomst bestendig is met slechts 8GB geheugen.
Als ik bv Horizon Zero Dawn speel slokt die soms al meer als 7700MB op dus wil je wat langer met een kaart doen dan zou ik minimaal voor de 3080 gaan maar hoogst waarschijnlijk nog eerder voor de 3090.
Dat het geheugen gebruikt wordt zegt helemaal niets over dat dat ook noodzakelijk is.

Dat gebeurt in Windows ook niet, daar wordt er giga veel gecached.
Dat cachen in windows (Prefetch/Superfetch) valt enorm mee.
Ik heb even wat gegoogled en het lijkt erop dat, wanneer je een SSD als schijf hebt, het automatisch uit staat? dat is iig wat sommige bronnen lijken te vermelden.

Ik heb zojuist m'n PC aan gezet en tot nu toe alleen firefox geopend en dit is mijn ram gebruik:
4,2/48GB in gebruik
4,3GB cached (volgens task manager)
6,3GB committed (wat dat dan ook mag betekenen)
3,7GB in use (compressed)

Er van uit gaande dat 'cached' staat voor wat windows prefetch/superfetch gegraaid heeft is dat dus in principe ~10% van mijn totale hoeveelheid RAM.. dat zou ik niet als 'giga veel' omschrijven. :|

Windows staat bij mij op een SSD, maar al m'n (Steam) games run ik vanaf een RAID 1 HDD array dus die zouden prima in aanmerking moeten komen om gecached te worden maar toch merk ik dat wanneer ik na een bootup een spel start het de 1e keer 'langzaam' inlaad.
Als ik dan echter later op de dag (zonder PC tussendoor uit te zetten) het spel nogmaals opstart dan laad het véél sneller.. dus ja het schijnt dat het dán wel de bestanden gecached houd maar ik heb niet het gevoel alsof het bij bootup deze zaken al cached.

[Reactie gewijzigd door Ayporos op 13 september 2020 20:10]

Ik heb een NVMe SSD en 16 GB RAM, en mijn geheugen wordt wel degelijk gebruikt als cache. Als ik bijvoorbeeld een grote game afsluit blijven grote delen van de game in het geheugen staan als 'standby'. Dit is te zien met het programma RAMMap van Microsoft.
Windows reservereerd automatisch 10% van je GPU geheugen. Dus die heb je NIET tot beschikking voor je games. Google maar eens.
Ik dacht dat dit alleen voor onboard video kaarten is? Vaak is dit dan ook een instelling in de BIOS/UEFI hoeveel je wilt reserven hiervoor.
Oud nieuws, dit is opgelost sinds 2004 update van Windows 10.
Check je task manager maar eens. Hier tijdens browsen bijna 0,4GB in gebruik van de 8GB, dat is dus bijna 1/20e deel oftewel nog geen 5%.

Bij het afsluiten van de browser nog maar 0,2GB overigens, dus dat was niet "gereserveerd door Windows".

[Reactie gewijzigd door DaManiac op 14 september 2020 08:46]

Sysmain (aka 'SuperFetch') staat ook gewoon met een SSD aan.

Kijk eens naar Get-MMAgent powershell applet, je kan hier ook bepaalde dingen veranderen qua memory management en ook SysMain. (Prefetching e.d.)

Dit zit samen met honderden andere commands in m'n post-script voor na een Windows installatie.

Aangezien ik meerdere systemen hebt met verschillende doeleinden is het makkelijk om te tweaken.

Caching is trouwens altijd goed, tenzij het slecht is geimplementeerd.

SysMain fetched na zo'n halve minuut na het booten hier een halve gig aan libraries en dll files van alle executables die die in de tussentijd heeft geindexeerd.

[Reactie gewijzigd door Marctraider op 13 september 2020 23:50]

"Cached" is niet alleen prefetch en superfetch, maar ook en vooral de disk cache. Vrijwel elke file die gelezen wordt (data en executables) komen in de disk cache. Sinds Windows Vista wordt die cache vrij vol gehouden. Het "legen" van die cache om Free Memory te verhogen is vrijwel instantaan, dus er is nauwelijk snelheidwinst om daar vooruit te werken, terwijl het de kans op cache misses verhoogd.

Het feit dat jouw game de eerste keer langzaam opstart is precies omdat de disk cache dan nog leeg is. De disk cache wordt gevuld bij het lezen van een file.
Ik heb zojuist m'n PC aan gezet en tot nu toe alleen firefox geopend en dit is mijn ram gebruik:
En dat is dan dus ook niet relevant voor het gebruik. Cache is namelijk spul wat je net hebt gebruikt en wat je laat staan om het later makkelijk toegankelijk te hebben. Als je net bent opgestart heb je dat dus niet.
Alleen Windows heeft er wel snelheidsvoordeel in bij meer ram, en de igpu niet vergeten.

[Reactie gewijzigd door mr_evil08 op 13 september 2020 17:43]

En de game heeft er ook voordeel van om minder textures steeds van de schijf te halen maar veel sneller uit VRAM te halen.
Idd en Games gaan sowieos meer Ram benutten nu consoles al min 10GB ddr6 gaan bevatten. De PS5 heeft zelfs 16Gb beschikbaar voor de GPU.

Consoles drijven de game-markt en sinds ze nu eindelijk inzetten op SSD wil zeggen dat de HDD beperking verledentijd is en ze die GPU vol textures kunnen proppen om nog meer detail en omvang in een game te kunnen steken.

Het gebeurd niet vaak dat consoles zo’n sprong maken. Ondanks hun absolute rekenkracht snel is, is het niet te vergelijken met wat AMD en Nvidia gaan aanbieden op de pc-markt.

Zeker is dat voldoende GPU ram een must have is om de komende jaren mee te kunnen.

[Reactie gewijzigd door Coolstart op 13 september 2020 23:21]

Mensen vergeten vaak het Shared Video Memory, en dat zaken als een browser tegenwoordig ook gewoon dikke chunks met video geheugen gebruiken.

Mensen staren zich steeds meer blind op %usage zonder te weten wat er speelt.
Als je het budget hebt, is het nooit een probleem en is duurder altijd beter... Kijk, het kan ook een keuze zijn om vaker van GPU te wisselen maar deze goedkoper te houden zodat je ook telkens de nieuwste featureset hebt. Ben er zeker van dat de 3060Ti voor het gros van de gamers ruim voldoende is, althans voor de komende 2-3 jaar en dan zie je alweer. Dezelfde redenering had je vorig jaar gepusht naar een 2080ti en dan stond je nu te kijken naar de 3070...
Exact dit.

GPUs zijn slechte investeringen, een beetje zoals een auto die de eerste 20% aan waarde al verliest als je de showroom uitrijdt.

Game developers gaan geen game maken die op een zeer beperkt aantal PCs te spelen is. Er is echt geen hond die een 2080ti gebruikt (minder dan 1% volgens de laatste Steam Hardware Survey https://store.steampowered.com/hwsurvey/videocard/). Zelfs alle gecombineerd 2080s gecombineerd halen de 3% niet.

En Raytracing is leuk voor de toekomst, maar tenzij het geld je zakken uit doet puilen is het niet zinnig om voor die paar games die dat ondersteunen zoveel geld uit te geven.

Geef iedere 2-3 jaar max 400 euro uit voor je videokaart en je kan heel leuk gamen op PC (wel even goed je research doen).
Dit vraag ik me ook heel sterk af.

Wat is het praktische verschil in games bij gebruik van de 3090 tov 3070. Gaan games er daadwerkelijk beter uitzien, of gaat de framerate gewoon van 100 naar 150? Want om daar 1000,- extra voor neer te leggen...??

Je kunt 3 keer vaker van kaart wisselen met een 3070 lijn en als deze ook instaat is game op het hoogste niveau te draaien, dan snap ik de meerwaarde voor gaming van die zeer dure kaarten niet zo goed.
Zelfs als je het argument van toekomstklaar gebruikt. Gaat een 3090 over 4 jaar de nieuwste kaart in de 500,- pricerange verslaan?
Ik twijfel toch een beetje over die 3090 voor gaming... hij is letterlijk twee keer zo duur als een 3080 voor naar specs gekeken 20% en sneller/meer vram. Is dat het waard? Het is nou weer jammer dat die 3080 bv geen nvlink heeft, maar ik vraag me alsog af hoe een 3090 zich zou meten met twee 3080s... kost hetzelfde
Dikke kans dat 2x 3080 niet ondersteunt gaat worden, gezien NVidia geen uitspraken erover wil doen en het ontbreken van SLi/NVLink connectie.
Los daarvan. Wie heeft er in vredesnaam 6 slots vrij!
De 3080 is 2 slots, de 3090 is 3, daar zie ik alleen e-ATX systemen geschikt voor zijn.
E-atx is dieper, niet hoger. En ook micro-atx werkt al prima voor 3 slots.
@CzMichiel heeft het over 6 slots, dus 2x 3090. Dat gaat je niet op mATX lukken.
Nou, correct me if I am wrong. Maar bijvoorbeeld de MSI GeForce RTX 3080 Gaming X Trio 10G lijkt ook 3 slots nodig te hebben.
Er zijn inderdaad modellen die meer dan 2 slots in beslag nemen, maar voor zover we weten kan de 3080 geeneens in sli meer.
De 2070 super, 2080 super en 2080Ti ondersteunen allemaal nvlink.
In de nieuwe serie tot nu toe alleen de 3090, wellicht later ook de 3080Ti en 3070/80 super.
De huidige gaming x trio modellen van de msi 20 series zijn ook 3 sloten breed. Hij heeft maar 2 sloten op je MB maar hij steekt een eind over in het 3e slot
Sli is nutteloos voor iedereen die een GPU koopt voor gamen. De 3090 is ook te duur in verhouding met de 3080. Dankzij het DDR6X van de 3080 is deze de beste aanschaf voor verreweg de meeste consumenten die high end GPUs gebruiken. De 3060 zou best weleens ook interessant kunnen zijn. Ik denk dat voor iedereen die nog op 1080P speelt (waaronder ik) de keuze is om te gaan voor de 3060 of de 3080. De 3080 is hoogstwaarschijnlijk overkill, maar dat is wellicht over 2 jaar weer anders.
SLI (Single Line Interlacing) is nutteloos voor gamen? Waarvoor is het dan wel nuttig? Wij hebben hier GPU's voor AI, maar dan heb je dus geen diplay, en dus ook geen beeldlijnen of interlacing. NVLink is dan wel potentieel interessant.
Goede vraag. Denk vooral voor de toepassing die jij/jullie ermee doen. Voor gamen is SLI niet handig, veel games gaan er niet goed mee om en zorgt vooral voor een hoop problemen. Voor editing waarbij veel VRAM nodig is zou het wellicht nog nut kunnen hebben, maar gamen niet echt. Dat is ook de terechte reden dat Nvidia geen SLI mogelijkheid aanbiedt voor de 3080, heeft geen zin als game toepassing. Diegene die wellicht echt SLI nuttig kunnen inzetten hebben toch al snel de topkaart nodig (3090).
Voor dat soort "editing" toepassingen is de 30x0 serie toch al niet bedoeld. Dan heb je de NVidia Quadro serie voor. Die zitten nu nog op de Turing architectuur (net zoals de 20x0 serie), maar de Quadro RTX 8000 heeft al 48 GB geheugen (dubbel dat van de RTX3090).
In beginsel niet maar de ondersteuning laat te wensen over. Er werd her en der gezegd "over op mGPU" wat leuk klinkt en ook wel werkt maar ook hier blijft ondersteuning achter.
Ligt ook aan de resolutie waar je op speelt. Op 4K heb je meer aan een hoger VRAM dan op 1080p.
1080p 144Hz dus dat is voor vandaag de dag geen hoge resolutie meer.
1080p op een 22inch scherm is behoorlijk high res .. 1440p 27inch ... en 4k is nice op groot zoals +-30inch of hoger

[Reactie gewijzigd door A87 op 13 september 2020 19:41]

Nope, een lage resolutie is een lage resolutie.

Je verwart resolutie met scherpte, 1080p op 22” is namelijk vrij scherp vanwege de relatief hoge ppi. De tijd dat het “high-res” was ligt echter ruim 10 jaar achter ons.
Dus waarschijnlijk heb jij aan 8GB ruim voldoende.
Zit nu al op 7700mb dus niet echt meer voldoende ruimte over voor de komende paar jaar - aangezien de gemiddelde gamer zolang met zijn kaart doet is 8Gb dus niet meer toereikend genoeg.
Zoals WhiteFeather al zegt. Dat het spel 8Gb vrij maakt voor het spel wil niet zeggen dat het spel dit ook echt gebruikt in de praktijk. Meeste AAA spellen komen op dit moment meestal niet boven de 5 a 6 Gb.
Als je op 4k speelt kom je MAKKELIJK op 8 gb.
Als je op 4K gamed moet je niet naar een budget GPU kijken.
Vanaf de 3080 zit er DDR6X geheugen in en die werkt sneller en anders.
Denk je nou echt dat Nvidia minder geheugen in kaarten zou stoppen als dit niet goed functioneerd?
Dat is dus niet meer zo. Als een 3070, 2080 TI performance heeft. kun je dus prima gamen op 4k met een 2060 TI voor genoeg games op dit moment nog. Budget 4k gaming is here!
ALS een 3070, 2080TI performance heeft...
ALS er daadwerkelijk een 2060TI komt...

De 2070FE kost +/-€500, nou niet bepaald categorie budget gamen in mijn optiek.

De 2000 serie was belachelijk duur, de 3000 serie is goedkoper, maar alsnog een hoop geld.

Woensdag zullen we zien hoe het presteert, daarna is kijken of we al iets gaan kopen of niet.
Klopt is ook nog een hoop geld. Maar ik bedoelde de 3060TI. als die op RTX 2080 niveau is en 350 euro kost. noem ik dat redelijk budget 4k gaming ja. 4k is niet echt een standaard eis.
Lees de reactie van WhiteFeather hierboven nog maar eens goed door.
Gereserveerd of gebruikt geheugen is een groot verschil.
4k heb je minimaal 10GB nodig.. EFFECTIEF
2k kan 8 net aan zonder framedrops naar 0,0

[Reactie gewijzigd door A87 op 13 september 2020 20:00]

Dan zet je je texturen van very high naar high. E voila. Weinig verschil zul je toch niet zien. Games als horizon zero dawn zijn ook tevens vrij "meh" qua optimalisatie. Als een voorbeeld. Ik weet dat je deze game niet benoemd. Maar dat heeft nogal invloed op het gebruik van vram. Enige game waar ik wel degelijk rond de 7 a 8gb zat was rise of the tomb raider. Op 4k op very high met high textures. Dus over het algemeen verwacht ik niet dat er veel moeite mee gaat zijn.
De game industrie zal gaan inzetten op de middenmoot, het feit dat 8GB nu genoeg is, wil niet zeggen dat het over 4 jaar niet genoeg is. Grote kans dat als je je video geheugen matcht met wat de nieuwe consoles doen, dat je dan precies genoeg hebt om (bijna) alles op ultra te spelen in 4k, de komende jaren.
Daar geloof ik weinig in gezien veel games consoleports zijn en laat dat nou net de standaard bepalen.
Dat is nu exact wat ik hier vertel, dus ik snap niet waarom je het niet met me eens bent
Toekomst bestendig met midrange is de kans groot dat V-ram geen probleem is maar de GPU te licht.
Van nextgen midrange naar low-end kan zo een 2 'a 3 jaar zijn. Niet genoeg om memory minimums en recommended V-ram sterk te vergroten.
Toekomst gericht is high-end en de meeste bang for tja Buck geeft 3080 als daar nu een 20GB versie van kwam. Met de 3090 24GB ben je kwa GPU rauwe power en V-ram toekomst bestendig. Eer dat degradeert tot lowbudget ben 5++ jaren verder.
Toekomst bestendig blijft altijd een gok.
Zo speelde 8500DV met PS1.4 featureset nog BF2 Maar de performance was zwaar gekelderd.
En wat als AMD straks met dezelfde prestaties komt maar dan 50% goedkoper, je portomonnee zal je uitlachen :D
Allocation is niet hetzelfde als gebruik.
Ja je gaat een kaart kopen van 1500 euro om toekomst bestendig te zijn, slim verhaal..
dat noemen ze optimaal gebruik maken van beschikbare resources.
hzd is misschien een beetje een uniek geval, tenminste zo had ik het begrepen. daarnaast is de port niet fantastisch.

ik moet zeggen dat ik met mijn 1060 nog geen problemen heb met 1080p (ook met HZD)
In welke resolutie is dat? Ik game zelf op 2560x1080 en in shooters probeer ik 120fps te halen op acceptabele details en anders rond de 80fps op (close to) max. Daar heb ik echt niet al te veel geheugen voor nodig. Wat toekomstbestendig is, is dus ook afhankelijk van je scherm en eisen.
Dan koopje dus een RTX 3090 want lekker veel geheugen?

Het probleem met dit soort dingen is dat je nu eenmaal niet met zekerheid kunt zeggen of die 7700MB ook nuttig is of dat men bijvoorbeeld (omdat er toch zo vele geheugen is) alle textures inlaad in een keer in plaats van deze streamt als ze waarschijnlijk nodig zijn omdat je bij dat deel van de map bent aanbeland.

In de game play zul je het niet of nauwelijks merken maar voor de game maker kan het simpel weg zijn dat men efficienter textures en zo inlaad en dus minder kans heeft dat er misschien iets hapert als de disk toevallig op dat moment ook iets anders aan het doen is en het geen SSD is...

Ik zou er zeker niet van uitgaan dat je voor een volgende game een grafische kaart met minimaal 10GB aan geheugen nodig hebt omdat er simpel weg te weinig mensen zijn die zulke kaarten (kunnen) kopen. En als game maker wil je toch graag dat zo veel mogelijk mensen je games kopen en niet dat alleen de top van de markt je games koopt en alle andere mensen de game negeren omdat hun systeem de game niet kan draaien.

Nu kijk ik zelf naar een RTX 3080 of 3070 als mijn volgende kaart, geheel afhankelijk van real world benchmarks en tests en voor een groot deel ook van wat Cyberpunk 2077 er mee doet. Maar dat neemt niet weg dat als een RTX 3060 ti dicht in de buurt komt van de RTX 3080 of in ieder geval een RTX 3070 en nog net even goedkoper is, Cyberpunk vloeiend kan draaien en ik dus alles heb wat ik wil dat ik dan gewoon voor de goedkopere optie kies. Ik kan mijn geld maar een keer uitgeven en er zijn genoeg andere dingen die ik ook graag zou willen kopen.
Heb jij nog 1500 euro liggen?
Zou 3060 Ti beter presteren dan 2070 ? want ben binnenkort van plan om 2070 te halen (tweedehands)
Als de 3070 zogenaamd beter is dan de 2080Ti dan gok ik toch echt dat de 3060Ti echt beter is dan de 2070
Gezien het stroomverbruik kan dat best. Deze rtx3060 verbruikt meer dan de rtx2070. Ik vind het opvallend dat er niemand valt over het stroomverbruik. Volgens Nvidia zijn deze chips net zoveel procenten sneller dan hun voorganger als dat ze aan procenten meer verbruiken. Ergens wel logisch dan dat ze sneller zijn. Ik krijg een beetje het vermoeden dat de 3000 serie niets sneller is dan de 2000 serie bij gelijk verbruik en het daardoor een twijfelachtige generatie is. De rtx2060 had een tdp van 160w.

De higher end chips hebben meer dan 50% hogere tdp in sommige gevallen. Dat is best fors. Zo snap ik de performancewinst wel. Door al het marketinggeweld van Nvidia valt het niet zo op allemaal blijkbaar.

Als AMD inderdaad veel efficiënter gaat worden met Big Navi moet Nvidia wel alles op alles zetten om nu veel 3000 series weg te zetten met hoog stroomverbruik.
Als het amd was geweest had je nu 100 posts gehad over kacheltjes en hoeveel het wel niet kost per jaar aan extra stroom..
Je krijgt een -1 maar als je de reacties onder berichten van de Vega64 doorleest, of van de R290/390 dan staat daar voor een in de praktijk meer geringe stroomtoename veel meer commentaar over. Blijkbaar is nu Nvidia het doet het ineens normaal.

Wel zit er verschil tussen Nvidia en AMD qua tdp. Nvidia tdp lijkt een gemiddelde te zijn en de kaarten komen er gerust 25 tot 40% boven in de praktijk, terwijl AMD meer een max aangeeft die je eventueel kunt configureren in de software als je hoger wilt. Dat geeft een heel vertekent beeld. We zitten met deze Nvidia kaarten boven de 400 watt in de praktijk. Dat is iets waar kaarten in het verleden compleet voor werden afgebrand.
AMD rekent niet met TDP maar met TBP.
Mijn huidige EVGA GTX 1070 FTW met een overclock van 2,04Ghz op core clock en 4,4 Ghz op memory gebruikt zo'n ~223 watt under full load. Het gaat hier dan om een kaart met 1920 cuda cores, geen ray tracing of andere spannende technologiën.

Volgens NVIDIA zou de GTX 1070 150watt aan stroom moeten trekken.

De RTX 3080 zou 8704 cuda cores hebben, nou weet ik dat het blijkt dat niet al deze cores niet dedicated zijn, maar in het geval van gamen mocht je er voor zo ver ik begreep er wel vanuit gaan dat je ze alle 8704 kan gebruiken hiervoor.

Ik heb mijn huidige PC gebouwd met een 750 watt voeding, een i9 9900k @5.1 ghz en ben er vanuit gegaan dat als ik mijn GPU zou upgraden dat deze dan ruim 400-450 watt aan stroom trekt na een overclock. Ik vind dan ook dat de officiële 320 watt t.o.v. van mijn huidige ~220 watt voor mijn GTX 1070 behoorlijk meevallen zelf.

Wellicht dat ik met een aftermarket kaart van EVGA en een flinke overclock met een RTX 3080 zo'n 400-430 watt trek, maar nog steeds is dat 'maar' 2x de power consumption van mijn GTX 1070, terwijl je in theorie zo'n 4,5x de performance krijgt.
Je 1070 was gemaakt op 14nm en je overclock de boel. Ik denk dat ik eens de curve erbij moet halen hoe silicone meer vcore gebruikt bij hogere frequencies ( aka overclocken ).

De 3080 is gemaakt op 8nm. De transistor densiteit verhoogt met +- 3x.

Nu voeg je er nog eens bij, dat een 3080 Cuda core NIET een 1070 Cude core is. De 3080 gebruikt stripped down cores in de praktijk. De 1070 kon FPS16 en FPS32 tegelijk uitvoeren ( googel het, ik ben vergeten of het FPS16 en 32 is of een andere combinatie ), terwijl dat veranderd is bij de 3080 dat men maar 1 van 2 tegelijk kan uitvoeren. Architecturaal is er te veel veranderd over de 2 generaties waardoor je niet meer cude cores kan vergelijken ( zeker met de 30xx Serie ).

In de praktijk zal een 3080 +- 3X de snelheid hebben van je 1070. Je vergelijk ook een mid range kaart van 2 generatie geleden, met een top range kaart.

Als de vergelijk klopt met de 2080TI = 3070. Twee 1070's in SLI hebben +- dezelfde performance als de 2080TI. m.a.w 1070 vs 3070 bekeken, dan is de stroom verbruik met +-60W ( 2/5 ) omhoog gegaan voor +- dubbel de performance. Voeg daar nog eens bij de extra performance van DLSS dat gerust 10 tot 50% meer kan opleveren, iets dat de Pascal kaarten niet kunnen draaien.
Je doet nogal wat aannames met betrekking tot de 3080 en 3070 performance. Laten we eerst de reviews maar even afwachten. Tussen een RTX2080 en GTX1070 zit in het meest gunstige geval nog geen 50% verbetering. Tussen de 2080 en 3080 zit volgens Nvidia in het meest optimale geval in syntetische benchmarks (en de enige benchmarks die er nu zijn, zijn die van Nvidia bij Cuda en OpenCL) een verschil van 100%. Je zou dus kunnen stellen dat je in het meest gunstige geval, in een workload die 100% past bij de architectuur je een een sprong van 2,5 keer kunt maken tussen een 1070 en 3080.

Maar dat is in het meest gunstige geval in Cuda en OpenCL workloads. De praktijk kan weleens anders zijn. In theorie was de Vega64 ook sneller dan de GTX1080 in specifiek gekozen OpenCL workloads (en minen) en we weten allemaal hoe dat er in spellen uitzag. Er zijn heel wat wijzigingen in de architectuur van de 3000 serie die mogelijk niet zo bijzonder veel effect kunnen hebben op spellen die nu al uit zijn. Voor komende spellen weten we het allemaal eigenlijk nog niet. Maar de hype die Nvidia er nu krampachtig omheen aan het bouwen is, baart mij zorgen. Zo agressief waren ze voorheen nog niet aan het marketen voor hun eerdere chips.

Zie dan nog even dat die snelheidsverbetering ten koste gaat van flink hoger verbruik dat procentueel gezien best dicht bij de groei in performance ligt, heb ik mijn twijfels of de 3000 series wel zo interessant gaat zijn.

Als je 50% meer stroom verbruikt voor 50% meer performance, dan is er netto totaal geen verbetering geweest, want dan had je de 'vorige' architectuur gewoon flink kunnen opklokken. Iets waarop het lijkt dat ze mogelijk gewoon gedaan hebben met de 3000 serie. Een paar kleine wijzigingen en verder gewoon opfokken van de 2000 serie. Ik ben daarom ook benieuwd naar Big Navi, als die inderdaad een stuk zuiniger is dan de huidige Navi, dan is dat juist wel een interessante ontwikkeling.

Voor de GTX1080/1070 serie kon ik nog warmlopen, de RTX2000 serie was niet zo indrukwekkend. De 3000 serie is helemaal slaapverwekkend tot nu toe als je een beetje door de Nvidia marketing heenprikt.
maar in het geval van gamen mocht je er voor zo ver ik begreep er wel vanuit gaan dat je ze alle 8704 kan gebruiken hiervoor.
Volgens mij is dat erg optimistische.

Ook als je Turing vs Ampere shaders vergelijk met de performance is duidelijk dat de shaders van ampere (zoals nvidia ze nu telt) minder krachtig zijn wat gaming workloads betreft tenminste.
Even uit gaande van 3070 = 2080Ti performance
dat is 5888 shaders voor de 3070 vs 4352 voor de 2080Ti.

de 3070 heeft dus 35% meer shaders, maar gaat echt niet 35% sneller zijn.
(en dan laat ik nog even buiten beschouwing dat dat ampere iets hoger is geclocked als de 2080Ti.)

Pas ik niet nvidia's 2xfp32 = 2 shaders logica toe toe dan is het 2,944 shaders, en met een ~10% hogere clock meegenomen kom ik op ongeveer 33% krachtiger als de turing shaders (opnieuw, er van uitgaande dat de 3070 inderdaad ongeveer 2080ti performance heeft)

dit zou betekenen dat in games de 2de FP32 unit slechts 1/3 van de tijd gebruikt kan worden, maximaal, als we er van uit gaan dat de bottleneck idd daar ligt.
We hebben het hier wel over een kaart van 2 generaties later, dan vind ik het een beetje simpel om performance per watt te gaan vergelijken en zeggen dat het allemaal maar normaal is.

Het zijn toch wel erg hoge cijfers qua verbruik als je het vergelijkt met vorige series. Maar goed dat is natuurlijk pas echt goed te zien als de reviews er zijn.
een 2070 op 1080 zal prima gaan, met RTX wat minder (ik heb een gekocht en terug gebracht). Als je beetje goed wil gamen op een 1080/1440 moet je toch minimaal een 2080s hebben, en DLSS is echt een must. Anders haal je ouderwedse console framerates. Ik wacht persoonlijk tot AMD met zn kaarten komt. Jammer dat die nog zo lang op zich laten wachten.

Kan me eerst in ieder geval nog verheugen op de kaarten van Nvidia wanneer deze eens goed getest worden door youtube reviewers ipv benchmarks van games die sowieso hoge fps halen. Ik ben bv echt benieuwd wat de 3080 gaat doen in control op 1080/1440.
Om op 1440 te kunnen gamen is een 2070/S of RX5700XT al perfect! je hebt echt niet minimaal een 2080S nodig en al helemaal niet voor 1080p. 2060 of een RX5600XT is al bijna overkill voor 1080p. DLSS is leuk maar er zitten ook wel wat nadelen aan vast en is nog geen standaard.

Ik ben wel net als jou zeer benieuwd naar echte benchmarks van betrouwbare reviewers.
Mijn issue met de 2070 (heb trouwens ook een 2070s getest) is dat deze gewoon minder was dan een 1080ti kwa pure FPS performance. Als je dan ook nog RTX games wil spelen dan kan je daar niet voluit van genieten. Het lijkt er op dat je met die kaarten altijd genoegen moet nemen met minder (lagere settings).

En nogmaals, als de nieuwe 3000 serie kaarten voornamelijk op RTX gebied vele malen beter presteren in games over het algemeen naast puur op FPS gebasseerde prestatie winst. Dan kan het nog wel eens interessant worden. Het zou natuurlijk super cool zijn als Raytracing over het algemeen een standaard wordt. Maar ik denk zelf dat we dan nog wel weer een generatie verder zijn. De framerates in Doom Eternal waren zonder RTX. Leuk 100+ fps op 4k, maar ik zag ook dips van wel 20/30 fps. Dus zo geweldig is dat ding nu ook weer niet. En laten we niet vergeten dat Doom een top game is ook kwa optimalisatie. In metro zou je behoorlijk minder scoren. en daarom ben ik benieuwd naar de reviewers zoals jays2cents, linus etc...

Op mijn huidige systeem i9 (9th gen) 2080s haal ik tussen de 180/250 fps in doom. Dat zijn dus ook nog behoorlijke drops. En dan heb ik het niet over dat ik bij 250 fps tegen een zwarte muur aan het staren ben ;) maar gewoon een een wat kleine ruimte aan het spelen ben met minder monsters.

Het is allemaal nog pure marketing. En natuurlijk zullen de kaarten beter zijn dan de 2070/80 series, maar hoeveel beter, al dan niet puur op RTX gebied moeten we nog zien.

Ik hoop gewoon dat deze dingen er voor zorgen dan je zonder problemen op 1080p of 1440p met RTX kan gamen met een hoge FPS. 4k games is echt maar een paar procent van gamers (afgaant op steam surveys dan).
Veel ultra settings zijn ook allemaal puur marketing zie je meestal geen drol verschil met high settings, gewoon voor wannabee's om extra veel geld uit te geven 8)7 8)7 8)7
Nee, vooral omdat met ultra /nightmare settings je vaak 4k textures aan het inladen bent. Zonde als je een monitor hebt die maar 1080p of 1440p doet idd. Dat zet ik ook altijd lager. En shadows ultra vs high zie je inderdaad ook niet veel verschil.

Maar het verschilt wel per game. En je kan daar behoorlijk wat fps winst mee behalen zonder dat je dan inderdaad achteruit gaat in de visuals.
Ik speel op uktrawide 1440p met een 2070 su0er. Gaat meer dan prima. Haal meestal tussen de 75 a 90fps in moderne titels.
Well, Nvidia heeft gezegd dat de 3070 net iets sneller is dan de 2080 Ti. Goed, dat zijn hun cijfers, dus laten we zeggen dat ie realistisch 10% langzamer is dan de 2080 Ti. 2080 Ti is op zijn beurt een goede 30%-40% sneller dan de 2070. Dus men kan logischerwijs verwachten dat een zogenaamde 3060 Ti beter is dan een 2070. Hij zou, in mijn logica, landen rond een 2080 qua performance.
De 2080 is nu nvidia's snelste GPU die de zelfde hoeveelheid geheugen bandbreedte heeft, dus dat is waarschijnlijk geen slechte gok (Vanaf de 2060S tot de 2080 hebben alle GPU 448GB/s aan geheugen bandbreedte)
Ik zou nog even wachten tot de onafhankelijke benchmarks beschikbaar zijn :)
Lijkt mij wel aannemelijk
Ik zou zeggen van wel ja, maar je kan beter reviews afwachten.
De 3070 komt 15 oktober uit maar de 60 reeks zijn volgensmij altijd best verkopende voor nvidia. Die brengen ze vaak een paar maanden later uit. Denk zelf in januari zoals de RTX 2060 maar misschien willen ze toch nog iets uitbrengen voor de feestdagen en dat ze dan eerst met een duurdere variant uitkomen.

Ik verwacht dat de performance gebaseerd op Cuda cores rond de 2080 zal liggen.
Ligt er aan welke 2070 je bedoelt, want de originele versie wordt al zowat voorbij gestreefd door de 2060super. Denk dat de 3060 voorbij de 2080 zal gaan.
Sterker nog, De 3060Ti is op papier sneller dan een 2070, 2070S, 2080 en 2080S en zal wellicht vaak met de 2080Ti kunnen concurreren, die een hogere geheugenbandbreedte heeft, maar het wel met iets minder cores moet doen.

2070: 2304 cores + 8GB 256 GDDR6 (448GB/s)
2070S: 2560 cores + 8GB 256 GDDR6 (448GB/s)
2080: 2944 cores + 8GB 256 GDDR6 (448GB/s)
2080S: 3072 cores + 8GB 256 GDDR6 (496 GB/s)
2080Ti: 4352 cores + 11GB 352bit GDDR6 (616GB/s)
3060Ti: 4864 cores + 8GB 256 GDDR6 (448GB/s)
Ik denk dat je te optimistich bent.
Als nvidia zelf zegt dat een 3070 gelijke prestaties heeft als een 2080ti (in door haar uitgekozen spellen en settings) dan denk ik niet dat een 3060ti ook even snel is als een 2080ti.
Eerst maar eens zien dat een 3070 inderdaad even snel is als een 2080ti in onafhankelijke benches.

Overigens zijn de cores niet 1 op 1 vergelijkbaar, dat verhaal is al ontkracht. Dus je vergelijking is appels met peren vergelijken.

[Reactie gewijzigd door Arjant2 op 13 september 2020 23:13]

Uiteraard zijn de cores niet 1 op 1 vergelijkbaar, maar je kan wel verwachten dat Ampère sneller is dan Turing en dus de nieuwere 4864 cores in de 3060Ti beter zullen presteren dan de oudere 4352 cores in de 3080Ti. Of niet?
Enkel de bandbreedte is in het voordeel van de 2080Ti, dus op papier lijken ze aan elkaar gewaagd. We zullen zien...
Nee zo werkt het niet.
Als het namelijk zo zou werken dan zou de 3080 2x zo snel moeten zijn als een 2080ti (immers 2x zoveel cores) en dat is niet het geval.
Lees dit even voor uitleg: reviews: Nvidia GeForce RTX 3070, 3080 & 3090 - Alles over de nieuwe RTX-vide...

Daarbij zal Nvidia er echt wel voor zorgen dat er een gat is tussen de 3070 en de 3060Ti, anders is de eerst genoemde gelijk overbodig. Als de 3070 even snel of iets sneller is als een 2080Ti (en dat is nog maar af te wachten) dan zal een 3060ti niet even snel zijn als een 2080ti. Daarbij ook nog eens flink minder geheugen, dus op hoge resoluties zou je dat verschil ook goed kunnen merken.
Maar de onafhankelijke benchmarks gaan het hele verhaal vertellen.

[Reactie gewijzigd door Arjant2 op 14 september 2020 08:15]

Kan iemand mij uitleggen wat de series Ti en Super nu onderscheidt van de 'normale' types? Ik ben door de bomen het bos kwijt.
De super is iets sneller dan de normale versie en de TI is iets sneller dan de super versie, vaak heeft de TI ook wat meer geheugen.
Ti/super zijn snellere varianten van de ‘normale’ uitvoeringen.
Vaak komen die een jaar later als refresh.
Nee het is niet meer dan de hippe naam bedacht door de marketingafdeling. Iets van de helft van de tijd is het zelfs een langzamere versie van een videokaart die er boven staat. Dus nee een snellere versie van een bijna gelijknamige videokaart moet je het niet noemen. Dat is hooguit hoe de marketingafdeling het wil verkopen.
niks. ze hadden het ding gewoon rtx3065 noemen
Nvidia heeft destijds al een verschil gemaakt in de TI en de Super. Voordat Super er was, kwam de TI die iets andere hardware heeft. De super is simpelweg een boost op de toenmalige generatie kaarten. Dat zie je ook terug in de specs van de kaarten.

Super is dus simpelweg een boost van de hardware van de kaart. En TI is een tussenstap met andere hardware dan de non TI versie. Voorbeeld: Een TI heeft vaak iets meer cores dan de non ti maar minder cores dan een stap hoger.
Super is niet simpelweg een boost maar ook andere hardware, bv. de 2070 super heeft 2560 Cuda Cores, de 2070 heeft 2304 cuda cores.

Ti is wel sneller dan super.

[Reactie gewijzigd door Clemens123 op 13 september 2020 15:25]

Oke dan heb ik verkeerd gekeken. Komt er wel op neer dat het meer een marketing ding is.
Hoezo is het een marketing ding?

Het zijn gewoon verschillende namen voor verschillende producten.

Ze kunnen niet kaarten maken met verschillende specs en verkopen onder dezelfde naam, dan zou je een 3060 kopen en niet weten of je dan bijvoorbeeld een kaart met 6g of 8g aan geheugen koopt en daar pas bij levering achterkomen.
Tweakers: Gerucht: Nvidia komt in oktober met RTX 3060 Ti met 8GB gddr6-geheugen RTX 3060 Ti
En die gebruikt 180∼200W, wow wat gebruiken die RTX 3000 serie Grafische kaarten toch een hoop stroom, mijn Geforce GTX 1080 gebruikt 180w, is toch wat dat een Mid/Low end Grafische kaart 180∼200W kan verbruiken.

Hoop dat AMD met veel zuinigere Grafische kaarten komen, die ook redelijk in de buurt komen van de GeForce RTX 3080 qua snelheid, en goedkoper.

Want dan woord me Grafische kaart zeker weten een Radeon HD 6000 series Grafische kaart.

Ben benieuwd of ze een nieuwe Low Profile 75w Grafische kaart uitbrengen Nvidia en AMD, denk niet Nvidia als ik zo de wattage zie.

[Reactie gewijzigd door AmigaWolf op 13 september 2020 16:30]

Je koopt een rtx kaart toch voor de raytracing? Weet niet of amd hier al iets voor aanbiedt.
De Radeon HD 6000 series Grafische kaarten krijgen ook raytracing zij AMD, dus geen probleem, en helemaal geen probleem als raytracing je niks doet.

En waarom is mijn post boven weer omlaag gemod, wat zeg ik NOU weer fout, dat het niet gezien mag woorden zonder het open te maken?!?!
Je schopt de nvidia fanbois want je hebt het over stroomverbruik, dat mag alleen als het amd is...;)
Je schopt de nvidia fanbois want je hebt het over stroomverbruik, dat mag alleen als het amd is...;)
Geen idee, het was heel erg raar, was net of iemand de pik op me had, maar blijkbaar zijn er nog wel meer mensen die nog normaal kunnen regeren en denken, ik heb niet een merk waar ik alles van moet hebben, als die van AMD snel is en goedkoop en ook nog is minder verbruiken ga ik zeker voor AMD hun grafische kaarten.
Ben nergens fan van, ja van most bang for mijn buck, of t nou amd of nvidia is maakt me niks uit.
Denk je? Uiteindelijk beloven de volgende generaties consoles met AMD graphic ook raytracing, dus het zou “verrassend” zijn als AMD dat niet ook in zijn volgende generatie kaarten stopt...
Tja, was het maar zo simpel. De 1060 bijvoorbeeld kent twee uitvoeringen, aangeduid met de toevoegingen '3 GB' en '6 GB'. Dat onderscheid wordt echter op veel plekken niet gemaakt, ook op nVidia's eigen materiaal. Daarnaast is er meer verschil dan alleen de hoeveelheid geheugen: ook het aantal CUDA cores verschilt en dat zie je alleen door de spec sheets te vergelijken, dus de naamgeving is op z'n minst misleidend.
Denk eerder dat de supers een reactie zijn op de midrange 5serie Gkaarten van AMD.
Als er een 6serie iets ergens mooi tussen valt is dat voor nV weer een reden om misschien daar ook iets te positioneren. TI was er al dus Super.
Waarom een RTX 3060ti? En niet gewoon eerst de RTX 3060? Beetje vreemd.
Het zou kunnen samenhangen met het productieproces; ik meen dat in het verleden de Ti nog wel eens de "hogere stap chip" met uitgeschakelde cores / minder RAM / etc. was. Als de yields voor de chip voor de 3070 aan de lage kant zijn, kan het dan interessant zijn een 2060 Ti te introduceren.

Het is alleen niet altijd zo dat de Ti gebaseerd is op een chip een stapje hoger...Nvidia is op dat vlak niet erg consistent. Naamgeving van GPU's is eigenlijk nooit heel erg voorspelbaar en logisch geweest als je over de langere termijn kijkt.
Het feit dat het vanuit jouw redenering niet logisch lijkt, ligt eerder aan jouw redenering dan de consequentheid van NVIDIA. Het eigenlijk alleen bij de (X)X80 Ti zo geweest dat die de grotere chip (de XX2 versie) gebruikte.
980 -> 980Ti
1080-> 1080ti
2080->2080ti

De Ti versie is gewoon de snellere versie met eventueel meer geheugen. En dat is waar of je nou een GTX 560ti of een 1070ti pakt, ze zijn sneller dan respectieflijk de GTX 550 en 1070 GTX. Het is net als de achtervoegsels super, pro of XT niet meer dan dat, een achtervoegsel. Je zoekt er echt veel te veel in.

Verder, als je gaat kijken naar de 900 of 2000 serie zie je dat het met de onlogica de laatste generatie ook echt wel mee valt:

https://en.wikipedia.org/...g_units#GeForce_20_series

Hoger nummer = sneller
Super = sneller dan zonder super
Ti = sneller dan zonder Ti

Uiteraard mixen ze ook wel eens van alles door elkaar waardoor het ongelooflijk moeilijk wordt om te zien wat je hebt (de 1060 bijboorbeeld). Maar gelukkig geldt ook hier, 1070 > 1060 > 1050, welke 1060 versie je ook pakt.

[Reactie gewijzigd door Thekilldevilhil op 13 september 2020 17:01]

Ok, maar welke is sneller, de GTX 1660 Super of de GTX 1660 Ti? En de GTX 2060 is sneller en nieuwe dan die twee, toch?

De laatste paar jaar is het wat consistenter geworden, maar je haalt al een belangrijk probleem aan; bij de x80's is de Ti doorgaans gebaseerd op een andere chip, dus hoeveel beter een Ti is, is niet heel voorspelbaar. En bij de andere kaarten met het Ti achtervoegsel is het vaak hetzelfde aantal transistors: GTX 1050 en de GTX 1070 en hun Ti tegenhangers.

GeForce GTX 1060 6GB (GDDR5X) dan...GP104 in plaats van GP106 van de GTX 1060 6GB, de GTX 1060 5GB en de GTX1060 3GB.

En de vraag van de OP is hier zeer terecht: waarom eerst en Ti voor een non-x80 introductie terwijl de Ti's voor lager gepositioneerde kaarten eigenlijk altijd pas later komen.
Ik snap er ook niks meer van
Ik begrijp er niks meer van. Er waren meerdere personen die zeiden dat er geen Ti varianten zouden komen. Waar hebben zij hun informatie vandaan gehaald? Nu lijkt de 3080 het vlaggenschip en de goede keuze voor de langere termijn, maar wat als er een paar maanden later ineens een 3080 TI uitkomt?
En wat als dit gerucht, duidelijk bestempeld als "gerucht", niet klopt? :P Blijkt dat niemand een perfecte glazen bol heeft over wat Nvidia gaat doen, behalve Nvidia. En die willen hun eigen ruiten niet ingooien door nu al in geuren en kleuren uit te leggen welke kaarten er GAAN komen, al was het maar om flexibel in te kunnen spelen op wat AMD gaat doen. Als je zekerheid wil over wat de beste koop is zul je toch echt nog een maand of twee moeten wachten (minstens). NV rekent er natuurlijk op dat de meeste mensen dat niet willen doen en FOMO hun preorders inblaffen.
Blijkt dat niemand een perfecte glazen bol heeft over wat Nvidia gaat doen, behalve Nvidia.
Eerlijk? Ik denk dat ze hun bol dan waarschijnlijk verloren hebben bij een verhuis! Het enige wat nvidia doet (en moet doen) is reageren op de markt. Als de markt zegt dat ze een 3060ti nodig heeft, moet nvidia die maken.

Let wel: markt betekent niet alleen de consument, maar ook kijken naar de concurrentie en naar je eigen resources. Als je een productielijn over hebt kun je je niet veroorloven om die mensen met hun vingers te laten draaien, noch kun je AMD een monsterkaart laten uitbrengen zonder er iets tegenover te stellen.
Het resultaat hiervan is jammer genoeg meestal ook een dikke soep aan verschillende naamgevingen (ti, super, titan, gtx/rtx) want de markt verandert elke nanoseconde (had jij in 2002 een toestel als je iPhone in je zak willen hebben?)
Laat ik het anders formuleren, dan: Nvidia weet in ieder geval als eerste precies wat Nvidia van plan is in oktober, voor de rest het weet. Natuurlijk is het zo dat geen enkel plan het eerste contact met de realiteit overleeft, ook voor NV niet, maar het is ook weer niet zo dat NV niet alvast een strategie heeft uitgestippeld voor als dingen "naar verwachting" gaan, en wat de markt gaat willen weten ze ook al best goed. Om te beginnen lijkt het er in ieder geval op dat ze er een voorschot op hebben genomen dat AMD een beetje gaat meedoen deze generatie, gezien de specificaties en de prijsstellingen. Aan welke knoppen er verder gedraaid gaat worden en welke gaatjes gevuld moeten worden kan inderdaad nog behoorlijk variëren.
Ze doen het bijna bij elke generatie.
Ik ben er zeker van dat er een 3080Ti komt, een paar maand tot +-6 maanden na de 3080 met een performance die +- 20% lager zit dan de 3090, de 3090 moet je een beetje zien als een Titan.
na de 3080 met een performance die +- 20% lager zit dan de 3090
De 3090 heeft praktische de zelfde clocks als de 3080, en 20% meer shaders en bandbreedte.
Als we uit gaan van lineaire scaling voor de 3090, en daar weer 20% vanaf halen, kom je onder de 3080 uit.

3080 = 100
3090 = 100 * 1.2 = 120 (linear scaling van de 20% shaders)
120 * 0.8 = 96

Het lijkt me niet dat een 3080Ti langzamer gaat zijn als een 3080.

[Reactie gewijzigd door Countess op 13 september 2020 18:27]

Dat is het probleem, dit mag je niet zomaar linear scalen. Er zijn meer factoren dan dat.
natuurlijk zijn die er, en hoe meer je daarvan mee pakt hoe langzamer jouw voorgestelde 3080Ti van 3090 -20% zal zijn ten opzichte van de 3080.

Die lineaire scaling was de best case scenario voor jouw, en zelfs dan kom je onder de 3080 uit.
"voor mij" ik ga er gewoon uit zoals ze zo vaak hebben gedaan weet je.
Er zouden geen supers komen..
Kan niet wachten op de 30XX series in de laptops! en wat dat voor RTX gaat doen op het mobiel platform
Een hoop gethrotle TDP zit niet mee, mogelijk voor desktop vervangers 2 'a 3kg bakbeest voornamelijk voor flinke koeling. Voor mobiel de kleinste in ULV low klok versie.
Gezien hij gewoon een TI in de naam krijgt ga ik er stiekem vanuit dat er toch echt gewoon een 3080ti komt. Ik ga wachten ;)
Ja die komt er sowieso nog aan, dat is in feite de 3080 versie met 20Gb ram die ze nog zouden uitbrengen. Die komt waarschijnlijk dan ergens in 2de kwartaal volgend jaar, afhankelijk van hoe AMD uit de verf komt met big navi.
Dit kan wel eens een hele mooie budget kaart worden. 399 euro denk ik?
Lijkt me sterk dat nVidia een Ti gaat uitbrengen dit jaar verwacht eerder een regular RTX 3060 in de 2e helft van Oktober net als met de 20 serie.

Het zou namelijk behoorlijk onzinnig zijn in mijn ogen om het gras voor de 3070 weg te maaien (wat de specs in het artikel dus zeker zullen doen)

Supers en Ti's komen waarschijnlijk volgend jaar pas als refresh van de huidige lineup
Beetje vaag dat ze kennelijk eerder met een 3060Ti komen dan een gewone 3060, maar het zal wel een reden hebben.. Waar AMD mee komt misschien?


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True