Gerucht: Nvidia GeForce RTX 3060 Ti met 4864 Cuda-cores komt op 17 november uit

Nvidia zou volgens geruchten van plan zijn om op 17 november een GeForce RTX 3060 Ti-videokaart uit te brengen. Eerdere geruchten claimden al dat een RTX 3060 Ti medio november onthuld zou worden.

Nvidia zou de releasedatum van de GeForce RTX 3060 Ti op dinsdag 17 november gepland hebben, zo claimt Chinese techwebsite MyDrivers. Dat is een dag voor de release van AMD's Radeon RX 6800- en 6800 XT-videokaarten, die op woensdag werden aangekondigd.

VideoCardz claimt op zijn beurt dat de RTX 3060 Ti momenteel al naar verkopers wordt verstuurd. De videokaart zou binnenkort ook in handen komen van reviewers. De techwebsite baseert zich daarbij naar eigen zeggen op bronnen van Nvidia-board partners. De voorraad zou bij release vergelijkbaar zijn met die van de RTX 3070, zo schrijft VideoCardz.

De eerste geruchten over de RTX 3060 Ti verschenen in september. Volgens toenmalige geruchten zou de gpu in kwestie 'eind oktober' verschijnen, maar later zou de release zijn opgeschoven naar medio november. De videokaart krijgt volgens geruchten een teruggeschroefde GA104-gpu met 4864 Cuda-cores. De videokaart krijgt volgens geruchten dezelfde geheugenopstelling als de RTX 3070, met 8GB aan gddr6-geheugen en een 256bits-geheugenbus. De RTX 3070 heeft wel 1024 extra Cuda-cores.

Vermeende Nvidia RTX 3000-line-up
Model RTX 3090 RTX 3080 'RTX 3070 Ti'* RTX 3070 RTX 3060 Ti*
Gpu 8nm, GA102-300 8nm, GA102-200 8nm, GA102-150 8nm, GA104-300 8nm,
GA104-200
Cuda-cores 10496 8704 7424 5888 4864
Boostsnelheid 1700MHz 1710MHz Nnb 1730MHz Nnb
Vram 24GB gddr6x 10GB gddr6x 10GB gddr6x 8GB gddr6 8GB gddr6
Geheugensnelh. 19,5GBit/s 19Gbit/s Nnb 14Gbit/s 14Gbit/s
Geheugenbus 384bit 320bit 320bit 256bit 256bit
Bandbreedte 936GB/s 760GB/s Nnb 448GB/s 448GB/s
Tgp 350W 320W Nnb 220W 180∼200W(?)
Releasedatum 24 september 17 september Nnb 29 oktober '17 november'
Adviesprijs (Founder's Edition) 1549 euro 719 euro Nnb 519 euro Nnb

* Op basis van onbevestigde geruchten

Door Daan van Monsjou

Redacteur

01-11-2020 • 15:09

176 Linkedin

Submitter: Potenscia

Reacties (176)

Wijzig sortering
Het enige wat ik kan zeggen: Wat een bende.

Op en top paniekvoetbal dit. De 3090, 3080 en 3070 zijn nog bijna niet te krijgen en de 3060TI/3070TI zitten al in de pijplijn als reactie op AMD.

Zitten we zo met 6 verschillende types die bijna niet verkrijgbaar zijn. Als het alleen leverings- en voorraad problemen waren, oké, maar met alle andere zaken bij elkaar is dit echt een puinhoop.

(Nog meer types doet ook niks ten positieve voor de voorraad van de andere modellen..)

[Reactie gewijzigd door Valandin op 1 november 2020 15:20]

Als de 3070 TI geruchten kloppen dan zijn het gewoon de 3080/3090 chips die net niet door de keuring komen. Mogelijk is daar best een voorraadje van. Gelijk geheugen ook aan de 3080, dan is het ontwerp ook copy paste.

Als de 30760 TI geruchten kloppen dan zijn het gewoon de 3080/30903070 chips die net niet door de keuring komen. Mogelijk is daar best een voorraadje van. Gelijk geheugen ook aan de 30870, dan is het ontwerp ook copy paste.

Een normale RTX 3060 met nog een andere chip, daarvan mogen ze de productie wel terugschroeven ten faveure van de GA102/4 modellen tot die markt wat meer verzadigt is. Wel een kleine productie aanhouden voor een voorraadje en ervaring met het productie proces natuurlijk :)
(Edit: Dit is bij het uitgangspunt dat de yield niet zo slecht is dat er meer chips overblijven dan werkelijk gebruikt kunnen worden. Hier is nog geen duidelijkheid over dus neem deze reactie met een korreltje zout)

Klopt, maar om dus een voorraad afgekeurde 3080/3070 chips te krijgen, moet je wel voldoende 3080/3070 chips hebben.

De 3070TI kan dus nooit een grotere voorraad krijgen dan de 3080, en die is al om te janken.
De 3060TI kan dus nooit een grotere voorraad krijgen dan de 3070.
De 3070's lijken qua voorraad wel wat beter te gaan dan de 3080's, maar nog steeds erg weinig.

[Reactie gewijzigd door Valandin op 1 november 2020 16:11]

Je doet aannames die helemaal niet waar hoeven te zijn.

1. Zoals in de tabel te zien is zullen de GA102's voor zowel de 3080 als de 3070 Ti gebruikt worden. Stel dat ze daar 100 stuks van proberen te maken, en er voldoen 80 niet en 20 wel aan de eisen om als 3080 door te gaan. Dan heb je dus 20 chips voor de 3080, en mogelijk 80 voor de 3070 Ti.
Dus 3070 Ti voorraad zou wel groter kunnen zijn dan 3080.

2. GA104 is voor de 3070 en 3060 Ti. Zelfde verhaal: als er meer GA104's afgekeurd dan goedgekeurd worden om als 3070 door te gaan, maar de afgekeurde wel goed genoeg zijn om als 3060 Ti te werken, dan kan je dus wel een grotere voorraad 3060 Ti's hebben dan 3070's.
De aanname dat 80% van de GA102 chips nog geen eens goed genoeg zouden zijn voor een RTX3080 lijken mij zeer onwaarschijnlijk. Dan was de hele 3080 nooit met deze hoeveelheid cores uitgebracht.
Wat hadden ze dan moeten doen. Ze zouden dan helemaal met lege handen staan en ze wisten vrij goed wat er kwam uit het andere kamp.
Een RTX3080 met minder cuda cores uitbrengen voor een lagere prijs. De veel hogere yields zou die lagere prijs prima compenseren, en als je yields later onder controle hebt komt je met een 3080Ti.
Dat doen ze toch in de vorm van rtx 3070ti?
Ze hadden nooit de 3080 uitgebracht met huidige aantal cuda cores als ze nu 80% van de dies aan de kant moeten leggen. Dan waren ze begonnen met iets wat minstens een 70-80% yield was ofzo.
Dat lijkt mij idd ook het meest logisch, maar zolang er geen cijfers bekend zijn is dit lastig te beoordelen. Bedrijven kunnen gekke stunts uithalen als ze zich bedreigd voelen (zie Intel die nu al een paar jaar op rij paniekvoetbal speelt).

Only time will tell denk ik dan maar.
Denk niet dat zo'n verhaal ooit nog uitkomt hoor, want dan staan ze in hun hemd.
Jammer dat het allemaal zo stroef moet gaan allemaal, voor iedereen behalve AMD...
Dan waren ze sowieso trager geweest dan de concurrentie want ze konden sterk vermoeden op welk niveau zij zaten. Dit is volgens mij ook de enige reden van de 3090: proberen die performance crown te behouden.
Het is geen aanname, het is een theoretisch voorbeeld.
Zie ook de zinsneden "Stel dat..." en "als er meer (...) afgekeurd dan goedgekeurd worden..."
Dat zou een afschuwelijke yield ratio zijn.
Valandin deed de aanname "3070Ti zijn er altijd minder van dan 3080".
Die aanname werd weerlegd door Hahn met behulp van een tegenvoorbeeld.

Hahn doet dus geen aanname. Het gaat dan dus ook niet om de waarschijnlijkheid van dat tegenvoorbeeld binnen de context van het weerleggen van die aanname. Tot dusver mijn lesje logica en redeneren.

Een realistischer tegenvoorbeeld is dat maar 49% van de 3080's de test doorstaan, en dat 51% 3070Ti wordt. En dan geldt nog steeds dat de aanname van Valandin niet klopt.

En heel gek is het ook niet, yields zijn zeker niet gegarandeerd hoog in den beginne van de lifecycle van een chip. Die yields kunnen in de loop van de tijd verbeteren door bijvoorbeeld optimalisaties in het chipontwerp, dat worden ook wel steppings genoemd.

[Reactie gewijzigd door A Lurker op 1 november 2020 21:52]

Ja tuurlijk.
Maar om advocaat van de duivel te spelen: Jij doet ook aannames die helemaal niet waar hoeven te zijn.
Je maakt een erg goed punt hoor. Dat kan zeker waar zijn, we gaan de bevoorrading meemaken. Ik hoop natuurlijk dat dit het geval is en er zo een gigantische lading 3070TI/3060TI kaarten onze kant op komen.

Maar op dit moment geloof ik nog niet dat de yields zo slecht zijn dat ze meer chips overhouden dan werkelijk kunnen gebruiken voor kaarten.

[Reactie gewijzigd door Valandin op 1 november 2020 17:19]

Ik houd een slag om de arm, terwijl jij zegt dat het 'nooit kan', terwijl dat wel zou kunnen ;) Mijn voorbeelden van 20 vs 80 zijn overigens slechts voorbeelden om m'n punt te maken. Dat is niet wat ik verwacht.

En waarom geloof je niet dat yields zo slecht zouden kunnen zijn dat ze meer afkeuren dan goedkeuren? Ik meen eigenlijk nog nooit precieze cijfers gehoord te hebben over hoeveel procent van een yield goed genoeg is.

Ik kan me best voorstellen dat als een yield nog in de kinderschoenen staat, dat het succespercentage nog niet geweldig is, en dat je dus bijvoorbeeld best kan hebben dat 45% slaagt als 3080, en 55% net niet goed genoeg is en door kan gaan als 3070 Ti. (En dan heb je dus al dat er meer 3070 Ti's dan 3080's gemaakt kunnen worden.)

[Reactie gewijzigd door Hahn op 1 november 2020 16:17]

In het verre verleden was dat ook zo met geheugenchips, de afgekeurde werden voor de helft gebruikt.

Praktijkvoorbeeld is sir Clive Sinclair, die afgekeurde 64K chips (opgebouwd uit 2 X 32K) gebruikte voor de ZX Spectrum. Enige voorwaarde was dat bij alle IC's van de 32K bank dezelfde helft van de 64K werkte.
Daarmee bespaarde hij bakken met geld omdat de (half) defecte IC's veel goedkoper waren dan volledig werkende en hij daardoor de ZX Spectrum veel goedkoper in de markt kon zetten.

edit: de geheugen-ic's blijken zelfs nog te koop

[Reactie gewijzigd door slb op 1 november 2020 19:51]

Ja tuurlijk.
Maar om advocaat van de duivel te spelen: Jij doet ook aannames die helemaal niet waar hoeven te zijn.
Je maakt een erg goed punt hoor. Dat kan zeker waar zijn, we gaan de bevoorrading meemaken. Ik hoop natuurlijk dat dit het geval is en er zo een gigantische lading 3070TI/3060TI kaarten onze kant op komen.

Maar op dit moment geloof ik nog niet dat de yields zo slecht zijn dat ze meer chips overhouden dan werkelijk kunnen gebruiken voor kaarten.
Bij een goedkopere kaart als de 3070 ti (als ie al gaat uitkomen, is niet officieel aangekondigd) hoort een hoger volume.

Het is niet heel waarschijnlijk dat je dan gaat wachten tot er voldoende 3080 chips zijn mislukt. Veel waarschijnlijker is dat er een stuk van de chips wordt afgesneden (laser cut) en er alsnog een flinke winst marge wordt behaald. Het idee van chips harvesten is een goed verhaal echter zoals uit je eigen argumenten al blijkt in andere reacties is het een niet zo waarschijnlijk scenario als een eventuele cut-down van prima functionerende chips.

[Reactie gewijzigd door sdk1985 op 2 november 2020 15:00]

Chips zijn geen bulk product, waar je een stuk van kunt afsnijden. Je hebt een rechhoek op de wafer met daarbinnen alle benodigde delen - CUDA cores, geheugencontrollers, pads om de pinnen aan te sluiten, etcetera. Die rechthoek staat al vast op het moment dat je het mask voor de wafer maakt.

Er is niet echt een noodzaak om een hoger volume te hebben. Ze kunnen de 3070Ti als een exclusive neerzetten, bijvoorbeeld voor Alienware en vergelijkbare klanten.
Bij een cut down is dat toch eigenlijk precies dat wordt gedaan. Met een laser wordt er een stuk van de chip uitgeschakeld. Chips zijn modulair ontworpen en je kunt diverse 'blokken' uitschakelen. Zie bijvoorbeeld de GTX 970 waar 2 SM blokken en een L2 blok is uitgeschakeld: https://hexus.net/tech/ne...gtx-970s-memory-problems/

Mijn punt is dat de uitgeschakelde blokken niet persé kapot hoeven zijn. Je kunt prima werkende blokken uitschakelen. Vroeger, toen ze nog niet met die lasers werkten, kon je dan met een andere bios de boel nog weleens 'unlocken'. Zie bijvoorbeeld https://www.techpowerup.c...md-radeon-rx-560d.240735/

[Reactie gewijzigd door sdk1985 op 2 november 2020 14:09]

Functionele blokken uitschakelen is inderdaad wel vaak mogelijk. Dat kan met lasers, dat kan met e-fuses.

En "kapot" is niet altijd zo zwart-wit. Een blok wat op zich wel werkt, maar niet op de beoogde spanning en frequentie is ook een probleem. Het kan ook dat er een kortsluitinkje in zo'n blok zit waardoor het lokaal te heet wordt.
Je mist alleen een punt en dat is dat men dan wel een groot tekort gaat krijgen voor de rtx 3080 of 3090 ;)

Ook zie ik niet dat de huidige problemen alleen maar komen door de chip productie, er zijn veel meer problemen omtrent de nieuwe kaarten. De productie van de kaarten bestaat niet alleen maar uit een chip, daar komt toch veel meer bij kijken, en er hoeft maar op 1 van al die onderdelen iets niet goed te gaan en men loopt vast. De corona crisis zal hierbij ook niet mee helpen.

Het feit dat Nvidia een basis ontwerp met minimale specificaties heeft gedeeld met hun partners die blijkbaar problemen veroorzaakt, waarbij men zelf een beter ontwerp heeft gemaakt voor hun reference kaarten zegt toch wel genoeg. De communicatie van Nvidia op dat gebied is wel heel erg slecht.
Als men aannames wil gaan doen, misschien dat de Partners zich nu wel eerst bezighouden met de AMD kaarten tot men alles op orde heeft bij Nvidia ;)
Welk probleem met minimale specs doel je precies op?
De crash problemen die de kaarten van de AIB's (partners) hadden en de oorzaak ervan. Dit is gewoon gekomen door de slechte communicatie van Nvidia. Nvidia heeft een ontwerp vrijgegeven aan hun AIB's om hun kaart te kunnen produceren, alleen dit ontwerp hebben ze zelf nooit gebruikt en waarschijnlijk ook niet uitvoerig getest want bepaalde kaarten crashten.
Gelukkig kwamen bepaalde partners er achter voordat ze de kaarten verscheepten, maar het testen en het probleem achterhalen heeft hun wel tijd en geld gekost. En men moest hun ontwerp aanpassen door andere condensatoren te gebruiken om het probleem te verhelpen.
Bedoel je nu de crashes waar alle kaarten last van hadden. Behalve als je de Windows creator of Linux driver gebruikte, en die bij de Windows game driver opgelost zijn door een driver update?

Of bedoel je de partners die op de speculatie van Igors Lab antwoorden dat ze voor hun eigen kaarten een condensator upgrade gedaan hebben? En als het om dat laatste gaat, hoe weet je dat gebeurde bij kaarten met minimale specs? En dat het niet bijvoorbeeld verbeteren van factory-overclock potentieel voor een OC versie was? Is daar ergens een bron van?
Of bedoel je de partners die op de speculatie van Igors Lab antwoorden dat ze voor hun eigen kaarten een condensator upgrade gedaan hebben? En als het om dat laatste gaat, hoe weet je dat gebeurde bij kaarten met minimale specs? En dat het niet bijvoorbeeld verbeteren van factory-overclock potentieel voor een OC versie was? Is daar ergens een bron van?
Hoe kom je er bij dat de partners op eigen speculatie naar aanleiding van Igors lab hun condensatoren hebben aangepast. Bij verschillende fabrikanten is bij testen dit al naar voren gekomen, voordat de kaarten überhaupt in massa geproduceerd werden? EVGA bijv.

https://videocardz.com/ne...0-crash-to-desktop-issues

Het ander groot probleem is dat de officiële drivers pas heel laat beschikbaar waren voor de AIB's. Het is maar de vraag of de drivers ontwikkeld zijn naar specificaties van de Founders Edition kaarten van Nvidia zelf of dat men uit is gegaan van het basis ontwerp. Door minder hoge boosts te gebruiken heeft men het probleem kunnen inperken.

Men heeft vanuit Nvidia de zaken gewoon gepushed terwijl ze er helemaal niet klaar voor waren. Dit blijkt maar weer want de producten zijn nergens te koop.
Hoe kom je er bij dat de partners op eigen speculatie naar aanleiding van Igors lab hun condensatoren hebben aangepast.
Nou... niet... want dat heb ik niet gezegd. Lees nog eens.
Bij verschillende fabrikanten is bij testen dit al naar voren gekomen, voordat de kaarten überhaupt in massa geproduceerd werden? EVGA bijv.
En waar heb je gezien dat dit een "minimale spec" configuratie was?
Het ander groot probleem is dat de officiële drivers pas heel laat beschikbaar waren voor de AIB's. Het is maar de vraag of de drivers ontwikkeld zijn naar specificaties van de Founders Edition kaarten van Nvidia zelf of dat men uit is gegaan van het basis ontwerp.
Als je een argument baseert op een vraag kun je tot elke conclusie komen die je maar wil. Als je beweert dat de drivers op een verkeerd ontwerp gebaseerd zijn geef dan een bron.
Door minder hoge boosts te gebruiken heeft men het probleem kunnen inperken.
Waarom kunnen nu dan stabiel hogere OCs gehaald worden?
Men heeft vanuit Nvidia de zaken gewoon gepushed terwijl ze er helemaal niet klaar voor waren. Dit blijkt maar weer want de producten zijn nergens te koop.
En dat is nieuw? Er zijn ook genoeg Intel CPUs (10900k) en AMD videokaarten (Vega) en CPUs (3300x) uitgebracht die maanden (of langer) zeer slecht verkrijgbaar waren.

[Reactie gewijzigd door cnieuweboer op 2 november 2020 12:21]

Anoniem: 310408
@Valandin1 november 2020 15:40
De 3070TI kan dus nooit een grotere voorraad krijgen dan de 3080, en die is al om te janken.
Tuurlijk wel. Als Nvidia een berg afgekeurde 3080's hebben liggen (zoals sommige mensen beweren) kunnen ze wellicht meer 3020Ti maken dan werkende 3080's.

Het feit dat ze gewoon niet voldoende kunnen leveren doet sterk vermoeden dat de problemen hebben. De 3070Ti zou dan geen reactie op AMD zijn maar een manier om de minder goed werkende versies alsnog te kunnen verkopen.
+1
Maar wanneer komt de 3020Ti op de markt? :+
Lijkt mij een mooie budgetkaart die wél past bij mijn portemonnee, win-win! :P
Niet als de geruchten kloppen dat yields van samsung zo treurig slecht zijn dat maar een heel klein deel van de geleverde chips zich gedraagt naar spec. Als GA102 maar 10% geschikt is voor 3090's en 20% (willekeurige getallen), hou je een enorme bak chips over waar hopelijk nog wel 3070Ti's uit te produceren zijn.
Zover ik weet komen de leverings problemen niet door de videochips maar door een gebrek aan VRAM chips.

Dit zal ook komen door de grote hoeveelheid die nodig is voor de launch van de nieuwe consoles.
Alles uitverkocht, mooie hype. En jij vindt het een bende?

Mijn gok, new ath 2021, more profitable, better roi, explore new markets.
Als de 3070 TI geruchten kloppen dan zijn het gewoon de 3080/3090 chips die net niet door de keuring komen. Mogelijk is daar best een voorraadje van.
Het is niet te hopen voor nvidia. De 3080 is al voor ~20% uitgeschakeld. Als ze veel chips hebben die zelfs dat niet halen zijn de yields wel erbarmelijk slecht.
De slechtere yield is inherent aan de toegenomen oppervlakte. Hoe groter je de chip maakt des te groter de kans dat er een fout optreedt. De productie is door Nvidia ook nog eens verspreid over verschillende fabrieken, TSMC en Samsung, waarbij het gerucht rondwaart dat de yields bij de laatste héél erg laag zijn.
Ik dacht dat AMD's 532 mm2 gigantisch was, maar blijkbaar is Nvidia met 628 mm2 rustig zo'n 20% groter! Geen wonder dat er zoveel issues zijn dan.
Dat is niet het enige dag copy / paste is. ;)
Ga er maar vanuit dat de RTX3080Ti ook nog wel komt. ;)
Als dat waar is dan heeft de 3090 geen nut meer.
De 3090 is niet zoveel sneller dan de 3080 dat men daar een kaart tussen kan zetten vind ik en de prijs zou daartussen moeten liggen, dan maken ze zelf de 3090 overbodig.
Als dat waar is dan heeft de 3090 geen nut meer.
De RTX 3090 is voor de GTX 1000 serie gewoon de Titan, ik geloof dat die er ook was voor de RTX 2000 serie. Ik zie dus niet waarom een RTX 3080ti niet zou kunnen, genoeg ruimte er tussen beschikbaar om daar ruimte voor te hebben, ook qua prijs, bijvoorbeeld.
De 3090 is niet zoveel sneller dan de 3080 dat men daar een kaart tussen kan zetten vind ik en de prijs zou daartussen moeten liggen, dan maken ze zelf de 3090 overbodig.
Als het performance-wise zo weinig zou uitmaken, wat verklaart de dubbele prijs dan? ;) Ik kan mij niet voorstellen dat bijvoorbeeld de SLI support, wat meer geheuren en een andere die (GPU) zoveel meer kan kosten. ;)

EDIT:
@Santee dank voor de info! Toch zie ik tussen de RTX 3090 en de RTX 3080 echt wel voldoende ruimte zitten, dat een 3080Ti echt zo'n gek idee nog niet is.

[Reactie gewijzigd door CH4OS op 2 november 2020 00:27]

Het is geen Titan, alleen qua vram is het een Titan. Het mist alle functies die juist een Titan een Titan maken... Het is gewoon een marketing spelletje van Nvidia om zogenaamd te verantwoorden waarom ze $1500 mogen vragen voor een consumentenkaart.
Hmmm, check. Dat deel wist ik dan weer niet, inderdaad. Thanks! :)
Als ik dit artikel lees is die naam overigens al een tijdje haar waarde verloren:
'The primary reason for the existence of the original TITAN brand was because it offered a much higher double-precision ratio than the standard GeForce cards along with other variants - something that got eroded over time and generations.

The last TITAN was just a very powerful GPU with a ton of vRAM with almost none of the "pro" features. This is why moving this branding to RTX 3090 makes a lot of sense.'

Originele Titan had dus meer de professionele functies, maar aangezien de echte pro kaarten momenteel voor ~€10.000+ over de toonbank gaan hebben ze waarschijnlijk die functies er al eerder uit gehaald, anders verkopen hun dure kaarten natuurlijk niet zoveel meer.

[Reactie gewijzigd door Santee op 2 november 2020 10:16]

Dat is waar, maar een 3080Ti zou wel flink qua geheugen tussen de twee kunnen zitten. Want de 3090 heeft immers meer dan 2x zoveel. Zeg 16GB.

[Reactie gewijzigd door GekkePrutser op 1 november 2020 20:00]

Vergeet niet dat ze er uiteindelijk ook nog ergens een Super-variant tussen willen/moeten/gaan proppen in de line-up :Y).
En ik maar hopen dat ze naar een normale naamgeving gingen. Geen Ti meer maar enkel cijfers, en met SUPER erachter voor de refresh variant.
Dat had ik ook gehoopt, maar als ik de huidige lineup zie heb ik nog niet het idee dat men al over/terug is naar een normale naamgeving. Ik heb nog geen enkele indicatie gezien dat men die kant op gaat. Nu ze eenmaal zo ver zijn, vermoed ik zomaar dat de rest van de 3xxx en de hele 4xxx linie ook het huidige format aanhouden.

Wie weet wat we daarna voor nummers krijgen, dus ik hou er nog even de moed in dat het met een jaar of wat weer bijgetrokken is. Wie weet...
16GB is een rare hoeveelheid, dan heb je geen logisch bus. Het is veel logischer om de 3080ti dezelfde bus te geven als de 3090 en dan met de helft van de geheugenchips (dus alleen voorkant van de pcb) = 12GB GDDR6X.
valt wel mee paniekvoetbal, de 3070 staat voor 580 euro minimaal te koop en de prijzen gaan tot bijna 700 euro. Dat is voor veel gamers te duur. Nvidia heeft dus iets nodig met een lagere prijs, de 2070super zakt nog niet zo hard.
De MSRP van de 3070 is gewoon 519,-
Dat ze voor bijna 700,- over de toonbank gaan komt omdat retailers de prijzen gigantisch omhoog gooien. Dat heeft niet zoveel met NVidia te maken maar meer met hoe de retailers op vraag & aanbod inspelen.
Als er meer voorraad komt, zakt de prijs (hopelijk) ook weer naar de bedoelde prijs.
dat klopt, marketing van andere merken en retail.
Het lijkt vooral een bende omdat het zo kort op elkaar gereleased wordt terwijl er inderdaad bijna geen voorraad is van welk type dan ook. Dat ze dit (zoals het nu lijkt) releasen 1 dag voor de AMD release is puur en alleen om het nieuws rondom AMD's release zoveel mogelijk onder te laten sneeuwen. Dit type marketing doen ze nu al jaren. Is puur om de competitie zo min / klein mogelijk in het nieuws te laten komen. Daarom worden bepaalde type kaarten volgens mij pas op het laatste moment aangekondigd omdat ze de release date van de concurrent vaak eerst willen weten, anders kunnen ze bij hun persbericht geen indicatie geven wanneer het beschikbaar moet zijn.

Overigens doet AMD dat niet anders dacht ik.

Verder vind ik de competitie tussen de GPU fabrikanten op hardware-vlak wel interessant om te volgen. Ik ben altijd van het nvidia park geweest, maar overweeg nu serieus het alternatief wanneer ik voor een nieuwe GPU ga kijken.

Edit: Wat duidelijker gemaakt dat het mijn gedachten/mening zijn.

[Reactie gewijzigd door JvZ op 1 november 2020 20:12]

Tot nu toe is er aan het release schema's nog weinig bijzonders. We kregen in september de 3080 en 3090 en in oktober de 3070. Volgens deze geruchten komt daar in november één SKU bij.

Tijdens de 2xxx release hadden we in september de 2080 en de 2080 Ti, in oktober de 2070, in december een Titan en januari de 2060. In maart kwam de 1660, in april de 1650 en in juli de 2060 super, 2070 super en 2080 super. Eigenlijk kwamen er constant kaarten uit.
Het is een fysiek andere chip dus dat heeft niet veel met die 3080 en 90 kaarten te maken.
Ja erg triest. Bijzonder teleurgesteld door Nvidia. Nu serieus AMD aan het overwegen, maar eerst maar eens aankijken of die wel kunnen leveren. Ik hoop van wel, want Nvidia heeft nu eigenlijk wel een flink pak slaag nodig. De hele eerste RTX generatie was dermate overpriced voor wat je er voor kreeg, en nu dit .. bah.
Had het niet anders kunnen verwoorden.

Men kan daarbij aankondigen wat men wil, als men niet kan leveren is het voor niemand interessant. Als roepen ze dat ze de Ti kaarten voor dezelfde prijs aanbieden als de huidige kaarten dan is het nog oninteressant. Men kan niet eens kaarten leveren aan consumenten.

En het ergste is dat men zelf al heeft aangegeven dat de problemen niet voor 2021 zijn opgelost. Sorry maar ik heb nog weinig respect voor Nvidia, het is gewoon een grote soap geworden. Waarom stel je de release van het product niet uit als je het niet kunt waarmaken?
We moeten nog zien hoe het er straks bij AMD aan toe gaat, maar ik neem aan dat het niet veel slechter kan dan wat Nvidia er nu van gemaakt heeft. Wie ook het beste product heeft is niet eens meer interessant, de vraag is wie kan er überhaupt aan de vraag voldoen.
Zitten we zo met 6 verschillende types die bijna niet verkrijgbaar zijn. Als het alleen leverings- en voorraad problemen waren, oké, maar met alle andere zaken bij elkaar is dit echt een puinhoop.

(Nog meer types doet ook niks ten positieve voor de voorraad van de andere modellen..)
Deze 3060Ti's zijn zo te zien de 3070 chips met wat meer defecten, door deze snel uit te brengen heb je dus waarschijnlijk wel sneller meer 3000 serie gpu's beschikbaar.
Nouja, dat er een 3060 zou komen was natuurlijk te verwachten.. enuh, niemand verplicht je ook maar 1 van deze nieuwe kaarten nu al te kopen.
De papieren releasedatum is gezet. Valt mee toch. Ze hebben ondertussen meer aankondigingen dan GPUs in de schappen. Best een prestatie, Intel zou eens bij ze op bezoek moeten gaan voor inspiratie.
Dat valt ook wel weer mee hoor, 5 modellen in de 3000 serie... we kennen het erger.
Paniekvoetbal is wel een wat vooringenomen conclusie. Dit is gewoon tactisch lanceren; de dag voor de onthulling (onthulling, niet eens release) van de concurrerende modellen op de markt komen. Websites staan dan vol met review resultaten en het internet is daar lekker mee bezig, veel meer dan met de aankondiging van de concurrerende kaarten die pas enkele weken later op de markt komen. Leveringsproblemen gaan er zeker weer zijn, maar beperkt kunnen leveren is nog altijd beter dan niet kunnen leveren...elke verkoop is er eentje die niet voor de concurrent is. Dit is gewoon maximaal uitbuiten van het voordeel van eerder releasen.

Verder weinig speciaals aan deze releases....eerst de topkaarten, dan de onderkant high-end en met de 3060 Ti komt de eerste midrange kaart. Eigenlijk precies hoe het release scedule van AMD er ook uit ziet.
Als je naar andere periodes en releases kijkt dan zag je dat zowel de prijs als de snelheid waarmee de betere kaarten komen veel sneller is en de prijs lager dan normaal.

Neem de 2070 en 2070 ti/super daar zit bijna een jaar tussen, nu een maand.

1070 vs 1070 ti was zelfs meer dan een jaar.

Duidelijk wel paniekvoetbal omdat ze beseffen dat ze een antwoord moeten hebben op AMD in de markt.
Ik zie niet wat er vooringenomen is om het paniekvoetbal te noemen. Je kunt het zien als een tactische zet, maar zolang hun overige kaarten niet eens te leveren zijn dan zal men ook snel over deze nieuwsberichten heen lezen. Daarbij zal men vast niet in een keer een hele voorraad van de nieuwe aangekondigde types tevoorschijn kunnen toveren.
Precies. AMD lanceert drie videokaarten gebaseerd op één die: Prima. Volgens geruchten is Nvidia bezig een derde videokaart op basis van de GA102 die te maken: OMG PANIEKVOETBAL !!!1!1!1!.

Natuurlijk reageren marktpartijen op elkaar, dat lijkt me nogal logisch. Maar jezus zeg, als een Nvidia engineer een nieuwe jas gaat kopen zien sommige mensen dat nog als bewijs dat Nvidia 'bang' is.
Maar vooralsnog houdt AMD het vrij simpel qua 'versies' van GPU's van een bepaald model en is er eigenlijk maar 1 versie. Je kunt nu al haast met zekerheid zeggen dat ze bij Nvidia ook nog een 'super'-versie gaan uitbrengen van elk model en vervolgens heb je van elk model 3 versies in het schap liggen 8)7.
En de -/+5 versies van elk model die derde-partij fabrikanten uitgeven zoals MSI en ASUS.
Op en top paniekvoetbal dit.
Waarom? Ze zijn voorzichtig met productie en produceren niet teveel, dat iedereen NU het wil hebben is eerder een issue met 'iedereen' dan met Nvidia (of straks AMD). We krijgen straks een stuk of tien+ verschillende modellen, op verschillende prijspunten, met verschillende prestaties. Ik verwacht dat als de prijs/prestatie van een 3070 straks goed genoeg is in de reviews/benchmarks een hoop mensen afhaken op een 3080 (en hun preorder annuleren), hetzelfde zal straks gebeuren met een 3070Ti en de AMD kaarten. Met een maand of wat zal er vanzelf voldoende voorraad zijn.
'Ze zijn voorzichtig met productie'

8)7 :O :D :D

Slik je alles van de leren jas als zoete koek, of? Huang zegt dat het een 'vraagprobleem is'... Alsof dat niet per definitie een aanbod-probleem is. Dat een nieuwe GPU gen lastig te vinden is rond de release, soit. Dat kennen we. Maar dit is van een totaal andere orde. Nvidia heeft dit probleem nooit gehad, en nu opeens wel?

Het is ook niet alsof Nvidia hier niet ruim de tijd voor heeft genomen he. Sinds Turing is het eigenlijk pure armoede als je nu de balans opmaakt. Pascal was ontzettend sterk. Turing was vrij zwak ten opzichte van Pascal. Ampere is nu gebakken op een inferieure node, heeft te weinig VRAM en is slecht leverbaar. Leg het mij maar uit, maar dit is geen business as usual. Nvidia heeft een aantal minder verstandige keuzes gemaakt dit keer.- noodgedwongen of uit eigen beweging, maar dat boeit mij als consument eigenlijk niet zoveel. Feit blijft dat Ampere bij lange na niet is wat we ervan hadden gehoopt en verwacht. Je zegt één ding terecht: best kans dat er heel wat van die pre-orders gecanceld worden... omdat ze simpelweg niet geleverd worden en de 3070 'goed genoeg' zou kunnen zijn... of omdat AMD gewoon een veel beter product wél in de schappen legt. Maw, Nvidia heeft nu 3080 sales die ze niet kunnen waarmaken en zullen verliezen.

Die snelle core van de 3080 brengt wel redelijk wat offers met zich mee vind ik, en tot de RDNA2 specs en benches was het een flinke stap vooruit... maar we weten nu beter. Dit is de nieuwe norm en AMD komt er prima in mee. Dat verandert toch het perspectief wel even. Is dit echt torenhoge vraag, of wist Nvidia al dat het liever niet teveel van deze betrekkelijk dure GPUs wil verkopen? Dat er nu meer aankondigingen zijn dan leveringen spreekt boekdelen. Intel doet dat al een poosje met hun 10nm fantoom. Wat er uitkomt is PoC, at best. Het is overduidelijk dat AMD op volume-productie meer marge heeft.

[Reactie gewijzigd door Vayra op 1 november 2020 20:22]

Feit blijft dat Ampere bij lange na niet is wat we ervan hadden gehoopt en verwacht.
Dat is wel héél negatief. Ampère is een grote stap vooruit in performance en performance per dollar, dat hebben de onafhankelijk reviews ondertussen bevestigd. Dat AMD aangeeft een nog grotere stap gaat zetten lijkt mij daar niets aan veranderen.

Betreffende de verklaring waarom Nvidia (nog) niet op 7nm zit voor de Geforce kaarten, die hebben ze vorig jaar gegeven; ze hadden 7nm niet nodig (om marktleider te blijven) en het is duurder. Daar hadden ze toen gelijk in, AMD deed simpelweg al een tijdje niet mee op high-end. Nvidia heeft het zelfs gepresteerd om de record omzet die ze tijdens de mining hype in 2018 hebben weten te behalen opnieuw te halen de afgelopen 12 maanden. Ondertussen zijn de marges wel wat gedaald (ongeveer 30% minder winst). Dus geef ze eens ongelijk.

[Reactie gewijzigd door sdk1985 op 2 november 2020 00:24]

Dat is wel héél negatief. Ampère is een grote stap vooruit in performance en performance per dollar, dat hebben de onafhankelijk reviews ondertussen bevestigd. Dat AMD aangeeft een nog grotere stap gaat zetten lijkt mij daar niets aan veranderen.
Dat is ook alleen maar omdat de 2xxx serie eigenlijk amper een vooruitgang was ten opzichte van de 1xxx serie, en nu omdat de 3xxx serie eindelijk een stuk sneller is lijkt het of nVidia een klapper heeft gemaakt

Je kan vinden wat je wil over AdoredTV, echter wat hij hier verteld kan je moeilijk ontkennen
https://www.youtube.com/w...&t=6s&ab_channel=AdoredTV
Mwa als ik op TPU kijk op 1440p:
1070 47%
2070 67% = +43%
3070 100% = +49%

https://www.techpowerup.c...-founders-edition/34.html
1080 45%
2080 66% = + 46%
3080 100% = + 51%

Ik zou daar geen complot theorie aan op durven hangen. Het gat tussen de 1xxx en 2xxx serie is overigens wat groter geworden met de tijd. Tijdens launch van de 2070 was dat bijvoorbeeld nog 38%. Vermoedelijk gaat ampere het ook nog wat beter doen met de tijd.

Zoals te zien was de stap in performance van de 2xxx reeks niet problematisch. Het probleem van de 2xxx serie was vooral dat Nvidia de prijspunten had doorgeschoven waardoor je in prestaties per dollar ongunstiger uit kwam. Zo'n 2080 was ineens 850 euro.

[Reactie gewijzigd door sdk1985 op 2 november 2020 16:02]

Ik vermoed ook zeker Super varianten, volgend jaar
op 7 nm TSMC. Dan winnen ze het wel EZ PZ van AMD vermoed ik.
en volgend jaar gaat AMD over op 5 nm en zo blijven we bezig.
RDNA3 en Hopper komen beide op TSMC 5nm Q4 2021. Beide partijen hebben al productie gereserveerd bij TSMC.
Ik denk niet dat AMD nu snel over kan op 5nm en Nvidia wel op 7.
Amd kan volgend jaar op 5nm gezien de roadmap van Zen 3.

Er worden al Apple chips gebakken op 5nm voor de nieuwste Iphones.
Ik hoop dat andere chipbakkers snel kunnen volgen. TSMC kan moeilijk voor iedereen gaan leveren.
Heeft dit ook betrekking op gpus?
In een vergelijkbare slide noemde AMD Advanced Node met RDNA 3.

Wat dat betekend is speculatie. Maar de stelling: "Ik denk niet dat AMD nu snel over kan op 5nm en Nvidia wel op 7." staat dan wel relatief op losse schroeven.

De stap voor Nvidia om van Samsung 8nm de boel om te gooien naar TSMC 7nm kan complexer zijn als de huidige roadmap van AMD.
Ik zeg denk. Jij zegt kan. Ik denk dat dit het juiste beeld schept. Het is vooralsnog onduidelijk en lastig te voorspellen.
Woord wel moe van ALL die verschillende modellen, je hebt nu al dan straks weer GeForce RTX 3090, en RTX 3080, en RTX 3070 Ti', en RTX 3070, en RTX 3060 Ti', en nog later zeker nog meer soorten, zo als RTX 3060, RTX 3050 en meer, jammer dat ze het niet gehouden hebben bij GeForce RTX 3080 Ti, en RTX 3080, en RTX 3070, en RTX 3060.

[Reactie gewijzigd door AmigaWolf op 1 november 2020 17:07]

Nja, met de 20 series min of meer hetzelfde meegemaakt.
Nja, met de 20 series min of meer hetzelfde meegemaakt.
Ja en dat was al waardeloos, met eerst GeForce RTX 2080 Ti, en RTX 2080, en RTX 2070, en RTX 2060, en toen moest er opeens GeForce RTX 2080 super, en RTX 2070 super, en RTX 2060 super komen.
En daar kwamen toen de 16 series kaarten nog bij. Ook turing maar zonder de Tensor en RT-cores.
Waren de supers gewoon niet een 'mid-generatie refresh'? Dus meer bedoeld als tijdelijke opvolger van de 20x0 serie, tot de 30x0 er was, niet als model ertussen.
Deels mee eens, je vergeet alleen de Supers te noemen :+

De Ti versies waren er vroeger al (ik meen mij een GTX 550Ti te herinneren).
M.i. had het logischer geweest minimaal een half jaar te wachten met het uitbrengen van de Ti versies, dus eerst 3090 t/m 3050 en daarna de Ti versies.
Deels mee eens, je vergeet alleen de Supers te noemen :+

De Ti versies waren er vroeger al (ik meen mij een GTX 550Ti te herinneren).
M.i. had het logischer geweest minimaal een half jaar te wachten met het uitbrengen van de Ti versies, dus eerst 3090 t/m 3050 en daarna de Ti versies.
Nee hoor die heb ik ook allemaal opgenoemd:
Nja, met de 20 series min of meer hetzelfde meegemaakt.

Ja en dat was al waardeloos, met eerst GeForce RTX 2080 Ti, en RTX 2080, en RTX 2070, en RTX 2060, en toen moest er opeens GeForce RTX 2080 super, en RTX 2070 super, en RTX 2060 super komen.
Ja de lijst woord steeds langer en langer, en ja dan zo als gilla013 al zij, dan komt de GeForce GTX 1650, en GTX 1660, en GTX 1660 Ti er nog bij zonder de Tensor en RT-cores.
Vreemd, op een of andere manier helemaal overheen gelezen :o

edit: oh nee toch niet:
Woord wel moe van ALL die verschillende modellen, je hebt nu al dan straks weer GeForce RTX 3090, en RTX 3080, en RTX 3070 Ti', en RTX 3070, en RTX 3060 Ti', en nog later zeker nog meer soorten, zo als RTX 3060, RTX 3050 en meer, jammer dat ze het niet gehouden hebben bij GeForce RTX 3080 Ti, en RTX 3080, en RTX 3070, en RTX 3060.
Geen Super te bekennen.
Als je klikt in mijn reactie op @ je_naam, zie je op welk van jouw reacties ik reageerde.

[Reactie gewijzigd door slb op 2 november 2020 00:24]

Dat er tig verschillende modellen zijn is toch vanaf de GeForce 2 al zo? Eerst had je de GeForce 256 en that was it. Wilde je minder uitgeven aan een nVidia GPU dan was je enige andere optie een Riva TNT2.

Voor mijn gevoel was de ergste generatie wat dat betreft de GeForce 8. Alleen al de 8800 GTS kon 3 verschillende kaarten zijn. Als je geluk had kon je aan de hand van de hoeveelheid VRAM en andere specificaties afleiden of je te maken had met een G80 of G92 core. Waarbij je in het geval van de G80 core dan nog het verschil had tussen 96 of 112 CUDA cores. En wat is in jouw meest gebruikte toepassing sneller? Een G80-112 met 320MB, G80-96 met 640MB of een G92-128 met 512MB, waarbij de G92 een 256bit memory bus had en de G80 een 320bit memory bus. En dan had je daarnaast nog de 8800 GT, wat een G92-96 core was met 512MB en de 8800 GTX wat een G80-128 core was met een 384bit memory bus en 768MB VRAM.

Een G80-96 was in de regel trager dan een G92-96, maar kon in sommige situaties sneller zijn vanwege meer VRAM bandbreedte. Een G80-112 was meestal sneller dan een G92-96, maar als je maar 320MB VRAM had kon dat juist weer de bottleneck zijn. En een G92-128 was qua rekenkracht sneller dan een G80-128, maar die liep dan in sommige situaties weer tegen die 256bit VRAM bus aan als bottleneck tegenover de 384bit van de G80-128.

Dat was voor ons Tweakers al niet te overzien en bijna niet te doorgronden. Laat staan voor de doorsnee consument. Dan is een line-up met 3060Ti, 3070, 3070Ti, 3080, 3090 knap eenvoudig en overzichtelijk.
De 3060 etc waren al geplanned en daarnaast leverd nvidoa wel maar system integrators krijgen voorrang. Toch hebben ik en mensen in mijn omgeving 8 rtx3080s weten te bemachtigen voor onze systemen. Vorige week kwamen er grote ladingen binnen.
precies deze gedachten gang, eerst de backlog wegwerken. kijken we daarna wel veder.
De yields lijken uitermate ruk te zijn. De "3070 TI" is niet meer dan een 3080 met cores uitgeschakeld (beide GA102). En de "3060 TI" is hetzelfde voor de 3070 (beide GA104). Zal me niks verbazen als de PCBs volledig identiek zijn.
Zou me inderdaad niet verbazen. Ik schreef al eens eerder, meen in een artikel nog net voor de launch van de 3000 series, dat ik het gevoel had dat NVidia meer had verwacht van 8nm en dat het eigenlijk flink tegenvalt. Dit destijds met name gebaseerd op de enorm hoge TDPs; de reden dat de RTX3080 zoveel sneller is dan de 2080Ti is gewoon omdat de 3080 veel meer mag verbruiken. Ik denk dat het verschil in prestaties veel kleiner en veel minder spectaculair zou zijn wanneer de 3080 een gelijke TDP had gekregen als de 2080Ti. En dit alles terwijl je zou verwachten dat de stap naar 8nm zou zorgen voor een lager verbruik.

Nu komt AMD ineens met kaarten die niet alleen kunnen opboksen tegen dat NVidia biedt, ze lijken zelfs iets beter (gelijke of marginaal sneller bij lager verbruik), iets wat denk ik niemand had verwacht. En ja, dan krijg je van dit soort paniekvoetbal. Want ik geloof er niets van dat de NVidia kaarten zo slecht te verkrijgen zijn omdat de vraag zo hoog is. NVidia kan gewoon niet genoeg maken, en redelijke kans dat dat komt door slechte yields.
de reden dat de RTX3080 zoveel sneller is dan de 2080Ti is gewoon omdat de 3080 veel meer mag verbruiken. Ik denk dat het verschil in prestaties veel kleiner en veel minder spectaculair zou zijn wanneer de 3080 een gelijke TDP had gekregen als de 2080Ti. En dit alles terwijl je zou verwachten dat de stap naar 8nm zou zorgen voor een lager verbruik.
Aannames... The mother of all...

Zou iets dergelijks voor een huis/tuin/keuken desktop zijn gemaakt, sure. Maar je zit toch ook niet echt te kijken naar verbruik bij een racewagen zoals je dat doet voor je boodschappen of woon/werk auto?

Daarnaast zit het verbruik er echt niet zo heel veel naast als jij (en anderen) claimen
reviews: Nvidia GeForce RTX 3080 - Maakt Nvidia de hoge verwachtingen waar?
3080 vs. 2080Ti
idle +4,4%
ingame +17,1%
Terwijl de prestatie op 4k Ultra 26,5% is en de MSRP 42,9% lager ligt. Op lagere resoluties is het verschil kleiner, maar als je dat gebruikt, neem dan geen 3080.

Sidenote: Ook al haalt Nvidia yields van 80-90%, dan is er nog steeds 10-20% meer mensen die bediend kunnen worden met nieuwe kaarten. Want iedereen zat op een 3080 te aazen omdat er niets anders beschikbaar was. Geef mensen meer opties en de kans is groot dat ze voor wat anders kiezen wat wel beschikbaar is en goedkoper en wellicht beter aansluit op hun gaming needs...
[...]

Aannames... The mother of all...

Zou iets dergelijks voor een huis/tuin/keuken desktop zijn gemaakt, sure. Maar je zit toch ook niet echt te kijken naar verbruik bij een racewagen zoals je dat doet voor je boodschappen of woon/werk auto?
Dit slaat helemaal nergens op. Zelfs voorheen bij de Formule 1 was verbruik van belang, want meer verbruik kon zorgen voor extra pitstops. Tegenwoordig lijkt het er minder toe te doen, omdat bijtanken niet meer mag, maar alle motorfabrikanten proberen zoveel mogelijk vermogen te genereren binnen het toegestane verbruik.
En voor pc's doet het er ook gewoon toe, want zeker vanwege de power spikes van de RTX3080 en RTX3090 kaarten moet je ook weer investeren in een betere voeding. Ook hier op GoT zijn er meldingen van mensen die dachten dat een goede 550W-600W voeding voldoende zou zijn, maar vanwege de power spikes wordt soms de "over current protection" getriggered. Verbruik is zeker niet het voornaamste waarop highend GPU's afgerekend moeten worden, maar het hoort er wel bij in het totaalplaatje.
Daarnaast zit het verbruik er echt niet zo heel veel naast als jij (en anderen) claimen
reviews: Nvidia GeForce RTX 3080 - Maakt Nvidia de hoge verwachtingen waar?
3080 vs. 2080Ti
idle +4,4%
ingame +17,1%
Sorry dat ik het zeg, maar als Tweakers reviews ergens niet in uitblinken is het vermogensmetingen. Uit zo'n beetje elke review van sites/Youtube kanalen waar ze de juiste apparatuur hebben (b.v. NVidia's eigen PCAT hardware voor het meten van GPU verbruik) blijkt dat een stock 2080Ti FE gemiddeld rond de 263W zit en een stock 3080 FE rond de 323W, met spikes tot ruim boven de 350W. Op de pieken trekt een 3080 tot 100W meer dan een 2080Ti op piek. We hebben het dan dus al over minimaal 23% meer verbruik op het gemiddeld. Ga je overclocken met 3rd party kaarten wordt het helemaal rampzalig met een RTX3080, met gemiddeld al 425W en pieken ver boven de 500W, terwijl een 3rd party 2080Ti overclocked op 330W uitkomt. Dan zit je al bijna tegen de 30% meer verbruik. Dit terwijl je met de overgang naar een kleiner procede zou verwachten dat niet zoveel meer zou worden, zelfs bij flink betere prestaties.

En uiteindelijk heb je mijn eerdere post ook niet goed begrepen. Het ging mij er niet om van "oh kijk wat ie veel verbruikt", het ging mij erom dat NVidia waarschijnlijk gewoon meer had verwacht van Samsungs 8nm procede, waaronder betere efficiëntie. En zoals het er nu naar uit lijkt te gaan zien (we moeten nog even wachten op de reviews van de RX6800XT) dat TSMC's 7nm procede, met AMD's 2e generatie GPU's op 7nm, een stuk efficiënter is.

Het lijkt me daarbij sterk dat NVidia en AMD onderling niet vooraf al ongeveer wisten wat eraan zat te komen bij de concurrent. Ik denk dat NVidia met het probleem zat van dat het verbruik van 8nm tegen viel en ze moesten kiezen: verbruik gelijk houden, maar dan hooguit 10% betere prestaties (t.o.v. de 2080Ti) of verbruik flink omhoog maar dan ook flinke betere prestaties en hiermee een "wow-factor" genereren. En indien men al geruchten had gehoord over de 6800XT en wat die zou kunnen bieden, was hun enige optie gaan voor maximale performance in de hoop in ieder geval daarmee nog bovenaan te staan.
Verbruik maakte altijd al uit, dat is precies de reden dat Nvidia zo lang heer en meester is geweest.
Verbruik maakte uit in de tijd dat de desktop PC de enige computer in huis was. Dat is ondertussen allang veranderd en voor velen die er een krachtige GPU ingooien een van de vele computers in huis die in dit geval wordt gebruikt voor gaming.
Probleem vroeger was eerder dat een pc altijd veel verbruikte, of die nu idle of 100% load was. Tegenwoordig is idle verbruik zelfs met heel krachtige componenten heel goed, waardoor het voor velen tegenwoordig niet uitmaakt dat de pc wel veel verbruikt bij hoge belasting.
Laten we eens extreem negatief zijn: Nvidia haalt slechts 50% yield voor een 3080, dat is echt enorm slecht. Stel je voor dat ze het op een perfect proces hadden gemaakt met 100% yield, en stel je voor dat de tekorten puur en alleen komen door te weinig dies. Dan zou Nvidia dus twee keer zoveel kaarten kunnen leveren. Denk je dat met twee keer zoveel leveringen er geen tekort aan 3080s zou zijn? Of wil je beweren dat Nvidia yields van ~10% ofzo haalt op de 3080?
Ik heb geen idee wat hun yields zijn qua percentages, maar ik denk dat het een samenloop van omstandigheden is. Ik denk dat men van de nieuwe architectuur i.c.m. het 8nm procede meer had verwacht (betere prestaties en lager verbruik). Daardoor heeft men, wellicht met voorkennis over wat AMD in de pijplijn had, moeten besluiten om grotere chips te maken met een hoger verbruik.

Fysiek grotere chips betekent dat je er sowieso al minder per wafer uit kunt halen. Daarbij komt ook nog dat de kans op een onbruikbare chip (chip met ergens een defect erop) groter wordt. Combineer dit alles met de Corona crisis en het feit dat NVidia nu ineens bij Samsung de chips laten maken zullen hier wellicht ook wat opstartproblemen zijn (nog uit te voeren optimalisaties). Er zijn ook alweer geruchten dat NVidia voor ze opvolgers van de RTX3000 chips weer terug naar TSMC gaat, zie bijvoorbeeld hier.

Resultaat van dit alles zijn deze heel snel (overhaast?) aangekondigde kleiner Ti-varianten, waarvan meerdere personen hier al stellen "het zou me niets verbazen als het deels defecte grotere chips zijn". En NVidia moet ook wat, nu het erop lijkt dat AMD marginaal snellere GPUs op de markt gaat brengen voor een lagere prijs.
"het zou me niets verbazen als het deels defecte grotere chips zijn"
Euh ja, no shit. Natuurlijk als ze nu met iets komen zijn het simpelweg grotere chips met een gedeelte uitgeschakeld. Net als dat de 3080 een 3090 is met een gedeelte uitgeschakeld. En de 6800XT een 6900XT is met een gedeelte uitgeschakeld. En de 6800 een chip is met nog meer uitgeschakeld. Maar komt Nvidia met een 3070Ti (of een 3060Ti, die al lang bekend was), dan is het ineens omdat ze desastreus slechte yields hebben en paniekvoetbal?
Dan zouden er ook tekorten zijn, maar dan zouden er wel levertijden en aankondigingen van nieuwe stock zijn. Dat is nu ook erg mager. Het is duidelijk dat de keuze voor Samsung geen ideale was.
ze lijken zelfs iets beter (gelijke of marginaal sneller bij lager verbruik), iets wat denk ik niemand had verwacht.
Waarom zou niemand dit verwachten? Het is al heel lang duidelijk dat AMD een erg harde inhaalslag aan het maken is. Sowieso is AMD de laatste paar jaar qua $/Performance al erg effectief, maar zelfs in het high-end segment verslaan ze de concurrentie inmiddels.

[Reactie gewijzigd door smiba op 1 november 2020 21:10]

Inhaalslag ja, maar zoveel meer performance in 1 generatie? De 5700XT doet het best aardig, maar kwam niet in de buurt van de 2080Super of 2080Ti (was gezien de prijs ook niet nodig).

En hetgeen waarom verrassend is dat ze nu minimaal gelijk komen met NVidia (bij de highend) is omdat ze dat in heel wat jaren niet gelukt is, niet meer sinds de GTX480 en GTX 580 op de markt kwamen zo'n 10 jaar geleden. Ze kwamen regelmatig in de buurt, maar overtreffen is ze al lang niet meer gelukt. Blijft natuurlijk nog wachten op de reviews of dit echt lukt.
Nu komt AMD ineens met kaarten die niet alleen kunnen opboksen tegen dat NVidia biedt, ze lijken zelfs iets beter (gelijke of marginaal sneller bij lager verbruik), iets wat denk ik niemand had verwacht.
Als we heel eerlijk zijn wisten we dat. AMD positioneert hun kaarten altijd precies zo dat hun prestatie per dollar net even beter is dan die van Nvidia. Enige probleem was dat ze simpelweg geen SKU's hadden die sneller waren dan de de topmodellen van Nvidia. Het enige dat vóór de aankondiging onduidelijk was is of AMD er deze keer in zou slagen het strijdtoneel van de x80 en x90 te betreden.
En ja, dan krijg je van dit soort paniekvoetbal.
Ik mis even waar dit vandaan komt. Dit artikel is een gerucht dat Nvidia over 2 weken met een 3060 Ti komt. Dat is paniek voetbal omdat?
Want ik geloof er niets van dat de NVidia kaarten zo slecht te verkrijgen zijn omdat de vraag zo hoog is. NVidia kan gewoon niet genoeg maken, en redelijke kans dat dat komt door slechte yields.
Ik vermoed dat er veel meer mee speelt. Wat in ieder geval zal meespelen is dat het de AIB's lastig is gemaakt door drivers achter te houden tot kort voor launch. EVGA heeft al aangeven dat ze een productie run moesten aanpassen. Dan krijg je direct leveringsproblemen. De vraag is even of dit gaat normaliseren. Dat is na 6 weken helaas nog niet te zeggen. Op het leveringstopic hier op tweakers zie je wel dat er steeds meer mensen kaarten krijgen, echter vraag is nog altijd groter dan het aanbod.

[Reactie gewijzigd door sdk1985 op 2 november 2020 00:19]

De 3060Ti was al maanden geleden voorspeld te gaan komen. En zijn de AMD yields dus ook uitermate ruk? Immers maken die ook 3 videokaarten uit één die. Tegelijkertijd zeggen andere geruchten weer dat er een 2080Ti uit zou komen, wat juist zou wijzen op prima yields...
Hoe ruk de yields van AMD zijn is nog moeilijk te zeggen zonder te weten wat de beschikbaarheid zal zijn. Maar ja, ook hier wijst er op dat er yield problemen zijn. Met name dat er vol is ingezet op het produceren van de "6900" die en op voorhand de yield resultaten ingecalculeerd hebben om "de slechtere" in te zetten als 6800(XT). Verwacht eigenlijk dat we een van de 2 6800s niet veel in het wild zullen aantreffen.

Van Nvidia is het een combo van én slechte beschikbaarheid van de "launch" kaarten (eigenlijk de hele linie), én identieke specs op cores na, én gaten opvullen in de generatie die in dit stadium totaal onnodig/onverwacht zijn.
Maar het zou toch raar zijn om zo snel een 3060ti uit te brengen 2 weken na de Launch van de 3070 die op papier nauwelijks sneller lijkt?
Slecht voor Nvidia, maar goed voor de midrange kopers; de chip van een highend voor een midrange prijs!
De afgekeurde chip van een high-end kaart. Dat is hetzelfde als roepen dat een i3 goed is omdat het dezelfde basis heeft als een i9.
Afgekeurd omdat er te weinig goede cores / complexes zijn om het minimum aantal van de "bovenliggende" kaart te halen. Maar doorgaans nog altijd meer dan wat 100% goede cores / complexes op de lagere chip.

Het i3 vs i9 verhaal klopt niet. De i3 is namelijk niet gelijk aan een i9 waarvan de helft van de cores zijn uitgeschakeld. Hyper Threading, L3 cache, max clock...allemaal lager / minder dan een i9 waarvan maar de helft van de cores beschikbaar zijn.
Caches en Hyper Threading kunnen ook gewoon na een falende test uitgeschakeld worden. Intel kan gewoon checken hoeveel van de die nog werkt, dat matchen met een SKU, en vervolgens de chip verkopen als een i3 of een i9.
Niet alleen voordelen, het verbruik ligt meestal veel hoger omdat die uitgeschakelde cores toch nog op de chip zitten en wat lekverliezen geven geloof ik. Die 3070ti gaat ook echt geen efficiente chip worden ivm de 3070 als dat een afgekeurde 3080/3090 (GA102) wordt.
Ik ben er helemaal klaar mee
18 nov ga ik een 6800XT kopen
Veel geluk, want ook de AMD's zullen net zo schaars zijn, waarom denk je dat AMD aan webshops al enige tijd geleden vroeg om max 1 kaart per klant te doen..
Samsung maakt de gpu chip voor Nvidia en die hebben productie problemen.
TSMC maakt de gpu chips voor AMD, en die hebben geen productie problemen.
1 Kaart per klant is om te voorkomen dat "scalpers" en miners alles gaan kopen.
Samsung productie problemen is nooit bevestigt volgens mij? Al lijkt het er wel op :-). Daarbij zit TSMC qua planning behoorlijk vol wat wel bekent is gemaakt. 7nM AMD CPU, 7nm Consoles APU's... hoop andere 7nM productie die ze hebben eigenlijk.

Er is best kans, waar Nvidia 'slechte' Yields heeft bij Samsung. Heeft TSMC gewoon niet de productie capaciteit op de vraag de kunnen beantwoorden. Mogelijk is dit ook de reden dat Nvidia voor Samsung heeft gekozen omdat ze wisten dat TSMC niet de capaciteit zou hebben. Want Nvidia is altijd een goede klant geweest van TSMC.

Het is COVID-19 tijd, meer mensen zitten binnen. Games als Cyperpunk 2077 komen (ooit) uit. veel mensen zullen hun Gaming PC upgraden voor dit. Daarbij is voor zowel Nvidia als AMD het heel leuk dat na 4 jaar in de PC gaming er een sprong is qua techniek en wat er mogelijk is (los van merk, beide lijken zelfde prijs/prestaties nu te leveren. Features, drivers en marketing is wat een kaart gaat verkopen).
Deze sprong in techniek geeft veel mensen ook reden om te upgraden. In reviews (als wat AMD claimed waar is) zal FPS nagenoeg gelijk zijn per game zal de een wat beter doen dan de ander. Dan moet er vergeleken worden op kwaliteit, hoe ziet objectief de ene game er uit tov van de andere game. Hoe draait de game op de 1% en 0.1% low etc... hoe wordt RayTracing geïmplementeerd etc...

Dan het verbruik van een kaart. AMD is op papier 20 Watt beter, ben benieuwd wat de werkelijkheid gaat zijn. Maar dit lijkt mij verwaarloosbaar, beide kaarten zitten gewoon hoog. Als je een Porsche of Ferrari koopt maakt het je ook niet meer uit of je nou 1 op 5 rijd op 1 op 6 :-D... Tenminste, dat mag ik hopen.

Dus ik denk dat AMD ook day-one...."5 min-one"... uitverkocht is en er ook veel bots/scalpers gaan zijn.
Ik denk ook, dat AMD mogelijk sneller kaarten kan uitleveren na de launch date. Nvidia gaat langzaam.... zeer langzaam.

Gelukkig is er weer concurrentie en voor ons is dat alleen maar goed. Ik blijft rustig wachten op mijn ASUS 3090 Strix OC waarmee ik vermoed de komende 5 jaar zonder problemen alles te kunnen draaien hihi. Cyberpunk is toch weer uitgesteld....
Omdat ze liever aan gamers hun kaarten verkopen dan aan bitcoinminers ?
Nee hoor, heeft daar helemaal niets mee te maken.
Best vreemd. De specificaties van de lijn zijn al een tijd van te voren bekend. Maar de specificaties en prijzen voor deze verbeterde modellen daarvan niet. Aangezien de verbeterde modellen blijkbaar binnenkort al op de markt komen.
Gezien ze zo snel al opvolgen, denk ik niet dat de ti's verbeterde versies zijn.
Ten opzichte van wat bedoel je dit precies? Ik neem aan dat de 3070Ti sneller is dan de 3070.
Normaal gesproken was de Ti een verbeterde versie van een bestaand model, nu zijn het eigenlijk afgekeurde modellen (die weliswaar beter presteren dan het model dat een tier lager ligt)
Ja maar de 3070ti is gebaseerd op een andere chip dan de 3070 dus eigenlijk een slechtere versie van de 3080. Wat overigens nog steeds beter is dan de 3070
De Ti's waren zover ik weet altijd een andere versie van de GPU chip, soms op ander procedé, zodat er meer compute units / CUDA-cores / hoe ze ook heten, erop passen, met vaak wat sneller en meer geheuren erop e.d. Meestal kwamen die ongeveer een jaar later (of minimaal een jaar later), maar nu komen ze al vlak na de lancering van de eerste high end range.
Met de huidige beschikbaarheid en aankondigingen van steeds nieuwe(re) kaarten, kan je het beste nog op zijn minst een halfjaar verwachten..
Da's eigenlijk altijd als je onder de €500 wil blijven bij een nieuwe generatie. Als je nu niet dringend moet vervangen, is zo februari / maart waarschijnlijk wel een mooi moment.
Ik heb recent mijn desktop verkocht en ik maak nu gebruik van mijn werklaptop. Even tot maart volhouden en sparen, dan zou ik gelijk voor de nieuwe Ryzen en AMD GPU kunnen gaan in een SFF build :D.
Ik begin te merken dat m'n CPU het niet meer bijhoudt, dus CPU / bord / RAM replacement zit in de pijplijn...maar van de Zen 3 CPUs is ook alleen de high-end nog maar onthuld. Ik wacht dus ff lekker tot begin volgend jaar voor de midrange en hopelijk wat B550 microATX refreshes. Kijken we daarna wel of de 2060 Super nog vervangen wordt als de SAM benchmarks op de midrange binnen zijn.
Ondertussen sta ik al 2 maanden op dezelfde plek in de wachtrij voor een 3080, zonder dat er ook maar één kaart is verstuurd. Hopelijk gaat het straks met de AMD kaarten beter.
De positieve kant is dat het eigenlijk niet eens zo'n slechte positie om in te zitten. De wettelijke bedenktijd (14 dagen) gaat bij koop op afstand pas in op het moment dat je het product ontvangen hebt.
Sommige winkels hanteren zelf 30 dagen bedenktijd.
Mocht het zo zijn dat AMD een bigger bang for the buck is zou je eventueel daar nog naartoe kunnen uitwijken.
Die tacktiek hanteer ik nu ook. Sta nu 80e bij Alternate voor een Strix 3080, maar ga mooi kijken wat AMD doet in de reviews en wellicht een 6800XT bestellen.
Ik sta sinds eind september 200+ bij Alternate voor een 3080. Ik heb de hoop voor dit jaar opgegeven.
Ik zit nu dus flink te overwegen mijn 630 euro kostende 3070 pre-order te cancelen.. voor dat geld heb ik straks dus waarschijnlijk de ti of een super en dan is de 3070 opeens de helft waard 🙄
Dat ligt eraan. Je heb dan de kaart fysiek wel binnen voor dat geld. Voor je het weet sta je weer in een wachtrij voor en ti of super en is de 40xx serie al weer aangekondigd.. ik kijk ondanks dat ik echt wil upgraden 2020 even aan hoe het gaat met de voorraden.
Wat is het eigenlijk met de 30 serie? Er was geen hype rond de release van de 10 serie (niet dat ik me kan herinneren), er was geen hype rond de 20 serie... Komt de 30 serie uit, i e d e r e e n g a a t l o s ! !
Paniek, leveringstekorten, honden en katten die samen leven, noem maar op... Que?

[Reactie gewijzigd door Armselig op 1 november 2020 22:08]

Beide 10 en 20 serie waren uitverkocht, ik had op het nippertje bij launch een 1080ti kunnen kopen.
Volgens mij bij de 20 serie, duurde het ook 2 maanden voordat er een beetje voorraad was.

Nu met COVID-19, meer mensen zitten thuis en willen wat leuks doen, dus meer mensen waarschijnlijk upgraden of uberhoupt een systeem maken. Ik zelf ken ook een paar die van niets, iets willen.

Daarbij, voor het eerst sinds de 10 serie (2016 dus). Is er qua techniek (AMD & Nvidia) een sprong gemaakt waar iedereen super enthousiast van wordt. Ik kom van een 1080ti, op 3440x1440 begin je te merken dat de frames meer rond de 60 - 80 gaan (ipv 120) en ik heb geen RayTracing. De 20 serie was het net niet waard waarbij de 30 serie nu een grote sprong is.
Van de 1060 en 1660 zijn tonnen verkocht, omdat deze kaarten al in de bovenkant van prijsrange zitten voor de gemiddelde gamer (let wel net de enthousiast); zo rond de 300 euro. Gekeken naar de prijzen van de huidige lineup verwacht ik dat deze 3060ti niet veel minder dan 400 euro gaat kosten. In dit prijssegment heeft AMD in ieder geval niets nieuws te bieden; een vergelijkbare kaart zou de RX5700 zijn voor ~420 euro. En ik verwacht dat die qua prestaties aardig met elkaar overeen zullen komen.

Wie koopt deze dure kaarten? Heeft iedereen de loterij gewonnen behalve ik ofzo? Ik vond de 300 euro die ik voor mijn vega 56 betaalde al aan de hoge kant! Ben benieuwd of AMD als reactie met lagere kaarten (e.g. 6700 of 6600) uitkomt en wat die dan gaan kosten, maar ik verwacht ook > 300 euro.

[Reactie gewijzigd door DwarV op 2 november 2020 07:36]

Deze kaarten zijn naast gaming-GPU's ook goede AI chips. Wij hebben zakelijk 4 1080 Ti's gekocht voor de servers. De RTX serie is nog beter geschikt; tensor-operaties zijn precies wat tijd kost in een AI training.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee