Gerucht: Nvidia schrapt GeForce RTX 3080 20GB en RTX 3070 16GB

Nvidia heeft volgens gerucht zijn RTX 3080 20GB en RTX 3070 16GB geschrapt. De kaarten zijn nooit officieel aangekondigd, maar volgens eerdere geruchten zouden die in december komen. Naar verluidt had Nvidia met de kaarten willen antwoorden op AMD's RX 6000-gpu's.

Volgens VideoCardz bevestigen meerdere anonieme bronnen dat de GeForce RTX 3080 20GB en de 16GB-versie van de RTX 3070 niet uitkomen. Het zou kunnen dat Nvidia de videokaarten op een later moment alsnog uitbrengt, maar de geruchtensite zegt duidelijke informatie ontvangen te hebben die meldt dat de introductie is geschrapt en niet is uitgesteld.

Nvidia had met de RTX 3080 20GB en RTX 3070 16GB naar verluidt willen antwoorden op de komende Radeon RX 6000-videokaarten. Volgens geruchten zijn drie modellen daarvan voorzien van 16GB vram. AMD kondigt die kaarten op 28 oktober aan.

De reden voor het schrappen van de RTX-varianten met meer geheugen is niet bekend. Er wordt gesuggereerd dat het te maken zou kunnen hebben met lage yields van het Gddr6x-geheugen dat Nvidia gebruikt bij de RTX 3080 en 3090. De RTX 3070 gebruikt echter GDDR6, dat ruim beschikbaar is.

Het bestaan van de GeForce RTX 3080 20GB en RTX 3070 16GB is nooit door Nvidia bevestigd, maar er gaan al lange tijd geruchten over en er zijn diverse verwijzingen aangetroffen. Zo toonde de Gigabyte-website vermeldingen naar de RTX-kaarten met meer vram.

Eerder zou Nvidia al plannen voor een RTX 3070 Ti geschrapt hebben. Volgens VideoCardz wordt de GeForce RTX 3060 Ti nog wel verwacht. Die kaart zou halverwege november uitkomen en net als de RTX 3070 voorzien zijn van 8GB vram. Dat de RTX 3060 Ti bestaat bleek uit registraties van Gigabyte.

Videokaart Gpu Board (FE/referentie) CUDA-cores Vram Introductie
RTX 3090 8nm GA102-300 PG136/132 SKU 10 10.496 24GB 24 september
RTX 3080 20GB 8nm GA102-200 PG133/132 SKU 20 8704 20GB Geschrapt
RTX 3080 10GB 8nm GA102-200 PG133/132 SKU 30 8704 10GB 17 september
RTX 3070 Ti 8nm GA104-400 PG142/141 SKU 0 6144 16GB Geschrapt
RTX 3070 16GB 8nm GA104-300 PG142/141 SKU 5 5888 16GB Geschrapt
RTX 3070 8GB 8nm GA104-300 PG142/141 SKU 10 5888 8GB 29 oktober
RTX 3060 Ti 8nm GA104-200 PG190 SKU 10 4864 8GB Halverwege november
Nvidia GeForce RTX 3080 Founders Edition 10GB

Door Julian Huijbregts

Nieuwsredacteur

22-10-2020 • 07:49

138 Linkedin

Submitter: RobinNL

Lees meer

Reacties (138)

Wijzig sortering
> Er wordt gesuggereerd dat het te maken zou kunnen hebben met lage yields van het Gddr6x-geheugen dat Nvidia gebruikt bij de RTX 3080 en 3090. De RTX 3070 gebruikt echter GDDR6, dat ruim beschikbaar is.

Nvidia gaat natuurlijk geen 3070 uitbrengen met 16Gb als er enkel een (naar ik veronderstel duurdere) 3080 met 10Gb beschikbaar is. Die cijfertjes zijn marketingtechnisch gewoon niet te verantwoorden.

[Reactie gewijzigd door emphy op 22 oktober 2020 08:13]

Eens, maar bijna datzelfde probleem heeft de 20GB 3080 ook tov een 3090. Oké, een 3090 heeft nog wel meer, maar het verschil wordt wel heel klein.

Overigens als het toch over geruchten gaat, eerder ging ook het gericht dat Micron uberhaupt pas 2GB modules ging produceren in 2021, en dus dat er never nooit niet dit jaar nog 16GB/20GB versies konden komen.
Dat hetzelfde probleem zou bestaan tussen de 3080 20GB en de 3090 (met 24GB) is helemaal niet zo duidelijk.

Nu hebben we een 3080 10GB voor ongeveer € 720 en een 3090 voor € 1550 (NVIDIA's prijzen voor de Founders Edition). De prestaties van de 3090 zijn ongeveer 20% beter dan de 3080 dus het is al duidelijk dat de prijs-prestatieverhouding van de 3080 een stuk beter is dan die van de 3090.

Dat GDDR6X geheugen is best duur dus je kunt wel aannemen dat een 3080 20GB een stuk duurder gaat zijn dan de versie met 10GB. Bijvoorbeeld iets rond de € 1000.

Dan zouden we hebben: 3080 10GB voor € 720, 3080 20GB voor € 1000, 3090 sneller en 24GB voor € 1550. Dat zou best kunnen zonder dat ze zwaar met zichzelf concurreren.

De 3090 is toch al bedoeld als een nicheproduct, voor degenen die absoluut de snelste willen hebben en die teveel geld hebben. Voor het gros van de gebruikers is de 3080 of 3070 een stuk interessanter.
De prestaties van de 3090 zijn ongeveer 20% beter dan de 3080 dus het is al duidelijk dat de prijs-prestatieverhouding van de 3080 een stuk beter is dan die van de 3090.
Doe maar 10-15% ;) dus die verhouding is helemaal mank.
En de GDDR6X 16Gb (2GB) chips, die nodig zijn om een 20GB kaart te maken, zijn nog helemaal niet beschikbaar. Dus Nvidia kan helemaal geen 3080 met 20GB maken op dit moment. De 3070 met 16GB kan wel maar dat gaan ze nu natuurlijk nog niet doen. Over een paar maanden zullen ze er wel mee komen vermoed ik.
Ik zeg dat de kaarten in titel artikel als 40xx gaan uitkomen.
Dat zou ontzettend jammer zijn. Als 3D animator die voornamelijk werkt in Octane Render is Vram essentieel. De 3080 met 20gb was vermoedelijk de perfecte middenweg tussen de wel erg dure 3090 en normale 3080. (zeker als je meerdere kaarten per kast wilt, en dan meerdere kasten.)

Helaas is de upgrade van 1080ti's of 2080ti's naar 3080's momenteel dus een downgrade in vram. En ondanks wij op kantoor die snelheid winst erg goed kunnen gebruiken blijft het een twijfelpunt op dat vlak. De 11gb vram in een complexe 3D scene bereiken is redelijk snel gedaan namelijk.

Ik verwacht overigens wel dat er op den duur een middenweg komt, maar ik hoopte stiekem wel dit jaar nog.

[Reactie gewijzigd door Inverted_World op 22 oktober 2020 07:58]

Doet me denken aan de opmerking die Linus maakte in zijn Wan show hierover. De 3090's zijn te duur om voor de video rendering stations te gaan gebruiken en de 3080's hebben met 10GB niet genoeg geheugen. Daarom kijkte hij uit naar de 20GB 3080 variant als ideale value en performance oplossing voor video rendering.

AMD's RX 6000s zullen wellicht de beste value optie voor video editing worden. En voor gamers die zich graag voor langere tijd veilig voelen met voldoende vram.
28 oktober geeft AMD meer info vrij, we zullen snel beter weten wat de opties zijn.

Nu ik zelf aan het uitkijken ben naar een upgrade van mijn GTX 1080 ben ik wel blij dat het eens spannend is wat de beste optie zal zijn. :)
Yes, exact dat inderdaad. Helaas als grootste probleem dat AMD vaak voor video-gerelateerd productie werk niet bruikbaar is... Render engines als Redshift, Octane en Arnold ondersteunen geen AMD..
Er is al wel een beta uit van Octane die draait op Vulkan. Dus het zit er wel aan te komen.
Voor de professionals is er de Quadro series. Kost een paar euro's meer maar dan heb je ook wat. Misschien een idee om die kaarten te gebruiken ipv een paar euro willen besparen door consumenten versies te gebruiken?
Als je een kijkje neemt in de Redshift, Octane of andere gpu-render engine fora, websites etc, dan zie je dat het quadro aandeel <1% is. Waarom? Geen snelheidsverschil, maar een gigantisch veel hoger prijskaartje. Je hebt momenteel veel liever 4x een 3080 of 3090 in je kast dan 2x een quadro kaart.

Tijd is geld mbt tot prestatie winst, maar "wanneer je een professional bent" of eigenaar bent van een (kleine) 3d studio, wil je nog steeds wel het maximale uit je dure investeringen halen. En met quadro gooi je de helft van je geld weg. Dat tikt nog al aan. Groot of klein bedrijf, voor 10K (RTX)dezelfde snelheid als voor 20K (quadro) is voor elk bedrijf, groot of klein, een gemakkelijke keuze. Het betreft dus wel iets meer dan "een paar euro".

Het eerste bedrijf in de 3D animatie en VFX wereld die daadwerkelijk quadro kaarten koopt moet ik nog tegenkomen.

[Reactie gewijzigd door Inverted_World op 22 oktober 2020 08:20]

Jij klaagt dat er niet genoeg vram zit op je consumenten kaart terwijl nVidia gewoon producten heeft voor de professionele markt waarbij je dat probleem niet hebt. Dat jij daar niet voor wil betalen/het geld niet waard vind is een ander verhaal. Maar dat maakt mijn post geen onzin.
Een Quadro kaart heeft voornamelijk andere use cases als een Consumer Nvidia GPU. Bijvoorbeeld Quadro heeft Drivers geoptimaliseerd voor CAD werk, die GPU's hebben bijvoorbeeld ook veel betere Floating Point Precision, ...
Functies die allemaal voor professionals dat extra geld waard is. Maar als je die extra features niet gebruikt, en die grafische kaart evenzeer gebruikt als wat je evenzeer zou kunnen doen met een Consumer kaart, waarom dan al die extra prijs betalen? Ja misschien wel voor de enorm aantal extra VRAM, maar als dat de enige reden is, kun je zoals @Inverted_World zei beter 2x Consumer kaarten kopen i.p.v. één quadro kaart.

Maar dat rechtvaardigt de beslissing van NVidia niet om "maar" 8GB VRAM te steken in de RTX 3080, mensen spelen alsmaar met hogere resoluties en kunnen dus die extra VRAM gebruiken. Mijn gaming laptop met een RTX 2080 max q heeft zelfs 8GB VRAM. Ik had persoonlijk ook een upgrade i.t.v. VRAM verwacht bij nvidia.
Vooral omdat de 3090 zogezegd de titan vervangt (wat niet echt zo is, want Titans hebben bijvoorbeeld ook drivers geoptimaliseerd voor CAD werk), en dan heb je een 3080, war direct onder de RTX 3090 staat als keuze, maar ocharm 1/3 de VRAM heeft.
Quadro heeft Drivers geoptimaliseerd voor CAD werk, die GPU's hebben bijvoorbeeld ook veel betere Floating Point Precision, ...
Functies die allemaal voor professionals dat extra geld waard is
Dit is een veelgehoord misverstand over Quadro kaarten, maar praktisch al het werk wat voor consumenten en professionals van belang is gebruikt single precision (32-bit floats) op de GPU. De precisie daarvan is formeel gespecificeerd, en Quadro kaarten gebruiken (voor zover ik lees) dezelfde GPU's als de consumentenkaarten, dus daar zit geen verschil. In de praktijk stelt de driver optimalisatie waarschijnlijk ook niet veel voor, maar is het is gewoon een makkelijke manier van markt-discriminatie (net als dat NVidia niet toestaat dat consumenten-GPU's in data centers gebruikt worden, en dus de driver ook checkt of ze in een VM runt). Bijvoorbeeld, als je bepaalde CAD software op Windows gebruikt, dan zijn sommige features niet beschikbaar als het programma detecteert dat je niet de juiste GPU hebt, maar het is niet zo dat de GPU die features intrinsiek niet zou ondersteunen (de GPU's ondersteunen dezelfde API's, OpenGL, DirectX, Vulkan, CUDA).

Double precision wordt van belang voor sommige wetenschappelijke rekentaken, en daarvoor moet je Tesla kaarten hebben. Bij de laatste Quadro GPU's (RTX 6000) is de verhouding voor single precision : double precision flops "gewoon" 32:1 zoals bij consumenten GPU's.

[Reactie gewijzigd door pdep op 22 oktober 2020 10:49]

Als je een kleine studio hebt, is het prijsverschil tussen een handvol Quadro's of Geforce kaarten wel degelijk aanwezig.

En de snelheidswinst is lang niet zo groot om de prijs te rechtvaardigen. Om over software stabiliteit maar te zwijgen. Ik heb jarenlang met Quadro kaarten gewerkt, maar om nu te zeggen dat het prijsverschil het waard was.. Nou nee.
Ik klaag erover dat ze voor nu geschrapt lijken te zijn of uitgesteld.

Dat ze er uiteindelijk komen lijkt me sowieso duidelijk. En een 3090 is nog steeds goedkoper dan een quadro. Uit mijn openingspost kun je prima concluderen dat we een middenweg zochten tussen prijs en performance. Een denigrerende post over "euro's besparen, koop gewoon quadro", is mijn inziens dan ook onzin in de context.

[Reactie gewijzigd door Inverted_World op 22 oktober 2020 08:34]

Een RTX 3080 is nu al 35% sneller dan een Quadro RTX 6000. Bron:
https://www.cgdirector.com/octanebench-benchmark-results/

Waarom zouden we dan 3000 euro meer betalen per kaart? Voor de softwareondersteuning van Quadro? De vram? Dan is de 3090 dus een veel betere keuze.

Hopelijk dat je nu snapt waarom Quadro kaarten niet tot nauwelijks in de CG wereld worden gebruikt.

[Reactie gewijzigd door Inverted_World op 22 oktober 2020 08:52]

Maar je hele punt is toch dat je sneller zou kunnen werken met meer vram?

Logisch dat je dan gewezen wordt op het bestaan van kaarten voor de zakelijke markt die meer vram bieden.

En nu link je naar een test waarin een consumenten kaart die volgens jou te weinig vram heeft het beter doet dan een zakelijke kaart met meer geheugen.

Ik snap dat jij en anderen in je bedrijfstak dan voor de consumentenkaarten gaan, maar als vram de bottleneck zou zijn dan zou de zakelijke kaart het toch juist beter moeten doen?

Of komt meer vram niet goed tot z’n recht in de rest die je linkt?

Kan je het wat toelichten? Ik vind het een interessante discussie.
Laten we het zo zeggen: Hij vindt de 3090 met zijn 24 GB VRAM een betere keuze dan de RTX 6000 die ook 24GB heeft, maar zou het fijn vinden als er ook een 3080 komt met 20GB ipv 10GB omdat die vermoedelijk voor hun werk een betere prestatie/prijs verhouding zou hebben.
Wat @GORby inderdaad zegt. Uiteindelijk is rauwe rekenkracht heel belangrijk. Dat maakt de 3080 qua prijs het meest interessant in deze line-up deze generatie. In het geval van bijvoorbeeld een 2080ti is dat bijna 40% prestatiewinst - bijna een no-brainer dus -, maar in vram echter een downgrade van 1gb, en dat is jammer.

De vram wordt in principe gebruikt om complexere scenes in te laden, omdat resoluties omhoog gaan, de hoeveelheid geometrie en high-res textures ook, maakt dat de 3080 10GB dus geen future-proof keuze.

Maar de stap naar een 3090 is vrij groot. Even in de benchmark van onze software en een theoretisch budget van +/-3K per PC.
Huidige Octanebench per PC (2x 2080ti) 693
2x 3090 24GB vram Octanebench: 1340 / Prijs: 3400,-
3x 3080 10GB vram Octanebench: 1698 / Prijs: 2700,-
1x Quadro 6000 24GB Octanebench: 380 / Prijs 4.300,-

In deze situatie krijg je voor minder geld met 3x 3080 aanzienlijk meer perfomance per euro. Alleen minder future-proof. Dat is waar de 3080 20GB versie dus zou kunnen inkomen mijn inziens de perfecte kaart. En je snapt nu wellicht dat het voorstel van de andere user hier gewoon echt een heel vreemde, absurd dure keuze zou zijn.

[Reactie gewijzigd door Inverted_World op 22 oktober 2020 10:16]

Andermans boekhouding even doen en met dit soort onzin berekeningen komen. Echt een dooddoener.
Vroeger (maar weet niet of het nu nog steeds zo is), zag je dat de Quadro meer nadruk legde op double precision ten koste van single precision en ECC geheugen. Voor games of andere toepassingen waar het niet erg is dat er heeel heeel heeel soms een bitje flipt of waar single precision voldoende is, kon (kun?) je beter niet een Quadro hebben.

Maar ben nu wel nieuwsgierig, zo dadelijk maar eens een beetje googlen.
Ik hoor ook in mijn omgeving dat je beter niet op een Quadro kunt gamen door kleine verschillen. Ik game zelf op een Quadro, werkt wel prima, maar ik heb nog geen zwaardere games geprobeerd waar dat inderdaad wel uit kan maken. Ik heb wel renderingen gedaan in SolidWorks etc, daar merk ik wel hoe vloeiend het is
Zoals al door @Inverted_World gezegd wordt. Voor video renderen gebruik je geen Quadro, die gebruik je voor zeer grote modellen, opengl prestaties en certificaten. Wat niet relevant is voor video renderen. En ik gebruik zelf voor cad ook een gaming kaart omdat opengl toch al uitstekend is en ik niet gecertificeerde hardware nodig heb.
Hier precies hetzelfde. Substance bakes, Unreal/Unity lightbakes, Maya renders met Redshift/Arnold/Octane enzovoort. Kan inmiddels allemaal profiteren van de snelheidswinst van de RT cores, maar om nou achteruit te gaan op VRAM ten opzichte van een 1080TI maakt het toch een lastige keuze.

Een 3080 met 20gb vram had voor mij perfect geweest. Had ik zo 200 eur meer voor betaald. Maar 1800 eur voor een 3090 gaat mij dan ook weer een stapje te ver.
Veel van de genoemde render engines gaan ook gewoon over op de CPU als je niet genoeg VRAM hebt. Word het niet sneller op.

[Reactie gewijzigd door Wolfos op 22 oktober 2020 08:43]

Gaat het dan puur om de hoeveelheid vram en maakt de snelheid niet uit? Effectief gezien heeft de 3080 meer geheugen dan een 1080ti of 2080ti.
In veel GPU accelerated use cases gaat het inderdaad om de hoeveelheid vram, en is snelheid secundair. Nu ken ik rendering als use case niet specifiek, maar ik kan me zomaar voorstellen dat je een 3d space hebt, en een positie vanuit waar je wil renderen. Je hebt dan alle informatie nodig om een deel van je plaatje te renderen ivm reflecties, schaduw, you name it. Dus je kan niet maar een kwart van de space laden en dan een kwart renderen (denk bv aan een spiegel van een auto, wat zie je daarin)

Voor AI toepassingen laad je een model in gpu memory. Vervolgens laad je een deel van de trainingsdata, en doe je daar berekeningen op. Meer geheugen betekent een groter model, of meer trainingsdata per loop. Een model is wel deelbaar over meerdere gpus, maar het wordt niet ondersteund om elke keer een deel van een model te laden in een GPU, dan een deel van de trainingsdata, dat weer wegschrijven, een nieuw deel, en zo verder.

Zou het kunnen? Ja misschien wel, maar in ieder geval voor AI / ML toepassingen is de route gekozen van multi-gpu opstellingen, in plaats van de frameworks optimaliseren voor lage geheugen omgevingen.
Dan is het voor rendering zeker interessant. Echter voor gamers, waar deze kaart toch wel voor bedoeld is, is 20GB extreme overkill waar je extra geld voor betaalt. Games komen nu al niet eens in de buurt van 10GB laat staan 20GB. Ik hoop dan ook niet dat de 3080 super/ti 20gb gaat krijgen want gezien de schaarste van ddr6x gaat dat zeker doorberekend worden in de prijs. Vooral als je gamed op 1440p 144hz heb je echt helemaal niks aan 20GB.
Eens dat voor gamers de 20gb kaart veel minder relevant is. Alleen de GeForce serie is niet "alleen" voor gamers bedoeld, ook voor dus rendering, AI/ML, en vele andere professionele toepassingen. Zou dit niet het geval zijn, dan zou CUDA niet beschikbaar zijn voor de GeForce kaarten.

Er zijn ook nóg verder gespecialiseerde kaarten en use cases die op de GeForce softwarematig uit zijn gezet, zoals FP64 workflows.
Helaas is de upgrade van 1080ti's of 2080ti's naar 3080's momenteel dus een downgrade in vram. En ondanks wij op kantoor die snelheid winst erg goed kunnen gebruiken blijft het een twijfelpunt op dat vlak. De 11gb vram in een complexe 3D scene bereiken is redelijk snel gedaan namelijk.
Als ik het zo goed zie heeft de 3080 dus 1GB vram minder dan de 1080ti/2080ti? Maar maakt het snellere geheugen niets uit voor het renderen?

Het is dus niet zo dat wanneer het vram van de 3080 50%* sneller zou zijn (met 1GB minder) dat het renderen dan sneller gaat?

* Even een random getal gepakt, weet het snelheidsverschil niet.
Meerdere kaarten per kast heeft toch weinig zin zonder sli/bridge mogelijkheden die (zoals ik heb begrepen) missen bij de 3070 en 3080, met de 3090 kan dit echter wel.
SLI is niet nodig en werkt juist nadelig voor GPU rendering. Nvlink kan bij de 3090 zorgen voor 48gb vram. Dat is wel fijn.

Maar 3080's stacken (zonder SLI) betekend letterlijk een honderd procent performance increase.
Als we het dan toch over geruchten hebben: er gaat toch ook ergens het gerucht dat Nvidia mogelijk de productie weer in handen van TSMC wilt plaatsen?

Samsung zou op dit moment de 'goedkope' partij zijn, die tevens snel kon leveren - Nvidia wilde AMD voor zijn. Echter, de yields (op 8nm) vallen tegen en daarnaast is de RTX 3000-serie alles behalve 'power efficient'.

Men verwacht dus in de loop van volgend jaar een 'refresh' van de RTX 3000-serie, gebakken op 7nm en een heel stuk efficiënter - True Ampere.

Maar goed, 't is een gerucht. ;)
Het is nog minder dan een gerucht als zelfs videocardz 'alledgedly' in zijn titel gebruikt ;)
Linustechtips bedankt haha
Voor 7nm moeten ze het ontwerp overdoen wat ik begreep, dwz je kan niet copy / paste een chip die voor 8nm is ontworpen gewoon op 7nm laten maken. En voor wat ik begreep ging dit gerucht over tsmc 5nm productie
Dit kan betekenen dat de RX 6000-kaarten geen bedreiging vormen voor de huidige 30xx-serie. Het kan echter ook betekenen dat de 20GB-versies geschrapt zijn omdat er een Ti-versie komt.

Kijk je echter naar het verschil tussen de 3080 en 3090 dan is het verschil niet echt groot. Zeker niet als je kijkt naar de hoeveelheid extra cuda cores en extra geheugen bandbreedte. Het zou mij niets verbazen als er nauwelijks iets meer uit de 30xx-serie valt te persen...

En niet te vergeten dat de 3080/3090 kaarten qua levertijd een ramp zijn. Nu al een extra variant uitbrengen zorgt enkel voor nog meer schaarste.

[Reactie gewijzigd door MazeWing op 22 oktober 2020 07:55]

Hoe zou Nvidia dit moeten weten? Zowel Nvidia als de consument weet nog weinig van de specs en niets over de performance van de komende AMD RX-6000 serie.
Vreemd om dan een 'angst' kaart aan te kondigen, en deze weer te schrappen zonder dat er wat bekend is.

Mijn gok: Produktieproblemen en/of leveringsproblemen. De winkels liggen nou niet bepaald vol met de nieuwe Nvidia kaarten, en er waren natuurlijk wat hardware issues bij de launch.
Nvidia heeft echt wel een veel beter idee over wat AMD gaat lanceren dan de consument.
Ik denk dat zij de laatste twee weken al wel 95% van de info hebben.
Ik hoop zo graag dat AMD terug komt met een goede sterke concurrent. Alleen al om de innovatie te stimuleren en de prijs te drukken.

Sinds Nvidia toch een beetje de hete adem van amd voelt zijn de 3080 prijzen wel gezakt in vergelijking met de 2000 serie.

Ik ben voor een gezonde concurrentie tussen beide. Wat ons als consument alleen maar voordelen geeft. Zie Intel/ AMD CPUs markt nu.
Ik vind het best meevallen qua lagere prijzen.

2080 -> 800+ bij release
3080 -> 800+ bij release

2080 Ti -> 1500+ bij release
3090 -> 1500+ bij release

Ik denk dat veel mensen die 3080 als goedkoper zien omdat het best een grote vooruitgang is tegenover eerdere generatie. Mijn 2080 was bijvoorbeeld maar +/- 20% sneller dan mijn 1080. Mijn 3080 is ruim 60-70% sneller dan mijn 2080, en dat is in mijn ogen een veel grotere stap waardoor de 800 euro goedkoper lijkt dan voorgaande series.
De 1080 was echter ook 60-70% sneller dan de 980. De 980 was weer 60% sneller dan de 780. De 2xxxx lijn had gewoon slechte value vergeleken met voorheen.
Maar dat was ook een compleet nieuwe architectuur met lage initiele yields.

De RX6000 kaarten zijn voor AMD de eerste generatie welke raytracing gaat ondersteunen. Maar de performance daarvan zal wel worden vergeleken met de tweede generatie raytracing kaarten van Nvidia.

Ik heb het vermoeden dat de RX6900 net iets langzamer zal zijn dan de RTX3080 bij non-DXR toepassingen, maar DXR zal bij AMD nog niet zijn geoptimaliseerd.

Aan de andere kant heeft AMD wel het voordeel dat ze de DXR implementatie van game studio's hebben kunnen bestuderen en de meeste gebruikte instructies hebben kunnen optimaliseren..

Persoonlijk denk ik niet dat de extra geheugen modellen zijn geschrapt. NVidia heeft momenteel veel problemen om voldoende reguliere kaarten te produceren. Ze hebben zelfs de RTX3070 enkele weken opgeschoven. Met dat allemaal in het achterhoofd is het gewoon niet verstandig om ineens een andere RTX3080 met meer geheugen te produceren. De FE kaarten zijn er wel klaar voor, want men heeft al rekening gehouden met de extra modules op de PCB. Alleen zal de assemblage lijn ook die extra geheugen modules moeten plaatsen en daarvoor moet je de lijn stoppen, herconfigureren en daarna weer herstarten..

Daarnaast betwijfel ik een beetje het nut van extra geheugen. Ik denk dat het verschil tussen een 10GB en 20GB kaarten echt minimaal zal zijn.. Uiteraard zullen er een aantal uitzonderingen zijn waar het extra geheugen een toegevoegde waarde heeft..
Toch klopt het niet helemaal wat je zegt.

De 3080 gebruikt namelijk de GA102 chip, de chip die normaal gesproken in de XX80Ti wordt gestopt.
Terwijl de 2080 en de 1080 daarvoor allebei de GA104 chips waren, midrange chips.

En dat is ook meteen de reden dat de 3080 een veel grotere stap maakt t.o.v. de 2080 dan dat de 2080 t.o.v. de 1080 deed.

In dat opzicht is het best een prijsverlaging t.o.v. Turing.
Klopt heb je ook volledig gelijk in.
Daarom heb ik het idee dat de 2080 gewoon een stuk duurder was prijs/prestatie.
Maar we zien gelukkig doordat AMD een inhaalslag maakt, dat Nvidia meer performance voor hetzelfde bedrag levert.

Laten we hopen dat AMD een gelijke concurrent neerzet.
Wat mij uiteindelijk weer voor Nvidia heeft doen besluiten is het feit dat Nvidia DLSS heeft, volgens mij heeft AMD nog niet zoiets voor zover ik weet. En mijn ervaring is dat bijna elk nieuw spel het wel ondersteund (grotere titels) en dat het mij een gratis boost geeft in prestatie en waarbij ik in de meeste gevallen hetzelfde zie als native 4k rendering, en in sommige gevallen dat het zelfs wat beter lijkt dan native 4K. Het maakt spellen voor mij die normaal 60-70 FPS op 4K draaien ineens naar 80-100 FPS.

Ben zeker geen fanboy of merktrouw, alleen denk ik persoonlijk dat AMD qua GPU's nog wel even te gaan heeft. Nvidia heeft gewoon nog steeds een voorsprong wat betreft Raytracing en DLSS. Dus stel de Big Navi zou 600-700 kosten en de 3080 dus rond de 800-850....dan zou ik nog steeds voor de 3080 gaan i.v.m. de genoemde zaken.

Maar AMD begint zeker Nvidia in de hielen te lopen, altijd leuk om te zien!
Maar op feature-set het ene of het andere merk kiezen dat ga je aan een fanboi sowieso niet verkopen. Je had de lui bij mij op TeamSpeak moeten horen toen ik vertelde dat ik een 10th gen core i5 systeem had gebouwd in plaats van een Ryzen. Ik was gek en had geld verspild en ga zo maar door.

Dat ik Intel koos omdat ik een Optane M setup gebruik in combinatie met een 14TB HDD, dat slaan ze voor het gemak maar even over. Terwijl dat juist voor mij een heel belangrijk deel van de keuze was en het AMD alternatief niet vergelijkbaar was qua performance, kosten en gemak van integratie.
'goedkoper' is niet het juiste woord, 'waarde' is imho een betere. De relatief minieme performance increase en de hoge prijzen van de RTX 20xx serie is voor velen een reden geweest om geen nieuwe GPU aan te schaffen. Als iemand dan nog op een 10xx GTX of zelfs een 9xx GTX zit (zoals ik zelf) dan heb je met een 3080 enorme performance winst tegen een nog steeds relatief hoge prijs. Dan spelen een paar factoren mee, de 3080 is de kaart die als eerste uitkomt, mensen hebben nog geen resultaten van een 3070 gezien. En door nieuwe technieken en de hoge performance komt de 3080 voor veel games net boven die magische grens van 60fps uit voor 4k.

Omdat de 3080 slecht leverbaar is en veel van ons niet als een meute lemmings is gaan preorderen, zullen we voordat de 3080 weer leverbaar is, de 3070 zien en het aanbod van AMD. Dit zal uiteindelijk, afhankelijk van de performance natuurlijk, zorgen voor minder 3080 sales omdat mensen de 3070/AMD goed genoeg zullen vinden (want niet iedereen gamed al op 4k)...
De 3080 kost gewoon 720-730 euro hoor. Dat mensen massaal vrijwillig veel meer betalen heeft meer met ons dan met NVIDIA te maken. In Nederland is het gelukkig ook nog mogelijk om de kaarten voor de MSRP te kopen.
Ja, dat zou best wel cool zijn - een alles-kunner tegen een correcte prijs. Zoals de Ryzen 3600 op CPU vlak.
Wat is een 'correcte' prijs? Voor jou is het een goede balans tussen: prestatie, kwaliteit en prijs. Voor anderen is dat het niet. Ik kijk allang niet meer naar de prijs/prestatie index van een cpu, andere zaken zijn voor mij veel belangrijker en is afhankelijk waarvoor ik het gebruik. Ik gebruik nu bv. dagelijks een AMD 4800U als primaire werkbak, hiervoor was power op een bepaald niveau nodig met een bepaalde featureset en een zo laag mogelijk verbruik (omdat dit het meeste wordt gebruikt dagelijks). Voor een nieuwe game pc is momenteel een Intel 10900K de 'beste' keuze voor mij. Dat kan de komende maanden weer een AMD cpu worden (nieuwe range) of begin volgend jaar weer een Intel (ook weer een nieuwe range).

Ik denk ook dat alles-kunners helemaal niet zo interessant meer zijn voor het gros van de consumenten. Zij die vroeger een alles-kunner desktop kochten, kopen nu een smartphone, tablet of laptop ipv. een desktop.
Om meteen te zeggen dat ze geen bedreiging vormen voor de hele 30xx serie is wel erg kort door de bocht, vind je niet. We weten nog weinig over de performance of de prijs. Wellicht dat ze niet kunnen concurreren met niche van 3080/3090, maar zeker wel met de 3070/3060Ti.

AMD heeft meer geheugen en maakt vaak betere kaarten qua prijs/prestatie. Dat is gebleken uit de laatste 2/3 generaties van hen.

Eerst de launch en de reviews afwachten. Daarna mag je dit soort claims neerleggen.
Hij zegt "het kan betekenen dat ...", dus geen claim.

Mijn eerste gedachte was trouwens precies dezelfde, dat nVidia het niet nodig heeft. Het wordt in ieder geval spannend was AMD deze keer gaat bieden.
AMD heeft meer geheugen en maakt vaak betere kaarten qua prijs/prestatie. Dat is gebleken uit de laatste 2/3 generaties van hen.
Je kent het gezegde: "Good, fast, cheap. Choose two." Good=kwaliteit, fast=prestatie, cheap=prijs.

Als je bepaalde reviews bekijkt van bv. Digital Foundry en sommige streamers die producten veel in productie gebruiken, dan merk je toch dat AMD zowel op CPU als op GPU vlak toch regelmatig issues heeft die de concurrentie niet heeft op dat vlak...

https://www.youtube.com/watch?v=ASlY2iyTqVk
https://www.youtube.com/watch?v=lCPi4-BP6sU

De vraag wordt dan, is goedkoop niet duurkoop? is €50-€100 besparen in een systeem van ~€2k wel zo een goed idee, zeker als je het jaren gaat gebruiken?
Ook Nvidia en Intel hebben issues, zei het op andere vlakken misschien. Het aantal security kwetsbaarheden op Intel cpu's is behoorlijk groot.
Ik heb met Zen(+) en Zen 2 zelf nog geen problemen gehad; behalve dat ik de eerste 2 maanden met Zen maar met moeite 3200 Mhz haalde op geheugen. Alleen heeft Intel ook vaak problemen met de launch van een nieuw socket dus ik zie niet in waar AMD daar dan meer last van heeft. Ik zou juist van Intel gezien hoeveel groter ze zijn verwachten dat ze minder problemen moeten hebben.

Met videokaart drivers is AMD een hele tijd stabiel geweest, het is voor het eerst dat ik tegen problemen aanliep met Navi. Voor die tijd heb ik zelf nooit problemen gehad.
De launchdrivers en de problemen die Nvidia met de 3080/3090 had/heeft geven ook aan dat je er niet vanuit kan gaan dat Nvidia het direct goed doet.
Een hoop van die security kwetsbaarheden in Intel CPUs zijn een stuk minder relevant voor bv. een pure gaming rig. Daarnaast zitten er ook security kwetsbaarheden in AMD CPUs. Maar dat zijn eigenlijk niet de issues waar ik het over heb. Rare behaviour bij bepaalde applicaties/games, dat is waar ik het over heb.

Het is alweer jaren geleden dat ik een AMD videokaart heb gehad in mijn workstation (toen GPU met 128MB nog een big deal was), daar is zeker een hoop verbeterd. Echter heeft iedereen verbeteringen doorgevoerd over de jaren. Echter als een RX 5700 nu nog steeds issues geeft is dat best wel een structureel issue. Ik verwacht nergens direct goed, zit al te lang in de IT om dat te verwachten, maar op een redelijke termijn, goed genoeg mogen we toch wel verwachten.
Volgens mij zijn de dingen met de 5700 een hardware probleem waar ze met drivers kunnen ze er enigzins omheen kunnen werken. Het heeft dus uiteindelijk vrij weinig met de driver zelf te maken denk ik.

Ik heb een hele reeks AMD kaarten gehad en sinds de Radeon 9600 geen problemen ondervonden tot ik een 5700 kocht. Ik heb een stuk minder Nvidia kaarten gehad, namelijk 3 (4 maar tel SLI niet mee) en 7 van AMD (eigenlijk 9 maar Polaris is een pot nat). Met Nvidia heb ik recenter nog problemen gehad in mijn laptop.

Er zijn genoeg topics te vinden van AMD en Nvidia dat DP of HDMI voor geen meter werkt.
Kijk je echter naar het verschil tussen de 3080 en 3090 dan is het verschil niet echt groot. Zeker niet als je kijkt naar de hoeveelheid extra cuda cores en extra geheugen bandbreedte. Het zou mij niets verbazen als er nauwelijks iets meer uit de 30xx-serie valt te persen...
Vraag me af of er niet meer uit die 30xx te persen valt. Wellicht zijn de huidige cpu's gewoon de bottleneck.
Volgens mij zijn de cpu’s niet de bottleneck. Je ziet in reviews dat een snellere cpu gebruiken maar tot op een bepaald punt meer prestaties oplevert.

Als een snelle cpu niet meer prestaties oplevert is op dat moment de gpu de beperkende factor.

Misschien dat er door drivers te verbeteren en betere yields nog wel wat meer uit de 30xx serie gehaald kan worden, maar betere cpu’s gaan niet helpen.
Misschien meer performance halen uit hun productie en leverproces. Denk dat dat een grotere bottleneck is.
Ja een Full enabled GA102
Of het betekent gewoon dat ze niet aan de vraag kunnen voldoen en zich eerst focussen op de producten die ze nu al aangekondigd hebben..
Precies dit, een poosje geleden was er nog een artikel dat ze moeite hadden met de vraag bijhouden: nieuws: Nvidia zegt vraag RTX 3080 FE-kaarten te hebben onderschat en biedt e... . Minder variatie in de productie lijn kan efficiëntie opleveren.
of gewoon meer beschikbare productielijnen in de fabrieken
Jij hebt vast nog nooit een productielijn opgezet... Dat is niet iets dat je zo maar even opschakelt.. Het gaat om extra machines, grondstoffen, onderdelen van externe suppliers, etc. Dat is allemaal afgestemd en schakel je echt niet binnen een paar weken even op.

Compleet off-topic maar gerelateerd:
Belangrijkste reden voor Apple om geen high refresh rate iPhones uit te brengen is omdat er simpelweg niet de productiecapaciteit is om +50 miljoen high-refreshrate OLED schermen per kwartaal te leveren.
De huidige toestellen die dit hebben worden in dusdanig kleine aantallen verkocht dat de productielijnen het aankunnen, maar als je de aantallen wegzet die Apple doet, is dat simpelweg niet realistisch. 1 Bottleneck bij een leverancier van bv. een display controller en je hele verkoop stort in.
maar als je dus besluit om een artikel lijn die je in de toekomst gepland had niet te produceren kan er dus met de oude instellingen van de productielijn doorgedraaid worden....;)
Juist wel. Het is duidelijk dat AMD ze op de voeten zit. Daarnaast zit er 0,0 performance winst tussen een 10GB of 20GB kaart. Geen enkele game komt ook maar in de buurt van 10GB vram gebruik laat staan 20GB. Enkel interessant voor VR en voor beeldbewerking.
Dat AMD ze op de voeten zit is duidelijk, de vraag is echter of de RX 6000 beter zijn dan de 3080. Als dit niet het geval is en ze komen zeg maar tot 95% van de performance dan is er voor Nvidia geen enkele reden om aanpassingen aan hun line-up te doen.

Het enige wat ze zouden kunnen doen is met de prijs spelen.
Ik denk het wel. AMD is niet zo dom om tijdens hun CPU launch direct hun beste prestaties van de RX6000 laat zien welke langzamer waren dan de 3080 (denk ik). Ik denk dat dit de 6800xt was. De 6900xt zal sneller zijn dan de 3080 maar minder snel dan de 3090. Met een goede prijs (800-900 euro) zitten ze gebakken.
Maar zouden VR gamers niet juist een markt zijn voor dit soort belachelijk dure GPU’s?
VR is inderdaad een markt maar die is zo veel kleiner dan de standaard gamers markt dat ik niet denk dat ze speciaal hiervoor deze kaart gaan uitbrengen. Het zal eerder zijn om in te spelen op de angst dat 10GB wel erg weinig is (wat totaal onzin is als je alleen gaat gamen maargoed).
De G2 die eraan komt rendert nog wat pixels, 9.3m - je scherm draait op de achtergrond ook mee. Dan is 10gb weer spannend.
Het kan ook betekenen dat NVIDIA productieproblemen heeft, om wat voor een reden dan ook
Of dat ze juist wel een bedreiging vormen, en wel dusdanig dat een duurdere 3080 met meer ( duur en slecht leverbaar gddr6X) geheugen te weinig marge oplevert.
Dan heeft een 3070 met meer maar goedkoper geheugen ook weinig nut meer , want een 3070 met meer geheugen dan een 3080 en een prijs die richting de 3080 op gaat is nogal vreemd.

Maar totdat we de AMD 6000 serie benchmarks hebben blijft het gokken .
AMD is zeker een bedreiging voor Intel en Nvidia op dit moment. AMD doet eindelijk een hoop goed dat concurrentie eindelijk in gaan zien zoveel vragen geen nut heeft.

Ik en samen met andere 15miljoen LTT mensen zijn blij wat AMD doet in CPU en GPU Land.
Wat zijn LTT mensen?
Linus Tech Tips.
Ik denk dat hij Linus Tech Tips bedoelt. Die heeft op Youtube 12.1 miljoen subscribers, klopt dus wel ongeveer.
Lee Towers Topfans
Latent Transfobe Tokkies
Lower Tier Transformers
Langzaam Typende Treuzelaars
Lollig Typende Tweakers ;)
LinusTechTips, al weet ik niet waarom specifiek die mensen blij zouden zijn en andere tweakers niet.
Dat is meer een sociaal-wetenschappelijke kwestie: mensen horen graag bij een groepje en laten dat dan ook graag weten aan andere mensen in andere groepjes ;)

[Reactie gewijzigd door Dr.Breen op 22 oktober 2020 11:10]

Waar ik zelf aan denk:
- ze wachten even af wat AMD gaat releasen om eventueel over een (half) jaar een super/ti variant van de 3070/3080 uit te brengen.
- daarnaast denk ik ook dat de voorraad status van de huidige 3070/3080 nog een te groot probleem is waar ze in eerste instantie zich op willen richten. Als er genoeg voorraad is... Tada de 3070/3080 super (ti).

Maar dat is alleen mijn gedachte.
Denk zelf dat ze de 7nm TSMC deal/productie gaan gebruiken voor de 30-series Super varianten. Waarbij ze bij de 3080 het geheugen dan gelijk gaan verhogen. De 3070 gebruikt het relatief goed verkrijgbare GDDR6 maar de 3080 en 3090 gebruiken GDDR6x wat op het moment alleen Micron produceert en naar verluid wat schaarste heeft. Lijkt me ook vooral een manier om niet alle kopers die nu in de rij staan/stonden nu al een klap in het gezicht te geven om het geheugen te verdubbelen.
In mijn ogen zeer onwaarschijnlijk. Nvidia is op dit moment geen Tier 1 klant van TSMC. Dit betekent dat ze geen eerste keus zijn bij wafer-allocatie. AMD is wel Tier 1 en die kunnen op dit moment elke 7nm wafer is bestaat gebruiken. (CPU, GPU en Consoles) Daarnaast is het wisselen van zowel fabrikant (Samsung --> TSMC) als node (8nm --> 7nm) niet iets van je in een maand volledig hebt afgerond. Dat is iets wat eerder 6-8 maanden duurt.

Ik verwacht dat ze Hopper naar voren zullen halen en misschien nog iets met de prijs doen als RDNA2 sterk blijkt te zijn

[Reactie gewijzigd door WallyPower op 22 oktober 2020 08:11]

Nvidia wist aldus bronnen al vrij ver van te voren dat Samsung niet genoeg wafers kon/kan leveren welke aan hun kwaliteitseisen voldoet dus ik vermoed dat het 7nm traject echt wel wat langer loopt dan afgelopen weken. Gaat inderdaad niet binnen een maandje om. Denk dat er geen sluitende informatie over de deals en productieprijzen naar buiten komt, TSMC zal zichzelf flink in de voet schieten als ze Nvidia achteraan laten sluiten dat snappen ze ook wel. Aan de andere kant is AMD ook een grote klant voor ze.

Zelf denk ik dat we de "normale" Super wachttijd gaan krijgen, zoals gezegd maakt Nvidia een flinke schuiver als ze nu weer iets uitspoken. Die hele saga rondom de launch is natuurlijk verre van gunstig voor je naam. Dus in dat opzicht zal TSMC wel tijd genoeg hebben om de fabs op te zetten c.q. om te bouwen. Buiten het extra VRAM hoop ik vooral op een minder dorstig kaartje.

Time will tell, ik wacht echter nog wel eventjes hoe en wat tot ergens Q1/Q2. Kijken wat de rode brigade dit keer op de markt brengt. Hoe meer concurrentie hoe beter voor ons :P
Concurrentie is altijd goed en ik verwacht dan ook de rode brigade volgende week de knuppel in het hoenderhok gooit.

Maar ff verdergaand op die "Super" varianten en 7nm. TSMC is vorige maand 5nm volume productie gestart met Apple, AMD heeft aangegeven dat RDNA3 en Zen4 allebei 5nm zullen zijn. Deze staan allebei voor eind 2021 begin 2022 op de planning. Hoeveel zin heeft het dan om een enkele serie voor 7nm te gaan ontwikkelen als Hopper hoogstwaarschijnlijk ook 5nm wordt? Mij lijkt het dan beter om deze ronde dan ff de boel de boel te laten en je te concentreren op de volgende ronde.
Nog los van het feit dat Samsung Nvidia kapotmaakt als ze t fab contract proberen te verbreken :P
Wat valt er te verbreken aan contract als het sowieso een beperkt contract zou zijn? Voor zover ik begreep was Nvidia naar Samsung gegaan omdat de andere fabrikant gewoon volgeboekt zat.
Er zullen sowieso afspraken gemaakt zijn over de aantallen af te nemen wafers/chips. Als Nvidia er halverwege tussenuit naait om weer terug naar TSMC te gaan zal dat zeker niet in goede aard vallen. Want ook Samsung zal investeringen gedaan hebben om deze chips te kunnen produceren.
Ik verwacht echt niet dat dat hier aan de orde is. Naast dat het natuurlijk ook juist andersom kan zijn, Samsung kon niet leveren wat ze beloofd hebben en daardoor dus dat het contract opgezegd kan worden..
Daar zeg je wat. Speelt Nvidia een trumpje? Wellicht.
Als er nu bekend wordt dat de hogere GB varianten komen gaan mensen wachten. Mogelijk eerst dat mensen de gewone 3080 kopen waarna later de ti varianten uitkomen om mensen mogelijk over te halen naar een ti variant met 20gb.

Zo ging het in het verleden ook. Marketing.
De grap is dat de 20GB versie juist marketing is. Dat heb je als gamer helemaal niet nodig. Daarnaast gaat dit de prijs zo erg opdrijven dat een 20GB versie, mits de core clock hetzelfde blijft, totaal niet interessant is.
Gaming hoeft natuurlijk niet het enig doel te zijn.
Klopt maar elke gamer schreeuwd moord en brand dat 10GB te weinig is. Wat totaal onzin is. Elk forum staat er vol mee. Maar voor die enkeling die er meer mee doet heeft het wel nut.
Klopt maar elke gamer schreeuwd moord en brand dat 10GB te weinig is. Wat totaal onzin is. Elk forum staat er vol mee. Maar voor die enkeling die er meer mee doet heeft het wel nut.
Idd. Op dit moment tik ik rond de 6GB aan in gaming. Maar om toch een beetje future-proof te zijn zit ik te kijken naar de nieuwe 12GB kaarten. Dit is (zou) ook meer dan genoeg zijn voor 4K video-editing volgens de Pugit website. Het is alleen omdat ik een beetje wil gaan knoeien met AI dat ik zit te twijfelen of het mischien verstandiger is om toch een 16GB kaart te halen. Mits de meerprijs natuurlijk niet te absurd is.

[Reactie gewijzigd door lordsnow op 22 oktober 2020 14:38]

Yep, ik denk ook aan strategie.
Even wat goede chips uit het productieproces trekken om straks in de breedte terug te kunnen slaan met een betere prijs-kwaliteit verhouding over de hele linie.
Of het heeft geen nut tegen de kaarten van amd.
- Ze gaan eerst proberen de duizenden pre-orders te vullen voordat ze met nieuwe exotische modellen komen. Staat niet chique als je spul aankondigt terwijl mensen weken tot maanden moeten wachten op het releaseproduct.
Half jaar wachten is best lang als de concurrentie met hogere en mogelijk betaalbare hogere Vram kaarten aan bied.

Denk niet dat Nvidia dat momentum aan AMD gunt.
Zeker ook omdat ze de laatste 2 gpu generaties AMD zoveel mogelijk probeerden te overlappen.

En het Succes van Ryzen geeft wel aan hoe sterk AMD terug kan komen. Opzich niet erg maar tot nu toe zijn alle nieuwe entertainement tech launches wel een rommeltje aan het maken.

Nvidia met Paper Launch. Sony en Microsoft met hun nieuwe Consoles die problemen hebben met leveringen.
AMD waarschijnlijk ook des ondanks ze de retailers e.d. voor bereiden tegen scalpers etc.
Mogelijk geen ontkomen aan op moment. Helaas.
De geruchten van de eventuele supers dat ze in December zouden kunnen worden aan gekondigt zou op zijn best naar Januarie misschien Februarie kunnen worden verschuiven. Maar denk niet dat Nvida langer gaat wachten.
Prima, en dan nu knallen met de rest vd productie en zorgen dat er genoeg Fouders Editions zijn om de vraag te beantwoorden
Ik hoop niet dat deze annulering is omdat rdna2 tegenvalt en nvidia te weinig concurrentie heeft. Eindelijk zat er weer beweging in de gpu markt.
Mijn mening, wat mogelijk ook invloed heeft gehad op de beslissing, NVIDIA kan nu al de vraag niet aan voor de modellen die zijn released. Om met niet nieuwe modellen te komen terwijl de huidige vraag niet volledig beantwoord kan worden is misschien niet de juiste tijd.
Laten we het anders even rustig afwachten. De nieuwe versies zijn nog niet eens bevestigd, en nu hebben we een gerucht dat een niet bevestigd bericht niet doorgaat?
Be patient, my young Padawan.
Heb het hier niet gelezen nog, maar zou het kunnen dat ze de GPU's die ze voor de 20GB hadden gereserveerd - als ze nog niet gebakken waren - om worden gezet naar reguliere 3080's om de vraag aan te kunnen? Het lijkt erop dat alleen VRAM anders is...

Op dit item kan niet meer gereageerd worden.


Google Pixel 7 Sony WH-1000XM5 Apple iPhone 14 Samsung Galaxy Watch5, 44mm Sonic Frontiers Samsung Galaxy Z Fold4 Insta360 X3 Nintendo Switch Lite

Tweakers is samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer onderdeel van DPG Media B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee