Gerucht: Nvidia's RTX 40-gpu's krijgen veel meer L2-cache dan RTX 30-gpu's

Nvidia's komende RTX 40-gpu's zullen beduidend meer L2-cache krijgen dan de huidige RTX 30-gpu's. Althans, dat lijkt naar voren te komen uit gegevens die naar verluidt afkomstig zijn van het recente datalek waar Nvidia mee te maken kreeg.

Twitter-gebruiker XinoAssassin toont een screenshot van gegevens die naar verluidt van het datalek afkomstig zijn. Daaruit zou zijn op te maken dat de opvolgers van de huidige Ampere-gpu's van Nvidia over 16MB L2-cache per 64bit-geheugenbus zullen beschikken. De website Videocardz stelt dat dat aanzienlijk meer zou zijn dan de hoeveelheid L2-cache waar de Ampere-gpu's over beschikken, te weten 512KB per 32bit.

De nieuwe RTX 40-gpu's worden al langer in het geruchtencircuit aangeduid met de naam Ada, die naar Ada Lovelace verwijst. Die naam kwam ook naar voren in de gegevens van het recente datalek, maar is nog niet officieel bevestigd. De snelste Ada-gpu met codenaam AD102 zou een 384bit-geheugenbus krijgen, wat betekent dat er 96MB L2-cache aanwezig is. De GA102-gpu die voor de RTX 3090 en 3080 Ti wordt gebruikt, heeft ook een 384bit-geheugenbus, maar moet het stellen met 6MB L2-cache. De GA102-gpu staat ook aan de basis van de RTX 3080, al heeft deze videokaart een 320bit-geheugenbus en 5MB L2-cache.

Met deze stap lijkt Nvidia in grote lijnen het voorbeeld van AMD te volgen. Met de komst van de Navi 21-gpu voor AMD Radeon RX 6000-videokaarten introduceerde AMD namelijk Infinity Cache, een cachegeheugen dat bedoeld is om de geheugenbus te ontlasten en de prestaties per watt te verhogen. Het bedrijf paste 128MB Infinity Cache toe op de chip, in combinatie met een 256bit-geheugenbus. Zodoende kon AMD meer dan twee keer zoveel bandbreedte leveren als met een 384bit-geheugenbus, met het voordeel van een smalle en goedkopere geheugenbus en een lager energieverbruik. Nvidia zal ditzelfde willen bereiken door de L2-cache flink uit te breiden tot 96MB. Een kleine kanttekening is hier dat AMD met Infinity Cache in feite L3-cache heeft toegevoegd en dus op die manier het cachegeheugen heeft uitgebreid.

Door Joris Jansen

Redacteur

02-03-2022 • 13:20

98

Reacties (96)

96
92
31
5
0
42
Wijzig sortering

Sorteer op:

Weergave:

Ze moeten wel. De 4090 krijgt 80% meer cores, maar even snel geheugen. Namelijk dezelfde 384-bit bus en hetzelfde GDDR6X geheugen. Misschien wordt het GDDR6X+, maar dat is hooguit 10-20% sneller. Niet 80% sneller.
Ook lijkt de 40-serie flink meer stroom te gaan verbruiken. De 4090 schijnbaar 850W+. Heerlijk dat het zo snel is, maar je mag er ook direct een paar panelen voor leggen om het te betalen.
De stroomkosten zijn nog tot daar aan toe, maar zoveel watt koelen geeft enorm veel kabaal.
Ik ben vooral toch benieuwd wat dit in de praktijk gaat betekenen voor de prestaties en wat een verschil gaat brengen. Ik zelf wacht op de GeForce RTX 4080 als opvolger op mijn huidige GeForce RTX 2080 8GB dat ik waarschijnlijk wil upgraden. Ik heb al zolang gewacht en nu komt er een geheel nieuwe architectuur en chipset aan bij de RTX 4000 kaarten. Deze upgrade is voor mij de volgende stap, omdat ik al op 4K 144Hz speel

[Reactie gewijzigd door Van der Berg op 23 juli 2024 11:19]

Ik heb al zolang gewacht en nu komt er een geheel nieuwe architectuur en chipset aan bij de RTX 4000 kaarten.
De geruchten zijn momenteel toch dat de Ada Loveloce architectuur zo goed als hetzelfde is als de huidige Ampere in de RTX 3xxx serie.

Nvidia RTX 4000 may share architecture with the current gen
https://www.digitaltrends...ure-is-similar-to-ampere/
A new leak suggests that the upcoming Nvidia Ada Lovelace graphics cards may not differ that much from the current-gen RTX 30-series GPUs.

Although the cards are expected to offer a performance jump, a known Nvidia leaker suggests that in terms of architecture, they will still resemble Nvidia’s Ampere line.
Alle posts over leveringen worden naar beneden beoordeeld, maar dat is natuurlijk wel een ding, Je kan wel doorontwikkkelen, maar als de 30 serie ten eerste niet te betalen is terwijl de adviesprijs 1000 euro lager is dan de marktprijs, ten 2e de schaarste van de 30 serie al fors is, dan vraag ik me af of je niet aan beide dingen eerst wat moet doen voordat je de 40 serie gaat bouwen/ontwikkelen.
De marktprijs v.d 3080 is gewoon wat de marktprijs was v.d 2080 daarvoor.
Die waren ook 12-1400 euro. Zelfs meer als je een EVGA Kingpin hybride watercooling setup wilde hebben out of the box.

Dus toen de 3080 voor het eerst te koop werd heb ik direct eentje gekocht en weten te bemachtigen voor 850. Werd destijds nog door tweakers op het forum gezegd " Ik wacht wel tot het goedkoper word "
We gingen van 12-1400 euro 2080's naar 850 euro 3080's , hoe ga je dat binnen afzienbare tijd goedkoper willen krijgen ? Niet dus.

Ik denk dat Nvidia gewoon met de 30xx series hun MRSP als stunt ver onder de marktwaarde zette om AMD dwars te zitten met de laucn van hun 6xxx series kaarten, en nu spreekt men over duur. Maar zoals ik al zei, het was de vorige generatie kwa prijs echt niet anders.
Je haalt 2080 en 2080 ti door elkaar.
2080 was net zoals de 3080 uitgebracht tegen een 850-950 euro.
De 2080 ti was idd enkele honderden duurder.

Dus neen de 3080 was geen goedkope stunt van nvidia, de prijzen zijn echt zoveel gestegen op de retail markt.
Misschien herinner ik me het verkeerd, maar ik kan me echt niet herinneren dat de marktprijs van de RTX 2080 (Super) meer dan 1000 euro was voor 2021. De Pricewatch bij een aantal modellen bevestigt dat ook (pricewatch: ASUS ROG Strix GeForce RTX 2080 Super 8GB Gaming OC, pricewatch: MSI GeForce RTX 2080 Super Gaming X Trio). Ben je zeker dat je het niet over de RTX 2080 Ti hebt?

De MSRP van de RTX 3080 was effectief wel wat lager dan de RTX 2080, en gezien de beperkte beschikbaarheid van FE modellen was dat wel misleidend van Nvidia.

[Reactie gewijzigd door MacPoedel op 23 juli 2024 11:19]

3000 series is prima te betalen hoor, daarom zijn ze ook uitverkocht. Voor sommigen misschien niet betaalbaar maar daar heeft Nvidia weinig mee te maken.

Overigens heb ik meer betaald voor m'n 1080ti dan voor m'n 3080 (950 en 850 euro respectievelijk).

[Reactie gewijzigd door Seditiar op 23 juli 2024 11:19]

Als je mij kan laten zien waar je een 3080 voor 850 kan kopen zijn ze inderdaad prima te betalen.
Die prijs was er alleen een paar weken na de introductie.
Zelfs toen was hij nauwelijks voorradig.
Jammer, maar dat feest gaat niet meer door. Bij de laatste drop was NL uitgesloten.
Alleen bots hebben wel weer goeie zaken gedaan. Als gewone burger die een kaart probeert te bemachtigen ben je redelijk kansloos.
Ik weet niet hoe het nu gaat, maar dat gebeurde wel vaker "perongeluk" bij onze vriendelijke Duitse webshop. Aanhalingstekens want ik geloof er zelf weinig van, maar het gebeurde wel vaker in ieder geval, in het verleden.
Ik zou het in principe gewoon kunnen laten leveren bij een kennis in duitsland, of bedoel je dat wij vanuit nederland dit niet eens op de webshop kunnen zien als de FE kaarten online komen?

De mensen die bots / scipts oid gebruiken om alle kaarten direct op te kopen verpesten het inderdaad altijd voor de rest. Dit was laatst ook een drama toen ze bij Oneplus een actie hadden waarbij je de misterybox voor een 10tje kon kopen, alles lag direct plat en toen het weer werkte was het uitverkocht. Een paar uur later las je ook hier op tweakers dat er van die pipo's zijn die 10 stuks hebben weten te bemachtigen via een script.....

Ik weiger daarom ook om een GPU via 2e hands markt te kopen, want wie gaat er nu dan al zn 3000 serie kaart verkopen zonder dat die er waarschijnlijk gewoon 10 heeft opgekocht om te flippen.
Als je bij de betaling een leveradres in Nederland had staan kreeg je geen optie om een betaalmethode te kiezen.
Wijzigde je in je account het NL adres naar een Duits adres, dan werkte het weer gewoon.
Dus laten leveren bij een kennis in Duitsland zou een hele goeie optie zijn.
Even dit eens in de gaten houden dan.
Ik heb momenteel een 2070s dus die trekt op 1440p alles nog gewoon prima, zit dus geen haast bij oid. Daarom ook totaal niet van plan om een 3000 kaart te kopen zolang ze zo duur blijven, maar 850 is een mooie prijs.
Ah ja, met een 2070 zou ik gewoon op dag 1 een 4000 series kaart naar binnen proberen te trekken. Ongetwijfeld mega ladingen op dag 1 dus veruit de grootste kans. Overigens zou ik dan wel voor een 4080/4090 gaan, voor Nvidia weinig reden om veel 4060/4070s te maken.
Dan word je door de concurrentie voorbijgestoken dus dat is ook geen optie.
En terecht de nextgen komt omdat firma die zitten mekaar te verdringen bij TSMC de grootste die meeste neerlegd shift naar de modernste en nieuwste procedes en dus ruimte vrij komt voor andere firma om 5nm te gebruike en tijd komt dat 7nm fab degraderen naar andere markt of omgebouwd naar nieuwe procede.
De reden dat nextgen er sowieso komt.

Als je dat niet doet of kan. Krijg Piledriver effect dat met 32nm niet kan concurreren met 14nm.
Ik heb persoonlijk alle interesse in de GPU's verloren. Wat is het nut van een 40 serie kaart als ik nog geeneens een 30 serie kaart heb kunnen kopen voor een fatsoenlijke prijs?

Als het zo verder blijft gaan dan ga ik wel gewoon overstappen op een console wanneer mijn GPU echt niet meer verder kan.
Wil je zeggen dat je de console wel kan kopen?
De consoles zijn als je probeert makkelijker te vinden voor hun adviesprijs ja. En zelfs gescalpte consoles zijn amper duurder dan de adviesprijs. (550 ipv 500 EUR voor een Xbox Series X).

Dus in mijn ogen kan ik gemakkelijk een console kopen voor of tegen adviesprijs. GPU's tegen de adviesprijs bestaan gewoon niet, en de gescalpte prijzen zijn x2 of meer.
Het is een kwestie van vraag en aanbod.
Marktwerking doet nu zijn ding.
Er is genoeg aanbod als je het geld er voor over hebt.

Ik wil ook wel voor drie tientjes een Lamborghini voor mijn deur, maar ik ga ook niet zeuren dat dat maar niet wil lukken.
Ja dat is mijn punt nu net, de GPU's zijn niet beschikbaar voor een prijs die ik er voor over heb. Vroeger wel, nu niet meer.

Dan stap ik liever over naar console. Ik verkies PC gaming, maar niet tegen die prijzen.

Of het nu marktwerking is, of manipulatie van de fabrikanten, of crypto, of alles tezamen, zal mij worst wezen. Het effect is hetzelfde, en die theoretische discussies over het "waarom" boeien mij niet.

[Reactie gewijzigd door lazershark op 23 juli 2024 11:19]

lol { Ik wil ook wel voor drie tientjes een Lamborghini voor mijn deur, maar ik ga ook niet zeuren dat dat maar niet wil lukken.}

Zo lust ik er wel meer { wil ook voor 30.000 euro een huis!!! }

Slaat natuurlijk nergens op wat je typt!

[Reactie gewijzigd door noway op 23 juli 2024 11:19]

Wel jammer dat je misschien lang spaart voor een Lamborghini, je doel behaalt en erachter komt dat hij opeens twee of drie keer zo duur is geworden.

"Marktwerking doet zijn ding" is ook geen excuus voor duur voedsel, onbetaalbare zorg en een tekort aan goede huisvesting. Neoklassiek economisch denken is lekker makkelijk als je genoeg geld hebt voor een RTX3080 of een gescalpte PS5.
Gast we hebben het ook niet over voedsel, zorg of huisvesting...

We hebben het over een stukje electronica, waarvan er werkelijk waar NIEMAND bestaat in de wereld die 3080TI of 3090 NODIG heeft om te overleven. Voor 90% is het voor de fun, voor 10% is het handig voor hun werk, maar die kunnen echt ook wel met wat minders uit de voeten.
Steam Deck? Lijkt me een goede oplossing in deze tijden.

AMD hun GPU's hebben een "redelijke" prijsverschil, zeker als je verlijkt tegenover Nvidia waar de prijs vaak veel hoger is ( prestatie per Euro ).

Is niet alsof je geen GPU kan kopen. In ergste geval kan je een 6500XT kopen als brug GPU, aangezien je ze kan vinden voor 199 a 220 Euro. Veel mensen kopen gewoon te overspect GPU's voor wat ze echt nodig hebben.
Ik zou sowieso niet elke generatie kopen ;).

Maar vraag en aanbod liggen gewoon ver uit elkaar op het moment, maar, ook gezien de pijzen, trekt dat weer langzaam naar elkaar toe. De tekorten zullen niet eindeloos aanhouden, en als PC gamer zeg ik dat een console de kriebel niet helemaal volledig krabt. Maar das natuurlijk je eigen keuze.
zal niet zeggen "weer een nieuwe generatie slecht leverbare kaarten" maar zit hier wel beetje op te wachten. ik wil de 30 serie overslaan omdat ik hem niet kon krijgen. is er al een duidelijke release datum voor de nieuwe generatie ? ik hoor april maar ook november of september.
April wordt genoemd voor Intel's nieuwe architectuur, maar die zal qua prestaties maximaal vergelijkbaar zijn met een 3070(Ti). Als je benieuwd ben naar RDNA 3 en 40 series van Nvidia, gok ik persoonlijk Q4 dit jaar. Maar nog niks officieel bevestigd wat betreft die laatste twee, in ieder geval.
mijn gevoel zegt einde van het jaar net als de 30 serie destijds en vlak voor de kerstdagen. dus ik denk oktober/november
Lijkt mij een redelijke gok. Maar je mag er snel bij zijn. Met de huidige vraag voor videokaarten zullen ze snel weg zijn. De mensen die dan niets hebben zullen zich vol op de afgelopen paar generaties storten, waardoor die ook wel flink in prijs omhoog zullen gaan. Kaarten waar nog garantie op zit zullen wel voor het dubbele gaan. Voor een 3060 zal je dan ruim 1000 euro kwijt zijn.

Hetzelfde gebeurde bij de release van de RTX3000 serie, waarna je zelfs voor een GTX1600 het dubbele betaalde. Met de huidige vraag voor GPU's zal dat wel opnieuw gaan gebeuren.
ik kan niet 9 maanden in de toekomst kijken. ik kan alleen maar aanhoren dat de prijzen nu dalen en dat Nvidia aangeeft minder last te hebben van de problemen die ze nu hebben.
Goed dat dit een dikke kaart wordt. Samen met RDNA3 verlaagt dat hopelijk de huidige GPU prijzen. Zodat PC gamen weer betaalbaar wordt.
De prijzen gaan er niet lager van worden. De vraag naar kaarten is nu ietwat lager geworden omdat iedereen op die nieuwe kaarten wacht. Maar zelfs die ietwat lagere vraag is extreem hoog. De RTX4000 kaarten zullen wel weer direct uitverkocht zijn, waarna een nieuwe run komt op de vorige paar generaties.

Hetzelfde zagen we bij de release van de RTX3000. Die waren gelijk weg. En de GTX1600 verdubbelde vervolgens ook in prijs, en ook de RTX2000 schoot recht de lucht in. Dat gaat nu weer gebeuren. Reken maar dat je voor een RTX3060 ineens 1000-1200 euro neer gaat rellen. Die krijgt mooi het dubbele van zijn huidige prijs.
Het daalt nu anders flink. Deze 3080 was op zijn top 1900 euro en kost nu 1050: pricewatch: MSI GeForce RTX 3080 VENTUS 3X PLUS 10G OC LHR

Okay, hij zou eigenlijk 800 euro moeten zijn, maar toch. Het gaat de goede kant op.
Dan heb je wel net de uitzondering eruit gepikt. De meeste RTX3080 kaarten hebben een prijs van tenminste 1200 euro. Waarschijnlijk heeft Alternate een foutje in het systeem.
Zodat PC gamen weer betaalbaar wordt.
Geloof je dat echt? .... :/
Tja, voor mij is het "betaalbaar" gebleven, ik kan niet in iemand zijn portomennee kijken, maar ik betaalde voor mijn 6800XT toendertijd 650 euro.
Zijn er benchmarks in de GPU wereld bekend van wat de impact is van een L1 cache snelheid en grootte?
Kan men dit überhaupt geïsoleerd testen?
Klinkt goed, maar cache, zeker L2, is duur, zowel in ruimte als in energie verbruik.
Wellicht dat daarom de geruchten ook stellen dat de TDP nogal hoog is.

Maar op zichzelf betekent dit natuurlijk niet zoveel, rustig wachten op de release en de benchmarks, deze generatie, zowel voor AMD als Nvidia, zou wel eens heel interessant kunnen worden wat betreft performance verbeteringen.

(edit: typos)

[Reactie gewijzigd door ]D)izzy][\/][an op 23 juli 2024 11:19]

De 4090 klinkt meer als een brute force oplossing voor meer performance dan technische verbeteringen.
Dat de TDP mogelijk 800watt is, en dus een 1200watt PSU nodig heeft, zegt best veel.
Zal een 850w PSU nog wel genoeg zijn voor een 4080?
naar het schijnt de gebruiken, maar niks confirmed:
450w - 4080
600w - 4080 ti
800w - 4090

dus als een 1200w genodig is voor 4090 dan zou een 850w voldoende voor de 4080 moeten zijn?
In de praktijk zal bewezen worden of dit het cliché "beter goed gejat dan slecht nagedaan bedacht" bewerkstelligt. Het is goed om te zien dat ook nVidia blijkbaar de wat "groenere" kant op wil gaan, maar wat heeft nVidia exact tegenhouden om dit eerder te doen of wellicht beter gezegd, een prominenter doel hiervan te maken?

[Reactie gewijzigd door SkyStreaker op 23 juli 2024 11:19]

Alleen is AMD niet veel energie zuiniger. 320 watt op de 3080RTX versus 300watt op de 6800XT.

In het algemeen hebben ze gewoon een andere manier van werken.
Mijn 6800XT draait never nooit op 300 watt. 240 watt als hij vol aan staat, of 160 watt in de 'spaarstand'.
Dank, dit zet mijn argument behoorlijk wat kracht bij als de nVidia wel rond de door ZeroNine's aangegeven wattage blijft.
Je kan het in de review nakijken: reviews: AMD Radeon RX 6800 en RX 6800 XT - Het Zen-moment voor Radeon. Je de 6800XT blijft iets verder binnen zijn TDP dan de 3080, maar het is een beetje gerommel in de marge.
Hangt maar net af van wat je load is, op 4K knallen betekent gewoon 300 watt. Undervolten kan een ding zijn. Mijn 3080RTX heeft een flinke undervolt en dan tikt het rond de 260watt aan zonder prestatie verlies. Maar als ik van 5120x1440 naar 2560x1440 ga dan zakt het verbruik ook enigzins mee.

Spaarstand of nou ja meer idle stand, zeg maar in WIndows is zo rond de 20watt aan verbruik.
En dat vind jij niet veel?
Wij moeten die power consumption niet promoten.
Cumulatief gezien en niet specifiek-wijs zit daar wel een winst in voor groener werken. Marginaal per op zichzelf staand apparaat? Absoluut. Dit zie ik liever als een, hopelijk, populairder wordende uitdaging. Ruwe kracht is één ding, de huidige wereld vraagt/lijkt te vragen als tegenprestatie, om het wel zo efficiënt als mogelijk is te doen.

[Reactie gewijzigd door SkyStreaker op 23 juli 2024 11:19]

Het is lastig om verschillende kaarten van verschillende fabrikanten en architecturen te vergelijken.
Helaas zijn er geen 6800XTs met en zonder die extra L2 cache, dan zou je een eerlijke vergelijking hebben en wat kunnen zeggen over de echte prestaties per wat.

Overigens vind ik 7% al wel een redelijk verschil in vermogen. Maar voor het totale plaatje zou je moeten kijken naar het totale energieverbruik tijdens normaal gebruik, een beetje als New European Driving Cycle (waar VW zo mooi kon cheaten).
Bij processoren bijvoorbeeld heeft team rood bijvoorbeeld een aanzienlijk hoger idle-verbruik dan team blauw, terwijl dat helemaal veranderd zodra er volle prestaties gevraagd worden.
"beter goed gejat dan slecht bedacht" - (een idee) jatten is hetzelfde als nadoen ;)

Wat betreft "groen", zover ontlopen de verbruiken elkaar niet - ik zou het vergelijken met een diesel en een benzine motor, beide kunnen vergelijkbaar presteren maar de een is wat zuiniger en toch vervuilender op hetzelfde moment.
Het is alleen jammer dat veel reviews tegenwoordig geen total system power consumption meer meenemen. Nvidia doet namelijk scheduling via software en AMD doet het in hardware (de grote reden waarom Nvidia in DX11 betere multithreaded performance had met als nadeel een grotere driver overhead).

Het voordeel met total system power consumption is iets groter als je de 6800 XT met de 3080 vergelijkt; namelijk iets meer dan 40 Watt. HardwareUnboxed review:
https://youtu.be/ZtxrrrkkTjc?t=1109

Laat niet weg dat ik nog vind dat beide kaarten eigenlijk te veel gebruiken; ik neem volgende keer een kaart met een gebruik wat in de buurt komt van de 6800. De kamer is anders in de zomer niet te harden.
-oops!-

[Reactie gewijzigd door SkyStreaker op 23 juli 2024 11:19]

Het is goed om te zien dat ook nVidia blijkbaar de wat "groenere" kant op wil gaan
Vreemde uitspraak gezien het de laatste 5 generaties 4 op 5 in voordeel was van Nvidia en volgens mij als ik nog verder terugga in het verleden dan loopt die score nog verder op in het voordeel van Nvidia. Ik vermoed dat we hier kunnen spreken van een zekere recency bias?

In het verleden gebruikten ze natuurlijk altijd ongeveer dezelfde process node. Als Nvidia dus niet zo gierig geweest was en ze ook TSMC's 7nm gebruikt hadden dan hadden ze waarschijnlijk 5 op 5 gehaald.

Wat hen tegenhield? Cache komt ten koste van plaats dus oftewel verlies je prestaties ten koste van cache oftewel gaat de chipgrootte omhoog. Zolang je geen hoop cache nodig hebt, vermijd je het dus liever. Het probleem nu is echter dat de snelheid van het geheugen niet kan volgen met de stijging in rekenkracht. Je hebt dan verschillende mogelijke oplossingen maar helaas zijn geen van allen ideaal, maar waar dan volgens AMD & Nvidia meer cache de beste oplossing lijkt. In feite hebben ze weinig keuze want er is waarschijnlijk (nog) geen sneller geheugen beschikbaar.

[Reactie gewijzigd door napata op 23 juli 2024 11:19]

Cache is buffer om iets traags toch sneller te doen voorkomen.
Als voldoende grote cache hebt die redelijk op tijd goed gevuld wordt met goedkoper zuiniger memory dat nog voldoet lever je in op wat diespace maar kan 16gb bieden
Kan ook gewoon zijn dat de Apere caches gewoon te klein zijn en dus te afhankelijk van die GDDR6X
"Beter goed gejat dan slecht bedacht." ;-)
Ik zie nu dat Alxndr dat ook al opmerkte...

[Reactie gewijzigd door icceni op 23 juli 2024 11:19]

De reden lijkt mij diespace voor shadermodules die met beperkte cache grotes aan snelste geheugen hangen voor max performance.
Je levert 1? SM in voor meer Cache

Op dit item kan niet meer gereageerd worden.