Micron brengt in eerste helft 2024 GDDR7-geheugen voor next-gen videokaarten uit

Micron introduceert in de eerste helft van volgend jaar zijn eerste GDDR7-geheugenchips. Deze geheugenstandaard wordt al langer genoemd, maar is nog niet klaar voor gebruik. GDDR7 wordt naar verwachting gebruikt in de volgende generatie gpu's van AMD en Nvidia.

Micron meldt in de presentatie van zijn kwartaalcijfers dat het bedrijf zijn GDDR7-producten volgend jaar introduceert. Dat doet het op zijn 1-Beta-node, het laatste procedé van de geheugenmaker dat nog gebruikmaakt van duv-lithografie. In de toekomst stapt Micron over op euv-lithografiemachines.

De fabrikant deelt nog geen verwachte specificaties van zijn GDDR7-chips. Samsung sprak eerder al wel over zijn toekomstige GDDR7-geheugen. Dat bedrijf noemde een bandbreedte van 36Gbit/s per pin. Bij GDDR6 ligt dat maximum nog op 16Gbit/s, hoewel er inmiddels ook GDDR6- en GDDR6X-chips met snelheden tot 24Gbit/s beschikbaar zijn.

Cadence, een bedrijf dat software en hardware maakt voor het ontwerpen van chips, kondigde eerder al verification solutions voor GDDR7-geheugen aan, waarbij het bedrijf al enkele specificaties van het geheugentype deelde. GDDR7 maakt bijvoorbeeld gebruik van pam3-codering voor dataoverdracht. Dat is in tegenstelling tot het gebruik van pam2-codering uit GDDR6 of pam4 in GDDR6X. Met pam3 worden drie spanningsniveaus gebruikt voor de transmissie van het signaal. Daardoor is het mogelijk om meer bits te verzenden per klokcyclus zonder dat de kloksnelheid daarvoor verhoogd moet worden.

Volgens eerdere geruchten maken onder meer Nvidia's GeForce RTX 50-serie en AMD's Radeon RX 8000-gpu's gebruik van GDDR7-geheugen. Dat is echter nog niet bevestigd. Van beide series is bovendien nog geen releasedatum bekend, hoewel een Nvidia-roadmap onlangs vermeldde dat de opvolger van Nvidia's huidige Lovelace-gpu-architectuur in 2025 uitkomt.

Door Daan van Monsjou

Nieuwsredacteur

29-06-2023 • 15:39

43

Lees meer

Reacties (43)

43
43
17
3
0
20
Wijzig sortering
Ik ben benieuwd hoe de RTX 50 serie wordt. Als ik kijk naar de RTX 40 serie dan vind ik dat Nvidia een mooie stap heeft gemaakt. Een kaart die echt heel krachtig is en zeer stil, dit laatste onder andere door de grote koeling erop.

Wat mij betreft pakt Nvidia dit door op de volgende GPU, om mij heen maar ook op Tweakers lees ik steeds vaker dat mensen behoefte hebben aan een kaart die niet alleen zeer snel is maar ook lekker stil. En het liefst zonder dat zij daarvoor aan de slag moeten gaan met het vinden van het juiste voltage via een undervolt waarbij de ene game het goed doet en de ander weer crasht. Nee gewoon een snelle en stille kaart zo uit de doos.

De volgende info over de nieuwe kaarten kunnen mij niet snel genoeg ter ore komen :)
Weet niet welk nieuws jij de afgelopen maanden heb gevolgd, maar de 4000 generatie van Nvidia is een van de slechtste value generaties.

En de 4000 gen vereist de grootste koelers ooit op een gpu. Niet iets om trots op te hoeven zijn. Het maakt alles maar duurder en duurder.

Nvidia heeft zelfs ook toegegeven dat zij met deze generatie geen interesse hebben om ons meer rekenkracht te geven, maar dat ze met software gimmicks het willen doen.

[Reactie gewijzigd door Z100 op 23 juli 2024 13:47]

En de 4000 gen vereist de grootste koelers ooit op een gpu. Niet iets om trots op te hoeven zijn. Het maakt alles maar duurder en duurder.
Dat is zeker niet vereist, maar fabrikanten denken dat we dat willen.
Ik ben benieuwd hoe de RTX 50 serie wordt. Als ik kijk naar de RTX 40 serie dan vind ik dat Nvidia een mooie stap heeft gemaakt. Een kaart die echt heel krachtig is en zeer stil, dit laatste onder andere door de grote koeling erop.
Je bedoelt het reference designFounders Edition van Nvidia? Want wat je nu zegt gaat op voor elke nieuwe generatie; kaarten die heel krachtig zijn en ook heel stil mits er een goede koeler op zit.

Die behoefte was er altijd al, geen van mijn kenissen wil een kaart die herrie maakt. Die undervolt kan je gelukkig bij AMD automatisch doen; zit vrij weinig werk in. Daarnaast is undervolten niet nodig als je maar een model koopt met een fatsoenlijke koeler.
Het is wel jammer dat AMD het voltage vaak hoger zet dan nodig; geen idee of dat ook zo is bij Nvidia.

Ik moet eerlijk bekennen dat iik nog nooit zo weinig enthousiasme heb gevoeld voor een nieuwe generatie kaarten. Het enige beeld wat ik nu heb bij een volgende genetatie zijn kaarten die te duur zijn met weinig geheugen :P.

Meer ontopic;
Ik ben vooral benieuwd hoe de trend naar sneller geheugen gaat doorzetten nu Nvidia en AMD steeds meer focus leggen op grotere caches. AMD heeft GDD6x nog niet nodig gehad door hun Infinity Cache (L3). Nvidia probeert hetzelfde als AMD met hun grotere L2 cache, waar AMD dit met L3 cache kan.

[Reactie gewijzigd door Sp3ci3s8472 op 23 juli 2024 13:47]

Reference? Ik denk dat hij het over Founders Edition had. Reference is een PCB design, welke anders is dan die van de FE kaarten, met hun kleine PCB.
Ik doel ook op de FE kaarten ja; Founders Edition kaarten zijn reference kaarten; tenminste dat was vroeger de juiste naam.
Om een voorbeeld te geven:
uitvoering: MSI GeForce GTX 1080 Founders Edition 8GB

Dat is een MSI kaart met het referentie ontwerp van Nvidia. Dus van origine als je het hebt over een reference kaart dat is dat koeling + pcb.
Alleen heeft Nvidia dat omgegooid met de komst van de 3000 series; maar automatisme is dat ik het nog steeds een reference design noem :+.
https://www.ekwb.com/blog...s-not-a-reference-design/
Nee ik bedoel de generatie RTX 40! Stuk sneller dan de RTX 40 maar vooral veel stiller door de dikke heatsinks.. Het is niet zo dat elke nieuwe generatie heel stil is. Zat GPU's uitgekomen die mij veel lawaai maakten. De RTX 30 was de eerste generatie die eindelijk weer eens een stuk stiller werd sinds lange tijd. Ik heb zelf een MSI 3080 en ik ben blij met de geluidsproductie. Maarja dan hoor ik dat de MSI 4080 nog een stuk stiller is en dan ben ik wel een beetje jaloers :)
Het was blijkbaar voor de fabrikanten goedkoper om één heatsink te ontwikkelen, op basis van de 4090, en deze dan ook te gebruiken voor lagere modellen. Op mijn 4080 zit een heatsink geschikt voor het koelen van een 650Watt kaart terwijl hij maar 320Watt hoeft te koelen. Dan blijft de boel wel stil ja.
Dat bedoel ik Xfade, een heerlijke heatsink voor alle kaarten. Wellicht is de kaart daardoor gigantisch. Maar lekker toch dat hij en snel is en heerlijk stil!
Tweakers hebben vooral behoefte aan kaarten die redelijk/eerlijk geprijsd zijn!
Nvidia heeft mooie kaarten idd, maar als ze doorpakken zoals ze de laatste jaren gedaan hebben, dan wordt de RTX 50 serie eentje waar automatisch een hypotheek bij inbegrepen is. Hun kaarten zijn gewoon te duur voor wat ze zijn. Niet dat het ze iets zal boeien, ze printen op het moment geld via hun AI kaarten. AMD is niet veel beter wat dat betreft trouwens, ook te duur voor wat het biedt.
Als we de 40 series koers doortrekken: 1200€ voor de 5070 met 10GB extra snel geheugen (12GB als we boffen)?
en je krijgt van Nvidia ook nog eens gratis een prijs verdubbelaar! /s :+
Vroeger had je passief gekoelde RTX xx50 kaarten. Nu brengt Nvidia xx50 kaart uit als een xx60 kaart. Geen wonder dat de 4060 koel en stil is.
Vroeger waren chips dan ook een factor 1.000 trager ....
Slecht excuus, die krengen hebben gewoon jaren een prima price bracket gehad en sinds de crypto craze hebben ze dat flink omhoog getrapt, waarna retailers het nog eens erger maken.
Vroeger? De RTX-lijn bestaat pas sinds 2018. Dat is zou oud toch nog niet?
Ik denk dat de meeste tweakers behoefte hebben aan 30% prijsverlaging en halvering van stroomverbruik. Met nvidia's policies aangaande deze thema's voorzie ik mezelf de aankomende 100 jaar geen product meer van ze afnemen.
I ben benieuwd hoeveel iedere nieuwe generatie geheugen impact heeft op de performance van een kaart mits er geen andere factoren veranderen. Ik hoor vooral veel over de hoeveelheid rekenkernen en hoeveelhied geheugen, maar de generatie daarvan niet zo vaak.
Hangt van de workload af. Open world games zijn vaak gelimiteerd door bandbreedte dus die zullen ongetwijfeld baat hebben bij sneller geheugen.

Zie bijvoorbeeld hoe Skyrim en Tears of The Kingdom reageren op verschillende overclocks. Beide games hebben het meeste baat bij het verhogen van de kloksnelheid van het geheugen.

[Reactie gewijzigd door Wolfos op 23 juli 2024 13:47]

Kan de snelheid van geheugen compenseren voor de hoeveelheid geheugen?

Ik bedoel, hoeveel zal 8 GB VRAM @ 36 Gb/s qua prestaties in de buurt van 16 GB @ 16 Gb/s komen omdat het twee keer zo snel is?

En zou dat een reden kunnen zijn voor Nvidia om nog langer aan 8GB voor midrange kaarten vast te houden?
De hoeveelheid RAM heeft in principe niks met de performance te maken. Uit jou voorbeeld zal de 8GB kaart veel beter presteren omdat de bandwidth dubbel zo groot is. Het grootste gedeelte van de VRAM wordt gebruikt om textures in op te slaan. Als je minder RAM hebt kan je dus minder of minder gedetailleerde textures opslaan. Als een game meer VRAM wil gebruiken dan de kaart beschikbaar heeft zal de performance wel inzakken omdat er dan vanuit de veel tragere opslag textures gehaald moeten worden waar de GPU langer op moet wachten.

[Reactie gewijzigd door Skix_Aces op 23 juli 2024 13:47]

Met DLSS of vergelijkbare technieken kun je dezelfde beeldkwaliteit bereiken met minder GB aan textures. Daar staat tegenover dat die berekeningen wel geheugenbandbreedte nodig hebben. Dat maakt de afweging dus nog complexer.

Je ziet ook dat NVidia voor de bandbreedte een ander oplossing heeft gekozen in de 40x0 serie: meer cache. De meest gebruikte textures hoeven niet meer uit GDDR te komen, wat de bandbreedte daarvan minder kritisch maakt.
En dat allemaal om te gebruiken op een 128bit bus. Lekker.
Zolang de L2 cache maar wat groter is, dan komt het allemaal wel goed :+
Er is natuurlijk een reden dat geen van de 3 spelers (AMD, Intel, NVidia) nu kaarten heeft met een 1024 bits GDDR4 bus. Brede bussen zijn duur en problematisch.
Ik zou me er in moeten verdiepen, maar zou een iets grotere bus met iets meer L2 cache dan niet nog beter zijn dan een kleinere bus en veel meer cache?

Met de huidige marges op grafische kaarten zou het ook welkom zijn om iets meer bang for buck te krijgen.
Dat hangt af van de grafische keuzes. Gebruikt je raytracing en DLSS, dan is cache belangrijker.
Ik werk voornamelijk met miljoenen foto's en tensorflow. Maar voor gamen zal het vast en zeker soms wel een voordeel zijn.
Tegelijkertijd steken we al zo'n 20 jaar op deze standaarden. Op gegeven moment moet je erkenning dat dit voor stagnatie performance groei zorgt. Niet dat nvidia daar nu prioriteit heeft met de beperkte druk van AMD.
20 jaar? GDDR6 is maar een paar jaar oud. Mijn punt is nu juist dat we niet op oude standaarden blijven hangen; de bandbreedte verhogen door bussen steeds breder te maken zou nog veel duurder zijn.
Misschien heb je gemerkt dat de performance ontwikkeling per generatie (evenals de tijd ertussen) steeds verder toeneemt. De RTX40x0-serie is ook een aanfluiting wat dat betreft. Geheugen bandbreedte verbreden zou duurder, tenzij je de architectuur op de schop neemt en met een ingenieus innovatief idee komt om dit te vergroten. Uiteindelijk komt deze er toch wel, zij het niet over 5 dan 50 jaar. Mijn gevoel zegt dat Nvidia hier al verder mee is dan ze suggereren, maar liever investeerders tegemoet komen door de troef achter de hand te houden of deze ontwikkeling uit te smeren over decennia.

[Reactie gewijzigd door Chrono Trigger op 23 juli 2024 13:47]

Je gevoel zit fout.

Het probleem van "zoveel mogelijk data versturen over een PCB connectie" is niet uniek voor NVidia of zelfs GDDR. NVidia kan ook geen geheime patenten erop hebben, het hele punt van patenten is juist dat ze openbaar zijn. Als NVidia een bruikbaar idee zou hebben, dan moeten ze het patenteren en daarmee publiceren, voordat iemand anders het doet. En dat idee kan dus ook van bijvoorbeeld Samsung komen, of Sony.
Nou als Nvidia gebruik gaat maken in hun "next"-gen videokaart net als de 4000 series "next gen" is boven mijn "oude" 3000 range kaart, dan mogen ze wel iets gaan doen aan de busbreedte. Wat een lachertje met de 4000 series. Dan kan je net zo goed cheap DDR erin trappen. Performance haal je zo nooit uit het geheugen, noch uit de processing units.
Men kan zo te zien met gddr7 ca. 2x de GB/s doorvoer op dezelfde bus breedte halen tov. gddr6.
Dus mogelijk een 96 of 64 bit bus in het verschiet.
Check ook dit eens https://www.guru3d.com/ar...ce-rtx-4070-review,1.html
Kijk eens naar de totale geheugen bandbreedte en dan te bedenken dat er meer geheugen aanwezig is... niet zo gek dus dat de 4000 series zo slecht presteert.
Dan lijkt PCIE-5.0 toch noodzakelijk voor de volgende generatie.
Dus bij de volgende generatie kaarten krijg je 8GB VRAM op de topsegment en 6GB VRAM op de midden segment kaarten. Volgens Nvidia is het geheugen sneller en heb je er minder van nodig en ze brengen een nieuwe revolutionaire driver uit die je softwarematig meer VRAM geeft... :P
Hmm zouden nvidia niet 2 jaar de nieuwe generatie 5xxxx uitstellen om de stokoverschot te verkopen van 3xxx en 4 de generatie...
Lijkt mij dan dat gddr7 een beetje te vroeg is, of zie ik dit verkeerd
Kip/Ei... Om het te implementeren zul je het ook moeten hebben.
Idd zo ver was ik al 8)7 maar niemand heeft er iets aan om te produceren als je het niet kan verkopen en met de jaren verlies maakt
Volgens de geruchten komen zowel RDNA 4 als de Nvidia 5000 serie op einde 2024 uit. GDDR7 komt volgens dit artikel op de eerste helft van 2024 uit, dus het is redelijk veilig om te stellen dat de nieuwe GPU generatie GDDR7 zal hebben.

Op dit item kan niet meer gereageerd worden.