Gerucht: Nvidia brengt RTX 4070 met langzamer GDDR6-geheugen op 20 augustus uit

Het nieuwe Nvidia GeForce RTX 4070-model verschijnt mogelijk later deze maand. Dat claimt het Chinese Board Channels. De nieuwe variant krijgt GDDR6-geheugen, terwijl de huidige RTX 4070 over GDDR6X-vram beschikt.

Volgens bronnen van Board Channels komt de nieuwe RTX 4070-variant vanaf 20 augustus beschikbaar, merkte VideoCardz op. Het is echter niet duidelijk of dat een concrete releasedatum betreft of de datum vanaf wanneer de nieuwe videokaarten langzaam in de verkoop gaan.

De gpu krijgt dezelfde specificaties als het huidige model, maar wordt voorzien van GDDR6-geheugen met snelheden tot 20Gbit/s. De reguliere RTX 4070, die Nvidia vorig jaar uitbracht, beschikt over GDDR6X-geheugen op 21Gbit/s. Dat komt neer op een afname van ongeveer 4,7 procent in geheugensnelheid. Volgens boardpartners zijn de prestaties in de praktijk vergelijkbaar, schrijft VideoCardz.

Het is niet bekend of Nvidia de nieuwe RTX 4070-variant officieel gaat aankondigen of dat deze zonder aankondiging beschikbaar komt. Het model lijkt wereldwijd beschikbaar te komen. Eerder verschenen beelden van de refresh op VideoCardz. Dat betrof een model van videokaartenfabrikant Galax, dat nagenoeg identiek lijkt aan de huidige 4070 van dat bedrijf.

Videokaart Nvidia GeForce RTX 4070 (GDDR6) Nvidia GeForce RTX 4070 (GDDR6X) Nvidia GeForce RTX 4070 Super
CUDA-cores 5888 5888 7168
Geheugen 12GB GDDR6 12GB GDDR6X 12GB GDDR6X
Geheugenbus 192bit 192bit 192bit
Geheugensnelheid 20Gbit/s 21Gbit/s 21Gbit/s
Geheugenbandbreedte 480GB/s 504GB/s 504GB/s
Tgp 200W 200W 220W
Releasedatum Augustus 2024? April 2023 Januari 2024
Adviesprijs N.n.b. 609 euro 669 euro

Door Daan van Monsjou

Nieuwsredacteur

13-08-2024 • 13:39

69

Reacties (69)

69
69
26
3
0
36
Wijzig sortering
Dus ze gaan zichzelf een beetje in de voet schieten, want niemand koopt dan een 4060 TI bijvoorbeeld meer want het prijsverschil wordt dan veel te klein..
Sowieso nooit begrepen waarom Nvidia de noodzaak voelt om zoooooo veel verschillende type videokaarten te willen hebben binnen 1 serie...
  • 4060
  • 4060 ti
  • 4070
  • 4070 Super
  • 4070 TI
  • 4070 TI Super
  • 4080
  • 4080 Super
  • 4090
En daar komt dus een 'langzamere' versie bij van de 4070 en volgens geruchten komt er binnenkort ook een 4090 Super (en wellicht zelfs een TI) versie uit!
Dit levert alleen maar verwarring op en wordt de kans steeds groter en groter dat je een verkeerde kaart koopt....
Nou ik vind het wel mooi hoor zo veel keus, zo kan je precies uitkienen wat je nodig hebt en wat in je budget past. Een 4060 was te langzaam, een 4080 te duur, dus werd het een 4070 :)
Ik snap de keuze wel van een 4060, een 4070 en 4080 bijv. maar waarom moet je straks kiezen uit 5!!! verschillende 4070 versies?.....
Maar je noemt nu ook de gebruikelijke gpu lijnen, 60, 70 en 80 series., daar heeft hij het niet over.
Nu heb je een 4070, 4070 super, 4070ti, 4070ti super, en nu komt er nog een langzamere 4070, dat zijn dan 5 verschillende 4070 gpu's, wordt wel een beetje te veel van het goede.
Zit wel een duidelijk (prijs)verschil tussen die kaarten, alleen de super kwam te dicht bij de TI daarom verviel die, maar de Ti Super heeft weer 16GB ipv 12GB, betaal je helaas ook voor.

Ik wilde meer VRAM dan m'n 3060 Ti, dus was de 4070 genoeg, scheelde 100 euro met de Super, anderen wilden weer performance en gingen voor die "luttele" 100 euro meteen voor de Super.

Alleen deze is niet uit te leggen aan het publiek, intern vast wel.
dat wordt dan de 4070 niet zo super :P
Marketing.
Mensen kiezen immers graag.
Als je moet kiezen tussen 1 nVidia en 1 AMD kaart is de kans 50%.
Als je moet kiezen tussen 3 varianten van nVidia en 1 AMD kaart is de kans 75%.
Reeds lang bewezen dat het werkt: veel quasi dezelfde producten in de rekken zorgt er voor dat meer consumenten jouw product kopen.
Bij mij werkt het in ieder geval niet. Zolang AMD betere prestaties heeft voor hetzelfde geld, zal ik op dit moment AMD kiezen, ook al heb ik nu een 3070ti waar ik simpelweg nooit tevreden over ben geweest. (8GB kom op zeg)
Je wist van te voren dat de kaart 8GB aan VRAM had, dus waarom heb je de kaart dan überhaupt genomen?
Omdat ik een GTX 1080 had, die ook 8GB had. En daar was het geheugen niet de bottleneck, dus ging ik er niet van uit dat dat bij een 3070 ti wel zo zou zijn.
want niemand koopt dan een 4060 TI bijvoorbeeld meer want het prijsverschil wordt dan veel te klein..
De 4060Ti 16Gig is wel interessant voor de gene die persee meer vram willen (en nvidia), maar geen geld (over) hebben voor een 4080.
Dit levert alleen maar verwarring op en wordt de kans steeds groter en groter dat je een verkeerde kaart koopt....
Beetje eigen onderzoek, word wel verwacht, of infomeren bij verkopende partij...
En potentieel 5% prestatie verschil (waar t hier over gaat op basis van geruchten) valt toch reuze mee...

4(of 5?) verschillende 4070's is wel n beetje overdreven idd :P

[Reactie gewijzigd door JWL92 op 13 augustus 2024 14:34]

Een 4060 ti met 16gb kan nog steeds interessanter zijn dan een 4070 (welke dan ook) met 12gb.
Ik zou never nooit meer een kaart met 12gb of minder nieuw kopen (voor dit soort bedragen).

Zo gehaaid zijn dus bij Nvidia en hun VRAM strategie.

Nvidia is sowieso niet interessant voor mij.

[Reactie gewijzigd door HugoBoss1985 op 13 augustus 2024 16:31]

Dat over het aantal gigabyte videogeheugen ben ik helemaal met je eens!
Waarom je zo druk maken over vram? (V)ram is simpel, heb je er te veel van dan doet het letterlijk niks voor je performance. Kom je tekort dan stort je performance volledig in. Toevallig kwamen er in 2023 een paar slechte ports uit waar vervolgens een paar clickbait video's en reviews uit voortkwamen. Eindstand was er niks aan de hand. Zie bijvoorbeeld digital foundry over
The Last Of Us Part 1: Has Naughty Dog Fixed The PC Port?. Met 8 GB vram kun je sinds de patch prima high textures draaien, gelijk aan de ps5 versie.
Chaos voor koper en veel miskopen en misleiding.
Ze hebben zichzelf een beetje te pakken genomen door in de 4xxx serie een aantal modellen één chipset lager te schalen.

Met de 3xxx serie was het:
  • GA106 - 3050 / 3050 Ti / 3060
  • GA104 - 3060 Ti / 3070 / 3070 Ti
  • GA102 - 3080 / 3080 Ti / 3080 / 3090
  • GA100 - 3090 Ti
In feite is in de 4xxx serie de 4090 de opvolger van de 3090 Ti, en daaronder zijn een hoop modellen een tier naar beneden gegaan qua onderliggende chipset, wat gecompenseerd wordt met frame generation. Als je geen frame generation gebruikt is de 4xxx serie vaak maar een paar procent sneller dan de 3xxx serie.
Om bovenstaande kwam bijvoorbeeld ook het debacle met de 4080 12GB vandaan.

Overigens zijn een boel basis of Ti modellen al uit productie gehaald, en zijn de aanbiedingen die je nog ziet restvoorraad.

[Reactie gewijzigd door Halfscherp op 14 augustus 2024 15:22]

Gewoon uit nieuwsgierigheid.

Waarom zou je een bestaande kaart met minder kracht uitbrengen?
Is dit vanwege het chip tekort? of gewoon een verkoop trucje?

[Reactie gewijzigd door Groax op 13 augustus 2024 15:01]

Over GDDR6X:
Micron developed GDDR6X in close collaboration with Nvidia. GDDR6X SGRAM had not been standardized by JEDEC yet. Nvidia is Micron's only GDDR6X launch partner.
(Bron: wikipedia)

Iedere geheugenchip fabrikant zou GDDR6 kunnen maken want het is gestandaardiseerd door JEDEC. GDDR6X? Dat komt alleen van, of onder licentie van, Micron. Dat maakt opties voor het verkrijgen van GDDR6X wel even wat beperkter.

En dan kom je op het GDDR6X tekort dat door anderen al genoemd is.
In het verleden gebruikte ze een "verkoop truukje" door er meer geheugen op te zetten, maar dat was dan GDDR4 in plaats van GDDR5 en meestal was je dan slechter af in games.
Een extra 4GB om totaal 16GB te krijgen had geen overbodige luxe geweest bij een nieuwe RTX4070 me dunkt.
Passen slechts in drievoud op de kaart vanwege de 192 bit bus.
6-12-.. ?
Ze mogen vast van veel mensen ook 192GB VRAM doen, fijn voor AI modellen trainen. En deelbaar door drie, en ook mooi hetzelfde cijfertjes als de geheugenbus breed is. Je voelt het, dit is gewoon logisch. Kom op Nvidia, jullie maken er genoeg winst voor al, doe eens gek ;)
Ah ja, dit was ik even vergeten.
18 mag ook hoor hahaha.
dan kan je de Ti super kopen... (of n 4060ti, of 4080 zoals eerder aangehaald)

de gewone 70 heeft een 192 bit bus, daar kan je niet zomaar 4 GB bij plakken

[Reactie gewijzigd door JWL92 op 13 augustus 2024 19:35]

Ja de 4090 releasen voor 500euro was ook geen overbodige luxe geweest me dunkt, maar zo werkt de wereld nou eenmaal niet :)
GDDR4? volgens mij waren r wel NVIDIA kaarten met DDR4 (en 3)... feel free to correct me

overiges : tenzij je over de 970 met zn 3.5gb en 512mb trager praat, hadde ze int verre verlede wel eens rare combos bijv 550ti (192 bit) 1gb, maar das echt jaren terug... en toen kwam t idd vaak voor dat t geheuge iets trager was / slechter overclockde, iets wat je nu nog terug ziet met ram kits)

Verdubbelen kan als ze geheugen chips van dubbele grote hebben, das t enige wat de ddr/gddr standaard daar mee te maken heb. zoals bijv komende 3gib gddr7 chips .
https://videocardz.com/ne...b-modules-3gb-on-roadmaps
Er is geen chip tekort meer.

Waarschijnlijk is het gewoon om slechte chips te kunnen verkopen , anders is dat afschrijving. en zo voorkom je ook nog e-waste, dus prima.
eerder gerucht ;
https://videocardz.com/ne...-to-lack-of-gddr6x-memory

en nee, "slechte chips" , t is praktisch de zelfde die ... met exact gelijke core count volges deze geruchten maar dus aangepast voor gdd6.
The updated version will feature the AD104-251 GPU, a minor revision from the AD104-250, while retaining the same 5888 CUDA cores. The key difference is in the memory, with the GDDR6 version offering a 20 Gbps memory speed compared to 21 Gbps in the GDDR6X variant.
https://www.guru3d.com/st...1-gpu-and-20-gbps-memory/
Ik vraag me af wat het nut van deze variant van de kaart is.

Een hele nieuwe SKU maken zal voor Nvidia's formaat best wat rompslomp betekenen, en het verschil in memory config is niet heel groot. Plus, we zijn nu best ver in de lifecycle van de 40 serie. Dus wat voegt dit toe?

Het enige wat ik me kan voorstellen is dat dit geheugen een stuk goedkoper is met vergelijkbare prestaties, en dat de 5070 nog een aardige tijd op zich laat wachten. Dat, of het huidige geheugen is niet meer goed beschikbaar voor Nvidia.
Misschien het verkopen van net wat minder perfecte chips?
Of het verkopen van stock waar ze geen verder nut meer voor hebben?

Mij ook een raadsel, maar als het een hoop "e-waste" voorkomt ben ik er opzich niet op tegen. Hoop alleen wel dat het overal duidelijk wordt aangegeven en ook terug te zien is in de verkoopprijs, mits dit zo is.
Maar de GPU die is dus niet minder "perfect" dan de oude 4070 met zelfde cuda core count...
Totaal niet verwarrend.
Ik ben (ook) wel benieuwd hoe ze deze gaan noemen?
Wellicht is "4070 slower" een idee.
Het lijkt verder niet bar veel uit te maken voor de bandbreedte, de geheugensnelheid en het tgp (als ik de grafiek mag geloven).
Maar ggdr6 is toch zuiniger?

[Reactie gewijzigd door HugoBoss1985 op 13 augustus 2024 13:49]

verbruik van ram chips is vergeleken met de GPU te verwaarlozen
Ik ben (ook) wel benieuwd hoe ze deze gaan noemen?
De 8 GB versie van de 3060 hebben ze ook gewoon 3060 genoemd, dus ik verwacht dat ze weer dit trucje toepassen om mensen iets slechters te verkopen dan ze denken. Eerlijk gezegd begrijp ik nog steeds niet hoe ze hier mee wegkomen.
Ha Ludewig :)

De 3060 is een voorbeeld, de 3080 nog interessanter met 10, 12 of 20gb :P (volgens mij was de 20gb daarvan weer genekt/trager?).
Dat gaat helaas al jaren zo, ik denk terug aan mijn Toshiba laptop met X1600, helaas met 64 bits bus, veel trager dan benchmarks.
De 9800 PRO had je ook met verschillende bus bandbreedtes en ram hoeveelheden. 256/256 was de beste kaart.
ATI/AMD kon er dus ook wat van.
Alhoewel de Geforce 6600 een voorbeeld was met verschillend ram (zelfs DDR erop) en de 7600GS kwam ook met verschillende bus brandbreedtes.

Kortom verschillende soorten ram, verschillende hoeveelheden ram, en verschillende bus breedtes :P
Zonder dat dit erg duidelijk was (zelfs niet a.d.h.v. de verpakking).

[Reactie gewijzigd door HugoBoss1985 op 13 augustus 2024 15:57]

De voodoo2 was lang geleden als te koop met 8 of 12MB.
De TNT met 16 of 32MB
De lijst is lang.
Ik zie overigens het probleem niet als het duidelijk in de naam / op de doos staat.
GTX 4070 GDDR6x
GTX 4070 GDDR6
Opgelost. Als de prijs van de 6 lager is dan de 6x, dan wordt er niemand opgelicht en het verschil is waarschijnlijk niet zo groot.

Vermoedelijk wil men de kaart binnenkort iets goedkoper kunnen aanbieden als straks de 5 reeks op de markt komt en dan is het wel logisch om 'standaard' geheugen te kunnen gebruiken.
De 3080 20GB is nooit uitgekomen. De RTX 3080 is de launch kaart van de GA102. Later kwam de 12GB variant en deze chip heeft meer delen ingeschakeld. Zo heeft hij een 384-bit bus in plaats van 320-bit en heeft hij 8960 cores ipv 8704. Ook de RT en tensor cores zijn omhoog gegaan. De GA102 had bij 2 van de 6 memory controllers uitgeschakeld.

Even ter herrinering; de GA102 bestaat uit 7 GPC blokken waarvan er slechts 4 volledig intact zijn. Er is er 1 volledig uitgeschakeld en er zijn twee blokken waarbij 2 van de 12 blokken uitgeschakeld zijn. Dat zal een yield verhaal zijn dus. Met de tijd worden de yields beter en kun je dus een kaart produceren met meer memory controllers en/of meer ingeschakeld rekencomplexen.

[Reactie gewijzigd door sdk1985 op 14 augustus 2024 03:22]

als ze goedkoper worden, is het OK. Anders niet (minder product voor dezelfde prijs lijkt met niet OK).
Ik had verwacht dat ze er met trager geheugen (net als in het verleden) meer in zouden stoppen, bvb 14 of 16GB in plaats van 12GB, dan had het voor sommige games nog wel de moeite waard geweest aangezien ik met 12GB bij sommige games net kort kom, en GDDR6X of GDDR6 niet heel erg veel verschil maakt wat prestaties betreft.
Dan moeten ze ook de bus breedte aanpassen, en dan kom je dus op n 4060ti, 4070TI Super of 4080 16GB uit ;)

[Reactie gewijzigd door JWL92 op 13 augustus 2024 14:37]

4060TI heeft een 128bit bus en die heeft wel 16GB
daarom staat die ook int dat rijtje dak noem, :P
Beter hadden ze de geheugencapaciteit vergroot naar 16GB.
Nu zit je met de nieuwe iteratie nog steeds met die bijzondere 12GB cap, én is het nog langzamer ook.

Menig tweaker doet er alles aan om 4,7% winst te krijgen, maar af-fabriek mindere prestaties wordt afgedaan "In de praktijk merk je er niet veel van" Marketing op zijn best weer.

En ik kan alleen maar raden dat de prijs niet naar beneden zal gaan.
Er gewoon meer vram op ploppen werkt niet met de bus config.
NVIDIA verkoopt je als je 16 gig wil natuurlijk liever een 4080 ;)

edit ; r is ook n nvidia 4070Super Ti.. dus eigelijk is je wens al vervuld

[Reactie gewijzigd door JWL92 op 13 augustus 2024 14:38]

Ze heeben dat in het verleden heel vaak gedaan, alleen dan was het GDDR4 in plaats van GDDR5 en waren meestal de prestaties een stuk minder in de meeste games.
Maar GDDR6 of GDDR6X maakt zo weinig verschil dat je met een hoop games wel prestatie/visueel winst zou boeken aangezien er zat games nu zijn waarvoor 12GB GDDR net te krap is.
Ze heeben dat in het verleden heel vaak gedaan ...
...
... 12GB GDDR net te krap is.
16GB erop kan niet, 24GB zou wel kunnen (want; verdubbeling, oftewel 2x12GB) maar dat gaat 'echt never nooit niet' gebeuren! ;) :P
Tja alleen 4070 kan je kopen voor net wat meer dan 600 en de 4070 ti super is dan meteen alweer righting de 900 euro...
De 7900GRE is anders een goed alternatief voor de 4070 en die kost ca. 600 euro op dit moment.

review: Radeon RX 7900 GRE - De tofste AMD-kaart van dit moment
tja, r is ook nog n 4060ti...
k zou zegge keuze genoeg
Lijkt erop als ze binning toepassen en daarmee een hele nieuwe SKU erbij verzinnen ?
Inderdaad verwarrend, maar vanuit de business miss wel een logische stap om defecte modellen te verkopen als een goedkopere sku ?
Met exact zelfde CUDA core count, is r wss weinig defect aan de gpu zelf ;)
Jammer dat we een slechtere versie krijgen, al vraag ik mij af of deze kaarten dan goedkoper zou worden.
Sinds de release van de RTX 4070 Super zullen er minder mensen zijn die nog een normale RTX 4070 kopen. Met een lagere prijs zal dat veranderen.
Maar gaat het hier werkelijk wel om de 'gewone' 4070 en niet om de 4070super, want bij bv de 2060super werd na een tijdje ook niet meer duidelijk de super-tag naar buiten gebruikt.
Hopelijk gaat deze rond de 500 euro kosten. Misschien een waardig upgrade voor mijn 2080.
Rond de 500 euro zou ik toch eerder nog een aanbieding pakken op een Radeon RX 7900 GRE..
Die biedt vooralsnog verreweg de beste prijs/prestatie verhouding op dit moment. En als ik heel eerlijk ben (ik heb 2 gamesystemen thuis waarvan 1 met Nvidia en een ander met AMD) zijn de drivers van AMD wel vele malen beter geworden de laatste paar jaar.
Ik moet zelfs eerlijk toegeven dat ik de voorkeur geef nu aan de AMD Radeon drivers, omdat het veel minder zichzelf overal in wilt verweven.. Bij Geforce Xperience moet je tegenwoordig altijd een account voor aanmaken/invullen, anders werkt het gewoon niet en daarbij heb ik al een paar keer gehad (zeker met Fortnite) dat Geforce Experience dacht het beter te weten en dus zelf aan de grafische instellingen ging kloten...
Mijn ervaring met AMD was in het verleden slecht. Dus vandaar ik liever kies voor Nvidia. Trouwens je hebt geen Geforce Experience nodig. Ik installeer dat nooit. Werkt prima zonder.

En de 7900 GRE zit dik buiten mijn budget. Ik wil het liever onder 500 houden.
Een 7800 XT doet het beter dan een RTX 4070. En issues? Misschien zijn ik, mijn zoon, mijn 2 broers en het gros van mijn kennissen de "most lucky people on the planet", maar gezeur met AMD drivers zijn non-existent.

YouTube: RX 7800 XT vs RX 7900 GRE vs RTX 4070 vs RTX 4070 SUPER - Test in 25...
Bij Geforce Xperience moet je tegenwoordig altijd een account voor aanmaken/invullen, anders werkt het gewoon niet en daarbij heb ik al een paar keer gehad (zeker met Fortnite) dat Geforce Experience dacht het beter te weten en dus zelf aan de grafische instellingen ging kloten...
De Geforce experience gaat niet zomaar de settings van je game wijzigen. Daarvoor moet je als user eerst zelf kiezen voor 'automatically optimzie newly added games and applications; .

[Reactie gewijzigd door sdk1985 op 14 augustus 2024 03:28]

Lijkt een move om de voorraad op te maken van Micron en Nvidia. Gddr6 qua prijs schijn niet epic goedkoper te zijn. Maar qua prijs komt deze 4070 weer dicht in de 16GB versie van de 4060 Ti. Zat ook meteen aan jouw te denken DeadPhoenix86. Krijg je dan toch nog je geliefde 4070 :). Al denk ik qua geheugen je beter af bent met een 4060ti want ik denk niet dat de 4070 de 4060 ti eruit gaat trekken. We zullen het zien.
Verkeerde plek... Sry.

[Reactie gewijzigd door Obfzk8R op 14 augustus 2024 02:31]

de naam (iig momenteel, en als je in price watch kijkt hoe andere kaarten op webshops heten) geeft als je kennis heb toch heel duidelijk aan dat t om GDDR6 en niet X gaat.

Iets met eige onderzoek doen als klant, of goeie verkoper zijn en je klant helpen zodat die ook terug komt bij een nieuwe aankoop ...

Bovendien gaat t hier om max5% wat ik toch n heel ander verhaal vind als de 1030ddr3 tdt

Op dit item kan niet meer gereageerd worden.