Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

YouTuber voorziet GeForce RTX 3070-videokaart van 16GB vram

Een modder is erin geslaagd om een RTX 3070-videokaart te voorzien van 16GB aan vram. Daarvoor verving hij de acht geheugenchips van 1GB voor exemplaren met een capaciteit van 2GB. Na diverse aanpassingen was het resultaat stabiel genoeg voor een benchmark.

Het knutselwerk is verricht door de Russische YouTuber VIK. Hij neemt in zijn nieuwste video's een Palit GamingPro RTX 3070 onder handen en verdubbelt daar het vram van. Dat is gelukt door de Samsung-geheugenchips te vervangen door exemplaren met een dubbel zo hoge capaciteit. Oorspronkelijk zitten er acht Gddr6-chips van 1GB op de kaart, met typenummer K4Z803256C-HC14. VIK verving die voor exemplaren van 2GB van dezelfde fabrikant, met typenummer K4ZAF3258M-HC14.

Alleen het solderen van meer geheugen op de pcb, is niet voldoende om een RTX 3070 met meer vram werkend te krijgen. Ook softwarematig moeten er aanpassingen gemaakt worden. Het is niet mogelijk om het bios aan te passen, maar VIK ontdekte dat het mogelijk is om een bepaalde strap setting aan te passen, die het bios informeert over het aanwezige geheugen. De waarde op 00110 zetten, resulteerde in het herkennen van de grotere geheugenmodules.

Na de aanpassing werkte de kaart, maar was de gpu niet stabiel. Alleen bij het draaien van twee benchmarks tegelijk, lukte het om benchmarks af te maken. Door clock locking toe te passen met EVGA's Precision-software, lukte het wel om de RTX 3070 16GB stabiel werkend te krijgen. Daarna behaalde VIK een score van 13783 punten in 3DMark Time Spy, dat is ongeveer gelijk aan wat een reguliere RTX 3070 met 8GB vram haalt. In een tweede video bespreekt VIK deze probleemoplossingen.

Het lukte VIK eerder ook al om een RTX 2070 8GB te upgraden naar 16GB vram, maar die kaart werkte niet stabiel genoeg om een benchmarkresultaat te produceren dat daadwerkelijk in de buurt komt van wat een RTX 2080 zou moeten halen. Het feit dat de experimenten slagen, betekent wel dat Nvidia ook configuraties heeft bedacht van deze videokaarten met 16GB vram. Vorig jaar gingen er geruchten over de komst van een RTX 3070 met 16GB en een RTX 3080 met 20GB. Naar verluidt zijn die versies echter geschrapt voordat ze zijn uitgebracht.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Julian Huijbregts

Nieuwsredacteur

09-03-2021 • 13:16

48 Linkedin

Reacties (48)

Wijzig sortering
Wel interessant hoe Nvidia kaarten uit brengen die meer in zich hebben dan ze laten zien. Zelfde was met de 20-series dat het groene ledje achter de logo eigenlijk een rgb-led was en als je die kabel deed vervangen kon je rgb verlichting hebben ipv het groen.
Dit gaat veel verder dan dat. Deze hardware was eerst niet op de kaart aanwezig, het is gewoon het fysiek aanpassen van wat er op het bord zit. Dat kan ook wel bij andere merken.
Dat is waar, ik vergelijk nu ook appels met peren. Maar moet je voorstellen dat als dit kan er dadelijk niet alleen via software overgeclocked gaat worden maar ook (als je beetje handig bent) op deze manier?
Vraag me dan af wat er op de Nvidia kaarten nog meer zit dat zo verbeterd kunnen worden of wat ze gelocked hebben en door trucjes unlocked kunnen worden.
Al die info die je zoekt is allang bekend. Je weet wat de geheugencontrollers bij AMD, Nvidia of Intel kunnen en daar kun je hardware op proberen aan te sluiten. Nu dus een upgrade van 8GB naar 16GB. Iets dat eigenlijk niet zo'n spannende ingreep is, op de softwarelimitaties van Nvidia na.

De reden dat je dit soort hobbyprojectjes eigenlijk niet ziet, is omdat het duur en risicovol is, niet omdat het niet kan.

Ook in software gebeuren dit soort dingen. Je hebt genoeg GPU's gehad (Radeon 9500 als één van de leukere voorbeelden) die gewoon een 9700 was, met uitgeschakelde onderdelen. Die onderdelen aanzetten was met een softwaretrucje te doen. Zo kreeg je een 9700 voor 't geld van een 9500. Yields waren best oké van de 9700/9500 dus de kans dat je een defecte chip had was heel klein. Ik weet de AMD Duron/Athlon varianten nog waarbij je met wat potloodstreepjes de configuratie aan kon passen. Een Duron met 600mhz kon zo draaien op 900mhz. Best oké.

Natuurlijk gaan mijn voorbeelden lang niet zo ver als het in/uit elkaar solderen van je GPU. Maar er zijn ook mensen die een hele GPU bouwen, rondom de VSA-100 bijvoorbeeld.
Had geen idee, zo ver heb ik niet teruggekeken. Weet wel met zelfs de nieuwere chips van AMD dat je met een goedkopere cpu bijna dezelfde performance kan krijgen als een duurdere (bijv. de 3500x en de 3600).

Dat mensen zelf een gpu bouwen verbaast me eigenlijk niets, dat het nog geen trend is geworden met deze tekorten :)
deze kerel bouwt zelf geen gpu hé, hij steekt gewoon wat andere chips op een videokaart die in hogere modellen ook gebruikt worden. Het is geen softwarematige beperking zoals bij de batterij van een tesla, maar puur een duidelijke keuze op de doos om er maar 8GB aan RAM in te steken. Het enige verschil met je moederbord is dat daar slots voor voorzien zijn en je op een videokaart moet beginnen solderen.
als je iets terug leest lees je dat ik het niet over had dat de persoon die het VRAM verhoogt heeft, maar over een opmerking me verbaasde van een andere tweaker die mij vertelde dat er ook mensen zijn die zelf hun GPU bouwen.
Dat mensen zelf een gpu bouwen verbaast me eigenlijk niets, dat het nog geen trend is geworden met deze tekorten :)
Dit doe je niet ook zomaar met een soldeerboutje ;)

[Reactie gewijzigd door D-Three op 9 maart 2021 19:31]

Dat is waar, maar degene die dat wel zouden zijn zouden dan best n klap geld kunnen vragen als de vraag ernaar zal groeien (dan bedoel ik het aantal VRAM verhogen).
Je kunt inderdaad een hardwarematige aanpassing doen.
Maar zoals je leest is dat zo simpel nog niet.
Softwarematig moeten er aanpassingen gedaan worden en is de boel niet stabiel.

Het is geen appeltje-eitje om het werkend te krijgen.

En 1 of 2 benchmarks draaien wordt niet vanzelf een bruikbaar product.
Klopt, maar daar ging het me ook niet om. Het ging mij erom dat het werd neergezet als een eigenschap van de kaarten van Nvidia en min of meer gelijk werd gesteld aan andere zaken waarbij een kaart meer kan dan op de doos staat. Dit is een complexe klus die niet zomaar slaagt, maar dat staat niet in de weg dat het ook met een AMD kaart kan.
Meer in zich hebben dan ze laten zien zou ik niet per se zeggen. 8GB is genoeg voor een kaart als een 3070, en zoals je al zag in de benchmark scheelt het niks om er 16GB van te maken. Waarom zou Nvidia dan extra kosten maken om er 16GB op te zetten?
Ik denk dat het ook ligt aan de applicatie, misschien presteert de 16gb kaart nu wel beter in bijvoorbeeld 3D-tekeningen.
En dan zegt nvidia dat je een quadro moet kopen
Dit lijkt me dan wel goedkoper als de performance goed is, al weet ik niet hoeveel het VRAM heeft gekost.
De kaart is in ieder geval een stuk goedkoper dan een quadro.
Het is me daarom ook een raadsel waarom ze de 3060 dan met 16GB uitbrengen. Behalve dan dat het voor marketingstechnische doeleinden wel weer logisch is.
Het is me daarom ook een raadsel waarom ze de 3060 dan met 16GB uitbrengen.
12GB, wat anders 6 zou zijn
Oh ja sorry, ik vergis me. Maar dan nog....
Omdat het aantal chips ook de geheugenbandbreedte bepaalt. Dit is nu juist een voorbeeld wat een goede verklaring heeft.
6 is te weinig. En zoals Cio al zegt, de bandbreedte die Nvidia gebruikt op een 3060 ben je gebonden aan of 6GB, of 12GB.
Wel interessant hoe Nvidia kaarten uit brengen die meer in zich hebben dan ze laten zien.
Vaak gewoon goedkoper, zie ook niet helemaal waarom ze in dit geval meer hebben dan ze laten zien?
Het ledje zat er al, maar de grotere chips in dit geval nog niet.
Hoezo die meer in zich hebben?!? Hij heeft gewoon de geheugen chips vervangen voor chips met een grotere capaciteit, dat heeft niks te maken met wat de kaart 'in zich heeft'.. Bovendien levert het vooralsnog 0,0 prestatiewinst op en dus is het een vrij nutteloze mod.. 8GB is genoeg voor een RTX 3070 en de resoluties en instellingen waar 99% van de kopers hem op zal gebruiken..

[Reactie gewijzigd door Inflatable op 9 maart 2021 15:19]

Heb het ook niet specifiek over VRAM. 8GB is ook genoeg maar als ze dat al kunnen upgraden door een beetje handig te zijn ben ik benieuwd wat ze nog meer zouden kunnen doen met zo'n kaart om prestaties te verbeteren dan alleen de VRAM verhogen.

Als je ook een beetje verder leest bij de discussies zie je ook dat ik me eerder afvraag of de 16GB niet benut kan worden bij zware grafische applicaties (zoals 3D tekeningen), niet alleen twee benchmarks...

Je hebt dus gelijk dat 8GB genoeg is voor gaming, Nieuwere kaarten komen met meer VRAM nu vanwege dat games enzo zwaarder en zwaarder worden dus word er eerder naar de toekomst gekeken dan wat we nu op de markt hebben, lijkt me logisch.
Het mooie dan vind ik als je nu een 3070 haalt en straks komt er een game die 10-12+ GB VRAM gebruikt je deze dus beter zou kunnen spelen als je 16GB hebt. Natuurlijk komt er veel meer bij kijken want een kaart bestaat niet alleen uit memory, maar dat bedoel ik er dan ook mee van of ze andere onderdelen van een grafische kaart kunnen *upgraden* ondanks dit niet iets is wat je hoort te doen.
Wil je iets aan die 16 GB hebben, dan zal de driver ook gehackt meoten worden om te weten dat er 16 GB bruikbaar is. En het praktische probleem is dat je niet waar overal in de driver die "3070=8GB" logica voorkomt. Je kunt het in de DirectX 11 code hacken terwijl de CUDA code in dezelfde driver nog denkt dat het een 8GB kaart is.
Lijkt me een mooi project als je de kennis en tijd hebt lijkt me toch.
Vraag mij af of er ooit videokaarten zullen komen met insteekmodules voor geheugen.
Zolang de bus die insteekmodules gebruiken niet snel genoeg zijn denk ik niet dat dit snel gaat gebeuren.
In het grijze verleden is dit wel al meermaals gebruikt om videoperformance op te schroeven.
Dan gaan we weer terug naar de oude tijd. Mijn oude S3 ISA had de mogelijkheid om 512kb erbij te zetten.
Of met mijn soundbaster Awe32 daar kon ik 8mb aan simm-ram in zetten.

[Reactie gewijzigd door Dj Neo Ziggy op 9 maart 2021 14:16]

Die zijn er wel geweest. S3 Trio64V2 en nog een aantal in deze videokaart serie zijn hier een voorbeeld van
Dan moet je wel heel veel pinnetjes gaan supporten (zo'n 200 per geheugenchip), met alle gedoe van dien. Verbindingen die net-niet-helemaal lekker zijn, statische electriciteit afvangen, en natuurlijk de compatibiliteitsissues. Ik vermoed dat de fabrikanten er niet aan willen, ook al omdat de kosten ver boven de mogelijke voordelen uitkomen. Ze bakken nu gewoon een paar versies, testen die grondig, en hop, de markt op.

Als ik naar CPUs kijk en hoe precies die soms met hun geheugen zijn (na jaren evolutie) dan vind ik het zo wel prima.
Deze vraag is beter:

Vraag mij af of er ooit weer videokaarten zullen komen met insteekmodules voor geheugen.
Daarna behaalde VIK een score van 13783 punten in 3DMark Time Spy, dat is ongeveer gelijk aan wat een reguliere RTX 3070 met 8GB vram haalt.
Blijkbaar kan 3DMark Time Spy dus niet het extra geheugen benutten? Waarom niet een test die dat wel kan, of is dit gewoon gedaan om te kijken/bewijzen dat het kan en zou dat een volgende stap zijn?
je ziet het verkeerd: timespy HEEFT niet meer geheugen nodig.

meer geheugen maakt het niet sneller. het is alleen een werkblad om op te werken. het formaat van het werkblad is niet belangrijk zolang je al je taken erop kwijt kan. het word pas een probleem als je taken wilt doen die groter zijn dan je werkblad. en fun fact: vrijwel geen enkel spel heeft ook meer nodig dan wat er standaard op huidige kaarten zit.

[Reactie gewijzigd door flippy op 9 maart 2021 13:40]

Die conclusie kan ik zelf ook trekken, maar de vraag blijft waarom dan deze test gebruiken en niet een waarmee je wel het voordeel aan kan tonen? Klinkt dus alsof het gewoon proof on concept is/voor de leuk/omdat het kan.

Op deze manier is het net alsof je een grotere accu/tank in je auto zet om groter bereik te hebben, maar hem test door één keer naar de supermarkt om de hoek te rijden. Of de maximum snelheid verhoogt en je hem test op dezelfde snelweg met dezelfde snelheidslimiet ipv van even op de Autobahn los te gaan.
Misschien dat ze willen laten zien dat de performance stabiel is? Inderdaad in principe een proof-of-concept, dus. In jouw auto voorbeeld is het niet echt de juiste vergelijking die je trekt, het zou eerder gezien kunnen worden als het vergroten van je bereik en dan laten zien dat je auto nog steeds even hard kan :+ Natuurlijk zegt dat niet zo veel over dat extra bereik, maar wel dat je auto het nog steeds even goed doet.

Edit: Vooruitgang in directe prestaties wat geheugen betreft zou je kunnen krijgen door geheugen te gebruiken wat hoger te klokken is, of een bredere geheugenbus te gebruiken, of een betere geheugentechniek te gebruiken.

[Reactie gewijzigd door Tomvl117 op 9 maart 2021 14:04]

Ik vind het knap van die kerel. Mooi dat het werkt.
Maar ik ben nu al nieuwsgierig naar wie dit allemaal thuis gaat proberen na te doen.
En dan vervolgens hier op het forum komen klagen "ik heb allemaal artefacts op m'n beeld, is mijn GPU kapot?"
Lijkt me erg onwaarschijnlijk dat mensen daarover gaan klagen en geen idee hebben hoe het kan 8)7

Hiervoor moet je echt moeite doen en begrijpen wat je doet (als in: anders probeer je het niet eens), en als je dat weet dan begrijp je ook de risico's en weet je dat die gewoon voor jezelf zijn en niemand anders daar wat aan kan doen.

En mocht iemand het toch proberen die er de ballen verstand van heeft, dan lijkt het me sterk dat ie windows in komt en artefacts kan constateren, denk namelijk dat de kaart daarvoor al lang de rest van zijn PC/videokaart heeft vernield door kortsluiting :)

[Reactie gewijzigd door watercoolertje op 9 maart 2021 14:11]

Kan iemand mij uitleggen waarom een geheugen-upgrade voor instabiliteit zou kunnen zorgen in een geval als dit? De controller is duidelijk capabel om het geheugen aan te spreken en de specififcaties zijn nagenoeg hetzelfde, alleen de capaciteit verschilt. De drivers zijn vrij generiek. Ligt het dan aan de BIOS van de kaart?
Misschien ligt het aan:
- De kwaliteit van de soldeerverbindingen.
- De kwaliteit van de nieuwe geheugenchips.
- Misschien zijn de chips aan te hoge temperaturen blootgesteld en te lang, waardoor ze beschadigd zijn geraakt.
Als stoppen ze er 160GB in, je kunt ze toch niet kopen.
Je kan ze altijd kopen; of je ze krijgt is het tweede verhaal.
Er is helemaal niks nieuws uit gekomen, dus je hoeft je ook niet druk te maken :Y)
Een rechtzaak wegens wat?
Niet genoeg produceren?
Niet genoeg investeren in productie capaciteit?
Je doet net of het belangrijk is ;)
Zelfs al zouden ze vandaag beginnen dan duurt het nog 3-4 jaar om een "chip fab" te bouwen en operationeel te krijgen.

Biden wil 37 miljard dollar beschikbaar stellen om meer capaciteit in eigen land te hebben. Daar bouwen ze een of twee fabs voor. Even tien fabs bouwen kan niet al gooi je er 500 miljard tegenaan.

TSMC is ook begonnen met extra capaciteit bouwen. Dat is een miljarden investering. Daar zul je echter dit jaar nog niks van zien.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True