Modders maken eigen 'RTX 4090 Super'-videokaart met sneller GDDR6X-geheugen

TecLab heeft een eigen 'RTX 4090 Super'-videokaart gemaakt. De modders deden dat door de gpu van een gewone RTX 4090 te combineren met het snellere geheugen van een RTX 4080 Super. De videokaart is 13 procent sneller dan een gewone RTX 4090 in Unigine Superposition.

Het team van TecLab maakte een eigen, onofficiële 'RTX 4090 Super' door drie verschillende videokaarten met elkaar te combineren, merkte ook Wccftech op. Zo werd de AD102-gpu van een RTX 4090-videokaart gedesoldeerd. Die werd vervolgens geplaatst op de pcb van een RTX 3090 Ti HOF OC Lab-videokaart van Galax, die is gericht op overklokken en onder meer is voorzien van een krachtige vrm-opstelling en twee 16-pinsaansluitingen voor de stroomvoorziening.

Op die pcb werd ook het bestaande geheugen vervangen door sneller GDDR6X-vram uit een RTX 4080 Super. Die videokaart haalt standaard geheugensnelheden van 23Gbit/s, hoewel dat bij de mod van TecLab werd opgehoogd tot 26Gbit/s. De gewone RTX 4090 haalt standaard 21Gbit/s-geheugensnelheden. Naast het vastsolderen van alle componenten op de juiste plekken, moest TecLab bijvoorbeeld ook de bios aanpassen.

Onofficiële RTX 4090 Super. Bron: Teclabs
De onofficiële RTX 4090 Super. Bron: TecLab

De videokaart werd uiteindelijk voorzien van een waterblok, hoewel TecLab ook tests met LN2-koeling uitvoerde. Standaard werkte de videokaart 13 procent sneller dan de gewone RTX 4090 in de Unigine Superposition-benchmark op 8k. Met een overklok naar 3GHz liep dat verschil uit naar ruim 16 procent. Met alle gpu- en geheugeninstellingen op het maximaal haalbare, naast aangepaste lod-instellingen in de benchmarks, werd uiteindelijk een score van 17.454 gehaald. Dat is ongeveer 40 procent hoger dan een stock RTX 4090.

Nvidia heeft zelf nooit een RTX 4090 Super uitgebracht, hoewel er wel een tijd lang geruchten rondgingen over een mogelijke RTX 4090 Ti met meer CUDA-cores, sneller geheugen en een hogere tbp van 600W. Naar verwachting krijgt de RTX 50-serie, die begin volgend jaar zijn introductie moet maken, sneller GDDR7-geheugen met snelheden van 28Gbit/s.

Door Daan van Monsjou

Nieuwsredacteur

03-07-2024 • 17:30

36

Reacties (36)

Sorteer op:

Weergave:

Zie hier nu het nut van een grotere bandbreedte op videokaarten, zeker voor hoge-resolutie gaming is dit zeer nuttig, het komt de performance enkel ten goede, compressie kan maar tot een zekere hoogte goochelen.

Vroeger draaide ik wel eens 8K resoluties op oudere spellen op een 780Ti, dit is voordat DSR een ding was en iedereen custom resoluties aanmaakte in de drivers boven native.

Het probleem echter was, hoewel de GPU prima in staat was het spel te draaien, de framepacing soms de wensen overliet, de frames hadden soms zo lang tijd nodig om te verwerken dat het voelde alsof het spel vertraagde en dan voorruit sprong, zeer inconsistente framepacing krijg je dan.
Dat was voor mij vrijwel het teken dat de bandbreedte van de videokaart gewoon niet opgewassen was tegen het data geweld dat het moest verwerken.

Zover ik weet heeft Nvidia sinds DSR de ondersteuning om resoluties boven de native resolutie te maken uit de drivers gesloopt, en met DSR zit je standaard vast aan de aspect-ratio van je monitor, en omdat DSR maar 4x je native resolutie maximaal toestaat, is 8K ook niet bereikbaar voor monitoren van 1080P of 1440P, terwijl de GPU dit wel kan.

Nu is er, inmiddels ruim 7 jaar geleden, iemand geweest die een DSR calculator heeft gemaakt, deze DSR calculator laat het toe tot wel 10 resoluties naar keus te generen voor DSR boven je native resolutie.

Hiervoor genereert hij een hex-output die in het register moet worden geïmporteerd, iedere monitor heeft een eigen mapje in het register waar deze data is opgeslagen voor de Nvidia drivers.
Nadat deze hex-output in het register is geïmporteerd dien je de GPU driver te resetten zodat de nieuwe waardes worden ingeladen, zoals devmanview kan doen.

Voor mijn GTX 1080Ti zou het commando dan zijn via een .bat scriptje waar de executable staat:
devmanview /disable_enable "NVIDIA GeForce GTX 1080 Ti"
Ja je monitor(en) worden tijdelijk zwart, dat is normaal bij een driver reset. (of de befaamde TDR crashes)

De website met de originele instructies is niet langer in de lucht, ook de DSR calculator niet, maar wees gerust deze zijn nog te vinden via de waybackmachine van het internet archief:

De guide:
https://web.archive.org/w...ns-via-dsr-nvidia-only/p1

De DSR calculator:
https://web.archive.org/w...point0.com/tools/dsr_hex/

In een recentere versie van de guide webpagina heeft de beste persoon, gezien zijn website host offline ging en hij er volgens mij de financiële middelen niet voor had, deze geüpload naar zijn Google Drive zodat je de html pagina lokaal kan draaien.

Zie hiervoor het kopje:
"Click here to use get the DSR Calculator."
https://web.archive.org/w...ns-via-dsr-nvidia-only/p1

De link naar de Google Drive functioneert niet via het webarchief, ik ga het niet posten omdat het wellicht niet mag, maar je kan de URL van de Google Drive link er zelf nog wel uitvissen uit de link van het webarchief.

Om een voorbeeld te geven voor een 1080P monitor:
https://i.imgur.com/q05dFn5.png

En tja HBM geheugen, dat zal denk ik te duur zijn voor de consument, wie kent de AMD Fury X nog?
Je kan in deze onderstaande review prima zien hoe de Fury X sneller was op hogere resoluties dan de 980Ti:
https://www.techpowerup.c...force-gtx-1080-ti/30.html

Enkel het argument dat VRAM van 4GB genoeg was gaat mijn inziens wat mank, want je zal toch je VRAM buffer moeten swappen naar RAM als die volloopt, en win je netto niets en krijg je pop-in en framepacing inconsistenties, dus het is prima zolang de VRAM buffer nog niet vol zit.

De Fury X is daarna wel snel vergeten, als deze 8GB had denk ik dat hij nog wel een langere tijd had meegedaan, maar de videokaarten met meer VRAM leven gewoon langer. Er waren een tijd terug zelfs spellen bij zoals Doom Eternal die 4GB videokaarten gewoon niet meer accepteerde.

Zelfs nu, 7 jaar later met de 1080Ti, kan ik nog steeds prima op Ultra en 1440P spellen spelen zoals Hogwarts Legacy, Ratchet & Clank Rifts Apart en Halo Infinite, hoewel zeker bij de eerste twee de VRAM buffer bijna geheel wordt gebruikt, zelfs na het alleen inladen van Hogwarts Legacy vreet deze al 10GB op, dat had met de GTX 1080 dus niet gehoeven met 8GB.

En ik denk overigens dat Lossless Scaling voor iedereen wel eens het overwegen waard is mee te experimenteren, het is een soort van DLSS/AFMF techniek die frame generation doet, maar dan ook voor elk mogelijk spel in plaats van de spellen die het hebben ingebouwd, en dus ook elk type videokaart. Deze kan met versie 2.1 inmiddels 3x zoveel frames genereren als de baseframerate die je instelt, zolang je GPU daarvoor ook de resources over heeft (GPU usage).

Natuurlijk is native beter voor latency en de beeldkwaliteit, maar deze framegen technieken hebben wel z'n voordelen, zelfs software-rendered games als Oldschool RuneScape functioneren hiermee, en als het een single-player campaign spel is die je met een controller speelt dan speelt dat probleem al helemaal niet meer.

En ook spellen die geëmuleerd worden zoals PCSX2, Xenia of Dolphin halen hier voordeel uit, want je kan een veel vloeiendere ervaring neerzetten zonder het spel te 'versnellen' omdat deze normaliter hardcoded zijn op een bepaalde framerate te draaien, en zeker bij die geëmuleerde spellen hebben de meeste moderne GPUs vaak genoeg capaciteit over om hiervoor framegen toe te passen.

Recente video hierover met uitleg:
YouTube: Frame Generation for EVERYONE!! Lossless Scaling is MUCH better than...

Je zal wel spellen in windowed mode moeten draaien om het te laten functioneren, de tool centreert het spel dan zelf in beeld alsof het borderless fullscreen is, soms is de GPU usage totaal lager met Lossless Scaling dan dat je het native zou draaien met dezelfde hoeveelheid fps. Zodra het echter in de buurt van 99% GPU usage komt moet je wellicht wat tweaken want dat zorgt voor framepacing problemen.

En tja HBM geheugen, dat zal denk ik te duur zijn voor de consument, wie kent de AMD Fury X nog?
Je kan in deze onderstaande review prima zien hoe de Fury X sneller was op hogere resoluties dan de 980Ti:
https://www.techpowerup.c...force-gtx-1080-ti/30.html

Enkel het argument dat VRAM van 4GB genoeg was gaat mijn inziens wat mank, want je zal toch je VRAM buffer moeten swappen naar RAM als die volloopt, en win je netto niets en krijg je pop-in en framepacing inconsistenties, dus het is prima zolang de VRAM buffer nog niet vol zit.

De Fury X is daarna wel snel vergeten, als deze 8GB had denk ik dat hij nog wel een langere tijd had meegedaan, maar de videokaarten met meer VRAM leven gewoon langer. Er waren een tijd terug zelfs spellen bij zoals Doom Eternal die 4GB videokaarten gewoon niet meer accepteerde.
Van wat ik me herinner uit de tijd van de Radeon Fury / Fury X / R9 Nano kaarten was het de bedoeling dat HBM geheugen goedkoper zou moeten worden met schaalvoordeel, echter de vraag naar HBM geheugen is nooit snel genoeg gestegen om de prijs te drukken.
AMD heeft daarna wel nog de Vega56 en Vega64 uitgebracht (en later ook nog de Radeon VII) met HBM2 wat tot 16 GB ging, maar de prijs per FPS was gewoon te hoog voor die tijd, zeker gezien de dure Radeon kaarten niet de Nvidia kaarten achter zich konden laten, of zelfs maar bijbenen in sommige gevallen. Dit is (veel) later met driver updates wel een stuk beter geworden maar toen was het "too little, too late".

Misschien dat HBM3 / HBM3E / HBM3P inmiddels wel betaalbaarder geproduceerd zou kunnen worden, maar de uiteindelijke prijs is natuurlijk het resultaat van vraag en aanbod, ook als de fabricagekosten laag zijn.
Tevens denk ik ook dat AMD de gok niet meer aandurft; hun huidige setup met "traag" GDDR6 geheugen + "Infinity Cache" presteert goed genoeg om weer goed mee te komen met Nvidia (afgezien van de 4090) en het lijkt alsof AMD voorlopig het gevecht om de prestatiekroon op een zijspoor heeft gezet. Mocht het ze ooit weer financieel voor de wind gaan dan zie ik het ze nog wel proberen, en dan zou HBM nog wel kunnen helpen om het gat met het Nvidia topmodel te dichten, maar dat zal niet in de nabije toekomst zijn.
Wat is het voordeel tegenover gewoon zelf een custom resolutie in nvidia control panel toe te voegen?

Also, hoe heb je dit allemaal uitgevogeld/geleerd? Ik ben al 10 jaar techie maar dit is mij allemaal veel te boven
Ik heb het niet meer getest eigenlijk sindsdien DSR uit is, maar ik kan me herinneren dat hogere resoluties niet meer geaccepteerd werden bij de nieuwere drivers, de tests faalden dan o.i.d.

Ik denk dat speelde ten tijde van deze reddit post:
https://www.reddit.com/r/...g_issues_with_the_custom/

En tja, ik doe mee sinds MSDos/Windows 3.11 maar pas serieus sinds XP, veel lezen, testen, klooien en observeren tijdens het gamen e.d. :+
DSR is nog steeds beschikbaar in de NVIDIA control panel (zowel DLDSR als Legacy DSR).
DSR wel, maar deze laat via de control panel maximaal een factor 4x toe, en dus kan je geen resoluties kiezen hoger dan die factor vier, dus een 2560x1440 scherm zal enkel 5120x2880 toelaten via DSR in het control panel, deze calculator biedt wat meer vrijheid om DSR in te stellen.

Voorheen was het zo dat je aangepaste resoluties onder het tabje 'Resolutie wijzigen' ging aanmaken in het control panel, dat was een tijd voordat DSR bestond, en mede de reden dat DSR waarschijnlijk in het leven geroepen is om dit makkelijker te maken.

Maar ik kon me herinneren dat bij nieuwere drivers de tests met hogere resoluties faalden en dus niet geaccepteerd werden, heb het sindsdien ook niet meer op die manier geprobeerd omdat DSR het makkelijker maakte om hetzelfde te bereiken.
Hoe bookmark ik deze post? :D
Is zoiets door de gemiddelde tweaked te doen?
De gemiddelde tweaker zal niet een reball en reflow apparaat hebben staan om dit allemaal aan elkaar te solderen :P
Toch maar eens dat gemiddelde omhoog krikken :9
Eerst maar het gemiddeld inkomen van alle tweakers dan omhoog :).
Nee.

Voor mij zou het te doen zijn qua complexiteit maar ik zie me niet al een gemiddelde tweaker, grootste probleem zouden de kosten van de kaarten en benodigde apparaten zijn. Voor een gemiddelde tweaker verwacht ik dat je minimaal 1x iets catastrofaal sloopt (waarschijnlijk bij het desolderen van de GPU/geheugen).
Je zult eerst wat ervaring moeten opdoen met solderen op goedkopere items zodat je onvermijdelijk kunt falen en ervan leren zonder dat je gelijk 1200 euro hebt weggegooid. Maar als je solderen eenmaal goed onder de knie hebt dan heb je het gevaarlijkste struikelblok al weggewerkt
Ik mis hoeveel vermogen dit prachtstukje 'knutselwerk' nu verbruikte in hun tests, meer dan de standaard 600W?
Ik gok op 1000W, maar dat is niet relevant omdat ze waarschijnlijk voor een record gingen.

Vast wel ergens te vinden, mag in een reactie op mij ;)

Edit: ook even gezocht en op Wccftech vraagt ook iemand het en is de reactie het zelfde, niet relevant omdat de mod gewoon was om te laten zien hoe ver ze kunnen gaan.

[Reactie gewijzigd door JDx op 22 juli 2024 17:59]

Ik zou er liever eentje zien met HBM3E geheugen. Dat zou helemaal lekker werken :9
Gaat niet gebeuren, kost teveel richten consument.
Ja helaas, want dat zou zo'n kaart beter tot zijn recht laten komen. Ik heb een veel goedkopere/oudere kaart van AMD in mijn AI server zitten die HBM2 heeft en die komt gelijk op met mijn 4090 qua geheugensnelheid terwijl de 4090 veel nieuwer en duurder is (en HBM2 een veel oudere standaard is).

Sowieso vraagt Nvidia er te veel voor vind ik. Ik heb nu dus een 4090 en de 5090 komt er ook wel. Maar het is echt extreem geld.

Maar ik doe veel met VR en dan loop ik nu al tegen veel beperkingen aan. Bovendien werk ik met AI en daar is die kaart ook heel handig voor.

[Reactie gewijzigd door Llopigat op 22 juli 2024 17:59]

Voor AI hebben ze andere kaarten ;) en nVidia vraagt wat ze willen en zolang de consument dat blijft betalen gaan de prijzen omhoog.
Ja nogal wiedes hebben ze andere kaarten maar daar heb ik als consument niks aan want die zijn niet te betalen. Dus die zijn gewoon niet relevant. Kunnen net zo goed niet bestaan, ik ga er geen hypotheek voor nemen :P

Gelukkig wordt AMD wel steeds beter ondersteund. Een jaar geleden kon je niks zonder CUDA. Nu kan jet met ROCm een aardig eind komen. Zo draai ik mijn lokale AI setup nu ook dus.

[Reactie gewijzigd door Llopigat op 22 juli 2024 17:59]

Welke AMD kaart gebruik je daar nu voor, als ik vragen mag?
Deze: uitvoering: AMD Radeon Pro VII 16GB

Was overigens 289 euro toen ik hem kocht, een maand geleden ongeveer.
Kun je toelichten wat voor toepassingen qua VR? Voor professioneel gebruik?
Ja klopt. Ik maak wat toepassingen voor zakelijk gebruik. Dingen als virtuele escape rooms.

Maar ik speel ook veel Flight simulator 2020 en daar kan ik niet eens volledige medium details aanzetten met deze kaart :'( VR is echt enorm zwaar.

[Reactie gewijzigd door Llopigat op 22 juli 2024 17:59]

Is Flight Sim dan ook niet heel erg CPU limited? En welke VR bril gebruik je?
Ik denk het niet zo, als ik 2D speel kan ik gewoon alles op max zetten. En ik heb een goede CPU (5800X3D). Niet top-end maar met FS2020 kan je toch niet meer dan 8 cores effectief aanspreken.

Ik heb een Quest 3.

[Reactie gewijzigd door Llopigat op 22 juli 2024 17:59]

Tsja, alsof bij dit soort projecten op de consument gericht is.

Ik kan zo snel geen prijzen van HMB3 vinden, maar gezien ze een 4090, een 4080 Super en een RTX 3090 Ti HOF OC voor opofferen lijkt het me dat ze een ruim budget hebben.
HBM3 zit mee tegen de GPU core en kan niet achteraf bij opgezet worden want de bus is al 1024 bit breed. Als je het daar op doelt. Wikipedia: High Bandwidth Memory

En @Llopigat had het over dat hij liever de gpu standaard met hbm3 geheugen ziet komen dan met dat gddr gedoe.

* Damic vind ook geen prijzen van die chips
Wat ik vooral opmerkelijk vind is dat kennelijk de pinout van een AD102 RTX4090 chip en die van een GA102 RTX3090 gelijk zijn, gezien het me niet lijkt dat men een complete custom multilayer pcb ontworpen heeft. Als kennelijk die surface mounted gddr chips qua pinout ook gelijk zijn, maakt dit het hele verhaal wat minder spannend. Je hebt een reballing/reflowing workbench hiervoor nodig, maargoed, dit is voor een techlab/professioneel reparatiebedrijf gesneden koek. Het enige "spannende" aan het bericht is dat men een bios mod heeft verricht, hoewel dat tegenwoordig ook vrij veel gedaan wordt.

Dus op zich een grappige actie, maar niet bijzonder spannend, door de uitwisselbaarheid vd surface mounted packages. Niet veel spannender dat een overclock in een pc, ware het niet dat een cpu in een socket zit en hier de gpu gesoldeerd op de print zit.
Connector probleem opgelost, doe alleen maar double the memory size.
;( ;(

Al die mooie videokaarten gesloopt :( :(
Leuk maar belachelijk duur op deze manier
Kijk eindelijk weer eens een tweakers artikel. Dit lijkt me ook wel leuk om te doen en is ook nog vrij simpel want zulk specialistisch materiaal heb je er helemaal niet voor nodig. Ik ga dit echter niet doen met gloednieuwe videokaarten want daar heb ik het geld niet voor. Ik kijk regelmatig naar Youtubers die oudere hardware modden, zoals meer/sneller geheugen plaatsen op oudere hardware. Het praktisch nut is waanzin natuurlijk, maar het is wel erg leuk om te doen. Nou moet ik zeggen dat een videokaart fabriceren die ook echt sneller is dan wat er momenteel te krijgen is ook heel erg cool is. Zelfs als je deze frankenstein 4090 gewoon normaal gebruikt zonder absurde cooling en normale clocksnelheden voor de GPU/MEM is het echt een verbeterde versie van het origineel. Ik wou dat ik het geld had voor dat soort grappen.

Het waren altijd leuke tijden, dat je de goedkopere Celeron CPU kocht en deze zo hoog kon overclocken dat hij kwa snelheid de snelste Pentium 2 voorbij streefde, zelfs met minder cache geheugen. Helaas is de tijd van overclocken eigenlijk helemaal voorbij. Ja, het kan theoretisch, maar met mijn perspectief vanuit het verleden is het totaal nutteloos geworden en dat maakt het veel minder leuk. CPU/GPU's overclocken zichzelf al tot het uiterste, met een heel klein beetje marge. Het enige wat dan overblijft is dat beetje marge en je moet vrijwel direct naar LN2 en V-modding om er echt wat extra uit te halen. Niet bruikbaar in praktische toepassingen, alleen voor de fun en das toch wel jammer. Het is natuurlijk ook een logisch effect van de technologische vooruitgang op dit gebied. Ik mis die tijd wel heel erg. De eerste lanparty's waar allemaal openstaande beige PC kasten stonden om te kunnen luchten met custom frankenstein koelsystemen gefabriceerd van grote eindversterker koelblokken. Meerdere aan elkaar getapete koelblokken op je SLOT-1 CPU, SLI Voodoo2 setups volgeplakt met heatsinks, overal ventilatoren met tie-wraps bevestigd en iedereen rookte nog volop, wat een pleurisbende was het eigenlijk ;). Dikke pret man, leuke herinneringen.
Ben zelf al maanden bezig, nadat me 1Gb chips kaduk zijn, om mijn 1080ti op 22Gb te laten draaien, tot nu nog geen succes, maar aanhouder wint (hoop ik) :) Misschien ga ik eens rommelen met HBM. 8)7

Op dit item kan niet meer gereageerd worden.