Gamer installeert Crysis 3 op vram van GeForce RTX 3090

Nvidia's GeForce RTX 3090 is voorzien van maar liefst 24GB aan vram. Als gamer heb je daar vrij weinig aan, want de RTX 3080 met 10GB doet weinig onder voor het topmodel. Een gamer ontdekte dat je het vram van de RTX 3090 ook kunt gebruiken om games vanaf te draaien.

Twitter-gebruiker 'Strife, het revolutionaire meisje' kwam met het revolutionaire idee om Crysis 3 op haar gloednieuwe RTX 3090 Founders Edition te installeren. Ze gebruikte de software GpuRamDrive om een NTFS-partitie van 15GB te maken op het Gddr6x-videogeheugen van de gpu. Vervolgens installeerde ze Crysis 3 op het geheugen van de videokaart.

Volgens Strife draait de game vloeiend in 4k-settings, met hoge framerates en de game laadt zeer snel. Tijdens het spelen is er nog 9GB aan vram over voor de gpu, maar het totale verbruik komt niet uit boven de 20,5GB. Benchmarks of vergelijkingen met een installatie op een ssd heeft Strife niet uitgevoerd. Het draaien van een game vanaf een videokaart heeft vermoedelijk weinig praktisch nut, maar het is een fraai staaltje 'omdat het kan'.

Heb je niet genoeg aan 24GB vram om je favoriete game te installeren? Dan is het ook nog een optie om twee RTX 3090-kaarten te combineren met een SLI-brug. De gecombineerde 'opslagruimte' van 48GB biedt dan meer mogelijkheden voor game-installaties.

Afbeeldingen via @Strife212 op Twitter

Door Julian Huijbregts

Nieuwsredacteur

05-10-2020 • 15:23

113 Linkedin

Submitter: Umbrah

Lees meer

Reacties (113)

Wijzig sortering
Heerlijk, gewoon omdat het kan!
Meteen flashback naar reacties decennia geleden als je het geheugen (1MB!) van je Gravis Ultra Sound Max gebruikte als ram drive!
Wat moet je eigenlijk met zo'n berg aan vram? Heb de 11gb van mijn 1080 gtx ti eigenlijk nooit echt vol zien lopen, maar misschien vergis ik mij dan. Of moet je hiervoor 8k resoluties gaan gebruiken?
Het ligt er aan wat je met je video kaart doet.

Als je vooral focused op games dan word de VRAM gebruikt om game assets op te slaan, en dan nemen high res textures vaak de meeste ruimte in, maar andere dingen zijn ook mogelijk.

Vooral in de wetenschap is veel VRAM belangrijk. Om de berekeningen snel te laten verlopen (denk aan je HDD vs RAM) moet alles in VRAM staan. Omdat de datasets of modellen zo groot zijn, heb je dus veel VRAM nodig.
Niet alleen in de wetenschap ook in de zorg worden GPU's ingezet om berekeningen te maken. Waar een dual cpu xeon heel veel met stoot aan ram dik uur over doet, doen ze zo'n berekening op gpu's in iets van 15 minuten. Dan praten we wel over die nvidia grits :) dus meerdere in een doos.

[Reactie gewijzigd door mutsje op 5 oktober 2020 16:26]

Wat voor berekeningen heb je het dan over?
Eén van de bekende rekenklussen is het maken van 3D modellen uit 2D opnames. Veel sensoren zoals CT en MRI maken een heleboel 2D afbeeldingen. Om van die stapel een 3D model et maken moet je behoorlijk wat vector-transformaties doen.

Daarbij telt mee dat mensen nooit 100% stil liggen, en dat om technische en medische redenen de belichtingsintensiteit doorgaans niet zo hoog is als je voor beeld-doeleinden eigenlijk zou willen. Digitaal opschonen van de foto's is niet belastend voor de patient en vaak sneller dan een extra half uur in een dure scanner.
dank je voor je verhelderende antwoord!
Ik had er nooit bij stilgestaan hoeveel nabewerking er eigenlijk nodig is om de huidige gebruikerservaring te krijgen.
Vector- en matrixmultiplicatie voornamelijk denk ik.
Excuus mijn vraag was verkeerd gesteld.
Welke processen in een ziekenhuis zijn onderhevig aan dergelijke berekeningen?
In de protonencentra gebruiken ze zulke berekeningen.
Meerdere monitoren is dat ook geen voordeel met veel vram?
Ik pretendeer niet te begrijpen hoe een videokaart zijn geheugen gebruikt, maar ik stel me zo voor dat het geheugen dat schaalt met het aantal schermen alleen framebuffers zijn.

Aannemende 3 stuks 4K schermen met 10-bit kleur en triple-buffering, dan kom ik uit op max. 300 MB dat nodig is voor schermbuffers. Daar krijg je je 24 GB dus nooit mee vol.

Je zou dus zeggen dat het aantal schermen en de resolutie daarvan geen doorslaggegevende factoren op VRAM gebruik zijn, zelfs niet voor mid-end current-gen videokaarten.
Als je meer monitoren gebruikt dan zal je idd meer VRAM gebruiken, maar het ligt aan de situatie hoeveel.
Als je alleen op de desktop zit dan zullen 3 schermen niet 11gb gebruiken.
Hebben we het echter over 3 4K schermen tijdens het gamen, dan zal je mogelijk een stuk meer VRAM gebruiken dan wanneer je alleen 1 4k scherm gebruikt. Maar dan is het natuurlijk wel weer zo, dat je meer resolutie hebt met meerdere schermen en dan dus ook meer VRAM gebruikt. Maar hoeveel meer VRAM extra schermen gebruiken is niet een vast getal en kan variëren.
Als je geen games draait op je extra scherm, nemen 2 of 3 schermen nog steeds meer een paar 100MB in, afhankelijk van wat je op je scherm hebt staan.
Boeiende reactie. Dankjewel!
een titan/3090 is niet voor gamen maar voor echte toepassingen zoals simulaties en zwaar CAD werk.

in die systemen is 128+GB vrij normaal. en 24GB vram is "meh". beetje vette workstation kan rustig 2~4 titans hebben en een terabijtje aan ram.

[Reactie gewijzigd door flippy op 5 oktober 2020 15:30]

Als je serieus CAD werk doet kijk je toch eerder naar een QUADRO RTX 8000 of iets dergelijks. De 3090 is echt wel gepositioneerd als een gaming kaart.
qua marketing, ja

Maar als jij een kleinere partij bent die hier niet even 1 of meerdere keren 6000€ kan/wil neerleggen dan is de 3090(en daarvoor titans) een perfect budget alternatief.
ik ben het met je eens, zover ik weet werd de 3080 weggezet als high-end 4k gaming (richting ~120fps) en de 3090 is geschikt voor stabiele 8k gaming
en kies je voor zakelijk zijn er ook goedkopere alternatieven dan de QUADRO RTX 8000 en zakelijk zijn ze ook nog aftrekbaar.
Over het algemeen meet het rekenkundige drijvende-kommagetal met enkele precisie 32-bits getallen, terwijl zwevende kommagetallen met dubbele precisie 64-bits eenheden meten, waardoor de nauwkeurigheid van berekeningen toeneemt. Voor GPU's is een zwevend kommagetal met dubbele precisie (of FP64) handig voor algemene doeleinden (GPGPU), zoals wetenschappelijk onderzoek en gegevensmodellering, omdat het een hogere mate van precisie biedt bij het maken van berekeningen.

De 3000 serie betreft 32 bits precisie en de Quadtro 64 bits.
de 3090 is geschikt voor stabiele 8k gaming
bron? Lijkt me erg sterk namelijk. Als ik me niet vergis is de 3090 15% sneller dan de 3080, en dat terwijl 8k vier keer zoveel pixels heeft als 4k...

Ik denk dat we nog wel even moeten wachten op 8k gaming.
De GeForce RTX 3090 is de eerste grafische kaart ter wereld waarmee je games kunt spelen, opnemen en bekijken in 8K HDR. Dat is vier keer zoveel pixels als 4K en zestien keer zoveel pixels als 1080p, voor ongelofelijke detailniveaus. Voeg het verbluffende contrast van HDR toe en je beleeft je games op een compleet nieuw niveau.

GeForce RTX 3090 is speciaal gemaakt voor gaming, is sensationeel krachtig en heeft een enorme framebuffer van 24 GB waarmee je veel populaire games op 8K kunt spelen. En met ondersteuning voor HDMI 2.1 kun je je pc met slechts één kabel aansluiten op je 8K-display.

https://www.nvidia.com/nl-nl/geforce/technologies/8k/

[Reactie gewijzigd door Shizukana08 op 5 oktober 2020 17:02]

Waar je, als je de marketing even overslaat, merkt dat er qua GPU performance (rauw) ongeveer 15% bovenop de 3080 zit, en je met overhead doorgaans maar 10% winst hebt. De mega-framebuffer is vooralsnog niet heel nuttig (in absoluut, niet gereserveerde omvang), en de kaart heeft amper double precision ondersteuning waardoor een SiemensNX feitelijk ongeveer op 1/20e draaid van een quadro.

Resteert 8k. Daar komt de framebuffer naar boven als zowaar een beetje nuttig. Probleem is echter dat de "pracht" games rond de 30fps gaan zitten, zoals tombraider, en dat de "snelheidsgames" (racen/shooten) ineens de 60 nog maar nét aanraken.

Ja, de RTX3090 kán 8K gamen, maar het is geen pretje. Zelfs met DLSS (upscaling) blijft het behelpen. En wáág het niet RTX aan te zetten!

8K op de desktop kan ook met elke andere GPU met HDMI 2.1 (toegegeven, nog niet veel naast ampere), zoals 11th gen Intel IGP's. (Xe GPU heeft in theorie HDMI2.1). 8K is gewoon hyper over-marketed op het moment.

Ik had liever gezien dat ze directstorage + dáár de grote framebuffer voor hadden gepushed, en NIET kunstmatig de quadro functionaliteit hadden geknepen. Titans konden dat, en dit zou de titan replacement moeten zijn, maar dat is het niet. Het is een geknepen titan.
de 3090 kan net zo goed gamen als een titan. het is gewoon een andere naam voor hetzelfde beestje. niks meer dan de marketingagfdeling die een proefbalonnetje opgooit. zien of het blijft plakken.

[Reactie gewijzigd door flippy op 5 oktober 2020 15:44]

Geloof dat er verschil in de drivers zaten waardoor er een best groot performance verschil is..

Of was dat alleen vroeger zo?
de 3080 en 3090 gebruiken dezelfde drivers. probleem is simpelweg dat de gpu en geheugen anders opgezet is en dus minder effectief is voor gamen maar meer voor harde gpu spierballenwerk zoals simulaties. je geeft dus 2x zoveel geld uit maar krijgt 10% meer prestaties. niet echt zinvol om het aan gamers proberen aan te smeren maar nvidia doet het toch. maar voer je een 3090 een simluatie bijvoorbeeld dan zie je ineens het verschil groter worden richting de 50+%.

de quadro kaarten zijn helemaal anders doordat die nog verder gericht zijn op simulatiewerk.

[Reactie gewijzigd door flippy op 5 oktober 2020 16:01]

Een verschil tussen de 3000 gaming kaart en een Quadro kaart voor bedrijfmatige doeleinden:
Over het algemeen meet het rekenkundige drijvende-kommagetal met enkele precisie 32-bits getallen (b.v. Een 3000 serie gamingkaart), terwijl zwevende kommagetallen met dubbele precisie 64-bits eenheden meten (b.v. de Quadro kaarten), waardoor de nauwkeurigheid van berekeningen toeneemt. Voor GPU's is een zwevend kommagetal met dubbele precisie (of FP64) handig voor algemene doeleinden (GPGPU), zoals wetenschappelijk onderzoek en gegevensmodellering, omdat het een hogere mate van precisie biedt bij het maken van berekeningen.
Zit er tegenwoordig hardwarematig verschil tussen een Quadro en een Geforce GPU ?

In oude tijden, kon je eenvoudig met een gemodificeerde driver of bios een Geforce kaart omtoveren naar een Quadro, omdat ze afgezien van het prijskaartje verder exact hetzelfde waren.
Inderdaad is er een verschil. Zoals RR73 terecht zegt zijn de FP64 units op een consumenten-kaart veel schaarser. De 3090 doet 0.5 TFlops in FP64; de oude Titan X (Pascal) 0.3 TFlops, de huidige A100 (opvolger van de Quadro serie) doet 9.7 TFlops.

Er waren in het verleden zeker een groot aantal Quadro's die op dezelfde die waren gebaseerd als de GTX modellen. Of het reflashen van de bios hielp was nogal eens een kwestie van binning. Maar wat bereik je ermee? De belangrijkste reden voor de Quadro is de garantie van NVidia en de software schrijvers, een garantie die zinloos is voor nep-Quadro's.
Of de zojuist op tweakers vermeldde RTX A6000 of A40!
De quadro kaarten worden gecertificeerd. Daarmee krijg je een garantie dat de berekeningen die je doet kloppen. Bij consumenten kaarten gebeurd dit niet.

Dus als je een beetje serieus aan het bouwen bent dan heb je de quadro lijn nodig.

Mocht bijv. een brug instorten dan is het vervelend als het niet ontworpen is met een gecertificeerde kaart.
Lijkt me nog veel suffer om niet gewoon zelf voor redundantie te zorgen in plaats van "ja maar Nvidia zei" te moeten zeggen voor die hypothetische brug. Dat kan wel eens goedkoper én betrouwbaarder zijn. :P

"Garantie dat de berekeningen kloppen" gaat ook maar zover, het blijft natuurlijk hardware. Kans van x honderdste procent blijft een kans van x honderdste procent.
Correctie: een 3090 is naast voor gamen ook een relatief goedkope GPU voor workstations. Het is een echt hybride beest, iemand die geen games speelt zal een GPU kopen die alleen maar bedoeld is voor datawerk zoals de Quadro GPU's. Met een hybride zal je natuurlijk ergens iets op in moeten leveren.
Let op - itt Titans krijgen de 3090's geen "quadro like" eigenschappen. Zoals double presision, waardoor in sommige workflows (vooral in CAD...) het niet alleen "niet supported" is, maar ook 20x trager... Wat best jammer is, de hardware zit namelijk in de GPU... het is puur een driver/bios beperking...
Hangt ook af van de resolutie waarop je speelt.

Even terzijde dat je die 24gb niet zomaar vol krijgt met games ook niet op 8k, maar met mijn RTX 2070 Super zou ik die 8gb VRAM zo vol krijgen, met paar games die ik speel als ik zou overstappen naar een 4K scherm.

Op mijn huidige 1440p scherm voldoet die hoeveelheid nog wel, maar er zijn wel wat mensen die zeggen dat de 10gb VRAM op de RTX 3080 een "foute keuze" was omdat die kaart makkelijk 4K gaming aankan, maar je in bepaalde gevallen de texture settings naar beneden bij zou moeten stellen vanwege te weinig VRAM.

Dat zal nu nog meevallen met de meeste games maar kan een probleem in de toekomst worden, ik herinner mij nog toen wij in 2015 de GPU van mijn partner moesten vervangen omdat 1gb VRAM een issue begon te worden in games, terwijl de kaart zelf het anders nog prima aankon.

Maar aan de andere kant denk ik dat de hele "VRAM issue" in games nog niet echt een groot probleem zal zijn, nog steeds gamed het grootste deel van de mensen op 1080p en dan is 8gb VRAM ruim voldoende, vaak zelfs nog 6gb.

[Reactie gewijzigd door Mizgala28 op 5 oktober 2020 15:49]

11GB, niet 10GB. (3080)

DLSS. Daar zet nvidia in. Games gaan alleen maar richting extra praal (raytracing) maar dat is nog jaren "te duur" kwa performance naar mate het meer toegepast gaat worden .

Vandaar DLSS. Je hebt dan opeens een 4K beeld uit "maar" 1440P en dan is die 11GB op een 3080 meer als zat. Schijnt in veel gevallen zelfs een strakkere 4K beeld te leveren dan native 4K vanwege de extra AI sharpening etc. DLSS 2.0 moet nog specifiek voor games worden geregeld, maar met de komst van 3.0 zou het naar wat ik op wat Youtube filmpjes heb gezien met elk game werken die TAA ondersteund. Ik zou de filmpjes van DigitalFoundry over het subject bekijken als je erin geintreseerd bent.
Kleine correctie: de 3080 heeft geen 11 GB, maar zoals Mizgala28 zegt, 10 GB: https://www.nvidia.com/nl...cards/30-series/rtx-3080/
3080 heeft 10gb vram niet 11gb.

En qua DLSS, 2.0 ziet er veelbelovend uit maar als er nog steeds maar handjevol games het gaan ondersteunen hebben wij vrij weinig aan (op games na die het ondersteunen)

Maar zoals je zegt zou DLSS 3.0 dat probleem kunnen oplossen, echter TAA werkt niet in alle games even goed dus ik vraag mij af hoe DLSS daarmee omgaat (ik speel paar games die TAA gebruiken, de ene doet het goed terwijl in een andere game alles eruit ziet alsof er een laag vaseline over je scherm zit, iets waar DLSS 2.0 geen last van heeft. Ik ben dus benieuwd hoe ze dat oplossen)

Plus AMD, DLSS is een Nvidia dingetje dus als je een AMD kaart gebruikt heb je vrij weinig aan.

digital foundry hun filmpjes heb ik gezien, echter na hun gesponsorde Nvidia filmpje van paar weken terug let ik meer op of wat ze zeggen echt klopt, zonde want ik vind hun content erg goed over het algemeen

[Reactie gewijzigd door Mizgala28 op 6 oktober 2020 12:10]

Dat nvidia genoegen neemt met 10GB komt juist door DLSS.Dus dat is een gevolg van een beslissing.

Als AMD zo`n techniek niet heeft, moeten ze simpelweg genoegen nemen met meer VRAM. Dat is natuurlijk afwachten of hun aankomende kaart 4k60 op ultra kan draaien kwa rekenkracht. Immers heb je op ultra hogere texture requirements voor je ram dan op medium etc.

Daarnaast is het niet belangerijk dat elke game DLSS 2.0 ondersteund. Een Doom Eternal draait op 4K ultra prima op 10GB VRAM zonder DLSS. En boeit absoluut niet in fall guys of Star Wars Squadrons het niet heeft bijvoorbeeld. Het is juist van belang bij de zeer zware demanding games, voornamelijk die ook Raytracing gebruiken.

Wat ik van Digital Foundry heb begrepen is dat in de toekomst met DLSS 3.0 gaat werken op elke game die TAA ondersteund (zo`n beetje alles wat modern is) dus dan is dit helemala een non-issue.
Ondersteund Doom Eternal überhaupt al DLSS? (sowieso niet paar maanden terug, ik heb dat spel en zag die optie nooit icm met RTX 2070 Super)

Daarnaast, Nvidia teste Doom Eternal met textures op Nightmare in plaats van Ultra Nighmare, uiteindelijk bleek dit omdat het spel meer dan 10gb vram op 4k nodig zou hebben met deze setting.

(overigens ben ik verbaasd dat ze niet Tensor Memory Compression zijn gaan gebruiken, ik herinner mij nog dat men riep dat de 30xx series dit zal ondersteunen, dan zou 10gb vram geen issue moeten wezen op 4K)

10gb vram leveren vanwege DLSS zie ik als een mager excuus van hun, tot iedere game DLSS volledig ondersteund hebben wij niks aan, en DLSS 3.0 die dit moet oplossen is er nog niet (vraag blijft of het echt zo ideaal zal werken al belooft).

Als ze 10gb vram leveren vanwege TMC dan snap ik wel welke kant op hun willen gaan.

Dat is hoe ik dat zie, ieder zo z'n eigen mening.

echter 4K gaming is nog steeds erg niche, en niet iedere spel heeft evenveel VRAM nodig dus voor de meeste zal 10gb op 4K voldoende wezen.
Wat ik van Digital Foundry heb begrepen is dat in de toekomst met DLSS 3.0 gaat werken op elke game die TAA ondersteund
Ondanks dat ik Digital Foundry als een kanaal best wat vetrouw, tenzij Nvidia dit zelf claimed over DLSS 3.0 wacht ik liever af tot het uit is, pas dan komen wij er echt achter hoe het zal werken.

[Reactie gewijzigd door Mizgala28 op 7 oktober 2020 14:48]

Voor GPU RAM usage is schermresolutie inderdaad een zeer bepalende factor
Mwah... Dat ligt er aan wat de game/os met de resolutie doet. Een single frame buffer voor een 1080p scherm hoeft maar ~6MB te zijn. 4k verviervoudigd dat naar ~24MB.

(1920 * 1080 * 3 (bytes per pixel))
Die 24 GB VRAM is inderdaad overkill. Maar omdat de 3090 nu eenmaal een 384-bit geheugenbus gebruikt voor een hoge geheugenbandbreedte, was het óf 24 óf 12 GB. En 12 GB is wel wat aan de magere kant voor zo'n high-end-chip.
3D en Video Rendering.

Er zijn render tests waar de 3080 crashed vanwege te weinig geheugen.

[Reactie gewijzigd door TheDeeGee op 5 oktober 2020 16:02]

Als je op 4K of 8K speelt dan heb je veel VRAM-ruimte nodig. En aangezien de 3090 als een 8K kaart gepresenteerd en verkocht wordt is dit de reden.
Die 8K is alleen "speelbaar" met DLSS, dus om nou van raw 8K te spreken. niet echt.

[Reactie gewijzigd door TheDeeGee op 5 oktober 2020 16:03]

Dat valt wel mee, alleen zonder DLSS kun je wel fluiten naar 60fps.

Zelf zie ik nu totaal geen nut in 8K gaming, er zijn nu eindelijk GPUs uit die betaalbaar zijn en 4K aan kunnen (3080 is meer betaalbaar dan een 2080 TI) en dan praat men nu al over 8K.

Van de ene kant snap ik het wel, men wil steeds hogere resoluties.

en voordat iemand roept dat 4K gaming al een poos kan, het varieert per game en settings die je gebruikt. Doom 2016 op 4k kunnen de meeste PCs prima draaien op max settings, en nieuwste games op lagere settings kun je ook met een oudere GPU op 4K draaien. Waar ik op doel is nieuwste games op hoge/max settings op 4k draaien met 60fps of meer, en dat er altijd wel een game bij zit die te zwaar is (looking at you Flight Simulator) is logisch.

Ik denk alleen dat voor 4K gaming een 3090 niet echt zinvol is, sure de kaart heeft 24gb vram maar veel krachtiger dan de 3080 is de 3090 nou ook weer niet, die hogere prijs zit meer in de extra geheugen en het "hebben" factor.

[Reactie gewijzigd door Mizgala28 op 6 oktober 2020 12:18]

Er zijn games waar het hard kan gaan, call of duty warzone tikte bij mij al de 8GB aan en dat was op 1080p, kan me voorstellen dat in 4k die 11gb wel bijna vol benut zal worden.
Als je Twinmotion van Epic draait wordt alle VRAM en GPU 100% gebruikt :)
Trainingen voor machine learning gebruiken letterlijk alle VRAM die je hebt. Verder kan je bij andere compute toepassingen ook al snel over het limiet heen gaan.
Dat valt vaak best wel mee. Wij hebben een verzameling 1080Ti's met 11 GB, en dat is ruim zat voor onze AI training. Eén van die GPU's is eigenlijk 24/7 bezig om uit te zoeken wat de beste architectuur is - LSTM versus RNN versus GRU, en hoe diep moet deep learning eigenlijk zijn met onze dataset? Qua upgrade denk ik eerder aan een extra SSD RAID cache.
Met genoeg VRAM en CUDA ondersteuning kan je AI Dungeon 2 lokaal gebruiken en ben je niet afhankelijk van iemand anders server over het internet.
Maar voor nu is het makkelijker en gratis om AI Dungeon vanaf de website of Android app te gebruiken, waar je zelfs multiplayer hebt, tot in de toekomst wanneer het offline gaat of je moet betalen.

[Reactie gewijzigd door TweetCu op 5 oktober 2020 17:00]

Nvidia had de 3090 nooit voor games moeten aanbieden, maar gewoon als Titan.
De 3090 is door de vele hoeveelheid VRAM interessant voor 3D modelling enzo.

10GB van de 3080 is al genoeg in iets van 99% van de games als je op 4K speelt met high-res textures.
Ik denk dat het best reëel is dat de games van de volgende generatie meer VRAM gaan gebruiken. Veel games zijn nu ports van de Xbox One/PS4 en over een tijdje zullen ontwikkelaars volledig overschakelen naar nieuwe engines voor de PS5/Series S | X.
Anoniem: 159816
@Jelster5 oktober 2020 17:24
Bij bijv. machine learning loop je vrij snel tegen de geheugenlimieten aan.
Zag net op YouTube iemand FFXV in 4k draaien met de 3090. Kaart trekt 15GB. https://www.youtube.com/watch?v=DRhsMZfSyyQ
Je bypassed de CPU hier toch volledig? Moet toch better/sneller draaien zo?
Volgens mij haalt de CPU nu de data op vanuit de GPU in plaats van een HDD / SSD. In hoeverre de extra beschikbare bandbreedte hierbij voor een snelheidsverschil zorgt weet ik niet, dit zal echter voornamelijk merkbaar zijn bij laadtijden.
volgensmij is het trager dan gewoon en ramdrive maken ,

Zit de GPU niet tussen de CPU en het GDDR , neem aan dat de CPU niet direct access heeft tot de GDDR.

Dan is een RAM drive sneller gezien de CPU daar wel direct access heeft.
De CPU heeft behoorlijk direct toegang tot de GDDR, als je de kaart tenminste aan een PCIe lane van de CPU hebt hangen (en niet aan een PCIe lanen van een controller op het moederbord). Meestal gaat het goed, die x16 lane op een typisch moederbord is direct verbonden. PCIe heeft dan een dedicated "Memory Read Request"; je CPU verstuurt dat naar de GPU. Binnen de GPU komt de read binnen op de Bus Interface, en gaat die direct naar de Memory Controller. Daar komt geen software aan te pas, dat is allemaal hardware.

Nu is RAM meestal net ietjes directer, maar als je een dual-socket server hebt dan is het RAM van een andere CPU net zo ver weg als de GDDR van een GPU (één bus, en de memory controller van de andere chip).
ja alleen geeft de gemiddelde pc waar deze kaarten in zitten gewoon een single CPU ,

Dan lijkt mij de RAM drive toch sneller, tevens ben je data meerdere keren over de PCI-e bus aan het sturen waarmee je hem ook kunt vertragen.

Geef mij texture x voor naar Vram te kopieren zal ie niet direct doen ipv storage driver dus van Vram drive via cpu naar VRAM
Nee, het zal mogelijk wel sneller zijn dan vanaf een SSD, maar niet sneller dan een gewone RAM drive.
Om een file de accessen moet het filesystem benaderd worden. De driver pakt de call dan op en en zoekt naar de data die opgevraagd wordt. Waar die data dan staat is niet zo belangrijk, want uiteindelijk wordt het in het RAM gezet.

Alles gaat dus nog gewoon via de CPU. Het staat alleen ergens anders opgeslagen.
Nóg wel! Er komen API's aan (DirectStorage) waarbij de GPU de call uitvoert en de decompressie taken uitvoert. In één modus zal je zien dat een texture pack dan Storage > RAM > GPU > decompress > Render gaat (ipv Storage > RAM > CPU Decompress > GPU > Render), maar met PCIe is meer mogelijk, namelijk Storage > GPU VRAM > Decompress > Render.

Met dat in het achterhoofd (PCIe kent een modus waar los van de controller het ene device de andere kan benaderen mits iig aan dezelfde controller) is het érg boeiend om dit soort kunsten te zien. Je kan Intel een hoop kwalijk nemen, maar dát stukje hebben ze wel door: hoeveel kan je offloaden ván de CPU naar dedicated hardware? (nVidia en AMD doen hier overigens ook goeie zaken in hoor...)
CPU doet nog steeds de taken zoals het OS aansturen en randapparatuur-input verwerken.
Vroeger was de lees/schrijfsnelheid van de harde schijf een duidelijke bottleneck. Met M.2. is deze compleet verdwenen (bij SATA SSD grotendeels) waardoor praktisch net zo snel gelezen/beschreven kan worden als Gddr6x.
Let wel dat je waarschijnlijk NVMe bedoeld, want M.2 is alleen de vormfactor, daarvoor zijn ook SSD's die werken op SATA.
Ook is het zo dat niet altijd alle M.2 poorten bij moederborden PCI-E of NVME ondersteunen, maar alleen SATA (maar meestal zijn dat wat oudere), of connector (er is A, B, M, E) is anders of de lengte wordt gelimiteerd op de moederbord dat je er alleen kleinere dingen als Bluetooth/WLAN kan plaatsen of schroeven.
Bij gebruik van SATA op M.2 wordt soms ook een van de SATA connecties op de moederbord uitgezet...

Mijn bericht voegt uiteraard niets toe aan het artikel hier, maar ik dacht wat vergissingen op te lossen.

[Reactie gewijzigd door TweetCu op 5 oktober 2020 16:55]

Hier wordt alleen de traditionele storage vervangen door een ramdrive die toevallig op de GPU zit, maar voor de rest wordt nog steeds de normale route via geheugen en cpu gevolgd. Pas met RTX IO kun je de CPU bypassen.
Nee, de CPU moet ook z'n gewone werk nog doen, alleen communiceert die nu met het geheugen van de videokaart ipv het eigen RAM
Misschien dat ik het niet helemaal snap, maar RAM, en dus waarschijnlijk ook VRAM, reset toch elke keer als je de stroom eraf haalt? Betekend dit dat je elke keer als je de pc opnieuw opstart, je je game weer moet installeren?
Ja, ongeveer. Maar ik vermoed dat het gebruikte programma regelmatig een kopie op een harde schijf zet die iedere keer wordt gekopieerd naar de ramdisk als de pc opstart. In het ene geval krijg je dan een image die eigenlijk iedere keer hetzelfde is, maar ik weet niet in hoeverre nu dynamisch de ramdisk gecached / gebackupt wordt tijdens gebruik. Zal wel aan het programma liggen. Maar, ja, het wordt gewist en moet weer opnieuw geladen worden. Je hoeft echter niet steeds met een lege disk te beginnen.
Praktisch heb ik zelf nog nooit een usecase kunnen verzinnen, behalve dat je enkele programma's misschien sneller kunt openen als je deze voor het eerst opent sinds herstart. Verder blijft er toch wel altijd iets in het geheugen achter als je iets een 2e keer opstart, dus dan is de winst minimaal. En je bent snel geheugen hoeveelheid kwijt.
Een usecase zou evt zijn voor privacy. Steeds met een schone "temp" map beginnen die niet op de SSD oid wordt gebruik en sporen achterlaat.
Ik gebruik al meer dan 20 jaar permanent een RAM-schijf. De /temp map, history en temporary internet items gaan daar op. Na elke opstart zijn ze weer weg waardoor je niet het typische resultaat krijgt van een temp-folder van 20 gig, of dat blijkt dat er programma's gestart worden vanuit de temp wat je soms wel ziet met systemen die een paar jaar oud zijn. En privacy natuurlijk. History? Welke history, die van de laatste 8 uur?

Ook nuttig voor geluid- en videobewerking of om grote bestanden die je zeer veel achter elkaar moet aanpassen. Of om bestanden van netwerk-drives te cachen. Het snelheidsverschil, zelfs met de nieuwse SSDs, blijft gigantisch. De pre-fetch van Windows werkt daarbij vooral voor programma's, maar hoeveel programma's bestaan er tegenwoordig enkel nog uit een exe? Al die rompslomp (ingeladen via een library die wordt geladen door een andere library, geladen door de exe) wordt niet ge-prefetched zelfs als je ze 4 keer per dag moet inlezen, dus trage programma's installeren op RAM-schijf heeft ook daar voordeel.

De meeste van dergelijke software momenteel bevat functies om automatisch bepaalde bestanden er op te zetten bij opstarten, of om bestanden op te slaan bij afsluiten.

Als er een geheugentekort dreigt, dan kan ik de RAM-schijf altijd tijdelijk uitzetten of verkleinen, maar dat is eigenlijk nog nooit nodig geweest. Je moet natuurlijk wel eerst de RADAR functie wat tweaken.

[Reactie gewijzigd door zipje_en_zopje op 6 oktober 2020 14:13]

Enkel de mappenboom met bestanden van de game gaat verloren.

De savegames met dito configuraties, registerkeys, shortcuts in het startmenu en hoogstwaarschijnlijk zelfs de beruchte SecuROM blijven behouden.
Ik ben nu wel benieuwd wat sneller is. Installatie op 1 van de 1TB NVME SSD's of het videogeheugen.
Dat is toch makkelijk te bepalen?
NVME SSD (bv populair Samsung model) haalt zo'n 3,5Gb/sec transfersnelheid.
GDDR6 geheugen op een GeForce 3090 zou in principe goed zijn voor 900Gb/sec, _maar_ je loopt dan wel tegen de snelheid van de PCI-E bus (16 lanes, "maar" 32Gb/sec). Daarnaast verstoor je de videokaart als die bezig is met renderen, dus lijkt me dat de kans op framedrops toeneemt.
Dus 10x sneller laden (als je CPU het bijhoudt) tegenover meer choppy performance. En als je stroom uitvalt is je spel weg ;)
Als je het gaat uitrekenen is het videogeheugen altijd sneller.
Uit de reviews is gebleken dat PCIe-4.0 geen toegevoegde waarde heeft voor gaming bij de RTX 3000 serie.

PCIe 4.0 heeft een bandbreedte van 64GB/s (niet 32GB/s). Maar dit heeft als we naar de benchmarks kijken (die van tweakers bijvoorbeeld) geen merkbare invloed op de prestaties.
Dit zou dus betekenen dat er genoeg ruimte over is voor meer dataverkeer.

Zelfs het heen en weer sturen van de data naar de CPU en terug naar de GPU voor rendering is al vele malen sneller dan vanaf een NVME SSD.

Je verstoort de videokaart ook niet tijdens het renderen want je spreekt het geheugen direct aan. Daar zit hooguit de memory controller van de GPU tussen maar die heeft zo'n enorme bandwith dat dat geen probleem is.
Ik begrijp dat je het rekenkundig kunt vergelijken maar juist omdat het geheugen van de videokaart hier niet voor is bedoeld vraag ik me af hoe het in de praktijk presteert omdat zoals je al benoemd het dataverkeer van de videokaart wordt verstoord.
Geheugen heeft geen 'bedoeling' hoor, denk dat die throughput wel redelijk klopt in de praktijk. Omdat het videogeheugen zo snel is denk ik dat het ook nog wel meevalt met de impact, maar dat zal heel erg afhankelijk zijn van het toegangspatroon van een specifieke toepassing.

Persoonlijk zou ik eerder kiezen voor een 'normale' RAM disk als je dergelijke performance zoekt. (met de tradeoff dat alles bij uitschakelen weg is)
Neem aan ongeveer hetzelfde of een verwaarloosbaar verschil, je prikt beiden direct op de PCI-E lane. Zal natuurlijk ook liggen aan welke NVME SSD of welke graka.
Leuk experiment!

Zou je ook op oudere GPU's gebruik kunnen maken van het videogeheugen als RAMdrive?
Opgezocht: Volgens de info op de GPURamDrive link wel :)

[Reactie gewijzigd door Leader98 op 5 oktober 2020 15:28]

Denk dat ik maar eens die 3090 kaarten ga benutten voor een goeie NAS setup... :+
Benieuwd of je het dan voor extra performance ook in RAID kunt draaien :9. Verder natuurlijk leuk dat het kan, maar veel praktisch nut heeft dit natuurlijk niet.
Wat doe je tijdens je lockdown? Spellen installeren, direct op je VRAM. Omdat het kan. Een betere reden is er niet :)
Tijdens de lockdown ? Blijven werken.. :O
Dat ook. Ben zelf werkzaam in de IT. Drukker dan heel 2019, dat is zeker :+
Heb je niet genoeg aan 24GB vram om je favoriete game te installeren? Dan is het ook nog een optie om twee RTX 3090-kaarten te combineren met een SLI-brug. De gecombineerde 'opslagruimte' van 48GB biedt dan meer mogelijkheden voor game-installaties.
laadtijd van GTA5 zal dan nog steeds 30min. zijn :X :+
Gelukkig heb je maar 10 3090's nodig voor een CoD MW installatie. Maar of je dan nog genoeg VRAM over hebt om het spul te kunnen draaien...
Kan ook met een GPUtje. Je kunt zo veel ruimte reserveren op de GPU als je wilt. Wat niet past wordt als evicted gemarkeerd en gepaged naar de DRAM. Maakt alles lekker traag.

[Reactie gewijzigd door Vlad86 op 5 oktober 2020 15:57]

Op dit item kan niet meer gereageerd worden.


Google Pixel 7 Sony WH-1000XM5 Apple iPhone 14 Samsung Galaxy Watch5, 44mm Sonic Frontiers Samsung Galaxy Z Fold4 Insta360 X3 Nintendo Switch Lite

Tweakers is samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer onderdeel van DPG Media B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee