Gerucht: Nvidia kondigt 11 januari 12GB-variant van GeForce RTX 3080 aan

Nvidia kondigt mogelijk op 11 januari een 12GB-variant van zijn GeForce RTX 3080 aan. Dat meldt Wccftech op basis van eigen bronnen. Er gaan al langer geruchten rond over deze gpu, hoewel er recent ook berichten rondgingen dat de kaart geschrapt zou zijn.

Volgens bronnen van Wccftech was Nvidia aanvankelijk van plan om de GeForce RTX 3080 12GB aan te kondigen tijdens de CES, maar heeft het bedrijf deze introductie uitgesteld tot komende week. De techwebsite schrijft dat Nvidia de videokaart op dinsdag 11 januari om 15.00 uur Nederlandse tijd aankondigt. Mogelijk beginnen winkels op diezelfde datum met het accepteren van pre-orders, hoewel dat nog niet is bevestigd. Het is ook niet bekend wat de kaart gaat kosten en wat er met de bestaande RTX 3080 10GB zou gebeuren.

Volgens uitgelekte specificaties beschikt de GeForce RTX 3080 12GB over 70 streaming multiprocessors, wat neerkomt op 8960 CUDA-cores. Dat zijn er iets meer dan de huidige RTX 3080. Verder krijgt de nieuwe variant 12GB geheugen; dat is 2GB extra ten opzichte van de RTX 3080. Ook zou de kaart beschikken over 19Gbit/s-geheugenmodules en een grotere 384bit-geheugenbus. Daarmee moet de kaart beschikken over 912GB/s geheugenbandbreedte, ten opzichte van 720GB/s voor de huidige RTX 3080.

Er gaan al langer geruchten rond over de GeForce RTX 3080 12GB, die stelden dat de videokaart in december aangekondigd zou worden en op 11 januari in de winkels zou verschijnen. Dat eerste bleek niet het geval en Igor's Lab publiceerde vorige maand dat Nvidia de kaart 'on hold' heeft gezet en mogelijk zelfs volledig van de releaseplanning heeft geschrapt. De bronnen van Wccftech stellen nu dat de kaart alsnog gaat verschijnen. Nvidia zelf heeft het bestaan van de kaart nog niet officieel bevestigd.

Nvidia GeForce RTX 3080-modellen
Videokaart CUDA-cores Geheugen Bandbreedte Tgp Releasedatum
GeForce RTX 3080 12GB 8960 12GB Gddr6x,
19Gbit/s, 384bit
912GB/s 350W Januari 2022
GeForce RTX 3080 10GB 8704 10GB Gddr6x,
19Gbit/s, 320bit
760GB/s 320W September 2020

Door Daan van Monsjou

Nieuwsredacteur

09-01-2022 • 15:04

145

Lees meer

Reacties (145)

Sorteer op:

Weergave:

Het voelt (als consument) zo onlogisch om nieuwe producten aan te kondigen terwijl ze niet fatsoenlijk produceerbaar/verkrijgbaar zijn.. 8)7

Wellicht willen ze gewoon hun roadmap blijven volgen.. maar toch minder als er relatief weinig van terecht komt; wordt je blij van een nieuwe aankondiging.. "ohja, kan ze niet kopen.. jamerrr"
De reden waarom ze dit doen is zodat de hogere vraagprijs kunnen opstrijken ten opzichte van de 3080, die ze nu op een laag pitje gaan zetten.

Het is gewoon een verkapte prijs verhoging, maar dan (hopen ze) zonder de backlash van een daadwerkelijke prijs verhoging.

[Reactie gewijzigd door Countess op 24 juli 2024 08:27]

Is dit dan voor gaming nodig? Heb nu niet de indruk dat mijn 3080 memory limited zou zijn , zelfs op de 4k waarin ik game.
Misschien om het argument "AMD heeft meer VRAM" een beetje tegen te gaan. Vanaf launch was de 10GB al een beetje een pijnpunt ten opzichte van AMD's 16GB. Misschien is de 12GB nu nog niet nodig maar meer is nooit verkeerd. Ik zou zelfs willen zeggen dat een kaart van €700+ niet zo dicht bij de 8GB zou mogen zitten. Zelfs de 1080 Ti uit 2017 kwam standaard met 11!
Maar er is geen game die zoveel VRAM vereist én de game fatsoenlijk kan draaien op 4K met maximale settings. De enige reden dat we nu modellen zien met meer VRAM is omdat Nvidia en AMD inhaken op de ‘fomo’ van gamers.

De 11GB van de 1080 Ti was compleet zinloos al je kijkt naar gaming, waar deze kaart voor op de markt is gekomen. Zelfs de meest veeleisende games draaien voor geen meter als je VRAM (indien mogelijk) maximaal wil belasten. En dat is nog steeds het geval met huidige games. Naast dat nieuwere games efficienter omgaan met VRAM, draaien games die alsnog veel VRAM vereisen op maximale settings ook met de RTX 3080 gewoon niet goed.

Denk bijvoorbeeld aan Cyberpunk 2077. Om VRAM maximaal te belasten moet je spelen op 4K of hoger, maximale settings én raytracing aan. Het resultaat is dat je blij mag zijn dat je de 30 fps haalt met een 3080. Niemand koopt een 3080 om op max 30 fps te gamen.

Meer VRAM heeft enkel nut als we naar extreme raytracing settings gaan en hogere resoluties dan 4K én dat de GPU krachtig genoeg is om deze settings met degelijke framerates te kunnen draaien.
Zijn geloof ik al een paar games die voorbij de 8 GB Vram gaan, en hoe dan ook komende jaren zullen het er alleen maar meer zijn. Vooral als Devs het graag willen benutten zal het echt wel gebeuren.
Meestal is dat de hoeveelheid geheugen ingepakt niet wat het gebruikt.
Ik ken enkel flight simulator dat absurd veel geheugen gebruikt , met de huidige consoles en techneieke betwijfel ik of games tot 4 k zoveel nodig gaan hebben.
Dus een moderne FullHD kaart hoeveel Vram moet die dan tegenwoordig hebben om games op max die resolutie aan te kunnen? Voorheen was dat 4 meer dan genoeg!?


Beetje future proof is niks mis mee.
De focus op resolutie is niet helemaal terecht. Een kaart met 3-4 GB aan VRAM zal ook 8K kunnen draaien zo lang je de texture details maar op (very) low zet. De grootste impact zijn de texture instellingen. Een midrange kaart met extra veel vram zorgt ervoor dat je bijvoorbeeld je game op medium gaat draaien maar dan met textures op ultra. Dan ziet je game er toch ineens een stuk mooier uit. Met 4GB kun je wat dat betreft al jaren niet meer uit de voeten. De meeste ultra texture packs van de afgelopen jaren vereisen 6-8 GB aan VRAM.
Maar gebruikte texture details en resolutie gaan natuurlijk wel hand in hand :P
In moderne games zijn de hoogste texture instellingen echt nergens meer voor nodig op 1080P, dat kan toch niet weergegeven worden op dat aantal pixels.

Op 8K met alles behalve de hoogste texture kwaliteit draaien juist een beetje zonde van die hoge resolutie. Daar moet je ze maximaal zetten om het eruit te halen wat erin zit op zo'n hoge resolutie

[Reactie gewijzigd door !mark op 24 juli 2024 08:27]

In moderne games zijn de hoogste texture instellingen echt nergens meer voor nodig op 1080P, dat kan toch niet weergegeven worden op dat aantal pixels.
Nee joh zo werkt dat helemaal niet. Pak een game als Siege met de Ultra HD texture pack. Het verschil zit bijvoorbeeld in de ground textures die dan kleine steentjes in het grind als detail krijgen. Dat zie je net zo goed op een 1080p monitor als op een 2560p/3440p/4k scherm. Daarnaast heb je in dat soort games ook scopes die de boel vergroten.

De resolutie zelf heeft vooral invloed op hoe scherp de boel is, de textures bepalen primair welke details je ziet. Hoe scherp het uiteindelijk overkomt hangt daarnaast ook van je PPI (pixels per inch) af. Hoe groter je monitor des te hogere resolutie/meer anti aliasing je nodig hebt om dezelfde scherpte te ervaren.

Zo heeft mijn surface pro7 een PPI van 267.34, mijn primaire pc een 3440x1440 34 inch scherm met een PPI van 109.68 en mijn oude game pc een 27 inch full hd monitor met een ppi van 81.59. Als je daar dicht op gaat zitten kun je de pixels tellen. Alsnog ziet ultra textures er daar ook beter uit dan op high.

[Reactie gewijzigd door sdk1985 op 24 juli 2024 08:27]

Heb genoeg spellen gezien waarbij een Ultra HD Pack alleen de textureresolutie verhoogt wordt van (bijvoorbeeld) 2048x2048 naar 4096x4096. Ja op pixelniveau heb je dan weliswaar meer detail maar dat is echt heel minimaal en echt alleen zichtbaar op hogere resoluties én als je er op gaat letten.

Tenzij je echt op een deel van die texture maximaal gaat inzoomen met een scope ga je dat op 1920x1080 pixels nooit zien doordat het simpelweg niet echt weergegeven kan worden.

Kan natuurlijk zijn dat dat in andere games wat anders zit, of dat de non-Ultra HD textures in Siege simpelweg niet super zijn; game is immers alweer 6 jaar oud.

[Reactie gewijzigd door !mark op 24 juli 2024 08:27]

Alleen is het niet futureproof! Als je gpu het nu al niet trekt, zal dat straks niet anders zijn. Daar zit je dan met je overtollige vram.....
Probleem is het volgende :
De 3080 kan op 4k/ultra modern titles zonder VRAM problemen aan :
Battlefield 2042 : 70 fps
Far Cry 6 : 75fps

gaan we echter naar 8k :
Assassin's Creed Valhalla 30fps
Days Gone (Max. Settings) 45 fps
Hitman 3 32
Battlefield V 40 fps
Red Dead Redemption 2 25
Resident Evil 3 Remake 35
Metro Exodus Enhanced Edition 38
Cyberpunk 2077 35fps

Zie je dat zelfs iets oudere titels die dat al niet meer aankan, die 2GB extra vRAM maken dan weinig uit die kaart heeft gewoonweg niet genoeg rekenkracht voor 8k/ultra/60fps.

Je kan dat ook zien aan de 6800 van amd, die heeft meer geheugen en doet het niet plots beter op 8k omdat geheugen niet de bottleneck daar is.
8k is het doel nog niet. Geinig maar als je daar echt iets wilt van zien had Linus vorig jaar of het jaar ervoor nog wel een leuke vid over. Nvidia vs AMD.

Als je dat nu al vandaag der dag wilt ervaren is gewoon irrationeel. En we zijn net op de drempel van 4k.
dingen verouderen momenteel nou een maal slecht.

Maar je zegt niks over FullHD. je slaat gelijk 5 stappen over. En gamen 4k vind ik eerlijk gezegt ook nog niet echt boeien. Voor productiviteit is het een ander verhaal natuurlijk zeker met photoshoppen en of andere visuele taken.

huidige generatie kaarten zijn nu net meer dan een jaar oud. Geef het nog een jaar tijd en er zullen straks allemaal nieuwe titels aan gekondigt worden die voorbij de 8GB Vram gaan.

Had ik toen der tijd ook in 2011 doen ik een 1GB GPU ging en na 2/3 jaar kon ik er geen nieuwe games meer mee spelen. Zal straks opnieuw gebeuren maar grotere sprongen.
FullHD is 1080p, 10gb vram (3080 heeft 10 geen 8) is meer dan genoeg daarvoor hetzelfde geld voor 1440p pas vanaf 2160p (4k) begint je aan de limieten te komen in een game zoals ms flight sim.

Photoshop heeft vooral snelle hard drive en veel geheugen nodig, vram niet zoveel 10gb is ruim voldoende.

EN games niet kunnen spelen is onzin, je kan ze misschien niet meer op 4k/ultra/60fps spelen maar met zowel dlss als nieuwe geheugen technieken kan een kaart zoals een 3080 nog een hele tijd met 10gb vram meegaan hoor. Meeste games gebruiken effectief maar een 4-6GB momenteel (verwar niet allocated met wat de engine echt gebruikt).
Ik heb geen idee wat een "Fullhd class" kaart dan wel zou zijn?
Ook geen idee waarom je nu boos word en over "jullie"" begint.

Om op je je vraag te antwoorden:
1080p=2-4GB vram
1440p=3-5GB
2160p=4-6GB
dit voor gemiddelde titels, spreek je van uitzonderingen kan je maal 2 doen.
Zoals aangegeven lijkt de trend vooral dat er efficienter met VRAM wordt omgegaan dan pakweg 5 jaar geleden. Waar een game als GTA 5 in bepaalde settings nog potentieel veel VRAM kon gebruiken, zonder ook maar enige vorm van eruit springende grafische settings, zie je nu games met veel zwaardere settings geen enorme sprongen in het gebruik van VRAM. Sterker nog, de trend lijkt juist naar beneden te gaan.

Maar het punt is vooral dat VRAM helemaal niet de bottleneck is bij heel veel kaarten met 8GB. Wat heeft het bijvoorbeeld voor zin om 16GB op een 3070 Ti te prikken als de kaart de settings die benodigd zijn om meer dan 8GB te gebruiken de game laat draaien op een sub-20fps?

Het aantal GB VRAM moet passen bij de resolutie en settings die de kaart aan kan, wat meer erop prikken is alleen maar zonde van de grondstoffen, want het gaat nooit gebruikt worden. De 12GB op een 3060 slaat bijvoorbeeld echt helemaal nergens op. Deze kaart, die niet geschikt is voor 4K gaming mét raytracing en de allerhoogste AA settings, zal nooit die 12GB echt nodig hebben, waarschijnlijk zou de helft ook genoeg zijn geweest. Ja, sommige games hebben ook op 1440p een hogere reservering dan 6GB, maar reserveren en gebruiken is heel wat anders.
Ik denk dat er naast games ook andere dingen met deze kaarten gedaan worden en dan is meer geheugen helemaal zo verkeerd niet. Daar naast is het een beetje een kip en ei verhaal, als er geen kaarten zijn die 16GB VRAM hebben dan heeft het weinig zin om een game te maken die gebruik maakt van 16RG VRAM, ja ik weet Crisis maar dat was een engine die niet echt bedoeld was voor games en die om die reden heel erg veel meer nodig had omdat de originele ontwikkelaars van de enige hele andere hardware in gedachten hadden toen ze de engine bouwden.

Ik denk dat Nvidia als ze echt bang waren geweest van het AMD heeft meer geheugen argument gewoon 16GB er op hadden geplakt de extra kosten zijn minimaal en de componenten zijn amper leverbaar in beide gevallen.
Wat mij een stuk waarschijnlijker lijkt is dat NVidia met haar contacten met game developers en publishers beter weet wat er aan zit te komen en daar misschien op inspeelt... het lijkt me logisch dat ze de gaming enthusiasts niet met te weinig geheugen willen laten zitten voor de volgende grote triple A games. Natuurlijk is er de 3090 maar NVidia weet ook dat die vrijwel niet leverbaar is en een klein fortuin kost dus lijkt het me logisch dat ze die buiten categorie buiten beschouwing laten (zij hebben toch al genoeg geheugen)

Waarom zou AMD zo veel geheugen op hun kaarten steken het lijkt me om de zelfde reden, natuurlijk wordt er op dit moment geen gebruik van gemaakt maar dat betekend niet dat net als NVidia AMD veel met developers en publishers praat en dus heel goed weet wat de markt over een jaar en verder in de toekomst wil hebben.

Het zou me dan ook helemaal niets verbazen als er voor het einde van het jaar games op de markt komen die op max settings die 12GB echt wel gebruiken, en voor AMD optimized games misschien zelfs de 16GB kunnen benutten.
Zijn geloof ik al een paar games die voorbij de 8 GB Vram gaan
Bedoel je dan 8GB VRAM allocation of usage? Er zit namelijk wel een verschil in waardoor er snel conclusies worden getrokken dat een spel X aantal VRAM gebruikt terwijl het vaak over de allocation gaat.
Inderdaad, mijn 2060 met 6gb ‘gebruikt’ 5gb in bijvoorbeeld Horizon, de 6900xt van een vriend gebruikt daar 10 op dezelfde instelling. Rara..
Meestel in ultra preset waarvan je het verschil niet ziet tussen high en ultra.
Kan me zo inbeelden dat een gamedev een game kan maken die 24GB vram gebruikt. De vraag is echter of het meerwaarde brengt.
Alles staat en valt met de resolutie waarop je game draait. 24gb benutten bij fullhd heeft geen meerwaarde..
Het probleem met de GTX1080Ti was dat het technisch niet mogelijk is een andere hoeveelheid dan 11GB te gebruiken op een 352Bit bus. Ja eventueel 5,5GB, maar dat is toch wel te weinig voor die kaart :P

En die bredere bus heb je op een GTX1080Ti t.o.v. een 1070 of 1080 juist wel nodig
Ik verwacht dat deze 3080 ook meer baat heeft van de 384 vs 320 bit geheugenbus dan van de extra 2GB geheugen.

Voor machine learning is het leuk, maar als je op een budget machinelearning modellen dan is tov de data center kaarten een 3090 al een koopje. En die beidt dubbel de hoeveelheid geheugen.
Ja denk ik ook, sprak begin November al uit dat deze nieuwe 3080 wel heel dicht tegen de bestaande 3080Ti komt de liggen waardoor Nvidia effectief twee dezelfde SKU's heeft.

Met de informatie van nu dat de 12GB 3080 ook nog eens wat extra CUDA cores krijgt t.o.v. de huidige 10GB wordt dat verschil met de 3080Ti alleen maar kleiner.

Tenzij er ook binnenkort een vernieuwde 3080Ti aankomt met meer CUDA cores en hogere kloksnelheden, maar die kaart zit al aardig in de buurt van een volledige ingeschakelde GA102 chip

[Reactie gewijzigd door !mark op 24 juli 2024 08:27]

Die extra paar GB VRAM gebruik je dan ook meer als buffer i.p.v. dat het de bedoeling is dat een spel dit volledig gebruikt.

Als je bij Fallout 4 of andere spellen, high res texture packs gaat installeren loopt je VRAM verbruik in het spel snel op en is dus 8GB (of meer) VRAM zeker wel gewenst.

Fallout 4 met de door Bethesda uitgebrachte high res texture pack:
https://youtu.be/cWIJ5QNvs9M?t=741

VRAM verbruik ligt in deze video tussen de 4-6.5GB, nu zal dit bij een 3090 met 24GB VRAM weinig problemen geven, maar bij een 3070 die 8GB heeft zit je net aan goed mits het in andere gebieden in het spel niet verder oploopt. Bij kaarten waarbij je minder dan 8GB hebt zal je echter wel problemen ervaren en zal je dus een keuze moeten maken tussen geen texture packs gebruiken en/of settings omlaag gooien.

Daarnaast mist in je eerste zin het woordje 'nog', je koopt namelijk een videokaart met de intentie deze enkele jaren te gebruiken en in die jaren kan er veel veranderen, zeker als jij op 4K spellen speelt en met name dan AAA-titles.

[Reactie gewijzigd door Verwijderd op 24 juli 2024 08:27]

30fps in CP2077 vind ik wel prima hoor.. Het gaat mij meer om de kwaliteit van deze prachtige game. Het is geen supersnelle shooter.

Maar helaas heb je met full raytracing aan en DLSS uit helaas nog lang geen 30fps zelfs niet met mijn 3080Ti.

[Reactie gewijzigd door GekkePrutser op 24 juli 2024 08:27]

Dat is natuurlijk een kwestie van tijd. We zitten aan het begin van een nieuwe console generatie, en de systeemeisen gaan hard stijgen de komende jaren.
Ik krijg Far Cry 6 op 2560x1080 al op 10,5GB VRAM. Met mijn RTX 2080Ti

[Reactie gewijzigd door A_Trouwborst op 24 juli 2024 08:27]

Dat kun je nu niet zeggen, en de ervaring leert dat het achteraf toch wel eens handig is gebleken. De 8GB VRAM op de re-release van de R9 290X leek ook overdreven. Binnen 4 jaar waren er al games die op de oorspronkelijke versie VRAM tekort kwamen. Far Cry 5 met HD textures bijvoorbeeld.
Geen game vereist zoveel ram en met huidige technieken word de druk daarop steeds minder.
Denk eerder zoals anderen aanhaalde omdat AMD het doet en het beter staat op papier.
Met 10GB redt je het nét in 4k in sommige games. 8GB is al vaak tekort. Dit zie je in de 3070 vs 2080ti vergelijkingen. Presteren ongeveer gelijk tot 4k, waarna de performance van de 3070 ineens significant minder is dan de 2080ti in sommige zwaardere games.
Op korte termijn gaat die 10GB vast ook gepasseerd worden (zolang je alles op zijn hoogst wil blijven draaien natuurlijk)
*kuch*

Steam survey:

1080p: 1920 x 1080 67.12%
1440p: 2560 x 1440 9.85%
4K: 3840 x 2160 2.35%

De hoeveelheid mensen dat zoveel geheugen nodig hebben zijn een enorme minderheid. 1440p is de groep dat het meeste groeit ( van mensen dat upgraden van 1080p ).

Voor veel mensen is 4K gewoon te veel om te werken en gamen. Ben zelf van een 34" teruggegaan naar een 27" 1440p.

27" 1440p is de ideale voor pixels vs leesbaarheid. Daarboven (4K) moet je naar zo een grote monitors aka 32+" gaan of scaling toepassen, dat het niet waard is voor de meerderheid.

Het probleem is dat sommige mensen dat gamen, enkel aan hun gaming denken en niet realiseren dat de meeste mensen mix werk doen op hun PC's.

Zelf binnen 5+ jaar, en letterlijk 2 of 3 kaart generaties later, zal (imho) 4K niet boven de 10% zitten.
Steam survey: nog geen 1% van alle steam gebruikers (die meedoen aan de survey) heben een 3080. 3070+3070ti +3080+2080ti+3090+3080ti = 1,59 + 0,84 +0.23 + 0,57 + 0,37 + 0,16 = 3,76% van de gebruikers samen. Geen wonder dat niet veel mensen in 4k spelen.
Wat ik wil zeggen is dat het mij lijkt dat mensen die zo'n godsvermogen aan een GPU en monitor besteden waarschijnlijk ook waar voor hun geld willen zien. Dan is het natuurlijk zonde als ze binnen een paar jaar niet meer op max +4k kunnen spelen omdat nvidia te krenterig is geweest met Vram. Van de andere kant, als je zoveel geld hebt, maakt dat waarschijnlijk niet uit 8)7

Kip of ei verhaal natuurlijk qua 4k gebruik. Verder ben ik het zeker eens met wat je zegt hoor.
Sterker nog, zoek maar eens uit wat de motion resolutie is van de meeste LCD panelen. Dat is werkelijk om te huilen. Zit je daar met je 4k scherm, je €2000+ GPU en tel je ongeveer 300-600 telbare pixels in de breedte op het moment dat je beeld beweegt. Zolang je stilstaat is het wel lekker scherp :P

[Reactie gewijzigd door GromuhlDjun op 24 juli 2024 08:27]

Nee hoor, ik heb een 3080 en game op 4k, ultra met een boel mods en zit nooit aan 10gb.
Met 10GB kaarten hebben we het niet over een 3070 maar een 3080. Heb er 1 sinds launch en tot zover heb ik geen enkele game op m`n 3080 meegemaakt die meer als 10GB Vram gebruikte, ook niet op 4K/ultra met RT etc. En ik heb van alles en nog wat gespeeld . Metro Exodus enhanced, CP2077, COD cold war, Doom Eternal (ook met RT, al is dat echt niet de moeite waard in die game)

Raar genoeg zit Halo infinite daar het dichts bij op (9.88GB) terwijl er toch best weinig variatie is in textures in multiplayer want over het algemeen heeft 60% v.d spelers in big team battle dezelfde model, alleen dan met andere kleurtjes en de meeste big team battle levels zijn vrij kaal en relatief simpel.

Sowieso in jou voorbeeldje, kan je prima DLSS aanzetten op die 3070 als je op 4K wilt en 8GB VRAM niet genoeg was. dan render je weer intern lager, en zal je VRAM gebruik ook wat lager zitten als native 4K. DLSS is natuurlijk ook altijd een integrale strategie geweest van Nvidia sinds de 20xx series en daar is natuurlijk ook rekening mee gehouden in hoeveel VRAM ze op kaarten plakken.

Daarnaast was de 3070 gepositioneerd primair als 1440P kaart en de 3080 als 4K kaart, dus dat verklaart de VRAM verschil, en MRSP prijs (goed, helaas is het kopen op MRSP in NL iig niet van de orde, al hoor ik wel gamers uit Amerika die dingen orderen ze het voor MRSP krijgen - uiteindelijk)
De extra geheugen bandbreedte heeft meer impact op de de performance
ALs ik vroeger reviews keek van kaarten met meer geheugen bracht dat amper op nochtans, buiten als het echt zonder geheugen zat.
En toch zag je in mijn herinnering bijna altijd dat na een jaar of 2-3 de games zover waren, dat ze dat extra geheugen wel gebruikten. Ik doe altijd lang met mijn videokaart, dus ik ga vaak wel voor de variant met meer geheugen.
Ik heb in MSFS met VR (Reverb G2) al een aantal keer 8gb gehaald, dus voor mijn volgende kaart Willink zeker >8gb. Maar toch denk ik dat deze kaarten meer voor editing op de markt worden gezet ipv gaming
In principe is de Gforce-series bedoeld voor consumenten, de Quadro-series voor zakelijk gebruik. Niet dat zo'n Gforce kaart het niet kan, zeker, alleen bij de Quadro wordt veel meer ondersteuning gegeven. In ieder geval, ik denk niet dat Nvidia deze kaart in gedachten heeft specifiek voor editing, dat zal toch een Quadro variant gaan worden.
Quadro kaarten voor content creators en video editors is dan weer totaal niet nodig. En voor die doelgroep zou het dus wel handig kunnen zijn.
Een quadro is vrijwel altijd extreem langzaam prijstechnisch vs een Geforce kaart. Vroeger hadden quadros bepaalde extra functies maar vrijwel alle programmas werken perfect met geforce tegenwoordig omdat fabrikanten de massagebruikers supporten ipv de minderheid.

Quadro's hebben alleen in datacentra met extra software functies misschien nog een meerwaarde.
Helemaal met je eens maar in Solidworks bijvoorbeeld wordt Realview alleen ondersteund door gecertificeerde kaarten zoals de Quadro en AMD's equivalent.
Apart. Ik weet wel dat Inventor vroeger OpenGL draaide en dat echt Quadro support kon gebruiken maar ondertussen zijn ze overgestapt op DirectX dus het runt onderhand net als videogames. Toch geloven veel mensen nog dat Quadro's nog steeds voordelen bieden.

Ik heb even naar de Realview gezocht en dat is ook gewoon een software toggle die uit staat en wel werkt op normale gaming kaarten (quadros zijn gewoon hetzelfde als geforce met iets andere software), alleen je moet het dan "hacken" met een windows registry toggle.
Tip: Vroeger kon je via Regedit het register aanpassen om RealView te activeren op Geforce kaarten. Je zou zoiets kunnen testen: Realview registry hack
Hoewel ik vloeiend 4K video kan editen met mijn 1070 met 8GB, laten zwaardere effects-shots in After Effects het geheugen wel vollopen. Die zouden dus misschien sneller kunnen renderen met meer geheugen (gecombineerd met het snelheidsvoordeel van een 3080 ipv 1070).
Maar ik gok dat nVidia in het midden laat waar iemand deze kaart voor zou willen, en dat lekker aan de consument overlaat.
Oudere spellen met veel mods en/of oudere engines, gewone games gespeeld op hogere resoluties dan gepland of toekomstige spellen die meer VRAM gebruiken. Hoewel ik van de eerste het niet zeker weet hoe erg het is als een VRAM tekort optreed.

Als een kaart VRAM tekort komt, vormt dat een bottleneck. Als een GPU kracht tekort komt, kan de framerate (tijdelijk) lager worden, maar het stort niet opeens in. Bij een VRAM tekort, bijvoorbeeld door een 8k resolutie of een multi-monitor setup, kan de boel significant trager worden, zelfs al is er genoeg rekenkracht.

VRAM gebruik word bepaald door de volgende factoren:

Totale hoeveelheid scherm pixels
Kwaliteitsinstellingen, zoals texture grootte
Het spel zelf
Wat er in het spel gebeurd
Waarschijnlijk ook shader/driver of andere GPU specifieke dingen.

Een oudere GPU als een GTX 1060 kan redelijk goed overweg met modernere spellen, als de kwaliteitseisen niet te hoog zijn, de gebruiker niet te kritish en zolang het VRAM niet opraakt. Dat vereist een zekere buffer voor de toekomst.
Speel de witcher 3 hier met elke high res mod+HDR+reshade .
Het verschil met rekenkracht is dat als je VRAM op hoge resolutie/settings tekort komt het heel eenvoudig is om dat te verlagen zonder zelfs iets van kwaliteit van beeld in te moeten boeten.

En zelfs een 6800 met 16gb vram heeft niet genoeg rekenkracht om 8k te draaien op dit moment, vram is daar niet de bottleneck , zinloos dus om kaarten daarop af te stemmen als je dat toch niet kan draaien.
Klopt, maar het verschil is ook dat het neerhalen van resolutie of kwaliteit bij VRAM een eis is. Bij een tekort aan rekenkracht dipt je FPS even, maar zolang je tevreden bent met 40 FPS is dat niet zo erg.

Bij een VRAM tekort kun je echt gaan stotteren, en de enige manier is idd de kwaliteitssettings te verlagen. Dat is wat anders dan een FPS dip, waarbij de kwaliteit van het gerenderde beeld behouden blijft.

Overigens kunnen veel spellen denk ik wel 8k aan, omdat ze ouder zijn, en niet gebouwd zijn op moderne hardware.
Als je op de hoogste setting gamed kan je meestal die verlagen zonder in te boeten op beeldkwaliteit, fps drops zijn dan veel zichtbaarder en storender .

Games kunnen idd 8k echter is de hardware meestal niet krachtig genoeg om dat speelbaar te maken.

[Reactie gewijzigd door k995 op 24 juli 2024 08:27]

Dat is waar, de hoogste settings vs de een-na-hoogste is niet veel verschil. Dat betekent ook dat een oudere videokaart zoals de 6Gb 1060 nog bruikbaar blijft. De 3Gb versie heeft echter meer last van veroudering, ook al heeft hij bijna net zoveel rekenkracht.

Het is een vorm van future-proofing. Je zorgt er voor dat de rekenkracht behouden blijft ondanks de vooruitgang. Op die manier kan de kaart langer mee of nog op de tweedehands markt terecht komen.
Het verschil tussen 3 en 6gb (3gb zit je zelfs op de limiet voor 1080p gaming) en tussen 10 vs 12 is natuurlijk veel groter.
Die 10gb is zelfs voor 4k gaming nu nog meer dan voldoende voor het overgrote deel van games en zal dus wel een tijd meegaan.
Van de games die ik speel is er alleen Far Cry 6 met z'n HD-texture pakket die minimaal 11GB vereist om zonder noemenswaardige fps-drops te kunnen spelen.. Maar je ziet het verschil amper tot niet, dus het is niet echt een probleem.. Voor de rest ook totaal geen problemen met de 10GB van mijn RTX 3080, en ik speel ook op een best wel hoge resolutie van 3840x1600 (38" widescreen).. De meest games komen niet in de buurt van 10GB VRAM gebruik, ook supermooie games als Red Dead Redemption 2 etc niet, alleen Far Cry 6 dus met dat extra HD-texture pakket..
Nog niet nee. Maar ik verwacht dat met tech zoals nanite van de unreal engine dat dat wel anders worden. Memory is dan nooit genoeg.
Zelfs 100gb word volledig verbruikt door al die gegenereerde LOD modellen bij complex genoege levels. Met minder geheugen krijg je meer disk streaming en dus minder performance.
Zal wel meevallen zolang nagenoeg alle games ook op de consoles moeten kunnen draaien die ook geen eindeloze hoeveelheid videogeheugen hebben..
Halo infinite in 4K op ultra settings gaat al over de 10GB VRAM.
Alleen voor de HD pack van Far Cry 6..
Ik denk dat geen enkele persoon die een 30xx kaart gebruikt voor rendering meer geheugen erg zou vinden.....
rendering is iets anders, ik sprak van gaming
Hangt van je resolutie af; Als ik Resident Evil 2 en 3 op 6880x2880 speel dan geeft het spel aan dat ik op de 16GB zit van mijn kaart. Als ik dan nog veel andere programma's op de achtegrond ga draaien dan krijg ik soms last van microstuttering. Zet ik de resolutie lager dan heb ik daar geen last van.
Ik vind het raar van Nvidia dat ze een highend kaart uitrusten met zo weinig geheugen terwijl enthausiasts vaak zwaardere settings willen draaien dan normaal.
Dat is een absurd hoge resolutie dan ook, alles tot 4k gaat zonder problemen hoor.
Same hier, alles gaat lekker op 60+ fps (mn 42 inch monitor gaat toch niet hoger). Zie er niet veel nut in eerlijk gezegd. Ik kan met deze 3080 nog makkelijk mee tot ik de 4080 koop ;)

[Reactie gewijzigd door Azerox op 24 juli 2024 08:27]

Daarom is deze 3080 met 12GB misschien wel fijn, mensen die die 12GB versie kopen kunnen de 4080 wellicht overslaan :)
Als de geruchten waar zijn zeker niet. 3080 is net voldoende voor 4k 60 fps ultra bij de meest demanding games. Voor toekomstige games zul je vast een 4000 willen.
Ik hoop dat de GPU gekte wel over is tegen de tijd dat de 4080 komt.
We kunnen alleen duimen... Lijkt er in ieder geval niet op.
Heb je nog geen 8k 165hz scherm? Flauw, maar denk ik bedoelt voor de toekomst.
4k 120hz en dat zal zo blijven de volgende 10 jaar
VR ramt de 11GB zo vol op m'n 1080ti...
Far Cry 6 vereist bijvoorbeeld 11GB om de high def textures te laten zien.

Dit wordt natuurlijk de komende jaren alleen maar bij meer spellen het geval en ik neem aan dat je hem niet alleen voor vandaag koopt, maar ook voor de komende jaren (sowieso is het al een drama om er eentje te kunnen bemachtigen en dat wil je ook niet elk jaar hoeven doen).

Ik ben zelf voor de 3080Ti gegaan om deze reden. Maar ik had voor toekomstvastheid zelfs liever 16GB gezien. Ik speel ook veel VR en zoals anderen al zeggen slurpt dat ook geheugen.

[Reactie gewijzigd door GekkePrutser op 24 juli 2024 08:27]

Vr is iets compleet anders, en ik zie het geheugen niet fors boven 10gb gaan, je moet denken dat de kaart het zelf nog moet kunnen trekken en dat gaat nu juist op 4k. Gewoon geheugen bijsteken op een kaart maakt die niet magisch sneller.
Waarom is VR iets compleet anders? Het is de toekomst van gaming! Ik speel weinig anders meer (en alleen maar als ik iets graag wil spelen dat geen VR biedt).

Dit gaat alleen maar meer het geval worden door alle investeringen in 'metaverse' dus het lijkt me juist een goed punt om mee te nemen voor de toekomst.

[Reactie gewijzigd door GekkePrutser op 24 juli 2024 08:27]

Omdat dit gaat om een miniem aantal van gamers, iets waar nvidia & amd weinig rekening mee houden.
Die zijn ook niet blind voor wat er allemaal aankomt hoor! Al die ontwikkelaars die er aan werken hebben ook goede hardware nodig (want het optimalisatieproces om het op de headset zelfs te laten draaien komt later pas).

Het is sowieso niet echt miniem meer. Maar ik ben blij dat er nu kaarten komen met meer geheugen.
3080 ti heeft 12gb 3090 24g
AMd heeft ook een boel kaarten met 12 tot 16gb.

Echt bedrijfskaarten hebben dikwijls ook meer geheugen. Die markt is al bediend, de standalone vr headset hebbende is echt wel nog een te kleine markt om die paar titels die veel vram nodig hebben de beslissingen van nvidia te laten beinvloeden.
De bandbreedte is ook hoger en de geheugenbus, dat extra geheugen is puur vanwege marketing redenen.

[Reactie gewijzigd door mr_evil08 op 24 juli 2024 08:27]

Alleen als je op 4k speelt en alles op max zet, maar ik denk dan bij mezelf, 1080p ultra of zelfs 1440 high vs 4k medium is al een wereld van verschil.

Dus I don't know, heb ook t gevoel dat die memory upps alleen maar nodig zijn omdat tegenwoordig alles zo geunoptimized is als het huidige corona beleid.
Ik snap nooit iets van de releases bij Nvidia. Waarom is alles zo verspreid? En waarom refresh kaarten met minimale aanpassingen? En wat is het nut er nog van als over een half jaar ook weer nieuwe 4xxx varianten komen? Ik heb geen marketing gestudeerd, dat klopt :9
Door nonstop dingen uit te brengen blijven ze constant in het nieuws, met alle marketing voordelen van dien.
Geld, enorme vraag vanuit de markt, zorgen bij sommige gamers dan 10GB te weinig is op hogere resoluties de komende 1-2 jaar of zelfs nu al, mogelijk wat betere beschikbaarheid van GDDR6X geheugen en betere yields op je chips waardoor je 256 extra Cuda cores kan enablen, wat het allemaal mogelijk maakt om een paar honderd euro extra te vragen voor dezelfde videokaarten tegen minimale extra productiekosten.

Het is misschien niet logisch en leuk voor sommige van ons. Het lijkt me echt stom als ze deze variant geen andere naam geven zoals een RTX 3080 Plus. Maar ze kunnen het flikken want het wordt zeker op dit moment toch allemaal wel gekocht. Daarbij kom je extra in het nieuws omdat je weer een nieuwe kaart hebt, Wat zou jij doen als je Nvidia was...? Het heeft allemaal niets te maken met beschikbaarheid en de RTX 4000 serie. Je kan als bedrijf simpelweg extra geld verdienen. Hoef je geen marketing voor gestudeerd te hebben.
Het is meer dat ik denk "die stock raak je toch niet kwijt voor de rtx 4000 serie" maar inderdaad ze raken alles toch wel kwijt tijdens tekorten. En de consument die klaarblijkelijk overal intrapt én dat men het geld toch wel betaald.

[Reactie gewijzigd door jellybrah op 24 juli 2024 08:27]

De crypto mensen kopen de boel wel op.
Ze bepalen zelf toch wanneer ze de RTX 4000 series kaarten beginnen te verkopen, dus ik snap die gedachtegang sowieso niet, ook al was de markt niet heel gek op dit moment. Die "stock" waar je het over hebt is dus niet eens echte stock. Zelfs al zou de markt op dit moment heel anders zijn en er meer aanbod dan vraag zijn, dan zou Nvidia door deze betere versie uit te brengen net wat meer mensen over de streep halen om 200-300 euro extra neer te leggen, of nog te kiezen voor Nvidia i.p.v. een AMD RX 6800/6900 (XT) waar deze voornamelijk mee concurreren.
zo kunnen ze een prijs verhoging doorvoeren, zonder een prijs verhoging door te voeren, om zo van de hoge vraag en tekorten te profiteren.
2GB aan gddr6 kost echt geen 200 dollar, maar toch willen ze dat extra hebben boven de oude 3080. gewoon die oude 3080 niet of nauwelijks meer maken, en ze kunnen meer verdienen aan nagenoeg de zelfde dies.
Mijn (insert item) is bigger better newer dan het jouwe.
Moest alles zo lang meegaan als een vliegtuig was er amper economie, winst en jobs.
Moest alles zo lang meegaan als een vliegtuig was er amper economie, winst en jobs.
Cough, *bullshit*, cough.
On average, aircraft are retired after around 25 years
Hoe lang doe jij met je wagen of phone?
Appelen en peren natuurlijk, mijn auto kost geen miljoenen en toch rijd ik met de huidige (yaris) nu al 12 jaar.
Reden voor mij om nog steeds een 1080ti te gebruiken: het 11gb geheugen.
(en natuurlijk de belachelijk egoistische prijzen voor de kaarten)
Beetje vr game zit er zo aan, vooral als je in steamvr de resolutie op meer dan 3000x3000 instelt.
(en ja dat is echt een wereld van verschil).
Battlefront 2 een keer op de hoogste resolutie ingesteld(dus ook de scaler), mijn pc heeft mij dat nog steeds niet vergeven.

Maar 16gb is dan ook weer erg veel ivm vr.
Aangezien een videokaart de resolutie die 16gb vreet toch nog niet aankan.

Verder, dit was te voorspellen he?
Miep miep tekorten, miep miep.
En opeens kan het wel?
Nee nvidia mag wat mij betreft wel een verlies van een paar miljard lijden, miss doen ze dan weer eens hun best voor hun klanten.
De 1080ti zit echt in een apart hokje wat dat betreft. Goede prestaties en ruim voldoende geheugen om deze rare tijd te doorstaan. Had de zelfde hoop met mijn 1080 (geen ti). Die liep wel tegen z'n beperkingen aan maar goed, dan schroef ik de instellingen wat terug. Helaas plofte een VRM en heb ik bijna huilend een nieuwe grafische kaart afgetikt.
Met VR is dat videogeheugen niet zo'n punt. Althans, het is in mijn ervaring niet de beperkende factor geweest. 8gb VRAM werkt prima in VR.
Probeer RDR2 maar eens op een 3080 te draaien. Kom je met een minimale prettige ervaring weg van 60-90 fps met medium tot ultra setting op performance/kwaliteit gericht waar je echt 90 fps wilt halen. Een 3090 is voor dit soort high end VR mods waardoor je een hogere resolutie kunt gebruiken die je scherper beeld geeft in VR en alles op ultra kan draaien op 90 fps een veel betere ervaring.

Voor normale VR games niet nodig maar voor alle AAA games die VR mods krijgen heb je aan een 3080 net genoeg maar voor een goede ervaring beter een 3090.
Maar daar zeg je ook wat. Nu krijgt een GPU de schuld dat het niet lekker loopt terwijl de software (het spel) daar niet voor is gemaakt.
Hoe dan wel?
1080ti kon 4k wel aan maar niet ultra en dus kwam ik nooit in de buurt van 11gb .

Dan spreek ik niet van allocated trouwens maar echt gebruik wat altijd een pak lager ligt.
Weer een kaart die je toch nergens kunt kopen.
Prijs? 1500 euro?
Ik verwacht €1000 msrp, komt voor €1750+ in de winkel :+
Fijn...
Weer een GPU die we toch niet kunnen kopen zonder een wachttijd van een paar weken tot maanden if at all..
En kost weer een rib uit je lijf.
Of een maandloon.
En waarvoor?
Ah mooi. Nog een kaart die niet te betalen is. Precies wat ik nodig had!
Boeien... Is toch niet te koop, of niet voor een normale prijs.
Wat hebben we aan al die paper launches?
Een 3080 Super dus?
Ik vermoed dat de MSRP een stuk hoger zal zijn dan de 3080...

Op dit item kan niet meer gereageerd worden.