Gigabyte-website noemt RTX 3080- en 3070-videokaarten met 20GB en 16GB geheugen

De website van hardwarefabrikant Gigabyte noemt verschillende onaangekondigde Nvidia-videokaarten. Hieronder vallen bijvoorbeeld RTX 3080- en 3070-modellen met 20GB en 16GB geheugen. Ook een vermeende RTX 3060 Ti wordt genoemd op de website.

Gigabyte RTX 3000-videokaarten
Afbeelding via VideoCardz

De vooralsnog onaangekondigde videokaartmodellen worden vermeld op de webpagina waar kopers van Gigabytes RTX-videokaarten hun Watch Dogs: Legions-gamecode kunnen inwisselen, ontdekte VideoCardz. In de productlijst staan onder andere verschillende 'N308S'- en 'N307S'-modellen, met respectievelijk 20GB en 16GB aan geheugen, terwijl de reguliere RTX 3080- en RTX 3070-modellen 10GB en 8GB hebben.

De lijst van Gigabyte toont ook een N306S'-videokaart met 8GB geheugen. Vermoedelijk is dit dezelfde kaart als de RTX 3060 Ti, waarover vorige week geruchten verschenen. Nvidia zou van plan zijn om de RTX 3060 Ti in de tweede helft van oktober te introduceren. De RTX 3080- en 3070-modellen met meer geheugen, zouden vermoedelijk na de release van AMD's Big Navi-videokaarten uitkomen.

Het is niet bekend of de 'S' in de productnamen voor 'Super' staat. Volgens bronnen van VideoCardz zou Nvidia de Super-naamgeving deze generatie namelijk stopzetten. In plaats daarvan zou de GPU-fabrikant volgens geruchten nieuwe videokaarten met een Ti-achtervoegsel uitbrengen.

Onaangekondigde RTX-videokaarten van Gigabyte
RTX 3060-serie RTX 3070-serie RTX 3080-serie
Gigabyte RTX 3060 (Super/Ti) Eagle 8GB
GV-306SEAGLE OC-8GD
Gigabyte RTX 3070 (Super/Ti) Gaming OC 16GB
GV-307SGAMING OC-16GD
Gigabyte RTX 3080 (Super/Ti) Gaming OC 20GB
GV-308GAMING OC-20GD
Gigabyte RTX 3070 (Super/Ti) Aorus Master 16GB
GV-307SAORUS M-16GD
Gigabyte RTX 3080 (Super/Ti) Aorus Master 20GB
GV-308SAORUS M-20GD

Door Daan van Monsjou

Nieuwsredacteur

19-09-2020 • 15:16

199

Lees meer

Reacties (199)

Sorteer op:

Weergave:

Zelf heb ik zo'n idee dat Nvidia deze alternatieve modellen op de markt gaat zetten om twee redenen:

1: ze willen zoveel mogelijk kopers hebben, dus veel producten voor veel verschillende prijssegmenten helpt dit te bereiken.

2: AMD, de grote concurrent, komt binnenkort met zijn eigen kaarten. Nvidia zal hierop moeten reageren, waar deze alternatieve modellen perfect geschikt voor zijn.
En volgens mij kondigt AMD ook alleen maar "mid-high" kaarten aan toch? Een kaart voor de 3070 en een kaart voor de 3080?

Ik denk dat de fabrikant die een €250-300 kaart uit brengt hele goede zaken zal gaan doen. Maar daar hoor je erg weinig over.
Alleen is gddr6 erg duur dus 250 euro zal hem er waarschijnlijk niet inzitten.
gddr6 kost ongeveer 12$/GB, dan besteed je al 100$ aan geheugen voor 1 8GB kaart.

@pedra en dan is dit gddr6 niet gddr6x welke waarschijnlijk nog duurder is. Alleen zijn de prijzen daarvan niet bekend (zover ik weet/kan vinden).

[Reactie gewijzigd door Horatius op 22 juli 2024 15:13]

dat is intressant info.. grote kans dat de 3080 20 gb/ super richting de 1000 euro zal gaan (gebaseerd op prijs gat dat er nu is tussen de 3080 en 3090)
+300 voor 120 euro aan extra gddr6
Als hij 3080Ti genoemd gaat worden dan zal hij waarschijnlijk wel meer specbumps krijgen dan alleen een geheugenupgrade. Ik verwacht op zijn minst 10% meer cuda cores en rt cores.
Als dat het geval is dan rechtvaardigt het ook een prijsverschil van €300
boardpartners mogen dat niet beslissen denk ik.
Nvidia geeft aan welke chip boardpartners mogen gebruiken voor welke 'Nvidia kaart benaming' en hoewel ze wel eigen merknamen erachter kunnen plakken "hydro copper" of zo, het 'Ti' stukje is van Nvidia vermoed ik en dus onderhevig aan de chip/ram eisen die Nvidia oplegt.
Kaarten zijn al "duur" (relatief wel veel waarde) maar dat tikt wel aan dan ja.
Game nu nog op 1440p, 144hz met een 1080TI. Meer ram is altijd goed maar denk dat de 10GB versie toch wel genoeg is voor een tijdje.
Zit zelf ook met een Index voor gpu usage.
De prijzen tikken idd aan de komende generaties en komt er hoogst waarschijnlijk een moment aan waarbij ik het niet meer zie zitten om te gaan upgraden. Op het moment heb ik ook een 1080Ti en game ook op 1440p of 2160p indien oude games zoals GTA4. Echter ben ik ook hevig gaan zoeken hoe ik de 1080Ti kan downvolten. Enige idee wat de ideale voltage is?
huh hoe bedoel je? een 3070 word rond de 500,- en is beter dan de 2080ti die voor 1200,- werd verkocht dat zorgt dat alle kaarten goedkoper gaan worden.
Dat de 3070 beter (sneller) zou zijn dan een 2080ti, zou mij sterk verbazen. Het verschil tussen 3080 en 2080ti is veel minder groot dan verwacht als je naar de benchmarks kijkt.
De 3080 Super met 20Gb zal wel richting de 1000 euro gaan maar daarvoor krijg je een betere GPU met meer DDR6X geheugen. Misschien dat de prijs van de 3080 20Gb variant plus 120-150 euro wordt zodat deze weer tussen de 3080 10Gb en 3080S 20Gb komt te liggen.
Dat gaat over GDDR6X hoop ik?
Wat AMD volgens mij niet (overal) gaat gebruiken.

Ik zou het jammer vinden als AMD naar €350 gaat. Er zijn aardig wat mensen die nu thuis zitten met vaak een mindere financiele periode achter de rug.
Ik heb mijn reactie hierboven aangepast, heb jij misschien niet gezien. Dit gaat over gddr6 , niet gddr6x.

Prijzen van gddr6 zijn wel bekend en variëren van 9-12$ (duurdere worden vaak op gaming GPU's gebruikt, want die zijn sneller). Prijzen van gddr6x kan ik nergens vinden.
First spotted by German website 3DCenter.org, the listing says that Micron charges $11.69 per GB for 2000 1GB modules of 14Gbps GDDR6, while they charge just $6.84 for the equivalent 8Gbps GDDR5 modules. That’s 70% more for 75% faster speeds.

If the prices are accurate then the RTX 2080 Ti memory costs $129 and the 2080’s and 2070’s cost $94. That is $39 more than the memory in the GTX 1070 Ti. The cost of GDDR5X modules used in the GTX 1080 Ti and GTX 1080 remains unknown, but it’s likely it wasn’t much more than GDDR5 given how the cards were priced.
Issue met dat is dat dit 'voor 2000 modules' is.
We weten niet wat voor afname afspraken die boardpartners sluiten met Micron en dus ook niet hoe veel bulk korting daar nog af gaat. 2000 modules lijkt me erg weinig, daar kun je 200 kaarten van bouwen met 10GB vram... ongetwijfeld kopen die boardpartners voor hun gehele Nvidia+AMD linie in één keer vram in, en je gaat mij niet vertellen dat ze maar 200 kaarten (per jaar of zo?) produceren. :+
Ik vermoed dat de afname getallen x10 of x100 kunnen, met bijbehorende korting (~10% tot 30% per unit?)
Met de launch van deze week zou ik eerder zeggen dat ze daar precies op zitten
Tja, als die mensen eerst maar zorgen dat ze in een betere financiële situatie zitten voor ze denken om een nieuwe GPU aan te kopen.
Mindere situatie != geen brood op de plank. Ik denk dat er genoeg mensen rustig een videokaart van €500 kunnen kopen, maar dat in deze onzekerheid gewoon een slechte keuze zou zijn. Dus beter een videokaart van €250.
Ook als je kijkt naar de Steam survey zie je dat het meerendeel GPU's zijn van ~€200-300. Dit zal nu denk ik een heel stuk lager gaan liggen.

Overigens is ontspanning ook erg belangrijk. Uiteraard is een nieuwe GPU geen top prio.
Tja, ik weet waar jij woont maar in Vlaanderen is er niemand zonder inkomen gevallen.
Gezien de prijzen van de nieuwe Nvidia kaarten. Zal de 2de hands markt overspoeld worden met genoeg keuzes voor deze doelgroep.

Als je straks een 1070 of 1080 voor onder 150 kunt krijgen heb je gewoon leuke kaart voor 1440p wat voor de meeste al voldoende is.
De 2e hands markt is inderdaad al ontploft. Ik heb vorige week een Aorus 1070 weten te krijgen voor 150 euro :)
Dus 10GB extra kost ongeveer 10 (GB) * 12 (usd per GB) * 1.2 (aanname meerprijs 6X boven 6) = $144 extra.

Dan is het logisch om eerder alleen die 10GB kaarten uit te brengen. Wbt performance maakt het nu weinig uit.

En effecten van laden+decompression kan men tegenwoordig sowieso beter maskeren. Helemaal wanneer de transfer sneller gaat (Pcie 4) en decompressie naar Gpu verplaatst wordt met deze generatie.
Het verschil tussen pcie3 en 4 is te verwaarlozen bij een 3080, check de video van Gamer Nexus.
Klopt. Maakt nu met performance niets uit. Maar op lange termijn zie ik wat voordeel icm die decompressie op GPU.

Op dit moment verlies jemet de AMD gpu die je voor Pci-e nodig hebt concreet performance. Het is een netto verlies op dit moment.
Dta klopt, maar waarom is dat zo? Een belangrijke reden is dat de huidige 3080 al genoeg RAM heeft, dus dat er niet over de PCIe bus geswapt hoeft te worden. Als die 10GB krap wordt (bij nieuwe games/8K), dan zul je meer effect gaan zien van PCIe4 op de 3080.
En volgens mij kondigt AMD ook alleen maar "mid-high" kaarten aan toch? Een kaart voor de 3070 en een kaart voor de 3080?
Waarom zou AMD geen tegenhanger voor de 3060 lanceren?
Ik bedoel op 28 oktober. Ik lees zelf eigenlijk alleen maar over de high end kaarten. Terwijl ik denk dat er veel meer mensen nu een entry kaart gaan kopen. Wat mensen over het algemeen ook al wel deden.
Waarom zou AMD geen tegenhanger voor de 3060 lanceren?
Omdat raketten erg duur zijn. Ze kunnen hem beter uitbrengen dan lanceren.
Gaan ze wel doen, alleen niet bij de initiële lancering, net zoals eNVy dat niet gedaan heeft.
Die €250-300 kaart is hopelijk wat de 3060 gaat worden.
Ik denk zelf dat die rond de 350-400 geprijsd gaat worden aangezien de 3070 519 moet kosten
Daar is niks over gezegd, maar aangezien microsoft hetzelfde had bedacht op het gebied van de spelcomputers zou het me weinig verbazen als amd, hierdoor geïnspireerd, ook meer budget-vriendelijke video kaarten aan kondigt.
Ik hoop een 75Watt RTX3050 voor 160 euro...
75 watt is ook lekker reeël. Sinds Pascal (tot en met Ampere?) zijn de wattages tussen de 40 (xx70) tot 75 (xx80) procent gestegen. Dus een 75W 1050 zou zo maar kunnen worden 'opgevolgd' door een 100W (en misschien wel hoger) 3050 (mits die er komt).
Ik ga ervan uit dat de RTX 3060 de laagste kaart word, en die zal dan 180-200 watt TDP hebben vermoed ik
Dan kun je lang wachten denk ik.

Er zal wel een 75 watt kaart komen, maar dan eerder een 2650 zonder Raytracing. Net als de 1650 nu.

De 2060 is de traagste nu met Raytracing en die heeft een TDP van 160 watt. Lijkt me niet dat ze een kaart die ook maar enigszins behoorlijke Raytracing heeft onder de 75 krijgen.
RTX 2060 Max-Q is 65W. Is wel een laptop GPU maar valt prima op te gamen zonder ray tracing dan. Nvidia heeft dus zeker wel de mogelijkheid om een 75W kaart te releasen voor de mensen met een kleiner budget of die 350W voor een GPU belachelijk veel vinden.
Zoals je al aangeeft gamen zonder Raytracing. Dus kom je dan eerder uit bij een nieuwe generatie van de 1650. Beetje zonde om een chip te nemen die RT ondersteunt als je het toch niet gebruikt/kan gebruiken.

Een grote factor in de prijs is de grote van de chip. En er zit nogal een verschil tussen een 1650 en een 2060, namelijk 200mm2versus 445mm2. Die 2060 is dus meer dan 2,2x zo groot. En uiteraard heeft dat effect op de prijs. En de 2060 Max-Q is ook nog eens een gr-cherrypickte chip, om zo zuinig mogelijk te zijn.

Dan kun je beter een andere kaart kopen dan een 2060 Max-Q met een $299 msrp. Dat valt niet echt onder klein budget.

Bovendien is er nogal een verschil tussen 75 en 350 watt voor een Gpu.

Alsof de enige andere keus in plaats van een 75 watter het topmodel is?

[Reactie gewijzigd door White Feather op 22 juli 2024 15:13]

ik ook, op low profile dan nog het liefst voor in mn optiplex 790 DT behuizing.
En een single slot versie voor in de NAS :)
Je krijgt een 150W RTX3040 voor €320...
Oh je bedoelt of er ook entry level kaarten worden aangekondigd. Geen idee, maar het zou goed kunnen dat je gelijk hebt.

[Reactie gewijzigd door Xadeon op 22 juli 2024 15:13]

Big Navi komt ook in de high-end en daarom houd Nvidia de Super/Ti kaarten met een grotere ram buffer nog achter.
AMD komt met een Big Navi met drie sets aan GPUs
Navi 21, 22 en 23
Navi 21 is het meest high-end model
Navi 22 zit daar onder en Navi 23 is het laagste model
Navi 21 chip zal moeten concurreren met die van de RTX 3080, en volgens de laatste geruchten zelfs met dei van de RTX 3090.
De Navi 22 chip zal gebruikt worden voor de kaarten die moeten concurreren met de RTX 3070 en 3060 Ti.
De Navi 23 chip is volgens de geruchten meer een soort refresh, die de RX5500/5600XT op moet gaan volgen
Dus AMD komt met kaarten in daadwerkelijk alle segmenten, op het allerlaagste segment (GTX 1030 e.d.) na
Vergeet niet dat kaarten van de xx70 en xx80 series veel gebruikt worden in workstations voor renderwerk in 3d applicaties als 3ds Max/ Maya/ Blender. De toegevoegde waarde van VRAM is groot, want als een scene niet in het geheugen past loopt de rendertijd erg op. Dus wat dat betreft zijn deze kaarten zeer welkom!
Ik zat zelf om die reden te kijken naar de 3090 maar met 1500 euro best aan de prijs en het belangrijkste voor cad is inderdaad de hoeveelheid geheugen vooral... dus een 20gb 3080 kom maar op! de 3090 heeft als enige grote voordeel de meer geheugen voor een cad systeem.
Het zal ook zeker zijn om op AMD te reageren inderdaad.. Niet eens zozeer vanwege de prestaties waarschijnlijk, maar vooral vanwege marketing doeleinden.. Ondanks dat het waarschijnlijk weinig tot niks zal uitmaken voor de prestaties is de hoeveelheid geheugen die je op de doos kan zetten nog altijd een belangrijk marketing ding aangezien er altijd mensen zijn die denken dat meer of een hoger getal automatisch beter is.. Die zien straks 2 dozen staan, een Nvidia RTX 3080 10GB en een AMD R6800XT 16GB, die denken dan dat 16GB beter is en kopen die.. Nvidia kan dit counteren door dan met een RTX 3080 20GB te komen.. Zelfde verhaal met PCI-E 3.0 vs 4.0 op dit moment, dat is ook meer een marketing probleem voor Intel dan dat het echt iets uitmaakt voor de prestaties..

[Reactie gewijzigd door Inflatable op 22 juli 2024 15:13]

Consoles hebben ook 16GB GDDR dus je pakt maar beter een videokaart met 16GB vram.
Dat is niet echt te vergelijken.. Om te beginnen is het geheugen in de consoles het totale gedeelde systeemgeheugen en heb je het met PC videokaarten alleen over videogeheugen (VRAM), daar komt de systeem RAM nog bij.. Ook heeft een RTX 3080 met 760Gb/s een veel grotere geheugen bandbreedte dan de PS5 met "slechts" 448Gb/s..

[Reactie gewijzigd door Inflatable op 22 juli 2024 15:13]

Precies dit. Hoor veel mensen dit zeggen dat 10 vram niet genoeg is, denk dat velen die dit zeggen niet weten hoe vram werkt...
Lees hierboven anders eens de reactie van die tweaker die Steam in zijn VRAM had draaien, 500~600MB, maar ja! _/-\o_
"Fabrikant komt met product omdat ze veel willen verkopen". Goede analyse. 8)7
In welke setups / scenario's hebben die hoeveelheden (extra) RAM nou meerwaarde? Doet dit echt iets (en hoeveel dan?) of is het een 'meer is beter' marketingverhaal waar de gemiddelde koper helemaal niets mee opschiet? Ik zit bv. op een 1440p / 144Hz scherm. Gaat 8GB extra op de 3070 dan ergens verschil maken?
extra ram is erg handig als je veel Virtual Reality games speelt. die games renderen altijd 2 schermen tegelijk, dus dat extra videogeheugen komt dan wel goed van pas.
In Premiere Pro en After Effects is flink wat vram behoorlijk fijn op hogere resoluties.
In die 3090 zit ook al 24 gb ddr6 x geheugen erop.Je weet nooit in de toekomst hoe groot de textures worden in een game, met meer geheugen kunnen dus grotere textures geladen worden of heel veel kleinere textures.Ik neem aan dat je dat a; wist,de wet van more is hier aanwezig vooral wat zich allemaal afspeelt alleen al op het hardware gebied wat personal computer heet.pciexpress 4.0 is ook alvan kracht op deze kaarten en zullen dus altijd sneller zijn dan pciexpress 3.0 kaarten.

Wat ik niet snap van nvidia is dat een 1080 kaart bijna even duur is als een 30 serie of een 20 serie.
Ze liggen al twee generaties achter wat techniek en type aanduiding en de kaarten zijn bijna allemaal even duur ten opzichte van de 1080 series bedoel ik.iIk moet nog altijd 1000 euro betalen voor een 1080 videokaart, en dat vind ik jammer genoeg nog altijd te duur.

[Reactie gewijzigd door rjmno1 op 22 juli 2024 15:13]

Toekomst, volgend jaar is er weer een snellere kaart ... En binnen 2 jaar weer eentje. Daarom ben je volgens mij beter af dat je een midrange kaart koopt en dan om de 2 jaar vervangt. Maar ieder zijn eigen keuze uiteraard. Tenzij je alles op max settings wilt spelen en dan nog 140fps wilt halen dan is het echt niet nodig en eigenlijk zonde van het geld als je het mij vraagt. Vroeger kocht ik altijd top of the line, ben ik jaren geleden mee gestopt. Ok ik game ook een minder, maar dan nog. Beter regelmatig upgraden dan 1x om de x aantal tijd. Na 2-3 jaar hinken die topkaarten toch achter
Ja klopt het zal een 1660 worden met of zonder super.
Voor zaken buiten gamen zoals machinelearning is meer geheugen wel prettig, kun je met een grotere modellen of met een grotere batch-size trainen. Kijk bijvb naar de titan die niet voor gaming maar meer voor machinelearning bedoeld was met 24GB geheugen. Voor die tak van sport zou het op zich niet verkeerd zijn als je het ook lokaal met een gaming GPU voor een wat vriendelijkere gaming-prijs kunt doen.
Dit lijkt me juist een reden waarom de 3080 zo weinig geheugen heeft. Duw anderen richting de exorbitant dure 3090 of de dedicated ML-kaarten, maar geef hen geen goedkope optie door een 3080 die beide goed kan te verkopen tenzij het moet door concurrentie van AMD.
Mjah AMD lag nogal achter qua compute stack en implementatie daarvan in libraries, maar dat hebben ze inmiddels met ROCM wel aardig ingelopen. Daarnaast wel open-source drivers onder linux, nu nog goede hardware ...
Ik kan eigenlijk alleen maar hopen dat ze terecht een beetje bang zijn :)
Yep, over 4 jaar wel en dan wil ik mijn gpu nog goed kunnen gebruiken.
Met Horizon Zero Dawn(bijvoorbeeld, maar ook bij andere recente games) ga ik op mijn 1080ti al over de 10GB(heb al 10,6 gezien). Hiervan was 5-600 MB overigens voor rekening van Steam, maar ja, die ga je niet sluiten. De 10GB is mij dus te weinig. Ook al kan het met PCIe 4.0 snel gevuld worden vanuit RAM, ik heb het liever paraat op de kaart zelf. Niks zo irritant als texture pop-in of erger. De 3080 in huidige vorm is mij dus niet toekomstvast genoeg en de 3090 te duur voor de extra prestatie die hij tot nu toe lijkt te bieden(zonder mod). Was de winst meer geweest(en dat kan met (driver) updates nog komen) dan was de knoop al doorgehakt overigens.

En wellicht dat 10GB voor VR ook wat krap is. Dit nieuws is voor mij in elk geval een enorme geruststelling.

[Reactie gewijzigd door MN-Power op 22 juli 2024 15:13]

Geheugen allocatie ≠ gebruik. Sommige games, waaronder naar ik meen een of meerdere titels in de CoD serie, alloceren zoveel vram als ze bij kunnen :9
Dat snap ik, maar wat er al in staat hoeft ie niet in te laden en dat kan dus ook geen ellende opleveren. Het scheelt in elk geval een deel van de textures inladen mochten ze wel nodig zijn. En ongebruikte textures kunnen langer blijven staan voordat ze ge-purged worden. Vooral bij open world games(HZD, RDR2 en AC) heb ik liever veel te veel geheugen dan 0,5GB te weinig.

En ik wil nog een jaar of 4 verder met de nieuw te kopen kaart, dus vind ik 10GB gewoon te weinig. Het is sowieso al een stap van 1GB terug vanaf mijn 1080ti(3 jaar oud). 11-12 had ik denk ik nog net geaccepteerd.
Wat je nu uitlegd zorgt misschien voor 0.5% betere prestaties. Dit is niet waar de winst hem in zit.

Meer VRAM zorgt alleen voor significant betere prestaties wanneer het spel ook echt die hoeveelheid vram nodig heeft. En inderdaad, allocatie is niet hetzelfde als daadwerkelijk gebruik, dus het feit dat er 10GB gealloceerd is betekent niet dat het zoveel nodig heeft. Veel spellen alloceren gewoon zo veel als ze kunnen omdat het makkelijker is.

[Reactie gewijzigd door unilythe op 22 juli 2024 15:13]

Ik ken het concept. Alleen ben ik er niet zeker genoeg van dat 10GB over 4 jaar nog steeds genoeg is(voor mij) bij 4k(of misschien wel meer?) met textures op ultra. De next gen consoles hebben 16GB (snel) gedeeld geheugen en ik denk dat het geen rare stelling is dat de bulk gebruikt gaat worden voor textures. 10 tegen 6GB lijkt mij geen heel scheve verhouding bij sommige games. Alleen neemt Windows ook al VRAM in(ca. 500MB) en Steam dus ongeveer hetzelfde. Dan houd je met een 3080 dus 'maar' 9 over. En dan neem ik nog aan dat de textures op de PC versie niet van nóg hogere kwaliteit zijn. En dan tel ik niet mee dat er nog eventueel andere applicaties open kunnen staan, bijvoorbeeld Firefox (op een tweede scherm?). Die neemt kaal opgestart ook al een paar honderd MB in. Natuurlijk kan je die afsluiten, maar dat vind ik soms niet handig en ik heb ook niet zin er altijd bij stil te moeten staan. En ik wil graag meteen verder kunnen browsen waar ik was.

Ik zeg ook niet dat 10GB niet genoeg is, ik heb gewoon liever wat meer speelruimte. Ook voor 3D pakketten overigens, maar ik ben geen texture heavy user(3D printing), dus dat zal over het algemeen wel loslopen. Verder verwacht ik niet dat VR zwaar(der) is op het gebied van textures, maar óók daar zit ik liever aan de veilige kant.
Gddr6x op de RTX3080 is bijna 40% sneller dan geheugen op een 1080ti. Geen enkele game komt bij 10GB vram in de buurt op 4k.

Waarom denk je dat er in de nieuwe consoles maar 10GB vram zit welke ook nog eens 25% langzamer is dan wat er op de 3080 zit. Denk je werkelijk dat MS, Sony en Nvidia daar niet over na hebben gedacht?
Alleen zit er volgens mij geen 10GB VRAM in de nieuwe consoles, maar 16GB shared memory(dus RAM+VRAM). En of het langzamer of sneller is maakt niet heel veel uit bij het moeten laden van textures(het lezen van reeds geladen textures gaat uiteraard wel sneller). Als ze uit het systeemgeheugen moet komen is dat sowieso langzamer bij een PC(en moet het nog over PCIe), bij de consoles ís het videogeheugen het systeemgegeugen en moet het van schijf komen dan zitten de console ook vrij goed met hun NVMe-like SSD.

En zoals ik in een andere post al aangaf, alle programma's met video hardware accelleration gebruiken ook VRAM(Windows, Steam en Firefox alledrie grofweg 500MB per stuk)

En ik mag hopen dat het doel van Nvidia niet is de consoles(en dus AMD) nét bij te blijven. :S

[Reactie gewijzigd door MN-Power op 22 juli 2024 15:13]

De xbox X heeft 10gb ram gereserveerd voor de GPU wat 25% langzamer is dan wat er op de 3080 zit. De rest van het RAM is nog een stuk trager. En natuurlijk maakt de snelheid wel uit. RTX IO is hetzelfde als de SSD techniek in de consoles.

Overigens is laden vanaf een SSD nog steeds 10 keer zo traag vs laden uit RAM. Punt is dat 10GB vram ruim voldoende is. Geen enkele game komt daar in de buurt en straks ook niet. Het is een marketing praatje om je een duurdere kaart met 20gb te laten kopen. Tenzij je naast gaming nog iets met VR of renderen doet maar dat is een andere tak van sport.

Een RTX3080 blaast de nieuwe consoles met gemak weg dus daar hoeven we ons geen zorgen over te maken :)

[Reactie gewijzigd door biggydeen2 op 22 juli 2024 15:13]

VR: check en (o.a.)Blender, Fusion 360 en Meshroom zijn hier ook in gebruik. :)


Skyrim mods helpen natuurlijk ook niet echt, maar dat heb ik al een tijdje niet aangeraakt.

[Reactie gewijzigd door MN-Power op 22 juli 2024 15:13]

Ik lees alleen maar af wat AfterBurner mij vertelt. ;) Net Project Cars 2 afgesloten, VRAM staat op 1500 RAM op 5831. Na sluiten van Steam(exit, niet kruisje): 995 en 5191. Als ik Steam daarna weer start: 1391 en 5626. Firefox sluiten(had YouTube vensters open) scheelde trouwens ook ca. 500MB VRAM).

Ik heb overigens hardware acceleration aan staan bij Steam(en Firefox), lijkt me dan ook logisch dat ie(deels) je GPU gebruikt.

[Reactie gewijzigd door MN-Power op 22 juli 2024 15:13]

Excuses, dat is helemaal logisch natuurlijk.
Niet nodig. Ik snap je gedachtegang. :)
Voor een flinke kaart met veel rekenkracht is veel geheugen wenselijk. Voor een midrange kaart met 8GB heb je er eigenlijk weinig aan, omdat 8GB bijv niet groot genoeg gevuld kan worden ten opzichte van 4GB. De vraag komt dan ook steeds terug hoeveel ram moet een videokaart hebben etc, 4GB is nog steeds het gemiddelde als je speelt op 1080p. Pas wanneer je 4 of zelfs 8K wilt gaan doen is veel geheugen handig. Immers moeten de textures in het geheugen gezet worden en dat is altijd sneller dan deze van disk > videoram streamen.
Mining hashrates?? Of in iedergeval de durability voor mining (zouden in theorie langer meekunnen naar mate de blocks moeilijker worden?)
Het extra geheugen is een must voor bijvoorbeeld 3d renderen. :)
Ik ben specifiek aan het wachten op RTX 3080's met 20GB. Wij gebruiken het voor Octane Render ( Cinema 4D ). Geometrie wordt ingeladen op vram. De hoeveelheid en complexheid van scenes hangt dus af van de hoeveelheid vram.

We willen RTX 3080's om 1080ti's te vervangen. Maar een downgrade in vram zou heel zonde zijn met de 10gb kaarten.
De kans dat er Ti modellen komen in de Nvidia 3000 serie wordt steeds groter met steeds meer lekkende informatie.. Maakt de keuze er niet makkelijker op, koop ik komende maand een RTX 3080 of wacht ik nog even op wat AMD gaat doen en/of het Ti model? Ik denk dat ik nog heel even wacht tot eind dit jaar.. Ik moet sowieso ook de rest van mijn systeem upgraden, dus wil ook eerst weten wat AMD gaat doen met Zen 3..
Je kan ook gewoon nu een 3080 bestellen, wordt voorlopig niet geleverd en wanneer hij wordt geleverd heb je nog 30 dagen retourtermijn. Dikke kans dat je dan al in eind November zit.
Ik heb geen haast.. Wacht sowieso eerst rustig meerdere reviews af om te zien welke versie van welk merk de beste keuze is voor mij eventueel etc..

Ik heb nu een Intel i7 6700K met 16GB RAM en een RTX 2080 PC die op zich nog prima is.. Als ik nog steeds mijn oude 27" 2560x1440 144Hz monitor had gehad had ik niet eens aan upgraden gedacht voorlopig.. Maar ik heb een paar maanden terug een 38" 3840x1600 widescreen gekocht (LG 38GN950) en die vraagt toch wel wat meer power willen alle games echt lekker draaien (60+ fps) met high/ultra settings.. Daarom wil ik nu ook weer mijn PC upgraden, maar geen haast dus, zeker niet nu er zoveel nieuwe hardware uitkomt snel achter elkaar.. :Y)

[Reactie gewijzigd door Inflatable op 22 juli 2024 15:13]

de Asus TUF is op het moment de beste, niet alleen omdat ie het goedkoopste is maar ook modellen van 800+ euro er uit speelt met geluid, temps en frames
Spijtig genoeg zijn alle kaarten ondertussen bijna 800+ |:(
Behalve inderdaad op sommige plaatsen de niet overklokte Asus tuf, die dan ook massaal in een pre(back)-order staan
Nog een maandje ofzo geduld, dan is de initiële launch hype wel voorbij.. Dan zijn ook de 3090 en 3070 uit en wordt de aandacht en vraag meer verdeelt.. Voorraden en prijzen normaliseren vanzelf de komende maanden..
Er schijnt een constructie te zijn waarin NV de board partners ongeveer 50 euro/kaart betaald voor elke verkochte kaart in de eerste periode na release. Als die periode voorbij is, is het risico dat de kaarten allemaal 50 omhoog gaan om daarvoor te compenseren.

Het zou mooi zijn als de prijzen straks stabiliseren, maar ik verwacht niet dat ze naar beneden gaan voor een hele lange tijd. Tenzijn AMD met iets geweldigs op de proppen komt. Afwachten dus.
Op de site staat €719
https://www.nvidia.com/nl...cards/30-series/rtx-3080/

Ik hoop dat de 3080 gewoon terug op stock komt en voor deze prijs.
Heb liever de gaming x trio die is misschien ietsje warmer maar is muisstil.
Asus TUF OC met quiet BIOS ingesteld is stiller en koeler.
2-3 fps in games is nou niet echt te merken, dan is zuiniger, stiller en koeler toch echt meer te merken
Hoe bevalt die LG 38GN950? Ik zit er ook over na te denken om deze aan te schaffen.

OT: Wachten is wel verstandig omdat je rekening moet kunnen houden met geluid, grootte en natuurlijk de hoeveelheid RGB die je wilt hebben ;)
Goed, ik heb hem al sinds begin juli (was denk ik één van de 1e) en ben er nog steeds erg tevreden mee..
Zelfde verhaal hier, maar wat dat betreft wordt de keuze makkelijk gemaakt door het feit dat ik de komende weken tot maanden waarschijnlijk überhaupt geen 3080 kan bemachtigen.

Een 20GB 3080 spreekt me erg aan, alleen jammer dat de Vision, de enige strakke AIB die ik tot nu toe heb gezien, nou blijkbaar net alleen in 10GB te krijgen zal zijn. Dat is wel apart, want ik dacht dat de Vision series gericht was op creators, en video editors zijn vaak grootverslinders van vram.
Geen merk heeft de modellen met meer VRAM al aangekondigd. Dat dit nu via de Gigabyte website naar buiten is gekomen is helemaal niet de bedoeling waarschijnlijk. Normaal kondigt NVIDIA eerst aan dat er andere modellen komen en daarna presenteren de merken hun modellen. Dus ik zou nog even rustig wachten totdat ze officieel aangekondigd worden dan zal Vision ook wel met hun model komen. Zeker als ze zich speciaal richten op een doelgroep die veel baat heeft bij meer VRAM.
Ik bedoelde de Gigabyte Vision 3080 10GB die in dit lijstje te zien is. Ik ga ervan uit dat dit voorlopig de enige kaarten zijn waar Gigabyte mee aan zal komen zetten.
ik zit in dezelfde boot

eerst maar AMD afwachten en dan van een FX-320 en een HD radeon 6700 series naar zen 3 en wat de beste videokaart word van deze strijd
Zal je net een RTX 3080 10GB gekocht hebben..... en komen ze binnenkort met een RTX 3080 Ti 20GB
Er is een enorm gat te vullen tussen de 3080 10GB (700) en de 3090 (1500) en denk dat ze daar dankbaar gebruik van gaan maken door deze voor zo'n 1000 neer te zetten. Ik zie die meerwaarde niet voor enkel gamen. Vooral niet op 1440p.

Je zal dan net een 3080 10GB hebben gekocht voor 700 terwijl die volgende maand alleen nog maar voor 800+ te krijgen is. :o

Afgelopen twee generaties werden in het begin snel duurder door de hoge vraag en bleven ook duurder. De 2080ti werd met MSRP van 1000 dollar neergezet maar we hebben er hier altijd 1300-1400 voor mogen betalen.

Ik vind het lastig deze kunstmatige prijs spelletjes.
Er is idd een groot gat tussen de 3080 en 3090, daar valt nog "prima" en 20GB en Ti in te passen (discutabel of 1000+ euro vragen voor een GPU goed is though). NVIDIA is denk ik koppig genoeg om niet zijn prijzen te laten zakken of corrigeren als AMD echt competitief gaat zijn. Als je de prijs historie van de laatste NVIDIA generaties terugkijkt op de pricewatch blijven die vaak heel erg constant. En mochten ze dan toch prijs/prestaties een slag moeten slaan, dan zullen ze wel een Super serie uitbrengen die de vorige kaarten EOL maakt.

Ik twijfel ook beetje aan of 20GB echt een goede toekomst investering is. Let wel, ik ben biased, want ik ben voor een 3080 10GB gegaan. Echter, video geheugen is niet gratis, en als een 3080 20GB bvb 200 euro meer gaat kosten, dan moet die 10GB extra video geheugen de bruikbare levensduur wel significant rekken om dat uit laten kunnen. Bvb 4 jaar met een 3080 10GB (800EUR) of 5 jaar met een 3080 20GB (1k) hebben dezelfde "afschrijving", als je daarvan kan spreken in prive gebruik..

Zet het (verwachte) prestaties verlies door geheugentekort na 4 jaar af tegenover gem. 25-30% prestatie winst per generatie, verspreid over 2-3 generaties in 4-5 jaar tijd. Ga je daar met 20GB tegenaan boksen, of zit je in het 5de jaar alsnog met een te trage GPU?
Dit verhaal is natuurlijk beetje afhankelijk wat je wil. Met 4K/8K/high-end VR kan VRAM tekort natuurlijk al veel eerder in zicht komen dan met 1440p, en volgend jaar zal de 4000 serie van NVIDIA er al niet zijn. Ik had liever ook de 3080 met 12GB gezien, maar uiteindelijk denk ik niet dat het echt doorslaggevend gaat zijn.

Tenslotte zijn dit soort product planningen altijd soort schaakspellen. Wat doet bedrijf A, wat doen de bedrijven X & S, etc. Je kan als consument vaak achteraf vaak pas de beste keuze maken. Echter ik zou niet teveel van NVIDIA's prijzen verwachten.
Daarom is een day one aankoop, vooral met de aankondigingen van de concurrent nog in de pijplijn, niet heel slim
Dit was natuurlijk te verwachten, AMD zal waarschijnlijk wel met 16GB versies komen. Nog even wachten voordat ik mijn GTX 1080 inruil.
Ik ga nog even afwachten hoe Cyberpunk draait op mijn 1080. Ik wil die toch echt wel op minimaal 60FPS op 1440p kunnen spelen met het liefst natuurlijk op maximale visuals. Anders was een van de nieuwe consoles wel interessant geweest, maar de 3070/3080's lijken me momenteel een fijnere upgrade.
maximale visuals zal niet lukken met de 1080. Omdat deze functies op raytracing gaan leunen.
Ik zat met hetzelfde dilemma. Het is gewoon jammer dat 1080/Ti geen DLSS ondersteund. Eventueel zou je een goedkope 20xx gaat kunnen aanschaffen zodat je nog echt wel hoge FPS kan halen met alles op ultra i.c.m. DLSS.
Yup, mijn 1080 trekt het nog wel ff
Is het een gek idee om te denken dat Nvidia de productie capaciteit van de huidige 3080 bewust (te) laat houd om na de AMD aankondigingen snel te kunnen schakelen naar een 3080 model met meer geheugen?

Ik vind het gek dat er al zo vroeg zo veel informatie “lekt” over 30xx modellen met meer geheugen...
Denk dat het bewust is gedaan inderdaad. Dit zag je ook in mindere maten met de Super varianten in de 20k serie. Dat werd achter gehouden tot AMD met iets kwam. Wat overigens slecht is voor de consument. Die hadden de prestaties van de "super" varianten al vanaf dag 1 moeten hebben als je het mij vraagt.
Of het is gewoon dat de super variant pas later beschikbaar kon komen door verbetering van het productieprocess en helemaal niet om iets 'achter de hand te houden' vanwege AMD..
Voor de 20xx super kaarten ben ik akkoord. Deze kwamen pas maaanden later uit. En toen was er bij launch van de niet supers nog geen gerucht over snellere varianten.

Maar nu is er nog maar 1 kaart net gereleased...

Ach hoe het ook zit, laat ons hopen dat AMD en nvidea de productie op punt krijgen. Want de vraag gaat hoog blijven de komende maanden-jaar.
Niet echt. De 104 chip voor de 2080 was cut down, voor de super was het de volle chip.
Die paper launch zonder voorraden sloeg nergens op.. Het zaakje stinkt aan alle kanten. Zelfs op hun youtube kanaal zijn die koppen van die gasten totaal niet betrouwbaar

[Reactie gewijzigd door A87 op 22 juli 2024 15:13]

Als de 3090 maar 10% performance gains heeft. gezien de laatste geleakte benchmarks. dan gaat de 16gb en de 20 variant voor een 3080 toch weinig extra in de strijd gooien. Ik denk dat de 3080 10gb variant gewoon de beste bang for buck blijft
Als ze van de 20GB variant een "ti" maken zal het misschien 2 tot 4% beter presteren dan de 3080 wanneer niet een memory bottleneck voordoet ivm de 3090 idd. Daar gaat men dan ook weer een lekkere premium over heen betalen natuurlijk. Tussen 1000 tot 1200 MSRP zal mij niets verbazen.

Edit:

Het feit dat ze dit keer de 102 chip variant hebben gebruikt voor de 80 serie maakt de 80Ti naast de 90 en eventueel 90Ti erg lastig voor ze. Wat ergens ook wel goed is, betekend dat ze iets van AMD verwachten en dat mensen niet een (historisch gezien) midrange chip ontvangen voor een highend prijs.

[Reactie gewijzigd door Galaxydj op 22 juli 2024 15:13]

Jeetje. Ik was rond '97 echt de man met de eerste Voodoo 3DFX-kaart. Ik had de 'middelste' uitvoering met 6MB geheugen. Ja. 6MB. Geen GB. Bizar. Dit zal in elk geval ergens in het prijssegment zitten waar ik eigenlijk niet eens van droom. Ik blijf wel bij de spellen van de vorige generatie op de PC en hopelijk bij de launch* straks de PS5.

Edit: Haha @Freshnub ;) Typo!

[Reactie gewijzigd door Frituurman op 22 juli 2024 15:13]

En bij het avondeten?
Na de aankondiging van cyberpunk systeem eisen denk kan ik ie nog lekker op huidige 6700k/1080/16gb machine spelen op 1440p met redelijk hoge instellingen. Geen behoefte te haasten.
Ga er niet van uit dat die recommended specs voor 1440p gelden, en aangezien Cyberpunk erg veel raytracing toepast zul je voor goede visuals toch echt minimaal een RTX van de 2000 serie nodig hebben, aangezien het in software zoals op de 1000 serie aanzienlijk minder goed presteert.
Mijn systeem is toch hogher dan recommended, daarom zeg ik dat 1440p moet goed uitkomen zonder rtx. 1080 is immers meer dan 2x krachtiger dan 1060. En 6700k is redelijk sneller dan 4790k.

[Reactie gewijzigd door lexkalin op 22 juli 2024 15:13]

1440p is zo'n 75% oftewel 1,6 miljoen pixels meer dan 1080p. Kijkend naar de gemiddelde performance van de 1080 tov de 1060 6GB haal je dat verschil er niet uit zonder de kwaliteit aanzienlijk omlaag te doen.
i7-6700k redelijk sneller dan I7-4790K? 3% mss, maar dat is dan ook echt alles.

mvg
Pff, zeker meer dan 3%. Maar denk wat jij wilt. Genoeg benchmarks op internet terug te vinden. https://youtu.be/D6RsDyMn2gY
een 6700k kan een 3080 net aan daarna echt tijd om CPU te upgraden. In sommige games zit je al met zware problemen zoald BF5 FarCry5.. kan ook komen door slecht programmeerwerk. Maar 10GB is echt krap aan op 1440p met games die nog komen

[Reactie gewijzigd door A87 op 22 juli 2024 15:13]

Een wat flinkere 3080 met meer geheugen zou fijn zijn. Mijn Ultrawide vreet toch best veel video geheugen, dan hebben ook veel spellen 4k textures (of hoger) en dat gaat natuurlijk ook een hoop geheugen gebruiken. 16gb zou al perfect zijn, 20gb zou geweldig zijn. Hopelijk hebben ze redelijke prijzen.

Op dit item kan niet meer gereageerd worden.