Micron: Nvidia GeForce RTX 3090 krijgt 12GB gddr6x-geheugen

Micron meldt in een document dat de komende GeForce RTX 3090 van Nvidia beschikbaar komt in een uitvoering met 12GB gddr6x. Dat geheugen heeft een totale bandbreedte van 912 tot en met 1008GB/s.

Micron noemt de RTX 3090 in het document bij naam en meldt daarbij dat de videokaart gddr6x-geheugen van 19 tot 21Gbit/s krijgt voor een totale bandbreedte van 912 tot 1008GB/s. Het document werd opgemerkt door VideoCardz, dat toevoegt dat de kaart een 384bits-geheugenbus en kloksnelheid van 2100MHz kan krijgen, om tot een bandbreedte van meer dan 1TB/s te komen.

De site meldt verder dat Micron weliswaar de aanwezigheid van 12GB videogeheugen noemt, maar dat er meerdere geruchten zijn die spreken van de aanwezigheid van 16GB, 20GB en 22GB. De kans is groot dat Nvidia zijn RTX 3000-lijn van videokaarten op 1 september aankondigt: op die datum is er een livestream rond GeForce.

Micron onthult in het document ook te werken aan hbm2e-geheugen, voor accelerators die berekeningen voor kunstmatige intelligentie afhandelen. Ook SK Hynix en Samsung werken aan dit type videogeheugen, dat hogere snelheden zal bieden dan regulier hbm2-geheugen. Hbm2e moet nog dit jaar verschijnen maar Micron werkt ook aan hbmnext, dat eind 2022 gereed moet zijn.

Micron hbm2e SK Hynix hbm2e Samsung Flashbolt hbm2e
Capaciteit 16/32GB 16GB 16GB
Bandbreedte per pin 3,2Gbit/s 3,6Gbit/s 3,2Gbit/s
Totale bandbreedte per stack 410GB/s 460GB/s 410GB/s

Door Olaf van Miltenburg

Nieuwscoördinator

14-08-2020 • 15:57

103 Linkedin

Submitter: IM_YOUR_MAMA

Reacties (103)

103
102
71
6
0
23
Wijzig sortering
De huidige architectuur van nVidia gebruikt 8-12 geheugenkanalen met 1 of 2 GB per kanaal.
De Titan is 12 kanalen. De Ti meestal 11.

Hiermee is een 12GB kaart mogelijk sneller dan een 16GB kaart, omdat de eerste 12 kanalen heeft en de tweede maar 8.
Ik ben benieuwd of deze kaarten raytracing op 4K vloeiend krijg. Ben bang van niet, aangezien het erg veel rekenkracht vereist.
De ray tracing performance zou 3-4x zo krachtig zijn t.o.v. Turing, dus ervan uitgaande dat dat klopt zie ik 4K60 met (gedeeltelijke) ray tracing nog wel gebeuren met een 3080 of 3090, want 1080p60 met RT was ook mogelijk met een 2080. (4k heeft 4x zoveel pixels als 1080p.)
Hoewel het een viervoud aan pixels is staat dat zelfs in (de veel minder complexe) deferred render-pipeline niet in een lineaire verhouding. :)

Waar dit bij forward-rendering vaak een nagenoeg logaritmische verhouding had, is dat bij deferred minder geworden. Maar dat is met behulp van baking; het voorberekenen van dingen als shadowmaps/reflection-cubes.

Bij rtx mag je aannemen dat aardig wat dingen alsnog via dezelfde benadering gaat als bij norale moderne render pipelines, er worden echter lagen op toegevoegd die in realtime uitgevoerd worden, en váák met een heriteratief karakter (zoals Global Illumination en raytraced reflections, zeker wanneer meerdere reflecterende oppervlakken elkaar reflecteren met voldoende raydepth.).

Er zijn namelijk m.i. niet genoeg rtx-games om de kaart op zon manier functie-specifiek te kunnen maken zonder te veel in te moeten leveren op de normale games (al gaat het zelfs vooral benchmarks).
Allemaal mooi, leuk en aardig, maar het ontwikkelen van een game die al deze rekenkracht nodig heeft duurt minimaal 3 jaar, maw nu krijg je pas games die bij de introductie van de duizend serie zijn begonnen met het ontwikkelen.

Voor ons consumenten is dat goed nieuws, want een kaart gaat veel langer mee dan vroeger, denk dat dit ook meteen verklaart waarom je vroeger een high end kaart kocht voor rond de € 500 en dat je er nu het dubbelen voor betaald.

Natuurlijk is het een kip ei effect, maar ik denk dat je nu met je 2080.....huppeldepup nog heel lang kan doen, en over 3 jaar krijg je de meerwaarde pas van je 3000 serie, maar dan moet je natuurlijk die 4000 serie hebben.....................
Voor ons consumenten is dat goed nieuws, want een kaart gaat veel langer mee dan vroeger, denk dat dit ook meteen verklaart waarom je vroeger een high end kaart kocht voor rond de € 500 en dat je er nu het dubbelen voor betaald.
2013 - 780 ti - 699
2015 - 980ti - 699
2017 - 1080ti - 699
2019 - 2080ti - 1050

Ik ben er nog steeds heilig van overtuigd dat de explosieve prijsstijging een direct gevolg is geweest van de toename in vraag vanuit de cryptomining hoek. Wat ik me afvraag is of ze ooit weer terug gaan richting het oude niveau nu een groot deel van de goudzoekers met lege handen huiswaarts is gekeerd. Verklaringen als duur geheugen gaan er bij mij iig niet in.
De altcoin mining hype is wel een beetje over, hoop idd ook dat ze flink gaan zakken met de prijs.
Echter gaat dat niet op tenzij je je een behoorlijke mate van kosten-inefficiëntie op kan veroorloven omdat je performance/kostenverhouding terug loopt voor een feature die nu en de komende x jaar amper gebruikt kan en dus zal worden.

Ik zie rtx gewoon niet groot worden voordat dit een op een meer agnostische manier benaderd wordt om bovenstaande reden. Mensen met een menselijk budget kiezen namelijk graag die paar extra procenten performance voor hetzelfde geld in games die nu al en de komende jaar ook gewoon blijven uitkomen; een daadwerkelijke benodigdheid is er dus niet voor rtx en NVIDIA is de enige die daar verandering in kan brengen door de prijzen zo te maken dat rtx op zichzelf geen investering voor de consument is.
Interessant! Ik had altijd al het gevoel dat het aantal pixels niet evenredig was met de performance, maar dit bevestigt mijn vermoeden dus. Kan je misschien nog uitleggen in welke orde van grootheid je moet zoeken qua performance bij een verdubbeling in resolutie bij een bepaalde vorm van rendering?
Hangt héél erg af van de onderlinge technieken die wel of niet gebruikt worden, dat maakt het mede zo verdomd moeilijk om, ondanks beste intenties, zowel geen over- als onderschatting te maken.
Het kan bijvoorbeeld al absurd moeilijk zijn om een vergelijking te maken waar een "normale" Unreal PBR deferred scene met enkel diffuse (materiaallaag), lighting, ScreenSpace Reflections (SSR) tegenover hetzelfde met als énig verschil raytraced reflections vergeleken word. Of beter gezegd; resultaten die je dan in één scene kan waarnemen zullen zelden representatief blijken voor andere.

Nog vervelender voor het maken van een schatting is dat, afhankelijk van de eisen van de developer er nogal wat keuzes gemaakt kunnen worden die tussen de uitersten in liggen.

Zo lijkt het aannemelijk dat wanneer reflecties middels rtx gerenderd worden we dit voor objecten op een grotere afstand mogelijk alanog niet doen, en terugvallen op de trucagemethoden die we al jaren toepassen omdat dat minder performance kost en we op grafisch niveau zo goed als geen onderscheid kunnen maken (ik verwijs dan graag als voorbeeld naar de Neon Noir techdemo die precies dit voorbeeld presenteert).

Hetzelfde lijkt te gelden voor schaduwen; er zijn al voorbeelden waar een combinatie van baked lightmaps gebruikt worden voor bijvoorbeeld de statischere schaduwen/lichten, maar alle belichting van de zon en bijv lampen alsnog realtime berekend worden (ook bij de "normale" deferred werd vaak een combi van die twee gebruikt.)

M.I. is de enige veilige aanname die je kan maken dat het mínstens dezelfde tijd kost als dezelfde kaart op enkel deferred nodig had gehad, aangezien voor zover we afwijken van die rendertechniek we dat énkel doen voor bepaalde sub-onderdelen en de vervangende methoden zondermeer intensiever zijn dan de non-rtx methoden, of at-best na een gróte hoeveelheid optimalisatie (waar we vast nog lang niet zijn) een vergelijkbare rekentijd kost middels doelgerichte hardware/architecturen.
Er zijn op YouTube minecraft en control filmpjes met raytracing in 720p, 1080p en 4k. Kan je zelf interpoleren.
Je raakt hier best een complexe thema aan wat heel erg afhangkelijk is van de volgende factoren:
- De complexiteit van je scene
- Hoe de shaders geprogrammeerd zijn
- De hardware architectuur waar je je berekeningen op los laat.

Als je vanuit de perspectief van rasterization kijkt en je hebt super simpele shading en scene, de hoeveelheid rekenwerkt is juist naar de verhouding efficienter naarmate de resolutie groter wordt. De reden daar van is dat de hoeveelheid vertex berekeningen gelijk blijft en alleen de pixer werkt veranderd.

Dus als je 1 pixel zou tekenen, je moet als nog alle vertex berekeningen uitvoeren en maar 1 pixel shaden. En andersom, als de resolutie groter is, je vertex werk blijft gelijkt alleen je moet meer pixels shaden. Dus naar verhouding, je verlaagt de vertex kosten per pixel als je meer pixels tekent.

In werkelijkheid de process is iets meer complex en heeft temaken met de implementatie van de hardware waar je op draait. Dus je komt gauw tegen bepaalde beperkingen aan waarom iets ergens niet lekker meer schaalt.
meschien een rare opmekring maar ray tracing gebeurd toch in de world space en niet in de viewport.

dat zou namelijk beteken dat het resolutie onafhankelijk is want de ray traced hij in de room en niet in de viewport.

komt voor mij met mijn kennis van unreal editor en traces raar over als een ray buiten de viewport niet getraced wordt. je weet immers niet of hij via een bounce weer terug in de viewport komt.
Is wel resolutie afhangkelijk. Afhangkelijk van je raytrace-configuratie en de scene, wat je doet voor iedere pixel:
- Primary ray + shading (shadow rays + matrial)
- Secondary rays, aantal bounces of refractions + shadow rays + matrial.

Dus de werk die je moet uitvoeren is proportioneel aan de hoeveelheid pixels in je viewport.
maar dat is toch niet logische dan zou je voor elke pixel de zelfde trace moeten herhalen.

Zou toch veel logischer zijn om de traces vanaf de lichtbron te doen en die informatie te gebruiken tijdens de pixel generation?

net als objecten buiten de viewport ook berekend worden alleen nooit in de pixel render komen omdat ze niet in de viewport zitten.
Heeft met de performance te maken. Als je alle rays in een kamer gaat berekenen, bereken je er ook een hoop die je niet nodig hebt en nooit in t ‘oog’ (de viewport camera dus) terecht komen. Door ze logica om te draaien bereken je alleen de Rays die je daadwerkelijk ziet.
Maar dat moet je toch andes weet je niet of hij wel of niet in de view port komt.

Een ray met 3 bounces kan 2 bochten om.
Ik denk dat 4k mogelijk is, maar nog niet op 60 fps... Misschien met twee 3090's... Puur omdat je zelf al aangeeft dat 1080p60 mogelijk was met 2080 en je er van uit gaat dat 3090 in eens of minstens 4x zoveel kan presteren.
4K60 met een 2080 Ti was in veel games al bijna mogelijk, dus een 3080 of 3090 kan dat gewoon.

De ray tracing performance is bij een 2080 Ti veel lager dan de rasterization performance, omdat de 2080 Ti te weinig ray tracing cores had ten opzichte van de normale cores.

De ray tracing performance zal 3-4x hoger zijn, naar verluid. Omdat 1080p60 mét ray tracing mogelijk was op een 2080 Ti, en 3 tot 4x 1080p ongeveer 4K is, denk ik dat 4K60 wel mogelijk gaat zijn op een 3080 of 3090.
Maar de hoeveelheid Ray Tracing in games is echt minimaal omdat het zeer zwaar is voor de GPU. Voordat games volledig Ray Tracing hebben zijn we al makkelijk 15+ jaar verder.
Klopt helemaal.
De demo van battlefield benutte pas 4% van de volwaardige mogelijkheid.

En daar werd gebruik gemaakt van 2x een RTX Titan met 24GB RAM, 10-core cpu en 64GB RAM, waarbij ik vermoed dat het allemaal ook nog eens van speciale koeling en een overclock voorzien was.

Hier werden de kaarten voor 100% belast en de demo was op 1080p.

Tegen de tijd dat we 4K gebruiken zullen we inderdaad jaren verder zijn, of er moeten rote doorbraken komen in het gebruik en optimalisatie van deze technologie.
Na een aantal patches en driver updates kan je prima raytracing games op 1440p spelen met een 2070 zelfs.
Het hangt van de game, settings, soort ray tracing en in mindere mate achtergrond software af.
Vrijwel elke mainstream game, BFV, Control, Minecraft, TR en Metro.
raytrace != raytrace

Alles hangt af van hoeveelheid traces die jij toe staat voor wat de performance en quality is.

Doet 1 lichtbron 100 traces of 10 miljoen traces ? en bounced deze ray 1 keer of 10 keer. Dit is al 100 VS 100.000.000 traces die gedaan moeten worden.

[Reactie gewijzigd door Scriptkid op 15 augustus 2020 10:01]

Dat is hier het punt niet, natuurlijk is het niet dat het volledig raytraced games zijn en rasterization volledig opzij gooien. Maar dezelfde games na initiele launch hebben flinke verbeteriongen doorgevoerd. Nu kan je op 1440P Control spelen met alle raytracing effecten, 60fps op een Geforce 2070 Super. BIj launch haalde je rond de 30 a 40fps. Dat zijn verbteringen terwijl het grafisch een heel stuk mooier in met RTX aan dan uit.
Het zou me niks verbazen als Nvidia straks met dedicated raytracing kaarten komt om zo de RTX gaming kaarten te complementeren. Raytracing is namelijk niet alleen leuk in games, maar ook met 3D applicaties.

[Reactie gewijzigd door MrFax op 14 augustus 2020 16:42]

Zelfde geintje als destijds met Ageia physics-kaarten wat nVidia heeft opgekocht.

Benieuwd of dit dan wel aanslaat? Denk het zelf van niet..
Ageia voegt ook echt wat toe toe. Het uit kwam. Nvidia had de potentie van de technologie snel door en kocht het bedrijf op.
Nu is het een veelgebruikte technologie en hebben de kaarten het gelukkig standaard.

Hetzelfde geintje kunnen we dus niet echt over spreken, omdat het destijds 2 verschillende bedrijven waren.
Physx is door Nvidia juist vakkundig de nek om gedraaid.

Er waren jaren geleden games die leuker met physics omgingen, dan de nieuwste spellen nu.
Zo heeft Nvidia vakkundig 3DFX de nek omgedraaid :(
Je bedoelt dat 3DFX dat zelf gedaan heeft? Door meerdere foute bedrijfs keuzes en het te laat uit brengen van producten. Hun voodoo 1/2/3 waren super kaarten de rest was maar middelmatig. Tegen de tijd dat voodoo 5 op de markt zou moeten komen waren ze al bijna failliet. Nvidia heeft toen 3DFX opgekocht voor de IP.
Ik weet niet of je het nek omdraaien kan noemen. 3dfx was al vanzelf failliet aan het gaan en werd opgekocht door nvidia. De kennis en mensen zijn gewoon in nvidia opgenomen.
Kijk eens naar games waarin gras realistisch beweegt, hoe haren van de personages bewegen.
Hoe een steen stuitert als je deze gooit....

Het wordt juist nogal volop gebruikt, het is aan de game ontwikkelaars om te kijken waar ze dit aan willen besteden.

Dat er geen games uit komen met volledige omgevingen die je kan verwoesten heeft misschien een reden...
Destijds verkochten deze games misschien niet goed genoeg, de massa was er niet warm voor te maken.

Want hoewel jij en ik dit misschien prachtig vinden, als dit soort games echt genoeg verkocht waren geweest. Dan hadden we ze nog steeds dit soort titels zien verschijnen.
Kijk eens naar games waarin gras realistisch beweegt, hoe haren van de personages bewegen.
Hoe een steen stuitert als je deze gooit..


Moet ik daarvan onder de indruk zijn anno 2020? Crysis had tig jaar geleden al verwoestbare struiken, bomen, gras wat meebewoog, huisjes die je kon opblazen. Bad Company 2 had een map die grotendeels met de grond gelijk kon worden gemaakt.
Physx is door Nvidia juist vakkundig de nek om gedraaid.
Onder de indruk of niet, het is dus niet de nek om gedraaid. Het bestaat nog steeds.
jij geeft juist aan dat Nvidia de technologie heeft stop gezet.

Edit: TYPO

[Reactie gewijzigd door JBVisual op 15 augustus 2020 21:08]

Maar dat heeft niets te maken met Physx als proprietary techniek. Dat zijn voor het grootste deel gewoon physics in de game engine ingebakken.
Doet me een beetje denken aan de tijd dat er als extraatje een low profile 9500gt draaide in mn kast voor de physX :+
Dat doen ze nu toch ook lol.

Alleen zit die losse kaart op de zelfde PCB -> RT cores zijn de dedicated hardware Daarnaast zitten er nog tensor cores bij.

Wil je een losse kaart zonder te betalen voor die addons dan neem je een Non RTX kaart.
Met DLSS2.0 sowieso wel, het is dan wel niet native, maar het lijkt bijna gelijk.
Ik verwacht zelfs dat hier nog veel meer winst mee te behalen valt. Hopelijk kan daardoor het raytracen ongeveer lineair opschalen, in de toekomst.
volledig met raytracing gerenderde scenes kan op 320x240 nog niet eens op veel meer dan 1fps...afhankelijk van de content. t is maar hoe "weinig" je t implementeert.

vind zelf de raytracing toevoeging bij games nog erg tegenvallen. de trucjes die ze tot nu toe toepasten om echte reflecties en schaduwen toe te passen zijn vaak nog net zo goed of zelfs beter dan de raytracing toevoeging.

dat er een hoop vergelijkingen zijn van "met raytracing" en "zonder" die idd veel beter ogen, is omdat er vergeleken word tussen raytracing en "niks". vergelijkingen met " trucjes" of raytracing is veelal vrij moeilijk te zeggen welke beter is.

mja, elke 2jr 4x performance erbij, en we hebben over een jaar of 30-50 echt raytracing in games...kan niet wachten.
I.v.m. RT ... na alle patches en updates speel ik Control hier op een resolutie van 2560x1080, op een RTX2080 ti alle settings op de max instelling, ook met RT op max ( maar wel met DLSS ), en dat haalt gemiddeld ongeveer 100fps. 4K is toch echt wel een pak zwaarder.

Dus ook al is de nieuwe 2-3 keer sneller met RT, dan nog zal dat op 4K amper beter scoren dan 60 fps vrees ik.
Als je dan kijkt wat je ervoor terug krijgt, vind ik RT zoals het nu slechts mogelijk is, ook niet echt de moeite. ( RT zoals in Maya of 3Dmax zal het nog niet zo snel worden )

Zelfs niet na alle optimalisaties. De terugval is nu minder tov tijdens de launch, ok, maar visueel tijdens het gamen valt dat allemaal niet zo hard op. ( voor minder dan high RT settings in Control zou'k ook niet gaan, dan mag het voor mij gewoon af staan ).

... ik ben net zoals iedereen dus benieuwd hoe snel die nieuwe RTX kaarten gaan zijn tov de huidige, en of/hoe AMD Nvidia het moeilijk kan maken... Ik herinner me nog levendig mijn grootste miskoop ooit , de Geforce 5900 Ultra, eens de shaders kwamen in de games, was die kaart niet vooruit te branden. Hopelijk verloopt het met RTX nu wat beter.
Er zit blijkbaar een extra chip(Co-GPU?) specifiek voor raytracing. Vandaar dat vreemde heatsink design.

12gb lijkt me waarschijnlijker dan de 24gb die eerst gemeld werd. Dan zou die kaart dik over de 2.000 euro gaan.

[Reactie gewijzigd door kr4t0s op 14 augustus 2020 17:45]

vroeger had je naast de CPU een Coprocessor... naast de 8086 een 8087 of naast een 286 een 287.
Later werd dat samengevoegd in één chip.

Nu hebben we dus al GPU's(!) met een co-GPU voor extra rekenkracht.

Het gaat er nog wel van komen dat GPU's volwaardige computers gaan worden.
Ik heb nog een aardig unieke coprocessor in me sparc machine zitten om zo naast sparc64 instructies ook x86 te kunnen draaien😀
klopt dat was de zogenaamde co processor die veel rekenwerk deed zonder dat de hoofdprocessor dat hoefde uit te rekenen.
Dat was toch een pure fantasie gebaseerd op dat gelekte design van de koeler? Volgens mij is er echt nul onderbouwing voor een extra chip die raytracing zou doen.
Met dat AI upscaling systeem (DLSS 2.0) is dit al mogelijk. Uiteraard geen native 4K, maar het komt érg dichtbij.
Maar gok dat deze nieuwe kaarten dit een stuk beter 'native' zouden kunnen doen.

Vraag mij dan wel af of die nieuwe kaarten dan zometeen DLSS (3.0?) kunnen gaan gebruiken voor 8K TV's en gaming...
DLSS 2.0 is ronduit indrukwekkend. Mijn RTX 2060 schaalt Death Stranding op naar 4K, 60fps (in performance mode) met alle grafische settings gemaxed. Het resultaat ziet er echt goed uit.

Ik verwacht dat er in de toekomst veel meer gebruik gemaakt gaat worden van dit soort technieken in plaats van brute rekenkracht toe te voegen.
Uiteraard geen native 4K, maar het komt érg dichtbij.
Volgens mij heeft Nvidia ook beweert dat DLSS 3.0 of latere versies er mogelijk beter uitzien dan native. Hoe dat kan weet ik ook niet, maar het klinkt als een win-win situatie als dat echt zo is.

Pre-post edit:
DLSS 2.0 ziet er naar verluid beter uit in Control dan native.
https://www.notebookcheck...it%20to%20image%20quality.
Dat gaat er heel erg aan hoeveel ray tracing. Wat ray tracing effects in een hybrid renderer? Sure! dat gaat hij prima doen. Full-on path traced scenes met complexe lighting situaties en complexe materialen? Dat gaat nog jaren aan ontwikkeling duren.
Samen met DLSS 2.0 denk ik dat het met deze kaart wel gaat lukken.
Vloeiend met welke game/toepassing?
Lijkt me niet zo belangrijk te zijn. Er zit me dunkt meer toekomst in technieken zoals DLSS en Variable Shading. Focus op de pixels die belangrijk zijn inplaats van veel kracht te verspillen aan rauwe 4K
Ik ben ook benieuwd! Maar verder denk ik het ook niet. Maar er is altijd hoop. Als het in deze kaarten niet zit. Dan is zit het waarschijnlijk wel in de volgende generatie kaarten.

[Reactie gewijzigd door JustJoostNL op 14 augustus 2020 16:28]

Als de ray trace prestatie x2 is dan is denk ik een groot deel van het probleem met de fps dip al wel opgelost bij 3x krijg je er zelfs nog wat pracht en praal voor terug. In een ideale wereld is het rtx deel even snel als de fps die je ongeveer met de kaart haald.
Ik heb iets gemist. Zou de 3090 nog een stap boven de 3080Ti zijn, of is dat een rebranded workstation-kaart (ex-quadro)?
Voor zover ik weet gaan ze geen ti suffix meer gebruiken, omdat het te verwarrend was of zo. De 3090 kaart is dus gewoon een hernoemde 3080ti in feite.
De x90 is ook verwarrend want de 90 werd vaak gebruikt voor dual GPU zoals de GTX690 en AMD HD7990.
Ik denk dat dat hooguit verwarrend kan zijn voor mensen die zo diep in de materie zitten dat ze er wel overheen komen. De meeste mensen weten dat echt niet (meer), dat 90 kaarten dual gpu waren.
Ik ging er eigenlijk stiekem vanuit dat ze de hete adem van AMD voelen en weer een xx90 dual GPU maken om toch nog de beste GPU te hebben. Ik hoop van niet want dual GPU support is nogal treurig deze dag.
Nouja, is compleet afhankelijk van hoe dual GPU afgehandeld wordt, zou tegenwoordig goed kunnen dat er dus extra hardware bij zit waardoor het OS deze puur als 1 GPU ziet (maar dus wel 2x zo krachtig als een enkele).
3090 zouden praktisch gezien 2x een 3080 aan elkaar geplakt zijn (zoals voormalige 90 series kaarten).
maar verwacht niet dat deze gelijk bekent wordt gemaakt.
Dat was vroeger zo. Zowel AMD als NVIDIA hebben dual-GPU kaarten opgegeven. Het lijkt dus een lichte wijziging te zijn in NVIDIA's naming scheme maar dat zal op 1 september bij de aankondiging wel duidelijk worden.
Zet je 2080ti maar vast in de verkoop voor 600 euro
Als de ray trace prestatie van de 3070/3080 tegen valt is 600 nog wel acceptabel als die echt veel beter is zou ik er met moeite 400 voor geven.
Dat gaat niet snel gebeuren, de prijsstelling van die nieuwe kaarten gaat om achterover te vallen zijn.
( en niet dat het voor mij relevant is, maar alle mensen die Vega's overgeslaan hebben wegens hun stroomverbruik, die gaan ook achterover vallen van de nieuwe Geforce kaarten ).

Denk niet dat iedereen met een 2080ti persé gaat willen upgraden...
Een 2080 ti (of welke xx80 ti dan ook) kopen de meeste mensen om in ieder geval één generatie over te slaan. Paar vrienden van me die de 1080 ti hebben gaan nu een mooie upgrade tegemoet.
Waarom zou men dat doen???? voor mij presteert deze kaart nog zeker goed genoeg voor een paar jaar zeker op mijn 3440x1440 resolutie.
Zelfs een GTX 1080 is goed zat mits lage settings en reso... zo kan je eindeloos een discussie voeren.
Open metro op MAx settings en een 2080ti gaat huilen. En dat is maar 1 spelletje, Zo zijn er meer games die zwaar leunen

[Reactie gewijzigd door A87 op 16 augustus 2020 15:27]

Mijn vorige was de 1080ti en deze had het toch wel lastig op 3440x1440 hoogste settings, daarom een 2080ti upgrade gedaan. En deze heeft het niet lastig om die reso goed te draaien niks gehuil, dus daarom dat ik nog een tijd voort kan met de 2080ti. Totaal nutteloos en geld verspilling om naar een 30x te upgrade nu.
Oké, misschien mis ik iets, maar: Ik zie best nog wat mentions met Ray Tracing, en ik vraag me oprecht af wat RT nou écht toevoegt aan de game-ervaring anno 2020. Sure, het is een toffe techniek die deuren opent voor 3D-developers, maar ik zie dat pas ergens in 2025 gebeuren. Waarom zou ik een videokaart kopen die een groot deel van zijn rekenkracht/pcb ruimte opoffert voor een niche-techniek? Of voegt het al iets toe aan de huidige non-RTX games?
Volgens mij is de fps impact met de nieuwe gpus best te overzien mbt raytracing. Zelfs de nieuwe consoles hebben raytracing.
Nouja, wil RT echt standaard worden tegen 2025 dan zal het nu toch al lang moeten beginnen, games moeten het nog allemaal gaan ondersteunen (immers moet je wel je materials etc correct voor maken, wat gelukkig tegenwoordig al veel vaker gebeurd). En als je niet begint dan valt er dus ook niet zomaar wat aan te verbeteren.
Maar RT geeft wel degelijk extra's.
Mij lijkt 12GB gddr6x zeker meer dan genoeg voor een gaming GPU. De geruchten dat er ook varianten/kaarten met 16GB, 20GB en 22GB zouden zijn lijken mij minder geloofwaardig, tenzij het hier weer gaat over een soort van TITAN/business variant.
Voor bepaalde taken is het zoals je aangeeft erg interessant (denk deep learning) maar misschien heeft het voor bepaalde gamesettings ook wel een nut? Ik heb hier geen ervaring maar misschien kan iemand het toelichten: misschien hebben zaken als VR en raytracing baat bij meer VRAM? Het enige dat ik weet is: des te meer pixels des te meer geheugen je nodig hebt. Maar 8K is (nog?) niet echt aangeslagen en voor 4K denk ik niet dat je 12+GB nodig hebt. Dus de reden voor plots zoveel meer geheugen is me ook niet duidelijk.
Voor de race-sim opstelling is 3 monitoren geen uitzondering en ga je over de 8k heen. Wellicht daarvoor wel intressant?
Betwijfel het. De games daarvoor, iracing en rfactor, zijn grafisch dusdanig dat je voor goede performance zelfs nu met een midrange kaart al meer dan prima uitkomt, 12GB is daarvoor al behoorlijk overkill, tbh.
Uh hoe dan ? 3x 4K is 3/4e van 8k
Nvidia zet steeds meer in op AI oplossingen en die willen vaak wel een hoop VRAM hebben.
Ja er zijn wel doeleindes voor. Maar het zou mij wel erg verbazen als Nvidia ineens zo consumer friendly is dat je zomaar een berg VRAM krijgt op je consumer kaart.
super mooi spul, alleen heb er geen 1300-1700euro voor over
Ja de prijzen zijn pittig zelg wil ik niet meer dan 550 uit geven (2 maandjes na de release als alle benches binnen zijn) maar hoop daar toch el minimaal 2080 super prestaties voor te krijgen. En dat vind ik al een enorme puist geld.
Even voor de vergelijking, moeten we de 3090 als "Ti" zien? Of is daar nog niets over bekend.
Volgens mij de Titan.
Geruchten zeggen dat de 3090 een 3080 Ti is, dat de naamgeving is veranderd.
Gehele stuk hier te vinden, alleen houd er rekening mee dat je deze dan ook direct downloaden via deze link hieronder:

Klik

Volledige link: https://www.google.com/ur...Vaw05LPRiIX_P1YDDasSNQKVv

[Reactie gewijzigd door SSDtje op 14 augustus 2020 19:51]

Als de kaarten uitkomen, zijn of komen de nieuwe consoles ook uit. Erg benieuwd hoe dat tegen elkaar verhoudt en hoe het eruit ziet.

Iets wat ik nooit echt lees (of op let) is hoe zit het met het energieverbruik van grafische kaarten als we kijken naar performance per watt? Is dat ook zo’n wapenwedloop als bij de cpu’s?

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee