Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia GeForce RTX 2060 lijkt varianten met 3GB, 4GB en 6GB te krijgen

Gigabyte heeft handelsnamen voor 40 verschillende RTX 2060-videokaarten geregistreerd. Daaruit is op te maken dat er varianten met 3GB, 4GB en 6GB vram komen. Ook lijkt het erop dat er zowel versies met gddr6 als uitvoeringen met gddr5 of gddr5x komen.

Gigabyte heeft de namen van de videokaarten geregistreerd bij de Eurasian Economic Commission en dat werd opgemerkt door Twitter-gebruiker Komachi. Uit de codenamen is op te maken dat er RTX 2060-uitvoeringen met 3GB, 4GB en 6GB komen. Van de GTX 1060 bracht Nvidia versies met 3GB en 6GB uit, waarbij ook het aantal cudacores verschilt. Mogelijk is dat ook bij de nieuwe RTX 2060-varianten het geval.

Als er een 4GB-variant komt, moet Nvidia de breedte van de geheugenbus aanpassen. Het zou net als bij de RTX 2070 om een 256bit-geheugenbus kunnen gaan, of om een veel langzamere 128bit bus. Een kleinere bus zou gecompenseerd kunnen worden door gebruik te maken van snel geheugen. De 6GB- en 3GB-versies krijgen een 192bit-geheugenbus vanwege hun configuratie.

In de lijst staan varianten met GD- en GC-aanduiding. Eerstgenoemde wijst op de aanwezigheid van gddr6-geheugen, terwijl GC staat voor gddr5 of gddr5x. Bij de registraties van Gigabyte staan van zowel de 3GB-, 4GB- als 6GB-uitvoeringen GD- en GC-varianten. Daarmee lijkt het er dus op dat Nvidia met zes configuraties van de RTX 2060 komt.

Vermoedelijk presenteert Nvidia zijn GeForce RTX 2060-videokaart tijdens de CES-elektronicabeurs begin volgend jaar. De fabrikant houdt daar op 6 januari een persconferentie. Het is de verwachting dat er dan ook RTX-videokaarten voor laptops worden aangekondigd.

Begin december lekte er al een afbeelding uit van een RTX 2060-videokaart van Gigabyte. Volgens VideoCardz krijgt deze 1920 cudacores. De eerder uitgebrachte RTX 2070, 2080 en 2080 Ti hebben respectievelijk 2304, 2944 en 4352 cudacores.

Door Julian Huijbregts

Nieuwsredacteur

26-12-2018 • 09:50

140 Linkedin Google+

Reacties (140)

Wijzig sortering
Heb het al eerder gezegd, maar blijf erbij, als Nvidia een beetje aan zijn klanten wil denken, maar ook aan hun eigen winst, zouden ze in mijn optiek het best de volgende branding kunnen doen:
1000 Series: Uitfaseren, oude stock opmaken, niks veranderen.
1100 Series: GTX, zelfde line-up als 1000 series, geen raytracing, zelfde snelheid (zonder RT) als 2000 series, +25% van prijs t.o.v. 1000 series, totdat oude voorraden op zijn van 1000 series, dan naar prijsstelling trekken van 1000 series (in stapjes)
2000 Series: RTX, Raytracing, High-End, dus 2070, 2080, 2080TI en evt Titan RT, +25% t.o.v. GTX 1100 series.
3000 Series: Low/Mid end met minimaal RTX 2070 capaciteit.

Maar ja, wie ben ik.....
Ik snap niet helemaal waarom er nog (steeds) een 3GB versie komt, het was ten tijde van de GTX970 al duidelijk dat dit eigenlijk erg ondermaats is (afgezien van het "sjoemel geheugen" van de 970)
deels omdat het voor 1080p soort-van genoeg is, en omdat nv heel veel kan verkopen op naamsbekendheid (xx60 'maar dan iets goedkoper').
deels omdat het voor 1080p soort-van genoeg is, en omdat nv heel veel kan verkopen op naamsbekendheid (xx60 'maar dan iets goedkoper').
Vergelijk het met een Ford Fiesta met 1.0 motor en 60pk. Voor huismoeders prima, maar ontoereikend voor op de snelweg. Niemand verplicht jou de instapversie en dus 3GB variant te nemen. Dan maar even doorsparen voor 4GB. ;)
Ik vraag me toch af waar deze mythe vandaan komt, ik heb enkele 1060 3GB's gehad, en weer verkocht en meerdere keren is de koop afgeketst omdat ze toch een 1050ti 4GB hadden gekocht. Want 4GB vs 3GB.

Veel RAM is handig als je op hoge resoluties speelt. Maar nog belangrijker is een GPU die hoge resoluties aankan. Leuk als je 6GB versie 14 frames doet op 4K en een 3GB versie doet 'maar' 10 frames, maar beide totaal nutteloos op 4K.

Ik heb in mijn PC liever een i7 met 4GB RAM dan een Celeron met 16GB of mijn part 32GB RAM.

En nog even doorsparen voor de 4GB, wie zegt dat de 3GB de langzaamste is? wellicht komt de 4GB versie met 128bit GDDR5 en de 3 en 6GB met 192bit geheugen. dan is het nog maar de vraag of de 3GB de langzaamste is, ik noem maar wat.

[Reactie gewijzigd door toeschouwer op 26 december 2018 12:28]

Het is geen mythe want Nvidia rust die x60 kaarten ook steeds uit met een achterlijk smalle bus. Veel games leunen veel zwaarder op het VRAM dan enkele jaren geleden, en veel swappen is niet meer zo strak geregeld als vroeger toen we met 2GB kaartjes (en veel minder assets/textures) aan konden.

Sinds de consoles 6GB te verslinden hebben, is het nut van veel VRAM explosief gestegen en zie je véél situaties die aan 3GB net niet genoeg hebben. Of net wel, maar alleen als er voldoende bandbreedte is om veel data te verplaatsen. De midrange 3GB kaartjes komen daarin tekort. Terwijl de core beter kan. De balans is voor een heel aantal games gewoon niet ideaal.

Daarbij betekent 3GB dat je texture quality vaak omlaag moet terwijl dat helemaal niet nodig zou zijn op een identieke GPU met 4-6GB, terwijl het qua immersie een enorm verschil maakt. Kortom: 3GB midrange; AVOID. Die paar tientjes besparing is het niet waard en puur naar gemiddelde FPS en alleen reviews/benches kijken is de klok horen luiden maar niet weten waar de klepel hangt.

Overigens geldt dat ook voor de andere voorgestelde alternatieven met 128 bit bus en dergelijke. Dat zijn specs uit 2013. Het is inmiddels bijna 2019. Denken dat je dan geen grote concessies op kwaliteit moet gaan doen is jezelf voor de gek houden. En ja, ook op 1080p speelt dat gewoon.

[Reactie gewijzigd door Vayra op 27 december 2018 10:55]

Het is geen mythe want Nvidia rust die x60 kaarten ook steeds uit met een achterlijk smalle bus. Veel games leunen veel zwaarder op het VRAM dan enkele jaren geleden
En AI onderzoekers malen daar weer niet om. Ik kijk serieus naar de inzet van 1060's voor de commerciële uitrol van neurale netwerken. De meerprijs van een 1070 of 1080 is niet te verantwoorden; zoveel extra cuda cores hebben ze niet.
Niet alle GPu's zijn meer voor gaming, dus een variatie in specs is logisch.
Ik denk niet dat Nvidia deze kaarten voor die niche in de markt zet. Dat strookt totaal niet met de historie van dit segment, toen er nog geen AI was, deed ze hetzelfde. Dit zijn Geforce, dus primair gaming GPUs. Dat je er ook andere dingen mee kunt, uiteraard, maar dat lijkt me hier weinig relevant en zeker niet 'logisch' om die reden. De logische reden is winstmaximalisatie, en een groep consumenten die geen benul heeft van VRAM een kaart laten kopen die al snel aan een upgrade toe is. x50ti / x60 is een beetje de gateway drug voor de high-end wat dat betreft. Er mankeert altijd wat aan, maar slecht kun je het nét niet noemen.

[Reactie gewijzigd door Vayra op 28 december 2018 11:42]

Het probleem hier is dat Nvidia twee heel verschillende chips met verschillende hoeveelheden cores als hetzelfde bestempelt. Bij GPUs verwacht je dat een 1060 3GB en een 1060 6GB hetzelfde zijn m.u.v. de hoeveelheid geheugen, maar ze presteren dus heel anders en het zijn ook gewoon andere chips.
Het probleem hier is dat Nvidia twee heel verschillende chips met verschillende hoeveelheden cores als hetzelfde bestempelt. Bij GPUs verwacht je dat een 1060 3GB en een 1060 6GB hetzelfde zijn m.u.v. de hoeveelheid geheugen, maar ze presteren dus heel anders en het zijn ook gewoon andere chips.
Extreem gechargeerd. We praten over 10% shaders wat op 1080p 6% verschil geeft. Praktijk voorbeeldje GTA V 69.9 fps vs 72.2 fps. Zie review van techpowerup https://www.techpowerup.c...060_Gaming_X_3_GB/26.html .

Factory OC kaarten geven onderling vergelijkbare verschillen.

Vroeger werd de 'domme consument' juist met vele GB's om de tuin geleid. Ze paten dan budget kaarten en stopten daar goedkoop DDR ipv GDDR geheugen op in de hoop dat 'meer is beter' vervolgens zijn werk zou doen. Geheugen wordt pas een probleem wanneer je te weinig hebt, dan krijg je haperingen. Blijf je onder het maximum dan heb je niets aan extra geheugen.
Gevaarlijke stelling, er zijn echt veel scenario's te bedenken waarin de Celeron met 16GB ram sneller is dan de i7 met 4GB. (Eigenlijk alle scenario's waar 4GB net te krap wordt.)
Geheel subjectief. Sneller in wat? Er zijn genoeg praktische applicaties die weinig geheugen pakken, maar wel veel CPU.
Games gebruiken ook steeds meer geheugen en door wat meer budget in een videokaart met meer geheugen te steken kan je langer met je videokaart doen.
Zelf heb ik daarom ook voor een RX480 met 8GB geheugen gekozen ipv eentje met 4GB.
Een vriend van me heeft nog een videokaart met 2GB geheugen, die krijgt nu regelmatig bij 't installeren van een spel te zien dat z'n videokaart toch echt eens een upgrade nodig heeft (GTX590ti(?) met AIO cooler)

Een 1050Ti verkiezen boven een 1060 met 3GB is natuurlijk niet zo slim, de 1060 is een snellere chip maar stel de keuze zou een 1060 met 3GB of een 1060 met 4GB zijn dan is die met 4GB toch wel weer een slimmere keuze, kom je toch net wat minder snel geheugen tekort in spellen.
Ontoereikend?

Ik rij toevallig op de snelweg met een Ford Fiesta 1.0 5 dagen in de week. Gaat prima niks mis mee.... Het is maar net wat je gewend bent he.. Ben overigens geen huismoeder maar een man dus die vlieger gaat niet op.
Voor jou niet misschien, maar als optrekken naar 100 al 15 sec duurt en verbruikt stijgt als een malle zodra je over 130 gaat dan is het in mijn ogen niet echt snelweg waardig, maar goed wie ben ik. ;)
Doe mij maar een Fiesta met diesel motor en lekker veel koppel, dat verschil voel je echt wel hoor.
Wie roept dat het allemaal wel meevalt is niet anders gewend en dat is ook prima, wie de broek past trekke hem aan.
Hier een Fiat seicento. Elke dag snelweg. Heerlijk zuinig en jij ben met je spannende diesel misschien 1 minuut eerder op de plek van bestemming.

Ben hele snelle auto's gewend maar was er supersnel aan gewend en voel geen enkele druk om sneller of gekker te moeten doen omdat anderen dat maar van me verlangen.
Pssst, slechte analogie, de Fiesta 1.0 heeft 60KW en een top van 165, zat voor op de snelweg dus ;)
Maar ik begrijp wat je probeert te zeggen, maar die redenatie doortrekkend is een iGPU van elke recente processor van Intel of AMD ook voldoende
Heb je gelijk in, als je hem bij een pakje boter er gratis bij krijgt, anders is het je klanten een oor aan naaien, want dan kan je geen enkele AAA titel uit 2018 meer spelen op max settings op 1080P@60Hz. (Kan ik ook niet met mijn GTX970-4GB, maar dat beestje is ondertussen ~4 jaar oud)
De gehele videokaart lijn zal dan het gehele assortiment bestrijken ze maken gewoon een midden en low segment ,dat is met name aan de bittage te zien en de lagere bandbreedte die ze toepassen met deze grafische adapters.Tevens dus ook wezenlijk verschil met het type geheugen ddr5,ddr5x en natuurlijk het nieuwere gddr6 geheugen.Zal wel misschien een oem kaartje uit geboren worden zodat deze zonder ingewikkelde processen gemaakt kan worden zodat deze in de kant en klare systemen komen te zitten van merk computers.En dus kan nvidia een lekker goedkoop kaartje maken wat ze met de massa verkocht kan worden.
Ja maar het hele bericht staat nogal haaks op dit artikel: nieuws: Gerucht: Nvidia komt met GTX 11xx-serie naast RTX-videokaarten

waar juist besproken wordt dat Nvidia geen RTX serie zou uitbrengen onder de 2070, omdat RTX (ergo: Raytracing) al niet te doen is op een 2070, laat staan alles daaronder, laat zeker staan met slechts 3 of 4 GB geheugen....

@Xtuv Klopt, in het bericht staat dat, in de discussie daaronder staat duidelijk uitgelegd wat de waanzin is om een RTX2060 te maken, als een RTX2070 al eigenlijk geen feasible optie is omdat die al te traag is.

[Reactie gewijzigd door zion op 26 december 2018 14:14]

Daarin staat dat er geen RTX 2050 komt. Er zijn al langere tijd zeer concrete aanwijzingen dat er een RTX 2060 komt, zowel voor desktops als laptops. De komst van een RTX 2060 hoeft een GTX 1160 ook niet uit te sluiten.
Grote vraag is hoe zinnig / nuttig een RTX 2060 gaat zijn...aangezien de RTX 2070 op 1080p net aan 60 FPS kan halen met een lage vorm van ray tracing aan, is het beste waar je op mag hopen van een RTX 2060 met ray tracing een 30 FPS. Of je laat ray tracing uit en je haalt makkelijk de 60 FPS...maar ja, met ray tracing uit is de RTX 2060 waarschijnlijk gelijk aan de GTX 1160.

Natuurlijk is het wat glazen bol werk totdat de echte benchmarks komen, maar persoonlijk ben ik meer benieuwd naar de benchmarks van de GTX 1160 dan naar de RTX 2060.
Het is niet uitgesloten dat de RTX2060 evenveel RT cores kan hebben als de 2070. In dat geval zou hij minder snel zijn in pure rasterization, maar met Raytracing is dat niet de bottleneck.
Toen de 2070 werd aangekondigd dachten we ook dat een 2060 vrijwel zinloos zou zijn gezien de RTRT performance. Toch komt er eentje... en hóe :D

Nvidia is compleet de weg kwijt, het lijkt Intel wel onderhand. Die aandelenkoers zal nog wel even door dalen.

[Reactie gewijzigd door Vayra op 27 december 2018 10:55]

Ja dat ook nog erbij een 11 serie ik had het al gelezen ze zijn druk bezig bij nvidia.
En voor elk wat wils zo te zien.Zonder Raytracing dan anders trekken ze het niet. denk ik.

[Reactie gewijzigd door rjmno1 op 26 december 2018 13:38]

tja, zoals jouw 3,5+.5GB vramkaart laat zien, heeft NV er weinig op tegen klanten oren aan te naaien. :)
Ik snap niet helemaal waarom er nog (steeds) een 3GB versie komt, het was ten tijde van de GTX970 al duidelijk dat dit eigenlijk erg ondermaats is (afgezien van het "sjoemel geheugen" van de 970)
Om nog maar te zwijgen van het predikaat RTX bij dat segment. "Geniet van realtime raytracing @20fps op 1080p?" 8)7
Om nog maar te zwijgen van het predikaat RTX bij dat segment. "Geniet van realtime raytracing @ 2fps op 1080p?"
Fixed that for ya ;)
Tja slechte engine niet op nvidia afschuiven.

Raytracing in unreal is stuk sneller omdat het daar al meerdan een jaar geleden geimplementeerd is samen met nvidea
Raytracing is nu eenmaal erg zwaar en wordt niet voor niets gezien als de 'heilige graal' wat belichting betreft, raytracing in in Unreal zal echt niet heel veel sneller zijn. enneh, is het nivea of nvidia ;)
waarom ziet het er in unreal dan 30 keer beter uit dan in frostbyte , en draait het daar wel op 60+ FPS vs <20 in frostbite?
Over welk filmpje hebben we t? Misschien eens wat van je bijzondere bronnen delen? Er is geen enkel bewijs dat de unreal engine hier beter mee omgaat, laat staan 'mooier' is. Dan snap je dus helemaal niet wat ray-tracing inhoud. Valt me tegen van een 'ICT consultant', is dit wat je schrijft dan goed voor je reputatie vraag je je af..

Raytracing = 'Physics of light' berekenen. Dat zijn de zwaarste berekeningen die je kan bedenken en daarnaast ook de belangrijkste ontwikkeling in fotorealistisch gaming. In tegenstelling tot zwaartekracht en dergelijke, is licht continue onderhevig aan verandering, en daarnaast overal om ons heen. Alles weerkaatst in meer of mindere mate licht, en heeft invloed op het volgende oppervlak, dat ook weer licht weerkaatst enz enz..

Het implementeren van Raytracing kan ook niet mooier of minder mooi. Je kan alleen aangeven op hoeveel lichtbronnen en oppervlaktes raytracing aan staat, en welke schaduwen je wel of niet via het raytracing renderpath laat lopen. en dat bepaald je performance.
Raytracing word al jaren door Hollywood gebruikt, en daar staan hele renderfarms uren op een frame te renderen. Wat Nvidia hier brengt is heel bijzonder en een goede eerste stap. Je hebt geen idee. Uiteraared ben ik ook niet blij met de hoge prijzen voor de nieuwe kaarten, maar dat is verder alles waar je over mag klagen in deze.

Verder roeptoeter je een hoop, maar spreekt je naam boekdelen.. Laat 'interessant doen' maar over aan mensen die zich er werkelijk op ingelezen hebben. Mocht je enigszins op dat niveau willen komen is er werk aan de winkel, veel lees-plezier:

https://en.wikipedia.org/wiki/Ray_tracing_(graphics)

https://blogs.nvidia.com/...umination-turner-whitted/

https://news.developer.nv...rs-real-time-ray-tracing/

Pixar PDF download:

https://graphics.pixar.co...RenderingCourse/paper.pdf

[Reactie gewijzigd door millman op 27 december 2018 18:31]

Verschil zit hem in de quantity, unreal traced niet alles alleen wat belangrijk is en zichtbaar is. Frostbyte doet alles kost heel veel meer power.

Zoek zelf maar even op yt en je ziet genoeg renders het rtrt.

Valt me tegen dat je zelf neit even kunt googlen ano 2018.
Nee beste jongen, je hebt de klok horen luiden maar weet niet waar de klepel hangt. Unreal traced niet alles? Dan is het geen realtime RT maar gewoon de goede oude screenspace reflections. Dat kunnen we al jaren en is niet uniek voor UE.

Lees maar even, ik Google het zelfs voor je:
https://docs.unrealengine...cts/ScreenSpaceReflection

En dit is hoe het niet tonen van zaken buiten beeld heet:
https://docs.unrealengine...ndering/VisibilityCulling

Dat is direct ook het probleem met RTX/DXR: de huidige implementatie van het 'faken' is zo geavanceerd dat de kwaliteit van realtime RT dermate hoog moet zijn, dat het een gigantische performance hit oplevert. En het realisme dat RTRT toevoegt is juist dat het reflecties berekent van zaken buiten beeld.

En dan... heb je het alléén nog maar over reflecties gehad. Niet over de gehele belichting in-game. Wat er nu in BFV zit is slechts een paar materialen met een paar reflective surfaces met een héle lage precisie en dat kost al de grootste moeite.

[Reactie gewijzigd door Vayra op 29 december 2018 13:31]

ok ik zal even helpen met googlen, blijkbaar is het heel moeilijk:

je gaat naar youtube vult in unreal real time ray trace
https://www.youtube.com/r...eal+real+time+ray+tracing

afgelopen jaren meerdere filmpjes geupload met meer dat 1 jaar oud real time ray tracing allemaal met goede performance.

@millman dus je hebt je super ingelezen en kunt maar 1 vd 9 tech demos van NVidia vinden waarvan de meeste overigens gewoon op 60 FPS en nog willen jullie aangeven dan unreal op 60 FPS slechter implementeerd dan alle forums die volstaan met frostbite waar het onspeelbar is op <20 fps.??
Googlen is niet zo moeilijk, maar het juiste googlen wel. Dat doe je niet. Deze filmpjes lopen op welke hardware? Zoek het maar even op, want dat kun je Googlen.

Bovendien zijn dit tech demo's, en geen ingame beelden. Dus nogmaals: klok en klepel. Je snapt er werkelijk helemaal niks van. Je mag hierop reageren maar de kans is 99% dat je dan nog dommer overkomt.

[Reactie gewijzigd door Vayra op 2 januari 2019 09:29]

Nu haal je alles door elkaar ik heb het nergens over ingame (Jij begint de heletijd over games ) en het intereseert niet waar het op loopt al loopt het op een 486 real time RT = real time RT.

en ik zal het even aangeven meeste van die tech demos lopen op 2080RTX
Realtime raytracing bestaat al een poosje, maar het berekenen van één frame kost zoveel power dat je hele clusters aan GPUs nodig hebt. Dus het maakt wel degelijk uit op welke hardware het loopt, sterker nog dat is zo'n beetje de basis van de hele PC markt en de hele selling point van Turing/RTX, wat kun je met welke hardware. Met een flinke renderfarm kun je nu ook al realtime RT hebben namelijk. Niet te doen voor een beetje gamen... maar dat maakt volgens jou dus niet uit?

Hoe meet je efficiëntie af dan, als het niet vertaald is naar een game? Jij was degene die iets riep over BFV en Frostbite - een game, dus. Vervolgens zet je daar tech demo's naast en roept dat UE het beter doet... ongeacht hardware 8)7

Niemand speelt tech demo's. Ik haal niets door elkaar, lees maar even terug. Jij roept dat UE een betere engine is, en vervolgens kom je niet met content die dat bewijst. Een tech demo zegt niets over prestaties in-game en ook niet over de kwaliteit van de implementatie van een technologie. Het enige wat het is, is een showcase van wat je ermee zou kunnen bereiken.

Bovendien gaat het hier om de DXR-implementatie, een abstractielaag dus waar ook UE mee moet praten.

En nee, de tech demo's liepen niet op een 2080 zoals je ze daar ziet, maar op RTX Quadro 6000 (prijskaartje: 6300 dollar) of nog veel meer, dikkere hardware, zoals een berg Titan V100s.. Er staat bij sommigen zelfs letterlijk bij dat er 150.000 dollar aan GPU's achter zit om het te draaien (bijv de realtime Star Wars demo).

Je roept maar wat, en het meeste is pertinent onjuist. Minder posten dus en meer aandachtig lezen, is wat ik je wil meegeven.

Bijvoorbeeld een devblog van Nvidia over Turing. Interessant leesvoer.
https://devblogs.nvidia.c...ng-architecture-in-depth/

Oh, en om aan dit nogal armzalige draadje dan écht een einde te maken, alsjeblieft:

https://www.techpowerup.c...RTX_DXR_Raytracing/3.html

Toch niet zo heel shit, dat Frostbite, en ook geen 20 fps.

[Reactie gewijzigd door Vayra op 2 januari 2019 15:03]

Ik geef je een award voor dingen verdraaien stat mooi naast je karma king en door elkaar halen maar goed ik kan ook in die modus gaan zitten:
Realtime raytracing bestaat al een poosje, maar het berekenen van één frame kost zoveel power dat je hele clusters aan GPUs nodig hebt. Dus het maakt wel degelijk uit op welke hardware het loopt,
Je reageert op jouw vergelijking tussen realtime RT en goede oude screenspace reflection" dat om het RTRT te maken je andere hardware nodig hebt. Dat is wel hele rare verklaring dat je voor een als het op andere hardware draait het ineens wel realtime is 8)7
En nee, de tech demo's liepen niet op een 2080 zoals je ze daar ziet, maar op RTX Quadro 6000 (prijskaartje: 6300 dollar) of nog veel meer, dikkere hardware, zoals een berg Titan V100s.. Er staat bij sommigen zelfs letterlijk bij dat er 150.000 dollar aan GPU's achter zit om het te draaien (bijv de realtime Star Wars demo).
ehh ja en een Quadro 6000 heeft net zo veel Gigarays compute power als een 2080TI dus je punt is dat ik gelijk heb 8)7
Oh, en om aan dit nogal armzalige draadje dan écht een einde te maken, alsjeblieft:

https://www.techpowerup.c...RTX_DXR_Raytracing/3.html

Toch niet zo heel shit, dat Frostbite, en ook geen 20 fps.
Dus je bent het met me eens dat RTX niet zo heel slecht is zoals we begonnen op de post waar ik op reageerde.
Hoe meet je efficiëntie af dan, als het niet vertaald is naar een game? Jij was degene die iets riep over BFV en Frostbite - een game, dus. Vervolgens zet je daar tech demo's naast en roept dat UE het beter doet... ongeacht hardware
ehh de post waar het starte roepte BFV ik heb alleen de unreal engine er bij gehaald de rest heb jij er bij verzonnen.


Oh, en om aan dit nogal armzalige draadje dan écht een einde te maken, alsjeblieft:

de metro exodus ingame met 2080 meer dan 30 fps:

https://www.youtube.com/watch?v=Ms7d-3Dprio&t=217s

[Reactie gewijzigd door Scriptkid op 2 januari 2019 16:22]

ehh ja en een Quadro 6000 heeft net zo veel Gigarays compute power als een 2080TI dus je punt is dat ik gelijk heb 8)7
Het was volgens jou toch een 2080? Klein verschilletje, niet? En een Quadro met 24GB is nog altijd geen 2080ti met 11GB en minder shaders. Wat alsnog een GPU van 1300+ euro is. Waarom minder shaders en VRAM van belang zijn? Ga dat Nvidia dev blog maar lezen.
Dus je bent het met me eens dat RTX niet zo heel slecht is zoals we begonnen op de post waar ik op reageerde.
Jij reageerde daarop met de stelling dat het in UE wel goed geregeld zou zijn en dat het niet aan RTX ligt maar aan Frostbite. En díe stelling corrigeer ik. Dat punt staat nog steeds, tech demo's op snellere hardware als in de Geforce lijn verkrijgbaar is, veranderen daar weinig aan, en ondersteunen jouw stelling ook niet, want het zijn geen benchmarks.
ehh de post waar het starte roepte BFV ik heb alleen de unreal engine er bij gehaald de rest heb jij er bij verzonnen.
'Roepte'? :'( OK. Jij haalt Unreal Engine erbij met voorbeelden van tech demo's (ook je Metro Exodus linkje is een filmpje en wederom, wat voor hardware? Wat is de sample quality? Wat is hier RTRT en wat is rasterized? Zoveel vragen... omdat er geen benchmarks zijn, kun je die vragen niet beantwoorden, en dus kun je ook geen stelling over Unreal Engine neerzetten die geloofwaardig is.

De Frostbite engine heeft kennelijk dus toch niet zoveel te maken met de armzalige FPS, maar juist de DXR-implementatie die daarbovenop wordt gegooid, zoals je kunt zien in mijn TPU link. Ik zeg het nog eens: minder posten en meer aandachtig lezen. Alle info staat er, het gaat alleen volledig aan je voorbij, en je weet zelf niet eens waar de discussie echt over gaat.

[Reactie gewijzigd door Vayra op 2 januari 2019 16:42]

De Frostbite engine heeft kennelijk dus toch niet zoveel te maken met de armzalige FPS, maar juist de DXR-implementatie die daarbovenop wordt gegooid, zoals je kunt zien in mijn TPU link. Ik zeg het nog eens: minder posten en meer aandachtig lezen. Alle info staat er, het gaat alleen volledig aan je voorbij, en je weet zelf niet eens waar de discussie echt over gaat.
Dus je bent het er nu zelf ook over eens dat je niet NVidia als zonde bok moet aanrekenen voor slechte RTRT. Dat was de discussie.
Troll confirmed. Fijne dag verder.

PS. je weet dat Nvidia engineers bij DICE aan het meehelpen waren, hoop ik? Je weet ook dat de verbetering in FPS gehaald wordt door de kwaliteit en het aantal reflective surfaces hard omlaag te schroeven?

Zoals @millman dus ook aangeeft, er zijn hier geen shortcuts. Ook niet in UE. Je kiest wat je wil raytracen en dat kost X performance. Dat wordt nooit Y, tenzij je de kwaliteit aantast, en dat kan op een beperkt aantal manieren. De UE demo's zijn veelal simpele reflecties met één bounce, oftewel een simpel spiegel effect en dan ook nog eens op een glad, simpel oppervlak.

Of het Nvidia's schuld was of niet, heb ik nooit genoemd. Wel vind ik dat de meeste RTX GPUs en RTX in zijn huidige vorm niet echt indruk weten te maken. Niet qua prijs, niet qua performance, en ook de RTRT zelf vind ik niet wereldschokkend of per definitie mooier dan goedkopere technieken.

[Reactie gewijzigd door Vayra op 2 januari 2019 16:52]

Unreal traced niet alles? Dan is het geen realtime RT maar gewoon de goede oude screenspace reflections. Dat kunnen we al jaren en is niet uniek voor UE.

Je weet ook dat de verbetering in FPS gehaald wordt door de kwaliteit en het aantal reflective surfaces hard omlaag te schroeven?Je kiest wat je wil raytracen en dat kost X performance.
Het moet niet gekker worden, eerste ben je het eens en nu ga je ook nog je eigen redenaties onderuit halen je komt niet echt geloofwaardig over zo.
Dude, dat is gewoon niet waar.. als iemand zich heeft ingelezen op raytracing ben ik dat wel. Er is 1 demo van de unreal engine met raytracing (star trek demo), daar wordt veel meer raytracing gebruikt dan bij frostbite engine.

Die demo is niet meer dan dat, een demo. Bij Battlefield is raytracing nog geen 15%.. shadows en lichtbronnen worden niet geraytraced, alleen sommige oppervlakte.

Ga nu niet net doen alsof je er alles van weet bro.. je komt zonder bronnen en zichtbaar weet je er weinig van af.. leeswerk aan de winkel..
Zie 2 reacties hoger
Roepen dat het sneller is op UE maakt het nog niet geloofwaardig en is ook geen bron. Kom eens met wat data, anders roep je maar wat. Of een product waarin het goed is geimplementeerd... ik zie het niet.

De reflecties in bijvoorbeeld Unreal Tournament 4 zijn gewoon rasterized en geen RTRT.

[Reactie gewijzigd door Vayra op 29 december 2018 13:22]

Dat vroeg ik me dus ook af, als een 2080 al amper 60 haalt wat doet zo'n 2060 dan..

Anyway ik hou mn 970nog wel even
je kunt rtx kaarten gebruiken om 100% met raytracing renderen, alleen de rekenkracht is nog niet daar. de toepassing van rtx is op dit moment beste als een enhancement op de huidige render pipeline. je zou bijvoorbeeld reflections, gi en schaduwen heel cheap mee kunnen doen. dus je verlicht de gewone renderpipeline met rtx (zonder gefake met lightprobes en al dat geneuzel) waardoor je meer fancy stuf kunt doen.
Bedankt voor de uitleg, achteraf had ik dit ook ooit wel gelezen maar dit is voor mij nog geen reden om over te stappen op rtx.

Games zonder rtx zijn maar marginaal beter op deze 20xx serie kaarten.
Same, heb vorig jaar een 1080 gekocht, deze moet het uithouden tot raytracing gemeengoed is. Hopelijk met wat concurrentie van AMD is dat mogelijk.
Ben net overgestapt op Ryzen en dat bevalt me erg goed nu nog hopen op concurrentie voor Nvidia
Heb m'n systeem toen ook uitgerust met een Ryzen 1700, vind het momenteel op zich al indrukwekkend dat de komende AMD processors op hetzelfde moederbord geprikt gaan kunnen worden.
Zal de aller eerste keer worden dat ik een CPU kan upgraden.
precies. probleem echter (volgens mij) is dat de pc 4GB leest en programma's dan ook de volle 4gb willen gebruiken. Vervolgens als hij meer dan 3.5gb gebruikt heb je ineens flinke vertraging en FPS verlies. dat geval zou je waarschijnlijk niet hebben als je enkel 3gb toedient. Ik denk dat de 970 zelfs beter had kunnen presenteren met enkel 3gb.

Ik heb de kaart nog steeds en had niet zoveel problemen op 1080p met 1440p vindt hij het minder prettig maar het is redelijk te doen :) medium/high settings voor 60fps
Dat geldt niet voor GPU's. Dat 3,5 GB was bij een 32 bit OS. Alleen NVidia heeft een afwijking met geheugen en brengt 3GB kaarten uit omdat dit in hun design zit van de geheugenbus bij de lagere ranges. Hoe meer er geactiveerd is hoe breder de bus. Nu is dus 1/4 uitgeschakeld en is er dus ook 1/4 van de bus minder dus in plaats van 4GB is het 3GB. In het verleden hadden ze 2 of 4 GB gedaan en toen liep een 1/4 van het geheugen op halve snelheid.

Het is dat ze zulke snelle kaarten maken dus komen ze weg met het brakke design en beroerde kwaliteit.
Nm.

[Reactie gewijzigd door Dutch_CroniC op 26 december 2018 23:37]

Ik dacht gelezen te hebben in een vorig artikel dat de 3GB o.a. nodig was voor UHD netflix.
Dat ging vooral over de gtx 1050 omdat die ook met 2Gb te bestellen is. Voor 4k netflix is 3Gb de min vereiste.

3Gb voor 1080p gaming lijkt me alsnog aan de lage kant, zeker de nieuwste A-titels hebben zware textures, grote levels etc en dan is het echt wel zonde als je uw RTX 2060 cores niet kan benutten.

De RTX 2060 gaat een populaire kaart worden volgens mij. Sneller dan AMD’s rx590 en je beschikt al over de ray trace cores voor als de games uitkomen. 6gb lijkt me een minimum als je niet van plan bent deze kaart de komende jaren te vervangen want zo komt mogelijk 4k of 1440p nog in het visier mits upsampeling (vraagt ook geheugen)
Dat ging vooral over de gtx 1050 omdat die ook met 2Gb te bestellen is. Voor 4k netflix is 3Gb de min vereiste
Dat lijkt me dan ook een compleet willekeurige kunstmatige beperking, kan geen enkele reden verzinnen waarom je daar 3GB voor nodig zou hebben, dat zou al met 256 MB ofzo moeten kunnen 8)7. Eén volledig decoded UHD frame kost nog geen 32 MB VRAM.
Ik schreef op een blauwe maandag zelf video codecs, dus ja ik denk dat ik dat wel weet. Die berekeningen kosten praktisch geen RAM. Hoeveel geheugen denk jij dat er in die decoder kastjes die 4K doen zit, 3 GB? 8)7

Met een 8 full video frames voor predictie ben je al een heel eind. Laat het het dubbele zijn en je zit nog niet bijna aan een halve GB. En dan hebben we het alleen over VRAM, een systeem met zo’n GPU erin heeft zelf ook nog RAM, dat prima gebruikt kan worden tijdens het decoden, een heel 4K video frame gaat binnen een milliseconde van CPU naar GPU.

Edit: puur uit interesse maar eens opgezocht hoe het bij HEVC zit, omdat ik daar zelf nooit mee bezig ben geweest, maar het maximale aantal reference frames is inderdaad ‘slechts’ 8, zie [1]. En dat is dan waarschijnlijk 90% van de RAM behoefte van een decoder, tenzij je een of andere extreme post-processor als MadVR gebruikt ofzo.

[1] https://sonnati.wordpress...art-i-technical-overview/

[Reactie gewijzigd door johnbetonschaar op 26 december 2018 14:19]

Ik zeg natuurlijk enkel wat Netflix zegt maar als ik uw 35Mb per frame gebruik en je zou 2min bufferen aan 30fps dan kom je op een buffer van 3600frames x 32Mb = 115Gb. Dus het zal wel iets minder zijn dan 32Mb per frame :)

Laat ons zeggen dat 2MB per seconde realistischer is. Dat zou 240Mb zijn. Mogelijk wordt de data uncompressed omgeslagen en is 3Gb (x10) geen onredelijke vereiste bij GPU accelerated streaming.
De frames die al getoond zijn en niet meer gebruikt hoeven te worden voor predictie heb je nergens meer voor nodig, dus die hoeven niet in VRAM te blijven. De gecodeerde (gebufferde) stream zit gewoon in systeem RAM. Een Chromecast Ultra heeft geloof ik maar 512 MB RAM en die doet ook 4K.
Nu is het zo dat je voor een Windows pc ofwel een Kaby-lake Cpu nodig hebt ofwel een GF-10 met minimaal 3GB vram. Dus ofwel op de CPU, ofwel op de GPU. Logisch want de files terug naar RAM sturen is zinloos want je moet ze dan toch terug sturen naar VRAM als je een beeldscherm wil aansturen.

Je hebt de nieuwe W10 update nodig maar niet-baby lake gebruikers zijn dus ook in de mogelijkheid om in UHD Netflix te streamen al moet je daar wel een recente Nvidia kaart voor hebben met min 3Gb ram.

Het klopt dat een Chromcast ultra het ook UHD kan decoden met slechts 512Mb ram, zonder gpu-acceleratie. Maar ik vraag me af of dat ook H.265 HEVC, 10 BIT HDR op 60fps is. De vraag is of je op een een pc ook Netflix kan 4K kan streamen op 8bit op een oudere H.264 of zegt Netflix, alles of niets?

Hoe dan ook een RTX 2060 is snel zat voor GPU accelerated H.265 maar vergeet niet dat 4K HDR 11.14 Gbps doorstroom vraagt of 1,24Gb/sec. Ik moet me eens verdiepen in de exacte werking van GPU-decoding en vram-nood voor een 1,24Gb/sec (11,4Gbps) output.
Wat uiteindelijk het doel is van een encoding is door middel van een 'beschrijving' het bestand verkleinen. Dit wordt frame voor frame weer opgeblazen naar een bitmap, 4K is 4K, en 8 frames vooruit is 8 frames vooruit. Hoe hoger de fps hoe meer de GPU en/of de CPU aan de bak moet, die moet meer berekeningen per seconde doen. Maar je geheugen van frame 1 geef je bij wijze van bij frame 9 weer vrij. Door de hogere framerate volgt deze cyclus zich wat vaker op.
Ik was eerst van mening dat overmatige VRAM onnodig was, maar ben toch van mening veranderd. Doom 2016 draait bijvoorbeeld op 2gb videokaarten heel inconsistent. Het is heel vervelend als een spel veel VRAM gebruikt en je daardoor framerate dips krijgt. Ook is bij SLI en Crossfire de VRAM vaak prettig voor betere scaling. De huidige standaard van 4GB voor AAA titels is dan ook helaas vaak wel nodig. Het grote gros van de games kan overigens op 1080p met 3GB uit de voeten, maar je zou zomaar ineens tegen een drempel aan kunnen lopen, wat zonde is voor de gebruiker.
Doom draait op kaarten met 2gb ram per definitie niet lekker, omdat alle kaarten die met 2gb uitkomen 'lower tier' kaarten zijn
Zelf heb ik een 1050 ti en ik merk al een beetje dat het niet alles aan kan op max settings
uiteraard, een 1060 kan dat ook niet, een 1070 ook niet. 'Alles op max' kaarten, ook 1080p is gewoon duur. Denk aan 1070ti, 1080 en hoger. Verwachten dat je met een 1050ti alles op max kan draaien was 2 jaar geleden al een onmogelijkheid, dat wordt met de jaren niet beter natuurlijk.
Ik denk dat dit toch komt door het feit dat geheugen eigenlijk een van de duurste componenten is geworden. Een 3GB variant kan daarmee dus aanzienlijk goedkoper aangeboden worden dan een 4GB variant.

Hij zal dan ook marketing technisch waarschijnlijk alleen geplaatst worden om tegen de goedkopere AMD kaarten afgezet te kunnen worden waarna de stap naar 4GB ineens een stuk aantrekkelijker lijkt.
Ik snap niet helemaal waarom er nog (steeds) een 3GB versie komt, het was ten tijde van de GTX970 al duidelijk dat dit eigenlijk erg ondermaats is (afgezien van het "sjoemel geheugen" van de 970)
Als pc gamer heb je de impact eindelijk volledig zelf in de hand. Kwestie van even naar je texture details gaan. Veel games krijgen nu ultra texturen packs voor 6 a 8 GB kaarten. Denk aan Siege en Far Cry 5. De prijs die je met een 3GB model betaalt is dat je dan niet veel verder komt dan high. Wie weet wordt dat medium in de toekomst. Wat dat betreft was tijdens de crypto hype de 1060 3gb zo gek nog niet want je haalde daar wel de fps mee, alleen met wat lelijkere textures. Scheelde 200 euro. Veel games hebben tegenwoordig ook een slider die aangeeft hoeveel vram er gebruikt gaat worden.

[Reactie gewijzigd door sdk1985 op 26 december 2018 23:19]

Met al 40 kaarten van 1 leverancier voor 1 GPU type, krijg je een 'bomen en bos' probleem.
Hoe moet je hier uit kiezen? En als iedereen effectief voor een 'goed, beter, best' kiest, blijft Gigabyte met de andere 37 varianten zitten...
Vergeet goedkoopst niet
Ik denk dat een deel van de handelsnamen vooral bescherming is, zodat niet ieddreen een bepaalde naam op het beestje kan plakken.
Kan best zijn dat ze de namen registreren om te voorkomen dat anderen ze kapen toch? Lijkt me niet heel aannemelijk dat ze 40 types van de 2060 gaan maken. Eventueel zou het ook nog kunnen dat ze dezelfde kaart onder meerdere namen gaan verkopen(of in elk geval de keuze willen hebben).

[Reactie gewijzigd door MN-Power op 26 december 2018 10:18]

Dat was mijn idee dus ook, ik vind zelfs 4 kaarten al teveel voor 1 GPU, maar 40!!!?
  • RTX 2070 8GB 256-bit
  • RTX 2060 6GB 192-bit
  • RTX 2050 4GB 128-bit
  • RT 2030 2GB 64-bit
Het had zo simpel en elegant kunnen zijn...
Waarom dan eigenlijk niet gelijk:

RTX 2080 8GB
RTX 2060 6GB
RTX 2040 4GB
RTX 2020 2GB

Zou het nog makkelijker maken.
RTX ZZXY(m)

ZZ = jaar
X = relatief nummertje binnen zelfde jaar
Y = hoeveelheid geheugen
(m)= mobile
Precies dat dacht ik ook, eigenlijk zou dit soort naamgeving strafbaar moeten worden.
Nou dat wordt wat... Raytracing met aanzienlijk minder tensor cores en ook nog eens voorzien van maar 3GB.

De gehele RTX-lijn heeft al een behoorlijke hoeveelheid negativiteit om zich heen en ook de raytracing performance is, afgezien van de 2080ti, niet om over naar huis te schrijven. Los van een gigantisch gebrek aan support is de performance gewoon slecht. Door nu met dit soort kaarten te komen, voorzien van een belachelijke hoeveelheid geheugen anno 2019 en een flinke vermindering aan tensor cores, komt het hele RTX/raytracing-verhaal absoluut niet ten goede.

Ze hadden gewoon een RTX 2080ti moeten maken en de rest gewoon GTX kaarten zonder raytracing support. Maar het lijkt erop dat Nvidia op dit moment niet echt weet wat ze met de hele RTX-lijn aanmoeten...
Daarom krijgen we volgend jaar ook gewoon de GTX1160/70/.. :)
nieuws: Gerucht: Nvidia komt met GTX 11xx-serie naast RTX-videokaarten
https://videocardz.com/79...1-series-gtx-1160-planned
Raytacing is leuk maar pas bij de volgende generatie echt goed bruikbaar ;)

Btw. Hier staan ze alle 40.
https://videocardz.com/79...b-and-3gb-variants-to-eec

[Reactie gewijzigd door calsonic op 26 december 2018 11:21]

haha 3 GB, gaat ook nergens over voor een kaart met 1070 performance, om daar een 3 GB variant van te maken, dat bottlenecked die gpu echt wel.
6 gigabyte is in een hoop spellen al een bottleneck, zelfs op 1080p.

Ik heb nu al bijna een paar jaar een AMD kaart met 8gb en ik zou in 2018/2019 zeker geen nieuwe kaart kopen met 6gb of minder.
Dit dus. Dat hier op tweakers word gezegd dat 3gb op 1080p genoeg is, is onbegrijpelijk. Maar goed ik speel veel verschillende games dan merk je al snel dat 4gb al ver onder het minimum zit op 1080p. Assassins Creed Odyssey zit ik al boven de 4000mb. Resolutie is niet het enige tegenwoordig.

[Reactie gewijzigd door MissBluefinger op 26 december 2018 13:01]

Je GPU gebruikt meer als er meer beschikbaar is
Deze comment had betrekking op een correctie in het artikel, ondertussen aangepast.

[Reactie gewijzigd door bon8re op 26 december 2018 12:34]

Je hebt gelijk, aangepast :)
Nou...
Dat wordt weer een duidelijke line up voor de consument. |:(
Zou het inderdaad raar vinden als er nog steeds een 3GB versie gaat komen.
Voor de rest wel benieuwd naar de 2060.
Denk nog steeds dat het gewoon GTX 1160 word. Is RTX niet waard, de topmodellen komen maar net rond met ray tracing. Laat staan 2060.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Politiek en recht

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True