Nvidia: RTX 2080 presteert in games anderhalf keer zo snel als GTX 1080

De Nvidia RTX 2080 presteert volgens de fabrikant in veel games ongeveer anderhalf keer zo goed als zijn voorganger GTX 1080. Dat blijkt uit een presentatie die Nvidia heeft vrijgegeven. Veel games zijn volgens de maker op 4k-resolutie op meer dan 60fps te spelen.

Nvidia heeft slides laten zien met een vergelijking van de GTX 1080 en RTX 2080 op onder meer games als PUBG, Final Fantasy XV en Hitman II. Als games ondersteuning hebben voor Deep Learning Super Sampling, DLSS, dan kan het verschil oplopen tot twee keer. Met DLSS gebruikt de RTX 2080 de Tensor-kernen voor kunstmatige intelligentie om pixels te interpoleren om zo sneller frames op het scherm te kunnen tonen.

Nvidia claimt bovendien dat het met de RTX 2080 mogelijk wordt om games op 4k op meer dan 60fps te spelen. Een game als Call of Duty WWII kan tot 93fps komen, terwijl Star Wars Battlefront II tot 65fps komt op de nieuwe grafische kaart.

Nvidia kondigde de RTX 2080 deze week samen aan met de 2080 Ti en 2070. De Nvidia GeForce RTX-videokaarten zijn voorzien van een Turing-gpu, waarvan het bedrijf vorige week de architectuur presenteerde samen met drie Quadro RTX-videokaarten voor workstations. De consumentenversies hebben minder Cuda-cores en minder gddr6-geheugen dan hun professionele tegenhangers.

De toevoeging van de RT-cores moet realtime ray tracing in games mogelijk maken. Hoe dat wordt toegepast zal per game verschillen. Nvidia demonstreerde verschillende spellen met RTX-ondersteuning, waaronder Shadow of the Tomb Raider, Metro Exodus en Battlefield V. De games worden niet volledig met ray tracing gerenderd, maar voor bepaalde schaduw- of lichteffecten wordt het RTX-platform ingezet. Ontwikkelaars van games moeten ondersteuning voor zowel raytracing als DLSS inbouwen voordat het werkt en dan zal het bovendien alleen werken op de RTX-kaarten van Nvidia.

Nvidia: RTX 2080 vs GTX 1080Nvidia: RTX 2080 vs GTX 1080

Door Arnoud Wokke

Redacteur Tweakers

22-08-2018 • 20:00

192

Lees meer

Reacties (192)

192
180
112
15
3
46
Wijzig sortering
Ik geloof er precies niets van. nVidia staat uberhaupt al niet bekend om haar eerlijkheid, openheid en transparantie.
Je betaald nu voornamelijk voor de nieuwe Tensor en RT units en het is nog maar zeer de vraag hoeveel deze uberhaupt gebruikt gaan worden aangezien ontwikkelaars dit specificiek moeten implementeren. De grootste verandering is het gebruik van GDDR6. Die extra bandbreedte zal je waarschijnlijk terugzien in de performance van ALLE games draaiend op 4K. Vandaar dat men waarschijnlijk deze resolutie heeft gekozen. Op zich is dit niet zo vreemd aangezien je wel mag verwachten dat iemand die een dergelijk dure high-end kaart koopt, tevens de beschikking heeft over een dure hoog resolutie monitor.
Het is meer de schijn die ervan afdruipt, dan dat op een eerlijke en duidelijke manier gecommuniceerd wordt.
De getoonde snelheden zijn enkel te behalen tijdens de meest ideale omstandigheden met exact dezelfde configuratie die nVidia gebruikt heeft om die resultaten te krijgen. Daar vrijwel niemand een PC thuis heeft staan van 5000+ euro (exclusief randapparatuur), dient men dit te allen tijde met een korreltje zout te nemen.
Desondanks, de snelheden die de 1080/Ti modellen behalen, zijn in de realiteit ook niet zoals nVidia het beloofd heeft. Dus al met al zou er wel een kern van waarheid in kúnnen zitten.

Maar goed, al dat gebash op nVidia (heb zelf ook meermaals te maken gehad met de oneerlijkheid van nVidia en haar 'supersnelle grafische pareltjes') is leuk en aardig, AMD is in dezen geen haar beter.
ATi deed echter beter werk. Toen ATi nog ATi heette en de bom was in het land van de grafische tsaar, stond er te allen tijde bij dat de behaalde snelheden enkel onder ideale omstandigheden te behalen was.
Dit kom ik nimmer nog tegen in de huidige presentaties van de twee grote grafische naties.
Dus Nvidia gaat 10 jaar en honderden miljoenen spenderen aan een techniek die wellicht ergens een keer gebruikt gaat worden? Goede business case... Een aantal grote ontwikkelaars zijn al bezig om deze techniek te implementeren en hebben dat al gedeeltelijk gedaan. Waarom zouden ze daarmee stoppen? De enige reden die ik kan verzinnen is omdat het moeilijk te programmeren is. Maar daar weet ik verder niks vanaf. Als de snelheidswinst zo enorm is zou het zeer onverstandig zijn om het maar over te slaan.
Die -1 krijg je inderdaad, maar dan vanwege het onnodig uithalen in de eerste en laatste paragraaf van jouw reactie.
Had je het bij het inhoudelijke stukje van de 2e paragraaf gehouden dan had je op zich een nuttige en geldige reactie neergezet.
Ongelooflijk hoe een bericht dat bol staat van vooringenomenheid en louter speculaties een plus 3 krijgt. Er staat geen enkel feit maar uitsluitend rancune richting nVidia voordat er ook maar een benchmark geproduceerd is...

50% sneller (factor 1.5) gemiddeld lijkt me een redelijk concrete claim die makkelijk te toetsen valt, straks met de benchmarks. Indien de 50% bij lange na niet gehaald wordt, wordt het pas tijd om - ONDERBOUWD - te gaan bashen.

Uiteraard krijg ik nu wel een min 1, want dat is hoe dit AMD-fanboy forum rolt... Wat overigens helemaal niet erg is, omdat het mijn statement alleen maar kracht bijzet.

[Reactie gewijzigd door PvdVen777 op 25 juli 2024 04:39]

Hype hype hype! Kopen kopen kopen! Dat denkt Nvidia, maar ho wacht maar eens effe. Eigenlijk na het bekijken van het plaatje gaan er waarschijnlijk bij elke Tweaker er al wat belletjes af. Leuke getallen op de as die eigenlijk nog steeds weinig info bieden op FPS gebied. De settings zijn verborgen en de 1080TI en de 2070 zijn volledig uit de vergelijking gehaald. Dit is wel een leuke grap he? Plaatje 2, "the impossible now possible" nu is het woord FPS ineens wel vermeld maar wat is dit dan precies? Average? Max? Hoeveel cherry picking is hier wel niet gaande? Ze zijn nu wel heel erg vaag en geheimzinnig bezig met deze resultaten. Als je dit op school zal inleveren, zal de docent je waarschijnlijk een onvoldoende geven. Maargoed, het gaat dan hier ook om die hype en hopen dat mensen met deze vage resultaten toch NU die preorders gaan klikken. Wacht maar eventjes af tot 3rd parties er naar gaan kijken... Vroeg of laat komen we er toch wel achter, ook al zit Nvidia nu leuk te doen.
Vandaar dat het ook de 2000 serie is ipv de 1100. Pure marketing. Lijkt een enorm verschil want 2x zoveel. Schattig! :)
Hier klopt toch iets niet...

GTX 980 FE = 1216mhz x 2048 cores x 2 = 5 tflops
GTX 1080 FE = 1733mhz x 2560 cores x 2 = 8.86 tflops (= 77% meer dan 980)
GTX 2080 FE = 1800mhz x 2944 cores x 2 = 10.58 tflops (=19% meer dan 1080)

Dus, de 1080 heeft 77% meer tflops dan de 980 en produceert ook 70-80% meer frames op 4k volgens nvidia: https://www.goldfries.com...uploads/2016/05/perf1.jpg
En dat klopt ook volgens techpowerup:
https://www.techpowerup.c.../GeForce_GTX_1080/21.html
https://www.techpowerup.c.../GeForce_GTX_1080/22.html

MAAR

De 2080 heeft 19% meer tflops dan de 1080 and nvidia wil ons doen geloven dat de framerates 30-60% hoger zijn. Ik verwacht nog steeds dat ze gemiddeld maar 20% hoger zijn.
Je vergeet iets belangrijks: architecturale verbeteringen die de hoeveelheid FLOPS verminderen die nodig zijn om een bepaalde taak uit te voeren. En die bestaan echt, geen bazel :)

Wacht dus a.u.b. even de independent benchmarks af voordat je zo hard van stapel loopt. :)

Stel dat voor het renderen van één frame in een game met de Turing architectuur zo'n 20% minder floating point operations nodig zijn (i.v.m. Pascal), dat zou wel aanzienlijk schelen hè. ;)

Jij doet of aannemen dat er geen verbeteringen hebben plaats gevonden die ervoor zorgen dat er minder floating point operations nodig zijn om een frame te renderen, of je weet niet af van het bestaan van die verbeteringen. Beide zijn niet goed. ;)

Natuurlijk is het ook goed om de details in te duiken, en alvast een voorproefje te krijgen van wat er dan allemaal gewijzigd is. Lees daarvoor dit artikel van AnandTech:
https://www.anandtech.com...n-turing-gpu-architecture
En dan in het bijzonder de paragraaf Turing SM: Dedicated INT Cores, Unified Cache, Variable Rate Shading.
Let wel: dat is nog steeds maar een sterk verkorte samenvatting. En de Streaming Multiprocessor diagrammen hadden ze nog niet ontvangen.
Zie ook dit recentere artikel https://www.anandtech.com...ies-rtx-2080-ti-2080-2070 waar ze nog steeds niet de SM diagrammen hadden ontvangen.

[Reactie gewijzigd door dusty-2011 op 25 juli 2024 04:39]

ja klopt en tevens is het zo dat de hardware matige verbeteringen deze kaart helemaal bovenaan komt te staat, misschien hebben ze helemaal een nieuwe layout uitgprobeert.of een techniek gehanteerd en ook software matig zodat deze kaart bovenmatig presteert, en daar gaat het allemaal om.nvidia staat weer bovenaan kwa techniek en know how.Jammer voor de 1080 (ti) bezitters.
Deze 1080 met of zonder ti zal wel goedkoper in de schappen komen te liggen en deze 2080 is dus de nieuwe topkaart in de lijn van Nvidia.Ik zou wel eens een vergelijking willen zien met een titan xp.Even gekeken met google en ontdekt dat deze kaart geoptimaliseerd is voor rate-racing.
Alleen daarvoor ga ik de kaart niet kopen, als deze kaart uitkomt op 20 september dan zullen misschien de prijzen dalen voor de 1070 en de 1080 (ti).Dan ben ik dus benieuwt wat de prijzen voor deze kaarten zijn.Hij zou vele malen sneller zijn dan een titan xp, maar ik wacht eerst de benchamrks af voordat ik besluit voor een nieuwere videokaart te kopen.

[Reactie gewijzigd door rjmno1 op 25 juli 2024 04:39]

Wat betreft de prijsdaling(en) waar je op zit te wachten, verwacht hier niet teveel van. De productie van de Pascal generatie (1070 / 1080 / 1080 ti) is uiteraard gestopt om de nieuwe Turing generatie te produceren. De voorraad Pascal kaarten loopt dus steeds verder terug. Door deze schaarste zal de prijs niet veel dalen en kun je beter nét dat beetje extra neerleggen voor de Turing kaarten (nadat de early adapters de hoofdprijs betaald hebben uiteraard)
Het viel mij ook al op dat er qua specs maar marginale verbeteringen zijn tussen de 10x0 en hun 20x0-opvolger.

Los van alle raytracing en features, zijn ze navenant net zo veel in adviesprijs gestegen als dat ze op tflops sneller zijn geworden, dat is toch geen technologische vooruitgang te noemen. Ik ben normaliter niet zo oordelend, maar gezien de slechte beschikbaarheid van de 10-series, met de rare prijsontwikkelingen tot gevolg en uberhaupt de elke keer stijgende adviesprijzen voor de top end modellen, voelt 't wel erg kapitalistisch aan allemaal.

Daarbij optellend dat er voor mijn gevoel erg veel problemen waren met de drivers bij de 10-serie en dat dat erg lang duurde voordat 't allemaal gefixed was, vraag ik me af of ik in zo'n bedrijf nog mijn zuurverdiende centen wil steken.

[Reactie gewijzigd door A Lurker op 25 juli 2024 04:39]

Nou, als je kunt kiezen, moet je natuurlijk voor het bedrijf met het kleinste marktaandeel gaan om de markt concurrerender te maken. Deze nvidia prijzen zijn het resultaat van hun huidige monopoly positie in het high-end segment. Dus als je op 1440/60 of lager gamet, kies dan voor AMD. Hoewel een Vega 64 op 1440/144 ook goed mee komt.
HardOCP heeft de Titan V (volta) eens getest in games. Zonder optimale drivers scoorde die 30% en meer beter dan een 1080Ti op 1440p en 4K. En dat terwijl de kaart 42% meer cores heeft.
Da's een minimaal 0,7% hogere framerate per extra core.

De turing architectuur is sterk gebaseerd op volta. En een 2080 heeft 53% meer cores dan een 1080. Wat zou kunnen wijzen op een 37% hogere framerate dan een 1080. Dat zou een 2080 ongeveer een kleine 10% beter doen presteren dan een 1080Ti.

Dit alles ruwweg berekend. Uitgaande van sub-optimale drivers. Zonder rekening te houden met hogere clocks van de 2080 tov de Titan V en met eventuele verdere (relevante) verbeteringen van turing tov volta.

[Reactie gewijzigd door Jack77 op 25 juli 2024 04:39]

Eerst zien, dan geloven. Ook neem ik de FPS met een korreltje zout, als de bovengenoemde FPS het maximum is. Dan zal het minimum aantal FPS ook fors onder de 60 liggen en met constant dips is dat niet prettig spelen.
Helemaal mee eens, ik snap ook niet waarom ze niet de minimale tijd tussen twee frames melden. Dit is misschien een minder sexy getal, maar het wel de meest nuttige en waardevolle eigenschap.
Je bedoeld maximale tijd tussen twee frames?
Hopelijk doet de onrust ze ertoe besluiten de geheimhoudingsverklaringen eerder te laten verlopen.
Je hoeft geen korreltje zout te nemen hoor. Dit is gewoon lachwekkend want ze hypen als een gek en vergelijken een 1080 met een 2080 terwijl er verschil is in het aantal cudacores en ook het stroom verbruik wat minder zou moeten zijn bij een nieuwe generatie..
Als ze de 1080ti gepakt hadden om te vergelijken met de 2080 deze hebben hetzelfde aantal cudacores dan zou je maar een verschil van 15% zien ongeveer.

Als ze door die raytracing verder zo veel winnen is wel indrukwekkend natuurlijk.

Ik blijf het toch herhalen. Ze stoppen te veel rekenkracht in een te klein oppervlakte waardoor de koeling niet goed kan werken en je kloksnelheid verliest. Zie de nieuwe 2080ti met slechts 1500 mhz. En de 1080 kon je bijna zo hard laten gaan als een 1080ti.
Kortom kaarten met meerdere losse GPU's waardoor ze allemaal lekker op 2100 mhz kunnen draaien.

[Reactie gewijzigd door BottleNext op 25 juli 2024 04:39]

Met een GPU wil je juist nog liever meer cores hebben ipv mhz dan bij een CPU? Gezien parallellisatie meer tot zijn recht komt.

Ook verbruik je meer als je hogere kloksnelheden draait dan als dat je een paar cuda cores toevoegd niet?
Mijn hele punt is dat als je twee kaarten zou hebben
Een heeft 1 GPU met 4000 cudacores. (1500 Ghz)
En de tweede heeft 2 GPU's met 2000 cudacores; (2000Ghz)

Dan heb je een winst van 33% prestaties met dezelfde hoeveelheid chip.
Als je dat haalt, 2 kaarten schaalt de laatste jaren vaak slechter en slechter, als er al support is.
Verder verwacht ik niet dat het een kleine chip is, ik verwacht eigenlijk juist groter dan de vorige generatie gezien het feit dat de RTX/Tensor cores zijn toegevoegd t.a.v. Pascal en ze qua procedé geen grote stap maken.
Op hetzelfde bord bedoel ik. Dat heb je al jaren niet meer, de laatste was van AMD 295X2.
Ook die kaarten gebruikten volgens mij gewoon SLI/Crossfire om intern te functioneren, maar dan op 1 PCB.

[Reactie gewijzigd door Dennism op 25 juli 2024 04:39]

Niet helemaal want de 295X2 en de GTX 690 hadden een stuk minder last van alle nadelen die SLI en Crossfire in die tijd met zich mee brachten.
Volgens mij was de AMD Radeon Pro DUO de laatste dual GPU kaart van AMD met 2x een R9 Fury chip op de kaart zelf
Die vergatik een beetje omdat hij zo zeldzaam was.
Amper verkrijgbaar ook maar 160 benchmarks op userbenchmark ondanks dat hij nieuwer is,.
http://gpu.userbenchmark....earchTerm=amd%20pro%20duo

Terwijl de oudere 295X2 1360 benchmarks heeft.
Ze schalen beter dan ooit, wil niet zeggen dat developers er toegevoegde waarde in zien.
Gelukkig is dat steeds minder belangrijk voor de nieuwere game engines.
(Althans, daar pronken de engines mee)

That said, NVLINK is ook nog eens achterlijk, ik verwacht mooie 'tieden'
Maar kost ook vermoedelijk ook meer, want: zwaardere PSU op de kaart, meer traces (extra layers?), meer geheugen of delen ze dit?, 2 chips ipv 1, enz.
Ze zeggen zelf dat de nieuwe kaart extreem goed overclocked, dus misschien is het beter te wachten tot de kaarten echt aan de tand worden gevoeld voordat iedereen nu maar allerlei aannames maakt alsof ze feiten zijn.

Ik denk dat ze hier net zoals eerder gewoon weer een mooie winst boeken. Veel zorgelijker dan het gehype van NV is waar blijft AMD en gaat die nog wat er tegenover zetten, of gooien die echt de handdoek ik de ring?

Dat zou pas slecht zijn, krijgen we weer hetzelfde verhaaltje als met Intel, in 10 jaar 50% snelheid erbij. Nu AMD hun Ryzen heeft, schiet alles bij Intel opeens in overdrive, en krijg je als consument opeens weer waar voor je geld.

Hopen dat AMD met de radeon ook kan meekomen, maar ik vrees het. Dat is dan gelijk de reden dat NV de prijzen belachelijk hoog maken.
Inderdaad. Deze cijfers zullen ook wel cherry picking zijn. De echte performance kennen we maar als de onafhankelijke benchmarks uitkomen voor een bredere niet door Nvidia geselecteerde lijst games. Het zou me ook niet verbazen als Nvidia nogal ongewoon zware default AA settings gebruikt als baseline, zoals bijvoorbeeld 8x of 16x MSAA terwijl bijna niemand boven 4x gaat.
Tijdens de aankondiging in Keulen werd er nog specifiek vermeld dat ze dit soort cijfers niet zelf zouden uitbrengen en het publiceren van benchmark resultaten zouden overlaten aan de professionals.
Die hoef je niet in te vullen toch ? :)

Wat zullen de NV wetenschappers zich rot gelachen hebben.
Scream at me Linus !
Ben normaal wel over nvidia te spreken, maar ik vind ook dat er hier te geheimzinnig wordt gedaan. Vage niet-kwantitatieve vergelijkingen: ze zullen toch wel gewoon exacte cijfers hebben? Geef gewoon wat framerate plots of 3dmark output oid. Het feit dat ze dat niet doen doet wantrouwen.
maar ik vind ook dat er hier te geheimzinnig wordt gedaan.
Hype, hype, hype! Het maar hard genoeg roepen van de daken en hopen dat er genoeg 'consumenten' zijn die het blind kopen en/of preorderen. Ik zou gewoon er niet teveel aandacht aan besteden totdat een aantal goede review sites die dingen testen. Het zou me ook niet verbazen dat als er toch dergelijke FPS gehaald wordt er wel eens andere dingen mis zouden kunnen zijn met bv. beeldkwaliteit of andere zaken die NIET worden gemeten met FPS...

Ik ben ook al weer heel wat jaartjes een Nvidia klant, maar voorheen behaalde resultaten geven geen garanties voor de toekomst...
Een 1000/1200 euro kaart ga ik niet pre-orderen zonder wat benchmarks te zien :)
Een verstandige opmerking als tweaker.

Maar met deze "benchmarks" gokken ze uiteraard niet op ons, maar op de mensen die gamen en in de hype direct het nieuwste van 't nieuwste willen en bestellen. Het bericht dat Nvidia de benchmarks aan professionals overlaat is in mijn beleving ook een farce. Aangezien het zeer waarschijnlijk is dat deze "pro's" voorgeselecteerde games mogen testen. Dus op dat vlak houden ze zeker wel een dikke vinger in de pap.

Uiteindelijk kopen we deze kaarten ook als de prijzen iets genormaliseerd zijn en er meer betrouwbare testen en reviews te vinden zijn. Dus verdienen zal Nvidia toch wel aan ons met de huidige gpu prijzen.

Het is uiteraard marktwerking met vraag en aanbod, maar het doet wel pijn in de portomonee om op 4k los te kunnen gaan.
En de 1080 serie was wat 4K betreft net niet goed genoeg dus ik verwacht dat een hoop gamers met een 4k monitor uiteindelijk de overstap toch wel gaan maken.
Nvidia kan het eigenlijk nooit goed doen. Enkele dagen geleden was de terugkerende klacht dat er niets over de prestatie werd vermeld. Nu wordt er wel wat vermeld en is het weer niet goed.
Aangezien het zeer waarschijnlijk is dat deze "pro's" voorgeselecteerde games mogen testen. Dus op dat vlak houden ze zeker wel een dikke vinger in de pap.
Reken er maar op dat zowel hardware.info als tweakers (via hardware.info) gewoon een review gaan plaatsen...
Goh, Nvidia kon op zich wel wat uitgebreidere informatie geven bij zijn presentatie. Niet dieper ingaan op de 'dagdagelijkse' prestaties is gewoon wat knullig. De manier waarop ze dan bijkomende info vrijgeven komt mij gewoon amateuristische of van slechte wil over. Er zijn dan misschien wel wat cijfers, maar geen manier om ze beter te interpreteren daar alle testmethodieken om dit te kunnen doen totaal ontbreken. Ik verwacht meer van Nvidia...

Maar goed, het is allemaal marketing.
Maar of dit een geslaagde manier van werken is, betwijfel ik mij.

PS: Ik zag net een filmpje van JayzTwoCents waarin hij wat dieper ingaat op de Nvidia RTX reeks en waarom mensen wat teleurgesteld blijken te zijn e.d. Hij heeft paar goede punten en inzichten kwa prijs en naamgeving en ik begrijp ook uit zijn video (of ik wil begrijpen uit zijn video) dat hij gebonden zit aan een NDA waardoor hij niet veel meer kan zeggen, maar wel meer weet.

Denk dat we binnenkort wel het volledig plaatje krijgen.
Fijne manier van werkten vindt ik het niet echt.
Zo'n onzin. We willen gewoon 4k FPS benchmarks in games die we kennen zonder ray tracing. Dat is echt niet zo moeilijk. De reden dat we ze niet zien is dat de kaarten daar niet zo goed in presteren, terwijl ze wel een idioot hoge pijs vragen. Dat is echt niet zo gek.
Het is dat nV nu eenzaam aan de top zit. Dus cheat gedrag niet nodig is. Zoals bij nextgen releases shadow bugs het weg laten van shadow of lichtere form zodat je even die release over de top FPS kan halen. Is nu juist de gimmick om HQ shadow en reflexies te laten zien.

Gezien deze next gen juist meer gericht is op verbeteren van de render HQ DMV HYBRID Raytrace methoden.
Gaat het niet meer alleen om FPS maar ook om HQ van beeld resultaat.

In fast pace aktie games ben ik iig niet zo met HQ bezig. Slow pace game heb je meer tijd om van GFX te genieten.
Dus games waar 60fps voldoende is. Ja geweldig.
Bunny hop esports gedoe nou nee maar daar doet 1070 vaak ook ruim aan de FPS op uiteraard 1080P
Ik ben het helemaal met je eens. De kaart zal presteren volgens verwachting. En met de nieuwe future ingeschakeld kan je zelfs meer dan 2x de snelheid halen in spellen die het ondersteunen, een mooie ontwikkeling!

Maar ook de gewone rauw power is prima. En zodra de kaarten uit zijn zullen de prijzen wel zakken. Die zijn wel te hoog en niet te verantwoorden. Maar als je geen concurrentie hebt kan je doen wat je wilt blijkbaar.
Mooie ontwikkeling? een 2080 die waarschijnlijk amper sneller gaat zijn dan een 1080TI voor veel meer geld.. echt mooie ontwikkeling hoor.

En die nieuwe futures, ik moet nog zien dat dit breed ondersteund gaat worden, tot nu toe geeft het mij meer een physx idee, en we weten allemaal hoe goed dat uitgepakt heeft
Blijkbaar verwacht iedereen telkens dat een nieuwe serie gelijk 2x of meer sneller is
ik vind het niet vreemd dat mensen iets verwachten wat ze zo'n beetje elk jaar weer voor elkaar krijgen, nu is het gewoon duidelijk dat ze de winst marge weer wat verplaatst hebben en de consument nog verder uitbuiten..(de chip names lijken daar ook op te wijzen) en ja waarom ook niet want iedereen koopt toch wel weer blind een nVidia GPU
Als je dan ook sneller bent dan de snelste voorganger verwacht je ook nog extra korting?
Nee, dat zeg ik ook nergens, ik verwacht wel dat de een na snelste kaart sneller gaat zijn dan de snelste kaart van de vorige generatie (zoals bijvoorbeeld bij de 980 vs 780TI)
Maar de vernieuwingen zijn toch goed, en we veroordelen ze al voordat er bekend is hoe ze echt presteren. Wacht eerst een benchmark af
Vernieuwingen zijn goed als de consument er wat aan heeft, bij deze moet dan nog blijken en ik denk zelf dat dit tegen gaat vallen, maar met je eens, eerst benchmarks afwachten
Mensen gaan echt niet meer betalen, als dat het niet waard is
Was dat maar waar, echter genoeg mensen die blind betalen voor een merk of gewoon voor het beste
Drivers, architectuur, de hele mik...
Niet dat NV hiermee alleen is, maar elke fabrikant doet hier eigenlijk bij elke release wel aan. NV niet minder dan AMD/Intel/QC/Samsung etc.

Uiteraard hebben ze exacte cijfers, maar zoals de oude uitspraak luidt: "There are lies, damned lies and statistics". Omdat er geen manier is om het nu te controleren kiezen ze de mooiste eruit en publiceren dat. Ja kunt er waarschijnlijk vanuit gaan dat in het overgrote deel van andere populaire/grote games de winst minder is.

Minimaal 6/10 zijn bovendien games die klaarblijkelijk stevig voor NV optimaliseren, anders zouden die nu nog geen DLSS versies beschikbaar hebben.

Neem er een lepel zout bij en zoals altijd, wees niet te erg teleurgesteld als de kaart niet doorgaans 1.5x of 2x sneller is dan de vorige.

De vergelijking is natuurlijk ook raar, want de 1080Ti is beduidend sneller dan de 1080. Als je dat verschil hierbij meeneemt, kom je op winsten van rond de 20%. Maar 50% winst is natuurlijk betere marketing. De echte vraag is waar de GTX2070 en 2080Ti dan in het spectrum zullen vallen. Als het gat dermate klein is tussen 1080Ti en RTX2080, dan is er weinig ruimte.

[Reactie gewijzigd door Darkstriker op 25 juli 2024 04:39]

Waarom denkt iedereen dat de rtx 2080 sneller gaat zijn dan de 1080ti?

Volgens de gegevens van nVidia zelf haalt de 2080 10.1 tflops en de 1080ti 11.3 tflops, dus zo'n snelheidsmonster is de 2080 helemaal niet, als er geen raytracing gebruikt wordt.
De 1080ti is trouwens zo'n 16% trager dan de 2080ti, volgens dezelfde gegevens.

Tot slot vraag ik me af of het enablenvan raytracing in games de framerate zal verhogen of net vertragen? Want dit klinkt allemaal erg gelijkend aan de nVidia hairworks van een paar jaar geleden.
Beide het kan bestaande load versnellen. Maar bij RTX extended load kan het juist vertragen waarbij software fallback methode een non RTX kaart helemaal keldert.
Omdat ze geen kaart zullen uitbrengen die bijna 2x zo duur is zonder dat ie beter zou presteren in zijn markt
Schattige gedachte, maar zolang ze er mee weg kunnen komen doen ze het ook gewoon.

nVidia's redenering is dan ook gewoon hij is wel sneller als Raytracing gebruikt wordt, plus dit is een opvolger van de 1080 niet van de 1080TI, dus hij hoeft alleen maar sneller te zijn als zijn opvolger

De beelden die ze lieten zien van Tomb raider met Raytracing aan scheen maar op een framerate te lopen van tussen de 30 en 50 FPS

[Reactie gewijzigd door Sinester op 25 juli 2024 04:39]

De 2080 en de 1080ti worden volgens mij ongeveer dezelfde prijs.
Over het algemeen jkun je uit de hoeveelheid cores en geheugenbandbreedte aardig opmaken wat de performance met normale niet speciaal geoptimalseerde spellen is.
Dus over de gehele linie zo'n 30% beter dan de zelfde klasse kaart uit de vorige serie.
De grap is natuurlijk ook dat de 2080 aanzienlijk duurder is dan de 1080. Je kan het daarom niet enkel zien als verbeterde technologie, maar het is simpelweg ook duurder en behoort daardoor tot een andere klasse, waardoor de vergelijking lang niet zo interessant is.

[Reactie gewijzigd door NoThankYou op 25 juli 2024 04:39]

Daarnaast zijn er redelijk wat gamers die een 144hz monitor hebben (1440p) vaak. Die schermen beginnen ook steeds betaalbaarder te worden, wie weet zijn 4k 144hz schermen straks ook betaalbaar en daar zit je dan met 60 fps
Eens! Daarnaast staat het internet al vol met artikelen m.b.t. de RTX techniek. Blijkbaar haalt de RTX2080ti met moeite 30-60FPS in FullHD wanneer RTX (Ray tracking techniek) aanstaat.

Persoonlijk ben ik dus bang dat de RTX 2070 niet eens de 30FPS zal halen. :'( :'(

[Reactie gewijzigd door Anoniem: 449978 op 25 juli 2024 04:39]

Lijkt me dat het gewoon nog wat driver issues zijn.
Anders wel eenn slechte marketings techniek.
Dus met DLSS wordt de RTX2080 opeens twee keer zo snel?

Is DLSS dan de vervanger van een intensieve vorm van AA?
Kijk je naar de 72 fps welke ze beloven in F1 2017 is dit exact de score die HWI haalde in hun test met een 1080 Ti; https://nl.hardware.info/...ltaten-ultra-hdn3840x2160

Kortom een verbetering van zo'n 25-30% tozv een normale GTX 1080 zal de waarheid wel zijn?.
Nee het is geen vervanger , het DSSL deel is Deep Learning Super Sampling , het is AI technologie ter ondersteuning van anti aliasing.

[Reactie gewijzigd door wow7 op 25 juli 2024 04:39]

maar op 4k gebruik je toch meestal geen AA?
Nuja, niet per se nodig maar soms zie je nog steeds een hele lichte vorming van karteltjes. Dan zal 2xAA wel het werk doen.
Ik zou niet weten waarom je het niet zou gebruiken, het is een optie die aardig wat FPS kost maar met genoeg power kan AA net dat extra geven in Schaduwen , Transparante objecten etc ( alhoewel ik zelf naarmate je 4k game ziet er geen toevoeging aan ziet ) , er zijn zat games die gewoon in 4k AA ondersteunen en de optie er voor hebben , FXAA is de andere optie.
Het enige dat AA de afgelopen jaren lijkt te geven en blur.
Ik voel me bij iedere game waar de anticheat het toelaat reshade te gebruiken puur voor lumi sharpning.
Temporal AA vooral. Juist op 4k is dat heel irritant. Lagere resolutie blurred van nature :) En dan lichte 2x AA ofzo voor wat duidelijkere edges.
Game jij op 4k? Welke temporal AA optie gebruik je ? Transparancy is dat wat je bedoeld?
Jazeker wel, anders zie je alsnog vele foutjes. Lichte vormen van AA zijn voldoende

[Reactie gewijzigd door Gamebuster op 25 juli 2024 04:39]

Over het algemeen niet, het is dus een niche. Op 4k zal je hooguit iets in de richting van FXAA of MLAA aanzetten.
Misschien als je een gigantisch lage DPI hebt dat AA nut heeft.
Het wordt minder belangrijk, maar laat de puristen maar gillen, iedereen weet dat je 1080 laat janken @ 4K met degelijke AA. Something's Got to Give.

Onderschat de performance impact niet die AI kan bieden, denk upscaling van de betere OLED schermen. Impressive stuff.
Ik mis belangrijk gegeven kijk afstand en monitor grote.
Mijn monitor 32" 4K en een 1440 die staan wat dieper.

Dus mijn kijk afstand is wat groter .

Dus 4K op 27" zal AA amper nodig zijn gezien je die micro trapjes niet meer ziet en 42" monitor op normale monitor afstan tja dan is de kans groter dat mischien toch wat ziet.
Super Sampling is toch een vorm van AA? Ik zou dus verwachten dat DLSS een vorm van AA die door de Tensor codes hardwarematig kan worden versneld.
Lees dit eens door :)

Hier staat het hele verhaal en welke games dit ondersteunen
Exact wat ik zei dus.

Een AI oplossing om aliasing te verminderen, ipv te brute kracht oplossingen die we nu gebruiken.
Nvidia: RTX 2080 presteert in games anderhalf keer zo snel als GTX 1080
Jammer de Geforce GTX 1080 was 2x zo snel als de Geforce GTX 980 in spellen.

En de Geforce GTX 1080 Ti haalt met gemak 68fps in Star Wars Battlefront II op 4k, dus dan is de Geforce GTX 2080 dus langzamer dan de Geforce GTX 1080 Ti, erg vreemd als dat waar is.

https://www.guru3d.com/ar...storm_mini_review,12.html

[Reactie gewijzigd door AmigaWolf op 25 juli 2024 04:39]

Met DLSS gebruikt de RTX 2080 de Tensor-kernen voor kunstmatige intelligentie om pixels te interpoleren om zo sneller frames op het scherm te kunnen tonen.
Zeker geen AA, maar een algorithme wat "voorspelt" waar en hoe pixels op het scherm komen.

Voor wat betreft mijzelf, als de 2080Ti ook minstens 1,5 keer zo snel als mijn 1080Ti wordt, schaf ik hem wel aan een paar maanden na release. De 1080Ti trekt Ultra wide (3440x1440) gewoon niet op full settings. Ik speel het meeste maar in een window op 2400x1400 of zo, dan gaat het net.
Ik game ook op 3440x1440 maar met een GTX1080. Heb met geen enkel spel problemen om op ultra te draaien. Alleen Kingdom Come vond ik te zwaar op ultra, dus die heb ik maar wat lager gezet. Vrij normaal voor dat spel ook.
Speel je met gsync? Scheelt vaak veel voor de beleving. Heb je AA aan op hoge settings?
De resolutie verlagen naar iets niet-native is het laatste wat ik doe. Dat is juist wat het beeld niet mooier maakt en ook niet evenredig veel sneller of soepeler.

De GTX1080 is naar mijn mening inderdaad op het randje met 3440x1440 als je alles max wil draaien (geen hoge AA dan). Maar je Ti versie zou echt geen probleem moeten zijn 99% van de tijd. Ik geef het alleen maar aan, omdat er wellicht iets anders je prestaties verminderd. Driver updates, cpu, warmte, of te hoge AA wat je op dergelijke resolutie (net als 4k) in principe uit zou moeten laten.

Of zoek je een excuus om zo snel mogelijk toch maar die nieuwste kaart weer te kopen. :P

De RTX2080 Ti wordt alsnog een stukje sneller, maar in verhouding nog een stuk duurder ook.
Ook deze 20xx generatie sla ik over om daarna naar de 30xx serie te gaan. Die Ray-tracing en tensor cores zijn sexy, maar ik verwacht dat die nog niet meteen in veel games nuttig worden ingezet. nVidia doet zijn best om mensen van current-gen naar next-gen te slepen, maar ik zou aanraden om door die hype heen te wachten. Tenzij je jaarlijks 1000+ euro wil bijleggen voor de nieuwste top-gpu. Het lijkt voor mensen met een GTX980 of lager wel een goed moment om een upgrade te doen, wellicht meteen met 4k scherm (of 3440x1440 21:9).

[Reactie gewijzigd door Playa del C. op 25 juli 2024 04:39]

InflatableMouse geeft aan windowed the spelen, dus hij gebruikt die resolutie niet full-screen. Dan zou het zeker beter moeten werken op hogere fps of zelfde fps met betere graphics.

Zelf heb ik een 3340x1440p 60Hz scherm en zit te kijken om een gpu te kopen. Voorheen had ik een laptop en heb deze desktop(i7-8600k 16GB) gebouwd zonder gpu omdat ik de prijzen te hoog vond. Ik zit nu te overwegen een GTX 1080 te kopen als de prijzen zakken na de releases. Of zou je juist een GTX 2070 aanraden? ALs ik je bericht zo lees zouden beide voldoende moeten zijn om op 60fps te gamen op 3440x1440p.
Dat klopt, maar ik zou zelf zeker voor de nieuwe generatie gaan (als de prijzen normaal zijn). En dan liefst een 2080 of 2080ti... Maar als geld een rol speelt de 2070 dus.
Ik neem aan dat ze dan op lagere resolutie renderen en dat upscalen naar 4k, en die performance vergelijken met native/full 4k renderen. Ik ben iets skeptisch over de kwaliteit van DLSS upscaling versus native, maar wie weet... ik voorzie blurry blokkerig beeld met irritante temporal artifacts.
Een video (helaas met camera geschoten) over DLSS vs TSAA in actie:

https://www.youtube.com/watch?v=x-mVK3mj_xk
Wat ik me begin af te vragen: Vanaf welke resolutie/fps verhouding gaat de huidige mens geen verschil meer zien?
Ik ben recent overgestapt op een 144Hz monitor, welke toch merkbaar sneller is dan een 60Hz scherm wat de standaard is. Dat zie ik dus goed. Ook het verschil van 1080p naar 1440p is goed te zien. Maar het verschil tussen 1440p en 4k zie ik persoonlijk echt niet op een 27" scherm. En het verschil tussen 144Hz en 180+Hz zie ik ook niet.

Dat zal per mens verschillen neem ik aan, maar ik denk dat 144Hz op 1440p de "sweet spot" is vandaag de dag. Dan heb je niet de duurste videokaarten nodig en heb je echt fantastisch beeld :) Mogelijk dat dit over een paar jaar richting 160Hz op 4k gaat, maar daarboven... dat is volgens mij echt niet zichtbaar meer.
Maar toch moet de nadruk op input lag ook vergroot worden. Ik heb 2 vrienden, 1 daarvan heeft een 24" 144hz scherm met 7ms input lag en de ander heeft een 60hz scherm met 1ms input lag en ik heb echt mijn best gedaan met gamen op een lan party en die 144 hz verloor het heel dik in gevoel met de 60hz. Het nare is dat die 144hz scherm over de 700 euro kostte, best recent nog ook. Mensen verkijken zichzelf te dik op hz en niet genoeg op input lag.

En dit is niet als rant bedoeld op jou hoor, maar ik heb het zovaak gezien hier in de comments dat mensen Input lag en response time door elkaar halen. Het lijkt wel alsof het maar niet duidelijk wil zijn zelfs op Tweakers niet.
Tja je meer onderzoek verrichten. 1ms panelen zijn er wel. Maar mensen zijn lui en willen het nu en dan krijg je slechtere producten voor je geld.
Dta hangt van het beeld af. Film was vroeger 24 Hz, dat werkt al redelijk, TV hier werktte op 50 Hz, en daar was het al nauwelijks merkbaar. Rond de eeuwwisseling kwamen er 100 Hz TV's, verdubbeld van 50, maar veel mensen zagen het verschil niet met 50 Hz. In de VS werkte men met 60 Hz TV's, en daar is 120 Hz uberhaupt niet van de grond gekomen; 60 Hz was simpelweg genoeg.

Bij monitoren zag je dus ook heel lang diezelfde 60 Hz. Rond 2000 zag je nog wel eens 72 Hz bij professionele schermen, maar dat was redelijke niche.

144 Hz schermen zijn hype. Ja, ze zijn beter dan 60 Hz, maar het verschil is marginaal. 120 Hz (2x60) was logischer geweest, en net zo goed als 144.
Wat een stel azijnzeikers.

In processorland mogen we onze billen dichtknijpen als we 5% Single threaded performance improvement hebben per 2 generaties.

Tjongejonge. Elke claim van fabrikanten moet je met een korreltje zout nemen, waarom bij Nvidia opeens niet?
Inderdaad, blijkbaar verwacht iedereen telkens dat men kan toveren. Was het maar zo simpel allemaal, dan had AMD allang het bij kunnen benen.

Ik ben zeker te spreken over de vooruitgang. Die is zoveel sneller dan cpu's gegaan de laatste 10 jaar.
De prijzen gaan echt wel zakken. Mensen die gelijk een pre-order doen, betalen altijd veel te veel.

Laat de kaart uitkomen en wacht een paar maanden, dan zit die waarschijnlijk aan hetzelfde bedrag als de 10 serie bij launch.
Precies als we 5 jaar geleden hadden geroepen dat we over 5 jaar al 4k 60 fps konden gamen hadden ze het niet geloofd. Wat dat betreft is de gpu prestatie rap vooruit gegaan maar blijkbaar nooit genoeg...
Het kan aan mij liggen maar begint de baseline (de waarde die de 1080 behaalt) niet op 1? en ik zie nergens de grafiek op de 2.5 uit komen. Dit betekent dat de maximale winst die hier wordt weer gegeven uit komt op 1.3x zo snel.

Dit overigens alleen als er gebruik wordt gemaakt van nvidia dlss. Gaat deze uit dan zakt de performance terug naar max 0.7x. Dit lijkt me nou niet een hele verbetering gezien de die-size van de 2080 ti (754 mm2) met 1.6x is toegenomen tenopzichte van de 1080 ti (471 mm2).[1] Ik weet dat ik hier een vergelijking maar met de ti versie, maar die vergroting van de die-size zal dus ook van toepassing zijn op de overige serie.

Even in vergelijking met de ruimte die hier extra gebruikt wordt: een threadripper 1950X heeft een die-size van 213mm2.[2]

Toevoeging:
Even uitgaande van BF1 4K HDR met een 2080: 84FPS (aanname ultra settings)
En een 1080 gemiddeld op 55 FPS zit[3].
Is dit een toename van 1.52727272727x

Dus laten de echte benchmarks maar komen.

bron:
[1]https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units#GeForce_20_series
[2]https://www.techpowerup.com/cpudb/1904/ryzen-threadripper-1950x
[3]https://www.youtube.com/watch?v=4PvCBny1zxQ

[Reactie gewijzigd door wvalk op 25 juli 2024 04:39]

Ik denk dat je de wiskunde niet goed interpreteert. 1,3x zo snel betekent een toename van 30%. 1,5x zo snel betekent een toename van 50%.
Dus als voor game X de lijn van 1 betekent 40 fps, dan is de lijn van 1,5 60fps. 1,5x zo sterk.

Ik zie veel donkergroene lijnen uitkomen op 1,5. Dus er mankeert niets aan het artikel.

Het gaat hier trouwens om de 2080, niet de TI. Een toename van tussen de 30% en 50% voor een generatie is naar mijn mening best fors. Maar daar mag gelukkig iedereen een mening over hebben.
Je hebt gelijk maar de titel luide gister dat dat de 2080 een prestatie winst zou hebben van 2.5x.

Ik heb overigens de vergelijking met de TI gemaakt omdat hiervan de die-size beschikbaar was. Deze is voor de overige chips nog niet bekent.
Ik weet niet superveel over hoe de die size gemeten is of hoe dit precies werkt, maar is die niet voornamelijk groter door de extra logica voor ray tracing?
2.5? 1.5 is anderhalf keer en niet 2.5. Bewering klopt dus aardig als je van die grafieken uit mag gaan.

Wat is er mis met een verbetering (DLSS/Tensor en RT niet meegerekend) van 30-50% van 1080 > 2080?

Volgens mij is dat een aardige stap voor 1 generatie upgrade. Afgelopen generaties was dat eerder 20-30%. De prijs opslag is alleen wat groter dan eerdere generaties vanwege de nieuwe technieken (RT/Tensor) die ik best indrukwekkend vind.
Zal best, maar dan zonder raytracing. Intussen heb je dan wel een hoge prijs betaald voor raytracing.

Met raytracing zakt het naar 1080p ~60fps. Dan heb je een hoge prijs betaald voor mooiere graphics maar op lagere resolutie en fps dan wat je gewend was.
Ben wel benieuwd hoe jij aan die info komt? Of denk je dat het zo is?

[Reactie gewijzigd door watercoolertje op 25 juli 2024 04:39]

https://www.anandtech.com...80-ti-realtime-raytracing

Shadow of the Tomb Raider "the game was rendered in 1080p and capped at 60fps with the graphics settings locked, but I could definitely notice framedrops"

"For Battlefield V, the situation was similar with a 1080p 144Hz monitor, playing on the Rotterdam map over LAN. There were framedrops during fast-paced scenes and in general it didn’t seem like it could keep up with the game."
Beta drivers met beta engines. Kan je nu echt nog geen conclusies uit trekken
Dus een 2080 TI zou dus alles met gemak op 4k en 60+ fps kunnen draaien?
Nee, dit zijn namelijk geen objectieve cijfers en er wordt niks gezegd over minimale FPS of frametimes.

Verder valt me op dat Tweakers en HWI allebei om exact 20:00 hetzelfde bericht plaatsen. Nvidia is weer flink bezig met agressieve marketing, dit mag wel een .adv artikel worden aangezien de bron Nvidia zelf is. Verder zeggen deze slides helaas helemaal niks.. ik wil het objectieve verschil in frametimes en minimale FPS zien in verschillende game engines, dus niet Nvidia favored games met gefabriceerde Nvidia cijfers/instellingen. Het feit dat ze geen echte cijfers of een 3Dmark score laten zien spreekt wat mij betreft boekdelen.

[Reactie gewijzigd door stin00 op 25 juli 2024 04:39]

Het was mij inderdaad ook opgevallen. Hoewel ik er nog steeds vanuit ga dat zowel Tweakers en HWI onafhankelijk zijn, wordt het steeds lastiger om door de marketing van de bedrijven heen te prikken. Gelukkig is de 'community' vaak waakzaam en kritisch. Het meest waardevolle onderdeel van Tweakers, HWI en aanverwante sites.
Nvidia is weer flink bezig met agressieve marketing, dit mag wel een .adv artikel worden aangezien de bron Nvidia zelf is.
Is het sturen van een persbericht nu ook al agressieve marketing?
Je doet nu wel alsof het verdacht is dat twee sites tegelijk publiceren, maar dat zegt meer over jou dan over die sites.

Het is compleet normaal dat NVidia een bericht onder embargo uitstuurt, zodat alle mediabedrijven tegelijk kunnen publiceren. Zouden ze dat niet doen, dan trekken ze daarmee impliciet één bedrijf voor. Dit wijst erop dat NVidia juist niemand voortrekt.
Ik snap het hele probleem niet zo. Mag een bedrijf dan geen marketing gebruiken? Elk bedrijf werkt zo. Zelfs de supermarkt waar jij dagelijks boodschappen doet. Tel al die boodschappen maar eens bij elkaar op die je eigenlijk niet nodig had. Daar had je een RTX 2080 voor kunnen kopen.

De kaarten komen binnen een maand uit en dan kun je alles rustig bekijken. Dat er mensen zijn die deze kaarten blind bestellen geloof ik niks van. Voor de meeste mensen is dit een behoorlijke uitgave. Daarnaast koop je een dergelijke kaart alleen voor specifieke doeleinden (zoals 4k gaming wat een behoorlijke niche markt is). Alsof die mensen in die prijsklasse maar blind dingen gaan kopen.

Dit is gewoon marketing done right. En daar is helemaal niks mis mee.
Nochtans ken ik enkele streamers die meteen gepreorderred hebben, al zitten deze misschien in andere categorie.
Natuurlijk: die hebben als eerste dan een nieuwe kaart, blaten er over in hun stream en 'iedereen' linkt er heen en kijkt: alles voor meer views.
Nee, zoals je hierboven leest heeft Nvidia op dit moment een geloofwaardigheidsprobleem / vertrouwensprobleem. De 'nerds' zijn niet gecharmeerd van de vrij domme slides die min of meer hun intelligentie beledigen, en dit soort dingen zal doorsijpelen in future sales. Marketing done wrong.
Ach al met all was de amd vega hype en de 480 hype niet anders. Hoge verwachtingen grote teleurstellingen.
Met alle instellingen op very low zal het moeten lukken.

Maar ff serieus, het zal wel vet zijn als je de meeste games op minstens high op 4k resolutie zal kunnen spelen.

Onafhankelijke reviews/benchmarks zullen dit de komende maand wel laten zien.
Met alle instellingen op very low zal het moeten lukken.
Dat zal wel meevallen als je raytracing maar uit zet.
precies, ff benchmarks afwachten.
En dan nog, of het waard is (met mijn 'normale' 1440p monitor) om de gtx970 sli te vervangen, die snelheidswinst zal wel marginaal zijn. (buiten het feit dat die kaarten stinkduur zijn en ik ook een waterblok nodig zal hebben)...

Toch, elke snelheidswinst is mooi toch...
Dat lukt nu al gewoon met een GTX 1080 of zelfs 1070. PUBG draait bij mij steady boven de 60FPS met mijn GTX 1080. Idd is dan niet alles op Max, maar er zijn een aantal settings nogal loos. Denk bijvoorbeeld aan 16X AA, nergens meer voor nodig met 4K; je ziet het toch niet. ik heb AA in veel games uit staan, soms 2x voor de smaak.
Ik game zelf op een GTX1080TI OC met een 4k resolutie, maar er is eigenlijk geen spel wat ik niet op 4k/60fps high kan spelen, Witcher 3 zelfs op ultra!
Moet je wel bij zeggen met welke settings. Op Low ja.
RTX enabled games op alles max out extreem settings nee.
Dat kan mijn 980TI ook wel hoor... gewoon settings iets omlaag gooien.

Op dit item kan niet meer gereageerd worden.