Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

'Nvidia: RTX 3090 is met raytracing en dlss twee keer zo snel als RTX 2080 Ti'

Nvidia's GeForce RTX 3090 is in verschillende games met raytracing twee keer zo snel als de RTX 2080 Ti. Dat zou de fabrikant claimen in slides die zijn uitgelekt. Het gaat om tests in 4k-resolutie met ultra-settings en dlss ingeschakeld.

Op de slides staan de relatieve prestaties van de RTX 3090 en RTX 2080 Ti in de games Control, Minecraft RTX, en Wolfenstein: Youngblood. De slides zijn online gezet door een onbekende Twitter-gebruiker, maar ogen officieel. Naast een presentatieslide toont de gebruiker ook een afbeelding van de GeForce RTX 3090 Founders Edition.

Als het gaat om pure rekenkracht is de RTX 3090 op basis van de specificaties lang niet twee keer zo snel als de RTX 2080 Ti. Bij gebruik van speciale technieken als raytracing en dlss kunnen de prestaties echter flink verschillen, door specifieke verbeteringen voor dergelijke berekeningen. De RTX 3000-kaarten bevatten volgens geruchten een nieuwe generatie van RT-cores voor raytracing.

Nvidia introduceert zijn nieuwe GeForce-videokaarten dinsdagavond om 18:00 uur Nederlandse tijd via een livestream. In de afgelopen dagen kwamen al de specificaties naar buiten en waren RTX 3090- en RTX 3080-kaarten van verschillende fabrikanten te zien.

GeForce RTX 3090 GeForce RTX 3080 GeForce RTX 3070
Gpu 7nm, GA102-300 7nm, GA102-200 ?nm, GA104-300
Cuda-cores 5248 4352 nnb
Boostsnelheid 1695MHz 1710MHz nnb
Vram 24GB gddr6x 10GB gddr6x 8GB gddr6
Geheugensnelheid 19,5GBit/s 19Gbit/s 16Gbit/s
Geheugenbus 384bit 320bit 256bit
Geheugenbandbreedte 936GB/s 760GB/s 512GB/s
Tgp 350W 320W 220W

Specificaties volgens VideoCardz, gebaseerd op custom RTX 3000-kaarten zonder overklok.

Door Julian Huijbregts

Nieuwsredacteur

31-08-2020 • 17:37

276 Linkedin

Reacties (276)

Wijzig sortering
Dit had ik ook al gelezen inderdaad, wel apart dat dit artikel verschijnt ipv de leaks van meer betrouwbare bronnen zoals kopite7kimi op Reddit.

Gebaseerd op de Time Spy Extreme Benchmark (Updated Score):
The 3090 is ~18% faster than the 3080.
The 3090 is ~56% faster than the 2080Ti.
The 3080 is ~33% faster than the 2080Ti.
The 3080 is ~70% faster than the 2080.
Het is inderdaad nep:

Nvidia heeft namelijk zojuist aangekondigd dat de 3080 2x zo snel is als de 2080ti. Dat is dan wel met ray-tracing, waar de 2000 serie eigenlijk nog niet heel goed in is. Ik vraag me af hoeveel het scheelt als ray-tracing uit staat. Ik gok dat het dan een kleiner verschil is.
Ze zeiden 2 keer zo snel als een gewone RTX 2080 niet de TI versie.
Oja, ik zie het nu. De 3070 zou sneller zijn dan de 2080ti, maar ze zeggen niet exact hoeveel sneller. De 3080 twee keer zo snel als de 2080.
Wat nog steeds heel goed is voor dezelfde prijs 699. Ben blij dat ik de RTX heb overgeslagen. Ik heb nog altijd een 1080ti die even snel is als de RTX 2080 ongeveer, dus ga er zeker op voorruit :D
Opzich niet raar dat de nieuwe kaarten 2x zo snel zijn.
Turing was de eerste poging tot hardware accelerated hybrid ray tracing. En die componenten waren zo traag dat het de rest van de GPU tegen hield als je het aan zette. Dus niet zo raar dat de nieuwe generatie dit dan kan doen zonder grote performance impact. Waar rasterisation performance misschien 30-40% hoger is zullen specifieke RT effecten wel 300% of meer sneller kunnen zijn. Volgens mij zit er er ook een nieuwe generatie tensor core in dus ook DLSS en andere bewerkingen zullen daar ook wel efficienter uitgevoerd kunnen worden.

In ieder geval mooie verbeteringen. In mijn ogen mooier en bruikbaarder dan van Pascal naar Turing.
Want je was als Turing koper wel echt een beta tester en de voordelenwogen in mijn ogen niet op tegen de nadelen. Als je Pascal had zou ik nooit zijn gaan upgraden. Met Ampere en Big Navi is het wel weer een goed moment om iets nieuws te kopen. En deze RT hardware is ook echt snel genoeg zodat het bruikbaar zal zijn.
Dat was mijn gedachte ook. Ray tracing had zo'n performance impact in de rtx 2000 serie dat met alleen al het vergroten van de ray tracing performance meer fps gehaald zou kunnen worden uit de rtx 2000 serie met ray tracing.
En ik herinner mij nog een geruchtenartikel op HWI over ampere en de flink toegenomen ray tracing performance. Dat lijkt nu dus wel waar te worden, al is het nog even afwachten hoeveel. Ook het artikel op HWI dat de rtx 3090 zo'n 34 miljard transistors gaat krijgen lijkt dit misschien te gaan ondersteunen. De toename van de cuda cores zou deze grote toename in vergelijking met de rtx2080ti niet alleen kunnen verklaren. Met flink meer rtx cores zal dus ook een groot aantal transistors gemoeit zijn.

Welke tensor cores de rtx 3000 gaat krijgen ben ik benieuwd naar. De A100 ampere chips heeft wel nieuwe en verbeterde tensor cores, maar vooral voor AI doeleinden volgens mij(afgaande op de presentatie van de A100). Ik weet niet of dit nuttig is voor de rtx 3000 serie of dat de 'oude' tensor cores van de 2000 serie voldoende zouden zijn. Maar anderzijds zou dat inhouden dat je de chip moet aanpassen met de 'oude' tensor cores. Ook het mogelijke grote aantal transistors van de rtx 3090 zou misschien kunnen wijzen op nieuwe tensor cores.

Nog even geduld, vanavond om 18:00 de presentatie van de rtx 3000 serie. :)
De Tensor cores worden ook gebruikt voor denoising bij RT dus als ze dat sneller kunnen is dat ook een groot voordeel.
Dat is ook wel zo ja, al had ik ergens het idee dat de tensor core performance wel voldoende zou zijn. Geen idee hoe zwaar belast die worden in gebruik met ray tracing, je zou denken dat de vele tflops, 125 tflops topmodel, wel voldoende zou zijn. Maar inderdaad elke verbetering is meegenomen, zeker verbruik.
RTX 3080 sneller dan een 2080ti en gewoon stukken goedkoper
Ongekend. Dit wordt mijn nieuwe GPU. Ik kom van een 560ti haha.
2 x zo snel zal ook wel 2 x zo duur wezen. Ben benieuwd wat de prijzen gaan worden van deze kaarten.
Een bron voor prijzen in de VS (in USD, zonder BTW).
GeForce RTX 3090: $1399
GeForce RTX 3080: $799
GeForce RTX 3070: $599
GeForce RTX 3060: $399
AMD moet echt diens zaken op orde krijgen, want Nvidia heeft een goede concurrent nodig om de prijzen omlaag te drukken. Ik zou graag een videokaart van AMD kopen voor gaming, maar heb geen tijd en zin om met onstabiele drivers om te gaan (waar veel over werd geklaagd bij de introductie van Navi), en wel voldoende inkomen om een Nvidia videokaart te kopen. Dat is de reden dat ik geen AMD kaart nam. Een upgrade heb ik dan ook uitgesteld omdat ik een videokaart heb die nog aardig meegaat.

Als je nog een GTX 1080 TI hebt dan hoef je AMD sowieso niet te overwogen als upgrade. Het huidige vlaggenschip van AMD heeft vergelijkbare prestaties met de Nvidia kaart van drie jaar oud.

Over dit nieuwsbericht:
Niets zegt wat over prestaties totdat men ijskoude benchmarkcijfers levert. De rest is ballast.

[Reactie gewijzigd door The Zep Man op 31 augustus 2020 23:08]

Als Big Navi écht zo goed wordt als de geruchten voorspel ik dat AMD een grote inhaalslag zal maken.
Hoor daar nog steeds gemengde dingen over, Hoop het voor AMD, maar tegelijker tijd betwijfel ik het wel heel erg gezien dat Navi zelf nog het gewoon niet eens het net niet is. :(
Navi heeft de 2060, 2060s, 2070, 2070s en de 2080 eigenlijk allemaal belachelijk gemaakt.

De 2080 is meer als 2 keer de prijs van een 5700xt, maar nog geen 20% sneller. De 2070s is nauwelijks sneller als de 5700xt maar wel flink duurder. En de rest is allemaal langzamer voor het zelfde geld of zelfs duurder.

En de 5700xt is met 250mm2 niks meer als een mid range GPU.

Met big navi gaat AMD pas een high end 7nm GPU maken.
Navi heeft de 2060, 2060s, 2070, 2070s en de 2080 eigenlijk allemaal belachelijk gemaakt.

De 2080 is meer als 2 keer de prijs van een 5700xt, maar nog geen 20% sneller. De 2070s is nauwelijks sneller als de 5700xt maar wel flink duurder. En de rest is allemaal langzamer voor het zelfde geld of zelfs duurder.

En de 5700xt is met 250mm2 niks meer als een mid range GPU.

Met big navi gaat AMD pas een high end 7nm GPU maken.
AMD heeft niet toevallig de 5700(XT) zo in de markt gezet. Sterker nog, ze hebben de prijs nog voor de lancering bijgesteld als direct reactie op het vernieuwde super aanbod. https://www.engadget.com/...adeon-5700-price-cut.html

Nvidia heeft nog een keer gereageerd met de prijsverlaging van de RTX 2060, daarop paste AMD de clocks van de 5600(XT) aan https://www.techradar.com...as-big-rtx-2060-price-cut

Echter ondanks de betere prijs/prestatie van Navi lijkt AMD het niet bepaald makkelijk te hebben. Daar waar de steam survey betreffende cpu's in beweging is gekomen (Ryzen) is dat bij de videokaarten nog niet het geval. Ook andere bronnen bevestigen dit beeld. Zo kwam JPR recent met de mededeling dat Nvidia 80% marktaandeel heeft tegenover 20% voor AMD voor losse videokaarten. Blijkbaar zijn de Navi kaarten in de ogen van de consument nog steeds te duur.

In 2021 krijgt Radeon ook te maken met Intel. De vraag is of Intel marktaandeel gaat wegsnoepen van AMD of Nvidia. Zo ver ik weet heeft Intel aangegeven met midrange te starten dus dat zou met de huidige line-up voor AMD niet héél prettig zijn. (Niet dat Nvidia er dan geen last van zal hebben, de populairste kaart is de 2060).

[Reactie gewijzigd door sdk1985 op 1 september 2020 03:01]

Doe mij maar gewoon een betaalbare GPU die 4k kan trekken op hoge settings. Laat RTX en DLSS maar zitten als het daardoor een stuk goedkoper wordt. Het hoeft niet altijd sneller of met meer features.

[Reactie gewijzigd door Blackice09 op 31 augustus 2020 21:02]

Door DLSS wordt 4k op hoge settings juist goedkoper. Het is òf meer brute kracht en daar dus voor moeten betalen, of je betaald een beetje meer voor de tensor cores en zorgt dat het op die manier mogelijk is.
20 serie is te langzaam voor ray tracing. punt. (en hoeveel games hebben nu ray tracing, 2 jaar(!) nadat nvidia een lijst van 20 toekomstige games liet zien? 2? 3? zelfs als je de lijst uitbreid met dingen als global illumination kom je misschien op 5)

DLSS was tot versie 2.0 compleet inferieur aan AMD's veel simpelere en lichtere CAS, wat ook nog eens werkt op veel meer games. en nu werkt DLSS 2.0 in wel geteld 3 games maar zie je ook dat het in death stranding het snel bewegende details, zoals regen of de voor gameplay belangrijke details in de zwarte goop van de game, gewoon wegvraagd.
En dat is inherent is aan de nieuwe manier van werken die lijkt op TAA en gaan ze dus zeer waarschijnlijk ook niet oplossen.

Falende drivers heb ik niks van gemerkt. Mijn enige probleem met navi was een b450 bord dat dacht dat hij wel PCIe 4.0 aan kon.

En dat het grotere publiek in de marketing van nvidia trapt maakt hun kaarten niet minder belachelijk.

[Reactie gewijzigd door Countess op 1 september 2020 10:14]

Nee, die is niet te langzaam voor Ray tracing, de implimentaties zijn prima. En dat weet ik omdat ik een 2080ti heb gehad, het lijstje is ook een stukje groter dan 5. Ook DLSS2.0 Wordt samen in veel meer games gebruikt dan jij doet voorkomen.
Falende drivers heb ik niks van gemerkt. Mijn enige probleem met navi was een b450 bord dat dacht dat hij wel PCIe 4.0 aan kon.
Klinkt allemaal een beetje als AMD fanboy "argumenten", ik koop ze niet. Je argumenten niet en de kaarten al helemaal niet, nog niet voor de helft van wat ze nu kosten. Niet perse omdat het AMD is, Die CPU's zijn prima, maar voor mijn GPU wil ik het beste, en dat is AMD gewoon niet, nooit geweest en dat gaat het waarschijnlijk ook nooit worden.
En dat het grotere publiek in de marketing van nvidia trapt maakt hun kaarten niet minder belachelijk.
Dat vind jij, en wat jij belachelijk vind, dat doet niet ter zake. De rest van de consumenten vind dat niet, en dat blijkt uit de cijfertjes.

[Reactie gewijzigd door dezwarteziel op 1 september 2020 10:45]

Nee, die is niet te langzaam voor Ray tracing, de implimentaties zijn prima.
Er is welgeteld één game die, misschien, het spelen waard is waarin het werkt: control. En bij die game hebben ze de omgevingen zo enorm moeten versimpelen om de performance in takt te houden dat het mij tenminste duidelijk opvalt.
Klinkt allemaal een beetje als AMD fanboy "argumenten", ik koop ze niet. Je argumenten niet en de kaarten al helemaal niet, nog niet voor de helft van wat ze nu kosten. Niet perse omdat het AMD is, Die CPU's zijn prima, maar voor mijn GPU wil ik het beste, en dat is AMD gewoon niet, nooit geweest en dat gaat het waarschijnlijk ook nooit worden.
meest. fanboy. reactie. ooit!

Jij hebt of heel jong (maar wat doe je dan met een 2080ti?), of je let niet op.
Zelf ff op blijven letten, RTX fortnite zo'n beetje het meest gespeelde spel dat er is. Verder zijn er nog hoopjes RTX games en DLSS games die er al zijn of die komen gaan. Dat jij alleen control kan noemen doet niet ter zake. Het gaat niet om jou, mijn punt is dat AMD nergens te bekennen is, al jaren niet meer. En totdat we weten wat "big navi" gaat doen blijft dat zo. Tegen die tijd hangt mijn 3090 er al ff in.
Meest gespeeld op hardware als de intel IGP en een mobile telefoon.
daarbij is het alleen een aankondiging, en dat meer als 2 jaar na de launch van RTX.
mijn punt is dat AMD nergens te bekennen is, al jaren niet meer.
Wat een onzin. AMD heeft in de midrange ALTIJD betere GPU's gehad als nvidia voor het zelfde geld (buiten de mining crisis om). En GCN Schaalde misschien niet lekker met meer CU's maar dat probleem is nu weg.
Dat jij alleen control kan noemen doet niet ter zake. Het gaat niet om jou
Toch kan ook niks meer noemen, je doet het niet tenminste.
Ja, een aankondiging. meer als 2 jaar na de launch van RTX.

En zeg ik dat het om mij gaat dan? Dat maak jij er van door het op te man af te spelen. Zwakke debater tactieken zijn dat, en getuigen niet van het willen voeren van een eerlijk debat.
Tegen die tijd hangt mijn 3090 er al ff in.
En kom je er ineens achter dat je veel te veel hebt betaald voor een warmte kanon, dat met een beetje geluk, misschien nog net sneller is.

[Reactie gewijzigd door Countess op 1 september 2020 21:07]

Wat een onzin. AMD heeft in de midrange ALTIJD betere GPU's gehad
Nee man, lariekoek, alles wat AMD in het middensegment doet, daar heeft Nvidia een gepast antwoord op, geen driver problemen, werkt allemaal vlekkenloos. In het high-end segment, daar waar de beste en de snelste zich meten, juist daar is niks van AMD, al jaren niet meer. En wie niet presteert op het hoogste niveau, tsja, die doet eigenlijk niet mee voor de beker.

Nogmaals, het gaat er niet om wat jij vind, het gaat om feiten. Jij noemt alleen control, dat is onzin, je verkoopt koek, lariekoek welteverstaan.

Toedeledokie :+

[Reactie gewijzigd door dezwarteziel op 1 september 2020 21:40]

En nog steeds kan je zelf niks noemen.

2 jaar! 2 jaar heeft nvidia gehad om de lineup van 20 games die ze bij launch presenteerde te realiseren, en er zijn er maar een handje vol uitgekomen, en de meeste daarvan met maar 1 RTX feature, vaak met bedenkelijke voordelen wat visuals betreft, en nog veel bedenkelijkere performance.
daar heeft Nvidia een gepast antwoord op
Allemaal duurder, of langzamer, of beide.

Fijn dat je zelf een clowns neus op zet.
Er zijn genoeg Digital Foundry filmpjes van afgelopen anderhalf jaar waar er hoopjes Ray Tracing games getoonsd worden. Verder is net Fortnite RTX aangetoond en hebben zullen de PS5 en xbox series X RTX hebben. Net als de komende "big" Navi kaarten. De feature is al redelijk veel gebruikt en gaat in vrijwel elke AAA terug komen. Cyberpunk 2077 om er nog maar eens eentje te noemen.

Dan kun je wel je kop in het zand blijven steken, maar die clownneus is natuurlijk voor jou |:( . Je speelt jezelf tegen en je verkoopt onzin praatjes. Je hebt namelijk verder geen argumenten. Nogmaals, mijn beste clowntje, er is niks van AMD in het high-end segment. It's lonely at the top

[Reactie gewijzigd door dezwarteziel op 2 september 2020 07:20]

"maar voor mijn GPU wil ik het beste, en dat is AMD gewoon niet, nooit geweest en dat gaat het waarschijnlijk ook nooit worden."

Die zin is feitelijk gewoon onjuist. Al is het wel al een tijd geleden.
4870x2 was op afstand de snelste kaart tijdens release.
De HD4850 en HD4870(eerste kaart met GDDR5) zorgde ervoor dat Nvidia de prijzen van hun GTX 260 en GTX280 met honderden euro's moesten laten zakken. Ook moest de shadercount van de GTX260 omhoog om competitief te blijven.

De HD5xxx serie was op alle vlakken superieur aan het Nvidia aanbod. De GTX480 was een heethoofd en een flop. Pas met de revisie GTX 5xx serie was er een goed antwoord. Gelukkig voor Nvidia was de HD6xxx serie een mini stap vooruit. Pas vanaf de GTX 6xx serie was Nvidia echt weer de boven liggende partij. Dat hebben ze ook niet meer los gelaten.
Na de 5970 overgestapt op de 6950 (in crossfire), dat was beestachtig destijds in bijvoorbeeld Battlefield 3. Helaas wel microstutter wat pas laat opgelost werd. Performance van beide generaties was top.

Laatste jaren heb ik helaas geen AMD meer gehad. Heb met die 6950 crossfire (met die microstutter al dus) alleen maar issues gehad met drivers, ondanks dat de performance fantastisch was. Terug gegaan naar Nvidia vanaf een 970, en niet meer terug gekeken.

Wat betreft CPU's echter, een ryzen 3600x en straks upgrade naar een Zen 3. Hoop dat ze ook out of the box competitieve videokaarten gaan maken met goede drivers want ik gun het ze. Op dit moment is het helaas gewoon niet zo. Na deze presentatie van Nvidia heb ik ook echt het idee dat AMD deze generatie weer 2e viool zal moeten spelen :(

[Reactie gewijzigd door OriginalFlyingdutchman op 1 september 2020 20:39]

Nee het is vaker wat geweest zo ook tijdens de ATI 9600/9700/9800(XT)

We zeiden ook na Bulldozer dit gaat nooit meer wat worden. AMD heeft daar na de 2de generatie i processoren geen concurrerend product gehad tot de eerste Ryzen. Phenom 2 was nog wel te pruimen(zeker de hexacore varianten).

Nu met Zen 2 zijn ze onbetwist de beste op vrijwel elk vlak. Van laptops (helaas te weinig beschikbaarheid) tot servers en alles wat er tussen zit.

We weten het gewoon niet totdat de producten daadwerkelijk uit zijn. De HD 4xxx serie kwam ook vanuit het niets. En liet mij met 2 Nvidia 9600gt's teleurgesteld achter. 1 4870 van m'n vriendin (computer die ik voor haar later had gebouwd) was beter dan mijn SLI set-up met een quad-core. En dat met een Intel dual-core van 55 euro.

Voor de kenners hier een E5200 overgeclocked van 2.5 ghz naar 4.3 ghz.
Meestal kan je wel een stuk afgaan op wat de concurrentie doet.

Als Nvidia een GPU uitbrengt van 350W (base), dan betekent dit waarschijnlijk dat ze schrik hebben
dat AMD hun top-performance zou kunnen bedreigen. Nvidia heeft de voorbije paar generaties de meer efficiente GPU's (perf/watt) uitgebracht, dus dit gaan ze niet zomaar doen.

Ja, het zijn geruchten, maar bij nvidia hebben ze waarschijnlijk wel wat betere informatie, alsook een hele hoop mensen die de gevolgen van architecturale wijzigingen toch wel ietwat kunnen voorspellen.
GPU makers weten aan begin van ontwikkeling van next gen uiteraard niet wat de concurrentie doet. Behalve dat er gerucht opduikt of roadmap met Big navi erin. Maar ondertussen is de ontwikkeling gaande en pas laat komen de kaarten op tavel. Gezien het kwa procedé niet vlot kun godzila big chip maatje extremer maken.
ik verwacht dat dit zeer grote chips zijn om de kans op de kroon te maximaliseren.
Big Navi zal mogelijk niet zo big zijn en daarmee kwa performance ergens tussen in vallen.
Lijkt mij sterk dat AMD nu super big gaat. De vraag is alleen of AMD RDNA2 power performance efficiëntie mee komt met de concurrentie.
De vraag is alleen of AMD RDNA2 power performance efficiëntie mee komt met de concurrentie
Lijkt me niet heel lastig aangezien RDNA dat nu al grotendeels is, of RDNA2 moet opeens minder efficient zijn als RDNA
AMD en Nvidia leggen allebei ook in grote lijnen uit hoe hun volgende architectuur beter gaat zijn dan de huidige. Aangezien er in beide kanten gevuld zijn met mensen die dag-in, dag-uit met gpu architectuur bezig zijn, zullen die mensen op basis van die beschrijving al een redelijke estimate kunnen maken.

De grote verassingen zitten dan meestal in een procédé dat boven of onder de verwachtingen presteerd, en daardoor veel betere of slechtere gpu's oplevert dan de estimate
Wat hebben de geruchten concreet voorspeld dan?
3080TI performance(wat nu dus de 3090 te zijn) voor 1000 dollar. Maar dat is altijd afwachten. Of 50% meer performance voor het zelfde stroom verbruik.

Maar goed het zijn geruchten en moeten gewoon wachten tot ze er zijn. Als het goed is dit jaar nog.
wat is een 3080Ti? Er is nog geen Ti versie van de 30 series bekendgemaakt.
Als de prijzen van $1399 voor de 3090 en $799 voor de 3080 kloppen dan ligt het wel voor de hand dat er later nog een 3080Ti bijkomt die het gat opvult.
Waardoor je nu vooral de goede benaming moet gebruiken, hoewel het ook goed mogelijk is dat Ti verdwijnt en Nvidia volledig overgaat naar Super.
Volgens Moore's Law is Dead zou Nvidia mogelijk van beide namen af willen om duidelijker over te komen naar consumenten. Zo had je bijvoorbeeld de GTX 1650, de GTX 1650Ti en de GTX 1650 Super. Ik verdiep mezelf niet echt in deze videokaarten, maar mij zegt me totaal niet welke videokaart de beste is van de drie.
dat was de naam van de naam van nvidia's beste kaart uit de 3xxx reeks. Maar die hebben ze de 3090 genoemd dit ging om geruchten uit januari 2020 of zo.

Vandaar dat ik ook typte
3080TI performance(wat nu dus de 3090 te zijn)
Ik weet niet hoe ik die opmerking over het hoofd heb gezien
Huh, maar de comment waarop ik reageer heeft het over de Big Navi AMD kaart...
Ik bedoelde dat de beste big navi 3080ti performance/spec zou hebben voor 1000 dollar. En dat ze flink minder stroom zouden verbruiken.

Maar goed het is of het 1 of het andere. Geloof nooit dat ze een 3090 met minder verbruik gaan realiseren. 1 van de 2 zou al mooi zijn.
Nou, ik denk het niet. AMD kan op 7nm Nvidia op 12nm niet eens bij blijven.
Klopt maar wel even een kanttekening.
De 5700XT is maar 251mm2
Een RTX 2070-2080 is 545mm2

7nm is echter ook een stuk duurder per wafer gezien de gigantische vraag voor dit procedé van TSMC.
Desondanks zou de kostprijs per die best in voordeel voor AMD kunnen uitvallen. Terwijl die 5700XT toch best een leuke GPU is.

Ze hebben geen nieuwe grote "Navi" Gpu op de markt gebracht. De laatste grote was de Radeon VII (en dat was echt een mega flop.) Daarvoor uiteraard de Vega 64. En dat was nou ook niet echt om over naar huis te schrijven.
Dat heeft denk ik meer te maken met dat AMD tegen een thermische limit aan zit waardoor ze er niet meer transistors in stoppen. AMD schreef zelf al voor dat een 5700XT gewoon dood leuk 110C mocht worden, hotspot of niet, ik vind dit toch wat hoog. Nvidia neemt het gemiddelde maar dan zitten ze daar nog steeds gemiddeld ~15C onder.
Je kan er altijd meer transistors zeker als de oppervlakt toeneemd.
De vraag is of je hem dan nog steeds zo hoog kan laten clocken.
5700XT's zijn met 1605-1905 heel hoog geclocked voor een GPU. Zo krijg je met een relatief kleine chip erg veel performance. Echter kost dat meer stroom en word de boel ook warmer.

ter vergelijking een RTX 2080 zit op 1515-1710. De Polaris gebaseerde RX580 zat op 1257-1340
Dat zijn hele mooie geruchten inderdaad, waar komen die vandaan? :D
Ik heb die leak ook nog helemaal niet voorbij zien komen, wil je leaks zien? AdoredTV of Moore's Law is Dead op YoutTube zoeken. Niemand weet iets van AMD/RDNA2 eerste ding wat echt was was Xbox Hot Chips presentatie. RDNA2; efficient, kan groot zijn en met ray tracing. 2080Ti + 30 tot 50% perf was een oude leak maar voor het nieuwste moet je toch echt naar die 2 YT kanalen gaan, al zijn deze wel veel met NVidia bezig ivm presentatie binnenkort.
Ik heb die leak ook nog helemaal niet voorbij zien komen, wil je leaks zien? AdoredTV of Moore's Law is Dead op YoutTube zoeken.
Beide kanalen zijn gehost door mensen die compleet halsoverkop verliefd zijn op hun eigen stem. Ze lullen een uur in de wind en zeggen daarbij helemaal niks. Daarbij heeft AdoredTV nou niet bepaald een goede track record qua betrouwbaarheid. Volgens hem ging AMD ook 7nm kaarten leveren in 2019 met 1080Ti performance voor $250. Zijn volgers kwamen, bot gezegd, even thuis van een koude kermis toen AMD met de Radeon VII kwam die 2 jaar na de lancering van de 1080Ti met gelijke performance kwam, alleen voor dezelfde prijs van $699. Die kaart was dan ook DOA voordat hij ook maar gereleased was.

Moore's Law heeft nog vrij weinig krediet opgebouwd, maar herkauwt veel van dezelfde geruchten die AdoredTV gebruikt. Om toch enigszins onderscheidend te zijn (er moeten immers YouTube likes geoogst worden) gooit hij er een fantasiesausje overheen met allemaal zelfbedachte theorieën en zit vervolgens AMD/Intel/NVIDIA af te kraken op basis van zijn eigen fantasieën. Heel leuk allemaal, maar ik verwacht niet anders dat hij eind dit jaar ook gekenmerkt wordt door r/AMD als onbetrouwbaar.
De drivers waren op het begin echt ruk mee eens maar dat is al meer dan 8 maanden goed en ze worden elke keer weer beter. Daarnaast snap ik niet dat mensen blind maar nieuwe Nvidia kopen zonder de reviews af te wachten.

RDNA2 zitten in beide consoles geloof maar dat games goed zullen we worden geoptimaliseerd voor deze architectuur en dat het best zo eens kunnen zijn dat AMD beter uit de verf komt.
Blind kopen is altijd onverstandig.

Je argument over consoles klopt, maar tegelijkertijd moet je beseffen dat ook de huidige consoles door AMD voorzien worden.
Dat zijn ruim 7 jaar oude Jaguar cores op 28nm...
https://en.m.wikipedia.org/wiki/Jaguar_(microarchitecture)

Een 1 core Ryzen zal al over die APU heen walsen. Er komt een 8 core 16 thread ZEN 2 CPU in de PS5 op 7nm met een RDNA2 GPU ernaast.
Dat klopt, het punt was dan ook dat met het argument van hierboven we dus 6 a 7 jaar een flinke sprong van AMD hadden moeten zien op grafisch vlak.
Het is waarschijnlijker dat de goede console verkopen voor R&D budget gezorgd hebben en er daarom nu toch een slag gemaakt kan worden. Gezamenlijk meer dan 100.000.000 units verkocht...
Ik heb ergens gelezen (of dat waar is geen idee) dat een Epic medewerker heeft medegedeeld dat een PS5 qua performance niet sneller is dan een high end PC met een 2070S in de Unreal Engine 5 demo. Het zijn leuke specs in de nieuwe consoles maar gaan echt niet beter presteren dan een high end PC met een 2080 of hoger. Maar goed, voor de prijs (voor zover bekend) van de nieuwe console(s) is dat zeker geen verkeerde prestatieverhouding.
Voor de zoveelste keer, en dat vergeet iedereen telkens weer: vast platform zonder verschillen in hardware configuratie. Daar kan je heel, heel erg goed voor optimaliseren en levert wel degelijk winst op. Bovendien wil je ook in budget blijven, of had je liever een console gehad die 3x zoveel kost?

Die vergelijkingen altijd met een PC raken kant nog wal. Het is een console ervaring. Iets ander type gebruik, andere budgetten en een totaalpakket wat out of the box werkt en jarenlang meegaat.
Dat niet alleen er zitten ook nog heel wat extra optimalisatie's op de Nieuwe Consoles
om alle date meer te streamlijnen
BV.. bij Sony de Snelle SSD en de speciale chip die voor de connectie zorgt tussen de SSD en de APU
Dat zie je denk ik nog niet meteen op een moederboard terug.
Dat is gister door Nvidia ook alweer achterhaald. Op de nieuwe chipsets van AMD / PCI-e 4 is dit op de PC ook mogelijk met nog snellere SSD's dan wat er in de console zit. Hoewel daar natuurlijk wel een prijskaartje aan hangt.
Console en PC gaming liggen dichter bij elkaar dan ooit. In een console zit letterlijk dezelfde architectuur als in een PC. Alleen is de werking in de console net even iets anders. Maar er zitten gewoon AMD CPU en GPU's in gebaseerd op de architectuur die ook in de PC wordt gebruikt.

Daarnaast kun je een PC gewoon aansluiten op je TV, controller er aan koppelen en je hebt gewoon letterlijk een console. Microsoft heeft dat ook wel door en brengen hun games niet meer exclusief uit maar direct op XBOX en PC via gamepass. Ook zie je tegenwoordig steeds meer crossplay tussen console en PC. Ultieme voorbeeld is COD Warzone.

Nvidia brengt de 3070 uit voor 500 euro. Deze GPU blaast de nieuwe consoles omver qua rekenkracht. Dan kun je optimaliseren wat je wilt maar dan kom je nog steeds niet in de buurt van 3070 performance. Dus qua budget hoef je het ook niet te laten gezien de meeste mensen al een PC hebben. Net zo goed dat je voor een console ook een goede TV in huis moet hebben voor de beste ervaring.

Waarom denk je dat pro gamers tegenwoordig op een PC met controller spelen? Omdat je op een console hopeloos achterloopt qua performance. Lagere FPS betekent hogere input lag en het verschil tussen console en PC performance is zo groot dat je gewoon enorm in het nadeel bent. Een PC gamer met gelijke skills zal dus altijd winnen van een console gamer in crossplay FPS games zoals Cod Warzone.

Het enige voordeel wat de nieuwe consoles straks nog hebben:

- Exclusieve games (alleen voor de PS5, XBOX doet daar al niet meer aan)
- Het voordeel dat over het algemeen alle games out of the box werken. Maar dan wel zonder enige opties om de instellingen aan te passen en vaak relatief lage FPS.

Dus ja, die vergelijking is wel degelijk te maken.

[Reactie gewijzigd door biggydeen2 op 2 september 2020 08:27]

Daar heb je gelijk in maar ik heb de Sony Console voor de Exclusieve Games verder is mijn PC hopeloos verouderd en zou een upgrade ik denk meer dan 2 consoles kosten.
Verder game ik ook niet meer zo heel veel dus er komt voor mij een PS5 zodat ik de wat oudere games ook op betere kwalitijd kan spelen.
Nee, dat is het niet. Dat de architectuur hetzelfde is, staat compleet los van het gegeven feit dat hardware configuratie ontzettend kan verschillen en men in breder aspect moet gaan optimaliseren. Nogmaals, het vaste hardware platform kan heel erg gericht voor geoptimaliseerd worden. Dat is wat ik zeg.
Dat kan zeker maar dan kun je het nog steeds vergelijken met pc performance. En in dat opzicht lopen de nieuwe consoles nu alweer achter terwijl de consoles nog niet eens uit zijn.
Vergelijken is in dit geval een vrijheid die je kan en mag nemen vanwege de sterk-gelijkende architectuur. Voor zover de berichtgeving gaat, en in mijn interpretatie, is het niet helemaal 1-op-1 vergelijkbaar. Dat ze achter lopen in de vrijheid van vergelijking komt ook temeer door wat ik al eerder ook aangaf: de console moet wel in redelijkheid betaalbaar blijven. Betaalbaarheid teneinde zoveel mogelijk consumenten het apparaat aan te (kunnen) laten schaffen. Een console met verregaande technologie had wellicht gelijk kunnen staan met enthousiasteling-niveau pc's, maar voor een maand-loon?

Ook niet helemaal eerlijk, laten we nou wel zijn - de apparaten worden bedacht en ontwikkeld enkele jaren voor uitbrengen en dan zet je op een gegeven moment toch in op een vast en gesloten platform, dit moet op een gegeven moment en dan neem je reacties zoals de berichten die jij en anderen opperen voor lief. Je moet ergens beginnen om vooruit te kunnen gaan.

[Reactie gewijzigd door SkyStreaker op 2 september 2020 15:35]

Kopt maar de GPUs in the consoles zijn zeer gelimiteerd. 36CU's in the PS5 en 52 in de xxXboxSeriesXxx (stomme naam).

De hoogste kaart voor big Navi word verwacht op 80CU's (of 76). (Meer dan) dubbel dat van de PS5, met vergelijkbare snelheden (hopelijk hoger) en zonder de VRam te hoeven delen.

Eerst zien dan geloven natuurlijk maar RDNA2 heeft duidelijk potentie. Ik ga zeker wachten tot NVidia en AMD hun kaarten hebben laten zien voordat ik een keuze maak.
Alhoewel je gelijk hebt dat het geheugen niet gedeeld hoeft te worden kunnen met Horizon Zero Dawn PC versie zien dat dat beide kanten op werken.
Ik zou Horizon Zero Dawn nou niet zo snel als een goed voorbeeld gebruiken. ;) Ik kan hem pas net goed spelen met de nieuwe 1.03 patch.

Je hebt gelijk dat je met optimalisatie een hoop kunt halen uit Shared Memory. Maar dat kan niet op tegen de bandbreedte van dedicated.

Kijk maar naar Death Stranding op de zelfde engine. ;)
De PS5 heeft slechts 36 cu's in zijn GPU.
RDNA2 zou tot 80 cu's gaan. Dus meer dan 2x de performance die in de PS5 zit als ze aan dezelfde kloksnelheid lopen.

[Reactie gewijzigd door BlaDeKke op 31 augustus 2020 22:19]

alleen zit je over 6+ jaar nog met diezelfde console specs en over 2 jaar heb ik de 4080 er allang in zitten.
De 5700xt is trager dan een 2070S en heeft een boost clock van 2010 mhz. Maar heeft wel meer CU's (40 vs 36) dan de versie in de PS5. Ik denk niet dat de PS5 qua performance echt veel beter gaat presteren. Maar we moeten de benchmarks afwachten.
Het enige dat we weten is dat de XSX volgens Microsoft gelijkwaardig presteert aan een RTX2080 non-super. Aangezien de PS5 GPU hoe dan ook trager gaat zijn, zal de PS5 performance inderdaad tussen de 2080 en 2070 liggen.
Het enige dat we weten is dat de XSX volgens Microsoft gelijkwaardig presteert aan een RTX2080 non-super.
Dat is zeer zeker niet wat ze gezegd hebben. Wel is een keer gezegd dat een hele vroege gears 5 port voor de series x, die ze in 2 weken in elkaar geflanst hadden, al 2080 prestaties had.

De gebruikte settings zouden vergelijkbaar zijn geweest met ultra op de PC, maar daarboven op hadden de developers ook raytracing based global illumination toegevoegd.

De developers hebben daarna ook nog specifiek gezegd dat er nog veel 'untapped potential' uit de series x te halen valt.

https://www.eurogamer.net...-xbox-series-x-full-specs
"I think relative to where we're at and just looking at our experience with the hardware with this particular game, I think we're really positive to kind of see how this thing is performing, especially knowing how much untapped performance is still there in the box based on the work we've done so far," Coalition tech director Mike Raynor says.
Deze developers verwacht dus heel duidelijk nog meer performance uit de series X te gaan halen als alleen 2080 niveau.

[Reactie gewijzigd door Countess op 1 september 2020 19:23]

RDNA2 zitten in beide consoles geloof maar dat games goed zullen we worden geoptimaliseerd voor deze architectuur en dat het best zo eens kunnen zijn dat AMD beter uit de verf komt.
Dat is met de huidige generatie ook zo, alleen daar merken we bar weinig van die architectuur specifieke optimalisaties waar je op doelt.

Ik geloof er dus niet zo in dat dat nu ineens wel verschil gaat maken.
Het argument bij AMD gpu's is altijd iets in de trant van 'let maar op, over een jaar is het beter'!

En dat is het dan eigenlijk nooit.

Ik hoop dat ze een slamdunk hebben deze keer, maar producten kopen en dan hopen dat ze over een paar jaar ineens een stuk beter zijn geloof ik niet in.

Daarnaast zal Nvidia over een jaar ook een stuk verder zijn met hun drivers en dus meer uit de Ampére architectuur halen. Ze zitten er alleen doorgaans vanaf het begin al beter bovenop.

Maargoed, wie weet, we gaan het zien, ik hoop echt dat AMD weer eens keihard kan mee concurreren.

Net als op CPU gebied.
Dat is helaas niet waar, ik heb drie maanden geleden nog twee 5700XT's moeten RMA'en vanwege zwarte schermen en hardware freezes. Daarna een 2070 Super gekocht en nul problemen en daarnaast veel stiller maar ja wel duurder. Maar zo zijn er velen, zulke crashes en hardware freezes dat is echt lang geleden dat ik heb meegemaakt, vind dat wel schandalig en gelukkig dat je hier spullen nog makkelijk kan terugsturen.

[Reactie gewijzigd door epo op 31 augustus 2020 18:38]

Exact hetzelfde probleem hier. 5700 XT en alleen maar crashes (groene en zwarte schermen) en bizarre temperaturen van 115C (wat volgens AMD bizar genoeg ok is). Het enige wat ik te horen kreeg was dat ik stabiele drivers moet zoeken. Een dag geprobeerd, daarna weer in de doos, terug er mee en voor de komende 20 jaar weer genezen van AMD/ATi. De drivers waren al ruk ten tijde van de Verge en zijn dat nog altijd. Sinds de TNT en TNT2 nog nóóit problemen gehad met NVidia en daar betaal ik lachend graag een beetje meer voor. Het lijkt met AMD een loterij en je kunt geluk hebben dat het werkt. Meerdere malen een systeem met een AMD gpu gehad en het was altijd hét onderdeel dat voor issues zorgde zoals blue screens. Voor nu zeg ik; voorlopig niet meer

[Reactie gewijzigd door HerrPino op 31 augustus 2020 19:59]

115 graden is oprecht knap, mijn 5700 met oem koeler (lawaaiding zegt men) hoor ik amper tijdens het gamen en wordt niet warm. Wel alles gewoon stock, maar bij 70 graden gaat de fan richting 100% en dan stijgt 'ie op als je max draait. Is dat een aftermarket koeler? OC?
Jammer voor je. Hier is vrijwel uitsluitend ATI/AMD in huis geweest vanaf 2001 ofzo (9800 pro O+) en zeker nu met de uitstekende open source drivers onder Linux komt Nvidia hier er niet in.
9800 Pro All-In-Wonder... woei wat een topkaart :)
Ik geloof je hoor, maar weet je. Het is allemaal zo persoonlijk. Ik heb zelf bakken met problemen gehad met nvidia van verschillende generaties. En met AMD/ATI in 18 jaar nog nooit niks en heb minimaal 3 systemen tegelijkertijd.
Je kunt het niet zo makkelijk zeggen wie nou het meeste problemen geeft, daarvoor zijn er te veel fanboys.
Soms ligt ook gewoon aan de gebruiker... Maar soit. Ze zeggen allemaal veel kennis en ervaring te hebben...

En dat gedoe van internet staat vol. Ja we kennen allemaal de Reddit na-aap trukken.

[Reactie gewijzigd door d3x op 31 augustus 2020 20:20]

Helemaal gelijk man, ik heb al jaren m'n 1080Ti en af en toe moet je gewoon een en ander uit/aan zetten en soms even Google. Bijvoorbeeld als ik mijn Asus GPU tweak overlay aan heb staan dan crasht Warzone bij startup met een Dev error. Even simpele eliminatie probleem zoeken en je bent er zo. Heb bijvoorbeeld tijdje gehad dat sommige games niet startten wanneer ik mijn 4790K op 5Ghz had geclocked.
Maar op deze manier houden simpele AMD kopers wel de mythes rondom slechte drivers en slechte kaarten in leven. Laatst artikel gezien dat het om het even is welke kaart en welke drivers je hebt, het gaat namelijk bij beide kampen op en neer.
We hebben bij de reviews zo als (hardware unboxed )ook gezien dat bepaalde fabrikanten de koeling niet op orde hadden. Tevens trekken AMD video kaarten meer stroom sommige voedingen trekken dat niet zitten mensen net op het randje... Wat je ook bij hardware unboxed zie is AMD drivers worden steeds beter en na 3 jaar heb je meer performance uit amd dan een Nvidia concurrent. Natuurlijk zijn er ook driver problemen zeker bij multimonitor setups. Het gekke is dat mijn Mac nergens last van Heeft....
Soms ligt het aan de PC... Op zich snap ik wel wat je wil zeggen. Die PC is in zekere zin een verlengstuk van die gebruiker. Ik heb ze zelf niet, maar ik begrijp dat 5700 XT kaarten best warm zijn.

Als je een dergelijke kaart in een derde hands PC kast inbouwt die met zijn thermische huishouding op hardware van een decennium terug is geënt, dan heb je eigenlijk al een handicap te pakken. De goede kasten trouwens niet te na gesproken, die waren een decennium terug ook al wel te koop. Dit is denk ik best een valkuil voor upgraders die zo'n nieuwe kaart in een bestaand systeem ploppen (hij past!). Dat die kaart meer vermogen verwerkt (en dissipeert) in vergelijking met zijn voorganger is op zich ook iets dat ook aan genoeg tweakers voorbij kan gaan. Upgraden is op zich prima, maar sta stil bij koeling en de voeding bij het overstappen op nieuwe hardware. Wees op zijn minst alert op de temperaturen bij het test draaien.

Iets anders wat mij opvalt is dat kasten tegenwoordig vooral klein moeten zijn, begrijpelijk vanuit de gedachte dat je naar een LAN party wil kunnen, maar als je echt stevige gamehardware wil gebruiken dan heeft die in de eerste plaats ruimte nodig om te ademen en om nog wat luchtverplaatsing rond bekabeling toe te kunnen laten. Nu is hardware kleiner en koeler aan het worden maar deze mode om de behuizingen te verkleinen schiet de performanceverbetering van de hardware naar mijn indruk voorbij.

Ik wil hiermee de specs van die AMD kaarten niet rechtvaardigen, maar als je hiervoor kiest dan moet je gewoon goed naar je voeding en je koeling kijken. Genoeg bronnen op het internet die je hierin aan de hand kunnen nemen.

[Reactie gewijzigd door teacup op 31 augustus 2020 22:07]

En hier draait de 5700 probleemloos. Wat is je punt? Jouw ervaring is niet gelijk aan die van de rest van de wereld. Als je dit kan staven met cijfers mag je die bewering houden, maar ik vrees een gevalletje van gedeelde factor voor die 2 rma's of gewoon heel veel bad luck.
Nee dat is zeker geen geval van bad luck en een bekend probleem wanneer je twee schermen gebruikt met verschillende resoluties. Google maar eens en veel gebruikers met die problemen. Dus ga dan niet kinderachtig doen en je merk verdedigen.
Qua prestaties een prima kaart en ik hoop dat de volgende zeker sneller is dan die van nVidia. Maar die driver problemen zijn gewoon slecht, en misschien geeneens een driver probleem. Ik koop niet op merk maar bang voor de buck, maar bang hier was wat te letterlijk ;)

[Reactie gewijzigd door epo op 31 augustus 2020 19:58]

En heb je op een van de schermen Freesync?
Dan heb je mazzel, er zijn lig problemen en dat lag niet aan mijn systeem.
Huidige consoles hebben ook AMD graphics, wat heeft dat gedaan voor huidige spellen op PC?
Huidige consoles hebben ook AMD graphics, wat heeft dat gedaan voor huidige spellen op PC?
Zonder daar echt onderzoek naar de doen kan niemand dat antwoorden

Er zijn bijvoorbeeld spellen waar AMD zeer goed presteerd in vergelijking met nVidia, wellicht komt dat wel door de optimalisaties.. who knows
Helaas doet amd veel minder aan software ontwikkeling dan nvida. Opengl implementatie blijft achter tov nvidia, geen cuda alternatief etc. Alleen de game drivers krijgen aandacht, en ook die was tot eind vorig jaar slecht, hoewel nu de meeste driver problemen wel opgelost zijn.

Helaas heb ik mijn 5700 binnen de aankoop garantie moeten terug sturen door het gebrek aan goede opengl implementatie en moeten vervangen voor een 2070, terwijl ik toch echt een amd fan ben.
Daarnaast snap ik niet dat mensen blind maar nieuwe Nvidia kopen zonder de reviews af te wachten.

RDNA2 zitten in beide consoles geloof maar dat games goed zullen we worden geoptimaliseerd voor deze architectuur en dat het best zo eens kunnen zijn dat AMD beter uit de verf komt.
Is dat zo? De reviews zijn er in de regel eerder dan dat de winkels voorraad hebben.
RDNA2 zitten in beide consoles geloof maar dat games goed zullen we worden geoptimaliseerd voor deze architectuur en dat het best zo eens kunnen zijn dat AMD beter uit de verf komt.
AMD zit al een hele tijd in de console business (lees xbox one en ps4) dus ik zou niet gaan gokken op magische optimalisaties. In plaats daarvan kwam je zelf al met het beste advies; de reviews afwachten en, tegenwoordig misschien wel belangrijker, een paar weken wachten en dan op reddit kijken hoeveel driver problemen er zijn.

[Reactie gewijzigd door sdk1985 op 1 september 2020 03:05]

Langer, ATI in de Wii en zelfs de GameCube dacht ik.
Gezien de specs van de 3090 had ik de prijs een stuk hoger verwacht eigenlijk. Ben benieuwd hoe dit zich gaat vertalen naar de Europese markt. Verwacht toch echt wel dat we op zo'n 2000 euro gaan eindigen incl btw.
Meestal worden dollar prijzen de euro prijzen toch?

1399 USD is ongeveer 1170 euro, plus 21% is z'n 1415 euro. Klinkt 2000 dan niet een beetje heel extreem?
Als je ziet wat het prijsverloop is van de top tier kaarten over de laatste jaren zou het mij niets verbazen. Maar je hebt wel een punt.
True, officiële en daadwerkelijke prijzen hebben niet bepaald gelijk gelopen de laatste tijd geloof ik.
Op de week of 2 net na de launch na (of als er te korten zijn) zijn de prijzen gewoon dollars in euro's omrekenen en dan de BTW erbij. Dat wijkt nauwelijks af.
Reken daar maar niet op. Tijdens de introductie van de 2080ti was de prijs $999. Ik heb nog geen 2080ti gezien voor 1000 euro.
Sorry? nog hoger? De 1080ti was gewoon $699 en maakte waarschijnlijk een grotere stap opde 980ti dan 2080ti>3090
En de 1080 ti was dat ook waard. Lijkt tegenwoordig meer op wat de gek ervoor geeft.
AMD zal misschien geen competitie bieden op de high end (3080/3090 range) maar als ze goed performance kunnen neerzetten op de low-mid segmenten kunnen ze nog goede business hebben denk ik.
Wellicht juist daar uitblinken in prijs/kwaliteit, net als op processor vlak? Zou nog heel interessant kunnen worden gezien AMD op dit moment toch flinke stappen zet.

En natuurlijk niet te vergeten dat los van de PC markt ze nog 2 grote klanten hebben voor consoles die ook het een en ander in het laatje brengen ;)
Momenteel is de prijs/prestatie verhouding bij AMD ongeveer hetzelfde als bij Nvidia maar dan zonder raytracing. Ik zie ze de nieuwe generatie niet veel scherper prijzen.
De volgende generatie van AMD wordt geen nieuwe architectuur maar gewoon een volgende generatie Navi, dus zal het in vergelijking met een jaar terug sowieso meevallen. Niet dat dat onoverkomelijk was, want je kon gewoon handmatig via Apparaatbeheer de driver, zonder Adrenalin, uit de installer halen door deze van tevoren met 7zip uit te pakken. Dan heb je weliswaar geen overclocking via Global Wattman/Global Tuning, maar dan kun je MSI Afterburner of Asus GPU Tweak gebruiken.
Mijn ervaring met AMD is dat het altijd al drama is geweest met drivers. Vaak geprobeerd, maar altijd teleurgesteld. Mijn huidige laptop heeft helaas ook een AMD GPU maar ook daar veel te veel problemen mee gehad wat absoluut niet nodig zou moeten zijn.
En ik heb juist nooit problemen met AMD drivers. Nvidia daar in tegen... Mijn laptop had een 660m er in zitten. Wat een drama was dat.
Mijn ervaring is vergelijkbaar. Amd en eerder ati nooit problemen. Nvidia aan de andere kant, elke kaart die ik heb gehad had of driver problemen, of legde binnen 2 maanden het loodje.

Neem daarbij nividia's neiging om uit bullshit functies bakken met geld te willen slaan en de enige manier dat ze me ooit nog zo ver krijgen geld te betalen voor een nvidia kaart is als alle andere producenten er mee stoppen
Yep hetzelfde hier, alleen maar miserie met Nvidia, nog te zwijgen van de brakke Linux support. Altijd klooien met binary zooi die mij verplicht die of die kernel versie te draaien etc... Met AMD geen dergelijke problemen en alles draait fijn. En als extra bonus heb ik altijd langer acceptable prestaties uit mijn radeons kunnen halen dan uit Nvidia kaarten. Pas 2 maand geleden mijn HD5850 vervangen omdat 1GB geheugen te weinig was en niet vanwege te lage prestaties.
Tja pc van m’n vrouw draait nu een aantal maanden probleemloos een 5700XT ik heb ik het verleden verschillende amd kaarten gehad. Herken dit niet.
Ik heb jaren lang issues gehad met nvidia kaarten onder linux, terwijl mijn PC's met AMD kaart probleemloos werkten. Ja de AMD kaarten waren langzamer, maar wat heb je aan een snelle PC waar elk uur de displayserver van bevriest en je via ssh op in moet loggen om die te killen en herstarten...

Afgelopen twee jaar veel met OpenCL en CUDA bezig geweest. Moest vanwege dat laatste dus wel met team green werken. De nVidia drivers zijn eindelijk stabiel en bruikbaar, maar op Linux doen ze nog steeds onder voor AMD.
AMD had dezelfde probleem als intel nu maar maatje erger. iNtel 10nm probleem nu
AMD / Global foundry probleem toen , dat highperformance lang op 32nm moeten uitzingen waar intel naar 22nm naar 14nm dan maakt Zen ook niet uit. Dat is concurreren met AMD gelijke aan Sandybridge intels 32nm , maar dan werkelijkheid met AMD gelijke aan intels Netburst. Een piledriver module 4x ( fpu aan 2 alu cores) komt overeen met 4core/8ht . Een 32nm chiplet zou max 4cores zijn en veel minder cache.
Nou, dat wordt 1700 euro voor de RTX 3090 denkik.. weer een kaart die ik ga overslaan.. jezus Nvidia.. get your fucking act together.. het wordt tijd dat al die AI troep dedicated AI core shit nodig heeft en niet meer werkt op vidoekaarten zodat die troep weer betaalbaar wordt.. beetje zoals is gebeurd met bitcoin miners en ASIC's

[Reactie gewijzigd door cappie op 1 september 2020 09:13]

"Nvidia heeft een goede concurrent nodig om de prijzen omlaag te drukken"

Als iedereen alleen AMD wil om te concurreren met Nvidia, maar niet daadwerkelijk een AMD kaart kopen, dan zal AMD snel de concurrentie snel verliezen en gaat Nvidia vrolijk door met hun gekke prijzen.
Klopt, echter moeten ze wel een goed product hebben wat je wil hebben.
De 5700-5700XT zijn interessant. Maar daaronder pak ik of adviseer ik echt de GTX 1660ti.
Boven de 5700XT is er gewoon geen andere keus dan Nvidia
Misschien een belangrijke disclaimer: 2x zo snel met raytracing en DLSS
Gezien de performance drain van raytracing bij de huidige generatie, kan een serieuze optimalisatie van de raytracing processing al een enorme winst opleveren. Nvidia had zelf al aangegeven dat de volgende implementatie van raytracing minder performance drain zou veroorzaken.
De 3090 zal sneller zijn, maar zeker geen 2x.
Als de RTX 3080 de geruchten van 800 euro waar kan maken met 20% meer performance dan de 2080 Ti ben ik vooral benieuwd naar wat het gaat doen met de 2de hands markt.

Heb zelf een GTX 1080 maar in combinatie met een ultrawide 1440p monitor is het halen van 60fps op de hoge instellingen niet altijd gegarandeerd. Laat staan als ik doorpush naar ultra. Een 2080 Ti is qua performance een goede upgrade maar de prijs is gewoon niet te doen.
Als de geruchten kloppen dan kan je straks voor 3 a 400 euro minder dan een 2080ti een 3080 halen met 20/30 performance boven op die van de 2080ti. Als dat waar is dan wordt de markt straks overspoeld met goedkope 2080ti's :)
LinusTechTips in de afgelopen WAN show van zaterdag hadden het hier expliciet over.

Zij benoemde het feit dat Nvidia met elke generatie de prijzen érg aan het opdrijven is, en dat het gevolg hiervan is dat de 2e hands markt hierdoor ook érg hard geraakt wordt en dat oude producten véél langer waarde houden/relatief prijzig blijven.

'goedkoop' zou ik het dus niet noemen. Het idee is in der daad dat de oude generatie in prijs/waarde daalt wanneer de nieuwe generatie uitkomt, maar omdat Nvidia dus de afgelopen generaties steeds de prijzen over de gehele linie omhoog blijft gooien (wat ze kunnen omdat er gewoon geen noemenswaardige concurrentie is) is die daling minder dan het voorheen was.
Ik weet nog wel dat toen de RTX reeks uitkwam de prijzen voor (nieuwe) GTX 10xx serie kaarten nauwelijks bewogen...

Kijk voor de grap eens naar de prijsgrafiekken van wat kaarten:
- GTX 1080, is op dit moment nieuw even duur als bij introductie
- GTX 1080ti, is op dit moment nieuw even duur als bij introductie
- RTX 2080ti, is op dit moment nieuw nog steeds praktisch even duur als bij introductie
- GTX 1070, is op dit moment nieuw even duur/duurder als bij introductie
- GTX 1070Ti, is op dit moment nieuw even duur/duurder als bij introductie

De nieuwprijzen zijn fucked vanwege deze constante generatie prijsstijging, en dat drijft dus ook de 2e hands prijzen enorm omhoog.

[Reactie gewijzigd door Ayporos op 31 augustus 2020 18:43]

Deze prijzen geven ook een vertekend beeld wegens de run op videokaarten voor mining tijdens de crypto bull-run in 2017. Ik kocht toen een 1070 die een paar maanden later op de tweedehands markt meer waard was dan de aankoopprijs.
Wat dat betreft moet je er snel bij zijn, aangezien de cryptomarkt weer in opmars is :)
Klopt uiteraard wat je zegt dat er een crypto-run was, maar die eindigde sneller dan de kaartleveranciers dachten en die zaten dus uiteindelijk met meer chips/stock dan ze nodig hadden (ná de rush voorbij was) dus effectief zou dat weinig invloed moeten hebben op het huidige aanbod aan 'nieuwe' kaarten van oudere generaties.
Cyptomarkt voor mining is toch aardig dood vrees ik. In ieder geval voor videokaart-mining.
Zeker met deze 300+ Watt kaarten. Totaal niet rendabel.

[Reactie gewijzigd door DaManiac op 31 augustus 2020 20:17]

Een 1070ti welke je gebruikt om te minen verbruikt hooguit 125 watt. Het is nogal gebruikelijk om een GPU te onderclocken omdat je zo de beste stroomprijs/wattage hebt. En dat is nu nog wel degelijk rendabel.
Cyptomarkt voor mining is toch aardig dood vrees ik. In ieder geval voor videokaart-mining.
Zeker met deze 300+ Watt kaarten. Totaal niet rendabel.
Ik ken anders diverse mensen,en niet alleen bewoners van studentenkamers, die niet apart betalen voor de stroom, maar gewoon een all-in prijs. Of wat te denken van tuinders die bijvoorbeeld energie opwekken met restwarmte en meer aan het net leveren dan ze gebruiken? Zet in het kantoortje van je kas een mining rig neer, klaar.... zo'n nog altijd geen wietkwekerij qua verbruik, dus de kans om ermee weg te komen is redelijk aanwezig, zeker als je met 6 man ofzo stroom pakt van één meterkast.

[Reactie gewijzigd door Pianist1985 op 1 september 2020 01:18]

Hoeveel mensen gaan hun 2080ti weg doen voor zoon bodem bedrag? Ik denk dat veel mensen gewoon lekker bij die kaart blijven tot de volgende generatie.
Ik doe al ruim 5 jaar met mijn 980ti. Speel alles nog steeds op 1920 x 1200 60hz op ultra. Moet wel zeggen dat met warzone en satisfactory de kaart wel tegen zijn limiet aan begint te lopen.
En dan kan je de meeste 980ti;s ook nog is overclocken van hun 1200mhz out of the box naar zo een 1400/1500mhz. Mogelijk nog een flinke boost!
Ik denk dat veel mensen die een 2080 Ti hebben gewoon altijd het beste willen en die dus wel degelijk allemaal een snellere gaan halen als hij echt veel sneller is.
Allemaal? Echt, al-le-maal? Allemaal behalve ik dan. Dan zijn toch een hoop mensen..
Ik haal ze, vanwege het zakelijk aantrekkelijk is.
Dezelfde mensen die elke release het nieuwste van het nieuwste moeten hebben gok ik.
Overspoeld is overdreven, ik denk niet dat er zoveel 2080ti zijn verkocht. Maar, 6/700 euro voor een 2080ti zal het wel worden.
Dan ga je er wel van uit dat de performance gain dusdanig groot is, dat het zelfs interessant is voor 2080ti eigenaren om te upgraden, die kans lijkt mij echter vrij klein, als je de prijzen van de meeste 2080ti kaarten ziet.
Het lijkt me best sterk dat ze een RTX 3080 voor 800 euro kunnen verkopen. Betekent dat niet dat de prijzen van een 2080 TI direct moeten droppen naar een zelfde soort prijs? Ik bedoel, de specs komen aardig overeen behalve 1 gb vram minder in de 3080. Het lijkt me niet dat ze de last gen markt aan de kant gooien.. Ben heel benieuwd naar de prijzen.

[Reactie gewijzigd door jellybrah op 1 september 2020 07:36]

De productie is al een tijdje gestopt dus denk niet dat er zoveel voorraad over blijft. De laatste stuks kwijt aan 800 - 900 euro zie ik daardoor wel gebeuren. Nog eventjes afwachten en dan wordt het wel duidelijk.
De 2070 en 2080 zijn ook nooit gedropt in prijs toen de Super versies verschenen. Terwijl de Supers toch echt een stuk beter zijn qua performance.
Betekent dat niet dat de prijzen van een 2080 TI direct moeten droppen naar een zelfde soort prijs?
Nvidia daalt nooit hun prijzen wanneer nieuwe hardware uitkomt.
Ik haal met mijn 2080super in control met dlss(2.0) tussen de 70 en 90 fps. En dat is op 1440p (rendered @1080p). Als het echt 2 keer zo snel is dan is dat wel een enorme prestatie winst. Dan zou ik in principe dlss uit kunnen zetten en nog steeds 70 a 90 fps moeten kunnen halen. Ben erg benieuwd. Maar ben bang dat de prijzen weer exorbitant hoog uit zullen vallen voor de 90 variant. Als de geruchten waar zijn dat de Titan verdwijnt dan geloof ik ook wel prijzen tussen de 1400 en 2200 (alla 2080ti en Titan).
De 3090 komt wel op de markt als een gaming kaart dus denk eerder tegen de 1400 / 1500 euro. Ik geloof wel dat er een Titan gaat uitkomen of zelfs een 3090 Ti er nog tussen. De chip zou nog genoeg extra geactiveerde Cuda cores kunnen hebben. Ligt waarschijnlijk aan de yields waardoor we die nog niet zien.
En heb je de rest van de settings op het hoogst staan? Gebruik je ook nog filters zoals reshade?
En vergeet ook het TDP niet. Dat schijnt ook enorm te verdubbelen. Ook wordt de kans groot dat het handig is om een ondersteuningsbeugel te gaan kopen omdat het triple slot bakbeest anders behoorlijk gaat hangen...
Ik vraag me af of de midrange kaarten, de 3060/70 kleiner qua formaat gaan worden dan de 2060/70 van nu. In principe wordt iedere low- tot midrange generatie weer zuiniger, behalve natuurlijk de high end kaarten.
Ik heb prijzen van 1400 dollars zonder BTW tot en met 2400 dollars gezien.
2x zo snel, met DLSS en RTX....
Maar zoveel games.hebben nog geen RTX dus ... Care?

Gezien de grote die, zullen ze wel het aantal RTX cores bijna verdubbelt hebben. Dan krijg je dit wel.

Geef mij maar rauwe performance.... Ben benieuwd naar de gewone reviews. Niet die marketing meuk met "control" (wie speelt dat?) En Minecraft O-)

[Reactie gewijzigd door waah op 31 augustus 2020 21:20]

Ben ook erg benieuwd naar de prijzen inderdaad, vooral van de 3070.
2x zo duur? De Rtx 3080 is stukken goedkoper als een 2080ti en stukken sneller ook! Ik kan niet wachten om een tweedehands 2080ti voor 500 te scoren.
Volgens mij was deze fake, althans volgens twitter. Als je kijkt naar de eerste groene bar, deze wordt een klein stukje onderbroken door de grijze.
Laat niet weg dat dit best in de verwachtingen valt, de 2080 Ti wordt best gelimiteerd als je RT aanzet en de Ampere kaarten zijn schijnbaar op RT een heel stuk sneller. Met spellen zonder RT ga je niet dit grote verschil zien in performance.
NVIDIA schrijft 2080 Ti inderdaad met een spatie en hier ontbreekt deze. Ik blijf erbij dat dit fake slides zijn.

https://www.nvidia.com/nl...aphics-cards/rtx-2080-ti/
https://linustechtips.com...7b534cac27b2c801f7d43.jpg

[Reactie gewijzigd door Vipeax op 31 augustus 2020 18:10]

Ongeacht of die grafiek echt of nep is, er staat sowieso "4K with DLSS", dat is dus 1440P of lager wat met DLLS ge-upscaled is naar 4K, geen native 4K rendering resolutie. En dus ook geen ray-tracing op 4K.

Sowieso dus een misleidende grafiek. (Wat dat betreft kan hij dan toch wel weer echt zijn... ;))
Dat kunnen jpg compressie-artefacten zijn. De echtheid is niet te garanderen inderdaad, de toevoeging van de slide met de FE-kaart draagt wel bij aan het vertrouwen dat ik er in heb. Ook is het een typische manier van Nvidia om prestaties weer te geven.

In combinatie met nieuwe RT-cores en dlss lijkt me dit niet onrealistisch. Maar morgen weten we het zeker :)
Ik vraag me af of dergelijke onderdelen aanslaan bij de gemiddelde consument, of is dat niet de doelgroep?

Ik vind €1400 (bedragen die ik zo heb gezien) wel erg veel geld wanneer men daar een gehele degelijke computer kan van bouwen.
De doelgroep die alsmaar groter wordt is de volwassen gamer. Met een veel groter besteedbaar vermogen dan de gemiddelde enthousiaste tiener.

Zoals het gezegde gaat: mannen blijven kinderen, alleen het speelgoed wordt groter (en duurder). ;)
Die kaart is meer hardware dan mijn complete PC :D en toch game ik daar prima op. Het verschil tussen wat kan en wat daadwerkelijk nodig is is aardig groot geworden de laatste jaren.
Wat nodig is licht aan de gebruiker. Ik speel IEDERE game die ik speel op ultra of niet. en dat word op mijn 1070 moeilijker en moeilijker zelfs op 1080p.
Als ik slechter uitziende games wil spelen speel ik wel oude games.
Tja tis maar wat je gewend bent. Ik speel horizon zero dawn op een 760 en een Intel 4770k. Moet zeggen dat het heerlijk speelt en tis nog nooit gecrasht, ben nu level 25 in t spel.
Tja je heb alleen niet de ervaring van alles op ultra waar je alle pracht en praal ziet.

Zo vond ik in assassin's creed odyssey de mist die van de berg af kwam rollen echt geweldig om naar te kijken net als de mooie golven in het water. Zet je instellingen naar beneden ga je die ervaring gewoon niet krijgen en dat vind ik zonde. Als je het spel graag speelt en geen betere pc heb is het wat anders maar ik wacht liever met het spelen van een spel tot ik de juiste pc hardware ervoor heb.

Zo heb ik helaas RdR2 nog niet aangeraakt omdat ik weet dat mijn FPS om te huilen zal zijn. Maar hopelijk een mooi spel voor in de winter.
MS Flight Simulator 2020 op 4k-5k ultra is maar net aan hoor op de beste hardware van nu. Als je 30 fps haalt dan mag je van geluk spreken. Wat dat betreft zijn we hard toe aan een nieuwe generatie GPU's.
Die game lijkt me wel cpu gelimiteerd, draait op de oude fsx engine spijtig genoeg. Ik ben benieuwd hoe ze hun vr support met de g2 soepel gaan krijgen. Ik denk niet dat ik al 60+ fps systemen heb gezien.
Nee hoor. Zodra de resolutie flink wordt opgeschroefd is, net als in de meeste games, de GPU duidelijk de bottleneck. De fps duikt dan hard naar beneden terwijl de CPU duimen staat te draaien bij wijze van spreken. FS2020 draait op een nieuwe door Asobo ontworpen engine.
Die "nieuwe" engine is gestart met de FSX codebase, er zijn al meerdere bekende bugs uit FSX gespot in FS2020.

Daarom ook dat er geen DX12 gebruikt is, dat zou de performance beter hebben kunnen maken. Ze hebben daar natuurlijk geen oneindig budget, maar de performance is voor mij toch een beetje een domper op de FS feestvreugde.

Edit met linkje; pretty much cpu bound met max 4 cores aan het werk..
https://www.techspot.com/...mulator-2020/#allcomments

[Reactie gewijzigd door thibaultvdb op 1 september 2020 12:25]

Als de GPU op 4k ultra nu al duidelijk de vertragende factor is dan gaat efficienter gebruik van CPU cores dat effect alleen maar vergroten. Het is overduidelijk dat de huidige generatie GPU's het erg moeilijk heeft met deze sim. Ik overweeg om voor MSFS na hele lange tijd weer eens een PC te bouwen maar dat doe ik niet voordat de nieuwe GPU's en Zen3 CPU's uitkomen.
yep en nu er steeds meer gestreamed wordt heb je helemaal geen dure videokaart meer nodig.
Ik werk zelf als 3d artist en gebruik Redshift om te renderen. Meer vram en cuda cores = sneller renderen. Zakelijke/fanatieke 3D-ers zijn dus ook erg blij met dit soort kaarten. Zo zijn er nog veel meer programma's en beroepen die baat hebben bij dergelijke kaarten.
Opzich is het niet gek hoor sinds de komst van 4k. Vroeger moest men sli en dat was allemaal gekanker en nu hebben ze tenminste een fatsoenlijk alternatief voor de mensen die de duurste monitoren bezitten.
Als je goedkoper uit wilt zijn dan kan je gewoon lekker 1080p/144hz nemen en ben je klaar voor waarschijnlijk 350 euro.

[Reactie gewijzigd door govie op 31 augustus 2020 23:20]

Ik ben benieuwd naar welke performance metric wordt verwezen met 'Nx' betere performance. Is dat een verdubbeling in FPS? 30 fps -> 60 fps? Aangezien fps niet lineair is, zou het namelijk op verschillende manieren geïnterpreteerd kunnen worden.
Wil je mij vertellen waarom framerate niet lineair schaalt? Het is toch bij uitstek de metric om eerlijk performance te meten? :P :P
Het is zeker een metric om eerlijk performance te meten, mits je de non-lineariteit van FPS in acht neemt. Had Nvidia hier een graph met aan de zijkant FPS nummers en het verschil tussen de twee generatie GPUs dan was het meteen duidelijk wat voor 'performance' we kunnen verwachten in games.

Als je meer wilt weten over hoezo FPS niet lineair schaalt: https://www.mvps.org/dire...fps_versus_frame_time.htm
Wat een onzin op die site. Een grafiek maken van een grootheid vs de reciproke van dezelfde grootheid levert altijd een asymptoot op, heeft niks met non lineair te maken. Maak je een zinnige grafiek van bv FPS vs kloksnelheid, dan zie je dat FPS 100% lineair schaalt.
Mind is blown! Serieus. En het stomme is dat ik argument al tig keer heb gebruikt bij input delay van high refresh monitor gaming :+.
Hangt ervan af hoe de fps gegenereerd worden. Je kunt tegenwoordig al 60fps halen met een Intel en een IGP.

Hier, als je fps puur via ray-tracing gedaan wordt, dan inderdaad verdubbel je ongeveer je fps. Maar een spelletje is meer dan de ray-tracing alleen, als je echter deze kaarten gebruikt enkel voor rendering, dan wordt het je misschien wel waard..
Ik snap niet waarom het op meerdere manieren geïnterpreteerd kan worden. Als er staat 'Nx' performance dan kan dat maar 1 ding betekenen.
En wat bedoel je FPS is niet lineair? Ten opzichte van wat? Als de performance 2x zo hoog is dan is de framerate 2x zo hoog. Dat is een lineaire verhouding.
Edit: als de framerate 2x zo hoog is, dan worden de frames 2x zo snel gerenderd, met andere woorden gaat de frametime door de helft. Natuurlijk is frametime niet lineair met framerate, het is de inverse. FPS = 1/frametime & frametime = 1/FPS

[Reactie gewijzigd door Floris99 op 31 augustus 2020 22:21]

Dat is juist mijn punt. Wat bedoelt Nvidia met 'performance'? Betekent dat in games waar RTX ON eerst 30 fps haalde nu 60 fps haalt? Of houden ze rekening met het feit dat fps non-lineair schaalt en baseren ze deze '2x zoveel performance' op het 2x verminderen van frame-time?

Performance is een woord wat voor verschillende mensen verschillende dingen betekent, erg subjectief dus. De volgende gaming benchmark metrics worden door reviewers gebruikt:
- maximum fps
- avg fps
- x percentile fps
- frametime (frame-to-frame interval)
Wat gebruikt nvidia in deze slide wat zich vertaalt naar '2x zoveel performance'? We zullen het zien.

In deze video van GamersNexus wordt uitgelegd waarom frametime een mogelijk betere metric is:
https://www.youtube.com/watch?v=W3ehmETMOmw

[Reactie gewijzigd door bartvdbraak op 31 augustus 2020 23:01]

Het '2x verminderen van frametime' is equivalent aan 2x de framerate, dus ik snap je punt niet.
Vrijwel altijd duiden performance bars in dit soort slides op average framerate. Max framerate wordt nooit gebruikt, althans niet op websites waar ik mijn info vandaan haal, het is totaal niet relevant.
Fair enough,

Ik denk dat ik gewoon moeite heb met bedrijven die niet specifieke meetmethoden aangeven wanneer ze het hebben over hoe hun product '2x beter gaat zijn dan de vorige keer'. Dan zie ik gewoon liever objectieve cijfers of in iedergeval een legenda met waar de cijfers op duiden.
Nx is toch een synoniem voor kill-death-assist-ratio? :+
Wederom wordt alle focus op de raytracing gelegd.
Lekker misleidend ook om te zeggen "twee keer zo snel", daar heeft het marketingteam vast een paar maanden goed op gebrainstormed.

Ik snap echt niet wat Nvidia ziet in die hele raytracing techniek..
In mijn ogen is het alle extra kosten, processing power en performance hits iig absoluut niet waard.
(hooguit leuk voor een screenshot ofzo)

Breed ondersteund zal het waarschijnlijk ook nooit echt worden, aangezien de nieuwe consoles videochips van Amd hebben en die doet volgens mij niet aan rt cores.

Ik sla deze generatie net als de 2k serie dus maar over, en blijf voorlopig gamen op mijn 1080ti.
Of je leest gewoon wat beter in en vind uit dat ook de nieuwe consoles ray tracing krijgen en dus ook de nieuwe amd videokaarten het zullen krijgen.
En zo word de zogenoemde gimmick van nvidia wederom een trendsetter. Want dat is niet de eerste keer. Denk aan gsync, en physx wat we nu allemaal doodnormaal vinden maar bij de release een gimmick genoemd werd.

Je kan zeggen wat je wil maar nvidia heeft meer voor de evolutie van gaming gedaan dan AMD/Radeon.
Raytrqcing bestaat al jaaaaren. Tientallen jaren.

Het enige wat Nvidia heeft bewerkstelligt is het té vroeg op de markt brengen. Met gigantische framedrops tot gevolg.... Vanaf deze generatie is het pas echt bruikbaar en interessant zonder extreme performance hit. En daarom stapt AMD waarschijnlijk ook nú pas in O-)
Wat een onzin post zeg.

Het was perfect speelbaar in Battlefield V. Dat je er geen multiplayer fps mee baalde was wat anders maar alle serieuze multiplayer spelers hebben toch alles op low staan en dus ray tracing uit. Maar de campaign was prima te doen.
Dus niets te vroeg gewoon prima op tijd. Lekker makkelijk om Nvidia aan te vallen met valse claims. Maar wat heeft amd voor gaming gedaan afgelopen 20 jaar?

Niets weerhield nvidia er van om vorige generatie het al 2x zo snel te maken behalve geld. Amd was gewoon aan het slapen en het valt nog maar te zien of ze fatsoenlijke ray tracing neer kunnen zetten. Ze lopen immers 2 jaar achter.
Na een aantal updates en DXR kwamen ze eindelijk op 60fps ja.... Met een graphics card van 1000 euro... De prijs van een leuke Game PC...

Zoals ik zei: de performance hit is gigantisch. Waardoor je enorm moet terugschalen in graphics. Geen 4K mogelijk, je hebt upsamplong (DXR) nodig. 2 jaar later hebben ze een beter DXR die indrukwekkend is... Maar dat betekend niet dat het destijds gewoon te vroeg op de markt is gezet eigenlijk. Praktisch geen games, een enorme performance hit, en maar een heel beperkt aantal dingen die geraytraced worden. Veel van die dingen kunnen developers ook zelf bereiken met slimme shaders en andere trucs.

Als ze daadwerkelijk 2x zoveel performance kunnen krijgen, terwijl de videokaart niet 2x sterker wordt, begint het interessanter te worden. Maar om te roepen dat Nvidia raytracing bedacht hebben omdat ze de eerste waren? Tja je bent wel eerste als je eigenlijk te vroeg bent.

Momenteel is het vooral goede marketing. Je kunt iets wat je concurrent (nog) niet kan. Dus zelfs als de concurrent even snel, of sneller is, kan je altijd wijzen naar de RTX benchmarks O-)

En voor je zegt: belichting is alleen zo mooi met raytracing! Heb je de unreal 5 demo gezien die op de PS5 draaide?
https://youtu.be/qC5KtatMcUw

Geen raytracing.... Op 1440p en 30fps waarschijnlijk. Ze hadden ook raytracing kunnen gebruiken, maar dan zat je eerder op 10FPS.... En dan ben ik nog positief ten opzichte van raytracing

[Reactie gewijzigd door waah op 31 augustus 2020 23:23]

Wellicht moet je beter lezen, ik zeg niet dat consoles geen raytracing krijgen..
Ik zeg dat ze geen raytracing cores krijgen. Geen dedicated hardware dus.

Natuurlijk kan het wel softwarematig worden gedaan, maar ik vraag me af hoeveel er dan nog van de performance overblijft.
Ik denk dus dat het in deze komende generatie iig niet heel breed ingezet zal gaan worden..
Maar wie weet, misschien heb ik het mis.

Ik zie dat sommigen er hier wel enthousiast over zijn, wellicht heb ik de echte voordelen nog niet gezien.. Wat er tot nu toe is uitgebracht heeft mij nog niet kunnen overtuigen.

Ik zie ze liever meer research steken in pure performance in plaats van dit soort extra features,
vooral nu we druk bezig zijn met opschalen naar 4k.

Doet me een beetje denken aan de hele hype rondom shadows jaren geleden.
Best mooi, maar tijdens het spelen van een game valt het nauwelijks op of een schaduw super scherp is of niet.
Dat gevoel heb ik met raytracing eigenlijk precies zo.
De ps5 krijgt wel degelijk hardware ray tracing. Dit is vorig jaar al bevestigd door Sony en is ook in de patenten terug te vinden.

https://www.forbes.com/si...re-for-playstation-5/amp/

En dat realisme jou niet overtuigd tja daar kunnen we niet veel mee.

Mij boeit hdr weer niets omdat het vaker wel dan niet fake is en te veel over saturatie plaats vind en contrast vaak het beeld verziekt.

En 4k is een niche markt. Het is niet voor niet dat de schermen zo goedkoop zijn in verhouding.

En misschien moet je af en toe even stil staan en de pracht en praal bewonderen.

Kan je dit niet zet je toch lekker de graphics op low en heb je meer fps. Maar dan heb je ook geen 4k nodig dit mooiere beeld merk je namelijk alleen als je stil staat.
Ah dat wist ik niet, ik ging uit van de navi gpu, en voor zover ik wist zat daar geen raytracing op.
Ik ben zelf niet zo van de consoles dus ik moet eerlijk bekennen dat ik daar niet heel veel vanaf weet.

Verder zie ik dat "realisme" blijkbaar anders als jij..
Ik heb liever scherpere textures, meer objecten op het scherm, hogere resolutie..
Lichtval en reflectie zijn inderdaad heel mooi als je stil staat, maar zelf doe ik dat niet zo vaak, en in de hitte van de strijd moet ik eerlijk zeggen dat ik het verschil tussen dat soort dingen dan vaak niet echt merk. in tegenstelling tot bijvoorbeeld de resolutie..

Alles op low zetten is natuurlijk weer het andere uiterste, ik heb ook de 1080ti gekocht dus ik hou wel van mooie beelden,

Ik ben gewoon nog niet echt enthousiast over raytracing zoals die in de huidge vorm beschikbaar is, en vooral ook het prijskaartje dat eraan hangt t.o.v. wat je er voor terug krijgt.
Wederom wordt alle focus op de raytracing gelegd.
Lekker misleidend ook om te zeggen "twee keer zo snel", daar heeft het marketingteam vast een paar maanden goed op gebrainstormed.
Dit is gewoon 1 van vele slides, wat een onzin om dat te veroordelen zonder de hele slideshow te kunnen zien...
Ik zou niet weten waarom niet..
Dit is gewoon een op zichzelf staande slide, het is niet of er info op mist ofzo..

Ik vind het gewoon een beetje misleidend om net te doen of de kaart twee keer zo snel is, terwijl dat alleen van toepassing is op de dlss en raytracing.

Voor ons is het wellicht heel duidelijk wat dat betekend, maar Jan op de hoek die gewoon graag zijn shooters speelt en zich verder niet verdiept in de techniek trapt daar waarschijnlijk wel in.
Alsof je een bladzijde uit de game of thrones boeken haalt waar het toevallig over sex en dan concludeert dat de focus van game of thrones om sex gaat...

Dat is wat je nu doet, nee die slide is onderdeel van het geheel, jij trekt het uit verband door de context niet te weten maar te doen of die ene slide iets meer zegt dan het daadwerkelijk doet. Misschien laten ze de slide ervoor wel zien dat de normale performance maar 30% beter is...

Daarnaast als Jan op de hoek niet snapt wat dit inhoud in de context van de hele slide dan is het zeer onwaarschijnlijk dat Jan op de hoek interesse heeft in die slide/stream en kijkt ie dus helemaal niet 8)7

Als je dit soort dingen kijkt heb je over het algemeen interesse in de achterliggende techniek of performance onder bepaalde omstandigheden en is het ineens wel interessant wat je met dlss en rayrracing kan bereiken en snap je ook dat dat dan niet spreekt voor performance zonder dlss en raytracing...

[Reactie gewijzigd door watercoolertje op 1 september 2020 08:14]

Game of Thrones is een boek met een verhaal, dit is een slide met statistieken.. In mijn ogen een nogal kromme vergelijking.
Los van of er in de originele presentatie een slide voor zit waarin staat dat het verschil maar 30% is, het kwaad is nu al geschied, en heel toevallig is het precies alleen deze slide die is "gelekt".

Jan hoeft de presentatie of slide dus niet eens te bekijken, want het hele internet staat er nu al vol mee..

Dat is het gevaar en direct ook de kracht van dit soort marketing materiaal.

[Reactie gewijzigd door xenn99 op 1 september 2020 08:23]

Raytracing is in de theorie al jaren de meest natuurlijke lichtrendering. Dat real-time maken lijkt nu wellicht onmogelijk, maar hetzelfde dachten we ooit over 5.1 geluid of meer dan 100 polygonen op een model.

AMD gaat wel degelijk RT ondersteunen, het is zelfs al onderdeel van de nieuwe generatie consoles. AMD noemt het geen RT cores maar Intersection Engines en dit is onderdeel van RDNA2.
Begrijp heel goed dat Nvidia mee gaat met de tijd, 4K performance en dat raytracen maar die prijzen zijn echt niet normaal, hoop echt dat AMD iets kan doen hiermee... heb liever dat 4K goed gesupport wordt en dat raytracing hoeft voor mij niet..

Heb zelf een 2080Ti en 4K maar je komt dan net nog wat performance te kort voor FPS games, had hiervoor een 5700 XT maar dat trekt het helemaal niet.

Stapje terug 1440P gaat beter en stuk vloeiender gelukkig.
Tja qua schermen is het ook weer heel lastig om goede hz en response times op 4K te krijgen (lees heel duur). Wat mij betreft is 3440x1440 voorlopig de sweet spot. Dan praat je alsnog over een euro of 900.

Overigens wordt resolutie dankzij DLSS al snel minder een ding. Ik merkte in f1 2020 met mijn RTX 2070 een stijging van 88 naar 113 FPS. Dat scheelt 28%. Bovendien zag DLSS er beter uit dan TAA. Helaas is het aantal games met DLSS support tot nu toe zeer beperkt.

[Reactie gewijzigd door sdk1985 op 31 augustus 2020 22:27]

Heb gister even zitten kijken naar een nieuwe monitor op eventueel 1440p just in case. Maar een 1 ms 144hz 1440p ips paneel van 32 inch is er nog altijd niet.
Ik zal dus waarschijnlijk gewoon een betere 1080p 24 inch gaan halen want groter als 14 inch is niet acceptabel en met TN ben ik wel een beetje klaar. Leun je achterover word je beeld zwart. En VA heeft teveel ghosting problemen dus dat valt ook al af.

EDIT:
pricewatch: Gigabyte G32QC Zwart

Dit is momenteel ondanks VA het scherm met de beste specs maar naast de VA compromis heb je ook nog eens die kromming waar ik totaal niet van gediend ben dus tenzij die zakt naar 225 zijn mij dat teveel compromissen voor dat geld. En een kromming en fps inleveren en VA met mogelijke ghosting/smearing.
Geen idee waarom er voor onder de 200 al wel perfecte ipv panelen zijn op 24 inch maar op 1440p lijkt het onmogelijk. Ik snap ook niet dat bijna alle shermen een kromming hebben. je heb gewoon geen keuze meer als alles die kant op gaat.

[Reactie gewijzigd door computerjunky op 31 augustus 2020 19:06]

Toevallig heb ik vorig jaar een aantal monitoren getest met dezelfde insteek. Zo kwam ik op een LG VA panel met 2560x1440 op 30.5 inch zonder kromming en mét gsync. Vervolgens zag ik colorshifting vanaf de rand tot circa 5cm. Vooral storend op websites met veel wit. Ik heb toen een 3440x1440 34 inch IPS monitor besteld met het idee dat dit niks zou worden. Maar ik was eigenlijk direct verkocht.

Op 3440x1440 zijn die 1ms monitoren er wel. Overigens zegt die opgegeven reactietijd niet echt heel veel, ik raad aan bij tftcentral te kijken.
Die redenatie snap ik niet. 1440p vs 4k lijkt me minder relevant dat raytracing aan of uit. Raytracing is na HDR een techniek die gamed in mijn ogen echt weer mooier maken.
Yep, exact, ik haal te weinig FPS in Eternal met alles maximum op 4K/144Hz, schommelde zo wat rond de 90, maar voelde tegelijk stroperig aan. Best veel verschil met 1920x1080 aan 240Hz, dan haal ik ook echt constant 240FPS.
beetje oneerlijk van Nvidia om DLSS te gebruiken bij benchmarks.
Met DLSS 3.0 is het de bedoeling dat iedere game met TAA gebruik kan gaan maken van DLSS.
Zolang het nog niet er even goed uit ziet is het toch een slechte vergelijking. Er zijn nog duidelijk scenario's waarin het er niet uit ziet of je artifacts krijgt.
Dat het vermeld word prima maar dan wel als aparte statistiek want je levert wel degelijk kwaliteit in.
Als je twee games met dezelfde settings vergelijkt is er sprake van een eerlijke vergelijking toch?
Zolang het nog niet er even goed uit ziet is het toch een slechte vergelijking. Er zijn nog duidelijk scenario's waarin het er niet uit ziet of je artifacts krijgt.
Dat het vermeld word prima maar dan wel als aparte statistiek want je levert wel degelijk kwaliteit in.
Ik heb het tot heden maar in één game mogen proberen (f1 2020) en daar is de kwaliteit met DLSS aan hoger dan met TAA aan. De kwaliteit is ook véél hoger dan met fidelity fx upscaling (en sharpening).

Maar goed dat is één game. Meer games met DLSS heb ik nog niet gespeeld. Het is ieder geval veel belovend.

[Reactie gewijzigd door sdk1985 op 31 augustus 2020 22:34]

ja maar je bent alsnog op een veel lagere resolutie aan het renderen en dat 4K noemen op een benchmark
Ja daar heb je inderdaad helemaal gelijk in!

Op dit item kan niet meer gereageerd worden.


Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True