Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Reinoud Dik en Tomas Hochstenbach

Nvidia GeForce RTX 3080 Review

Maakt Nvidia de hoge verwachtingen waar?

Conclusie

Na twee jaar wachten is het eindelijk zover; Nvidia’s nieuwste generatie GeForce-videokaarten is gearriveerd. In een live gestreamde aankondiging deed de fabrikant op 1 september de verwachtingen hoog oplopen. Met flink meer CUDA-cores en significant sneller geheugen wekte Nvidia in zijn presentatie de indruk dat Ampere veel betere prestaties zou leveren dan Turing, een verdubbeling zelfs. Of deze claims waargemaakt worden, kunnen we aan het einde van deze review eindelijk beantwoorden.

Hoe snel is de RTX 3080?

Tot de beloofde dubbele prestaties ten opzichte van een RTX 2080 komen we gemiddeld niet in onze eigen benchmarks, maar dat neemt niet weg dat Nvidia een enorme stap zet. Kijken we naar de prestaties op 4k-resolutie met Ultra-settings, zonder tierlantijnen als RTX en DLSS, dan is de RTX 3080 gemiddeld 25 procent sneller dan de RTX 2080 Ti en zelfs 50 procent sneller dan zijn directe voorloper: de RTX 2080 Super. Ook de RTX 2070 Super wordt met 68 procent winst voorbijgestreefd. Geen verdubbeling van prestaties, maar wel een flinke toename. Kortom, voor hetzelfde geld krijg je na vandaag opeens veel betere prestaties.

De RTX 3080 laat gemiddeld dus indrukwekkende prestaties zien, maar de prestatiewinst in sommige games spreken nog meer tot de verbeelding. In Control is de Ampere-gpu bijvoorbeeld 67,5 procent sneller dan een 2080 Super. En in games met ondersteuning voor raytracing is de winst ook groot. Opnieuw niet zó groot als Nvidia claimt, maar wel significant. In spellen met DXR-support komt de RTX 3080 op 1440p-resolutie met prima framerates voor de dag, wat het vlaggenschip van de vorige generatie nog niet lukte. Combineren we dit met DLSS, dan wordt het verlies in framerate meestal gecompenseerd en lijkt het erop dat 4k-gaming ook tot de mogelijkheden gaat behoren. Wel blijft het nog altijd noodzakelijk dat elke game ondersteuning voor specifiek deze technieken krijgt ingebouwd.

Prestaties nemen toe, stroomverbruik ook

Is het dan alleen maar rozengeur en maneschijn? Niet helemaal, want al die extra prestaties hebben een prijs als we naar het stroomverbruik kijken. De RTX 3080 verbruikt significant meer dan zijn voorganger en hoewel de prestaties dusdanig zijn toegenomen dat de efficiëntie alsnog is verbeterd, staat de RTX 3080 in absolute zin garant voor een enorme bak hitte. Nvidia slaat natuurlijk al flink op de trom over zijn nieuwe koelconcept voor de Founders Edition, maar reken maar dat ook andere fabrikanten alles uit de kast moeten trekken om hun nieuwe kaarten goed te koelen.

De RTX 3080 Founders Edition

Niet al te lang geleden wilde je alleen een referentiemodel als je waterkoeling ging installeren en de koeler toch niet zou gebruiken. Met de afgelopen generaties timmert Nvidia echter hard aan de weg. We kunnen zeker stellen dat de RTX 3080 Founders Edition de beste referentiekaart is die Nvidia tot nu toe heeft gemaakt. De gulzige gpu wordt uitstekend koel gehouden bij een redelijke geluidsproductie, terwijl er ook voor het eerst een semipassieve modus is toegevoegd. De verscheidene Nvidia-partners zullen ongetwijfeld modellen kunnen bouwen die onder belasting nog stiller zijn, maar of ze dat ook voor een soortgelijke prijs kunnen doen… Wij vragen het ons af. Nvidia verkoopt de Founders Edition echter alleen via zijn eigen website en van de vorige generatie weten we dat voorraad daar absoluut geen gegeven is. In hoeverre fabrikanten van custom-RTX 3080's zich zorgen moeten gaan maken, valt dus te bezien.

Concurrentie?

Zolang AMD’s volgende generatie alleen nog op papier bestaat, blijft Nvidia op eenzame hoogte. Niet alleen de Radeons, maar ook de vorige ‘Turing’ GeForce-generatie verbleekt bij Ampere. En als je al onder de indruk bent van de prestaties van deze GeForce RTX 3080, bedenk dan dat de nog snellere RTX 3090 nog moet komen.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Lees meer

Reacties (625)

-16250602+1309+228+32Ongemodereerd202
Wijzig sortering
Geweldige post, kerel! +3

Echter is er nog 1 ding die ze niet kunnen reviewen en dat is RTX IO. Dat beloofd echt heel veel goeds voor laadtijden van games. Alleen RTX IO is wel een van de beste, zo niet de beste feature van deze kaart. RTX IO wordt dus volgend jaar via Direct X uitgerold en ik kan 'als ik naar mezelf kijk' bijna niet wachten op een nieuwe PC mét deze kaart. Mijn systeem is nu 13 maanden oud met een RTX2080 en dat was snel; nu is er de weg vrij om over een goed jaar over te stappen.

Er is geen weg meer naar 4K gaming nodig, die is er sinds vandaag officieel. Deze RTX3080 zit te slapen op 4Kp60. Dus ik vermoed dat de G-Sync modellen op 4K nu meer op voorraad komen. Zelf game ik op 1440p144, dat is ook mooi hoor. Ik kom nog van het Commodore 64 tijdperk.

Verder noem ik het geen upgrade ofzo, maar wereldnieuws voor de gamers onder ons. Ik heb genoten van de eerste aflevering van Tech hub, in het dubbele zelfs.

PS: Een tijdje terug waren er nogal wat discussies over dat PC gaming dood zou bloeden. Nou, nu al helemaal niet meer ;)
HDMI 2.1 hebben zo ook helemaal niet getest. Helemaal nergens. Werkt de Auto Low Latency Mode, werkt VRR goed met niet standaard refresh rates, werkt HDR pass through?
Eigenlijk weten we nu nog niets/veel nieuws.
Bovendien zijn de founders edities slecht verkrijgbaar en hebben bovengemiddelde koelventilatoren, die niet gebruikt worden met andere edities of andere fabrikanten.

[Reactie gewijzigd door ariekanari op 16 september 2020 20:46]

Dat viel mij ook al op; ze reviewen allemaal dezelfde aspecten, alsof ze het bestaan van HDMI 2.1 en het belang ervan vergeten zijn.
RTX IO is geen exclusieve feature van deze kaart. Er is al bevestigd dat dit ook uitgerold gaat worden op RTX 2000 series.
Nou, als je RTX aan zet bij nieuwe titels ben je blij als je nog 60FPS haalt bij 4K
RTX is erg zwaar, weet ik.
Nu The Witcher 3 komt met een RTX patch ben ik ook benieuwd hoe de prestaties gaan zijn. We wachten het af :)
De weg naar 4K gaming was er al jaren. Speel ik wel voornamelijk de wat lichtere titels (Trials, SOR IV, Mother Russia, War Thunder) op 75Hz maar dan nog.

Enige wat me wel kan verleiden naar een upgrade is de laadtijden, ben wel benieuwd naar de winst op dat vlak.

[Reactie gewijzigd door lezzmeister op 17 september 2020 16:31]

Hebben videokaarten invloed op de laadtijd?
Dit vraag ik mij dus ook af. want zover ik weet is over het algemeen hier het opslag medium de bottleneck.
Staat in de review, onder RTX IO.
"gecomprimeerde textures rechtstreeks inladen naar het videogeheugen, waardoor knelpunten bij de processor en het opslagmedium worden omzeild". Dus binnenkort wel ja. Nog niet. En als er grote winsten zijn, dan wil ik m'n oudere kaart wel inwisselen, maar voor amper meetbaar doe ik het niet.
Deze verdient ook nog wat extra aandacht:
https://www.tomshardware....re-cpu-scaling-benchmarks

Op 4K ultra in het 99ste percentiel is de Ryzen 3900X gemiddeld 2 fps sneller dan de 3600. Voor 250 euro extra..
De 3900X is een CPU dat voordelen heeft voor encoding, video bewerking, compilatie, streaming+gaming enz. Voor de meeste games is de 3900X gewoon overkill en word er nauwelijks 1 CCD ( 6 Cores ) gebruikt. De andere CCD staat vaak idle bij gaming want cross CCD communicatie is duur. Die andere CCD doet dan andere taken ( je browser in de achtegrond, achtergrond taken, enz ).

Die 250 Euro extra betaal je voor 2 maal 3600 in op je moederbord te hebben. Aka, zoals een Dual Socket CPU te hebben. Mensen dat enkel naar de cores kijken en dan klagen over gaming prestatie, zijn vaak die dat geen benul hebben van wat de echte troeven zijn van de 3900X/3950X.

Als ik bijvoorbeeld compile, dan word de load over alle 12 cores verdeeld. Een voordeel tegenover de 6 cores dat de 3600 enkel heeft.

En ja, te veel mensen kopen 3900X's met de gedachte meer cores = goed voor gaming, terwijl dat eigenlijk niets uitmaakt ( soms zelf een nadeel als data over de 2 CCD's gaat ). Zijn er games dat meer dan 8 cores kunnen gebruiken: Ja, maar het zijn er niet veel. Over het algemeen zijn de meeste games nog altijd geoptimaliseerd voor 4 Cores ( de grootte meerderheid van mensen zitten nog op oudere 4 cores cpu's. Zie Steam statistieken ). Ik denk met de nieuwe consoles, dat we meer naar de 8 Cores als standaard gaan maar dat is een inhaal beweging over jaren. Tegen dan zitten we mogelijk aan 6900X met 24 cores of zo.
ik zie idd in heel veel games dat mijn x3900 niet veel verder komt dan 2 cores en soms 4 cores.

maar als je render taken gaat doen komt de kracht los en ben je zo een uur minder tijd aan renderen of code compilen.

Unreal engine project compiled nu in 10 min ipv 2 uur op mijn oude I7.
"De 3900X is een CPU dat voordelen heeft voor encoding, video bewerking, compilatie, streaming+gaming enz."

Precies.

"Voor de meeste games is de 3900X gewoon overkill"

Nou, als je de door Blackice09 gegeven link ( https://www.tomshardware....re-cpu-scaling-benchmarks ) nader bekijkt, dan lijkt de 3900X zelfs een bottleneck t.o.v. de 9900K.
De 3080 is toch echt een videokaart voor 4K gaming, en daar is het verschil tussen CPU's zo klein dat zelfs een i3 geen bottleneck is!

Of ga jij wel een 3080 kopen om op 1080p medium te gamen? ;)

Edit:
fps op 4K ultra, 9 game average
Poeh poeh, wat een CPU bottleneck zeg...
Of heb ik een aantal op 1080p gamende toekomstige 3080 eigenaren (more=better!) beledigd? :+

[Reactie gewijzigd door HuisRocker op 17 september 2020 12:33]

En waarom niet voor 1080p?
Afgaande van de eindresultaten van Tweakers gaat op 1080p Ultra je fps van 85 naar 145 als je nu op de GTX 1080 zit. Lijkt me een goede bump wanneer je een 144+Hz scherm hebt.

[Reactie gewijzigd door jhnddy op 17 september 2020 16:57]

Gemiddeld geven 1080p 144+Hz spelers weinig tot helemaal niks om ultra instellingen. Je hebt het dan al snel over bijvoorbeeld een competitive shooter zoals CSGO o.i.d. waarbij je 'met een aardappel als videokaart' al de 144 haalt...

De hier (en ook in het geval van de meeste andere reviews) geteste games zijn grafisch flink zwaarder dan de gemiddelde game library van 1080p 'high fps' spelers, je vergelijking is dus krom. De GTX1080 haalt in de werkelijke game library van de 1080p 'high fps' spelers veel meer dan 85 fps gemiddeld omdat daar, in tegenstelling tot bij deze review, geen games als Control, TWS:Troy, SotTR en RDR2 bij zitten!

Edit: Was Control nog vergeten...

[Reactie gewijzigd door HuisRocker op 17 september 2020 20:31]

maarja de 360hz schermen komen binnenkort uit en daar kan je deze kaart dan wel weer voor gebruiken op 1080p ;)

al heb ik liever de 1440p 360hz maar die zal er vast nog niet komen :(
Competieve gamers mijden meestal 4K schermen vanwege:
- hoge input lag
- framerate
- gebrek aan meerwaarde van 4K resolutie bij 144 Hz t.o.v. 1440p

144Hz 1440p en ja, ook 144 Hz 1080p schermen zijn daartegen zeer gewild.

En als we naar het aantal minimum frames kijkt bij 2560*1440 9 game gemiddelde kijken zien we:

i3 10100: 113.5
R5 3600: 120.4
R9 3900X: 132.0
i9-9900K: 146.5
i9-10900K: 150.0

Kortom CPU maakt een duidelijke verschil en ja er is sprake van een CPU bottleneck.

"Of ga jij wel een 3080 kopen om op 1080p medium te gamen?"

Nee, als ik al een 3080 koop dan niet primair voor 3D games maar vanwege de CUDA cores voor Lc0 e.d. Wat 3D games betreft, Diablo II LOD zit op 800*600 resolutie ;)
De 3080 is toch echt gepositioneerd als videokaart voor 4K gaming.
Vandaar mijn bottleneck opmerking, die is er dus niet op 4K, dat is gewoon 100% juist.

Dat er op 1080p/1440p bij high fps (dikke videokaart) al snel een CPU bottleneck is weten we al jaren, da's niks nieuws.

En wat is er nog relevant aan je opmerking "competieve gamers mijden meestal 4K schermen vanwege: ..." als je daarbij simpelweg voor het gemak eventjes vergeet dat 'competitieve gamers' de geteste games helemaal niet spelen?

Dit artikel gaat over de 3080, niet over low res high fps gaming, de tests voor deze reviews (games) zijn daar duidelijk niet op gericht, daardoor niet relevant voor deze groep en discussie daarover is daarmee ook niet relevant... Waar wil je heen?
Dat zoals ik in mijn eerste post al aangaf de 3900X niet gewoon overkill is maar een bottleneck.

"De 3080 is toch echt gepositioneerd als videokaart voor 4K gaming."

Natuurlijk zet de Nvidia marketing de 3080 als 4K neer, daar is de prestatiewinst procentueel het grootst t.o.v. ander kaarten. En voor 1024 * 768 hoeft de gamer zijn huidige videokaart niet naar een 3080 te upgraden.

" niet over low res high fps gaming"

Sinds wanneer zijn 1080 en 1440P low res? En al helemaal niet met 21:9 schermen. Ik durf rustig te stellen dan van de mensen die de komende 12 maanden een 3080 kopen slechts een minderheid op de 4K monitor gamed. De veeleisende gamer heeft meer plezier van een 144Hz 1440p scherm dan van een 60Hz 4K monitor.
Waar noem ik 1440p low-res? Dat verzin je ter plekke...

En verder, jij trekt 1080p toch in de discussie onder een artikel over de 3080? Daar ging uiteraard mijn "low-res" opmerking over.
Het antwoord op je vraag, maar dan voor 1080p, is; sinds al een tijdje. Het is simpelweg een feit dat het de laagst verkrijgbare resolutie voor gaming is tegenwoordig.

Hoeveel schermen kan je überhaupt tegenwoordig nog nieuw kopen die op een resolutie lager dan 1080p zitten? Het zijn er 380 tegenover 2391 (1080p of hoger) in de pricewatch, en van die 380 is er voor zover ik kan zien niet 1 gericht op gaming.

Je kan het dus wel of niet leuk vinden, maar tegenwoordig is 1080p low-, 1440p mid- en 2160p (4K) high-res. v.w.b. 16:9 (2179 stuks in de PW, dus duidelijk de norm), voor ultrawide en 'ultrabreedbeeldmonitoren' is dat uiteraard iets anders.

Ook is het geen 'denigrerende opmerking van mij naar 1080p gamers' o.i.d., ik zit zelf nota bene nu ook gewoon nog op 1080p (wel ultrawide) te gamen! Met een tweedehands RX 480 overigens waarmee je in bijvoorbeeld CS:GO (speel ik incidenteel en casual) of Assetto Corsa (speel ik vaak en redelijk fanatiek) al boven de 144 fps gemiddeld zit.
Waarmee ik nogmaals aan wil geven; een RTX 3080 voor 1080p? Dan is je doel duidelijk om de allerzwaarste nieuwe AAA games met hoge/de hoogste settings op relatief hoge framerates te spelen. De catch hierin; dat is dus niet wat competitieve high fps spelers doen... Die spelen toch echt veel lichtere games en gaan daarom nog een aantal jaren geen 3080 power nodig hebben om hun framerates te halen en daarmee competitief te blijven. En zeer waarschijnlijk ook niet als ze recent naar 1440p zijn overgestapt want ook daar haalt de 3080 met gemak zeer hoge framerates in competitieve games.

De fout die je hier telkens maakt is dat je de lijst met geteste games, en de resultaten van de testen, van deze review behandeld alsof deze representatief zijn voor een andere doelgroep die andere games speelt (al dan niet competitief), en dat is dus, nogmaals, niet het geval...
En ja, te veel mensen kopen 3900X's met de gedachte meer cores = goed voor gaming, terwijl dat eigenlijk niets uitmaakt ( soms zelf een nadeel als data over de 2 CCD's gaat ).
Inderdaad te veel gamers die niet weten wat ze kopen. Het zal AMD overigens een worst wezen waarom iemand een CPU koopt. "For the world's elite gamers" staat bovenaan op AMD's officiële productpagina voor de 3900X. Ik vind het een slechte ontwikkeling, vandaar dat ik deze test graag wou delen. Daarnaast zal het één van de meest gestelde vragen zijn: "moet ik mijn systeem upgraden"?

[Reactie gewijzigd door Blackice09 op 16 september 2020 22:45]

Bij het werken met te veel cores krijg je by complexere physics berekeningen al snel timings problemen met andere processen.
wat is eigenlijk de beste keus kwa proc? { voor game's }

[Reactie gewijzigd door noway op 20 september 2020 04:10]

Zelf ben ik een fan van Guru3D , ik vertrouw al zolang op hun reviews.
Wat wel grappig is; is dat hun niet boven 38 dBA uitkomen met hun 100% load test kwa noise en T.net daar keihard overheen gaat 50.8 wat echt een significant verschil is.
Het ligt er ook aan van hoe dichtbij je de meting doet. Je moet het daarom ook meer in verhouding tot de andere kaarten zien, dan als absolute getallen.

[Reactie gewijzigd door Immanent Ike op 16 september 2020 15:43]

Maakt qua info niet superveel uit, zolang je maar weet wat de variabelen zijn, wat in deze dus vooral afstand tot de ventilator is, op welke plek de meting wordt afgenomen en welke fans er allemaal nog meer draaien. Zolang je dat weet en dit een constante gelijke afstand is etc dan kun je daar redelijke conclusies uit trekken, of dat nu op 1m of 1cm afstand is. Ik heb liefst een op realistische afstand voor mijzelf, dus ongeveer 1 meter. Ik heb de kast niet naast mij staan dus
Houd daarbij rekening dat decibel (dB) een logaritmische schaal is. Dus verschillende afstanden tot de bron kan tot een hoger/lager verschil in dB tussen kaarten leiden.
Tering..was al blij dat ik deze (uitstekende) review uit had.
Maar serieus, fantastische bronvermelding. Bedankt!
Tweakers is er flink op vooruit gegaan door de "merger". Je ziet alleen dat ze bij bv TPU nog net wat meer tijd erin steken met o.a. een volledige teardown van de koeler. Vandaar dat die ook bovenaan staat.
Geen tech youtuber, maar wel iemand die veel gedetaileerde filmpjes heeft gemaakt over DLSS en daarmee waarschijnlijk zijn review kopie heeft weten te scoren:
2kliksphilip - https://www.youtube.com/watch?v=SwX_eKUOyFg
daar mist de digital foundry review bovenaan de youtube lijst :P
https://youtu.be/k7FlXu9dAMU
Ik begreep anders van het AMD fanboy meubilair in CJ's Radeon topic dat Digital Foundry absoluut niet geloofwaardig is. Althans, door de rood gekleurde bril heen :+

@whyz ;)
En dat klopte uiteindelijk dus ook. ;)
Zijn resultaten waren niet in lijn met de onafhankelijke reviewers.
Handig linkje, maar ik sorteer ze liever op kwaliteit dan op alfabet :p.
Hardware.info had bovenaan gestaan.....r.i.p. :(
Waarom zou je die site bovenaan willen hebben dan? :P
Omdat HWI reviews van zeer hoge kwaliteit hadden, en ook daadwerkelijk luisterde naar website bezoekers als die de volgende keer meer diepgang wouden op dit of dat, lees eens recencies op ''grote'' reviews op tweakers de afgelopen paar jaar, veel commentaar van veel bezoekers.
Helaas vind ik de reviews van HWi niks meer dan belabberd. Staan altijd vol met spelfouten en een zinsopbouw waarbij je gerust de schrijfkwaliteit Nederlands van de redacteur in twijfel kan trekken.
Newsflash: Dit is de review die anders bij Hardware.info had gestaan....
Nieuwsflash:
Tomas en Reinoud zijn de Hardware.info redacteuren die altijd moederborden en videokaart reviews op hardware.info geschreven hebben.
Inderdaad, ik dacht dat o.a. gallery: Ch3cker de reviewer was aangezien die nogal veel in de ik en wij vorm hier reageerd.
Ik ben benieuwd waarom Linus tech tips onderaan staat in kwaliteit, ja de reviews zijn minder in-depth dan die van Gamer nexus maar focussen meer op je gemiddelde consument die gewoon denkt "hoe snel draait dit games " en dit op een leuke manier gepresenteerd wilt hebben.
Hij moet eigenlijk Antony meer laten doen. Die gast is geniaal.
Ja en nee, Linus heeft meer ervaring met reviews maken en met hardware kloten terwijl Anthony Imo beter is in software en ook goed is met hardware.
Het zal mij niks verbazen als de tests door Anthony is gedaan. Linus eeft meerdere malen laten weten dat hij het schrijven van scripts leuker vind en vind zich zelf een "Writer" en is dus ook de "Senior Writer" van zijn bedrijf, wel is hij nog vaak de host maar ook dit wil hij gaande weg veranderen en andere team leden een kans geven dit te kunnen doen
Anthony idd, een baken van kennis. En presenteren kan hij geweldig.
oh laat maar was al gepost.

[Reactie gewijzigd door Jelle Brolnir op 16 september 2020 18:56]

Niet erg leuk voor de redactie van Tweakers als de eerste comment een verwijzing naar vele andere reviews is..
https://www.reddit.com/r/...ke_any_3080_fe_available/

Heeft er iemand een FE kaart kunnen bestellen, behalve wat reviewers?
Maken ze de verwachtingen waar? Antwoord nee. nVidia heeft de chips te veel gehyped en de prestaties zitten onder wat nVidia je wil doen geloven. Ja ze zijn efficienter dan Turing maar dat is slechts 8% tov de 2080 Ti dat is heel wat anders dan de 90% die mensen wilde geloven aan de hand van de slides al heb ik toen ook al meerdere keren geroepen dat mensen even goed moeten kijken naar die grafiek en hoe nVidia die claim maakt.

Dit alles neemt niet weg dat het wel een mooie stap vooruit is (Avg 32% tov de 2080 Ti). Performance per watt is omhoog. De totale prestaties zijn beter en de prijs prestatie verhouding is beter dan Turing. (maar dat zegt meer over hoe overpriced turing was)

Al met al is dit voor gamers wel goede generatie zeker als je al van plan was te upgraden. Nu hopen dat er genoeg zijn. De geruchten hebben het over kleine aantallen en dat ze lang niet genoeg hebben om aan de vraag te voldoen.

Ik ben wel benieuwd wat de 3090 straks laat zien ik verwacht zelf 15-20% sneller dan de 3080.

[Reactie gewijzigd door Astennu op 16 september 2020 16:38]

Verwachtingen van gebruikers die maar het halve verhaal vertellen kunnen ze (natuurlijk) niet waar maken. Deze review tegenover hun eigen verwachtingen heb ik weinig grote verrassingen in gezien.

90% efficienter zonder verdere condities is ook niet geclaimed. Ze hebben geclaimed dat voor hetzelfde performance level als Turing, dat Ampere 1.9x perf/w heeft. Echter bij hetzelfde vermogen volgens deze plot is dat nog maar 50%, en met 320W blijft er nog minder van over.

Je kan dat ook narekenen. Volgens de gelinkte plot: Turing 60fps bij 240W (0.25fps/W), en Ampere 105fps bij 320W (0.33fps/W). Resultaat: 31% meer efficient.

Pakken we de tweakers getallen er bij: de 3080 verbruikt 31% meer stroom dan een 2080S (250W TGP), terwijl deze 66% meer FPS behaald in Control 4K met RTX. Daarmee is de efficientie verbetering ca. 1.66/1.31 = 1.26x (26% meer efficient).

Ditzelfde kan je voor de prestaties doen die bvb door DigitalFoundry op aankondigingsdag zijn vrijgegeven. Bvb 70% meer FPS in Shadow of the Tomb Raider 4K, wederom: 3080 vs 2080S +57.7% in dit artikel. 2080S vs 2080 +3.9% in Super kaarten review. Gecombineerde verbetering: +64%

Er zijn wel enkele outliers te vinden (Doom Eternal volgens TechPowerUp review bijvoorbeeld), maar het ontloopt elkaar niet orde groottes. De generatie is een mooie stap voorwaarts, hoewel je wel een beetje terugziet dat de chips erg hard gepushed worden om een "4K 60FPS" experience te kunnen leveren. Ik vraag mij af hoe erg dat gaat zijn bij de 3090 om "8K Gaming" te kunnen waarmaken. Ik denk dat het leuk staat als "First 8K GPU" maar verder puur een parade paardje is..
Het gaat er om dat nVidia focus legt op 1,9X performance per watt en dat is niet realistisch.
Ze vergelijken Turining pushed to the max dus ver boven het meest efficiënte punt van die chip en vergelijken het met Ampere die in zijn sweetspot draait.

Als je de meest efficiënte Turing GPU pakt: de 2080 Ti is dat verschil in de reviews ineens niet zo groot. En het is nog maar de vraag of de 3090 veel efficiënter gaat zijn gezien het TDP van die kaart.
Dus ik vind dit wel een valide vergelijking.

Zoals ik hier boven ook al aan geef ik zou willen dat de tech bedrijven dus niet alleen nVidia maar de andere ook een wat meer realistische presentatie geven. Daar is ook niets mis mee. Deze kaarten doen het veel beter dan de Turing generatie. Waarom moet je het dan nog mooier laten lijken dan het is terwijl de daadwerkelijke prestaties gewoon top zijn gezien de prijs van de kaarten? Dat vind ik gewoon storend en ze proberen gamers gewoon te misleiden.
Waar legt Nvidia de focus op 1.9x performance per watt, op een manier die gamers misleid? Ik heb die informatie alleen gezien in een presentatie waar in een grafiek duidelijk wordt uitgelegd wat ze er mee bedoelen?

[Reactie gewijzigd door cnieuweboer op 17 september 2020 11:18]

Letterlijke woorden van Jensen:
Ampere is an incredible two times the performance and energy efficiency of turning)
https://youtu.be/E98hC9e__Xs?t=1103

Beide claims zijn niet waar. En die grafiek laat het ook zien. Maar later in de slide komen ze ook weer met 1.9X en dat klopt gewoon niet.
Het verschil bij vergelijkbaar verbruik volgens de grafiek is 50 vs 60 FPS bij 120 watt. En dat is ook een mooie verbetering als ze dat zo hadden laten zien en het hadden over 20% betere performance per watt helemaal goed en mooi maar de claims die ze maken kloppen niet. Ze zijn ampere in het beste licht aan het zetten en turing in het slechtste. En als je naar de reviews kijkt zie je inderdaad dat er helemaal niets klopt van de claim van Jensen. het is geen 2x efficiency en ook geen 2x performance. Not by a long shot.
Ok, dit gaat dus om een presentatie waar ze gewoon exact uitleggen wat ze met 1.9x bedoelen. Duidelijk dan waar we het over hebben. Als je daar perse iets anders in wil lezen dan wat Nvidia bedoeld, inclusief uitleg van Nvidia, moet je dat verder zelf maar weten.

En als je "tot 2x" wilt lezen als "gemiddeld 2x" ben je naar iets op zoek. Nvidia heeft in hun eigen presentatie al laten zien dat je dit lang niet in alle workloads hoeft te verwachten. Je wist al lang al dat dit cherrypicked resultaten zijn, op games/resoluties waar Ampere de extra floating point performance goed kwijt kan. Daar heb je de afgelopen week dagelijks over geklaagd.

Wat ik eigenlijk nog wel interessanter vind. Hoe heb ik een paar minuten na je reactie al 2x een 2+ moderatie? Onder een nieuws item van een dag oud, met 400+ reacties, terwijl andere oudere reacties volledig genegeerd worden. En dat bij een post waar je woorden cherrypicked, veel meer nog dan Nvidia dat met test resultaten gedaan heeft.
Zou je mij dan voorbeelden willen geven waar Jensen aangeeft dat dit gemiddeld anders is? ik zie dat in zijn presentatie niet terug.
Ook zijn claims over de grote prestatie verbeteringen zijn extreem cherry picked waar ze games en settings gebruiken die meer dan 8GB VRAM gebruiken waardoor de 2080 helemaal onderuit gaat. Als je dan een 30 game benshmark gaat doen krijg je een totaal ander beeld.

Ik wil er niet perse iets anders in lezen dit is wat Jensen zelf zegt en wat heel veel nieuws sites waaronder tweakers 1:1 overgenomen hebben. Ook mensen op fora namen die claims over 1.9x en 2x als waar aan. Of kwamen met hogere waardes dan we nu bij de uiteindelijke reviews zien.
Dus ja ik heb toen aan verwachting managment gedaan en gezegd dan men even beter naar de grafieken en slides moet kijken want tov die slides kan het gaan tegenvallen. En dat is nu ook gebleken.

Ik zeg dus niet dat Ampere slecht is. Integendeel. Maar ze hadden de cijfers niet op hoeven te blazen. Ampere is as is goed genoeg de performance per watt is duidelijk omhoog gegaan. De prijs is lager. De prestaties tov de vorige generatie zijn meer dan prima. Dus waarom het dan toch mooier proberen te maken dan het is? waarom niet de daadwerkelijke gemiddeldes noemen die mensen ook echt gaan zien?
Wat ik eigenlijk nog wel interessanter vind. Hoe heb ik een paar minuten na je reactie al 2x een 2+ moderatie? Onder een nieuws item van een dag oud, met 400+ reacties, terwijl andere oudere reacties volledig genegeerd worden. En dat bij een post waar je woorden cherrypicked, veel meer nog dan Nvidia dat met test resultaten gedaan heeft.
Wat probeer je hier mee te zeggen?
En welke woorden cherrypick ik dan? ik quite Jensen gewoon letterlijk. Jij gaf aan dat nVidia dat niet gezegd heeft. Ik geef je de letterlijke quote van de CEO waar uit blijkt dat dat wel zo is.

Zelf kom je vervolgens niet met bewijs. Dus ik nodig je uit net als mij met duidelijke slides, quotes en youtube timestamps te komen waaruit blijkt dat nVidia de boel niet mooier probeerde te maken dan het daadwerkelijk is.
Sorry maar ik ga niet op je hele verhaal reageren. Zo veel tijd wil ik hier niet in steken.
Dat mag maar op deze manier zeggen je woorden hierboven dus niets meer. Je wil het bewijs niet leveren.
Zonder bewijs kan iedereen van alles claimen. Dit gebeurd heel vaak ook en als je dan naar bewijs vraagt komt het niet.
En het is niet dat ik perse mijn gelijk wil halen. Als ik het verkeerd heb wil ik dat met alle liefde toegeven ik ben ook maar een mens en kan wat over het hoofd gezien hebben.
In die presentatie staan gewoon grafieken, waar je kunt zien wat er met "tot x2 prestaties" bedoeld wordt
Dat zijn compute workloads geen games. Maar ook de geclaimde game percentages (dacht 80% tov de 2080) worden in reviews niet gehaald in praktijk zijn die 10-15% lager.
Maar goed als nVidia dat met 2x bedoelt leuk maar totaal de verkeerde doelgroep dat is meer wat voor de quadro launch dit was gericht op gamers.
Waar heb ik dat gedaan? Ik vroeg alleen alleen waar je de focus van Nvidia op de 1.9x performance/watt gezien hebt, om dat ik dit alleen in de presentatie heb gezien. En in die presentatie staat gewoon wat ze daar mee bedoelen. Maar als dat bijvoorbeeld zonder verdere uitleg op ergens op nvidia.com staat zou dat wel kwalijk zijn.
Je hebt gelijk je zei:
Waar legt Nvidia de focus op 1.9x performance per watt, op een manier die gamers misleid? Ik heb die informatie alleen gezien in een presentatie waar in een grafiek duidelijk wordt uitgelegd wat ze er mee bedoelen?
Het gaat mij om deze slide:
https://images.anandtech.com/doci/16057/Ampere_PPW_575px.jpg

Waar ze 1,9x Perf/W claimen. Wat er staat klopt wel maar kijk ook naar de curve van turing die begint af te vlakken omdat die tot de max gepushed wordt of tegen een bottelnek aan loopt.
Als je bv een 120 of 200 watt vergelijking gaat maken krijg je een totaal ander beeld.

Waarom ik dit ook zeg is dat veel nieuws sites en mensen op foa of in comments die claim van nVidia over namen en er in geloofden. Ik had gewoon liever gezien dat nVidia een wat meer realistische vergelijking had gemaakt dus bv at same power 20% faster compared to turing. Daarnaast laten ze niet zien welke GPU dit is ze geven alleen aan dat het Control at 4K betreft.
Kijk je nu naar reviews en de power efficiency tests daar valt dat gewoon tegen tov de 2080 Ti. Dus ben daar wel beniewd of de 3090 dat beter kan doen.
Dat 2 personen (of accounts) enorm vooringenomen en doelgericht aan het modereren zijn.
Dat soort mensen heb je helaas altijd. Je post heeft onterecht een -1 gekregen. Maar zo te zien is dat al weer recht gezet. Je posts zijn gewoon on topic.
Je hebt zeker een punt hoor.
Als je kijkt naar de grafiek zie je dat Nvidia de winst claimt bij een (gecapte?) 60 FPS.
De grafiek laat zien dat het energieverbruik inderdaad de helft is van de 2080.
Maar dat scenario is helemaal niet realistisch. In de echte wereld is de Perf/W veel lager, eerder in de buurt van 20-30 %.
Dus misleiding.... JA,daar kan je zeker van spreken in dit geval,is mijn mening.
En ik denk dat de (misleidende) claim juist is gedaan om mensen zand in de ogen te gooien,juist omdat het het energieverbruik zo hoog is.
Voor mij heel duidelijk marketing geneuzel,maar bij de gemiddelde gamer gaat het er in als roze koeken.....
En daarvan is Nvidia bewust natuurlijk,juist daarom is het zo belangrijk dat sites als GoT dit checken,en mensen er op wijst als claims onzinnig zijn. (wat dus,ook bij GoT niet gebeurt).
Als je de 2080Ti qua prestaties per watt vergelijkt dan zijn de resultaten op zijn zachts gezegd niet bijzonder... Pak je bijvoorbeeld 1440p ultra gemiddeld van deze review en dan het stroomverbruik dan kom je op een verbetering van circa 2% wat imo erg slecht is gezien de node schrink.

Bij de reviews die ik tot dusver heb gezien kom ik tot hetzelfde resultaat.

[Reactie gewijzigd door Skyfox85 op 16 september 2020 23:49]

Helemaal eens. Prestaties zijn indrukwekkend en de prijs is aardig, maar daarvoor hebben ze echt ingeleverd op prestaties per watt. AdoredTV heeft net een video online gezet waarin hij speculeert dat Nvidia per se de prijs omlaag wilde hebben en daarom op Samsung gegokt hebben, waarbij NV waarschijnlijk niet van tevoren had kunnen bevroeden dat die 8nm node van Samsung zóveel energie zou slurpen. 320 watt, en daar een groot deel je kast van inblazen, dat lijkt mij niet het beoogde eindresultaat van een bedrijf dat zijn reputatie behaalt heeft op zuinig, stil en koel.
Dank. Tis nogal een lang verhaal en hij doet wel redelijk wat aannames. Hoewel ik het niet echt oneens ben met hem had hij feitelijk ook gewoon kunnen zeggen: 'De prestaties / watt zijn slecht, we weten dat Samsungs 8 nm node slechte prestaties / watt heeft maar super goedkoop is, ergo heeft Nvidia voor Samsung gekozen vanwege de lage kosten'. Dat had geen 32 minuten hoeven duren.

[Reactie gewijzigd door Dorstlesser op 17 september 2020 14:11]

Mooie reactie erg informative. Ik vraag mij persoonlijk aff of ik voor een rtx 3070 ga of 3080. Ik ben well van plan op 4k 144hz te gamen.

Mijn vraag aan u is zou ik met een 3070 cyberpunk op max settings kunnen spelen denkje of heb ik dan de 3080 of 3090 nodig. Ik weet dat job dat vast niet zekere weet maar als je een schatting deed wat zou je antwoord zijn?
Er zijn nog geen Cyberpunk reviews uit. Als je kijkt naar de huidige games is er nogal een verschil tussen de framerates bij games die RTX en DLSS gebruiken. Dus het is heel moeilijk te zeggen of je een goede framerate gaat halen. Control is bv super zwaar qua RTX. BF5 aanzienlijk minder.

3070 zie ik sowieso niet als een 4K RTX kaart meer als 1080/1440P RTX of 4K zonder.
Als je echt alles max wilt en je hebt het budget zal de 3090 de beste keuze zijn.

Maar qua prijs prestatie verhouding zijn de 3070 en 3080 aanzienlijk beter en dan zou ik voor de 3080 gaan.

Maar goed nVidia kan zo maar met een 3070 Ti 16GB gaan komen en 3080 Ti met 20GB tegen de tijd dat AMD met RDNA2 chips komt.
En dan kan het hele speelveld weer anders worden.

Je kan daar op gaan wachten maar volgens mij komt Cyberpunk begin nov uit en gezien hoeveel mensen nieuwe kaarten willen is er dan een kans dat zowel de nVidia als AMD kaarten uitverkocht zijn en je dan niets hebt. Dus wil je zekerheid kan je beter zo snel mogelijk iets halen of een 2e hands 2080 Ti voor een leuke prijs.
Zelf zou ik toch afwachten. Dan het spel maar wat later spelen. In het begin zijn er vaak ook storende bugs dus een paar weken wachten is dan vaak wel goed dan hebben ze het ea kunnen patchen. Alleen moet je dan niet te veel op internet gaan lezen want dan krijg je te veel spoilers ^^
Heel erg bedankt voor je tijd om dese reactie te schrijven. Is precies de soort reactie die ik wou😀.

Ik weet nu zekere dat ik ga proberen de founders edition 3080 te halen, lukt dit niet dan wacht ik lekker aff. Heb namelijk gehoord (moores law) dat bij nvidia de prijzen in october flink omhoog geschroeved worden. Nou nogmaalgs bedankt voor de reactie en pray for me dat ik we rtx 3080 man krijgje aangezien nvdia een zogenoemde paper launch heeft.
Your welcome.

Ja ik ben erg benieuwd naar de beschikbaarheid van de Ampere kaarten. En inderdaad of die prijs stelling wel klopt. We hebben het eerder ook al gezien met de 2080 Ti die heeft de MSRP amper gehaald heeft er meestal boven gezeten. Dat kan hier ook gebeuren en dat zou wel erg jammer zijn als dat het geval is.

Het is dan nog steeds een goede deal tov Turing maar dan wel minder goed als je er niet meteen op dag 1 bij was.
Geloof het of niet ik het on het moment nog een 750ti er in zitten in combination met een and phenom😂😂😂. Dus mijn performance increase zall hoe dan ook erg merkzaam zijn denk ik zelf zodra ik ook mijn cpu upgrade uiteraard.

Als het op cpu's aankomt way you je dan adviseren. Wachten op de nieuwe amd?
Dan moet je de CPU inderdaad wel upgraden ja anders kan die 3080 zijn ding niet gaan doen.

De nieuwe Zen3 CPU's worden 3 oktober aangekondigd. Ik denk wel dat dat the way to go zal zijn op dit moment. Ik vraag me alleen wel af of ze ook meteen met een 6 core komen of in het begin alleen 8 cores en meer.
Ik denk dat qua prijs prestatie verhouding de 3600 de beste zal blijven. En als je op 4K gaat gamen is de CPU iets minder belangrijk. Dan is de GPU de bottelneck.

Dus als je haast hebt nu een B550 + 3600 halen je kan er altijd later een 4700 of 5700 cpu in gooien (geruchten hebben het er nu over dat Zen3 Ryzen 5000 gaat worden).
Maar je kan natuurlijk ook 3 Okt even afwachten. Dan een 3600 kopen kan altijd nog die zijn er genoeg. Kan wel zijn dat er daar na een run komt op B550 en X570 borden als mensen willen upgraden naar een nieuwe AMD setup. Maar misschien valt dat ook wel mee omdat veel mensen toch al een B450 of nieuwer bord hebben en dus geen nieuw bord nodig hebben.
Het zou fijn zijn als zen3 Ryzen 5000 gaat worden voor de desktop, maar ik betwijfel het. Dat wordt gewoon 4000 anders heeft de consument te snel door dat de laptop cpus nog op de voorlaatste generatie gebaseerd zijn, en de 5000 serie voor laptops zal nog wel even op zich laten wachten.
In de VS hebben wat mensen problemen met een 3080 FE bestellen tot nu toe:
https://www.reddit.com/r/...ke_any_3080_fe_available/
Massive scam AMD HERE I COME
Ik denk dat je deze niet moet vergelijken met een 2080 Ti. Tuurlijk, dit heeft nVdia wel gedaan, maar als je kijkt naar de prijsklasse kun je deze beter vergelijken met een 2080 Super. Als je ziet dat de 3080 ongeveer 50% sneller is dan een 2080 Super (uitzonderingen daar gelaten) vind ik dat echt erg indrukwekkend.

Ik ga mijn 2070 (niet-super) in ieder geval upgraden naar de 3070.
Klopt en de 3080 is ook gewoon de opvolger van de 2080S en niet van de Ti.
Persoonlijk zou ik (als je het bedrag kan ophoesten) voor een RTX3080 gaan of wachten op een RTX3080TI.
Als je op langere termijn kijkt kan je zo vaak een generatie overslaan waardoor je op het einde van de rit even veel hebt betaald en dezelfde prestaties hebt behouden maar dan met 2 high end kaarten ipv 3 lower end.

Overigens zit je met RTX2070 vs 3070 nog steeds met 8GB Vram..
Goed punt! Ga ik denk ik zeker doen.
Maat ook dat is niet wat nVidia je wilde laten geloven die strooide met persentages van 80% die niet gehaald worden. Dus mijn punt is en blijft valide.

Ik zou willen dat al deze tech bedrijven wat meer realistische presentaties geven van hun producten en niet altijd maat extreem veel moeite doen om de extreme gevallen er uit te lichten.
Die 2x blijkt te zijn in full RT games (minecraft RTX) kinda verwacht van Nvidia om games te Cherry picken voor de performance nummers
Voor de mensen die de 1000 serie nog hebben is het een geweldige upgrade. Mijn 1080ti koste rond de 1100,-. Nu heb ik straks voor een stuk minder geld de dubbele snelheid.
Want die magere 30% van de 2080ti was me niet nog eens 1100+ euro waard.
Helemaal mee eens.
Het ligt er ook een beetje aan wat je doet. Als je nu 1440P120 of 144 hebt hoef je de 1080Ti eigenlijk nog helemaal niet te vervangen (of je moet perse RayTracing willen).

Wil je 4K dan is het een ander verhaal en dan is het zeker de moeite om voor een 3080 of eventueel RX6900 te gaan.

Dit zijn vooral hele interessante upgrades voor mensen met een 980/980Ti of zelfs 780Ti.
Ik heb een 780 ti. Wat maakt deze 3xxxx generaties so interessant voor mij?
Afhankelijk van de resolutie waar je op speelt en de games die je wilt spelen is het een grote performance upgrade. Als je nu een 1080 Ti of 2080 hebt is het verschil niet zo heel groot.

De 2080 Ti is al meer dan 2x zo snel:
https://www.gamersnexus.n...evisit-in-2019-benchmarks
Dus als je meer prestaties nodig hebt is de 3000 of AMD 6000 generatie interessant.

Maar als de 780 Ti voor jou nog steeds moet wat hij moet doen en de games draaien soepel gewoon lekker blijven gebruiken natuurlijk :)

[Reactie gewijzigd door Astennu op 17 september 2020 14:16]

Voor de claims van Nvidia moet je eens kijken naar de resultaten in Blender en V-ray in de video van LTT.
In games zijn de prestaties niet zo imposant als geclaimd, maar in Blender en V-ray is de 3080 2 tot 2,5 keer sneller dan de 2080.
Die toename in prestaties is echt extreem
Mja dat is leuk maar gamers gebruiken dat niet. Dat is meer voor mensen die quadro en firegl kaarten gebruiken. Dus in mijn ogen niet relevant en misleidend in een presentatie die gericht is op gamers.
In de conclusie wordt onterecht gesuggereerd dat deze founders editie een referentiekaart is:
Niet al te lang geleden wilde je alleen een referentiemodel als je waterkoeling ging installeren en de koeler toch niet zou gebruiken. Met de afgelopen generaties timmert Nvidia echter hard aan de weg. We kunnen zeker stellen dat de RTX 3080 Founders Edition de beste referentiekaart is die Nvidia tot nu toe heeft gemaakt.
Dat is onjuist. Nvidia heeft in de Founders Edition dit keer een custom PCB gemaakt, de PG133, terwijl de referentiekaart de PG132 is. Bron.

Dat is belangrijk als je van plan bent om zelf een custom waterkoeler te kopen: deze gaan niet persé passen op het PCB in de Founders Edition.
De verbeterde Tensor-cores in de RTX 3080 laten in deze DLSS-test hun meerwaarde zien.
Dat ze verbeterd zijn zie je niet terug in de benchmarks. De relatieve verschillen tussen met en zonder DLSS zijn niet groter dan bij de RTX 2080 Ti. Met andere woorden, de 2080 Ti behaalt met DLSS percentueel grofweg dezelfde winst t.o.v. zonder DLSS.
Dit bevestigt ook Computerbase.de, vertaald vanuit Duits:
DLSS brengt geen grotere boost voor Ampere dan Turing, blijkbaar brengen de betere tensorcores voor AI-upsampling geen voordelen op het gebied van prestaties. De GeForce RTX 3080 stijgt met 87 procent in de selectie van games via DLSS, terwijl de GeForce RTX 2080 Ti 88 procent is. Het resultaat komt niet alleen tot uiting in de rating, maar ook in de individuele games zijn er geen verschillen in de DLSS benchmarks tussen Turing en Ampere. Zelfs in Death Stranding, dat DLSS aanbiedt maar geen ray tracing, is er geen verschil.
Zijn hier het aantal tensor-cores hier ook bij meegenomen? De 3080 heeft er 272 waar de 2080ti er 544 heeft. Als er met de helft van de cores een vergelijkbare prestatie (percentueel) wordt gehaald is dat dan niet een enorme verbetering?
Terecht punt. Ik zie nu trouwens dat het ook in deze review van Tweakers wordt genoemd:
Ook aan de Tensor-core is gesleuteld voor Ampere. Om te beginnen is het goed om te weten dat het aantal Tensor-cores is teruggebracht van acht naar vier per sm, maar dat ze per stuk wel een verdubbelde rekenkracht hebben.
Ze weten dus bij de RTX 3080 met de helft van de tensor cores dezelfde prestatiewinst te bereiken als bij een RTX 2080 Ti, inderdaad een verdubbeling van de prestaties per tensor core.

[Reactie gewijzigd door Degrader op 17 september 2020 13:39]

Jammer dat Flight Simulator 2020 niet is meegenomen in de review! Dè game bij uitstek om te testen hedendaags!
Zeker! Dat had een mooie toevoeging geweest. Helaas zit deze game op dit moment niet in onze benchmarksuite, en hebben we daar dus ook nog geen benchmark voor ontwikkeld. Ook is Flight Simulator een game die zeer sterk CPU afhankelijk is, en daarmee minder interessant om te gebruiken voor een 3d-chip review. Wellicht dat we in de toekomst nog eens in de benodigde hardware voor FS kunnen duiken!
+1Anoniem: 1330988
@Ch3cker16 september 2020 16:11
Wellicht? FS2020 is de game waarvoor reikhalzend naar de 3000-serie is uitgekeken omdat die erg verlegen zit om meer grafische rekenkracht. Dat gonst al heel lang op het internet. :?

En als totale leek ben ik niet onder de indruk van deze benchmarks. Ik had echt geen verdubbeling in prestaties verwacht maar gemiddeld 50% meer had toch wel gemogen, zeker gezien de flinke toename in opgenomen vermogen van de kaart. Maar wellicht is het ook nog een kwestie van driver optimalisatie de komende maanden.
In de benchmark van GamersNexus is die meegenomen en daar zie je op 4K maar een minimaal verschil door de enorme CPU bottleneck. Op lagere resoluties is er wel absoluut een sprong zichtbaar.
MSFS2020 presteert ruim beter, LTT.
Is toch 50% meer? Je moet het vergelijken met de RTX 2080, niet met de RTX 2080ti, die zal met de 3090 moeten vergeleken worden.
Nee, die 3090 zal met de Titan vergelijken moeten worden. De 2080Ti heeft geen directe opvolger. Waarschijnlijk komt er nog wel een 3080Ti, en dat wordt dan de opvolger van de 2080Ti.
Ook fout, aangezien er óók een nieuwe Titan in de maak is. De 3090 start een nieuw segment die tot nu toe niet bestond. De 3080 kun je het best vergelijken met de 2080.

De verwachting is in het algemeen dat er nog een 3080ti komt... Maar misschien ook wel een 3090ti... We weten het simpelweg nog niet :)
De directeur van NVidia bracht het in zijn presentatie also de 3090 de Titan opvolgt. Wat er nog gaat volgen in de 30-serie... Zoals je al zegt, we weten het nog niet.
De correcte quote was, dat de 3090 'Titan like performance' krijgt - niet dat het de nieuwe Titan is. Groot verschil is de focus van de kaart - de 3090 is veel meer gericht op gaming dan de Titan.
Aan al de mensen die riepen dat FS niet cpu bottlenecked is..
Hier is het resultaat, de game wordt niet overal getest omdat het de gemiddelde cijfers doet kelderen..
10 mensen onder jouw posten het zelfde en krijgen +1 :S
Dat vind ik behoorlijk onterecht.

[Reactie gewijzigd door HugoBoss1985 op 16 september 2020 17:17]

Ik had het over de comments in de voorgaande artikels omtrent FS2020.

Telkens weer opnieuw fans die uitriepen dat het een goede multi-threaded game is omdat al hun cpu cores benut worden.
De traagste schakel is de simulatie berekening die helemaal niet geoptimaliseerd is, en waarschijnlijk zelfs draait op een aangepaste port van de FSX engine.
Microsoft ESP is daar dan weer de grondslag van, die dateert al van 2007. Dat is het jaar dat Crysis uitkwam.

MSFS is een topgame, maar ik wil meer performance zien en het doet me pijn in het hart dat de VR update uitbundig gebruik gaat maken van misselijkmakende frame creation truukjes.
Op mijn pc r5 3600/rtx2060s is die vooral gpu limited op 1440p. Dus het was wel interessant geweest hoe die zou draaien op een rtx3080
Klopt, wat sommige reviewers doen is FS2020 alleen op 4K Ultra reviewen, waar je wel een GPU bottleneck hebt zelfs met de 3080
Daar zijn al vragen over gesteld in het FS2020 topic, daar is de redactie mee bezig. Maar er zijn nogal wat factoren om een betrouwbare benchmark te doen.

Die benchmark test komt dus, maar niet specifiek om de RTX3000 serie, maar meer met het idee 'hoe haal je het beste uit FS2020'.
Dat is goed om te horen. Tip: wacht echt even met het benchmarken zelf tot na de nieuwe patch. Anders kun je alles weer opnieuw doen :P
De verwachte patch gaat niks doen voor de prestaties
Zeker wel:

As far as the patch is concerned, some of the significant offerings that will be arriving through the update are as follows:
  • Performance improvements
  • ATC updates
  • UI updates
  • Aerodynamic updates
  • Aircraft updates
  • Cockpit visuals and animation updates
  • General aviation system updates
  • General aviation avionic updated
  • Airliner system updates
  • Airliner avionic updates
  • Live Weather updates – (e.g. 225/3kt wind fixed, persistency fixed, etc.)
  • Upgraded multiplayer servers
  • Marketplace updates
  • Content Manager updates
  • Localization updates
  • Accessibility updates
  • Camera updates
  • Bush Trip updates (e.g. completion trigger fixed/Completionist achievement fixed)
  • World updates
https://www.neowin.net/ne...nveiled-release-imminent/

En hier nog een mooi plaatje: https://msfs-cdn.azureedg...oads/2020/09/FS-09.03.jpg

[Reactie gewijzigd door Saekerhett op 16 september 2020 16:40]

Dat is allemaal content gerelateerd, wellicht heeft het indirect invloed op de prestaties. Maar het is niet het doel van de update
En die indirecte invloed is wel belangrijk. Er wordt een heleboel gefixed. Spelers zullen per se deze upgrade willen. Als dat de prestaties erg naar beneden drukt, mag dat best bekend zijn.
40 FPS on 4K Ultra present. Aldus Linus :)
Oef, dat valt me eigenlijk wel tegen. Nou is FS2020 natuurlijk echt een grafische krachtpatser, maar ik had niet verwacht dat hij de 3080 op de knieeen zou krijgen.

Ik lees in het FS topic op GoT echter ook dat hele hoge framerates voor FlightSims minder relevant zijn dan bijvoorbeeld shooters, en dat 30FPS prima speelbaar is. Het kan maar zo zijn dat ze daarom ech tot het gaatje gaan qua grafische pracht en praal omdat ze gewoon meer speelruimte hebben.
FS 2020 is ook heel erg cpu afhankelijk. Wellicht zijn de huidige cpu's gewoon een bottleneck voor de 3080.
FS2020 is vooral vooralsnog een DX11 game. De verschillen tussen DX11 en DX12 zijn huge, zeker als het op CPU single/multi threading aankomt. Eigenlijk zit je met DX11 zowel bij Intel als AMD aan een limiet, en zijn alleen de absurd single threaded CPU's een verbetering.

Dagelijks leven draai ik een Threadripper en ik speel nu al ~15 jaar een game die van DX7 naar DX12 is gegaan. World of Warcraft. Blizzard heeft deze expansion vooral rond de ~8.2 tijd enorm veel gezet in betere GPU scheduling door juist DX12 en nieuwe CPU's te gebruiken. Ik zie dus nu dat WoW heel veel meer cores is gaan gebruiken, maar, belangrijker, m'n FPS is bijna verdubbeld zonder de settings te verlagen in een drukke zone als Boralus harbour.

FS2020 zal ook nog een DX12 upgrade krijgen, en ik heb er goeie hoop voor. Dat terzijde... FS2020 is misschien het soort spel wat niet persé >100FPS nodig heeft, en nog controversiëler: misschien is 30 zelfs wel genoeg...
Volgens mij is dat echter niet bij iedere game zo, bij WoW is DX11 v.s. 12 inderdaad goed merkbaar in bepaalde situaties / configuraties, echter in een game als Total War: Warhammer 2 maakte het dan weer vrijwel geen verschil, sterker nog, DX11 was regelmatig een stuk sneller.
Omdat het daar meer een bolt on was. Bij de nieuwere versies van Total War maak het wel meer uit dacht ik (ik heb ze helaas niet liggen alleen Total Warhammer 1 en 2). Sowieso waren Total War spellen eigenlijk altijd CPU limited. Dat ze eindelijke de stap naar DX12 hebben gemaakt is gewoon goed.

In context, mijn cpu heeft maar een paar cores die belast zijn met Total Warhammer 2 en mijn gpu zit uit zijn neus te vreten op de world map. Tijdens gevechten wordt hij meer belast, maar nog steeds maar max 80%. Getest met een 3950x en 5700XT.

[Reactie gewijzigd door Sp3ci3s8472 op 16 september 2020 18:05]

30 genoeg? Potentieel.

Meer = beter? dat is zeker. Dus waarom ook niet vernieuwen naar DX12?
+1Anoniem: 1330988
@Umbrah16 september 2020 17:01
60 FPS lijkt me wel beter want ook in een 'trage' sim wil je dat alle beweging er gesmeerd uitziet. Als met DX12 en andere softwarematige verbeteringen gemiddeld 60 FPS wordt gehaald op 4k ultra dan hebben we denk ik een sweet spot te pakken namelijk een fijne frame rate zonder absurd dure hardware te hoeven kopen.
Hier moet ik wel op toevoegen dat in dit soort spellen 30FPS al als behoorlijk smooth en vaak zelfs goed genoeg gezien wordt. Historisch is zelfs dat al erg lastig en is 40-60FPS in een FS die er zó goed uitziet al ongehoord knap.
Daar ben ik het mee eens, maar 50-60FPS op Ultra settings en 4K door alleen een update lijkt me niet erg bereikbaar ;)
In deze review zitten ook twee DX11 spellen...
Hangt er natuurlijk een beetje vanaf hoe je FS gebruikt. Met een beetje stuntvliegen is het veel leuker om soepel, vloeiend beeld te hebben.

Veel fps is nog belangrijker als je - in de toekomst - VR wilt gaan gebruiken. Dan is 30fps echt niet meer genoeg, dan wil je 8-90fps.

Wanneer de Cpu geen bottleneck is, zou een 3090 dat toch wel moeten kunnen leveren.
Valt mee. Met de reviews van de 2080 Ti staat een 12 core CPU redelijk rustig aan te draaien. Af en toe loads naar 70% op alle cores, maar meestal wel rond de 30 tot 40%, dus ik betwijfel of een 3080 zoiets dan dicht kan trekken.
Het is prima mogelijk om in FS2020 50-60 fps te halen door de opties iets te tweaken. 99% van de mensen zal het verschil niet eens zien in de settings die er echt toe doen qua fps. Dus zo erg is het nou ook weer niet met dat spel :) . Zie een recent filmpje van Jayztwocents over welke settings het dan gaat.
Vooral de bomen een klein tikje terug. :-)
40 FPS op 4k Ultra noem ik nou niet bepaald 'op zijn knieen'. Maar misschien heeft ie niet 's nachts over de windmolens in Nevada gevlogen. ;)
Overdag op JFK met multiplayer aan en bewolkt/regen
Dat zal ook wel werken, ja!
Digital foundry heeft een erg goede analyse van MSFS, als je dat interessant vindt
Je moet niet alleen naar Linus kijken, kijk ook (vooral) naar GamersNexus. Die had rond de 52-53 fps met alle details die je nodig hebt.
Volgens mij hadden ze niet alles maxed maar geprobeert zoveel mogelijk de cpu bottleneck weg te halen. Dat behandelen ze o.a. in hun video daarvoor waar ze hun manier van testen uitleggen.
https://www.guru3d.com/ar...80_founder_review,21.html
prestatiewinst in die game valt tegen, lijkt erg CPU limited?
Daar lijkt het op ja, maar FS2020 is ook niet zo heel goed geoptimaliseerd voor processors met veel cores en relatief lage kloksnelheden. Toch was ik heel benieuwd. Deze week verschijnt trouwens patch #2 die aanzienlijke performanceverbeteringen moet meebrengen. Dus wellicht handig om tegen die tijd opnieuw te benchmarken.
Die zijn ze nog aan het downloaden ;)
Net boven de 40 fps in 4k
Dus speelbaar 😊
In de review van LTT wordt hij besproken
Gamers nexus heeft wat tests, pas met 4K niet meer cpu limited op een 5.1 Ghz intel met supersnel memory.
flight sim is cpu limited ivm dx11, zelfs op 4k
Linus tech tips heeft een leuk grafiekje met 4K ultra:

https://youtu.be/AG_ZHi3tuyk?t=168
Ik denk precies hetzelfde! Deze nieuwe 4k game was perfect geweest! Doodzonde dit. Gauw op zoek naar een andere review
Zo slecht, de keuze om deze kaart niet met een 10900k te testen. Je wil toch de snelst mogelijke game cpu om deze game gpu maximaal van data per tijdseenheid te voorzien? (Zeker bij de sub-4k-tests.)

[Reactie gewijzigd door Roy81NL op 16 september 2020 15:25]

Er is een hele goede reden om deze kaart op Ryzen te testen, namelijk PCie 4.0 welke intel niet ondersteund. Je wilt de maximale performance van een GPU testen, dat gaat op 4K met PCie 4.0 en een CPU met genoeg performance.
tja, en ook in hetzelfde artikel tonen ze aan dat PCIe 4.0 er niet toe doet.

Dus toch ook effe op een i9 lopen nu we weten dat PCIe 3.0 goed genoeg is? :D
Om dat te testen moet je het wel ondersteunen :)

HardwareUnboxed heeft in hun review een vergelijking en geeft aan dat het verschil tussen Intel en AMD slechts een paar procent is, en ook alleen op lagere resoluties. Op 4K is de performance identiek.
ja idd, dat was ook te verwachten. 4k ultra is nog altijd GPU limited (wat je hier wilt, voor een GPU test), alvast met deze kaarten (straks mss niet meer met RTX3090?).

Voor lagere resoluties/settings, is het mogelijk om CPU limited te zijn. Gemakkelijker met DX11 trouwens.

Het zou leuk zijn zou je een indicatie hebben "CPU limited" of "GPU limited" bij een resultaat, maar het staat er in de tekst soms. Voor je eigen PC thuis zou een tooltje handig zijn om het aan te geven.
Midden in het Ryzen Era? Dikke 3900, of een Threadripper als je echt de stoer mijnheer/mevrouw uit wil hangen. :Y)
Pci-E 3.0 vs Pci-E 4.0 maakt minder uit dan het verschil in cpu kracht tussen Intel en AMD.

Een Intel platform is alsnog sneller qua cpu kracht.

Edit: ik bedoelde dus in gaming.

[Reactie gewijzigd door HugoBoss1985 op 16 september 2020 16:49]

Over de 3080: "The gap between current AMD and Intel CPUs at 4K is basically nonexistent. In fact, minor differences in board design, firmware, or just 1% variability in benchmark runs all become factors."

https://www.tomshardware....re-cpu-scaling-benchmarks
Tja, wel logisch op 4k... meer een gpu bottleneck dan een cpu bottleneck.

Niet iedereen wil op 4k 60 fps gamen ;)
Dan kan de i7 4770k ook nog wel meekomen...

Ik speel zelf op 1080p low (cpu bottleneck scenario) om zo dicht mogelijk bij- en stabiele 144fps (144hz monitor) te halen... 60 fps of 75 fps vind ik gewoon waardeloos.
Dat heeft allemaal met input lag / latency te maken.
Vanuit ervaring kan ik vertellen dat Intel gewoon merkbaar sneller is in dat scenario. (Hunt: Showdown... nogal een cpu heavy game.)
En ook niet voor niets dat mijn 9700k op 5ghz all cores werkt en mijn 3600 cl15 ram op cl14 (beide overgeklokt).
Alle beetjes helpen.

Maarja dat had je aan de 1080p resultaten op de gelinkte website zelf ook kunnen zien ;)

Feit is dat Intel gewoon nog steeds sneller is in games... als je kijkt naar de gelinkte website dan zijn de verschillen tussen de AMD 3900x en de Intel cpu's op 1080p nogal significant!

[Reactie gewijzigd door HugoBoss1985 op 16 september 2020 23:18]

Klopt maar we moeten dus wel degelijk onderscheid maken tussen 4K en lagere resoluties wanneer het gaat om verschillen in CPU's.
in gaming*

In elk ander vak rekent een AMD van dezelfde prijs de intel eruit.
Dat klopt inderdaad, ik staar me daar op blind :P
dat valt dus wel tegen, ligt helemaal aan de software en geheugen gebruik. Ik heb een overstromingsmodel dat heel veel matrix berekeningen doet en de code is parallel gemaakt met openmp (sourceforge/openlisem). Het blijkt dat mijn overklokte 3900x met alle 24 threads bijna net zo snel is als de i7-1064 met 8 threads van mijn werk surface pro 7! En dat schaalt gelijk met 1,2,4,8 cores. Het blijkt doordat de code niet geoptimaliseerd is, de cores helemaal niet op 4200MHz draaien, de bottleneck is veel te veel lees en schrijf werk van en naar 2D pointer arrays met doubles.

mijn code is misschien bagger hoor, maar mijn punt is dat het er helemaal aan ligt hoever de software geoptimaliseerd is voor parallele berekeningen. En dat is volgens mij lang niet alle software.
Tsja dat lijkt echt gewoon aan je geheugensnelheid te liggen en dus aan jouw code of manier van rekenen. Dat de cores niet omhoog klokken is omdat ze niks te doen hebben, dus daar gaat ook een snellere CPU je niet bij helpen. Waarschijnlijk haal je met een 3700x dan net zoveel performance. De meeste serieuze software waarbij dit een verschil maakt is daar goed genoeg voor geoptimaliseerd, anders kies je het pakket van de concurrent welke sneller is. Gelukkig is er in de benchmarks en real-world software beter over nagedacht dan jouw n=1. Beetje onterecht om op basis daarvan een algemeen correct bevonden claim als onjuist te bestempelen.
ik weet niet waarom je je zo aangevallen voelt, ik geef alleen maar aan dat de software een grote rol speelt. natuurlijk kan mijn code bagger zijn. maar ik geloof er niks van dat alle software geoptimaliseerd is voor parallelle computing en dus is het blind aannemen dat de 3900x rondjes draait om de intel niet terecht.
Ik voel me niet aangevallen, maar jij maakt een onterechte vergelijking. Een Ferrari is ook bloedsnel maar voor een "race" over de trajectcontrole op de A2 (je memory-bottleneck, of misschien een beter voorbeeld: in de file) tegen een eco-boodschappenkarretje zal in een behoorlijk gelijkspel eindigen. Dus "blind aannemen" dat een Ferrari sneller is dan een random eco-boodschappenkarretje is niet terecht?
Gaming is vaak minder geoptimaliseerd voor parallelle computing, dus daar zie je inderdaad dat Intel vaak iets beter presteert met een lagere corecount. Alle andere gebieden maakt het of niet uit (brieven tikken in Word) of is de boel wel fatsoenlijk geoptimaliseerd voor parallelle taken (compilen, rendering, fotobewerking, videoconversie, wetenschappelijke berekeningen) of desnoods heb je singlethreaded workloads die niet memory-starved zijn op een grote queue waardoor je ze ook parallel uit kan voeren en je met een hogere corecount dus alsnog meer winst hebt dan hogere singlethreaded-snelheid oplevert. Ten slotte heb je de software waarbij het wel uitmaakt maar die alleen maar singlethreaded werkt, en dan is de overstap naar een concurrerend pakket waarmee je 24x zoveel werk gedaan krijgt in dezelfde tijd echt heel erg snel gemaakt. Kijk nog eens naar de benchmarks die gebruikt worden en wat ze testen. Daaruit volgt dat de claim dat de nieuwe Ryzens over het algemeen beter presteren dan de nieuwe Intels. Natuurlijk hangt dat van je workload af, dus in sommige gevallen kies je inderdaad voor Intel. In jouw geval maak je dus geen keuze (of boeit die niet) en dat is helaas puur te wijten aan de kwaliteit van je software. Het klinkt alsof jouw probleem veel baat kan hebben bij een hoge corecount, maar dan moet je iets aan je memory-bottleneck doen, waarschijnlijk door je berekeningen op een iets andere/slimmere manier uit te voeren zodat de data waarmee je werkt in de CPU-cache kan in plaats van elke keer uit het geheugen moet komen waar je met alle cores tegelijk aan het strijden bent om bandbreedte. Als je dat issue gefixt krijgt weet ik zeker dat "de 3900x rondjes draait om de intel".

Late edit: Ik kan ook slechte software maken die bijvoorbeeld op een Geforce RTX 3080 20fps haalt en op een Geforce 256 ook. Met die software zeg je dan ook helemaal niks nuttigs over de prestaties van beide kaarten ten opzichte van elkaar. Daarom test je ook met fatsoenlijk geschreven software die op een bepaald werkgebied de maximaal mogelijke prestatie uit de aangeboden chip zal halen, en gebruik je verschillende van dat soort stukken software om een gewogen oordeel te kunnen vellen over veel verschillende werkgebieden.

[Reactie gewijzigd door DataGhost op 17 september 2020 13:02]

Gebruik je een Intel compiler? In dat geval mag je de performance niet vergelijken met AMD: Intel weigert sinds jaar en dag SSE2+ instructies te ondersteunen voor concurrerende processors in hun compiler (laat staan AVX+) waardoor software op concurrerende hardware geniepig een stuk slechter werkt.

Zie bijvoorbeeld: https://www.agner.org/optimize/blog/read.php?i=49#49 of de piepkleine disclaimer onderaan https://software.intel.co...s/parallel-studio-xe.html (Intel's compilers may or may not optimize to the same degree for non-Intel microprocessors for optimizations that are not unique to Intel microprocessors...)
ik gebruik mingw g++, met Qt? ik weet niet of dit geoptimaliseerd is voor intel?
Zonder de Intel compiler ben je meestal veilig voor de cripple AMD functies, dan is dat waarschijnlijk niet de reden voor je performanceverschil.

Tenzij je ergens in je project of keten werkt met de Intel Math Kernel Library (MKL). Het wordt verdacht als je mkl*.dll/lib of libiomp5md.dll/lib tegenkomt ;)
Ligt er een beetje aan of je AVX512 gebruikt of niet. Zoja, dan wint Intel, anders wint AMD. Nou is AVX512 voor een hoop rekenwerk best de moeite waard.
Het maakt voor een RTX 3080 niet uit of deze in een pci 3 of 4 slot zit, het verschil is maximaal 1% of minder.

Intel blijft performancekoning op alle resoluties, alleen ligt die op 4K zo dicht tegen AMD aan dat het niet meer uitmaakt welk merk cpu je hebt waardoor AMD de interessantste wordt.

[Reactie gewijzigd door oef! op 16 september 2020 16:34]

Dat wisten we pas nadat dit getest is. Makkelijk praten weer. Ik vind het heel slim van Tweakers om dit zo te testen. Kunnen ze ook meteen ervaring op doen en dat kan alleen maar voordelen opleveren bij komende producten die hier wel gebruik van maken.
Er zal vast wel ergens een review komen waar men met een Intel platform op 1080p test.
Ik gok op een review van een 360Hz monitor.
Voor 4K maakt het sowieso niks uit bij deze kaart, en voor 4K had het wél uit kunnen maken of we PCI-e 4.0 of 3.0 hadden gebruikt. Daarom is de keuze gemaakt om met de 3900XT icm PCI-e 4.0 te testen. Uiteraard betekent dit dat er bij een gering aantal games, vooral bij Far Cry New Dawn, een CPU-bottleneck optreed bij de lagere resoluties. We wilden liever een eventuele bottleneck op 4K voorkomen, dan een bottleneck op 1080p.
Interessant genoeg als we de cijfers van mindfactory.de ( de grootste PC winkel in DE ) bekijken, dan is AMD verkoop 78% tot 91% ( https://imgur.com/a/kr4nNqG#kOtyUV7 ) vs Intel's 9% tot 23% in het afgelopen jaar.

Blijkbaar kopen mensen Intel niet enkel meer voor die "gaming" CPU en hebben ze geen enkel probleem om die paar procent extra of te offeren voor goedkopere prijs of meer cores.

Voeg daarbij dat AMD de enige zijn dat PCIe 4.0 aankunnen. En ja, zelf al geeft PCIe4.0 weinig voordeel, dat ontdekt je enkel als je ... AMD gebruikt in je tests.
Mee eens!
Op 1080p maakt Intel (ook de 9900k) gehakt van de 3900x.
Enkel in Red Dead Redemption 2 zijn de verschillen "klein".
Ik zal het er geen doekjes om winden; ik vrees dat een deel van deze review linea recta de prullenbak in kan:

f1 2020 @ 1440p
Techpowerup : 136.9 fps 2070 super vs 240 fps @ 3080 = 175%
tweakers 137.5 fps @ 2070 super vs 181.1 fps @ 3080 = 131% 8)7

Dat zijn enorme verschillen! Hiermee onstaat overduidelijk een verkeerd beeld. De oorzaak is snel gevonden:
Voor deze review van de GeForce RTX 3080 hebben we een compleet nieuw testsysteem in gebruik genomen dat geschikt is voor pci-express 4.0. AMD is op dit moment de enige die de nieuwste pci-e-standaard ondersteunt, dus de keuze viel al snel op AMD’s snelste game-cpu: de Ryzen 9 3900XT. Om het boostgedrag van de cpu uit te sluiten als variatiefactor, hebben we de multiplier vastgezet op 42.
Beetje jammer dit. Leuk idee dat PCI 4.0 wellicht belangrijker is dan PCI 3.0, maar dit kun je testen. Sterker nog het is al getest en de conclusie is ook duidelijk; het is nu niet belangrijker.
  • 3900XT PCI 3.0 220.6 fps
  • 3900XT PCI 4.0 224.4 fps (+1.7%)
  • 10900K 236.3 FPS
  • 10900K (max PL) 238 fps
  • 9900K OC 240.1 fps (+8.8%)
Dit zou verder geen verrasing moeten zijn. Binnen de context van de historie van videokaarten heeft het altijd járen geduurd voordat x16 op de nieuwste PCI generatie echt een significant resultaat ging opleveren. Er is geen reden om aan te nemen dat dit met PCI 4.0 anders gaat zijn, en het blijkt ook dat dit niet anders gaat dan met PCI 2.0 en PCI 3.0.

Tegelijkertijd hebben we regelmatig periodes gehad waarbij de cpu de bottleneck werd. Zo lang het gros van de games niet perfect schaalt met een hoog aantal threads blijft het testen van de nieuwste generatie videokaarten dan ook voorbehouden voor de modellen met de beste performance op (semi) single threaded. Wat bedoel ik dan met semi single threaded? Dat is de hoogste uitkomst van GHZ * IPC maar dan met in acht neming van een minimum hoeveelheid threads. Dat minimum lijkt in 2020 8 threads te zijn.

Jammer! Testen van de snellere GTX 3090 met een cpu die op 4.2 Ghz is vastgezet zal natuurlijk nog problematischer worden. Dan is dat maar alvast gezegd.

Laten we hopen dat AMD opschiet met Ryzen 4xxx, dit is hét moment om het (gaming) gat met Intel te dichten. Geeft meteen kopers van Ryzen 3xxx een reden te upgraden.

[Reactie gewijzigd door sdk1985 op 17 september 2020 01:47]

Wij testen F1 2020 met de slechtst mogelijke weersomstandigheden, zoals ook in de review aangegeven. Dat heeft uiteraard invloed op de scores. Ook het gekozen circuit heeft invloed op de scores. Gezien TPU al deze settings achterwege laat is het vrijwel onmogelijk om de resultaten eerlijk te vergelijken.

Op 4K, waar deze kaart voor bedoelt is, is er geen verschil tussen de 3900XT en de 10900K, ook niet volgens TPU. Omdat er wél een verschil had kunnen zijn tussen pci-e 3.0 en 4.0 op de 4K resolutie, de resolutie waar we deze kaart op willen beoordelen, is er voor gekozen om voor de 3900XT te gaan.

XFR is daarbij uitgeschakeld omdat dit extreme variaties geeft in de scores tijdens het benchmarken.

Intel heeft simpelweg nog geen platform beschikbaar met pci-e 4.0. Gezien de 3090 nóg sneller is dan de 3080, zou het zomaar kunnen dat deze kaart wel profijt heeft bij pci-e 4.0.

De keuze was dus : gaan we voor de hoogst mogelijk scores op de lagere resoluties, of gaan we voor de hoogst mogelijke scores op de hogere resoluties. Omdat dit kaarten zijn die je wilt beoordelen op basis van de hogere resoluties, zijn we voor dat laatste gegaan en hebben we twee systemen met pci-e 4.0 gebouwd, met dus een AMD processor.
Op 4K, waar deze kaart voor bedoelt is,
Is dat zo? Of kwam die bewering Nvidia goed uit gegeven de huidige generatie processoren? Ik tel op 6 van de 10 door jullie geteste games resultaten onder de 120/144 Hz op 1440p (al dan niet door die cpu bottleneck!). Low latency gaming is het voorlopig aan het winnen van 4K. Natuurlijk is het mooi dat we straks 144 Hz op 4K kunnen gamen maar voorlopig is dat nog een lastig verhaal, al is het maar door de prijs van een dergelijke monitor die begint bij een euro of 900 een doorloopt tot dik in de 2000 euro.

Er zijn al boze tongen die beweren dat deze kaart te weinig vram heeft voor een toekomst in 4K. Maar goed wat dat betreft ben ik meer van eerst zien dan geloven.
Wij testen F1 2020 met de slechtst mogelijke weersomstandigheden, zoals ook in de review aangegeven. Dat heeft uiteraard invloed op de scores. Ook het gekozen circuit heeft invloed op de scores. Gezien TPU al deze settings achterwege laat is het vrijwel onmogelijk om de resultaten eerlijk te vergelijken.

Op 4K, waar deze kaart voor bedoelt is, is er geen verschil tussen de 3900XT en de 10900K, ook niet volgens TPU. Omdat er wél een verschil had kunnen zijn tussen pci-e 3.0 en 4.0 op de 4K resolutie, de resolutie waar we deze kaart op willen beoordelen, is er voor gekozen om voor de 3900XT te gaan.

XFR is daarbij uitgeschakeld omdat dit extreme variaties geeft in de scores tijdens het benchmarken.

Intel heeft simpelweg nog geen platform beschikbaar met pci-e 4.0. Gezien de 3090 nóg sneller is dan de 3080, zou het zomaar kunnen dat deze kaart wel profijt heeft bij pci-e 4.0.

De keuze was dus : gaan we voor de hoogst mogelijk scores op de lagere resoluties, of gaan we voor de hoogst mogelijke scores op de hogere resoluties. Omdat dit kaarten zijn die je wilt beoordelen op basis van de hogere resoluties, zijn we voor dat laatste gegaan en hebben we twee systemen met pci-e 4.0 gebouwd, met dus een AMD processor.
Maar het punt was nu juist dat die hypothetische trade off tussen pci 4.0 en 3.0 niet bestaat. Ook op 4K laat TechPowerUP zien dat het Intel systeem sneller is op 4K. Dus je keuze was helemaal niet 4K resultaten óf lagere resuloties. Er was geen reden om de 1440p (en lagere) resultaten te compromiteren.
Intel heeft simpelweg nog geen platform beschikbaar met pci-e 4.0. Gezien de 3090 nóg sneller is dan de 3080, zou het zomaar kunnen dat deze kaart wel profijt heeft bij pci-e 4.0.
Al zou dit de meest waarschijnlijke uitkomst zijn, dat is het wat mij betreft niet, dan nog ga je dat dat éérst vaststellen vóór je een algemene review gaat maken. Sterker nog, dan heb je meteen materiaal voor een review die uitzoekt wat het nut is van PCI 4.0.

Verder gaat het niet om Intel vs AMD, het gaat om het platform waar je de snelste resultaten mee haalt. TPU heeft laten zien dat voor élk scenario dat momenteel 'toevallig' het platform van Intel is, ondanks PCI 3.0. De kans is aanzienlijk dat dit met Ryzen 4xxx niet langer het geval is, niet wanneer de boel daar 300 Mhz stijgt in combinatie met een +15% IPC. Vervoglens is de kans aanzienlijk dat wanneer Intel in 2021 met rocket lake komt de boel weer omdraait (nieuwe architectuur). Dat hoort er een beetje bij.

edit: Naast TPU heeft eurogamer (digital foundry) ook getest met pci4 vs pci4 vs intel 10th gen en ook die heeft geconcludeerd dat ook voor 4k de prestaties op het Intel platform beter waren: https://youtu.be/k7FlXu9dAMU?t=348

[Reactie gewijzigd door sdk1985 op 18 september 2020 00:12]

Er zijn al boze tongen die beweren dat deze kaart te weinig vram heeft voor een toekomst in 4K. Maar goed wat dat betreft ben ik meer van eerst zien dan geloven.
Er komt nog een 3080 met 20GB geheugen, en een 3070 met 16GB geheugen. Dus als je je zorgen maakt kan je nog even wachten op die uitvoeringen.
Goed punt inderdaad, bij een videokaart test willen we vooral zien wat die kaart kan zonder dat andere hardware een beperkende factor is.
Maar als je kijkt naar de resultaten van Techpowerup met een AMD 3900XT op 1440 en met PCIe 4 dan halen ze daar ook 222,4 fps. Dus ze zullen de resultaten ook op een iets andere manier berekend hebben dan ze hier bij Tweakers/HWI hebben gedaan.
Goed punt inderdaad, bij een videokaart test willen we vooral zien wat die kaart kan zonder dat andere hardware een beperkende factor is.
Maar als je kijkt naar de resultaten van Techpowerup met een AMD 3900XT op 1440 en met PCIe 4 dan halen ze daar ook 222,4 fps. Dus ze zullen de resultaten ook op een iets andere manier berekend hebben dan ze hier bij Tweakers/HWI hebben gedaan.
Dat komt hoogst waarschijnlijk omdat ze daar de cpu lekker laten boosten (3900XT is max 4.7) en niet kunstmatig vertragen.

Edit: Bevestigd
AMD Ryzen 9 3900XT 3.9 to 4.7 GHz
(Zen 2, 64 MB Cache)
Intel Core i9-10900K 3.7 to 5.3 GHz
(Comet Lake, 20 MB Cache)
Intel Core i9-9900K @ 5.0 GHz
(Coffee Lake, 16 MB Cache)

De 10900K op een vaste x52/x53 OC zal op dit moment de beste resultaten geven.

[Reactie gewijzigd door sdk1985 op 17 september 2020 03:53]

De 3080 haalt maar 13GB/s op PCI-e 3.0?

Zouden ze PCI-e 3.0 afknijpen om vervolgens te kunnen zeggen dat PCI-e 4.0 in toekomstige titels beter werkt?
Dit is gelukkig niet het geval, we hebben dit op een native 3.0 gedubbel checked.
Op 3.0 native platformen haal je ook 13+-GB/s
Ik ben sowieso over. Voor 750 euro een 2080TI on steriods. Ik kom van de 1080TI dus dat zal sowieso een grote stap zijn.
Voor een 1080ti is het zeker een goede overstap. Met mijn 2080ti op 1440p is het een stuk minder...en denk ik dat ik het zo even hou.
Ik snap ook echt die mensen in V&A niet. Heb je de beste videokaart die er te krijgen was, ga je die met dik verlies na een jaar verkopen, want je MOET de RTX30xx hebben. Kan je beter de 2080Ti "opgebruiken" totdat die vervangen moet worden. Je kunt toch zeker nog 2 a 3 jaar heel veel plezier hebben van een 2080Ti. Je zou wel gek zijn om die voor €500 te dumpen, terwijl je €1200 hebt neergelegd.
Sommige mensen kunnen de extra fps toch gebruiken. Ik speel bijvoorbeeld veel race sims in VR waarbij ik afhankelijk van de game toch nog aardig wat settings omlaag moet zetten. Met de HP Reverb G2 wat een veel hogere resolutie heeft zal dit nog veel meer het geval zijn. Het is dus zeker niet altijd een kwestie van per se het nieuwste moeten hebben.

Ik weet overigens nog niet of het mij waard is om van een 2080 ti naar een 3080 te upgraden, hier ga ik me nog eens over bedenken. Het is maar net wat je er voor over hebt en wat je te besteden hebt he.
Precies. Ik game zelf op 1440p en als ik zie dat deze kaart daar maar gemiddeld 18% meer performance levert, is dat eigenlijk teleurstellend. (ze gaven aan dat die 2x zo snel als een 2080 zou zijn, maar dat haalt die bij lange na niet)

Ik heb gelukkig niet 1200 maar 870 bij de outlet betaald, maar dan nog ga ik niet upgraden naar de 3080.
Je zou maar je rtx2080ti hebben verkocht en voornamelijk op 1080 of 1440p gamen, dan ben je wel sneller natuurlijk...maar of het dan de moeite waard is?
Die 200 euro dat je extra moet investeren krijg je deels ook weer terug als je later naar de 3080ti of 4080 upgrade :D

Maargoed ik laat mijn 2080ti nog wel even zitten, toch wel nieuwsgierig naar AMD want de 3080 valt mij iig wat tegen en de 3090 is het geld niet waard (want dan heb ik over 2 jaar weer hetzelfde als nu met de 2080ti).

[Reactie gewijzigd door watercoolertje op 16 september 2020 15:53]

Ik snap ook echt die mensen in V&A niet. Heb je de beste videokaart die er te krijgen was, ga je die met dik verlies na een jaar verkopen, want je MOET de RTX30xx hebben. Kan je beter de 2080Ti "opgebruiken" totdat die vervangen moet worden. Je kunt toch zeker nog 2 a 3 jaar heel veel plezier hebben van een 2080Ti. Je zou wel gek zijn om die voor €500 te dumpen, terwijl je €1200 hebt neergelegd.
Als je gaat praten over zinnig geld investeren in videokaarten dan koop je per definitie geen kaart van 1200 euro. De prestatie per euro van de tragere kaarten zijn altijd veel beter. Een dure kaart kopen in de hoop er vervolgens 4-5 jaar met top of the line performance te zitten is gokken tegen de ontwikkeling in.

Wie rationeel een 2080Ti koopt wil persé de beste prestaties en is bereid daarvoor een X bedrag aan uit te geven. Diezelfde groep kan prima upgraden zodra er iets anders nóg sneller is.

[Reactie gewijzigd door sdk1985 op 16 september 2020 18:29]

980TI hiero op 1920x1200..., als ik kijk dan wacht ik nog wel een generatie... 4K hoeft van mij echt niet.

Speel toch meer minecraft, GPU snelheid is best nutteloos hiero
en RPG's... Waar FPS niet echt een super-must is. Als het maar boven de 30 blijft.
En met die resolutie kan ik met een vrij hoge zekerheid wel stellen dat het bij de 60 FPS ook wel ophoudt voor je monitor :D
8 jaar oud beestie, :+

*aait*, doet het gewoon goed...
Het is best mooi hoor, om Minecraft te spelen met 144hz en een render distance van 64 chunks :)

Hoewel daar het geheugen/processors ook enorme bottlenecks zijn.
Of iets slimmer zijn zoals mij en voor de persconferentie €900 vangen voor de TI. Ik ga er lekker makkelijk op vooruit😁
Die gozer voelt zich een kneus nu zeg.
Maarja goed gedaan! je gaat er 25% op vooruit en je kan van het verschil paar dikke titels kopen of 2x met je vriendin lekker uit eten.
Hm... niet helemaal! Bekijk het anders: voor minder dan 25% (€250 o.i.d., in ieder geval onder de €300) extra haal je 25% hogere prestaties. Of je dat dan ook moet doen is een keus, ik kan me ook best voorstellen dat de hard-core gamer met grote beurs van de 2080ti naar de 3090 gaat. Dat dat dan wellicht wat duur is interesseert die mensen dan minder...
Eindelijk iemand die verstandig antwoord, hoeveel 2080ti's ik hier wel niet zie @vraagenaanbod voor de premium hoofdprijs is echt te gek voor woorden...
Ik zou even wachten totdat Nvidia een 3080Ti uitbrengt. Dat zal voor 2080Ti gebruikers veel interessanter zijn.
Idem hier. De 2080 (super) en Ti's waren héél duur voor een marginale winst. Op 1440p is deze gemiddeld (als ik het grafiekje hier goed gelezen heb) zo'n 63% sneller. Dat is zéker de moeite. De OC kaarten van de 3rd parties zijn mogelijks zelfs nog ietsje sneller.
Dit dus inderdaad. Heb zelf een 1070 TI dus een 3080 wordt dan echt wel weer een beste upgrade :). Nou nog hopen op goede beschikbaarheid de komende weken.
Heb een 1070, dus ik sta ook in de rij om te upgraden. Ik wacht nog even testen van de verschillende varianten af, bijvoorbeeld de MSI kaarten. De rest van de pc is vorig jaar geupgrade, dus zal een aardige sprong gaan maken, excited!
Zelfde hier! Ook een 1070 maar vorig jaar een 3950X gekocht dus kan ook niet wachten. Veel plezier alvast :)
Jammer de Palit kaarten nu van die decoratiemeukjes boven de fangaten hebben gemaakt. Dat was altijd mijn favoriet. Ik ga deze ronde eens voor zo'n KFA2 kaart.
Ik kom van 960 4GB....wie wat bewaart heeft wat! :*)
Ik heb een R9 380 uit 2015. Telkens als ik teleurgestelde commentaren lees moet ik mij er aan herinneren dat men het met de 2080 Ti vergelijkt, en een upgrade naar de 3080 voor mij eigenlijk altijd het geld wel waard zal zijn. Het is immers niet erg nozel om een 2080 Ti nieuw of afgeragd te kopen, en ik zou niet weten welke andere optie in de buurt komt.

Ik ga morgen in ieder geval een poging wagen om een FE te bemachtigen. Lukt dat niet, dan kijk ik wat AMD doet, maar zelfs als ze iets soeps op de markt brengen, lijkt het me stug dat ze Nvidia dermate weten te overtreffen dat je spijt krijgt van je 3080.

Men heeft het over CPU bottlenecks, en ik ben benieuwd wat er nodig is om dat zoveel mogelijk te voorkomen. Ik kijk op dit moment uit naar de Zen 3 opvolger van de 3900XT, dat zal hoe dan ook wel een verbetering zijn ten opzichte van mijn huidige Phenom II X6 1090T :+

[Reactie gewijzigd door ThePendulum op 16 september 2020 16:57]

Wacht nauw eerst nog even de AMD aankondiging af. Je mag verwachten dat ze daar ook grote stappen hebben gezet qua performance maar de Radeon kaarten worden gegooid ik op 7nm van TSMC gebakken, wat nogal wat zuiniger zou moeten zijn dan het 8nm procedé van Samsung. Sowieso is het altijd goed even af te wachten wat de concurrentie doet.
Heb vorig jaar december de 2080 Gaming gekocht voor bijna e 900, als ik dit zo lees is die geen fluit meer waard tov de 3080... :-(
Maar goed as kerst maar de 3080 aanschaffen :-)
Joh, je hebt nog steeds een heel prima kaart waar je nog jaren mee vooruit kan. Upgraden met een 5080, over een paar jaar. :Y)
Gelukkig heb ik mijn 2080ti nog niet verkocht, en heb ik eerst dit afgewacht. Ik heb het al eerder gemeld, dat ik vermoedde dat ze een AMD'tje zouden doen, en dat blijkt zo!

Natuurlijk krijg je veel voor een stuk minder geld. Een 3080 zal zeker zijn geld waard zijn, maar als ik kijk naar 1440p waar ik op game is net 18% t.o.v mijn 2080ti niet schokkend!

Nvidia heeft dus eigenlijk flink zitten te liegen met hun dubbele prestaties...terwijl het meer naar net 50% gaat...dat is toch wel een flinke hoop minder.

Tevens is het verbruik ook erg hoog...320 watt ingame...dat is zeer fors!
Tegenvallend op het punt dat ze het beter doen geloeven.

Ik ben benieuwd naar de AMD kaarten, want daar verwacht ik nu nog meer van eerlijk gezegd!
Een 3070 zal dus helemaal niet sneller zijn dan een 2080ti, en ook nog eens 3gb minder ram hebben...

Lol, je zou je 2080ti maar verkocht hebben voor een lage prijs...wordt je dubbel genaaid door ze.
Wel een mooie kaart verder, maar het stroomverbruik is wel eng aan het worden.
De vergelijking van Nvidia is tussen de reguliere 2080, niet de 2080 super of ti. De 3080 is wel een heel stuk sneller dan de 2080. :)

De overstap van de Ti naar de 3080 is niet bijster groot. Enkel de 2080ti is volledig zijn waarde kwijt met de komst van deze kaart. Laat staan als de 3070 het waar maakt om even snel of nipt sneller te zijn als de Ti.
Klopt, dan zitten ze 55 tot 60%...maar dat is niet 100% zoals Nvidia beloofde...

Ik ben blij dat ik gewoon heb afgewacht en niet mijn 2080ti heb verkocht. De 3080 vreet stroom...nog een stuk meer dan mijn 2080ti, en heeft nog meer warmte. Dus moet je eigenlijk al een waterkoeling hebben om dit fatsoenlijk te koelen tijdens gamen, of accepteren dat je veel lawaai hebt...en dat laatste is voor mij onacceptabel..
De 3080 vreet stroom...nog een stuk meer dan mijn 2080ti, en heeft nog meer warmte. Dus moet je eigenlijk al een waterkoeling hebben om dit fatsoenlijk te koelen tijdens gamen, of accepteren dat je veel lawaai hebt...en dat laatste is voor mij onacceptabel..
Je springt hier wel erg snel op conclusies, hoor.

van r/nvidia GamersNexus review thread:
75c at load, well below 93c thermal limit

fans at 1500-1900rpm

2080ti at load hits 43DBA, 3080 peak appears to be 42 (10:27). [edit: Guru3d had 38DBA peaks for 3080, so the data from other reviews is also good]

so it would appear that FE thermals and acoustics are good, despite the higher power requirement of the card.
En met de AIBs die beweren dat ze verbeteringen hebben aangebracht aan hun cooling design, gaan de temps en noise reproduction op die hun modellen misschien en hopelijk niet meteen pijlsnel de hoogte inschieten.

[Reactie gewijzigd door Burning02 op 16 september 2020 16:25]

Dit soort tests worden tegenwoordig nagenoeg altijd in een open omgeving gedaan. Daarmee bedoel ik dat ze op een open testbench staan, en niet in een case!

En de cijfers worden heel anders als je ze in een case plaatst! Zeker weten. Ik begrijp wel dat ze dit doen omdat er zoveel cases zijn, maar eigenlijk zou men het ook moeten testen in een wat mindere kast.

Ik heb zelf een crystal x570 van Corsair, maar als ik game, haalt die totaal niet de beloofde DB.
En mijn 2080ti heb ik zelfs met een lagere powerlimiet ingesteld.

In een open omgeving kan die zijn warmte wel kwijt, maar in een case is het dus een ander verhaal. En als je dan opeens 320 watt moet afvoeren, gaan die leuke theoretische cijfers gelijk de deur uit helaas.
Tjah, ik zou zeggen: bekijk eens de video review van o.a. Gamers Nexus en Linus eens. Daarin testen ze in een closed chassis, en is er geen groot verschil in heat output tussen de 3080 en 2080 Ti.

Nogmaals, niet zomaar tot conclusies komen zoals "je hebt waterkoeling nodig voor de 3080 te koelen!" of "ze testen enkel en alleen in open benches!".
Er is wel een groot verschil in output, want het TDP en verbruik is gewoon hoger. De RTX 3080 heeft gewoon een betere koeler dan de RTX 2080 Ti.

Ik denk dat je met het FE model prima zit; of dit ook zo zal zijn met de partner modellen is nog even afwachten.
Dat dit een 4k-gerichte kaart is was al wel duidelijk. Ik had op 1440p ook geen gigantisch verschil verwacht
Klopt, dat is zo, maar laten we eerlijk zijn, er zijn maar weinig mensen die op 4K gamen..

dat is nog steeds maar een 5% of zelfs minder. Ik had al verwacht dat ze het goed opbliezen...en als je kijkt naar performance per watt, dan doen ze eigenlijk het gewoon slecht. 320 watt onder load, en maar 25% sneller dan de 2080ti die een stuk minder verbruikt...dan is de Samsung 8NM niet echt een grote stap vooruit, of ze hebben de kaart gemaakt in de hoop dat er veel mee gemind gaat worden.
Dan heb je niet doorgedacht. deze kaart wordt misschien aan 1% verkocht, laat die 5% nou net een doelgroep zijn, maar meer nog mensen die een nieuw systeem en monitor aanschaffen om weer helemaal bij te zijn.

Dat AMD nVidia gaat overtreffen in het hoogste segment lijkt me erg onwaarschijnlijk. Ik denk eerder de nVidia zijn voorsprong heeft vergroot. Geen nood voor AMD omdat hier de grootste verkopen niet liggen. We zullen het zien als het op de dag van de aangekondigde aankondiging bekend wordt. Dit soort ontwijkend gedrag lijkt er op te duiden dat AMD nog druk bezig is na te denken hoe ze hun nieuwe kaarten moeten positioneren na dit nVidia-geweld.
Denk je niet dat deze kaart populairder gaat zijn? De prijs is vergeleken met eerdere generaties toch veel aardiger.

Ik vraag me ook af wat AMD bekokstooft; aan de ene kant zou je denken dat ze toch eerder met iets naar buiten zouden willen komen als ze echt wat moois te tonen hadden, maar aan de andere kant weten ze bij AMD ook wel dat ze niet overhaast hun roadmap moeten versnellen alleen maar om het niet te laten lijken alsof ze geen weerwoord hebben. Voor ze het weten zitten ze bij AMD dan weer met een stuntelige presentatie waar de demo crasht of iets dergelijks. Uiteindelijk worden toch de meeste kaarten voor de kerst verkocht; dan kunnen ze beter op 28 oktober volgens plan aankondigen dan hals over kop met een mindere presentatie komen.

Daarnaast zag ik een aardige berekening over het verbruik van de RDNA 2 GPU+RAM in de Xbox Series X, waar uit kwam dat 170 watt daarvoor geen onrealistische schatting is. Dat is iets meer dan de helft van het verbruik van de RTX 3080. Nu zal de RTX 3080 ook een stuk sneller zijn dan de GPU van de XSX, maar bijna twee keer zo snel? Daarnaast gebruikt AMD nu het TSMC proces waar Nvidia met de vorige generaties zulke fantastische prestaties per watt mee neerzette.

Hoewel ik niet verwacht dat AMD Nvidia voorbij zal streven heb ik toch wel goede hoop dat ze het gat aardig dichtlopen.
Nvidia heeft dus eigenlijk flink zitten te liegen met hun dubbele prestaties...terwijl het meer naar net 50% gaat...dat is toch wel een flinke hoop minder.
Nvidia schreef 60% tot 100% sneller dan de originele 2080. En natuurlijk dat is voor reguliere spellen meer rond de 60%, terwijl RTX zaken grotere verschillen hebben. Dat mensen dan denken dat alles 100% sneller zou zijn, tja, dan zet je jezelf ook wel erg op voor teleurstelling.
Ja maar mensen blijven de 3080 maar wegzetten tegenover de 2080 Ti......zet de 3080 eens eerlijk weg tegenover de 2080/2080s. Dat zijn het toch wel echt forse upgrades.

Ik heb bewust de 2080 Ti overgeslagen omdat ik 1300 euro echt krankzinnig vind voor een videokaart. En toen was het echt een mega dikke kaart nu koop ik voor de helft van een 2080 Ti een kaart die ook nog eens 25% sneller ks.

Ik vind het zelf een knappe prestatie. Het is zuur voor de 2080 Ti bezitters, maar eigenlijk hebben ze zich wel beetje laten naaien door Nvidia omdat er totaal geen concurrentie was.
Same, had hem bewust veel te duur te koop gezet, biedingen liepen wel uiteen van 250 tot 600 euro. 550/600 lijkt mij vrij redelijk, ben ook overtuigd dat ie het beter doet dan de 3070 dus hij mag ook duurder zijn :)
Natuurlijk krijg je veel voor een stuk minder geld. Een 3080 zal zeker zijn geld waard zijn, maar als ik kijk naar 1440p waar ik op game is net 18% t.o.v mijn 2080ti niet schokkend!
Tegenover de 2080, niet de 2080 ti. Niet dat ze dat waar kunnen maken zonder DLSS/Raytracing, maar dat maakt de overdrijving wel wat kleiner.

[Reactie gewijzigd door watercoolertje op 16 september 2020 15:47]

Klopt, maar zelfs op een 2080 is het verschil niet eens zo groot als ze zeiden...de 100% wordt nooit gehaald. En dat is wel misleidend.

Tevens is raytracing in de nieuwe kaart eigenlijk ook niet zo veel beter. Enkel met dlss en op 4K.
En natuurlijk is de prijs zeker de kaart wel waard.

maar ik heb zelf een 2080ti, die doe ik hier de deur niet voor uit. Het heeft dan niet zoveel zin lijkt mij. En een referentie model zie ik zelf niet zitten met de gekke powerplug in het midden.

Dan is de vraag wat doen de andere fabrikanten...
Same, had hem bewust veel te duur te koop gezet, biedingen liepen wel uiteen van 250 tot 600 euro. 550/600 lijkt mij vrij redelijk, ben ook overtuigd dat ie het beter doet dan de 3070 dus hij mag ook duurder zijn :)
De 3070 wordt waarschijnlijk iets van 15% langzamer in de meeste games, maar ongeveer even snel in compute heavy of raytracing games. (als ik uitga van 25% sneller dan 2080Ti en 48% sneller dan 3070)

Ik zou als 2ehands koper toch een groter verschil in bang/buck willen zien voor een kaart met veel kortere garantie. Maar ik zou sowieso nooit zo veel besteden aan een 2ehands computeronderdeel.
Met 3 jaar garantie waarvan een klein jaar af is zit ik waarschijnlijk boven de meeste nieuwe kaarten, behalve degene waar je veel meer voor gaat betalen (asus rog strix), maar dan is mijn prijs weer veel lager :)

[Reactie gewijzigd door watercoolertje op 16 september 2020 17:28]

De perfomance per wat is ten opzichte van de 2080ti maar met 8% gestegen.
Gemiddeld 25% meer fps tegen een verhoging van 17% in gebruik.
Nu de beloofde 2x 2080 prestaties bij lange na niet gehaald wordt ben ik zeer benieuwd wat Amd te brengen heeft.
Kwa prijs is de 3080 leuk, maat had zelf ook erg gehoopt op FS2020 benchmarks
Stroomverbruik is inderdaad zeer opvallend! Je kan de 3080 dus eigenlijk niet gebruiken zonder waterkoeling of zonder (een deel van) de hitte de kast uit te blazen! Dus alle standaard AIB koelers zullen de temperaturen in je kast flink opdrijven. In de praktijk zou de 3070 wel eens een interessantere kaart kunnen zijn aangezien het verbruik daarvan ongetwijfeld een stuk lager zal liggen; 250 watt? Stel je voor, het is 2020 en een midrangekaart verstookt 250 watt in game! Dat is Titan-verbruik!

Ik hoop dat AMD dit beter doet, al is dat normaalgesproken natuurlijk juist hun zwakke punt.
Nee hoor, waait gewoon lekker met de airflow van de kast mee naar buiten.
1 2 3 ... 14

Op dit item kan niet meer gereageerd worden.


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True