Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia toont Doom Eternal op RTX 3080 op 4k met meer dan 100fps

Nvidia geeft in een video Doom Eternal weer, draaiende op een systeem met een RTX 3080. Het spel draait op een resolutie van 4k met de grafische instellingen op maximaal. De osd toont daarbij dat de framerate nauwelijks onder de 100 komt.

De fps-counter bij de gameplaybeelden die Nvidia toont, tikt aan het begin meer dan 170 aan, maar daalt tijdens heftige actiescènes tot zo'n 110, met een enkele terugval tot onder de 100. Nvidia claimt dat Doom Eternal op 4k met alle instellingen op maximaal gecaptured zijn.

Nvidia toont ook enkele cut-scènes en maakt daarbij de vergelijking met de RTX 2080 Ti. Die kaart zou bij die beelden tot zo'n 80 to 90 fps komen, waar de RTX 3080 130 tot 140 fps zou halen. Het zijn de eerste gameplaybeelden van een systeem met een GeForce RTX 3080.

De beelden zijn van Nvidia zelf afkomstig en net als bij eerdere prestatieclaims voor de RTX 3000-kaarten moeten de cijfers met een korrel zout worden genomen. Net als de claim van Nvidia's productmanager Justin Walker op Reddit, dat Shadow of the Tomb Raider, Assassin’s Creed Odyssey, Metro Exodus, Wolfenstein Youngblood, Gears of War 5, Borderlands 3 en Red Dead Redemption 2 bij een RTX 3080 op 4k met maximale settings en RTX ingeschakeld, op 60 tot 100fps draaien. De eerste GeForce RTX 3000-videokaarten verschijnen op 17 september en tegen die tijd moeten er uitgebreide, onafhankelijke benchmarks zijn die een gedetailleerde indruk van de prestaties geven.

Door Olaf van Miltenburg

Nieuwscoördinator

03-09-2020 • 20:46

246 Linkedin

Reacties (246)

Wijzig sortering
Uiteraard zit hier een flinke saus marketing overheen en is dit geen onafhankelijke tbenchmark. Desalniettemin het feit dat Nvidia zonder blikken of blozen de 3080 tegenover de 2080Ti zo durft te plaatsen om te tonen hoeveel extra power de 3080 heeft geeft toch wel aan dat Nvidia alle vertrouwen heeft in de performance leap van Turing naar Ampere. Ze zetten echt vol in om menig gamer te overtuigen zijn/haar 9xx/10xx GPU te vervangen met een 30xx.

Doch zie je wel voorzichtigheid, het feit dat er geen 3080Ti is aangekondigd doet me vermoeden dat ze even afwachten om te zien wat Big Navi van AMD doet. Want tussen 1550 EUR (3090) en 720 EUR (3080) zit toch wel een erg groot gat en je gaat mij niet wijsmaken dat Nvidia daar tussen niet nog een kaart van 950 EUR zal plaatsen.

[Reactie gewijzigd door Tim2010 op 3 september 2020 20:59]

Door de presentatie en prijs van Nvidia begin ik me af te vragen of ze bang zijn voor amd. Ze hadden de 3080s makkelijk voor 1000 euro kunnen verkopen.
Als je realiseert dat binnenkort de next gen consoles uitkomen vermoed ik dat het daar meer mee te maken heeft. Met de vorige generatie gpu's was het voor menig consument niet het geld waard om te upgraden van hun 9 of 10-series naar de 20-series. Te weinig winst voor teveel geld. Als Nvidia de prijzen weer zo hoog had gegooid dan zou de kans groot zijn dat PC gebruikers zouden switchen naar consoles. Minder PC gebruikers is minder potentionele klanten voor Nvidia en indirect meer voor AMD.

Immers bij de consoles wordt 4k gaming nu gemeengoed. Het ligt dus voor de hand dat Nvidia moet concurreren op dat vlak. Een paar honderd euro meer aan totaalkost is immers voor een PC gamer tov een console gebruiker nog wel te verantwoorden. Een meerprijs van ruim 1200 euro alweer een stuk minder.
De grootste probleem die ik heb met deze redenatie is dat we nog niet eens de prijzen weten voor de toekomstige consoles. Het enige wat ik hoor uit de geruchtenmolens is dat de nieuwe Playstation en Xbox een flink stuk duurder zullen worden vanwege al deze nieuwe technische snufjes.
Verder betwijfel ik of Nvidia zich daar echt zorgen om moet maken. Het overgrote deel van de PC gamers hebben helemaal geen peperdure >800 EUR kaarten in hun PC's maar gebruiken kaarten zoals een GTX1060/RX580/1650Super. Het idee dat als Nvidia weer dure kaarten zou introduceren dat deze mensen naar de consoles zou switchen is vergezocht aangezien deze nieuwe consoles net zo duur zouden zijn (als de geruchten waar zijn) als het uitvoeren van een GPU/CPU upgrade op je huidige PC. Vooral omdat met de scherpe CPU prijzen dankzij Ryzen, de lage SSD en RAM prijzen en goed betaalbare beeldschermen met 144Hz refresh juist PC building weer aantrekkelijk maken.

[Reactie gewijzigd door Tim2010 op 3 september 2020 21:51]

goed betaalbare beeldschermen met 144Hz refresh
de goedkoopste 4K 144Hz monitor in de pricewatch kost 800€, anders is er een enkele 80Hz van €290 en de rest is slechts 60Hz, dus da's niet echt goed betaalbaar. Ter vergelijking: er zijn meer 100Hz televisies dan monitors die 4K aankunnen en ruim onder de 800€ vallen.
er zijn meer 100Hz televisies dan monitors die 4K aankunnen en ruim onder de 800€ vallen.
100hz televisies _O- .

Het overgrote deel 100hz TV's accepteerd geen input boven de 60hz, en dan duidt dit enkel op ingebouwde motion-interpolation.

Degenen die wel 4:4:4 2160P+HFR+HDR doen, zijn minstens net zo duur als een monitor.

[Reactie gewijzigd door SirNobax op 4 september 2020 07:14]

TV's kunnen echt slecht om op te gamen zijn door de input lag.
100 Hz 21:9 34inch monitor 1440p is een 400euro
De LG Oled C9 en CX kunnen prima als monitor worden gebruikt.
Voor 90 procent van de TV's heb je zeker een punt.
De LG Oled C9 en CX kunnen prima als monitor worden gebruikt.
Maar die beginnen dan ook bij 1400 euro.
Maar dan heb je ook wel een fantastische TV.
Afgelopen twee generaties oled tv's van LG zitten rond de 20m/s in alle beeld modus,Vind je dat teveel?
Die kostten een pak meer dan 800 euro.
Ik zag laatst een 27 inch 144hz freesync 1440p voor €300. Geen geld.
Is dit wat? pricewatch: Samsung C27JG56QQU Zwart

Overigens, oddysey G5 (nog niet in NL) heeft de zelfde specs voor het zelfde bedrag.
Reviews zien er toch deftig uit, iemand die zegt dat hij ghosting ziet .
Misschien toch maar wachten op de G5
Een stuk duurder? Zeker niet gespeeld ten tijde van de PlayStation 2.

Nieuwe consoles gaan gewoon tussen de 399 en 599 zitten. Laatste was introductieprijs van de PS3, eerste van de PS4. Dat is net zoveel of zelfs minder dan de goedkoopste RTX3000 kaart.

Sowieso is het voor mij meer wil je op PC + Monitor gamen of praktisch zorgeloos op je 4K/8K TV? Dan is de keuze niet zo moeilijk lijkt me.
Want de 4K/8K TV krijg je er gratis bij? Die moet je ook aanschaffen.

Verder ja dat is inderdaad goedkoper dan een RTX3070 precies zoals ik al zei heeft de launch van de consoles 0,0 invloed heeft op het overgrote deel van de PC gamers want die kopen niet zulke dure kaarten. En die zullen ook niet 500-600 EUR neertellen voor een console omdat deze RTX3070 500 EUR kost. De mensen die wel zulke dure kaarten kopen kijken echt niet naar consoles als een alternatief voor hun peperdure gaming PC's.

[Reactie gewijzigd door Tim2010 op 3 september 2020 23:00]

Zelfde geld toch ook voor een monitor? Is toch ook niet gratis.

Daarnaast is de prijs van een 4K allang niet meer echt een ding te noemen. Voor 400 euro heb je al een prima 4K tv....hdr etc even weggelaten.
Voor 400 EUR heb je echter niet een TV waar ik op zou willen gamen. Dat zijn TV's die gemaakt zijn om TV op te kijken en niet te gamen. Input lag, latency en refresh rate vallen vies tegen bij zulke TV's voor gaming.
Dat klopt ook, maar de meeste mensen hebben een monitor waar ik niet op zou willen designen. Dus er is altijd een beredenering waarom iets niet voldoet. Maar dat betekent niet dat je per definitie een 4K tv dient aan te schaffen van 2000 euro om 4K te kijken, maar dat een tv voor 400 euro ook gewoon native 4k toont. Dat de kleuren/contrast/nits totaal niet benoemswaardig zijn, neemt echter niet weg dat je dus voor 400 euro een 4K tv hebt waar je een PS5 voor 400/500 euro op kunt aansluiten en dus 4K kunt gamen, daarnaast kan je op dezelfde tv 4K netflix kijken. Ik zelf verkies een 21:9 scherm boven een 16:9 voor gamen en films, want wie gaat er nu een dikke 4K tv kopen om ververvolgs zwarte balken te zien. Dus daarom draag ik mijn voorbeeld aan, dat 4K dus echt 4K is, en alle randvoorwaarden eigenlijk niet meetellen als het puur gaat om een 4K gaming ervaring.

Het gros van de niet Tweakers haalt of een 4K van 400 euro omdat er 4K op de doos staat, of ze halen een 2000 euro kostende OLED 65 inch omdat de buurman deze heeft en ze het model mooi vinden. Vervolgens sluiten ze hem thuis aan en laten ze hem in showroom model staan en kijken ze er tv op via een KPN FullHD interative TV kastje. Ik zeg niet dat ze dan raar zijn of dom, maar het is soms lastig om onze tweakers mindset los te laten en als gewoon normale consument te kijken naar producten.

En zo kijkt het gros van de mensen hiernaar, als ik bij kennissen begin over HDR en NITS etc, dan zitten ze me aan te kijken alsof ik een verkoper ben van de MediaMarkt.

[Reactie gewijzigd door marco-ruijter op 4 september 2020 08:54]

Voor €400 heb je een 4K tv, maar dat is natuurlijk geen prima ding. Uiteraard afhankelijk van je definitie van prima. Als je een kleuren tv zoekt, met 4K, maar het je verder niet interesseert of het beeld te pruimen is (kleuren/contrast/witbalans), dan is een 4K tv van €400 wellicht een prima ding.

Daarnaast zou je juist wel HDR moeten willen. Een goede HDR weergave maakt veel meer impact dan 4x zoveel pixels. Maarja, dat is dan wel een andere prijscategorie tv’s.
Je mist het punt van Marco, namelijk dat HDR en 4k iets is wat veel niet-technisch onderlegde mensen totaal niet begrijpen. Ze zien hooguit het verschil in de showroom van een MediaMarkt en kopen vervolgens een TV omdat ie 'er mooi uitziet'.

Zulk soort mensen kopen eenvoudig voor €400 een TV.

Als Tweaker weten we beter en geven we 3x zoveel uit :+
Ik las het inderdaad net andersom :+
Nee hoor, ik koop zulke dure kaarten en ik kijk wel degelijk naar consoles als alternatief. Sterker nog, een PC gamer met geld voor dure kaarten heeft vaak ook nog een console als een PS4 pro, gewoon, voor de exclusives.
Het is echter niet een of kaart of console situatie. Het is voor deze doelgroep meer kaart EN console. De console is niet een alternatief omdat de kaart niet betaalbaar is.
Ik ben ook zo iemand haha, maar ik vind het fijn om te zien dat langzaam aan Sony ook PS exclusives naar PC begint te porten. Het is nog niet dat ze bij launch beschikbaar zijn, maar je ziet toch wel dat Sony bezig is om hun bereik aan te passen aangezien ze ook merken dat de PC gamers ook bereid zijn om 50-60 euro af te tikken om het op de PC te spelen. Wat dus vooor alle partijen een win win situtatie betekent :)

edit: typo

[Reactie gewijzigd door marco-ruijter op 4 september 2020 08:59]

Momenteel speel ik Cross-Play MW op de PC. Maar ga alsnog weer op console spelen wanneer de nieuwe uitkomt.

Het is ook een situatie voor ieder waarom iemand een pc of console of beide heeft.

Maar mijn pc setup is niet zo speciaal.
- Ryzen 5 3600X.
- AMD 5700XT
Ik heb ook geen speciale monitor maar doet wat het doen moet.
- Ryzen 5 3600X.
- AMD 5700XT
Prima Setup toch, kan je alles vol open mee spelen, en ik betwijfel of straks de Consoles hier heel hard overheen zullen gaan
Op papier zullen de consoles misschien krachtiger zijn, de vraag is of game devs het weten te gebruiken, want dat is vaker het issue. De hardware kan het wel, maar de game benut het niet
Elke console generatie tot nu toe heeft meer uit de console hardware weten te pushen, dan een vergelijkbare setup op de pc. Tevens moet je niet vergeten dat de huidige cpu's in PS4 en X-box one, echt om te huilen zijn kwa prestaties.
Je weet de prijzen van de consoles al, die zullen niet te duur worden want dan kopen mensen ze simpelweg niet.
Het idee dat als Nvidia weer dure kaarten zou introduceren dat deze mensen naar de consoles zou switchen is vergezocht aangezien deze nieuwe consoles net zo duur zouden zijn (als de geruchten waar zijn) als het uitvoeren van een GPU/CPU upgrade op je huidige PC.
Denk meer dat ze willen dat PC heer en meester is/blijft tenopzichte van de consoles. De kaarten zijn wel duur maar niet ontoegankelijk duur.
Ik had mijn oude pc vorig jaar geüpgraded en was best veel geld.
Als je voor dat geld een PlayStation 5 koopt ben je meteen klaar. Die kan ook gewoon op je monitor. Als je call of duty modern warfare als voorbeeld neemt, je hebt crossplay, dus je kan gewoon met pc gamers mee spelen want je kan ook gewoon muis en toetsenbord aansluiten. Vroeger was het gesplitst en console had ook beperkingen. (Ja PlayStation plus is dan nog wel extra)

Mijn eerste hele dure kaart was gtx 780ti classified. Die ging maar 4,5 jaar mee. Dus klopt. Nu heb ik een gtx 1070ti voor een fatsoenlijke prijs.
Je kan wel een kaart kopen die met specs 10 jaar mee kan. Maar als ie net als mijn kaart maar 4,5 jaar haalt heb je wel de volle mep betaald. Jullie snappen me wel 😃 ik heb nooit overclockt altijd standaard instellingen.

Mooie is wel, de kaarten die ze maken zijn voor 4K. Dus na een aantal jaar koop je zo een kaart voor weinig en als je gewoon full HD blijft gamen is de kaart overkill. Vroeger moest je een dikke kaart hebben voor die resolutie 😃
Het Samsung 8n node schijnt veel goedkoper te zijn dan dat van TSMC.
Ze hebben Nvidia een hele goede deal aangeboden.
en daarbij wilt nvidia gewoon meer verkopen en ze wisten dat ze te hoog zaten met de vorige generatie.
Ze zitten nog altijd even hoog. De custom kaarten gaan €800 en €600 kosten zoals de vorige generatie dus ik snap niet waar jij het over hebt.
3090 is opvolger van de Titan de 3090 is 1000 euro goedkoper.
3080 is opvolger van de 2080ti is 600 euro goedkoper.

kijk even wat je krijgt voor je geld de krengen zijn echt goedkoop.
de krengen lijken goedkoop omdat de turing kaarten zo @#$% duur waren. De 1080 was de opvolger van de 980Ti, en was gewoon even duur. (zefde prijs range als de 3080 nu is).
Dat Nvidia eindelijk een "generational leap" levert voor "gewone" prijzen is natuurlijk erg fijn, maar om ze nu te prijzen dat ze niet dezelfde belachelijke prijzen als voor Turing vroegen (welke overgens minimale prestatiewinst had) vind ik te ver gaan.
Ik snap wel waarom nVidia dit doet, mensen denken nu opeens dat de kaarten goedkoop zijn

2xxx serie kwam uit, man wat is dit duur, 3xxx serie komt uit voor de zelfde prijs... ohh wat goedkoop 8)7
Slimme marketing inderdaad en gezien veel reacties hier heeft het prima gewerkt ...
Laten we niet vergeten dat voor de 2000 serie en de titan rtx dat de titan x gewoon 1300 euro kostte en de 1080ti 700 euro. Nu kost de 3080 700 euro en de 3090 1550.

De 3000 serie is goedkoop vergeleken met de 2000 serie, maar dat is alleen maar omdat de 2000 serie echt super achterlijk duur is. Vergeleken met de 1000 serie vind ik de 3000 serie niet zo goedkoop meer. En de 1000 serie was al het begin van de ‘price creep’
Prijzen gaan omhoog maar prestaties ook :*)
Dat mag ook wel. Waarom zou ik een nieuwe generatie kopen met dezelfde prestaties?
Ik bedoel mensen klagen alleen maar over de prijzen terwijl je nu inprincipe een rtx2080ti hebt voor 500 euro.
Ja high-end was altijd al duur de 20xx ging helemaal wild kwa prijs.
Dus duur vs extreem duur naar gewoon duur.
Nee de 3080 is de opvolger van de 2080 en de 3070 is de opvolger van de 2070. De 2080 was toch ook niet de opvolger van de 1080ti? Ik verwacht ook nog wel een 3080ti als Big Navi levert.
Volgens de gerucht vervalt de TI dat is de xx90
Wat zou kunnen is dat nV de betere GA102 chip oppot voor exta release van bignavi counter een 3095 of 3080 super.
Titan zou gekortwiekte super dure GA100 worden
Ik denk dat je dit nog een beetje moet nuanceren. Ze zijn echt goedkoop.... vergeleken met de 2000 serie. 700+ voor een videokaart is nog steeds heel veel geld. Een aantal jaar geleden kostte een dergelijke vooruitgang je hooguit 400.

Slim gespeeld van Nvidia. De 2080(Ti)'s waren zo duur dat we het nu allemaal wel te pruimen vinden om "slechts" 720 neer te leggen.
de geruchten zijn dat de Samsung 8N node maar 80% van de prijs is van TSMC. De yields van deze node waren aanvankelijk erg laag (~50%) maar zijn inmiddels >80%, waardoor de prijs in principe lager is.
Daarnaast is het uitgangspunt dat de Yield nog verder gaat verbeteren, en er is niet bekend of Samsung nog meer lokkertjes heeft weggegeven om Nvidia over te halen.
Als je realiseert dat binnenkort de next gen consoles uitkomen vermoed ik dat het daar meer mee te maken heeft.
...
Immers bij de consoles wordt 4k gaming nu gemeengoed. Het ligt dus voor de hand dat Nvidia moet concurreren op dat vlak.
Dat denk ik ook. Maar wat denk ik ook meespeelt is dat de nieuwe consoles metintegrated graphics van AMD op het prestatieniveau van een snelle 2080Ti schijnen te zitten. Ik vermoed dat wanneer AMD van die architectuur een losse GPU gaat maken dat die behoorlijk goed zal presteren. Dat is denk ik waar Nvidia zich meer zorgen om maakt. Nvidia heeft altijd haar uiterste best gedaan om de prestatiekroon vast te houden en dat heeft hen geen windeieren gelegd. Ik denk dat we daarom ook nog geen Ti/Super model hebben gezien in de 3000 serie.

Men doet nu net alsof Nvidia volledig inzet op de nieuwe generatie, maar het is wat mij betreft overduidelijk dat ze nog heel wat achter de hand houden (~999 euro kaart, Ti/Super model, 3600 en lagere modellen). Het kunnen daarom hele interessante tijden worden als het AMD lukt om een snelle GPU serie op de markt te brengen.
Consoles en PC hardware met elkaar vergelijken is net hetzelfde als appelen en peren met vergelijken. De grafische chips die gebruikt worden in de next-gen consoles zijn niet te vergelijken met de krachtpatsers voor de PC. Snap niet waarom mensen blijven geloven dat consoles van 500€ nog maar in de buurt komen van een deftige game PC.
4k gaming is een groot woord. Het zal eerder 4k@30fps zijn. Native 4k60fps gaat op de nieuwe generatie consoles niet gebeuren. Met uitzonderingen hier en daar uiteraard. De vraag is of je anno 2020 nog op 30 fps wilt gamen.
Immers bij de consoles wordt 4k gaming nu gemeengoed.
Nou ... dat vraag ik me af. Veel krachtiger dan de 2070 Super zijn ze niet, en daarmee haal je ook vaak niet de 4K. Ja met Doom Eternal, maar dat is maar een licht spelletje. Daarmee haal je met een 2070S ook met Ultra Nightmare settings 60-70fps. Mogelijk dat ze 4K 60fps gaan halen bij een select aantal spellen of met details zwaar teruggeschroeft.
Denk dat deze denkwijze wel klopt. Ik wacht nog op de Ryzen 4xxx aankondiging, maar ik ben nu wel aan 't denken toch eerst m'n PC maar te upgraden ipv op launch een PS5 aan te schaffen. Ik draai nog een 1080p scherm en zweet nu al dat ik die eigenlijk ook wel naar 4k mag upgraden ipv de geplande 1440p :O
Geldt voor veel mensen denk ik :)
Ik heb zowel boven als beneden (tv) een prima 1080P scherm staan.

Als ik wil upgraden, en of dat nu de TV i.c.m. een PS5 is of een nieuwe GPU i.c.m. een 3070. Het gaat me een flinke duit kosten.

Nee, ik zit op 1080P i.c.m. een 2070S meer dan prima voorlopig :)
Ze zijn niet bang, ze gaan all out om AMD RDNA2 al voor release, dus tijdens de "weigh in" voor het gevecht al K.O. te slaan. Niet mijn woorden, maar die van JayzTwoCents. https://www.youtube.com/watch?v=HSaBQeEPw3U
JazyzTwoCents is een goede bouwer van PC's maar voor Hardware kennis ga ik liever naar Hardware Unboxed, GamersNexus. Of zelfs kleinere Youtubers zoals 'Not An Apple Fan of 'Moore's Law is Dead'.

En die zeggen allemaal wacht op RDNA2. Nvidia heeft een netter generatie neergezet en AMD zal waarschijnlijk niet in de buurt komen van de 3090. Maar de 3080 is absoluut niet onovertrefbaar.
30 teraflops? gaat ze niet lukken denk ik.
maar in de buurt met een betere prijs en veel meer ram wel. ;)
Die 30Tflops zitten ook een hoop hardware RT in.
De 3080 zou 70~90% beter zijn dan de 2080 volgens DF (Marketing materiaal dus korrel zout).
70% over de 2080 is ongeveer 30% over de 2080ti. Dat is qua prestaties een nette boost maar als je puur de 5700xt (40Cu) verdubbelt (80Cu) zit je ook rond de 30% boven de 2080ti.

Het is wel een kluif voor AMD. Ampere zijn goede kaarten. Maar het is bij verre niet 'onmogelijk' en we hebben gezien dat AMD op CPU gebied grote stappen blijft zetten. En die mentaliteit willen ze ook in de GPU divisie doorvoeren.
De Xboxsx lijkt uit vroege leaks al rond de 2070s/2080 te zitten met een langzame RDNA2 chips. 1.7ghz terwijl we weten dat het 2.2 aan kan (zie de PS5).

AMD dus nu aan de beurt om het te laten zien. Maar om nu al gelijk te zeggen "AMD heeft geen kans!" is voorbarig. En dit is geen hype, dit kan je checken met een rekenmachine.
Hopelijk zien we iets van AMD voor het einde van de maand. Want die 3080 is wel een hele leuke upgrade over mijn 1080ti... :P
Ik verwacht een soort van Ryzen verassing van AMD. maar ze gaan de 3090 niet voorbij.

morelawsdeath verwacht ook dat Bignavi heel goed gaat worden .
Nee de 3090 is een absoluut monster. En 80Cu is het harde limiet van RDNA2, als ze de 3080 voorbij gaan is het waarschijnlijk met maar een paar %.

Ik verwacht dat AMD wel in de buurt kan komen van de 3080. Maar dan komt de vraag wat de prijs is.
Komt er op neer, wanneer de geruchten rond RDNA2 (de reële) waar zijn dan wordt dit een hele leuke GPU generatie voor de gamers.

De effecten zijn nu al te zien. De prijzen van Nvidia zijn al in afwachting van RDNA2. Mensen zeggen dat het vanwege de consoles is... Maar ook dat is RDNA2.
ik verwacht ook max 3080 performance. ik verwacht betere performance per watt meer ram hogere kloks en een hele goede bang for buck waar AMD om bekend staat.
Vrij logisch ja. AMD is voor velen nog altijd een goed alternatief. Je zag hoe graag men de RX480 kaarten wilde, maar een echte high end nooit kwam. Vega schoot ook tekort, wederom las je overal een groot “helaas”. Vervolgens kwam er een 5700 die het een stuk beter deed maar waar drivers een issue waren terwijl AMD dat eigenlijk al jaren goed op orde had.

AMD heeft een hoop goodwill en een trouwe fanschare. Als ze nu in één keer alles goed doen, dan zou je wel eens in GPU land hetzelfde kunnen zien als wat ze met Intel hebben gedaan in CPU land. Maar ik ben hooguit voorzichtig hoopvol.
Ik heb begrepen dat Turing (relatief) slecht heeft verkocht, mogelijk vanwege de beperkte performance gain en hoge prijs tov de 10 serie.
Dat schijnt een belangrijke reden voor de lagere prijs te zijn.
Je moet ook niet vergeten dat het al 2 jaar geleden is dat de 20 serie uit kwam.
relatief? Er worden nog altijd meer 10-serie kaarten verkocht dan 20-series, dat zegt genoeg over de belachelijk slechte prijsstelling en overroepen marketing om de beperkte performance gain te camoufleren.
Volgens Linus mikt nVidia meer op de nieuwe consolegeneratie dan op AMD.
Zat ik ook al te denken, ze kunnen qua marktpositie in PC-land alleen vragen wat ze willen omdat AMD geen gelijk presterend alternatief heeft op de PC. Echter als je de markt breder bekijkt en nVidia zou echt de prijzen steeds hoger maken, dan ga je je afvragen of het economisch nog wel haalbaar is.

Ga ik een nieuwe generatie console met gelijk 5-10 spellen kopen (afhankelijk van de consoleprijs natuurlijk)
óf
Ga ik een enkel computeronderdeel kopen voor hetzelfde geld.
Als je dan ook nog de rest van de pc eromheen moet kopen, wordt een console ineens wel heel aantrekkelijk.
Met een nieuwe GPU heb je echter meteen 100 remasters in je Steam library, voor nop :Y)

(ja ja ik weet het, hopelijk gaat dat deze generatie anders dan bij de omschakeling van PS3 op PS4)
Zeker mee eens hoor. Het was ook meer een opmerking dat de meerkosten van de PC wel héél erg hoog worden. Ooit was een vergelijkbare PC 2-3x zo duur als een console (bij introductie en nieuwprijs). Nu was het zo als nvidia hun prijsstrategie hadden doorgezet dat alleen de videokaart al 2-3x zo duur als een console zou zijn.

Daarnaast zijn er nog genoeg andere nadelen van moderne consoles, zoals digitale accountgebonden gameverkopen en dat alle games patches nodig hebben tegenwoordig om fatsoenlijk te functioneren. Die servers gaan er een keer uit in de toekomst.
Komt erop neer dat je in plaats van een op zichzelf staande console, je nu een games-as-a-"service" platform hebt, oftewel een PC die je niet/nauwelijks kunt upgraden, die minder kan, maar wel veel goedkoper in de initiële aanschaf lijkt.

n.b. dit is de mening van een fervent pc-gamer :)

[Reactie gewijzigd door GromuhlDjun op 4 september 2020 15:46]

Gezien de hardware van zowel MS als Sony gebruik maken van AMD APU's is en blijft het gewoon nVidia vs AMD.
Maar dat is toch AMD? Als die voor de Xbox 12 TFLOPs tegen een zeer bescheiden prijs kunt leveren, het totale ding moet uiteindelijk op een prijs van rond de 500€ blijven, dan kan voor een graphics kaart voor dubbel de prijs toch best wel wat leuks geleverd worden? Misschien geen 3090 maar 3070 lijkt me haalbaar...
Het verdien model zit bij console bij de games en de royalties. PC games hebben dat niet. Er moeten dus per console een aantal games gemiddeld per unit verkocht worden om winst te maken.
De hardware tegen kost prijs. Om dat te evenaren moet je marge factor mee nemen om ccnsole spec te evenaren. Je komt dan extra probleem tegen
De iGpu op desktop CPU zijn klasse lichter dan console APU dus dan ga je voor dGPU.
Als je 1 chip tegen OEM lage kostprijz door 2 met vettere ASP prijs kan flink stuk duurder zijn. naast systeem ram om zwaardere hoge footprint en abstractere generalpurpouse OS fijn te kunnen draaien en sloot dedicated vram voldoende groot om de komende 5 jaar ook 4K te kunnen doen.
Je heb dan €1000,- om console goed te evenaren uiteraard met naast de OS op nvme SSD ook de games.
In tijd dat geheugen en nand betaalbaar is is dat nu wel goed te doen.
Aangezien die nieuwe consoles op AMD hardware draaien - en dus blijkbaar de volgende generatie AMD GPU's zeer veelbelovend is - mikt NVIDIA daarmee ook op AMD.
Het zou me overigens niet verbazen als AMD met een chipset/mb-design komt wat qua optimalisatie in de buurt zit van de nieuwe consoles.
De technieken worden uiteraard gezamelijk met API OS en GPU firma's uitgewerkt. Ze zijn namelijk serk afhankelijk van mekaar. Dus MS Chronus etc API kant werken nauw samen met prominente developers en de hardware vendors.
Dus die zogenaamde innovaties in Xbox nextgen en RTX30 series zijn ook API based en als er DirectX API als basis gebruikt wordt. Heeft AMD dit ook.
Dus iNtel GPU tak AMD GPU heeft uiteraard ook API overleg met MS en MS directX slaat ook op PC dus achter de schermen zijn alle hardware vendors op de hoogte. De hardware feature zijn ook beschikbaar buiten de Ms API want PS5 zal geen directX gebruiken.

Vaak krijgt de platform die het 1st komt hals jaar of meer een subset zoals R500 en R520 de volle feature set.
Gezien de APU en GPU in dezelfde kwartaal op duiken kunnen ze de tech directer delen gezamelijk architectuur R&D.
Dus wat de console kwa features bieden bied ook al snel BigNavi.
Het is een beetje een ding ze zeggen dat 3070 twee keer zo snel wordt als de rtx 2080 Ti, alleen geven ze niet aan welke settings ze gebruiken, kan zijn dat ze bedoelen met raytracing waar dubbele Ray cores Erin is gepropt for all we know.
Ze zeiden niet 2x zo snel, maar 1x zo snel. Gelijk aan 2080ti dus. Soms er iets boven. Dat zal vast en zeker met behulp van RT en Tensor cores (DLSS) zijn. Hoe dan ook, kijkende naar het aantal cuda cores, zal de rauwe kracht van de 3070 waarschijnlijk ook indrukwekkend zijn.

Ze hebben nu veel meer cores op de die vanwege die 8nm, dus hoop dat AMD met 7nm ook een dergelijke sprong heeft kunnen maken. Dan is er eindelijk weer concurrentie op de markt!
Digital foundry heeft vergelijkende settings (zonder raytracing, well DLSS) op hun youtube channel staan. Hier neemt de 2080 het op tegen de 3080. Resultaat zo'n 170/190% fps. Dus dat de 3070 200% t.o.v de 2080Ti doet is denk ik ook alleen met Raytracing etc aan op 4k max settings etc. https://www.youtube.com/watch?v=cWD01yUQdVA
Nvidia komt idd gewoon later met de 3080ti en natuurlijk de supers! Dus dat gat wordt prima ingevuld over een jaar.
Dat hangt dus denk ik compleet van AMD af. Als Big Navi de Nvidia concurrenten kan bijbenen/verslaan dan komt Nvidia denk ik voor het eind van het jaar met de 3080Ti op de proppen.
Ik hoop dat AMD kan bijbenen, ik ben bang van niet.

[Reactie gewijzigd door RBN026 op 4 september 2020 06:41]

Bijbenen is niet de kroon pakken bij benen is 2 of 3 producten in high-end lijn met high-end ASP dus als ze iets in de buurt van de 3070 is net niet maar 3070 en 3080 ish dan zijn ze bij.
Dat is heel goed mogelijk als bignavi big genoeg is. Voor de 3090 moet naast zo bignavi zo big als GA102 zijn. misschien dat Radopn tak nog niet de ruimte heeft gekregen voor nV bigchip beleid te volgen. Want dan pas ga actief voor de kroon.
AMD heeft de 7nm in pacht (voor Ryzen) en NVIDIA de 8nm. Dat kan nog wel eens een verschil gaan maken van 20%. Misschien zijn daarom de prijzen wel zo netjes.
Ik denk dat dat klopt:
- aggressieve prijzen
- hoge power consumptie
- ik zie geen algemene tflop claims (alleen de raytracing ops volgens mij?)

Het lijkt erop dat nvidia heel wat verwacht van RDNA2
De Ti varianten worden toch nooit meteen aangekondigd?
Bij Pascal kwam de GTX1080Ti inderdaad pas grofweg een jaar na de GTX1080 uit maar bij Turing was de RTX2080Ti beschikbaar meteen bij de lancering. Ik denk eerlijk gezegt dat als AMD met een Big Navi chip komt dat de performance van de RTX3080 kan evenaren dat Nvidia binnen notime een RTX3080Ti introduceerd.
Hoe gaan ze dat doen? De 3080 zit nu al aan een verbruik van 320W. Dat kan je niet veel hoger maken. Ik denk eerder dat Nvidia nu al geanticipeerd heeft op Big Navi en de prestaties vd 3xxx tot de max heeft geduwd. Dat zie je ook ah hoge verbruik. Ik denk niet dat AMD met Big Navi beter gaat presteren dan de 3080. Nvidia kan ook altijd de prijs van de 3090 omlaag brengen moest Big Navi beter presteren dan de 3080.

[Reactie gewijzigd door Fredi op 4 september 2020 04:36]

Natuurlijk wel, er zit waarschijnlijk een groot gat in performance tussen de 3080 en 3090
Ik heb een AMD HD6990 videokaart gehad welke een schakelaar had om van 375w naar 450W te switchen. Dat is meer dan de officiele PCI specificatie toestaan (2 x 150W + 75W moederbord), maar voor de meeste voedingen en hoge kwaliteit moederborden geen probleem..

Tegenwoordig zijn er zelfs videokaarten met 3 PCI-8 aansluitingen dus deze zouden 450 + 75W = 525W uit de voeding kunnen trekken.. Uiteraard heb je dan wel een 1000W+ PSU nodig. Maar je gaat een RTX3090 ook niet combineren met een AMD Ryzen 3100..
Als big navi boven de 3080 presteerd maar ver genoeg van de 3090 kan nV dit doen de prijs van de 3080 verlagen iets onder de bignavi.
komt de big navi meer er tussen aan de kant van 3090 dan zou nV de prijs van 3090 kunnen verlagen.

Komt bignavi er tussen met heel leuk prijsje, nV alle prijzen aanpassen en extra kaart uitbrengen om gat te vullen of bignavi beter te dekken.
Dat is een grote als. Ik zie het niet zo snel gebeuren. Voor de concurrentie zou het goed zijn maar ik zet er geen geld op in dat Big Navi deze kaarten van NVIDIA kan evenaren.
Ik denk eerlijk gezegt dat we de strijd nog niet als verloren moeten beschouwen van AMD. AMD wist dat Nvidia dit jaar met nieuwe kaarten zou komen, ze wisten dat deze sneller zullen zijn dan de Turing kaarten. Hoeveel is natuurlijk niet in de schatten maar ze wisten dat ze hun flagship Big Navi kaart niet alleen de 2080Ti moest kunne evenaren maar moest kunnen verslaan. Dus een antwoord op de RTX3070 (en alles wat er later onder zal komen) zal AMD zeker weten wel hebben. De grote hamvraag zal zijn of AMD ook een antwoord voor de RTX3080 zal hebben. Want de performance leap is dit jaar erg groot.

[Reactie gewijzigd door Tim2010 op 3 september 2020 22:16]

Kijkende naar de aangekondigde consoles verwacht ik eerlijk gezegd niet heel veel van een raytracing en DLSS variant bij AMD, maar ik laat me graag verrassen!
Ik denk van niet maar ik hoop van wel. Sneller dan de RTX 3070 zullen ze niet voor elkaar kunnen boksen denk ik.
Sneller dan de 3070 gaat het sowieso worden.
Verschillende leakers denken dat AMD wel in de buurt van de RTX 3080 kan komen. Of dit zo is, blijft natuurlijk even afwachten. Over wat ik heb gelezen lijkt Nvidia het complete pakket te leveren (performance, RT, RTX I/O, DLSS etc). AMD zal dit niet allemaal kunnen evenaren verwacht ik.

Ik hoop eigenlijk dat AMD niet te lang gaat wachten met de onthulling en lancering van RDNA 2. Nvidia heeft op dit moment nog even vrij spel.
Dat verwacht ik juist wel. Meeste features bieden APU van console ook. Ook leunen bepaalde features op nieuwe onderdelen bij MS directX en PS5 bied deze features ook buiten directX.
Omdat console deze features hebben kan bignavi die dezelfde architectur gebruikt ook die featureset bieden . Daarnaast DirecX console en PC dele sterk de API .
En AMD heeft ook zijn connectie met MS vooral als leverancier van de APU maar ook als API ontwikkelaar.
Gross wat RTX30 series bied kwa features is niet nieuw dat boden de console al op tech previews.
Zou mij eigenlijk verbazen als het niet zo was.
Twee jaar geleden wel.
AMD heeft nooit een antwoord gehad op de 1080ti, 2080ti en zal ook geen antwoord hebben op 3080ti. Wie wil er nou zon kaart hebben? Begrijp me niet verkeerd, het grootste gros speelt alle gehypte games zoals Call of Duty, Apex, Fortnite, Random Indie Games, Gaming Platforms. Hoeveel van deze mensen hebben 4k schermen? als je zo een kaart wil hebben 3080 of 3090 dan heb je minstens 1 of 2, 4k schermen nodig, sommige moeten deze extra aanschaffen. Dit valt gelijk al op meer dan 1000 euro investeren als je voor 3080 gaat. En dat begrijpt menig/average gamer wel. Nvidia slaat hier de plank mis, AMD komt altijd met vergelijkbare resultaten voor vaak 50% goedkoper (grof genomen), je begrijpt me...

Het is weer die veel te dure, onnodige prestaties. Als je wilt whatsappen of soms een nieuwsbericht lezen, dan heb je geen iPhone 11 Pro Max S nodig (als voorbeeld), nee dan is een budget telefoon rond 300-500 euro prima. AMD denkt aan onze portomonnee's, Nvidia is net als Apple betreft videokaarten, zou me niks verbazen als deze prijzen in lijn liggen met hun andere diensten/producten.
Nvidia slaat hier de plank mis, AMD komt altijd met vergelijkbare resultaten voor vaak 50% goedkoper (grof genomen), je begrijpt me...
Dit is onzin. De 5700XT was zo;n 100 euro goedkoper, maar presenteerde ook minder dan de 2070RTX super. Dat was dan meteen de topkaart, De generatie ervoor met de Vega 56 en 64 was grofweg hetzelfde verhaal. Je claimed dat Nvidia de plank misslaat maar hun financial results zeggen toch echt iets heel anders.

Nvidia wordt nu juist geprezen in de pers voor hun enorme jump, een jump die zij niet hadden met de 20XX serie maar wel met de 9xx, 10xx en dus nu de 30xx serie.
Dan moet ik mijn woorden terugnemen, wellicht ben ik in de war. Zal wel te maken hebben dat ik AMD fan ben haha
Het maakt geen zak uit wie zo'n dergelijke kaart wil hebben (wat er overigens genoeg zijn). Het gaat er om dat consumenten denken dat de producent van de snelste videokaart ook direct de snelste kaarten in alle prijsklasses heeft. De gemiddelde gamer is geen Tweakers of HWI of Tom's Hardware bezoeker. Vreemd gedrag dus, maar wel waar en Nvidia weet dit en zal dus altijd alles op alles zetten om AMD te verslaan, kwestie van marketing.
De supers en de ti's kunnen nog komen, inderdaad ruimte genoeg w.b.t. namen.
Er is een gerucht dat nvidia denk te weten dat big navi 90% performance vd 3090 is en 60% vd prijs, dus ja daar zullen ze vast op proberen te anticiperen.
Als je de geruchten over de performance van Big Navi volgt, mer je juist de de winst ten opzichte van de RTX2080TI steeds lager wordt. Eerst was het 50%, toen 30% en nu wordt toch vooral slechts zo'n 20% genoemd.

Afgaand op deze geruchten zou de krachtigste Big Navi uitkomen tussen de 3070 en 3080.. De 5700xt zit al op zo'n 400 euro. Ik denk niet dat AMD die prijs kan verlagen naar zeg 300 euro, want daar zou een eventuele RTX3060 geplaatst kunnen worden door NVidia. Maar AMD zou dan de krachtigste Big Navi op zo'n 600-650 euro moeten plaatsen..

Maar het is momenteel allemaal koffiedik kijken. Laten we eerst de RTX30 benchmarks afwachten. Dan weten we de echte performance ten opzichte van de 20-serie. Maar de 20 serie had zoveel nieuwe technieken aanboord dat de zeer dure kaart weinig meer performance had dan de GTX1080TI..

Nu heeft Nvidia inmiddels zo'n 2 jaar ervaring met RTX. Ook games met RTX zijn de afgelopen 2 jaren heel erg veel beter geworden. Waar je eerst zo'n 60-80% van je FPS kwijt was als je RTX inschakelde, is dat nu nog maar zo'n 10-25% afhankelijk van de titel, maar je hebt dan wel veel meer eye-candy en RTX shadows zijn bij multiplayer een groot voordeel omdat je nu tegenstanders in de reflectie van water of glas kunt zien..

Offtopic:
Ik ben vooral van de simulators en ik ben vooral benieuwd wat straks mogelijk is met Microsoft Flight Simulator in combinatie met de RXT3090. Het afgelopen jaar ben ik al geupgrade naar een R9 3950x en 64GB geheugen en 3 Asus VG279Q schermen. Het is alleen jammer dat MFS momenteel slechts 1 scherm ondersteund. Omdat ik mijn systeem ook gebruik voor development wil ik er geen surround scherm van maken zodat ik feitelijk 1 desktop van 7680 x 1440 krijg, je krijgt dan vrijwel nooit de kijk hoeken helemaal goed in combinatie met de schermranden..
Voor dubbel de prijs van een 3090 krijg je letterlijk dubbel de fysieke hardware. Het lijkt erop alsof nVidia 2 3080 op elkaar heeft gesandwiched en dat verkoopt als een 3090.

Dan is er inderdaad een groot prijs gat tussen de 3080 en de 3090, maar de vraag is of en heo nVidia dat gat gaat opvullen en of dat aantrekkelijk gaat zijn voor de gemiddelde gamer. Het lijkt mij dat elke aanpassing aan de 3080 om een hogere prijs te gerechtvaardigden niet aantrekkelijk is voor de gamer.

Een 3080Ti zal gereduceerd worden naar paaltje in het midden, of hou die 300 euro in eigen zak en ga voor de 3080 of trek die extra 500 dan ook eruit en ga voor de 3090.
3090 is volledige GA102 actief 3080 is gedeeltelijke GA102 maar verre van halve dus kwa bang for tha buck is 3080 beter. Tenzij je voor 8K gamen gaat en 24GB belangrijker vind.
Ik denk dat ze de 3080 met 20 GB vram ertussen gaan plaatsen.
Denk dat het een 3080ti met 16GB gaat worden. Er zijn al leaks (misschien gewoon een foutje van Lenovo) van een 3070ti met 16GB: https://videocardz.com/ne...ed-with-16gb-gddr6-memory
Het gaat altijd zo ná introductie. Pas na een aantal maanden worden er nieuwe kaarten aangekondigd die alle prijsgaatjes dichtsmeren. Natuurlijk wordt er ook weer wild op los genummerd zodat de consument lekker wordt verward, en dan toch vaak voor een duurdere kaart kiest.

Overigens is het inderdaad nog maar de vraag of AMD een passend antwoord heeft.
De wet van de remmende voorsprong is hier wel van toepassing. Nvidia heeft in het hogeren segment gewoon geen concurrentie. En met deze nieuwe kaart zal dat vrees ik niet anders zijn.
De snelheid is flink opgepompt. Het stroomverbruik schiet de hoogte in, en de kaarten zijn groot en bulky.

Ik zou graag wat meer concurrentie en innovatie zien. Van Nvidia, van AMD, en het liefst nog een paar nieuwe spelers.
Het beste is op onafhankelijke benchmarks afwachten want dit klinkt wel cherrypicked. En is het met rt technologie of dlss of beide? Dat maakt ook best een verschil in vergeleken met de 2080Ti.

En Jensen met "My Pascal friends, it's safe to upgrade"
Mijn 1080Ti zegt: "Ik ben nog steeds goed genoeg voor de komende 2-3 jaar"
Ik deed met mijn GTX780 4 jaar en 7 maanden over.
Ik run nog een R9 280X. :+ Die is nu sinds een half jaar ofzo wel echt te weinig. Al speel ik nog steeds prima Warzone ermee nu.
Zelfde hier met een R9 290, wacht nog even het antwoord van ATI voor ik een keuze maak vor een nieuwe.
ATI = AMD tegenwoordig ;)
De R9 290 is misschien wel een van de beste kaarten van ATI/AMD ooit.
Behalve het stroomverbruik, de waardeloze stock koeler en de warmte.
je hebt gelijk, natuurlijk wat AMD betreft.
ik gebruik een Sapphire met vapor chamber.
Hitte was nooit een probleem maar nu moet ie flink werken en maakt teveel herrie.
Keertje repasten? Ventilator lagers versleten?
Je hebt ook een beste airflow nodig voor een 290.
Zelf meerdere 290 en 290x kaarten gehad, recentelijk nog.

[Reactie gewijzigd door HugoBoss1985 op 3 september 2020 22:20]

Nee alles is nog goed, wel zet ik op warme dagen de deur van mijn case open voor een betere airflow. Hij zit gewoon op het eind van zijn kunnen, zelfs World of Warcraft kan ik niet meer met alle opties op ultra draaien want de led wordt al rood en fan gaat flink herrie maken.
Als je je case open moet gooien op warme dagen voor afdoende koeling van je GPU zou ik toch eens kijken naar je case flow. Een goede case met nette cable management en een paar 120 of 140mm fans doen wonderen. En dan zal je case net zo goed of misschien zelfs beter presteren met deurtje dicht, ivm goed kunnen verversen van de warme lucht.

Of je fan profile nalezen. Hogere gpu fan speeds hebben erg diminishing returns, veel db erbij voor een paar graden minder. Ik heb na het in elkaar zetten van mijn systeem alle fanprofielen afgesteld zodat geen enkele fan onnodig hard gaat blazen.

Met een goed compromis tot gevolg. Tijdens gamen blijft mijn computer aardig stil, en de temperaturen blijven ook binnen veilige waarden.
Een groot deel hangt af van je aanvoer temperatuur. In mijn huis (geen schaduw op het huis) was het aardig warm afgelopen twee maanden.Regelmatig overdag 34 graden(Overdag alles dicht in de nacht alles open)Normaal bij 20 graden kamer temperatuur wordt mijn cpu niet warmer dan 64 graden bij 100% load.Maar bij kamer temperatuur van 34 graden heb ik hem de 80 zien aantikken bij 100% load op alle cores.Paar maanden terug nog nieuwe paste aangebracht.
Ik zou het stof er eens uitblazen, niet alleen uit die kast, maar vooral uit die videokaart. Vol belasten kon ook toen die nieuw was, daarvoor hoeft er geen kast open gezet te worden. Of, je hebt een wel erg slechte kast, een Abkoncore Ramesses 780 ofzo. https://www.youtube.com/watch?v=OupiPZybyBE
Geen stof, en kast is ook niet het probleem. (Bequiet Dark Base 900)
Nee is gewoon een gevolg van performance / leeftijd / omgevings temperatuur. Zeker tijdens de warme dagen de laatste tijd, wanneer ik mijn mobiele airco een kamer verder aan had staan ging de hitte niet hoger dan 60 graden nu tikt hij bij een kamertemperatuur van 24 graden al snel over de 80 graden aan. Tekenend is ook dat het niet uitmaakt of ik WoW speel op medium / high settings of Black Desert (Unreal4) op Ultra.
Maar als je weet hoe thermodynamica werkt dan kun je niet de conclusie trekken dat in die twee scenario's (warme dag en koele dag) het verschil van de temperatuur van de kaart groter is dan het verschil in temperatuur van de omgeving.

Dat is de reden waarom er vaak een delta-T gemeld wordt in benchmarks van koelers; het aantal graden boven kamertemperatuur is een prima graad voor de koeler als de hardware en software verder hetzelfde houdt.

Maw, als je 20 graden verschil observeert van je GPU tussen warme dag en een koele dag, en de warme dag is 24, dan betekent het dat je op een koele dag een kamertemperatuur van rond de 4 graden hebt. Lijkt me erg sterk.

Verschil in luchtvochtigheid kan een (minimale) factor zijn, maar als je een object hebt (GPU) wat dusdanig (30+ graden) warmer is dan de omgeving zal die invloed beperkt zijn. Disclaimer naar natuurkundigen: Verbeter me gerust als dit een onterechte claim is.

Als je dan de leeftijd van de kaart benoemt als factor dan denk ik dat je echt naar de voor jou al vaststaande conclusie toe aan het praten bent, als je namelijk wel fatsoenlijke temperaturen observeert op koude dagen is de leeftijd van de kaart dus niet het issue.

Kortom; ik geloof dat de kaart echt wel warmer wordt op warme dagen, maar de geclaimde 20+ geloof ik niet :)

[Reactie gewijzigd door A Lurker op 7 september 2020 12:31]

Feit is gewoon GPU draait idle op 49-53 graden en op max, 81 Graden bij een kamer temperatuur van 24 graden. Die max wordt aangetikt op elke spel tegenwoordig en het geluid dat wordt geproduceerd ligt tussen 61-64 Decibel.

Onderstaande is bij WoW Classic Instellingen High:
GPU Util: 100%
GPU SCLK: 914 MHZ
Current Temp: 81 graden
GPU FAN: 2334 RPM
GPU Vram Util: 1203 MB
GPU MCLK: 1400 MHZ
CPU Util: 9%
RAM Util: 7,7 GB

Resolutie 2560 x 1440

[Reactie gewijzigd door Tirinium op 7 september 2020 15:59]

Dank voor je info. Ik denk echter dat je mijn punt mist.

Mijn punt is dat de GPU full load niet ruim 20 graden warmer zou moeten worden op een warme dag tov full load op een koude dag/airco aan. Ik zei niets over idle vs load.

Verder zei ik dat als je case open zetten significante verbeteringen in GPU temperatuur met zich meebrengt je wellicht een ander probleem hebt dan de GPU.

Verder nog een tip die ik eerder ook gaf:
Met 60 decidel zit je inderdaad wel aardig in de herrie, ik zou zelf denk ik het fanprofiel 10-20% naar beneden doen. Ik denk niet dat dat echt veel verslechtering in de temperatuur brengt, maar wel flinke verbetering in de herrie. Wel op eigen risico natuurlijk ;)

[Reactie gewijzigd door A Lurker op 8 september 2020 10:46]

Het was ook niet normaal met de afgelopen hitte golf.
Sommige chips van cpu's en/of gpu's draaiden hier 20 graden warmer dan nu.

[Reactie gewijzigd door HugoBoss1985 op 3 september 2020 23:09]

Yup same here, de Sapphire tri-x 290
Al die tijd is het niet de moeite geweest vond ik om te upgraden.
Ik wacht dus ook nog ff op de release van AMD (gpu / cpu) kan meteen mijn i7 3770 met pensioen.
Ach, m'n gtx970 komt ook nog heel aardig mee, niet meer alles op max, maar ik speel toch bijna geen nieuwe spellen
Mijne ook, maar ik vind het nu toch wel tijd hoor, al is dat vooral vanwege Cyperpunk. Maar hij heeft zijn geld opgebracht en ik wil wel af en toe nieuwe games kunnen spelen, en straks ook in een hogere refresh rate dan 60 hz en wellicht in meer dan 2560x1440p.

Dan is het echt wel tijd :-)
Super fijn kaartje nog; redelijk zuinig, super stil en blijft lekker koelt (Msi Gaming kaart).
Ik heb er eentje in mijn "Steam Controller couch gaming 1080p 60hz 60fps" systeem.
Doet alles wat dat betreft nog prima, alleen de raytracing is soms een gemis.
Eigenlijk is Metro: Exodus het enige spel wat ik daar op speel wat ook raytracing ondersteund.
Op 1080p of lager ja, maar laten we wel wezen, dat is een resolutie uit 2005 en een kaart uit 2015. Dit artikel gaat over 4K(UHD) dus 2160p op 144Hz en daar gaat jouw natuurlijk 970 niks presteren, ook niet in oude games.

Dus, je moet vooral geen nieuwe monitor kopen. Mijn GTX 1080ti zit op een LG 65 inch OLED TV en kan wel een upgrade gebruiken. En 1080p 60 fps op een 15 inch laptop scherm gaat nog wel maar alles daarboven is armoede, veel te wazig. Het is net gamen door een beslagen skibril. Om over monitors met hogere refreshrates en HDR nog maar te zwijgen.

Solitaire is leuk, maar nieuwe games zijn mooier, sneller en beter, hoog tijd om door te pakken. Cyberpunk is inderdaad een mooi voorbeeld.

[Reactie gewijzigd door dezwarteziel op 4 september 2020 05:35]

Dat weet ik ook wel, je moet m'n pc echt geen 4k voeren. Dat vind niet alleen de videokaart niet leuk. Al zou ik m'n setup upgraden moet ook alles anders behalve de langzame opslag (die dingen die je niet zo veel gebruikt)
Ben ik met je eens, verbaas me eigenlijk hoe goed die nog mee komt.
Ik denk dat mijn GTX780 de RTX3080 als een waardige opvolger zal zien. Werkt eigenlijk nog wel prima voor de games die ik speel, blij dat ik niet toch de snelle keus voor de RTX 2070 of AMD 5700XT heb gemaakt.
Waardige opvolger? Valt wel mee hoor... Snelle keuze tussen de GTX780 en 2070 of 5700XT??

Zit wel een paar generaties tussen hoor, dus genoeg tijd gehad om er over na te denken :Y)

Ik zou toch nog even tot RTX4080 wachten, dan word je nog blijer ;)

[Reactie gewijzigd door Audione0 op 3 september 2020 21:21]

Haha ik had tot nu toe niet meer performance nodig, loop eigenlijk nu pas tegen het issue aan dat er maar 1 DP aansluiting op zit, waardoor een tweede high refresh rate scherm nog niet fatsoenlijk gebruikt kan worden ;-). En ik stond op het punt om afgelopen maand naar een nieuwe te kijken, wilde toch even dit nog afwachten.
Ja snap ik! Word iig een mooie aankoop die 3080 :)
Ik denk dat mijn GTX780 de RTX3080 als een waardige opvolger zal zien.
Jouw energieleverancier ook. ;)
Geen RT en geen DLSS want dat ondersteund Doom niet. Tenminste ik heb nog geen week geleden Doom gekocht en zie geen RT of DLSS opties (en ja ik heb een RTX kaart).
Ik zit zelf nu al 2 jaar en 3 maanden op mijn 1070TI (die ik toen kocht voor 430 euro); daarvoor had ik 3 jaar en 9 maanden een 780. Ik zie mezelf juist helemaal upgraden naar een 3070. Die bied ongeveer een verdubbeling (als ik de rumors moet geloven) voor 500 euro. Zodra die over een halfjaar-anderhalf voor nog minder te koop is; dan pak ik die meteen!

Een 3080 haalt waarschijnlijk het dubbele van de 1080TI by the way, something to keep in mind voor jouw situatie.

[Reactie gewijzigd door germania op 3 september 2020 22:31]

Reken maar op €600 voof een 3070 custom kaart en nee de prijzen gaan niet dalen over een half jaar/anderhalf jaar, dat heb je wel gezien ad vorige generatie videokaarten van Nvidia.
Jouw 1080 ti doet anders niet overal 60fps op 4k en high settings. Het is maar wat je wil.
Ik heb nog steeds een GTX780. Kan op zich nog wel meekomen. Maar ik ga wel upgraden naar een 1080ti die ik voor een paar tientjes (plus hulp met upgrade van zijn pc naar een 3080) van een vriend ga overnemen. Ik merk wel dat de 780 niet high end meer is.
Jensen had het toch best goed te pakken bij mij. Ik heb een GTX 1080. Maar Microsoft Flight Sim, in 4K (met een paar settings op ultra, rest op high) haal ik toch nauwelijks 25 fps. Gelukkig is dat voor MSFS nog neeeeet genoeg. Tis... nou ja. Speelbaar.
Tomb Raider spellen, in 4K, rond de 45fps, veel settings op max.
Maar ja, dan komt Watch Dogs Legion en Cyberpunk 2077 nog komende maanden.

Ik heb meer nodig, ik wil meer. En zat echt te wachten op de nieuwe kaarten en hopen dat die genoeg prestatiewinst geven om alle games de komende jaren op 4K, MAX settings, buttersmooth 60fps te spelen.
Lijkt erop dat de RTX 3080 een prima fit is voor mij!
De sprong van 1080>2080 was veelste klein, zo mn geld niet waard.
Maar de 1080>3080 is een enorme grote sprong, en zo mn geld waard!
Ik deed met mijn GTX780 4 jaar en 7 maanden over.
Ik doe met mijn GTX 970 al zes jaar en merkte eerder dit jaar al af en toe issues in hele specifieke omstandigheden. Draai nu mee in de Dual Universe beta en moet alles omlaag halen om het speelbaar te krijgen.

Het interessante aan de 3080 is niet eens zo zeer dat het 50%+ fps haalt ivm een 2080Ti en richting de 120fps+ op 4k haalt. Maar dat de 3080 de helft van een 2080Ti gaat kosten...

Natuurlijk moeten we allemaal wachten op de goede reviews (onafhankelijk) voor een breed scala aan games! Maar wat ga je anders halen als je GPU aan vervanging toe is?
E komt wat aan van AMD.
De reden dat nVidia nu een grote prestatiesprong maakt én een veel lagere prijs hanteert komt omdat ze weten dat AMD met een sterke kaart komt.
Anders zouden ze ook nooit een kaart tot 350W opvoeren.

Het is dus heel slim om even te wachten.
Met DLSS? Of echt 4k?
Maakt dat uit?
(Blijft natuurlijk wel een terechte opmerking)
Uiteindelijk maakt het voor de benchmark vergelijking met de 2080 Ti niet heel veel uit gezien het dezelfde settings zijn. Het is al gebleken dat de 3080 80% meer performance bied dan een 2080 en daardoor waarschijnlijk zo'n 30-40% meer performance dan een 2080 Ti. De kaart zal alle games op de hoogste instellingen zonder moeite afspelen de komende paar jaar.

[Reactie gewijzigd door Elazz op 3 september 2020 20:59]

Hmmm, ik hoop het maar Tom's hardware was vorige week nog vrij duidelijk over Microsoft Flight Simulator:
In a similar vein, you're not going to be running Microsoft Flight Simulator at 4K and maxed out settings with anything close to 60 fps — not on today's hardware. CPU bottlenecks are likely to keep you below 60 fps even at 1080p ultra, but at 4K ultra? The RTX 2080 Ti managed 33 fps. We're skipping ahead, and you certainly don't need ultra settings (the high and even medium presets look quite good), but the point is that this is a game that will punish both CPUs and GPUs for years to come.
Ik ben dus erg benieuwd naar de eerste benchmarks van Microsoft Flight Simulator met deze kaarten. Ik ben vooral benieuwd of de 3090 in staat is om deze vloeiend op 60+ FPS te spelen, aangezien ik gok dat de 3080 toch echt op +/- 45-50 FPS zal blijven steken.
Denk het niet, de game is nogal cpu gelimiteerd.. slechts een paar techsites kijken hier correct naar.

[Reactie gewijzigd door thibaultvdb op 3 september 2020 22:54]

Als de game CPU gelimiteerd was op 4k dan zou de switch naar 1080p niks uit moeten maken.
https://i.imgur.com/WzzspBx.png
Ze hebben nog wat werk aan de multithreaded implementatie. De switch maakt ook niet zo veel uit. Ik merk niet veel verschil tussen 1080p en 4k op een 2080ti. In andere games wel.
Ik weet niet wat je verwacht maar een game is niet als een video encoder waarbij iedere thread hetzelfde aan het doen is.
Ik had gehoopt op een betere cpu optimalisatie en dx12 support om de drawcalls beter te managen.
Het verschil in fps op de grond vs in de lucht bijvoorbeeld is storend.
Ik wil goede 90fps+ gameplay zonder stutters op de Reverb G2 en ik ben niet zeker of een 3090 enorm gaat helpen tov een 2080ti om dit te halen..
Of misschien juist wel een beetje als een video decoder, gezien het landschap van satelliet-foto's komt met AI toegevoegde 3D data.
Is DLSS niet een soort upscaling?
Ja, maar heeft al meerdere keren getoond betere resultaten te produceren dan de native resoluties :)
Heb je daar voorbeelden van? Of bedoel je resultaten als in fps?

Het lijkt mij zo raar dat de kwaliteit van de gerenderde frame van betere kwaliteit is met upscaling dan de native resolutie.

[Reactie gewijzigd door Nogne op 3 september 2020 21:41]

Digital Foundry toont hier enkele voorbeelden van in deze video met de game Death Stranding.
Hoe kan het er beter uit zien dan native?
Omdat het "slimme" upscalers zijn.

Ze stretchen/blenden dus de pixels niet, maar "maken effectief nieuwe pixels", gebaseerd op machine learning en de data + algoritmes die hier uit voort vloeien.

https://images.idgesg.net...s-zoom-100836201-orig.jpg
https://images.idgesg.net...ss-fan-100836199-orig.jpg

*edit: de upscaling is ook gebaseerd op data van machine learning op beelden van 16K.

[Reactie gewijzigd door SideShow op 3 september 2020 22:10]

Idd, laten we dlss niet als norm gebruiken maar gewoon de normale fps ...
DLSS ziet er vaak mooier uit dan op de hogere resolutie renderen en je hebt met DLSS een hogere framerate. Nadeel is dat je gekke effecten kan krijgen als er render foutjes optreden, volgens mij is dit al een stuk verbeterd in DLSS 2.0.
Dit is native 4K (geen DLSS), en zonder ray tracing
Volgens mij ondersteund Doom Ethernal geen DLSS?
'Doom: Eternal' ondersteunt, vooralsnog, geen DLSS. Het is een techniek van Nvidia die geïmplementeerd moet worden in de game engine, net als Ray Tracing (RTX).

Dit is dus native 4k.
Doom: Eternal met DLSS = :9~

Maar ja, id Software staat er niet om bekend om zich aan te sluiten bij een specifieke merk kaart (niet wat ik mij herinner, in elk geval). :'(
De resultaten zijn verbluffend O-)

Gewoon even een oprechte vraag:
Wat is de reden dat er wordt geschreven dat we de resultaten met een korreltje zout moeten nemen? Ieder anders behaald toch dezelfde fps met die kaart en dit spel?
Puur omdat het cherrypicking kan zijn, pascal en turing waren niet bepaald geoptimaliseerd voor vulkan, terwijl door de 2e execution cycle in ampere vulkan games (in theorie) een heel groot voordeel zouden moeten hebben ten opzichte van de 2080 ti, dit is ook de reden dat AMD zo graag strange brigade 2, wwz etc laat zien als benchmarks bij hun aankondigingen.
De meeste benchmarks zijn nog van NVidia , en die laten juist de dingen zien waarin ze het beste zijn.
Ongelooflijk super kaart die RTX 3080. Bewijst ook dat 144Hz op 4K ruim voldoende moet zijn, zeker op 4K medium-settings.
Ja, vraag me altijd wel af hoeveel pc gamers hebben er een 4k monitor met 120+hz dan?

Heb net mn eerste 1440p 165hz paneel aangeschaft. Was hopende op high settings ook richting de 165fps te gaan, maar dat lijkt wel goed te gaan komen met de 3080. :9
Ik wil 144Hz met 4K resolutie. Ik heb nu ook een 4K LG 27 inch de 27UD68P 60Hz. Ik wil 4K niet missen daarom wil ik 144Hz met 4K.

Dan wordt voor mij een kaart als de RTX 3080 wrl heel interessante optie. Voorlopig hoef ik de stap niet te maken want speel maar op 4K 60Hz met een RTX 2080

Ik overweeg deze: Acer Predator XB273KPbmiphzx https://youtu.be/FalXmLd9f40

Hij is helaas in prijs gestegen. Hij was ooit onder de €750,-

[Reactie gewijzigd door van der Berg op 4 september 2020 00:02]

https://youtu.be/cWD01yUQdVA

Digital foundry had uren na de presentatie al meerdere benchmarks. Pretty good stuff.
Benchmarks op basis van games geselecteerd door nVidia met test voorwaarden gezet door nVidia.
Doom is sowieso al goed geoptimaliseerd. Ik draai ook 4K ultra tussen 50-60 fps met een GTX1080.. Zie liever beelden van RDR2 of Flight sim 2020.
Juist door de optimalisaties is dit een goede case. Je kunt hier de ruwe doorvoer van de videokaarten goed vergelijken.
Fight sim heb je weinig aan zolang het dx11 is en je CPU de bottleneck is toch?
Van nu toe lijkt vooral zeer gpu heavy te zijn
FS gebruikt maximaal 4 cores. CPU zal hoe dan ook een bottleneck zijn.
Dat is een kwestie vaan dik genoeg CPU eronder zetten. Het is erg goed geparallelliseerd, dus een leuke dikke threadripper erop en dat GPU gaat heus wel de bottleneck zijn.
Toch niet, in zijn huidige staat gebruikt FS slechts 4 cores. ( daarom dat je op verschillende systemen met de laatste CPU's je een CPU belasting van 20 % ofzo ziet ) Dus er nog meer cores tegenaan gooien lost het probleem niet op. Een dikke overclock op je 4 beste cores is het beste wat je kan doen momenteel.

[Reactie gewijzigd door MPAnnihilator op 4 september 2020 12:13]

Flightsim draait maar op 4 cpu cores... hoge fps moet je daar dus niet mee verwachten... zelfs niet met een 3090, want de cpu is in dat "spel" altijd de limiterende factor.
Dus eigenlijk zal je nooit 4K Ultra settings en minstens 60fps kunnen halen?
wat ik gezien heb op Youtube doet vermoeden van niet. Tenzij Microsoft met patches het ( ondermaats ) CPU gebruik kan oplossen.
Tja games hebben een zeer dynamische last. Sub task nogal wat afhankelijk heden hebben en bepaalde task beperkt concurrent zijn. Tja 32threads vullen zal dan niet makkelijk zijn.
Bepaalde games hebben wat meer mogelijk heden voor parallellisatie. Maar of FS daar onder valt. Kan ook zijn dat de dev''s er mee klaar zijn en na productie gewoon released moest worden. En dan verder gaan met after release patches voor performance. Deze grote projecten is optimalisatie nooit maximaal omdat je wel 10 jaar kan optimaliseren op einde met zeer subtiele winsten. Maar je krijgt zelden de productie tijd om tot hoog niveau te optimaliseren.
Kan ook zijn dat de engine concurrent beperkt is.
Want concurrent en SMP programmeren en software ontwikkeling is vak apart. En games zijn vreemde eend. Ten eerste games heb veelvoud aan gevarieerde task met complexe afhankelijkheden en veelvoud aan soorten data van hele kleine tot enorm grote data. Waarbij multithreaden in deze branch op later stadia pas prominent en belangrijker werd .

Denk niet dat publisher en studio perfecte SMP nastreven dat commercieel niet haalbaar.
Maar wanneer komt amd met hun nieuwe videokaarten? Want ik denk dat nvidia vreest voor amd, en dat ze daarom hun prijzen laag hebben gehouden, want zeg eerlijk ik verwachtte wel hogere prijzen (natuurlijk als de vergelijkingen met de 2080ti kloppen)
Zelfs al zijn de AMD kaarten nog iets beter, als klanten nu tegen een schappelijke prijs een NVidia kaart kopen, is de upgrade naar AMD de prijs niet waard. Slimme zet van NVidia.
Welke schappelijke prijs? Ik zie er geen.
Vergeleken met Turing lijkt alles schappelijk. :P
[quote]Maar wanneer komt amd met hun nieuwe videokaarten?[quote]

De geruchten zeggen "October".
GA102 die 350watt / 320watt lijkt mij dat nV toch rekening houd met bignavi en de kroon moet hebben.
tov Console is 350wat erg veel. zou kunnen dat prijs gekozen is ivm consoles, misschien.
Denk eerder dat AMD uitrol maand of 2 later is. En nV op de proppen moest komen en prijs lager inzetten omdat counter prijs verlaging geen goede PR is dan lager handhaafbare MSPR prijs.
Gezien 3090 prijs verwacht nV daar geen concurrentie. De 3070 en 80 daarin tegen wel die zijn wat lager ingezet ivm komende concurrentie.
Mogelijk heeft nv wat terug koppeling van board partners die ook AMD kaarten leveren.
Ik zocht al een tijdje een nieuwe videokaart voor Ultra Wide 1440p in intensieve games. Een RTX 2080 Ti was veel te duur maar begon te twijfelen of ik er niet ene 2de hands ging kopen voor tussen de 500 - 600 nu. Maar eigenlijk is de RTX 3080 de beste keuze komende van een GTX 1080 qua upgrade. Een 2080 Ti is eerder interessant rond de 400 euro als ik die tegenkom.

Prijzen van bijv. Asus en EVGA zijn inmiddels ook al gelekt volgensmij voor tussen de 700 - 800 euro voor de RTX 3080 en 500 - 600 euro voor de RTX 3070.

Edit: Blijkbaar komt Watch Dogs Legion gratis bij aanschaf RTX 3000 kaarten. Niet dat ik de game aan de volle prijs zou gekocht hebben maar is ook alweer mooi meegenomen.

[Reactie gewijzigd door Elazz op 3 september 2020 21:11]

wat dat betreft heb ik kort geleden een 2070 voor €410,= aangeschaft, super ding, ga ik nog heel lang plezier aan beleven.

Maar zodra het kan komt er een 3070 in mijn rig!!!!!!!!!
Betwijfel ik. Ik denk dat veel twijfelaars dan waren overgestapt naar het console kamp. Ik denk dat deze performance / price ratio niet eens direct richting de Navi GPU's is gericht, maar meer tegen de PS5 / Xbox series X. Daar zit ook Navi in, maar u begrijpt wat ik bedoel.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True