Door Reinoud Dik

Redacteur

Nvidia GeForce RTX 3070 Review

High-end prestaties naar een lager prijspunt

Conclusie

Dinsdag voegt Nvidia de GeForce RTX 3070 toe aan zijn portfolio RTX-videokaarten in de 30-serie op basis van de Ampere-architectuur. Met de eerder besproken RTX 3080 en RTX 3090 werden prestatieniveaus bereikt die eerder niet mogelijk waren. Met de RTX 3070 ligt dat iets anders.

Bekend prestatieniveau voor een lagere prijs

De RTX 3070 is in bepaalde opzichten een vernieuwende videokaart en in andere opzichten juist een minder opzienbarende toevoeging aan Nvidia's line-up. Het prestatieniveau, zowel in traditionele rasterization als in raytracing, zit erg dicht tegen dat van de RTX 2080 Ti aan, wat op zichzelf dus geen vernieuwing is. Hetzelfde hebben we in het verleden gezien met de GTX 1070 tegenover de GTX 980 Ti, en ook de GTX 970 tegenover de GTX 780 Ti. Uitzondering hierop was de RTX 2070, die de GTX 1080 Ti minder goed kon bijbenen.

De prestatieclaims van Nvidia voor de RTX 3070, sneller dan een RTX 2080 Ti en gemiddeld 60 procent sneller dan een RTX 2070, worden dus net niet waargemaakt. De RTX 3070 komt in onze benchmarks gemiddeld ongeveer 2 procent onder de RTX 2080 Ti en is 50 procent sneller dan een RTX 2070.

RTX 2080 Ti-prestaties zijn al twee jaar verkrijgbaar in de vorm van het genoemde Turing-vlaggenschip. Wat de RTX 3070 echter doet, is deze prestaties naar een veel lager prijspunt brengen. Moest je voor de komst van Ampere nog ongeveer 1200 euro neertellen voor de RTX 2080 Ti, dezelfde prestaties koop je in de vorm van een RTX 3070 nu voor iets meer dan 500 euro. Althans, in theorie; de voorraden van Ampere-videokaarten zijn sinds de introductie van de RTX 30-serie zeer beperkt bij alle distributeurs die wij hebben gesproken, en ook op de fora van Tweakers zelf melden veel gebruikers hier problemen mee.

Nvidia heeft op dit gebied verbetering beloofd, maar het moet nog blijken hoeveel RTX 3070-kaarten er in de komende weken daadwerkelijk in voorraad zullen zijn en tegen welke prijs ze verkocht worden. We horen voorzichtig positieve geluiden van shops en fabrikanten over de voorraden, misschien heeft het uitstel van twee weken van Nvidia voor de RTX 3070 dus geholpen.

Hergebruikt geheugen

De RTX 3070 beschikt net als de luxere RTX 3080 en RTX 3090 over de nieuwe Ampere-architectuur. Waar de twee grotere broers over razendsnel GDDR6X beschikken, heeft de RTX 3070 hetzelfde 'gewone' GDDR6 gekregen als zijn voorgangers, de RTX 2070 Super en RTX 2070. Gecombineerd met een verder identieke geheugenbus en geheugensnelheid is de bandbreedte onder de streep dus identiek aan die van deze kaarten. Nu hoeft deze stilstand niet per se een achteruitgang te betekenen, maar Nvidia heeft ervoor gekozen om de RTX 3070 ook van 8GB geheugen te voorzien, wat we sinds de GTX 1070 al in het prijssegment van deze fabrikant zien. Anno 2020 zou meer geheugen voor een videokaart van meer dan 500 euro geen overbodige luxe zijn. Dat geldt al helemaal nu we met de komst van de nieuwe consoles aan de vooravond staan van een nieuwe generatie games.

De efficiënte mainstreamer

Naast hoge prestaties naar een lager prijspunt brengen, heeft de RTX 3070 ook de prestaties per watt goed op orde. Nvidia lijkt er met de GA104-chip een stuk beter in te zijn geslaagd om minder energie per frame te gebruiken dan we op de grotere GA102 van de RTX 3080 en 3090 zagen. Vermoedelijk speelt het geheugen hier ook een rol bij, in het voordeel van de RTX 3070. De GeForce RTX 3070 verbruikt onder volle belasting evenveel als de Radeon RX 5700 XT, maar zet daar gemiddeld ruim 40 procent betere prestaties bij neer. De 2080 Ti-prestaties worden vrijwel geëvenaard bij een ruim 20 procent lager verbruik. Het lagere verbruik en de efficiënte koeler van de RTX 3070 Founders Edition zorgen samen voor een zeer lage geluidsproductie bij een prima acceptabele temperatuur.

Wat concurrent AMD betreft: woensdagavond worden de nieuwe Radeon-videokaarten in de RX 6000-serie op basis van de vernieuwde Navi-architectuur gepresenteerd. Wie wil profiteren van het gevolg van concurrentie voor de consument, doet er goed aan de prestaties van het rode kamp nog even af te wachten. Of die prestaties voldoende concurrerend zijn en of AMD zijn voorraden beter voor elkaar heeft dan Nvidia, blijft eveneens nog even afwachten.

RTX 3070 Founders Edition achterkant

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Reacties (233)

Wijzig sortering
Wellicht geen overbodige luxe. Dezelfde fout als bij de 3080 review is opnieuw gemaakt: er is getest met een AMD cpu die handmatig is vastgezet op een lage clock (dus de boost is uitgezet).
Testsysteem gpu's
Processor AMD Ryzen 9 3900XT @ 4,2GHz
Opvallend want tijdens de 3090 review heeft tweakers zelf de verschillen al gepubliceerd. Ze geven hier zelf aan dat testen met hogere clockst 20% op 1440p scheelt bij een 3080.

In deze review op 4.2 Ghz kom je bij f1 2020 1440p tot de conclusie dat de 3070 bijna even snel is als de 3080 (14%). Maar dat is hoogst waarschijnlijk te rooskleurig omdat de 3080 meer dan 20 fps extra haalt op 5 Ghz, aldus tweakers. In welke mate de 3070 ook last heeft van de 3900X op 4.2 Ghz valt zonder testen niet te zeggen. Dus je kunt wat mij betreft beter kijken naar de resultaten van andere reviewers.

Bovenstaande is binnen de context van Ryzen 5000 nog opmerkelijker. Daarvan weten we nu al dat deze voorbij Intel streven op single threaded performance (IPC * clock). Er zijn al wat passmark resultaten gelekt. Over een maand gaat de boel nóg beter schalen dankzij de combinatie van hogere performance én PCI 4.0. (Heerlijke tijden momenteel voor de hardware liefhebber :Y) ).

Kitguru: Intel Core i9-10900K Overclocked to 5.1GHz on all cores
techtesters: Intel Core i9-10900K (MCE)
Gamernexus (video): 10700K 5.1 Ghz
Techpowerup: Intel Core i9-9900K @ 5.0 GHz (Coffee Lake, 16 MB Cache)
Hardwareluxx: Intel Core i9-10900K
Guru3d: Core i9 9900K
Tomshardware 9900K
Overclockersclub AMD 3800X 4.3GHz - All-Core (1.325v) FLCK 1:1
wccftech: Ryzen 9 3900X 4.3GHz All Core Lock (disable one CCD for 3600X Results)
Computerbase: AMD Ryzen 9 3900XT, nicht übertaktet
Tweaktown: 3800X


edit: nuance 'even snel'

[Reactie gewijzigd door sdk1985 op 28 oktober 2020 00:12]

Dank voor je feedback, dat is altijd welkom.
Dezelfde fout als bij de 3080 review is opnieuw gemaakt: er is getest met een AMD cpu die handmatig is vastgezet op een lage clock (dus de boost is uitgezet).
Dat is geen fout maar een keuze. AMD's boost-algoritme werkt opportunistisch en met het handmatig vastzetten elimineren we een variabele die anders testresultaten kan beïnvloeden. Je hebt het over een lage clock maar de 4,2 GHz all-core op de 3900XT is een overklok, stock komt hij krap boven de 4 GHz uit.
In deze review op 4.2 Ghz kom je tot de conclusie dat de 3070 bijna even snel is als de 3080.
We hebben dit nergens in deze review geconcludeerd. In de Prestatiescore is op 4K Ultra de 3080 ruim 30 procent sneller dan de 3070.
We hebben dit nergens in deze review geconcludeerd. In de Prestatiescore is op 4K Ultra de 3080 ruim 30 procent sneller dan de 3070.
Ik zie dat mijn originele tekst niet heel duidelijk was. Ik keek bij de f1 2020 1440p grafiek en zie op tweakers 14% (197.7/172.9) tegen bij 27% (239.1/187.4) bij techpowerup. Ik heb er alle vertrouwen in dat het een prima review wordt als jullie testen met een 10900K op 5.1 Ghz.
Dank voor je feedback, dat is altijd welkom.

[...]

Dat is geen fout maar een keuze. AMD's boost-algoritme werkt opportunistisch en met het handmatig vastzetten elimineren we een variabele die anders testresultaten kan beïnvloeden. Je hebt het over een lage clock maar de 4,2 GHz all-core op de 3900XT is een overklok, stock komt hij krap boven de 4 GHz uit.
Ik ben er ondertussen ingedoken en zie dat de stock 3900X met een theoretische boost clock van 4.6 Ghz vrijwel identiek presteert aan een vaste overclock van 4.3 Ghz op all cores aldus gamernexus. Wat dat betreft zal die 4.2 Ghz all core dus inderdaad niet de fout zijn.

Wat blijft staan is de keuze voor de 3900X. We weten al dat de keuze voor deze 3900X een drastische impact heeft op de onderlinge verschillen tussen de verschillende videokaarten. Zie jullie eigen test reviews: Nvidia GeForce RTX 3090 - De overtreffende trap van Ampere Er ontstaat een vertekend beeld juist door deze cpu. Dat is het laatste dat je wil als onderzoeker en wanneer je daar (zelf) achter komt dan valt dat eigenlijk niet meer recht te praten om dat door te gaan met de 3900X op 4.2 Ghz.

Het liefst test je met een onbeperkt snelle cpu zodat je puur de gpu kunt testen, helaas bestaat die niet. Het beste alternatief is voorlopig om een 10900K met een maximale stabiele overclock te pakken. Je hebt dan een stukje prestatie verlies in de vorm van een theoretische PCI bottleneck máár die is constant en zeer beperkt (aldus overige onderzoeken). Een hertest met Ryzen 5xxx zal het probleem vermoedelijk ook oplossen.

[Reactie gewijzigd door sdk1985 op 27 oktober 2020 16:15]

Ik keek bij de f1 2020 1440p
Wat blijft staan is de keuze voor de 3900X. We weten al dat de keuze voor deze 3900X een drastische impact heeft op de onderlinge verschillen tussen de verschillende videokaarten. Zie jullie eigen test reviews: Nvidia GeForce RTX 3090 - De overtreffende trap van Ampere Er ontstaat een vertekend beeld juist door deze cpu. Dat is het laatste dat je wil als onderzoeker en wanneer je daar (zelf) achter komt dan valt dat eigenlijk niet meer recht te praten om dat door te gaan met de 3900X op 4.2 Ghz.
Echter wanneer reeds is aangetoond dat je keuze voor 3900X @ 4.2 Ghz een vertekend beeld oplevert en de lezer daardoor juist slechter wordt geïnformeerd dan gaat er gewoon iets mis. Op het moment dat je al weet dat je resultaten niet representatief voor de werkelijkheid zijn ben je al niet meer wetenschappelijk verantwoord bezig. Vol blijven houden aan die 3900X op 4.2 Ghz maakt het dan niet alsog wel een zinnige test puur omdat je één variabele een constante factor hebt gemaakt. Aan het eind van de dag is deze cpu te traag voor deze kaarten.
Je beschuldigt ons van wetenschappelijk onverantwoord bezig zijn maar je kijkt zelf naar één game op één resolutie, dat levert een gigantische bias op. Wij kijken voor ons oordeel van 3D-chips naar 10 games waaruit we de Prestatiescore berekenen. En in de review van de RTX 3090 die je aanhaalt zie je daar dat het verschil in de Prestatiescore op 4K Ultra nihil is tussen de 10900K en 3900XT (let op; geen 3900X zoals je stelt) is met zowel de RTX 3090 als de 3080. Zelfs op 1440p Ultra (naast 4K de andere relevante resolutie voor het prestatieniveau van de RTX 3070) is het verschil maar zo'n twee procent, allerminst drastisch lijkt me. Omdat voor deze snellere videokaarten de cpu belangrijker is dan bij de RTX 3070 en we daar dus al geen verschil zagen, hebben we er voor gekozen de RTX 3070 in combinatie met ons 3900XT-testsysteem te benchmarken.

[Reactie gewijzigd door Trygve op 28 oktober 2020 09:26]

Wij kijken voor ons oordeel van 3D-chips naar 10 games waaruit we de Prestatiescore berekenen.
Hetgeen een prima initiatief is.
En in de review van de RTX 3090 die je aanhaalt zie je daar dat het verschil in de Prestatiescore op 4K Ultra nihil is tussen de 10900K en 3900XT (let op; geen 3900X zoals je stelt) is met zowel de RTX 3090 als de 3080. Zelfs op 1440p Ultra (naast 4K de andere relevante resolutie voor het prestatieniveau van de RTX 3070) is het verschil maar zo'n twee procent, allerminst drastisch lijkt me.

Omdat voor deze snellere videokaarten de cpu belangrijker is dan bij de RTX 3070 en we daar dus al geen verschil zagen, hebben we er voor gekozen de RTX 3070 in combinatie met ons 3900XT-testsysteem te benchmarken.
Ik zag in die vorige test naast de 20.9% bij F1 ook 21.8% bij Far Cry New Dawn. Dat zijn er al 2 van de 10. Samen hebben die een gemiddelde afwijking van 21.35%.

De overige 8 games zitten tussen de 0.2 en 3.8% verschil. Het gemiddelde verschil van deze 8 games komt op -0.88%, de 3900XT is soms sneller. Dat verschil is zo klein dat het vermoedelijk binnen de foutmarge van jullie tests valt.

Met andere woorden zou je kiezen voor de 10900K dan verlies je niks op die 8 games (die 0.88% gemiddeld) terwijl je op twee games 21.35% winst boekt. Dan lijkt de keuze voor de 10900K mij duidelijk.

Als we iets verder uitzoomen in plaats van in de cijfers te duiken dan is wat mij betreft het doel van deze test om de GPU te testen en de impact van overige invloeden zo veel mogelijk te minimaliseren. Gezien het bovenstaande is dat nu niet goed gelukt en daar gaat mijn feedback over.
[...]


[...]


[...]

Je beschuldigt ons van wetenschappelijk onverantwoord bezig zijn maar je kijkt zelf naar één game op één resolutie, dat levert een gigantische bias op.
Dat is hoe het werkt. Als het doel is om een goede test te bedenken die 'de waarheid' achterhaald en ik kom een scenario tegen waarbij de keuzes die je hebt gemaakt ertoe leiden dat er een vertekend beeld in dat specifieke scenario ontstaat dan kan ik daar prima kritiek op baseren. Daar is niets onwetenschappelijks aan. Ik ben alles behalve verplicht om vervolgens de boel al dan niet te gaan nuanceren door alle 10 games op elke mogelijke resolutie te gaan cross-checken. Die impliciete eis lijkt me wat ver gaan om bij mij als 'vrijwilliger' neer te leggen. Lijkt me meer iets voor de betaalde staff om dat op basis van mijn kritiek te checken. Wat verder het aangekaarte probleem met het ontwerp van de test ook niet oplost. Zou ik zelf betaald reviewer zijn dan zou ik zelf uberhaupt mijn resultaten gaan checken met die van een paar anderere reviewers en daar bij grote verschillen waar nodig contact mee leggen om te kijken hoe die verschillen zijn te verklaren dan wel zijn op te lossen. Is verder niet erg. Zoals te zien doe ik ook niet altijd alles in één keer goed. Is niet erg zo lang je de dialoog aan kunt gaan.

Tot slot welllicht nog zinnig om te toe te voegen dat sinds de HWI/tweakers merge de kwaliteit van de reviews hier sterk heb zien toenemen. Nu nog de cpu bottleneck uitsluiten :Y) .

*Control -3.1%, Doom 2.8%, F1 20.9%, FC new dawn 21.8%, Ghost recon breakpoint -3.6%, Metro 2.7%, PC3 -3.8%, RD2 -0.2%, Shadow 0.1%, Total war -2%,

[Reactie gewijzigd door sdk1985 op 28 oktober 2020 14:13]

Op zich heb je volgens mij valide punten. Ik kan me echter voorstellen dat wanneer alle andere videokaarten met een andere cpu getest zijn, het erg veel werk is om die allemaal opnieuw te testen puur met een nieuwe cpu.

Dus kan me voorstellen dat je dan besluit de 3070 ook met die cpu te testen, puur omdat je dan niet alles opnieuw hoeft te doen. Als je enkel voor de test van de 3070 een andere cpu pakt zou je anders appels met peren aan het vergelijken zijn.

Maar dan nog zou je natuurlijk enkele losse tests toe kunnen voegen met een snellere cpu waarbij je die bijvoorbeeld alleen bij de belangrijkste benchmarks tegen de andere referentiekaarten (3080 en 2080Ti bijvoorbeeld) afzet. In ieder geval als je denkt dat de cpu in sommige scenario's de bottleneck zou zijn.
Zijn er dan problemen of limieten met die Ryzen 3900X ?
Zijn er dan problemen of limieten met die Ryzen 3900X ?
Het 'probleem' is dat ook nu nog veel games zwaar op één thread leunen. De 3900X is in dat scenario wat zwakker dan de 10900K. Dit door een combinatie van ontwerp keuzes maar vooral door de gelijkwaardige rekenkracht per clock tik (IPC) terwijl de frequentie bij Intel veel hoger ligt.

AMD heeft dit onderkend in hun presentatie van Zen 3 (Ryzen 5xxx).
"many games have a dominant thread .... and that makes especially have use of the cache and that thread effectively sees twice the L3 cache in Zen3'.
Ze hebben hun ontwerp aangepast om om te gaan met games door de door de L3 cache samen te voegen van 2x 16 naar 1x 32MB. Daarnaast is ook de latency verlaagd: https://youtu.be/iuiO6rqYV4o?t=499

[Reactie gewijzigd door sdk1985 op 28 oktober 2020 14:25]

Helder ;-)

Dank je wel
Terechte kritiek denk ik, maar zijn de resultaten bij 4k zoveel anders dan?
In deze review op 4.2 Ghz kom je tot de conclusie dat de 3070 bijna even snel is als de 3080. Maar dat is hoogst waarschijnlijk te rooskleurig omdat de 3080 meer dan 20 fps extra haalt op 5 Ghz, aldus tweakers. In welke mate de 3070 ook last heeft van de 4.2 Ghz valt zonder testen niet te zeggen. Dus je kunt wat mij betreft beter kijken naar de resultaten van andere reviewers.
Kijken wij naar andere grafieken? Ik zie in de game benchmarks op 1440p zo goed als altijd een verschil van 20-30 fps tussen de 3070 en 3080, dat is volgens mij niet "bijna even snel". Alleen in Far Cry New Dawn komt de 3070 heel kortbij, en die titel kennende is daar inderdaad waarschijnlijk de CPU de bottleneck, zeker gezien de framerate op 1080p nauwelijks beter is dan op 1440p.

Er zijn nog een paar andere games waar je op 1080p ook wel de CPU bottleneck ziet, dat is inderdaad wel niet ideaal.
[...]


Kijken wij naar andere grafieken? Ik zie in de game benchmarks op 1440p zo goed als altijd een verschil van 20-30 fps tussen de 3070 en 3080, dat is volgens mij niet "bijna even snel". Alleen in Far Cry New Dawn komt de 3070 heel kortbij, en die titel kennende is daar inderdaad waarschijnlijk de CPU de bottleneck, zeker gezien de framerate op 1080p nauwelijks beter is dan op 1440p.

Er zijn nog een paar andere games waar je op 1080p ook wel de CPU bottleneck ziet, dat is inderdaad wel niet ideaal.
Ah ik zie waar het fout is gegaan. Mijn alinea had betrekking op de f1 2020 1440p test, niet op alle games op elke resolutie. Ik pakte deze game er als eerste uit en ben toen de cpu's van elke review gaan bekijken.

Voor de volledigheid: op 1440p bij f1 2020 kom ik op een verschil van 14% op 3070 vs 3080 bij tweakers. Bij Techpowerup is dat 27%. Dat vind ik een te groot verschil. Die 14% heb ik beschreven als bijna even snel, daar valt natuurlijk alsnog over te discussiëren of je daar 200 euro voor wil neerleggen.

Wellicht interessant om voor meer games directe vergelijkingen te maken tussen tweakers en techpowerup. Maar dat gaat behoorlijk wat tijd kosten.

[Reactie gewijzigd door sdk1985 op 27 oktober 2020 16:16]

Techtesters - Intel Core i9-10900K (MCE). Had het in de beschrijving van de video staan, maar zal het ook even netjes op de site erbij vermelden, wel zo handig.

Mbt AMD vs Intel. De RTX 3080 hadden we op zowel i9-10900K en Ryzen 9 3950X getest, maar de Intel was structureel wat sneller (1080p zeker, maar gemiddeld genomen ook op 1440p/4K) en daar deed PCIe
Gen 4 weinig aan. Dat was één reden om bij Intel te blijven, de andere reden was dat in verschillende tests van andere producten door de jaren heen Intel platformen vooralsnog toch echt net even wat stabieler/consequenter zijn in de prestaties. Vooral als je kijkt naar SSDs, geheugen, etc, maar ook GPUs in een handje paar games die op AMD toch echt significant nekken.

Of dat vanaf volgende week anders gaat worden moeten we nog maar zien ;)
Techtesters - Intel Core i9-10900K (MCE). Had het in de beschrijving van de video staan, maar zal het ook even netjes op de site erbij vermelden, wel zo handig.

Mbt AMD vs Intel. De RTX 3080 hadden we op zowel i9-10900K en Ryzen 9 3950X getest, maar de Intel was structureel wat sneller (1080p zeker, maar gemiddeld genomen ook op 1440p/4K) en daar deed PCIe
Gen 4 weinig aan. Dat was één reden om bij Intel te blijven, de andere reden was dat in verschillende tests van andere producten door de jaren heen Intel platformen vooralsnog toch echt net even wat stabieler/consequenter zijn in de prestaties. Vooral als je kijkt naar SSDs, geheugen, etc, maar ook GPUs in een handje paar games die op AMD toch echt significant nekken.
Aangepast :).

Meestal duurt een nieuwe pci generatie inderdaad járen voor dat meer dan 1% verschil geeft.
Of dat vanaf volgende week anders gaat worden moeten we nog maar zien ;)
Op basis van de 5600X/5950X passmark single threaded resultaten heb ik goede hoop: https://www.cpubenchmark.net/singleThread.html Ik heb even gekeken maar met mijn 8700K haal ik die 3400-3600 punten niet. Verder is 4.6 Ghz (boost) x 1.19 IPC effectief 5.47 Ghz dus ook dat geeft hoop. Maar we gaan het zien.

[Reactie gewijzigd door sdk1985 op 28 oktober 2020 00:19]

Het moet gek lopen als ze in single thread benchmarks Intel geen pak slaag geven idd. De vraag is echter of dat betekent dat ze "gaming" nu echt van 1080p tot 4K ook echt Intel voorbij gaan :D
Ik weet niet wat er zo opmerkelijk aan is. Ryzen 3000 klokt niet tot 5GHz. Een 3950X komt al niet eens voorbij de 4.7GHz. Over welke CPU heb je het nou? Vergeet ook niet dat de klokfrequenties van 2 CPU families met elkaar vergelijken sowieso appel en peer is.

De Intel 10000 generatie is nog steeds beter dan Ryzen 3000 in CPU-limited game titles. Ryzen 5000 is nog niet uit, dus kan nu nog niets over gecommuniceerd (laat staan geconcludeerd worden). Dus krijg je reviews waarin je ziet dat de helft voor Intel kiest (peak gaming/1080p performance), en de andere helft voor AMD (populair, PCI-e 4.0)

Ik denk dat je in het algemeen wel kan concluderen, dat als je deze kaart koopt, je niet op 1080p medium settings moet gaan gamen.
Ik snap de score van je reactie niet echt want ik vond dit zeer informatief.
Slecht dat dit zo getest wordt, dat zou je toch eigenlijk beter verwachten als er zo'n uitgebreide test wordt gedaan.
Bij de 3080 review werd een verklaring gegeven door tweakers;

1) Ze wilden geen Intel systeem omdat ze er vanuit gingen dat PCI 4 op 4K belangrijker was dan extra rekenkracht. Die gedachte was onjuist, ook op 4K, zie reviews: Nvidia GeForce RTX 3090 - De overtreffende trap van Ampere. Hadden ze vooraf kunnen testen, hebben ze niet gedaan. Dat is jammer, kan gebeuren. Echter nu weten ze het al meer dan een maand dus nu gaat die redenatie niet meer op.

2) Ze wilden de herhaalbaarheid van de test verbeteren door random invloeden van de boost clock uit te sluiten. De 3900X kan hoger boosten (4.6 Ghz) dan de overclock van 4.2 Ghz. Dus het kan zijn dat de performance zelfs lager uit komt in sommige games. Lijkt een groter probleem dan ik dacht; Op 4.3 Ghz is het ongeveer hetzelfde als stock aldus gamernexus.

Het doel van de review is ons zo goed mogelijk te informeren. Natuurlijk is daarbij een test die betrouwbare resultaten oplevert belangrijk. Echter wanneer reeds is aangetoond dat je keuze voor 3900X @ 4.2 Ghz een vertekend beeld oplevert en de lezer daardoor juist slechter wordt geïnformeerd dan gaat er gewoon iets mis. Op het moment dat je al weet dat je resultaten niet representatief voor de werkelijkheid zijn ben je al niet meer wetenschappelijk verantwoord bezig. Vol blijven houden aan die 3900X op 4.2 Ghz maakt het dan niet alsog wel een zinnige test puur omdat je één variabele een constante factor hebt gemaakt. Aan het eind van de dag is deze cpu te traag voor deze kaarten.

[Reactie gewijzigd door sdk1985 op 27 oktober 2020 16:17]

Maar waarom niet testen op zowel de AMD als Intel platformen en dan het gemiddelde van de twee test systemen aanhouden? En voor de liefhebbers de raw test data aanbieden..
Ik vermoed dat dit teveel tijd kost omdat je elke test dan 2x moet doen en ze uberhaupt elke test meerdere keren moeten doen om een betrouwbaar resultaat te krijgen. Bij de 3090 is dat overigens precies wat is gedaan: reviews: Nvidia GeForce RTX 3090 - De overtreffende trap van Ampere Je bent met één test systeem al zo een paar dagen bezig.

[Reactie gewijzigd door sdk1985 op 27 oktober 2020 16:22]

Ach even zen 3 afwachten en alle benchmarks worden weer overgedaan.
Echter wanneer reeds is aangetoond dat je keuze voor 3900X @ 4.2 Ghz een vertekend beeld oplevert en de lezer daardoor juist slechter wordt geïnformeerd dan gaat er gewoon iets mis. Op het moment dat je al weet dat je resultaten niet representatief voor de werkelijkheid zijn ben je al niet meer wetenschappelijk verantwoord bezig.
Ik vind dat ze gewoon moeten testen op de meest gekochte processor, Dus dat het een amd is, is dan logisch.
En video kaartjes testen heeft niets met wetenschap te maken hoor.
Ik denk dat behaalde resultaten heel erg representatief voor de werkelijkheid zijn, omdat de meeste mensen op amd zitten en het op de hoge resoluties toch al geen reet uitmaakt.
Al stop je er een 8350 bulldozer in, net zoveel fps op 4K.
[...]

Ik vind dat ze gewoon moeten testen op de meest gekochte processor, Dus dat het een amd is, is dan logisch.
En video kaartjes testen heeft niets met wetenschap te maken hoor.
Ik denk dat behaalde resultaten heel erg representatief voor de werkelijkheid zijn, omdat de meeste mensen op amd zitten en het op de hoge resoluties toch al geen reet uitmaakt.
Al stop je er een 8350 bulldozer in, net zoveel fps op 4K.
Hoe kom je erbij dat de meeste mensen op AMD zitten op dit moment? AMD systemen zitten in de lift, dat klopt. Maar dat er meer gamesystemen zijn met een AMD basis is nog niet waar volgens bijvoorbeeld Steam. En niet specifiek games: Link

[Reactie gewijzigd door conces op 28 oktober 2020 06:10]

+1Anoniem: 427069
@Vipeax27 oktober 2020 14:36
Toevoeging

Youtube:
Linus Tech Tips
Nu nog de review van de nieuwe AMD kaarten afwachten en daarop je keuze baseren. Mits de kaarten voor de daadwerkelijke retailprijs verkocht worden.
Ik denk dat 8gb vram moeilijk te verkopen is eind 2020... als de prijs/prestaties gelijk zijn blijf ik dan mooi in het rode kamp als je daar 16gb vram krijgt.

Alhoewel deze RTX 3070 kaart dus goed presteert.

[Reactie gewijzigd door HugoBoss1985 op 27 oktober 2020 14:37]

Ik heb niet het idee dat meer Vram voor games echt nodig is? Ik heb nog nooit 8gb gecapped ahoewel ik alleen 1080p speel lijkt me het nogsteeds iets wat onnodig veel hoger te willen gaan?
Dit hangt echt van de games af die je speelt. Ik merk bij sommige games dat 8GB totaal niet genoeg is, en dat op 1080p, laat staan op hogere resoluties. Maar ik heb ook games die amper 2 tot 4GB verbruiken.

Beetje "cheesy" voorbeeld zou Skyrim met mods zijn. Gooi een goeie lading texture mods er in en de 8GB VRAM zit redelijk snel vol en stroomt over naar systeem geheugen.
Ik heb geen enkele game gezien dat legit meer dan 8gb nodig gehad. Ik speel een heel hoop games. Allocation is niet hetzelfde als verbruik. Cod mw gooit het ook vol, of je nou 8gb of 24gb hebt. Maar de prestaties zijn identiek.
1080p high gaat vast nog een tijd goed met 8GB, maar ga je naar hoge resolutie en very high-ultra settings dan is 8GB inmiddels een beetje een gok. Zie deze link voor discussie en wat voorbeelden.
https://www.reddit.com/r/..._need_more_than_8gb_vram/

Doe je maar 1-2 jaar met een kaart -> restwaarde gaat omhoog met iets meer VRAM, kan daarmee alsnog een goede beslissing blijken om nu al voor 10-16GB te gaan ipv 8GB, afhankelijk van het prijsverschil.
Doe je er langer mee -> kans zit er dik in dat je er in toekomstige games zelf steeds meer plezier van gaat hebben.
Houd je van grote getallen "niet omdat het moet, maar omdat het kan", of is er straks zo'n koper in de 2e hands markt als jij doorverkoopt, dan win je geheel los van de techniek altijd met meer RAM. De portemonnee verliest het vandaag natuurlijk wel, maar die is dat dan vast al gewend geraakt ook ;)

[Reactie gewijzigd door OruBLMsFrl op 27 oktober 2020 23:29]

Ik speel op een 4K achtige 32:9 resolutie met alles setting sop high/ultra (geforce 3080RTX)
Zie deze link voor discussie en wat voorbeelden.
https://www.reddit.com/r/..._need_more_than_8gb_vram/
Dit zijn allocaties van geheugen geen gebruik. Dat is zoals ik al eerder vermelde niet hetzelfde.

Vram gaat veel verder dan dat, hoe snel kan dit geheugen gevult worden, hoe snel is de GPU zelf, wat is de bandbreedte etc. Beetje zoals de eerste AMD HBM based GPU welke maar 4GB had in de tijd van 8GB kaarten, omdat het geheugen zo rete snel was maakte het per saldo weinig uit omdat het gigantisch snel gevuld kon worden. Een langzame GPU met veel ram is nogsteeds nutteloos. Zoals vrijwel alle RX4XX/RX5XX GPU's met 8GB welke nooit op resoluties vlot genoeg zijn waar dit geheugen nodig is.
Iets al in VRAM hebben is stukken sneller dan het moeten inladen. De snelheid van een PCI-E bus om iets uit systeemgeheugen is waar er meer dan een klein beetje data in moet altijd de bottleneck, vergeleken met een PCI-E bus bandbreedte dan ondergeschikt of het GDDR6 of HBM geheugen is.

ID software ontwikkelaar hieronder raadt toch echt aan minimaal 8GB VRAM en liefst net wat meer richting de toekomst. Ik begrijp dat je net een nieuwe kaart hebt met 8GB VRAM, wees daar blij mee en geniet van die games op de ultra. Laat graag wel wat discussieruimte over voor mensen zoals die hieronder welke de games van de toekomst maken en je wat goedbedoeld advies meegeven. Ooit was 4GB VRAM ook voor alles op dat moment op de markt genoeg, een paar jaar later niet meer. Op een bepaald moment in de tijd verschuiven zulke grenzen toch gewoon? Voor zeker niet in 2020, dus geniet van je nieuwe kaart :)
https://twitter.com/billykhan/status/1301129891035914240
Iets al in VRAM hebben is stukken sneller dan het moeten inladen.
De GPU moet snel genoeg zijn om het ook te kunnen verwerken.
vergeleken met een PCI-E bus bandbreedte dan ondergeschikt of het GDDR6 of HBM geheugen is.
Alleen is zelfs bij de 3090RTX de PCI-E bus niet eens een limiterende factor in welk scenario dan ook.
Ik begrijp dat je net een nieuwe kaart hebt met 8GB VRAM, wees daar blij mee en geniet van die games op de ultra.
Dat heb ik niet, ik gebruik een 3080RTX, heb een laptop met een Geforce 2070MQ, had een Geforce 2070 Super. In geen enkel realistisch scenario wordt de volle 8GB benut en ik speel dan op 4K achtige resoluties qua pixel count.

Zodra de huidige GPU's die nu met 8GB verkocht worden uiteindelijk meer nodig gaan hebben, dan is de GPU zelf al niet vlot genoeg meer om de graphics op de benodigde snelheid te tonen. Zoals je zelf zegt verschuiven de grenzen, maar een "langzame" 16gb in combinatie met een verouderde GPU qua performance over 3 4 jaar gaat niet opeens de game beter draaien omdat de GPU het niet meer snel genoeg kan tekenen.
Ik ga ook geheel mee in het allocation verhaal. Een game die waar het kan 11GB alloceert met verdere identieke fps en frame times vergeleken met een kaart die slechts 6GB VRAM heeft is uiteraard een informatief verhaal.
Historisch ligt het toch wat genuanceerder. Er zijn de afgelopen paar jaar nog kaarten met snelle GPU verkocht waar de 4GB nu uiteindelijk toch een bottleneck wordt. Het is allemaal niet zwart-wit natuurlijk, zijn stukjes performance of minder vloeiende texture pop-in.

Ik zou geen PCI-E bottleneck verwachten bij een RTX 3090, want die heeft juist wel meer VRAM. Net als de RTX 3080, ook al 10GB. Je krijgt zo'n bottleneck juist bij een kaart met GPU die vlot genoeg is voor hoge resolutie ultra setting, echter met relatief klein eigen geheugen. Dan ga je veel textures uit systeem RAM over de PCI-E bus trekken.
https://www.extremetech.c...t-enough-for-todays-games
https://www.techspot.com/...adeon-rx-5500-4gb-vs-8gb/
Bij een RX5500 4GB speelt een PCI-E bottleneck, anders waren die benchmarks identiek aan de 8GB variant. Call of Duty Modern warfare, 54 fps om 66 fps. Shadow of the Tomb Raider 59 fps om 65 fps. Een 3070RTX is qua GPU zodanig veel sneller dan een RX5500, koffiedik kijken of je in 2023 in elke titel nog met 8GB genoeg hebt, zelfs op lagere resolutie, want de games zullen dan in de basis al veel meer VRAM vragen. Van de andere kant, het scheelt je dan misschien net als in dit verhaal 10-15% performance vergeleken met een 16GB variant in een paar titels. Er zijn ergere dingen, is tegelijk ook niet nul en hetzelfde.

[Reactie gewijzigd door OruBLMsFrl op 28 oktober 2020 22:16]

Bij een RX5500 4GB speelt een PCI-E bottleneck, anders waren die benchmarks identiek aan de 8GB variant.
Dit zijn identieke GPU's met identiek geheugen en een identieke architectuur. De 3070RTX bijvoorbeeld vergelijken met de 6800 is dat niet. Of de 3080RTX met 10gb versus de 6800X is dat ook niet
koffiedik kijken of je in 2023 in elke titel nog met 8GB genoeg hebt, zelfs op lagere resolutie, want de games zullen dan in de basis al veel meer VRAM vragen. Van de andere kant, het scheelt je dan misschien net als in dit verhaal 10-15% performance vergeleken met een 16GB variant in een paar titels. Er zijn ergere dingen, is tegelijk ook niet nul en hetzelfde.
Het is inderdaad koffiedik kijken, maar je kan er wel vanuit gaan denk ik als dat de consoles maar 16gb tot hun beschikking hebben voor de GPU en de rest van het systeem dat dit niet snel zal veranderen.

[Reactie gewijzigd door ZeroNine op 28 oktober 2020 22:34]

Mijn 580 van AMD heeft al 8 gb en die begint ook al een dagje ouder te worden. Maar videogeheugen is niet alles...
Klopt, ik heb ook al 8gb sinds een RX 480 hiervoor ;)
Zolang er een tekort is zullen de prijzen hoger liggen dan de adviesprijzen.
Dat staat volgens mij in verhouding of de kaarten tegen retailprijs verkocht worden, afwachten dus... Ik zie 3080 nog steeds te koop voor 1000 euro te koop staan...
Er zijn mensen die op marktplaats meer voor een tweedehands artikel vragen dan dat het nieuw kost. En mensen betalen het nog ook, omdat ze denken goedkoper uit te zijn en niet weten wat de waarde is. Boycotten die handel.
Zou zelf altijd wachten op de “normale” prijzen. Wat ik niet snap is dat de tweedehands 2080ti’s voor nog ruim boven de €500 verkocht hebben, voorkeur voor mij zou zijn een nieuwe kaart van de laatste generatie.
Waarom wordt HDMI 2.1 niet getest? Waarom niet? Of waarom wordt er vanuit gegaan dat het (goed) werkt? M.i. vragen Variable Refresh Rate (VRR), Auto Low Latency Mode (ALLM), Quick Frame Transport (QFT) etc. erom om getest te worden.
Redactie: zouden jullie bij de games ook FS2020 op hoge resolutie willen meenemen.
Naast de bandbreedte is ook de hoeveelheid geheugen van de RTX 3070 een punt van discussie, want anno 2020 een videokaart van meer dan 500 euro uitbrengen die met acht gigabyte over evenveel videogeheugen beschikt als zijn twee voorgangers, doet ons de wenkbrauwen enigszins fronsen. Geruchten over een 16GB-versie van de RTX 3070 gingen in de afgelopen tijd al rond, maar vervolgens gingen er evenzo geruchten dat deze versie geannuleerd was.
@Trygve
De 8GB is inderdaad een punt van discussie, wellicht dat de Ti versie meer geheugen gaat krijgen. Maar wat ik eigenlijk wilde zeggen of vragen is waarom je dan niet naar het geheugengebruik van de videokaart heb gekeken tijdens het draaien van de benchmarks. Hoeveel van de 8GB wordt gebruikt en is er ruimte over of is het al krap. Is de 8GB voldoende voor de resoluties waarop je spellen kan spelen met deze kaart? Voor sommige spellen zal dat op 1440p zijn, met andere spellen is zelfs 4K mogelijk. Nou zal een spel op 1440p hoogstwaarschijnlijk wel genoeg hebben met 8GB, maar hoeveel wordt er gebruikt en is er over, zal dat voldoende zijn voor de komende jaren met 1440p gaming. En hoe zit dat op 4K, de spellen die op 4K speelbaar zijn, hoeveel geheugen wordt er gebruikt en is er over en is dat voldoende voor de komende jaren? Er zal een stukje speculatie in zitten omdat we niet weten hoeveel geheugen spellen in de komende jaren gaan gebruiken en welke invloed de consoles hierop gaan hebben die iets meer geheugen tot hun beschikking hebben. Maar pc's hebben weer systeemgeheugen als backup ondersteuning. Misschien hierover eens iets schrijven, voor zover mogelijk. ?
De uitdaging zit 'm hier in het verschil tussen geheugenallocatie en daadwerkelijk geheugengebruik. Moderne games alloceren vrolijk vele gigabytes aan vram maar dit is lang niet altijd noodzakelijk om het spel goed te kunnen draaien. Nvidia zelf stelt dit ook in hun informatie over het uitlezen van de framebuffer.
De uitdaging zit 'm hier in het verschil tussen geheugenallocatie en daadwerkelijk geheugengebruik.
Precies dat.

Sterker nog, je memory "Usage" kan hoger zijn dan de "Budget". Alles wat op dat moment niet binnen de budget lijntjes van de gpu past, wordt ge-"evict" (demote) naar de cpu. Alleen als je dat stuk op eens nodig hebt, wordt de blok ge-promote ten kosten van een andere blok die op dat moment niet wordt gebruikt (die wordt dan ook als evicted gemarkeerd en verplaatst naar de cpu)... en zo krijg je een heen en weer spelletje ten kosten van de performance.
High-end prestaties, dat vind ik overdreven. Naar mijn idee is het dit jaar pas echt mogelijk om in 4K Ultra te gamen zonder een extra hypotheek af te sluiten. De 3070 valt hier echter door het ijs. In diverse games onder de 60 fps. Is het net niet, en als je nu een upgrade uitvoert, dan zit je met die 3070 al snel tegen de limiet aan, dus ook niet erg future proof.
Echt een klassiek tweakers antwoord. Suggereren dat de 3070 door het ijs zakt omdat 4K Ultra niet altijd 60fps draait is echt hilarisch. Sorry hoor, maar je pakt een ontzettende edge case, plakt die op een upper mid range GPU en concludeert dat de 3070 een slechte upgrade is.

Iedereen die tevreden was met een 1070 is dat nu ook zeker weten met een 3070. Over 4 jaar draait de 3070 prima mee, net als mijn 1070 dat nu nog doet. Want weet je, niet iedereen hoeft per se alles op 4K Ultra te draaien.
Ik speel nog 1080P op een GTX960, dus alles is in dat opzicht al een goede upgrade, maar ik reageer op de subtitel, high-end prestaties. Voor mijn gevoel is high-end gamen zonder compromis ten aanzien van fps en beeldkwaliteit op 4K.

Iedereen moet natuurlijk zelf de afweging maken wat goed genoeg is, en inderdaad zal niet iedereen alles op ultra 4K willen spelen, maar een kaart die net uitkomt, bij courante spellen al de 60 fps op 4K ultra niet haalt, is naar mijn idee geen high-end
De titel slaat op het feit dat hij even snel is als de 2080Ti en minder dan de helft zo duur, niet op high-end gamen an sich.
Voor mijn gevoel is high-end gamen zonder compromis ten aanzien van fps en beeldkwaliteit op 4K.
In andere markten is high-end niet alleen de aller beste, maar alles aan de bovenkant van de markt, dus waarom dat nu ineens anders doen? De RTX 3070 is duidelijk de bovenkant van de markt aangezien niet heel veel mensen 500 voor een GPU neer willen leggen en de kaart qua game performance in de top 3 snelste game kaarten op de markt staat. Dus de 3070 lijkt me dan wel een high-end game GPU.

Maar goed, als we jouw definitie aanhouden is alleen de RTX 3090 high-end en moet je dan gamen op 8K Ultra, niet 4K Ultra.

[Reactie gewijzigd door Thekilldevilhil op 28 oktober 2020 11:24]

Voor mijn gevoel is high-end gamen zonder compromis ten aanzien van fps en beeldkwaliteit op 4K.
Rare zin, mist er iets? Maar los daarvan, 'het gevoel van aouwe' en 'wat wel/niet high-end is' staat v.w.b. feitelijkheid (is) uiteraard compleet los van elkaar. 'High-end' is hoe dan ook een rekbaar begrip en daarmee altijd aan interpretatie onderhevig. Als ik zeg dat 8K@60fps (of 1440p ultrawide @ 240 fps, of letterlijk 'wat dan ook' flink hoger dan gemiddeld...) voor mijn gevoel nu het minimum is voor high-end gaming is dat net zo waardevol (of waardeloos?) in een discussie.
Enige minpuntje; de voedingsconnector in het midden van de kaart. Dat is qua bekabeling toch niet heel handig.
Wel veel beter dan aan het uiteinde van de kaart. In dat opzicht is het wel iets beter. Maar ideaal is het zeker niet.
Meestal zitten de mogelijkheden tot fatsoenlijk cable management aan de rechterkant van het moederbord of in de onderkant van de kast. Er loopt dus altijd een kabel voor of over je GPU heen, ook als je hem verticaal monteert. Ik heb een GTX 1080 nu verticaal gemonteerd en ik kan de kabel (op de connector na) compleet verbergen.

Als je looks belangrijk vindt is het gewoon een minpunt, maar ik kan het goed begrijpen als men dat niet met mij eens is.
Ja ik deed vroeger wel aardig wat itx builds en kleine formfactors. Dan is uiteinde verbinding weer een paar MM erbij op die enorme kaarten. Argh! Maar ik begrijp je punt.
Op die manier ziet het niet in de weg voor de airflow, als je deze recht door het midden, tussen de twee ventilatoren naar achteren plaatst. Of het praktische is dan aan de achterkant dat weet ik niet, maar ik vindt het niet eens zo heel erg slechte plek.

[Reactie gewijzigd door Andyk125 op 27 oktober 2020 14:25]

Tweede minpuntje: toch weer minder zuinig dan zijn voorganger. Scheelt weer 30W.

Natuurlijk ook een stuk sneller, maar ik had liever nog wat meer focus op efficiëntie gezien.
derde minpuntje: het ding is spuuglelijk.
edit: belangrijker: maar 8 Gb vram

[Reactie gewijzigd door PommeFritz op 27 oktober 2020 15:46]

Voor 500 euro haal je dus heel wat power in huis, maar ik kan daar niet zoveel geld aan uitgeven, doet teveel pijn in mijn portemonnee. Vlak voor de RTX 3000 serie release heb ik een RTX 2060 gekocht, het meeste geld dat ik ooit in een gpu heb geïnvesteerd. In het verleden had ik te lang gewacht totdat de videokaarten afgeprijsd waren waardoor ze opeens niet meer leverbaar waren of opeens vreemd genoeg duurder werden.
En ik moest echt een ander kaartje hebben omdat ik onverwachts was geupgrade naar een 4k scherm (was een mooie deal), met mijn gtx 960 kon ik alleen de sims 4 op ultra en (tot mijn grote verbazing) gta 5 op normal settings mee spelen.
Hopelijk krijg ik geen spijt van mijn keuze, maar we moeten nog even afwachten tot de kaartjes in het lagere segment worden gepresenteerd.

[Reactie gewijzigd door the_leonater op 27 oktober 2020 14:26]

je had beter kunnen wachten tot na de introductie en bijvoorbeeld op Black Friday je slag te slaan er komen leuke deals aan.
Tja, en zo kun je natuurlijk altijd wel blijven wachten..
De 2060 Super FE is mijn duurste tot nu toe (€425) en ik vind dat eigenlijk al nauwelijks meer mainstream te noemen, terwijl de review de 3070 van €500+ als "efficiënte mainstreamer" bestempelt. Ik zie dat toch echt als de onderkant high-end...ik zou zelf rond de €450 de grens trekken tussen bovenkant mainstream en onderkant high-end.

Nou moet ik wel zeggen dat ik een 4K scherm ook geen mainstream vind...1080p is er nog heel veel, maar 1440p is tegenwoordig prima betaalbaar, die beschouw ik op dit moment als mainstream resolutie. De 1060 was de eerste kaart die over het algemeen de 60 FPS op 1440p wel heel dicht benaderde, de 2060 komt er altijd wel boven. Wil je 4K gaming doen op redelijk frames, zal je toch in het high-end segment GPUs moeten kijken.
Ik heb een philips BDM4037U voor 250 euro op de kop kunnen tikken, een 40'' curved 4K monitor uit 2017.
IVM ik mijn game pc ook als werk pc gebruik, had ik die extra bureaublad ruimte gewoon nodig.
Dit betekende wel dat mijn GTX960, die altijd prima op full hd resoluties werkte, met pensioen kon.
Ik heb nog een maandje een AMD RX570 gehad met 8gb, maar dat was het toch ook niet helemaal.
Uiteindelijk bood de RTX2060 het meeste waar voor mijn geld, ik heb nog getwijfeld om voor de GTX1660TI te gaan, maar dat is een te groot risico ivm de restwaarde voor verkoop omdat mijn RTX2060 nu al op het randje is wat 4k betreft, dus heb ik besloten om voor dat prijsverschil van 30 euro maar voor een RTX te gaan.
Tja, die RTX gaat het verschil niet maken, dat kun je toch niet aanzetten met een 2060 op 4K. Voordeel van 4K is wel dat je bepaalde settings omlaag kan gooien omdat het er toch wel mooi uitziet door de extra pixels. Maar voor 60 FPS+ op 4K met ultra settings, ja, dan gaat de kaart waarschijnlijk een stuk meer kosten dan het scherm. Aan de andere kant is er met een redelijk budget prima te gamen op 4K, alleen dan niet op Ultra settings.
Met monitoren is het inderdaad je eigen keuze, nog prima te doen op 1080p/1440p voor een schappelijke prijs. Voor TV's is 4K echter wel mainstream. Dus wil je daarop gamen zul je een high-end GPU nodig hebben, of genoegen nemen met een lagere resolutie maar dat is toch een beetje zonde. Met 4K is de markt in een aantal jaren toch een beetje scheef getrokken (video vs. gaming) en je ziet nu pas echt goede oplossingen zoals DLSS 2.0. Moest ook wel want de nieuwe consoles kwamen eraan en die moeten wel werken op 4K (althans de klant moet het gevoel hebben dat zijn mooie TV ten volste benut wordt door zijn console). En nu kan Nvidia geen 1500 euro meer vragen voor die exclusiviteit, want een console van 500 euro kan het ook (redelijk).

[Reactie gewijzigd door Blackice09 op 27 oktober 2020 22:25]

de 2070 super zit nu nog rond de 500, beetje minder soms. Ik ben heel benieuwd of 500 de prijs wordt, zou best meer kunnen zijn.
Door de leveringen zal het evt al duurder beginnen, maar ook de 3080 begon vrij laag en is toen vrij snel gestegen. Ben je 1 van de eerdere kopers heb je grote kans dat je hem nog voor vrij goedkoop kan krijgen.
Mja afwachten hoe goed de leveringen zijn natuurlijk.

Echter als de leverbaarheid goed is ben ik benieuwd wat het met de markt gaat doen.
Immers een 2080Ti heeft wel meer geheugen, maar presteert ongeveer gelijk. Dus waar prijs je die kaart dan?
Wow sta versteld hoe een ENORME stuk minder stroom de opgenomen vermogen ingames zijn met de GeForce RTX 3070 Founder, met max 215w, dat is 103w minder dan de GeForce RTX 3080 Founder, en de GeForce RTX 3070 Founder gebruikte bij Guru3D 208w, en de GeForce RTX 3080 Founder gebruikte 338w.

En de GeForce RTX 3070 is in sommige spellen maar ietsjes sneller dan de GeForce RTX 2080 Ti, maar dan voor bijna 1 derde van de prijs wat de GeForce RTX 2080 Ti koste toen die uit kwam.
En de GeForce RTX 3070 is in sommige spellen maar ietsjes sneller dan de GeForce RTX 2080 Ti, maar dan voor bijna 1 derde van de prijs wat de GeForce RTX 2080 Ti koste toen die uit kwam.
Ik sta er versteld van hoe blind bepaalde mensen staren, kijk eens naar de prijzen en positioneringen grafiek in de inleiding. De 2080Ti schiet er ruim voorbij, omdat men dacht dat Raytracing het helemaal ging worden en mensen daar wel even een premium voor gingen betalen. Ook het gebrek van concurrentie heeft niet meegeholpen, maar de prijs van de 2080Ti was gewoon belachelijk t.o.v. de vorige generaties.

Je kunt het zien als geweldig waar voor je geld, of je kunt het zien hoe Nvidia de consumenten de afgelopen jaren een oor heeft aangenaaid met hun belachelijke prijzen. Maar zolang mensen het kopen en er geen concurrentie is op dat niveau kunnen ze doen wat ze willen. Maar om nu net te doen alsof Nvidia de kaart voor een prikkie aanbied gaat mij te ver. De prijs zal hoger liggen dan die van een complete next gen console. vindt je het dan nog steeds goedkoop?

Edit: de waarheid mag ook niet eens meer gezegd worden zonder dat je door fanboys gedwonmod wordt. |:( reageer dan gewoon met een goed onderbouwde reactie.

[Reactie gewijzigd door Andyk125 op 27 oktober 2020 14:59]

Mensen realiseren zich niet dat de chip die's van de 20XX series veel groter waren door de RTX en Tensor cores in vergelijking met hun voorgangers en daardoor dus letterlijk de chips een heel stuk duurder zijn om te produceren. Mensen missen dus eigenlijk een beetje de inzichten om een goed oordeel te kunnen vellen. Of RTX het afgelopen 2 jaar de beloftes heeft waargemaakt valt te discusseren, uiteindelijk gaan de aankomende consoles allemaal iets met raytracing doen dus naar mening wel. Maar de prijs is te rechtvaardigen enigzins. 7.2miljard transistoren voor de Geforce 1080 versus 13.6 voor de 2080. Dat is dus bijna een verdubbeling.
Productieprocessen verbeteren ook en worden geautomatiseerd. Ik weet niet in hoeverre jij inzichten hebt in productiekosten van de kaarten, maar ik geloof nergens dat dit in verhouding staat met de prijsverhoging.
Je betaald voor de nieuwe techniek en de ontwikkelingskosten, maar dit is bij elke nieuwe generatie het geval. En Nvidia kon vragen wat ze willen in het top segment want er is gewoon geen concurrentie.

RTX heeft zijn beloftes totaal niet waargemaakt, net zoals al die games die uit zouden komen volgens Nvidia met ondersteuning van ray tracing. De games die het wel hebben werden vooral door Nvidia ondersteund om ervoor te zorgen dat er in ieder geval titels waren die het ondersteunen. Het prestatieverlies met ray tracing weeg niet op tegen het minimalistische grafische pracht die je er voor terug krijgt.

Raytracing is daarbij niet een nieuwe techniek, ja Nvidia heeft het mogelijk gemaakt om dit op thuis pc's in real time te kunnen gebruiken. Maar de implementatie ervan is nog steeds beperkt. Ontwikkelaars moeten nog steeds trucjes verzinnen om het te kunnen schalen zodat de prestaties niet te veel naar beneden gaan.
Productieprocessen verbeteren ook en worden geautomatiseerd. Ik weet niet in hoeverre jij inzichten hebt in productiekosten van de kaarten, maar ik geloof nergens dat dit in verhouding staat met de prijsverhoging.
Je betaald voor de nieuwe techniek en de ontwikkelingskosten, maar dit is bij elke nieuwe generatie het geval. En Nvidia kon vragen wat ze willen in het top segment want er is gewoon geen concurrentie.
De wafers zijn naar mijn weten net zo duur gebleven de laatste jaren en daar is geen winst in geboekt en het productie process was niet enorm verbeterd tussen de 10XX en 20XX series.
RTX heeft zijn beloftes totaal niet waargemaakt, net zoals al die games die uit zouden komen volgens Nvidia met ondersteuning van ray tracing. De games die het wel hebben werden vooral door Nvidia ondersteund om ervoor te zorgen dat er in ieder geval titels waren die het ondersteunen. Het prestatieverlies met ray tracing weeg niet op tegen het minimalistische grafische pracht die je er voor terug krijgt.
Minimalistisch wil ik het zelf niet noemen, het toont alleen aan hoe goed bijvoorbeeld screen space reflections etc het konden faken maar het is een doodlopend spoor, raytracing niet.
Raytracing is daarbij niet een nieuwe techniek, ja Nvidia heeft het mogelijk gemaakt om dit op thuis pc's in real time te kunnen gebruiken. Maar de implementatie ervan is nog steeds beperkt. Ontwikkelaars moeten nog steeds trucjes verzinnen om het te kunnen schalen zodat de prestaties niet te veel naar beneden gaan.
Dit heeft denk ik ook niemand beweerd.
[...]


Ik sta er versteld van hoe blind bepaalde mensen staren, kijk eens naar de prijzen en positioneringen grafiek in de inleiding. De 2080Ti schiet er ruim voorbij, omdat men dacht dat Raytracing het helemaal ging worden en mensen daar wel even een premium voor gingen betalen. Ook het gebrek van concurrentie heeft niet meegeholpen, maar de prijs van de 2080Ti was gewoon belachelijk t.o.v. de vorige generaties.

Je kunt het zien als geweldig waar voor je geld, of je kunt het zien hoe Nvidia de consumenten de afgelopen jaren een oor heeft aangenaaid met hun belachelijke prijzen. Maar zolang mensen het kopen en er geen concurrentie is op dat niveau kunnen ze doen wat ze willen. Maar om nu net te doen alsof Nvidia de kaart voor een prikkie aanbied gaat mij te ver. De prijs zal hoger liggen dan die van een complete next gen console. vindt je het dan nog steeds goedkoop?

Edit: de waarheid mag ook niet eens meer gezegd worden zonder dat je door fanboys gedwonmod wordt. |:( reageer dan gewoon met een goed onderbouwde reactie.
Ik staar niet blind naar de GeForce RTX 3070, ik koop hoogst waarschijnlijk geen eens een Nvidia grafische kaart als die van AMD de Radeon RX 6800XT tussen de GeForce RTX 3070 en de GeForce RTX 3080 in komt te zitten, en een stuk goedkoper is dan de GeForce RTX 3080, dan ga ik zeker weten voor de Radeon RX 6800XT, maar dat zullen we morgen allemaal zien.

En ik doe ook niet net of Nvidia ze voor een prikkie aan bied, want dat doen ze niet, maar dat AMD nu eindelijk bijna gelijk komen met hun Grafische kaarten zorgt weer wel dat de prijs hoogstwaarschijnlijk eindelijk weer redelijk normaal gaan woorden bij Nvidia, en ik staar niet blind op een merk.

En waarom ga je nou weer Game-PC (onderdelen) vergelijken met consoles, dat is zo stom, iedereen weet dat een Console goedkoper is, daarvoor kopen we niet een Game-PC.

[Reactie gewijzigd door AmigaWolf op 27 oktober 2020 15:13]

Ik zeg ook nergens dat je de kaart zou kopen of blind zou staren op een merk. Maar je vermeld wel dat de prijs maar voor 1/3 is van de prijs waar de RTX 2080Ti voor uit kwam. Hoewel ik het helemaal mis kan hebben, maar ik neem aan dat je daarmee bedoelt dat je voor weinig geld veel krijgt in vergelijking met de RTX2080TI. En dat is nou juist mijn punt, dit is niet eens eerlijk vergelijkingsmateriaal want de RTX2080TI was gewoon extreem duur, helemaal als je het vergelijkt met vorige generaties.

Ik maak de vergelijking met een console, omdat er genoeg gamers zijn die straks de keuze gaan maken tussen een next gen console, of eventueel wel een nieuwe grafische kaart. voor de RTX 2xxx kaarten zaten de mid-range kaarten van Nvidia altijd rond de €400,- wat goedkoper is dan een console, maar de prijzen zijn tegenwoordig al ruim boven de €500,- wat voor mij persoonlijk geen mid-range meer is. Als de consoles straks makkelijk 4k gamen mogelijk maakt dan bieden die gewoon veel en veel meer waar voor hun geld.
4K gaming op consoles voor 500 euro komt vooral neer op lage framerates en/of upscaling. De 3070 en 3080 zijn zoveel krachtiger dan de PS5. Of jij dat nodig hebt mag je zelf bepalen. Consoles worden ook tegen kostprijs verkocht, videokaarten met winst. Daarnaast natuurlijk het grote gebrek aan functionaliteit en flexibiliteit vergeleken met een PC. Ik heb alleen daar al een meerprijs voor over.

[Reactie gewijzigd door Blackice09 op 27 oktober 2020 19:44]

Ik vindt het al knap dat je weet hoe hoog de framerates op 4K zullen zijn op de next gen consoles. Men heeft hier verschillende uitspraken over gedaan en heeft laten weten dat 60 fps gewoon mogelijk is voor bepaalde games. Waar in mijn opmerking haal je er uit dat ik zeg dat de RTX 3070 niet krachtiger is dan de grafische kaart in de Playstation 5? Maar alleen maar rekenkracht is niet alles, kijk eens naar de kwaliteit die men nog uit de huidige consoles kan halen met erg verouderde hardware.

Daarbij ben je bij de console helemaal klaar voor gamen, met alleen een grafische kaart niet. Men heeft al aangegeven dat men toch een recente CPU moet hebben wil men optimaal gebruik maken van de snelheid van de nieuwe GPU’s. Toch iets om rekening mee te houden.

De functionaliteit van een pc heeft men niet nodig anders kocht men wel een computer. Ik speel toevallig op beide platforms, maar dat moet iedereen toch zelf uitmaken. Daarbij worden consoles bij de launch zelfs met verlies verkocht. Mensen die van mening zijn dat de hardware veel slechter is zal zich eens wat meer moeten verdiepen in een console. Juist door de grote aantallen en het gebrek aan verschillende configuraties kan men deze voor zulke lage prijzen aanbieden. Wil je de hardware met die van desktop pc’s vergelijken dan zit je al snel boven de 1000 euro.
Je zegt het zelf: iedereen moet het zelf uitmaken. De 3070 is krachtiger en wordt met winst verkocht, dus kost meer, dat is gewoon logisch. Als we kijken naar de PS4 Pro dan zien we al verschillende trucs om 4K gaming mogelijk te maken. Als een 3070 maar net de 60fps haalt op Ultra settings dan zul je concessies doen op een console. Als we het over 4K gaming hebben kun je zelfs een 3080 prima combineren met een AMD 3600 van nog geen 200 euro en een bijpassend moederbord van rond de 100. De 3600 is enigzins recent maar zeker niet duur. Beetje RAM erbij en je hebt een PC voor rond de 1000 euro die op 4K ultra 60 fps haalt zonder DLSS of raytracing. Dat was vorig jaar nog high-end.

[Reactie gewijzigd door Blackice09 op 27 oktober 2020 20:04]

Laten de we 3070 in deze vergelijking er ff bij nemen:

cpu - ~200,-
gpu - ~500,-
mem - ~100,-
mobo - ~100,-
psu - ~80,-
ssd - ~50,-
kast - ~80,-
muis - ~20,-
toetsenbord - ~40,-
headset/speaker - ~50,-
windows - 145,-

Totaal: ~1365,-

Monitor reken ik niet mee, console heeft immers ook een tv nodig, maar die tv komt wel meteen met speakers ingebouwd vaak.

Maar.... 1365 of 500 voor het hele "4k gaming" pakket? En dan ook nog eens half, zo niet minder, het stroom verbruik? Ook nog eens minder storage dus daar komt nog eens een lading boven op in kosten wil je dat uitbreiden. hmmmmmm |:(
Dan ga je ervan uit dat je nooit een PC hebt gehad. Dat is inderdaad een grotere investering. Maar de laatste vier items kunnen voor de meesten er wel af. Zelf ook mijn huidige kast en opslag ook al voor meerdere systemen gebruikt. En als ik een upgrade doe verkoop ik het oude spul en krijg ik weer wat terug. Games zijn ook vaak goedkoper dan op console, en veel meer keus. Maakt ook niet uit, voor ieder wat wils. Ik zou mezelf niet beperken door alleen een console te kopen waar een PC voor zoveel meer gebruikt kan worden.

[Reactie gewijzigd door Blackice09 op 27 oktober 2020 22:05]

En je configureerd hier een systeem wat dus op papier veel sneller dan de ps5. 100 euro voor geheugen, 16gb dus, dan nog 8gb video ram erbij. Dat biedt dus meer. Een gpu dat een heel pak sneller is etc. Dat in een machine dat je kan uitbouwen en meer kan dan alleen gamen.
Tis niet veel sneller. 6 cores ipv de 8 in de console, wss iets betere gpu prestaties voor de pc, 16gb ram idd, maar is ddr terwijl de consoles geheel op gddr draaien, geoptimaliseerde ssd in de consoles tegen een generieke in de pc.... beide kanten hebben voor en nadelen, al met al denk ik dat het redelijk vergelijkbaar zou zijn.
Iets betere GPU prestaties voor de PC? Maak daar maar een flink pak van.

GDDR6 heeft meer latency maar hogere throughput, het is dus nadeling voor game logic, voordelig om je textures er in te knallen. SSD performance wordt aangepakt door middel van de Directstorage API in Windows, dezelfde API dat zij voor de Xbox Series X gaan gebruiken.

De aangekondigde consoles zitten qua GPU performance rond de Geforce 2070 Super niveau volgens een Epic medewerker welke vragen had beantwoordt rondom de performance op de PS5, de Xbox series X is misschien een tikkeltje sneller. De 2070 Super zou sneller moeten zijn dan wat er in de PS5 te vinden is. Dat is nu 2 jaar oude technologie.

PC's prijziger maar veelzijdiger, games zijn goedkoper. Consoles hebben vooral een plek dat het compromis goed gemaakt wordt door de inleg kosten. Maar praten alsof de prestaties vergelijkbaar zijn is niet helemaal correct omdat de propositie anders is.
Het is al meerdere malen aangekaart dat met name de xsx een gpu prestatie heeft van tussen de 2080/2080ti.
Dat is een aanname gebasseerd op de TFLOPS en de prestaties van Gears5 wel in de tussentijd flink geoptimaliseerd is geweest. Het is echt geen 2080TI achtige GPU wat er in zit.
Laten de we 3070 in deze vergelijking er ff bij nemen:

cpu - ~200,-
gpu - ~500,-
mem - ~100,-
mobo - ~100,-
psu - ~80,-
ssd - ~50,-
kast - ~80,-
muis - ~20,-
toetsenbord - ~40,-
headset/speaker - ~50,-
windows - 145,-

Totaal: ~1365,-

Monitor reken ik niet mee, console heeft immers ook een tv nodig, maar die tv komt wel meteen met speakers ingebouwd vaak.

Maar.... 1365 of 500 voor het hele "4k gaming" pakket? En dan ook nog eens half, zo niet minder, het stroom verbruik? Ook nog eens minder storage dus daar komt nog eens een lading boven op in kosten wil je dat uitbreiden. hmmmmmm |:(
Overdrijven is ook een kunst bij je zie ik.

Aerocool Prime-G-BK-v2 Zwart Midi Tower Behuizing
Seasonic Core Gold GC 650 PSU / PC voeding
Gigabyte B550M DS3H moederbord
AMD Ryzen 5 3600 processor
Corsair DDR4 Vengeance LPX 2x8GB 3200 C16 Geheugenmodule
Gigabyte AORUS Gen4 1TB M.2 SSD
Logitech Desktop MK330 Qwerty US
GeForce RTX 3070

Totaal €1100

En als je de Gigabyte AORUS Gen4 1TB M.2 SSD vervang met de Intel 665P 1TB M.2 SSD ben je:

Totaal €1000 kwijt.

En Windows 10 Professional CD Key koop je voor heel weinig legaal bij veel winkels.

En een headset/speakers hoor je niet er bij te rekenen, aangezien die ook niet bij een Console zit.

Dat is al weer €350 goedkoper dan wat jij totaal opgaf.

En de Xbox Series X zal ook niet zuinig wezen, de Xbox One X gebruikte al 172W bij spellen, en dat zal bij de Xbox Series X weer een stuk hoger zijn.

En de opslag is bij de Xbox Series X ook 1TB M.2 PCI-e 4.0 x4 SSD, niks meer dan in een PC die ik boven aan gaf.

[Reactie gewijzigd door AmigaWolf op 29 oktober 2020 00:08]

Bij gebrek aan beter kon Nvidia idd bruut hoge prijzen vragen. Daarom heb ik sinds de gtx970 (heb sli opstelling) geen upgrade gedaan, vond het simpelweg te duur. Nu begint het toch weer aantrekkelijk te worden (500 euro is nog wel toe doen, mss over ene half jaartje wat minder) (al vraag ik me af in hoeverre de processor etc. niet de bottleneck wordt, 3570k)
Heb hier ook een 3570k die jaren terug op 4.6 GHz is vastgezet. Best value ooit. Voor huidige games verwacht ik met de RTX3070 weinig tot geen CPU bottleneck op 4K / 60 FPS. Meer FPS op 1440p wordt wel een probleem. Komend jaar zullen er meer games komen die baat hebben bij een octacore, dan ga ik rustig kijken naar een nieuw Intel of AMD platform. Kijk nu ook de GPU frenzy nog even toe, heb liever een goed uitontwikkelde chip (yield) en kaart.
Ik zou er niet teveel van verwachten. Ookal draai je die CPU op 5GHz, het blijft een oud beestje van 22nm met een kleine cache en traag geheugen, en die zal behoorlijk last krijgen op 4K. Ik heb mijn 4670K vervangen door een 3600 omdat die toch behoorlijk begon te kraken op hogere resoluties (weliswaar icm een 1070Ti, geen 3070). Ik gok dat het met een I5 3570k vs Ryzen 3600 zo'n 10-15% FPS verschil maakt op 4K.

[Reactie gewijzigd door Blackice09 op 27 oktober 2020 20:19]

Klopt, voor mij is ~10% lagere FPS in 4K te doen voor komend jaar. Kan die 12 jaar oude HX620 voeding ook nog laten zien wat hij ooit waard was, nooit aan SLI toegekomen. Eind 2021 heb ik wel een knappe dodecacore die weer >8 jaar meekan net als de legendarische 3570k 8-)
Ik begrijp het nog niet helemaal, is de 3070 vandaag vrijggegeven, of toch pas op 29 okt.?
De kaarten zijn te koop vanaf de 29e, de reviews mochten vandaag om 14:00 worden gepubliceerd.
De release is verplaatst na AMD keynote, om op het laatste moment nog de prijs omlaag te kunnen schoppen indien nodig.
De reviews zijn voor vandaag vrijgegeven, om voor in het gunstigste geval (dat er geen goedkoper alternatief zou zijn van AMD), mensen te laten wachten als morgen AMD direct in de verkoop zou gaan.
Prijzen zullen niet naar beneden gaan verwacht ik. AMD kondigde zijn release van de RX6900 aan (8 oktober) nadat de datum van de 3070 is verzet (Delay RTX 3070 the Verge). Dit lijkt er bij mij dus meer op dat AMD gebruik heeft gemaakt van de problemen van NVIDIA en hierop heeft gereageerd. Is natuurlijk ook afwachten wanneer de kaarten van AMD beschikbaar zijn om te bestellen.
ook natuurlijk geniaal van Nvidia, vandaag reviews van de RT3070 Founders edition, en 2 dagen later weer reviews van de Aftermarket RTX3070, zo houden ze de focus op hun eigen producten over meerdere dagen en is natuurlijk een mooie stoorzender voor de RX6xxx Serie die AMD gaat aankondigen
Concurrenten proberen elkaar altijd af te troeven. De ene keer is het aandacht afleiden (zoals bij AMD en Nvidia nu), de andere keer een naam van de concurrent kapen (zoals AMD die plots een chipset x399 noemt, na Intel's x99 en x299). Als je Nvidia als "pestkop van de klas" ziet zegt dat volgens mij veel meer over je eigen denkbeeld en voorkeur dan over Nvidia.
Tsja ben je het hele gameworks debacle vergeten? Ze gebruiken vaker slinkse methoden van marketing en vaak vind ik het manipulatief. De x399 chipset van amd ken ik niet eens. Dat valt echt in de marge ivm wat intel en nvidia flikken.
Als AMD ergens goed in is, is het wel mobiliseren van hun meer extreme fans. In elk willekeurig Nvidia artikel, je ziet keer op keer op keer de zelfde mensen die alles wat met Nvidia te maken heeft zo negatief mogelijk willen zien/draaien, en alles wat AMD doet met de mantel der liefde bedekken. En daar enorm veel tijd besteden. En genoeg mensen die gevoelig zijn voor dat overdreven negatieve gedrag worden daar in meegenomen. Zo blijft "het gameworks debacle" nog jaren iets waar je op terug kunt vallen, zonder enige nuance.
Tsja, ik denk dat je exact hetzelfde kan zeggen van de nvidia fans.

Ik vind nvidia echt de über van de hardwarebedrijven. Dubieuze marketing, gekke incentives, enorme prijzen en winstmarges.

Amd doet echt niet alles goed, zo hebben ze met vega rare keuzes gemaakt en ook de rdna1 drivers waren niet op tijd af. Ik heb nu een 1080ti maar zou graag weer over naar AMD. Heb ook altijd veel AMD videokaarten gehad in het verleden. Hoop dat Intel erbij komt, dat we straks weer 3 partijen hebben voor high end gpu's.

Gameworks is echt niet het enige, het is wel een van de duidelijkere illustraties van hoe nvidia zaken denkt te moeten doen.

[Reactie gewijzigd door SpiceWorm op 28 oktober 2020 12:46]

Dat kun je zeggen, maar het is niet waar. Er is een groot verschil tussen geen AMD kopen totdat ze zich bewezen hebben met drivers voor een generatie of twee, of je best doen aan alles wat Nvidia doet een negatieve draai te geven. Ik zie eigenlijk niemand die een negatieve draai aan AMD nieuws probeert te geven.

Ik ben persoonlijk geen fan van doorgeslagen kapitalisme, maar winst marges is iets raars om een specifiek bedrijf op aan te kijken. Winst marges optimaliseren is het doel van alle bedrijven. Dat is AMD ook aan het proberen, en dat lukt ook aardig. En als AMD dat doet is iedereen lyrisch.

Prijzen hangen af van de doelgroep. In het verleden was gaming iets voor jongere mensen met niet heel veel geld. Die generatie is nu ouder en voor genoeg mensen is gamen nog steeds een hobby, en is 1500 euro niet heel veel geld voor een hobby. Zolang er goede minder dure alternatieven zijn zoals 3080 zie ik het probleem niet. En zelfs als er een keer een generatie is die niet heel veel toevoegt, zoals 2000, zie ik het probleem ook niet zo. Kun je zonder problemen een keer een generatie overslaan.

Met marketing bedoel je waarschijnlijk die onzin waar het Nvidia kwalijk werd genomen dat ze geen marketing budget beschikbaar stellen voor merknamen die ook voor AMD producten gebruikt worden? Ik heb nooit begrepen waarom dat een probleem is.

En over gameworks... De meeste effecten werken prima op AMD GPUs, als de tessellation levels wat beperkt worden. Dat is een optimalisatie die game devs moeten doen, of een limiet die AMD in de drivers kan instellen. Alleen physx was in het begin echt een probleem. Maar sinds physx 3.0 draait dat prima op CPU, en dat is sinds 2011. Na 9 jaar is het tijd om dat een keer los te laten.
Ik zie eindeloos berichten van mensen die AMD in een negatief daglicht proberen te zetten.

Vwbt gameworks was het wel in de categorie, we betalen ontwikkelaars dik om een heel specifieke functie van onze kaarten te gebruiken, zonder dat dat dat er mooier uit ziet, maar gewoon omdat onze concurrentie er dan slechter opstaat. Je kan dat goedpraten met, oh dat kan je uitzetten, maar dat heeft best een tijd geduurd voordat we daar achter waren met elkaar. En al die tijd leek AMD gewoon trager.

Nee qua marketing bedoel ik alle marketing. Net zoals ze nu allemaal review embargo's opheffen rond de launch van AMD kaarten (is echt tactisch), dat ze zeggen "overspoeld zijn door de onverwacht hoge vraag" (oh echt had je verwacht dat in europa minder dan 1000 mensen 2x 2080 performance wilden voor 750€? Ik geloof dat niet, zeg gewoon eerlijk dat je er niet meer kan maken). In veel communicatie zit iets wat niet klopt, je weet gewoon dat je (gedeeltelijk) op het verkeerde been wordt gezet. Misschien komen daar de gefrustreerde reacties vandaan (ik weet dat ik het daarom doe, zo van, zie je dan niet dat ze ons proberen te bedotten).

Als een bedrijf een DSM label zou kunnen krijgen scoren ze hoog op narcisme denk ik.

[Reactie gewijzigd door SpiceWorm op 28 oktober 2020 15:05]

Eerste de beste artikel over AMD: reviews: AMD wil Xilinx: de strijd met Nvidia en Intel om datacenters en supe...
Ik zie niet tot nauwelijks iets negatiefs, en de ene reactie die twijfels uit over RND budget voelt zich genoodzaakt om daar bij de vermelden dat hij een AMD fan is.
Heb je 1 voorbeeld van een Nvidia nieuws artikel zonder gezeur over Nvidia?

En Gameworks is gemaakt om sterke punten van Nvidia uit te buiten. Net zoals Tressfx is gemaakt om de sterke punten van AMD uit te buiten. Ook Tressfx had in het begin een veel sterkere invloed op FPS van Nvidia, en het heeft zeker niet heel lang geduurd voordat duidelijk werd dat de zwakkere tesselation de oorzaak was van lagere FPS bij gebruik van hairworks op AMD GPUs. Beide bedrijven sponsoren devs om spellen voor hun tech te optimaliseren. Waarom is dat alleen bij Nvidia een probleem?

Over beschikbaarheid van 3080 heb ik geen relevante cijfers gezien. Wat is de totale vraag en productie? En hoe verhoud zich dat tot eerdere generaties? Dat hele "ze liegen" en "ze doen het gewoon expres" is volgens mij alleen maar gebaseerd op onderbuik gevoelens, of hoogstens geruchten. De reden waarom dit met de 3080 zo hoog oploopt is volgens mij alleen maar dat de vraag veel hoger is dan GPUs/CPUs die in het verleden moeilijk verkrijgbaar zijn geweest.
Want amd deed niet hetzelfde met benchmarks te releasen net na de release can de 3080?
'net na' ?

01/09/20 : officiele aankondiging RTX 3000
17/09/20 : Start verkoop RTX 3080
24/09/20 : Start verkoop RTX 3090

08/10/20 : teaser RX6000

27/10/20 : opheffen embargo RTX 3070 FE
28/10/20 : officiele aankondiging RX6000
29/10/20 : Start verkoop RTX 3070
**/**/20 : opheffen embargo RTX 3070 AIB
**/**/20 : start verkoop RTX 3070 AIB

De data rond opheffen embargo én start verkoop 3070 FE werden bovendien ook verplaatst NADAT AMD 28/10/20 had aangekondigd als datum waarop de RX6000 uit de doeken word gedaan.

Lijkt me duidelijk dat Nvidia elke vuile truuk uit de kast haalt om AMD's launch te dwarsbomen. Beetje triest als je het mij vraagt.
De RX6XXX serie was geteasted mid september

https://www.anandtech.com...x-6000-video-card-picture


De eerste benchmarks verschenen rond het moment van hun Zen 3 presentatie.

[Reactie gewijzigd door ZeroNine op 27 oktober 2020 23:54]

Om heel eerlijk te zijn zie ik het als iets willen zien omdat je het merk gewoon neit ziet zitten. Kan ook andersom gezegd worden dat AMD de RX serie ging aankondigen net rond het tijdstip dat Nvidia zijn launch had wat al in Augustus aangekondigd was. Alle bedrijven in deze industrie proberen de overhand te krijgen. Nvidia doet dit, AMD doet dit.

Was overigens niet alleen die foto, ze releasden ook met mondjesmaat benchmark resultaten voor games als COD MW op 4K.

[Reactie gewijzigd door ZeroNine op 28 oktober 2020 00:33]

1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee