Door Julian Huijbregts

Nieuwsredacteur

Radeon RX 5700 en 5700XT Review

Serieuze concurrent in het middensegment

07-07-2019 • 15:00

181

Singlepage-opmaak

Conclusie: serieuze concurrentie

AMD is in zijn missie geslaagd. Met de RX 5700 en 5700XT op basis van de Navi 10-gpu heeft de fabrikant de RTX 2060 en 2070 van Nvidia in het vizier genomen, en de nieuwe Radeon-kaarten verslaan die kaarten zoals beloofd. De nieuwe videokaarten zijn erg geschikt voor gamen op een 1440p-resolutie. Bij die resolutie in combinatie met Ultra-settings zijn de RX 5700-kaarten op hun best. Het verschil met de RTX Super-kaarten is hier klein en de kaarten draaien de meeste games probleemloos vloeiend met minimaal 60fps.

Het feit dat Nvidia intussen alweer snellere Super-versies van zijn RTX 2060 en 2070 uitbracht, maakte het verhaal wat complexer. De Super-kaarten zijn gemiddeld iets sneller dan de tegenhangers van AMD, maar ook duurder. Zeker nu AMD vlak voor de release de adviesprijzen van de RX 5700-kaarten naar beneden heeft bijgesteld, is het prijsverschil flink.

Met een prijs van 439 euro staat de RX 5700XT tegenover de RTX 2060 Super die 424 euro kost. Gemiddeld genomen is de Radeon-kaart zo'n tien procent sneller dan de GeForce tegenhanger. De 5700XT komt wat prestaties betreft dicht in de buurt van de RTX 2070 Super, die bijna honderd euro duurder is. Ook de RX 5700 biedt waar voor je geld, want voor 379 euro krijg je een kaart die zich goed kan meten met de GeForce RTX 2060 Super. Die Nvidia-kaart is gemiddeld een paar procent sneller, maar kost zo'n vijftig euro extra.

AMD biedt dus gelijkwaardige of betere prestaties voor minder geld, maar de RX 5700-kaarten hebben in tegenstelling tot de RTX Super-kaarten geen hardwarematige ondersteuning voor raytracing. Dat is nu nog geen heel groot nadeel, omdat er weinig games zijn die het ondersteunen, maar dat kan in de toekomst een ander verhaal worden. Ook AMD heeft al gezegd dat een volgende generatie van videokaarten raytracinghardware aan boord zal krijgen.

Met de introductie van de Navi-kaarten is het Vega-tijdperk voorbij. AMD blijft de Radeon VII wel verkopen, maar de 5700XT komt gevaarlijk dicht in de buurt van die 700-eurokaart. Alleen bij 4k-resoluties heeft de Radeon VII nog een duidelijk voordeel in games. De Vega 56 en 64 worden verslagen door zowel de Radeon RX 5700 als de 5700XT. De nieuwe kaarten zijn sneller en verbruiken véél minder dan de voormalige topmodellen.

Met zijn 7nm-gpu's gebaseerd op de RDNA-architectuur maakt AMD een overtuigende comeback in het prijssegment tot vijfhonderd euro. De twee kaarten die nu beschikbaar zijn hebben de concurrentiestrijd opgeschud en het is dan ook te hopen dat er snel meer Navi-kaarten uitkomen in zowel hogere als lagere prijsklassen, om ook daar de concurrentie aan te scherpen.

Lees meer

Reacties (181)

181
171
94
6
0
27
Wijzig sortering
Kan iemand mij uitleggen wat het nut van de duurtest is? Ik begrijp waarom het interessant is, als het zinvol gebracht wordt. Maar nu zien we de kloksnelheden na een uur. Ja joepie, en dus? Wat relevant zijn is de framerates na een uur. Er staat dat het elke seconde gelogd wordt, leuk, maar misschien ook die resultaten dan delen? Kunnen we ervan uitgaan dat in de benchmarks hij permanent op zijn boost clock draait? En gezien die een 8% hoger is dan de klok na een uur, dat we dus 8% van alle benchmark resultaten moeten aftrekken?

En ik begrijp wel dat alles langer stressen een heel karwei is, maar ik heb zelf liever minder benchmark resultaten als die dan wel accurater zijn, een 8% verschil is nogal significant. Of worden de benchmarks bij jullie testopstelling zo snel achter elkaar gedraaid dat hij wel warm blijft?

Want als ik de Super review erbij haal (reviews: Nvidia RTX 2060 en 2070 Super - Meer waar voor je geld dan begrijp ik uit de bewoordingen daar dat die wel stabiele klokfrequenties heeft. En als ze dus allemaal benchmarks krijgen nadat ze zijn afgekoeld, dan zijn de resultaten hier dus gewoon 8% te hoog vergeleken met de echte resultaten (waarbij ik de echte resultaten zie als wat je krijgt als temperatuur stabiel is geworden, immers maakt niemand het uit dat een kaart de eerste 5 minuten sneller draait).

Oké eerlijk is eerlijk, als de AIBs komen met fatsoenlijke koelers dan is dit probleem er hopelijk niet meer, maar ik vind dat er wel meer aandacht aan besteed had mogen worden.
Overigens andersom: Als benchmarks zo snel achter elkaar worden gedraaid dat de kaart warm blijft, dan zou een kaart met fatsoenlijke koeler dus een 8% sneller moeten zijn.

[Reactie gewijzigd door Sissors op 22 juli 2024 15:41]

Ik heb de tekst bij de duurtest nog wat aangevuld. De boostclocks die AMD opgeeft worden in deze praktijktest helemaal niet gehaald. AMD geeft ook zelf aan dat dit waarden zijn die alleen onder 'optimale omstandigheden' gehaald worden. Dat is ook de reden van de introductie van de Game Clock. Dat is de snelheid die je in de praktijk moet verwachten en dat blijkt ook te kloppen.

Gedurende de hele duurtest zijn er weinig grote schommelingen. De eerste paar seconden liggen de kloksnelheden iets hoger, maar dat is geen 8 procent. De 5700XT begint op 1817MHz en zit na een paar seconden al rond de 1800MHz. We doen de duurtest om te kijken of er extreme verschillen in de kloksnelheden optreden bij langdurige belasting. Dat is hier dus niet het geval.
Nuttige toevoeging, bedankt daarvoor. Dan weten we iig dat de benchmark resultaten wel redelijk nauwkeurig zouden moeten zijn voor ook als je een uur aan het gamen bent. Dan toch wel een verzoek voor toekomstige reviews (of deze al ;) ):
Tijdens de test monsteren we iedere seconde de temperatuur en de klokfrequentie van de gpu.
Dat is natuurlijk niet heel interessant voor ons als lezer, als jullie vervolgens alleen de laatste (gemiddelde) waarde geven. Zou een grafiekje niet veel interessanter zijn? Van temperatuur, fanspeed en klokfrequentie? Vergelijkbaar met bijvoorbeeld: https://www.techpowerup.c...md-radeon-rx-5700/34.html
Dat is relevant om te zien wat er gebeurd als de kaart goed wam loopt en of er dan throttling komt of niet, ik game meestal toch wel langer dan een uur en als een kaart na een uur (te) warm loopt heb je een probleem.
Uiteraard begrijp ik het idee erachter, maar de getallen zijn nietszeggend. We zien niet hoe het over de tijd gaat, we weten niet in welke situatie de benchmarks zijn gedraaid, en we weten niet welke invloed het op de framerate heeft.
Met wat software gooi je simpelweg gewoon de fan speed wat omhoog en de kaart zal nooit aan zijn max temp komen. Mijn 980ti draait rond de 80 graden als ik de fan speed van 23 naar 50% zet dan maakt de kaart weliswaar iets meer geluid maar de videokaart komt hierbij nooit meer boven de 60 graden ook niet na 4 uur spelen. Heb het overigens altijd raar gevonden dat videokaarten met stock settings altijd grijpen naar down throttle en nooit naar de fanspeed ophogen om koel te blijven. Voor constante max performance zal echter dus altijd handmatig aan de fanspeed gedraaid moeten worden
Toch jammer dat AMD wéér voor het middensegment gaat en dat ze steeds nét niet bij die top komen.
Ze proberen nu met de 5700XT de 2070RTX te verslaan maar ondertussen heeft Mvidia nog 2 topmodellen daarboven zitten.
Geen hardwarematige raytracing lijkt nu nog geen groot probleem maar een hoop toekomstige spellen krijgen daar wel ondersteuning voor.
Cyberpunk 2077, bijv. en daar lijkt me het met al dat neonlicht een mooie toevoeging en dat je dan nog maar 60-75 FPS haalt.. zolang het maar sneller is dan de refreshrate van de monitor, prima toch?

Het is het bij AMD vaak nét niet, erg jammer want ik ben opzich wel een AMD fanboy en ik zou graag zien dat ze de concurrent crushen, lukt ze nu met Intel oo redelijk mar Nvidia is kennelijk nog een stap te ver.
Er wordt schijnbaar nog aan een 'grote' Navi variant gewerkt, die in het hogere segment de strijd moet aangaan. Maar het gros van de markt koopt gewoon geen 700-1200 Euro videokaarten (en terecht, wat een absurde prijs..). Begrijpelijk dat AMD zich daarop richt dan; dat is een veel groter deel van de markt.

Buiten dat, heeft AMD hiermee zo te zien degelijke kaarten neergezet. Een betere value proposition dan de nieuwe Super kaarten - goed voor de consument. Éigenlijk zijn ze nog steeds te duur voor 'midrange' videokaarten, maar goed.

[Reactie gewijzigd door geez op 22 juli 2024 15:41]

Alles is relatief. De prijsrange die je noemt is toevallig ongeveer ook die van high end telefoons. Dan heb ik meer en veel langer plezier van een videokaart(telefoon is 600 uiterste max voor mij). Goedkoper is altijd fijner natuurlijk, maar ik vind het het geld dubbel en dwars waard. Maar ieder heeft daar zijn eigen mening ovet natuurlijk en dat is prima. :)

[Reactie gewijzigd door MN-Power op 22 juli 2024 15:41]

Uiteraard, je hebt volledig gelijk. Het is alleen jammer om te zien dat de pricerange zo verschoven is, van €200-ish midrange met €500-ish high end naar €400 midrange en €700-1200 high-end. Dit is puur het resultaat geweest van het feit dat AMD geen competitie kon bieden, en nu het de nieuwe status quo is, gaat AMD helaas ook mee hierin.. :'(

@EMR77 : Klopt, je laat je stem horen als consument met je portemonnee. Aan de andere kant, NVidia's GPU-omzet is gekrompen met bijna 50% als gevolg van teleurstelling in de RTX kaarten. Er is dus wel iéts gebeurd, maar te weinig.

[Reactie gewijzigd door geez op 22 juli 2024 15:41]

Ik wens AMD ook competitie op de high end gebied toe, dat is beter voor ons allen(nu heb ik helaas geen keuze). En ik hoop dat Intel volgend jaar ook met een knaller komt.

En bij telefoons de prijs het net zo hard verschoven, daar was 1200 euro 5 jaar geleden ook ondenkbaar...

[Reactie gewijzigd door MN-Power op 22 juli 2024 15:41]

Dat is het nu bij veel merken nog steeds hoor. Er is maar een handjevol uitschieters en je ziet dat die ook redelijk afgestraft worden. De verkopen bij Apple dalen niet voor niets. Er is genoeg betaalbaar alternatief en 200-300 toestellen zijn nog nooit zo snel en capabel geweest. De huidige 200-300 euro toestellen concurreren soms zelfs met de high-end toestellen van een jaar eerder.

Op GPU vlak zijn er maar twee spelers, waarvan ze nu beide een flinke prijs vragen en de segmenten hebben lopen rekken. Er was voorheen troep, midrange en high-end, nu zijn er veel meer tussensegmenten te vinden die allemaal veel duurder zijn. Ooit kocht je voor 200-300 euro een high-endje met iets minder renderdingen (HD7950 bijv.) en nu zijn er bij nvidia alleen al 5 alternatieven voor de duurste kaart.

Bij telefoons is er geen verschuiving, maar gewoon een paar merken die gek geworden zijn. Bij videokaartjes is er daadwerkelijk een verschuiving veel duurdere kaarten.
Maar de consumenten bleven massaal overpriced kaarten kopen van Nvidia 8)7
Waarom zo AMD niet meedoen??? De consumenten hebben laten zien, dat het ze niet uitmaakt. Anders was het marktaandeel van Nvidia allang gekrompen.
Leuk dat je het met een telefoon vergelijkt maar dat is een compleet product, een videokaart is nogal saai zonder verdere hardware.

Ondanks dat ben ik het wel met je eens hoor...
Succes dan met je telefoon zonder abo... :)

Denk dat het prima te vergelijken is. De dure telefoon is net zo 'bovenop een simpele PC' als de videokaart dat is, toch? Die simpele PC of simpele telefoon heeft vrijwel iedereen, ga je duurder dan doe je dat heel bewust en is het een luxe artikel.

De vraag is of je de meerwaarde ziet. Ik zie die totaal niet in een toestel van over de 300 euro. Anderen zien het niet in een GPU van over de 300 euro.

[Reactie gewijzigd door Vayra op 22 juli 2024 15:41]

De 5700XT/2070RTX Super is geen mid-range. Dat is het begin vd high-end en zo'n kaart koop ik altijd, mits ze onder de €500 blijft. Dat doet de Super kaart niet maar de AMD wel. De AMD-kaart is wel iets trager maar veel scheelt het niet.

Edit: ofwel heb ik een verkeerd beeld van wat mid-range en high-end is. Voor mij is mid-range Nvidia 2060 S/5700 en high-end begint van 5700XT/RTX 2070 S tot RTX 2080Ti. Als iemand het anders ziet zegt hij het maar.

[Reactie gewijzigd door Fredi op 22 juli 2024 15:41]

Ik snap AMD wel, het grote geld zit nog altijd in het middensegment en als ik zou willen concurreren met Nvidia zou ik ook in dat segment beginnen.

En het verschil tussen 60-70 FPS en bijv. 140 FPS is écht wel merkbaar, ook op een 60 Hz monitor. Ik vind het zelfs zo merkbaar dat ik liever op low speel met hoge FPS dan op high met 60 FPS.
Natuurlijk is er meer geld te verdienen in het middensegment maar qua als AMD meteen ook Nvidia van de troon weet te stoten qua snelste videokaart dan is dat wel erg goede reclame.
Amd komt nu met een kaart die net zo snel is als de 2070 maar geen hardware raytracing heeft.
Nu hoeft die raytracing je verder niet te boeien maar de mogelijkheid om het te gebruiken is er in elk geval.

Zoals je nu ook bij de CPU's ziet, daar weet AMD Intel wel van de troon te stoten met een CPU die sneller is dan de 9900K en iedereen is gehyped over de Zen2 processor.
Dat hadden ze ook met AMD moeten doen, meteen die 5800X en 5900X op de markt gooien, ook al kost die €700,-
Als de snelheid beter is dan een 2080 (ti) dan is het dat geld ook waard en krijgt AMD een hoop gratis reclame.
Als de geruchten kloppen komen er nog 56 en 64 cu versies van NAVi (zoals vega) en als ze de problemen met hun GCN arch. hebben opgelost, vermoed ik dat de 64 zeker sneller is dan de 2080S.
Heb je hier wat meer info over? Ik was hiervan niet op de hoogte.
En ben ook benieuwd welke problemen er zijn met de 64.
Bij de 64 konden ze blijkbaar niet al de Cores bezig houden waardoor je dus performance problemen hebt. Ook de overhead van de waves (meer clock tikken nodig dan nu met navi) geeft je nog maar eens een nadeel.
En het verschil tussen 60-70 FPS en bijv. 140 FPS is écht wel merkbaar, ook op een 60 Hz monitor. Ik vind het zelfs zo merkbaar dat ik liever op low speel met hoge FPS dan op high met 60 FPS.
Sorry, maar wat jij en een aantal anderen 'echt wel merkbaar' vinden, vind het merendeel van de wereld echt niet 'niet echt'. Wellicht dat het merkbaar onder bepaalde omstandigheden bij bepaalde games, net zoals met 1080p/4k video, maar dat zijn in mijn ervaring eerder uitzonderingen dan de regel. Wellicht dat super jonge ogen dat wel merken, maar mijn kennis/ervaring zegt eerder dat ze denken dat ze het wel merken. Aan de andere kant dat het wellicht minder opvalt bij mensen die zijn opgegroeid met een Atari 2600 (hout),,, ;-)
Ook wij van atari hout zien het verschil, koop maar een 144 hz scherm, zal je zien dat je wel degelijk verschil ziet...ik was ook een unbeliever maar nu nie meer.
Precies. Ik heb mijn ouders een keer voor mijn Eizo gezet en sindsdien snappen zij het ook. En dan heb je het wel over twee totale digibeten.
Ja jammer alleen dat ze er 3 jaar te laat mee zijn. We hadden al een GTX 1080, 1080 11Gbps, 1070ti, Vega 56, 64, RTX 2060 en RTX 2060 super.

Serieus...als je nu nog aan het wachten bent... Dit prijspunt was allang bereikt.

[Reactie gewijzigd door Vayra op 22 juli 2024 15:41]

Anoniem: 159816 @J8S7 juli 2019 16:04
Zolang je niet onder de 60fps dipt maakt het geen verschil op een 60hz monitor. Op wat inputlag na, maar die winst is verwaarloosbaar met zo'n traag scherm.

[Reactie gewijzigd door Anoniem: 159816 op 22 juli 2024 15:41]

Dit is niet helemaal waar.. verschillende testen (te laat om nu bronnen te vermelden) hebben laten zien dat een hogere FPS op een 60hz scherm weldegelijk een vloeiendere ervaring geeft die meetbaar en merkbaar is.
Anoniem: 159816 @BruceLee7 juli 2019 16:10
Wat zou ik niet snappen? 60 hz monitor is maximaal 60 beeldjes per seconde. Meer beeldjes naar je monitor sturen kan niet. Enige voordeel is dat je input lag theoretisch gezien zou kunnen afnemen, maar dat is verwaarloosbaar omdat je al met bijna 17ms extra van je scherm zit.
Fast Sync, en de totale lag is meer dan een monitor refresh. Dat is wanneer jouw input zichtbaar wordt, niet wanneer je 'm registreert. Verder zit je met hogere interne FPS veel dichter tegen de refresh rate momenten van je 60hz paneel aan, waardoor tearing ook minder kan zijn. Dat is ook game specifiek. En het allerbelangrijkste: bij een framedrop is de kans onder de 60 te komen veel lager.

Leuk, die minnetjes, maar het toont maar weer eens aan hoe diep Tweakers.net gezonken is. De lamme leidt de blinde hier, diep triest. Ik snap @BruceLee dan ook heel erg goed. Het is erg vermoeiend.

https://www.blurbusters.com/
Enjoy ;)

[Reactie gewijzigd door Vayra op 22 juli 2024 15:41]

En het allerbelangrijkste: bij een framedrop is de kans onder de 60 te komen veel lager.
"Zolang je niet onder de 60fps dipt", zegt @Anoniem: 159816 . Dan is die kans nul...

En een -1 op een respect- en inhoudsloze reactie "Als je er niks van snapt kan je beter niet reageren." is volkomen terecht. Niks "hoe diep Tweakers.net gezonken is".

[Reactie gewijzigd door Brousant op 22 juli 2024 15:41]

Zelfs in iets simpels als Overwatch dip je nog bij tijd en wijlen onder de 60, dus ik weet niet waar dat statement vandaan komt, maar veel praktijkervaring zal het niet zijn.... en als je een frame cap aanzet of Vsync dan is de kans helemaal levensgroot.

Net zomin als het 'goed snappen' bevestigd zou worden door het statement dat je er geen profijt van hebt 'omdat je het niet kan zien'. Het is ook niet alleen input lag namelijk. Of omdat je toch al op 'slechts 17ms zit'... getuigt ook niet van veel ervaring.

[Reactie gewijzigd door Vayra op 22 juli 2024 15:41]

Wow, Koeitje heeft 100% gelijk, als je een 60Hz scherm heb is alles hoger gemiddeld weggegooi energy (zelfde voor 100 en 144Hz en hogere schermen waar de FPS hoger zijn dan de Hz van de scherm), omdat je GPU/CPU harder moet draaien, en het zorgt er voor dat je scheuren krijgt (of hoe dat heet) op je beeld, en is G-Sync en FreeSync erg handig om te hebben, of je capt hem in je spellen op 60fps, wat steeds meer spellen hebben.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 15:41]

nVidia heeft 'fast-sync' waarbij de GPU maximaal presteert om de input lag zo laag mogelijk te houden, maar tegelijkertijd de frames die naar de monitor gestuurd worden gecapt zijn op de refresh rate.

AMD heeft naar ik aanneem een vergelijkbare techniek.
Anoniem: 159816 @Beelzebassie7 juli 2019 20:15
Heb je nog steeds 16.66667 ms input lag.
Als een scherm maximaal 60fps kan weergeven, hoe kan je dan meer dan 60 fps weergeven? Ben benieuwd naar je uitleg Bruce.
Bij mijn geforce 960 is het wel fijn dat ik de settings zo zet dat ie wat meer kan produceren dan 60fps. Als de kaart dan gelocked is op 60fps belast je de kaart wat minder en heb je minder warmte en dus herrie. Mijn voorkeur is dus meestal om niet helemaal het maximale uit de videokaart halen :)
je kunt ze niet weer geven maar wel renderen, Vergeet niet dat heel veel game code draait per tick of te wel per frame,

een terp die reageert op de tick van de framerate zorgt voor een veel smoother terp.
Games draaien ook een simulatie thread die minder ticks per seconden verwerkt dan de graphics threads. Graphics werken toch op interpolatie van de simulatie thread. Het blijft maar een representatie.
Anoniem: 159816 @BruceLee8 juli 2019 16:14
60hz = 16,6667 ms tussen frames. Als je framerate hoger is dan dat reageert de game inderdaad sneller op een muisklik, echt is deze muisklik gebaseerd op jouw input welke weer gebaseerd is op een traag scherm. Je reageert pas als je het op je scherm ziet en dan klik je. Dan maakt het niet meer uit, het effect zie je toch pas bij de volgende frame 1/60 sec later.
In theorie wel, maar dan ga je ervanuit dat je als gamer op dat éne cruciale beeldje zit te wachten waardoor je een bepaalde actie in gang zou zetten.

Niet alles gaat om cijfertjes. Dit gaat over een gevoel van responsiveness - en met 120 fps op 60hz halveer je letterlijk de reactietijd per frame. En frames lopen constant door. Die optelsom maakt dat het geheel soepeler en beter aanvoelt. Wij mensen zijn maar traag; 100-200ms reactietijd is niet ongewoon, sterker, richting de 150-200ms is gemiddeld. Dus op dat grote getal lijken al die kleine beetjes winst sowieso al peanuts. Maar ze zijn het niet. Ons brein pakt elk beetje ondersteuning met beide handen (?) aan.

Ik zal je zeggen, als ik nu 30 FPS op een console speel dan voelt het alsof ik dronken rondloop. Je went aan een bepaalde respons, en teruggaan is lastig. Ben je dan effectief beter en sneller geworden? Ja - dat heb je dan geconditioneerd namelijk. Het verschil van 60>120 is gevoelsmatig kleiner dan het verschil tussen 30>60 (terwijl er het dubbele verschil in FPS tussen zit!) maar het is wel degelijk aanwezig. Dat is lastig met een 'ms' uit te drukken. En visueel kan het dan alsnog achterlopen, het soepele gevoel blijft.

[Reactie gewijzigd door Vayra op 22 juli 2024 15:41]

Euh ten eerste mijn scherm is 100Hz en laat me spellen op 100fps lopen als dat gaat, en ten tweede wat is er met je aan de hand dat je zo reageert op mensen, is een normaal gesprek hebben zo moeilijk voor jou?
Nah je moet geen vsync etc ingame aanzetten krijg je weer extra inputlag van..
Doe ik ook niet echt, ik gebruik als dat kan de ingame FPS cap, en steeds meer spellen hebben dat, waarom zou ik me grafische kaart 100% kontakt laten draaien als dat niet hoef, en heb geen last van inputlag, en anders gewoon geen cap als die er niet is, heb trouwens G-Sync op mijn monitor zitten.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 15:41]

Tearing is veel subtieler bij hoge fps , maar ook subtieler bij slow pace games.

Wat mij meeste irriteerd en erg onrealistisch en storend vind in shooters is bunnyhop gedrag iets wat NPC nooit doen. En rusteloos inertialoos staminaloos bewegen als vlieg en dan zuiver kunnen schieten.

Voor PC gamen is het eigenlijk ook Pay to win. Je koopt Ultrawide Gsync 144hz sherm een 2080ti en je hebt een voordeel tov meerderheid met een 60hz scherm en 1060 of 2060 .
Voor online gamen op console is die variatie minder extreem en minder last van cheaters.
Maar ik prefereer milsim games waar idioot bewegen je zuiverheid drastisch kelderd.
Toch speel ik ook CoD en BF voor mij zijn ze gelijk kwa CQC het blijven bunnyhop games de ander is de game wereld wat groter en met tanks en vliegtuigen. Beide zijn arcade .
Arma gaat mij te ver en Game als Operation flashpoint Red River is voor mij de juiste dosis realisme en met coop vs npc ook geen bunny hoppen.
Nee sorry ik geloof niet dat de verschil tussen 60 en 144Hz zo enorm is, het licht er nog steeds aan of je goed bent in shooters online, ken meerdere mensen die een 60Hz monitor hebben en gewoon vaak winnen in shooters online.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 15:41]

Het zijn niet alleen de frames op je scherm die belangrijk zijn. In FPS op het een 60Hz scherm wil je gewoon 120,180 of zelfs 240fps hebben ondanks dat je scherm maar 60 is. Dit alles heeft te maken met andere aspecten in een game engine dan alleen de weergave.
125fps was relevant in Quake III omdat de physics afhingen van je fps en verder kon je CRT bak naar 120hz. Ik ken niet één moderne game waarbij de physics afhangen van je framerate en de meeste LCD schermen gaan niet verder dan 60Hz (144Hz schermen zijn dik in de minderheid). 60Hz betekent 60 beelden per seconden. Meer dan dat wordt niet getoond. Het verschil in inputlag merk je ook niet bij moderne games al was het maar omdat ze retetraag zijn (Fortnite val je bij in slaap als je het vergelijkt met Painkiller of Q3), met mogelijke uitzondering van de lui die echt competitief spelen.

[Reactie gewijzigd door Cocytus op 22 juli 2024 15:41]

Anoniem: 159816 @Cocytus8 juli 2019 16:11
Er zijn wat console games waarbij de physics gelockt zijn aan de FPS, waardoor dat soort games op de PC hard locked zijn op 30 of 60 fps.
Bijvoorbeeld bij de Orginele Call of Duty was dat belangrijk (dit heb ik op hoog niveau gespeeld) daar had je een voordeel wanneer je het spel op 125fps of op 333fps zette.

Op 333fps kon je sneller schieten en hoger springen. Je scherm kan dat niet aan maar de game zelf laat die FPS wel zien en zo krijg je voordeel ten opzichte van iemand die de hoge fps niet kan halen.

Daarom werd later ook een config checker gebruikt die stelde dat je fps niet hoger ingesteld mocht zijn dan 250.
Cyberpunk 2077, bijv. en daar lijkt me het met al dat neonlicht een mooie toevoeging en dat je dan nog maar 60-75 FPS haalt..
Wie gaat nu al een kaart aanschaffen voor een game die voorlopig nog niet uit is en je geen flauw idee heb hoe goed deze gaat lopen op de huidige kaarten. Voor zover ik kan zien moet je gaan kijken naar welke games je speelt en wat vervolgens je budget is voor een nieuwe kaart. De 5700xt is in een aantal gevallen sneller dan €100 duurdere RTX270 Super, leuk als dat je main games zijn... Maar het ligt geheel aan op wat voor resolutie/kwaliteit en welke game je speelt.

Imho is dat de fans onder load veel luidruchtiger zijn een veel groter issue. Wellicht dat dit bij kaarten van andere fabrikanten beter wordt...
Van Cyberpunk zijn er al gameplay beelden met een RTX2080 en daar ziet dat raytracing er wel erg mooi uit.
En volgens jaar dan heeft Nvidia wel al een kaart met hardware raytracing op de markt terwijl AMD daar in elk geval tot 2021 niet mee komt en als ze er mee komen dan komen ze met een hybride oplossing, niet volledig hardware.

Ik heb nu een aantal reviews gezien en over het algemeen komt de 5700XT slechts in de buurt van de RTX2070 (veel tests hebben nog niet de super variant getest) en voor het extra geld krijg je er wel weer hardware raytracing bij.
Op 't moment is raytracing meer een gimmick dan een significante toevoeging. Visueel zijn de verschillen zeer minimaal, en het kost je grofweg de helft van de framerate. En Nvidia vindt dat je er extra voor moet betalen, no thank you!
Prestatieproblemen zijn er momenteel zeker, maar een gimmick zou ik het niet noemen. Raytracing maakt toch wel een groot verschil wat mij betreft.
Voor deze prijzen is het geen midden segment meer.
Meer hoog.
Aangezien Nvidia nu alle rtx kaarten vanaf 2060 hoog noemt.
En mid zijn de 1660(ti).
Top zijn de 2080 en 2080ti.
Midden segment is toch wel een prijs tussen 200 en 300.
Dat word de 5600 wel.
Rx5600xt word zeker vega 56 prestaties voorbij.
Aangezien de rx5700 de vega64 voorbij gaat.
En als we de prijzen mogen geloven word die dus 300 usd en de rx5600 250 usd.
5500xt = 200 en 5500 = 150.
Betekent dat we met deze generatie alles 50 usd meer moeten gaan betalen.
Hopelijk gaan ze nog flink oorlog voeren in prijs.
Alleen Nvidia kennende vinden ze hun kaarten nu toch wel goed geprijsd en zal er niks van komen.
AMD is vele malen kleiner dan Nvidia en zeker Intel en toch moet het concurreren met beiden. Dat ze het op dit moment Intel erg moeilijk maken is al erg knap en bijna een wonder te noemen.
Ook Nvidia "crushen" is gewoonweg (jammergenoeg) niet realistisch.

Uit noodzaak "kiezen" ze weer het middensegment, omdat daar simpelweg het meeste geld wordt gemaakt. Daarnaast kost het erg veel investeringen om een topkaart te maken als de RTX 2080Ti. En dan is het de vraag hoe veel mensen een flagship kaart willen kopen van AMD.
Je praat wel over raytracing alsof dat al een iets is wat de toekomst is, maar dan heb je het over 60 fps dat dat prima is want dat is je refresh rate ook. Meeste gamers zitten toch echt op 144 hz, dat is een groter pluspunt dan wel of geen raytracing, freesync of niet.
Meeste gamers zitten helemaal niet op 144Hz.
De meeste serieuze gamers misschien wel, maar het gros zit gewoon naar een 60Hz 1080p TN scherm te kijken.
En als ze wel een 144Hz scherm hebben dan draait het vaak op 60Hz omdat dat de standaard instelling is.
We hebben het hier over videokaarten van 300 a 400 euro, dan ben je toch best een serieuze gamer? Dus je koopt een videokaart van 400 euro maar hebt een monitor van 100 euro, dat vind ik dan raar, en ik denk ook niet dat dat de norm is voor de meeste mensen die een kaart hebben in de prijs klasse.
Als je verstand hebt van techniek, ja misschien. Maar genoeg vrienden van mij die "het verschil toch niet zien", maar wel een rtx2060 of beter kopen. Dikke fps en geen haperingen is wat zij belangrijk vinden ipv. snelle reactietijden.

Daarnaast zijn 1440p en uwhd schermen op 120 of 144hz een stuk duurder dan hun 1080p varianten. En mensen gaan vaak toch ook liever voor een groter scherm (want dat zien ze wel).
Lol, nee ik had eerst een 1080p 144hz scherm, nu een 1440p 144hz scherm, vrienden van mij hebben zelfs een 240 hz (cs:go) scherm, raytracing intereseert me niet maar hoog fps wel, en 60 hz omdat dat de standaard instelling is? Ben je aan t dromen ofzo, eerste wat je doet is t scherm op 144 zetten en in windows...
Doe mij maar een stabiele 60Hz met raytracing. Ik heb totaal geen behoefte aan 144Hz. Gaat ook niet gebeuren want ik game op een TV. Ik ben dan ook niet van de shooters moet ik eerlijk toegeven. Maar zelfs bij racesims heeft 144Hz een voordeel, maar toch, daar ligt mijn focus niet op. Moet ik ook eerlijk zeggen dat met mijn instellingen een 1080ti de 144fps over het algemeen bij lange na niet trekt, dus heeft het ook niet veel toegevoegde waarde.

[Reactie gewijzigd door MN-Power op 22 juli 2024 15:41]

Dat is wat anders, je gamed op je tv, als je op een monitor speelde zou het toch ook geen 60 hz monitor zijn van 100 euro? Je videokaart kost 500 euro, de meeste met een kaart van 500 euro hebben ook een aardige monitor lijkt mij?
Als een monitor een betere kleurweergave of 3D biedt(ja ik heb nog een Zalman ZM-M220W ergens ;) ), full array local dimming, HDR, of noem maar op biedt, dan vind ik dat van groter belang. Ook in het geval van een TV zou een 120 of 144Hz mogelijkheid minder belangrijk zijn. Van bijna alle zaken waarop ik selecteer staat 60+ refresh onder aan mijn lijst. Ik vind het een aardige toevoeging, maar to-taal geen noodzaak. En ik game echt vrij veel op die TV, mijn PC heeft niet voor niks een plek in de woonkamer. Ik heb het zelfs zover dat ik mijn simrig er binnen 2 minuten voor kan hebben staan.

En mijn kaart was duurder dan 500 euro, mijn racestuur ook. ;) Andere prioriteiten.

Dè gamer bestaat gewoon niet, iedereen heeft zijn voorkeur.

[Reactie gewijzigd door MN-Power op 22 juli 2024 15:41]

Dat is zeker waar, iedereen om mij heen heeft wel een 144 of 240 hz monitor, maar zal ook zijn omdat we ook veel shooters spelen competitief.
Dan heb je een goede reden. Maar ik speel eigenlijk nooit meer shooters en al helemaal niet in multiplayer. Er is zoveel meer in PC gaming dan online shooters... Ik speel zo nu en dan wel eens een off-line shooter(al is dat óók al heel lang geleden) met verhaal zoals iets uit de Far Cry serie of zo, maar daar is lag totaal niet interessant.

Je vindt het ook vast eng dat ik bijna uitsluitend met mijn X360 controller game? ;) En in alle andere gevallen met mijn racestuur of Vive controllers. :)

En natuurlijk maakt het bij racen ook uit. Alleen ben ik zonder 144Hz scherm rap zat. :) Gaat me ook veel meer om de lol dan de competitie.

[Reactie gewijzigd door MN-Power op 22 juli 2024 15:41]

Nee vind zeker niet eng dat je op je controller game, ik heb best veel Watchdogs gespeeld, ook met controller.
Ik speel ook asetto corsa met een G25 stuurtje, en ik speel ook nog Command and Conquer; Red alert 2.
Ik speel veel shooters, maar vind strategie games en racen ook heel leuk :) Shooters ben ik juist pas de laatste jaren geinteresseerd in geraakt, ik speelde voorheen alleen rts games.
Was ook een beetje met een knipoog. Voor shooters en strategie games ontkom je niet aan een(goede) muis(tenzij je concurrenten dezelfde input methode hebben natuurlijk). :)

Ik neig tegenwoordig (naast race sims)meer richting actie-adventure achtige games. Zoals inderdaad Watch_Dogs of Assassin's Creed(ben met GF overigens net een Enslaved: Odyssey to the West playthrough aan het doen). Maar ook niet al te zware RPG's, liefst wel in first person view(zoals Skyrim dus).

Qua racesims doen we meestal Project Cars 2(vooral vanwege de weersomstandigheden), rFactor 2, Automobilista, Assetto iets minder vaak(ben toevallig nu wel met Competizione bezig, erg tof met een DD1 :)) en als het we eens wat stoom af willen blazen Wreckfest :) :).
Anoniem: 159816 @Vlizzjeffrey7 juli 2019 20:17
Tv's doen ook gewoon 120hz hoor :).
Inmiddels wellicht. Maar over het algemeen zijn het 60Hz panelen die verder vooral een flinke zwik beeldmanipulatie doen en zo fictief het aantal beelden per seconde verhogen. Gelukkig zijn we nu eindelijk op het punt belandt dat er daadwerkelijk 120hz native panelen komen die eveneens adaptive vsync ondersteunen.
Anoniem: 159816 @Cid Highwind8 juli 2019 00:46
Ongeveer al 2+ jaar inderdaad.
Ja voor slow pace singleplayer exploring Sandbox adventure games. Waar je ook van scenery kan genieten is 1440p meer GFX features zo ook RTX wel meerwaarde . Games zoals Stalker CoP.
Crysis original . Online doe wel op PSN iedereen wat gelijker.
Als ze daar ook freesync komt krijg je meer ongelijkheid. Maar nog niet zo extreem als op PC.

Een Red dead redemption had ik ook liever op release ook op PC gehad.
Waar denk je dat het meeste geld te halen is? 99% van de mensen kunnen of willen niet 1500 euro neerleggen voor de 2080ti Turbo Super AquaCooling SuperCharge Extra Plus Extreme Edition, en gaan voor de midrange kaarten, waar dus deze kaarten in zitten.

Sterker nog, de XT is nog wel iets meer dan midrange. Je vergeet dat wij hier allemaal gear heads zijn, maar de meesten nog niet het geld uitgeven voor het hele systeem dat die ene videokaart kost.

Dus afwachten of er iets high end komt, maar denk maar niet dat het een verkooptopper wordt, omdat de 2080ti dat ook niet is. Het is meer pochen dat je deze prestaties kunt halen met kaarten in je line-up, iets wat het gewone volk toch niet snapt.
De Ti is misschien iets teveel een niche product maar de gewone 2080 moet te doen zijn.
En natuurlijk spreekja daarmee niet het grootste deel van de markt aan maar de hele martk kijkt wel naar je.
Als men kan zeggen "dit is onze topkaart maar we hebben voor de gamer met een lager budget ook een wat goedkopere kaart" dan is dat een goede marketing, bied je de klanten met een lager budget precies wat ze willen maar kunnen ondertussen ook tegen de concurrent zeggen "kijk maar uit, we hijgen in je nek"
Maar nu is het weer zo dat als je de snelste kaart wil hebben je toch weer bij Nvidia uitkomt, heb je een kleiner budget dan kom je weer bij AMD uit.
Pochen dus...
En als iedereen met verstand ervan tegen de gewone man zegt: "leuk die überschall dingen, maar als je waar voor je geld wilt, moet je die andere hebben", kun je roepen wat je wilt, dan kopen alleen fanboys 'm, en daar kun je niet op leven.

Of zoals mijn oma tegen mijn oom zei: "je mag de grootste hebben, maar als je er niet mee om kunt gaan, kun je er nog niks mee". (Ging over de zoveelste grote auto die mijn oom in elkaar had gereden)
Dat geeft toch niet? AMD is nu qua watt/performace ongeveer gelijk aan Nvidia. Dat is heel erg goed te noemen. AMD komt later ook met topmodellen uit die tegen de 2080ti en dergelijke moeten strijden.

Maar het zou dom zijn daar vol op in te zetten, om de kroon in handen te krijgen of te evenaren. Er is nu nog schaarste met de 7nm productie, en dan moeten ze keuzes maken, en dan is het verstandiger kleinere chips te produceren waar ze een mooie marge op kunnen pakken, dan grotere die moeilijker verkopen, en minder snel te produceren zijn.

AMD heeft tevens voor de nieuwe PS5 en Xbox opdracht om gpu en cpu te maken. Dus in 2020 komt dat uit. Ik ben positief verrast iig! Goede prijs prestatie. Nvidia levert nu ook meer voor minder, en dat doen ze niet zomaar!
Nvidia wist dus precies waar AMD mee zou komen en hebben met de nieuwe Super kaarten ervoor gezorgd dat ze toch weer net iets sneller zijn en als reactie verlaagde AMD op het laatste moment de prijzen.. Goed voor de concurrentie in het midden segment wat hopelijk de prijzen ook bij Nvidia verder zal drukken.. Maar de vraag blijft wel staan waarom AMD al vele jaren niks in het top segment uitbrengt?!? De Radeon VII heeft weer akelig gefaald tegenover de 2080, laat staan de 2080 Super straks of de 2080Ti.. Kunnen ze niet of willen ze niet?!?

Verder zou ik wachten op 3rd party custom kaarten met veel betere vooral stillere koelers.. Dat geldt zowel voor AMD als Nvidia.. De FE modellen alleen kopen als je echt niet kan en/of wil wachten en/of perse een blower koeler nodig hebt i.v.m. heel kleine kast ofzo..
Ik denk dat de focus vooral heeft gelegen op de ontwikkeling van een goede CPU. Daar zijn ze zeker geslaagd. Hopelijk wordt die winst gebruikt om de GPU kant weer wat R&D geld te geven. Binnen een paar jaar zullen ze zeker weer mee kunnen doen. Als ik kijk naar het energieverbruik, is er al een goede stap gemaakt.
Dat beter energieverbruik is vooral te danken aan 7 nm productie, met dank aan TSMC. Ik heb altijd gezegd dat Global Foundries een blok aan het been was voor AMD want ze zaten contractueel aan hun vast. Vroeger moest AMD hun kaarten altijd bij GF laten produceren maar die hadden altijd de slechtere(minder performante/meer energieverbruikende) node. Gelukkig zit AMD nu niet meer vast aan GF(ook al omdat ze hun 7 nm ontwikkeling stopgezet hebben en alleen nog 14 nm doen) en kunnen ze bij TSMC laten produceren en je ziet dat ze stilletjes aan beginnen terug te komen.

Ook hun blunders met hun Fury(X) en Vega- kaarten met het dure HBM(2)-geheugen is AMD duur te staan gekomen.

AMD heeft momenteel 7 nm node nodig tov 12 nm node van Nvidia om enigszins met hun te kunnen concurreren. Zo kunnen ze er meer transistors en dus hogere snelheid voor hetzelfde verbruik inproppen. Ze kunnen momenteel geen concurrent voor de 2080s/ti op de markt brengen omdat ze er de middelen niet voor hebben. Pas met rijping van het 7 nm-procede van TSMC volgend jaar kunnen ze een grotere chip en concurrent to deze Nvidia - modellen zetten. Maar helaas kanNvidia dan ook weeral met een nieuwe kaart op 7 nm komen.

[Reactie gewijzigd door Fredi op 22 juli 2024 15:41]

Ik ben het gedeeltelijk, maar niet helemaal met je eens. 7nm heeft geholpen, maar vergeet niet dat de Radeon VII ook op 7nm was gemaakt. Het was een chip met 60 compute units, en toch kon het niet eens de RTX 2080 bijhouden... Niet in stroomverbruik, en niet in beelden per seconde.

Als we naar de 5700XT kijken in vergelijking tot de Radeon VII, het heeft 33% minder (40 ipv 60) compute units (en dus ook TFLOPS), 24% kleinere chip, en gebruikt 25% minder stroom zonder HBM. De kloksnelheden zijn redelijk gelijk, en tóch bereikt the 5700XT bijna de snelheden van de Radeon VII in spellen (de Radeon VII is maar ~5% sneller).

Computerbase.de heeft een interessante test gedaan, waarbij ze verschillende chips met gelijkwaardige aantal 'kernen' op dezelfde kloksnelheid laten draaien. Daaruit blijkt dat per klok de nieuwe RDNA architectuur van AMD gemiddeld;

39% sneller is dan Polaris
28% sneller is dan Vega
13% sneller is dan Pascal van nVidia
1% sneller is dan Turing van nVidia

7nm heeft geholpen met stroomverbruik, maar het grootste deel van de efficientie komt toch vanuit de architectuur zelf.
Dat klopt. De Vega- chip en de van Vega afgeleide chip in de Radeon VII waren geen chips specifiek bedoeld voor gaming maar meer voor de zakelijke markt. In die tijd had AMD niet genoeg geld om twee chips te ontwerpen, een voor gaming en een voor zakelijk. Aangezien er meer winst te halen is per chip in de zakelijke markt heeft AMD toen gekozen om een chip te maken specifiek voor de zakelijke markt. De game-markt was bijzaak.

De RDNA-architectuur is veel meer bedoeld voor gaming. AMD heeft vooral de single-threaded prestaties verbeterd en niet de parallelle. De 5700-chip is ook veel kleiner dan Vega. Voor de gamemarkt gaat AMD de RDNA-architectuur gebruiken en voor de zakelijke markt blijven ze vasthouden aan de GCN-architectuur.
grotendeels willen niet. ze konden het doen, er was zelfs een grote Polaris in ontwikkeling, maar het zou veel geld kosten om te ontwikkelen en de verkoop aantallen zouden beperkt zijn. aangezien AMD toen nog flink op de kosten moest letten zijn ze geschrapt.

Inmiddels komt er veel meer geld binnen mede dankzij Ryzen en is het R&D budget verhoogt. Lisa heeft gezegd dat ze ook aan de top weer gaan concurreren. maar nog niet wanneer dat zou zijn.
In het topsegment kan je allen geld verdienen als je de beste kaart hebt; iemand die 1000 euro aan een GPU uitgeeft koopt niet de op-één-na-snelste GPU, die koopt de snelste, en zolang AMD geen kaart kan produceren die sneller is dan de 2080 Ti, heeft het niet zoveel zin daar een gooi naar te doen. Als ze een kaart maken die 95% van de prestaties van een 2080 Ti heeft, koopt geen hond hem. Daarnaast zijn high-end kaarten moeilijker te ontwikkelen. Goed presteren in het middensegment levert voorspelbare marges en vergt minder investering dus is gewoon veel minder risicovol. Voordat ze Ryzen hadden speelden ze met de CPUs precies hetzelfde spelletje. Nu zie je dat door Ryzen ze wel mee kunnen doen in het topsegment en ze daar meteen ook keihard concurreren.
De games waar AMD duidelijk wat achter blijft zitten vol nVidia geoptimaliseerde code?
Beetje lastig he games optimaliseren voor een kaart die nog niet uit is.
Dat hoeft niet, je zou eigenlijk verwachten dat een AMD (en andere fabrikanten) al zeer vroeg samples leveren aan bijvoorbeeld game dev's en engine ontwikkelaars zodat juist bij launch de eerste optimalisaties al gedaan zijn.
Alle vorige generaties van amd gpus zagen altijd juist na de launch de performance met de tijd steeds iets verbeteren, bv de 1060 was bij launch sneller dan een 480, en een jaar later waren ze gelijk.
Dat klopt, dat is echter niet handig voor de reviews. Vandaar dat je zou hopen dat AND daar van zou leren en dus zorgen dat de lunch prestaties nu wel optimaal zijn.
Wellicht vieze spelletjes van Nvidia met hun machtspositie.
Nvidia heeft gewoon meer geld en meer mankracht aan werken dat het allemaal tijdens launch al word geoptimaliseerd.
En Amd met minder mankracht dat tijd nodig heeft.
Je ziet ook na driver updates dat Nvidia ook nog per game sneller word, alleen word het niet zoveel beter als Amd.
Amd pakt veel meer percentage verbeteringen.
Niet persee. Wolfenstein was een game die het heel goed deed op AMD hardware bijvoorbeeld.
Maar het is wel een low level API game (vulkan in dit geval), en dus moet de developer zelf een groot deel van de optimalisatie doen.

Die zijn wel gegaan voor de al bestaande AMD en Nvidia GPU's maar Navi is een nieuwe architectuur (en meer dan alleen een nieuwe GCN iteratie) dus is de game/engine er nog niet voor geoptimaliseerd.
In DX11 en lager kan AMD zelf veel doen in de drivers, maar in low level API's is hun invloed veel beperkter.

De DX11 games tonen toch wel duidelijk aan dat Navi voldoende performance in huis heeft. dus als ze de engine nog zouden optimaliseren voor Navi denk ik dat er nog veel winst te halen valt. het is natuurlijk maar de vraag of zo'n performance patch er komst. maar alle toekomstige low level API games zullen wel ook geoptimaliseerd zijn voor Navi.
Er schijnt vandaag nog een 3e kaart verschenen te zijn: de Radeon RX 5700 XT 50th Anniversary met een hogere Boost Clock.

Normale Boost Clock voor de 5700XT is 1905 MHz en van de 50th Anniversary is die 1980 MHz

Hier alle specs op een rij (naar beneden scrollen svp)
https://www.amd.com/en/pr...-5700-xt-50th-anniversary
https://www.amd.com/en/pr...ics/amd-radeon-rx-5700-xt
https://www.amd.com/en/products/graphics/amd-radeon-rx-5700
Die is niet opeens verschenen, die is tegelijk aangekondigd met de andere 2 kaarten
En ook een hoger verbruik van 235W. ;)
Ik twijfelde heel erg tussen de 2060 Super en de 5700 XT, nou de prestaties zijn wel duidelijk. Scheelt gewoon 10% voor dezelfde prijs.

Alleen die koeler op de Radeon... nou weet ik het nog steeds niet.
Die fan kan je vast wel in een beter fancurve zetten dan wat hier geprutst is...binnen 2 weken zijn er vast betere drivers dan deze release drivers..
Wachten op een AIB-kaart die volgende maand uitkomt. :)
Klinkt goed :) ! Weet er iemand of er binnenkort ook nog een 5800 (XT) komt?
Hoogst waarschijnlijk duurt dat nog even. kan zo maar eind dit jaar of begin volgend jaar zijn.
Ik vraag me af wat de GeForce RTX 2060s voor zin heeft, hij is ongeveer net zo snel als de GeForce RTX 2070, en vaaker zelfs sneller, snap niet de logica van Nvidia om hun Geforce RTX 2060 en 2070 van de markt te duwen met hun super modellen.

Maak dan de Geforce RTX 2080 en 2080Ti goedkoper of en plaats daar een Geforce RTX 2080s tussen in.
tja, ze konden het goedkoop doen door gebruikt te maken van de verbeterde yields van 12nm waarschijnlijk. Door de betere yields hebben ze meer die's waarvan ze meer cores kunnen enableën(?), en op een hogere clocksnelheid laten lopen. het zijn verder nog steeds de zelfde die's en de zelfde PCB's.

de 2060 bungled er wel een beetje bij nu, en de 2060s voegt idd niet veel toe zo boven de 2070.
Zover ik weet is de RTX 2070 EOL, die wordt dus niet meer gemaakt.. Alleen de "gewone" 2060 blijft Nvidia leveren naast de nieuwe Super.. De 2080 is straks ook EOL zodra de 2080 Super er is..
EOS(sales) bedoel je dan eerder, EOL zou ik kaarten noemen die geen nieuwe drivers meer krijgen.
Ja ach, alleen vervelend voor mensen die perongeluk een Geforce RTX 2060 of 2070 kopen inplaats van de Geforce RTX 2060s en 2070s, vooral mensen die er niet veel van weten.

Update: En vond het jammer dat de Geforce GTX 1080 niet mee genomen werd in de benchmarks.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 15:41]

Voor 1080 scores kan je een beetje uitgaan van tussen 1070Ti en 2070 FE ish.

Ik heb zelf ook een 1080, destijds genoeg voor betaald maar zie nog steeds geen reden om te vervangen zonder serieus meer te moeten betalen.
Voor mij het zelfde, ook een van de rede dat ik wacht op de Geforce RTX 3080 of hele snelle Radeon kaart.
Goh is dat niet bij alles zo? Oneplus die T versies van zijn smartphones uitbrengt, auto's die facelifts krijgen,...

Als iets high-tech is weet je toch dat het tegelijk rap weer obsolete is?
Ze moesten wel omdat anders de 5700 en 5700 XT te goed zouden afsteken tov die 2, nu komen ze met super versies maar helaas verlaagd amd nog ff de prijs, nu kunnen ze kiezen of meegaan en ook de prijs verlagen of amd meer sales gunnen. De 5700xt is basicly een 1080ti voor 400 euro, voor iedereen die geen raytracing wil een topper.
Ja maar breng dan een grafische kaart uit die tussen de Geforce RTX 2080 en 2080Ti in zit, en maak de Geforce RTX 2080 en 2080Ti goedkoper.
Eigenlijk snap ik het ook niet.
Ze hadden net zo goed prijs van de 2070 en 2080 kunnen verlagen.
De enige wat ik kan bedenken is dat zij op deze manier als de goeierikken willen voorkomen voor hun idiote fans.
Van kijk " door 2070 super uit te brengen krijg je nu bijna 2080 prestaties voor dezelfde prijs. En omdat we 2gb extra op de 2060 super moeten zetten kost dat je 50 dollar meer en heeft bijna 2070 prestaties ".
En alle Nvidia fans gaan uit hun dak!
Die zeggen dan " wtf! Nvidia is zo aardig voor ons om betere prestaties voor zelfde prijs te geven, Haleloeja Nvidia!"
En ondertussen denken de wat slimmere mensen " tja, ik krijg voor hetzelfde geld wat Nvidia vraagt al 10% betere prestaties. Lijk ons veel beter ".
Nog slimmere mensen denken van " Dit hele generatie gpu's zijn zowiezo overpriced! Of het Nvidia is als Amd! Nvidia is niet te betalen en dat prijs is alleen voor gekken! Amd is nog steeds 50 teveel."
En als je denk dat we eigenlijk allemaal nog steeds wel zeker een jaartje vooruit kunnen met onze ouwe kaart.
En volgende generatie dat ze weer op normale prijsniveau zitten en dan pas een nieuwe kopen.
Ja precies, maar ach ze hebben het al gedaan, maar ben veel meer benieuwd naar de Geforce RTX 3080, en hoop dat die wel normale prijzen krijgen, en dat AMD ook met een hele snelle kaarten komt waneer de Geforce RTX 3080 uit komt, anders ben ik bang dat de Geforce RTX 3080 ook heel duur woorden.
Nog iets is, zo hoeven ze de rtx2080ti niet in prijs te verlagen.
Als ze de 2070 en de 2080 hadden verlaagd, dan moesten ze de 2080ti ook verlagen om in prijs verhouding goed te zitten, en nu hoef dat niet. En de 2080s komt toch nog niet in de buurt van de ti versie, wel dichterbij. Heel slim Nvidia.

Ik zie je naam AmigaWolf. Ook Amiga 500 vroeger of had je de 1000?
Ik had de 500. Prachtig ding. Erg veel plezier mee gehad.
Ja maar echt niet leuk voor beginners van Game-Pc's niet meer duidelijk.

Ja, me vader had eerst de Commodore 128D en toen paar jaar later de Amiga 1000 en 2000, waar ik veel mee gespeeld heb, toen kocht me vader de Amiga CD32 +Sx32 Pro voor me met 64MB ram en 500MB 2,5" HDD, toen een paar jaar later kocht ik de Amiga 1200 met later de PPC 240MHz risk CPU en 68040 25MHz CPU Bvision en later Voodoo 3 en 96MB RAM, en scsi HDD en DVD spelen/writer, en zat met een goede vriend die ook een Amiga had op de Amiga Club Hoorn meerdere jaren ieder maand.

Ja heel veel plezier gehad met Amiga computers, zelfs meer dan met Windows PC's, me vader had ook een 486 PC met Windows 3.11, maar ik was 100% alleen bezig op de Amiga, was in de jaren 80 en begin 90 veel leuker en beter dan de MS-DOS Pc's.

Heb 3 a 4 haar terug een Amiga CD32 weer gekocht en zit nu een TF330 in wat de zelfde CPU heeft als de SX32-Pro, een Motorola 68030 50MHz CPU, en 64MB RAM en 8GB SD kaart, met 1000 spellen, en Workbench 3.1, moet nog de nieuwe Workbench 3.11 er op zetten, heb nu al 43 Amiga CD32 originele spellen, ben ze aan het sparen, en heb een Commodore 128D en laatste een Amiga 500 Plus gekocht.

[Reactie gewijzigd door AmigaWolf op 22 juli 2024 15:41]

Dacht dat 2070 ook EOL wat NV doet is soort rebranding maar dan zonder hogere type aanduiding. Een rebinning en zelfde chips anders in te zetten door meer units in te schakelen of chip shuffle.
Nee dacht niet een rebrand met zelfde chip, maar dacht nog meer kaarten met zelfde naam maar dan met Super achter de naam en wat sneller, had liever gezien dat ze de Geforce RTX 2070 en 2080 en 2080Ti goedkoper hadden gemaakt, en zo nodig een Geforce RTX 2080s tussen de 2080 en 2080Ti.
Ja en een 5900XT! AMD doet het super! ;)
Las ergens september.
Zou mooi wezen, dan kunnen ze Nvidia echt het vuur aan de schenen leggen :Y)
Ik zou hem zo graag nu halen om ffxiv in 1440p/4k 60 te kunnen spelen, maar die fan jongens. Dat word wachten op een MSI of asus versie, hopen dat die niet een prijs van 500+ gaan vragen voor hun custom coolers erop, Raytracing gaming doe ik wel met mn PS5 later.

Heb nu een R9 390 en een RTX2060super of RX5700XT zit ik tussen te twijfelen... maar geen founders/stock edities. ben bang voor de custom prijzen lol
Ligt eraan hoeveel geduld je hebt en of het aanbod hoog genoeg is om aan de vraag te voorzien.. De prijzen zullen in het begin wel hoger zijn maar hopelijk paar maanden daarna gaan zakken..
Hoe zit het tegenwoordig met de stabiliteit van de hardware en drivers enzo? Ik hoor veel gemixte verhalen en veel slechtere verhalen in het verleden. Zijn hier ook verbeteringen?
Als huidige AMD kaart bezitter heb ik qua drivers twee problemen gehad:
1. Freesync werkt bij mij vaker niet dan wel. En dan de handel herstarten en het werkt weer, start een bepaald spel op en het werkt weer niet. En soms ook wel.
Goede nieuws is: Voor mij persoonlijk is de conclusie dat ik Freesync niet heel veel vind toevoegen, dus het maakt me niet veel uit :P. Voor degene die het wel duidelijk merken is het erg irritant als je zoiets hebt.

2. In BF5 hebben AMD drivers maandenlang een probleem gehad waardoor na een revive je silhouet van tegenstander/teamgenoot in beeld bleef, tot je weer een paar keer dood was. Hoe irritant is dat vraag je je af? Nou behoorlijk: https://www.reddit.com/r/...have_this_super_annoying/
Mooie kaarten, voor een mooie prijs, als je ze vergelijkt met de concurrentie, maar nog steeds 100 euro te duur voor midrange kaarten.
Als je een budget hebt van rond de 400 euro voor een grafische kaart en naar 2060s of 2070s kijkt, lijkt het mij het meest verstandige om gewoon een 5700 of 5700xt te kopen. Veel betere prijs prestatie verhouding.
Zoals zo vaak bij AMD moeten de drivers nog wat geoptimaliseerd worden, dus als we deze benchmarks over 1 jaar opnieuw draaien, zit AMD gewoon 10+% boven de concurrentie!

Wel raar overigens dat er niets vermeld word over de betere image quality die AMD bied tegenover de concurrentie. Idem voor de anti-lag feature die deze kaarten zouden moeten hebben.
Waarom is dit niet getest? In mijn ogen veel waardevollere techniek dan raytracing...
Dacht al dat ik de enige was die de nieuwe functies van deze kaarten miste in de review...idd een groot gemis
Bwah, een groot gemis weet ik niet. Als je RT aanzet op Nvidia kaarten zakken je fps in en is je spel eigenlijk niet meer speelbaar. Dus eigenlijk kan je RT niet gebruiken.

Op dit item kan niet meer gereageerd worden.