Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Fabrikanten introduceren aangepaste RX 5500 XT-videokaarten

Meerdere fabrikanten hebben aangepaste modellen van de RX 5500 XT uitgebracht, de videokaart die AMD op 12 december aankondigde. Hieronder vallen onder andere Asus, MSI, Gigabyte, ASRock, Sapphire en Powercolor. Veel modellen zijn al verkrijgbaar in Nederlandse webshops.

AMD introduceerde de RX 5500 XT-gpu's donderdag officieel. Deze gpu maakt gebruik van een Navi-gpu die gemaakt is op een 7nm-procedé. De videokaarten hebben allemaal een pci-e 4.0-interface en 4GB of 8GB gddr6-geheugen met een snelheid van 14Gbit/s. De RX 5500 XT moet concurreren met de GTX 1650 Super in het middensegment van de markt. Tweakers publiceerde donderdag een review van de RX 5500 XT en de GTX 1650 Super.

Fabrikanten kondigen geleidelijk hun eigen, aangepaste varianten van de RX 5500 XT aan. Zo kwam MSI op donderdag al met acht videokaarten. Asus heeft drie RX 5500 XT-videokaarten aangekondigd: een Strix-model met 8GB gddr6-geheugen, een Evo-variant met 8GB en een Evo-kaart met 4GB geheugen. Het Strix-model heeft twee fans, een maximale turbofrequentie van 1865MHz en een gameclock van maximaal 1737MHz. De Evo-modellen hebben eveneens twee fans en beschikken over vrijwel dezelfde kloksnelheden. Enkel de gameclock in 'gaming mode' ligt iets lager met 1733MHz. Beide varianten bevatten drie displayport 1.4-aansluitingen en een enkele hdmi 2.0b-aansluiting.

De Asus RX 5500 XT EVO (links) en RX 5500 XT Strix

Sapphire introduceert twee RX 5500 XT Pulse-kaarten en een RX 5500 XT Nitro+. Eerstgenoemde is beschikbaar met 4GB of 8GB gddr6-geheugen, terwijl de Nitro alleen met 8GB geleverd wordt. Beide modellen hebben een gameclock van 1737MHz en een boostclock van 1845MHz, waarmee de Nitro zich vooral moet onderscheiden met een ander uiterlijk en betere koelprestaties. Op het moment van schrijven is er alleen een Nitro+ Special Edition beschikbaar. Deze heeft twee fans met rgb-verlichting. Mogelijk komt Sapphire in de toekomst met een 'normale' Nitro+ zonder rgb-fans. Verder hebben de kaarten beide drie displayport 1.4-aansluitingen en een hdmi 2.0b-connector.

De Sapphire RX 5500 XT Nitro+ (links) en RX 5500 XT Pulse

Gigabyte brengt twee varianten van de RX 5500 XT uit, die beide met 4GB of 8GB geheugen beschikbaar zijn. Het gaat hierbij om een OC-model met twee fans en een Gaming OC-variant met drie fans. De baseclock van de Gaming OC ligt iets hoger met 1685MHz tegenover 1647MHz bij de Gigabyte RX 5500 XT OC. Ook de gameclock van de Gaming OC is iets hoger met 1737MHz ten opzichte van 1733MHz bij het OC-model. De turbofrequentie van beide kaarten ligt op 1845MHz. Ook deze gpu's hebben drie displayport 1.4-connectors en een enkele hdmi 2.0b-aansluiting.

De Gigabyte RX 5500 XT Gaming OC (links) en RX 5500XT OC

Powercolor introduceert twee 5500 XT-varianten. Een Red Dragon-kaart met twee fans heeft 8GB geheugen, een gameclock van 1737MHz en een boostclock van 1845MHz. Het bedrijf vermeldt daarnaast een basisklok van 1685MHz. Ook komt Powercolor met een RX 5500 XT met een enkele ventilator en 4GB geheugen. De kloksnelheden van dit model zijn ook lager: de gpu heeft een baseclock van 1607MHz, een gameclock van 1717MHz en een turbofrequentie van 1845MHz. Beide kaarten hebben een enkele displayport 1.4-aansluiting, een hdmi 2.0b-poort en een dvi-d-aansluiting.

De Powercolor RX 5500 XT Red Dragon (links) en RX 5500 XT 4GB

ASRock heeft drie RX 5500 XT-videokaarten uitgebracht: een Challenger-model met 4GB of 8GB geheugen en een Phantom-variant die alleen met 8GB gddr6 wordt geleverd. Alle drie de videokaarten beschikken over dezelfde kloksnelheden. De baseclock van de ASRock-gpu's is 1647MHz, de gameclock is 1733MHz en de boostclock is maximaal 1845MHz. De Phantom-kaart lijkt een iets luxer uiterlijk te bevatten, maar verder zijn de gpu's dus identiek. Ook de aansluitingen zijn hetzelfde met een drietal displayport 1.4-aansluitingen en een hdmi 2.0b-poort.

De ASRock RX 5500 XT Challenger (links) en de RX 5500 XT Phantom

Door Daan van Monsjou

Stagiair nieuwsredactie

13-12-2019 • 14:18

45 Linkedin Google+

Reacties (45)

Wijzig sortering
Verbaas me de laatste tijd erover hoe succesvol de PC gaming markt lijkt (is dit werkelijk zo??) terwijl de prijzen van vooral videokaarten de pan uit rijzen. Een jaar of 8 geleden kocht ik voor €180 een nieuwe MSI HD6950 wat het een na snelste model van dat moment was. Concurreerde met de GTX 570 (feitelijk een RTX 2070 super nu?)

Natuurlijk heb je inflatie gehad de afgelopen 8-9 jaar en zou je op zo'n €210-215 moeten komen als je eea corrigeer. Is deze hardware werkelijk zoveel duurder geworden of verdienen partijen (vooral Nvidia) zoveel meer?

Leuke van die 6950 was ook nog eens dat je hem met een bios flash kon modden naar HD6970 :D.

[Reactie gewijzigd door Tortelli op 13 december 2019 14:52]

Unlocken van shaders kon volgens mij alleen met reference die toen rond de 250 euro kostte..
Ik had een MSI referentiekaart die ik echt een paar weken na introductie gekocht heb voor €180. Kan de bestelling helaas niet meer in mijn mail terug vinden maar eea was wel een vrij goeie deal toen de tijd.

Maakt feitelijk ook weinig uit of je nu €180 of desnoods €250 voor zo'n highend kaart betaalde. Het is nog altijd minder dan de helft van de huidige highend kaarten: een 2070 Super heb je niet voor <€530.

[Reactie gewijzigd door Tortelli op 13 december 2019 15:11]

Dat komt omdat videokaarten tegenwoordig meer kunnen dan een plaatje mooi maken. Je kan er complexe berekeningen mee uitvoeren (wat touwens ook weer op de vraag drukt) en andere Compute toepassingen. Videokaarten zijn tegenwoordige helemaal geen videokaarten meer, maar heuse co-processoren voor zware Compute taken.

Ook zijn de productiekosten hoger geworden omdat de transistoren net zo klein zijn geworden als CPU's (als het niet kleiner is)
Ik kocht mijn reference 5850 in 2011 voor 260 euro.., toen kon je veel bitcoins mee minen in relatief korte tijd... jammer dat ik dit niet gedaan heb))

[Reactie gewijzigd door comrade op 13 december 2019 16:26]

I know. Mijn Sapphire HD4870 ook voor zoiets. Mooie kaart in die tijd.
Volgens https://www.anandtech.com...on-hd-6970-radeon-hd-6950 was het prijspunt van de 6950 $ 300..
6970 $ 370.
Tel er nog BTW bij op en de $ moet wel heel laag gestaan hebben ten opzichte van de euro.

[Reactie gewijzigd door Olaf van der Spek op 13 december 2019 15:19]

Die heeft inderdaad een aantal keren behoorlijk gunstig gestaan.

https://www.macrotrends.n...nge-rate-historical-chart

Zelfs bijna op 1,6 dollar per euro in 2008.
Momenteel doet de ECB er alles aan om deze zo laag mogelijk te houden om de export maar aan de gang te houden ten koste van de koopkracht van de Europese consument die flink meer voor zijn goederen betaald.
Tja dat zie je toch overal. 5 jaar geleden kosten toastjes 29 cent per pak nu 119 cent en koste een kilo zalm 6 euro nu bijna 35.

Alle prijzen zijn absurd gestegen en het word allemaal geslikt. Blijkbaar hebben de meeste consumenten geld zat of leven ze van geleend geld en schuiven schulden later af op de maatschappij.

Ik heb helaas geen inzicht meer op de prijs van distributeurd maar 10-15 jaar geleden lag het verschil tussen distro en winkel van een 200 euro kostende gpu op de 15% ongeveer met sommige shops die daar door groot inkopen onder konden gaan zitten.
Wat het nu is? Geen idee misschien dat iemand er nog wel toegang toe heeft.

De hele mining hype en het feit dat de prijzen nooit meer gezakt zijn omdat ze door hadden dat mensen ze toch wel kochten heeft ook bijgedragen aan de hogere prijs. En in eerste instant waren het daar vrijwel zeker de winkeliers en daarna distro's met oude stock die de lachende derde waren. De fabrikenten hebben daarna dit kunstje gewoon over genomen.
Bij nvidia komt de zeer hoge prijs ook voor een deel door RTX. De chips zijn enorm en dus de silicon kosten ook.
De silicon kosten voor nvidia zijn meer dan het dubbele dan die van amd. Doordat de chips veel groter zijn heb je minder chips per platter en ook nog eens veel meer afkeur, vandaar de enorme hoeveelheid verschillende Nvidia kaarten. Die dekken de kosten van de afkeur een beetje.
DIT, 5870 prijzen zoiets moet je hebben, High end voor 330 EU

[Reactie gewijzigd door A87 op 13 december 2019 17:26]

Je koopt een Radeon RX 5700 voor dat geld. Misschien niet zo high end als een 2080 ti, maar het is echt geen slechte kaart voor wat je betaald.
Ze verdienen er meer aan. Zoals jij en ik en pietje en kees, weten we allemaal dat nieuwe techs in het begin nog duur zijn en daarna goedkoper worden.
In de tijd van de radeon 4870/5870/6970 was winstmarge nog 30%. Nu heeft nvidia een winstmarge op een kaart van 65%+. En amd had ook gezegt dat ze ( dacht ik ) 45%+ willen hebben.
En daar betalen wij als consumenten, hun gretigheid.
En nog een keer dat mininggekte van 2017 was het beetje helemaal klaar voor ons consumenten. En nvidia had al gezegt dat ze die prijs willen aanhouden en ze hebben hun beloftes waar gemaakt.
Dus gg voor ons consumenten.
En dat de wereld economie daar geen stokje voor zet. Dit is misbruik als monopoly. En aangezien amd nu vrolijk met die prijzen meegaan kun je het ook over prijzenafspraken spreken.
Ik denk dat ik over 2 jaar ofzo nog een goeie raytracing kaart koop van 3 a 400 euros en daarna gewoon 10 jaar geen gpu meer koop.
Speel daar net zo lang op tot ie geen game meer kan draaien en dan doe ik wel gewoon console gaming net als toen ik nog een kind was en geen pc kon betalen. Laat die bedrijven maar voelen als iedereen niks meer gaan kopen. Want wij moeten uiteindelijk zeggen " wil je meer geld van ons? Doen wij jullie geen geld geven ".
Een Sapphire Pulse RX580 8Gb gaat over de toonbank voor zo'n 183-200 euro op dit moment. Totdat die kaarten uitverkocht zijn zie ik niet echt de meerwaarde van deze kaarten ten opzichte van zo'n RX580 (als ik de reviews mag geloven). Het is dan ook afwachten hoe lang het duurt voordat er een prijsdaling intreedt bij deze RX5500XTs.

[Reactie gewijzigd door DwarV op 13 december 2019 14:25]

Mwa voor energieverbruik is ook wat te zeggen. De 5500XT gebruikt fors minder stroom.
Dit resulteert met 2 uur per dag 3 jaar lang en 22.5 cent per kwh dat je bijna 50 euro bespaard aan stroomkosten.
En de komende jaren zullen die alleen maar stijgen ondanks de zogenaamde belastingverlaging die en dankzij die absurde rijkelui sponsoring genaamd ODE die fors sneller stijgt dan de belasting daalt.
Als je dat doorberekend dan is deze kaart misschien wel interessant afhankelijk van het aantal uren dat je gamed en of je nog bij paps en mams thuis woont want dan hoef je immers de rekening niet zelf op te hoesten.
Bovendien zal de 5500xt door minder warmte opbrengst beter zijn thuis vinden in kleine builds dan de 580.


@soulcrusher Iemand die daarentegen goed schrijft. There's still hope. _/-\o_

[Reactie gewijzigd door lars_jj op 13 december 2019 19:57]

Daarentegen bespaar je met een 580 in de winter weer op stookkosten in huis :+
Mwa voor energieverbruik is ook wat te zeggen. De 5500XT gebruikt fors minder stroom.
Dit resulteert met 2 uur per dag 3 jaar lang en 22.5 cent per kwh dat je bijna 50 euro bespaard aan stroomkosten.
En de komende jaren zullen die alleen maar stijgen ondanks de zogenaamde belastingverlaging die en dankzij die absurde rijkelui sponsoring genaamd ODE die fors sneller stijgt dan de belasting daalt.
Als je dat doorberekend dan is deze kaart misschien wel interessant afhankelijk van het aantal uren dat je gamed en of je nog bij paps en mams thuis woont want dan hoef je immers de rekening niet zelf op te hoesten.
We hebben het dan over € 0,05 per dag. Dat is afgerond naar boven. :/
Ja als je het naar de minuut betekend is het nog minder.

Je moet dit dan ook gewoon over de verwachte levens en gebruiksduur van het product bekijken....en het extra verbruik is dan de meerprijs die aan het product hangt.

Zo wil ik een nieuwe router maar vind 150 euro best veel. Maar ik verwacht met de router 5 jaar te doen en ik ga van 2 routers naar 1 doordat de nieuwe vlan heeft en bespaar daarmee 11.5 watt uit over 5 jaar is dit dis een whopping 110 plus euro en betaal ik efficiënt dus maar 40 euro voor de router. En dan heb ik geen rekening gehouden met de absurd stijgende stroomprijs. Deze was 3 jaar gelden nog 18,4 cent en nu al 22.5 cent. Zelfde geld voor de gpu. Minder verbruik kan je aftrekken van de aanschafprijs want dat is wat je effectief voor je product betaald.
Deze kosten toch minder dan 180 euro, zijn sneller, en zuiniger.
Wanneer komt AMD met een kaart in het high-end segment die kan concurreren met op z'n minst een 2070 Super of 2080?
Zou leuk zijn maar ik denk niet dat de prijzen ervan zullen dalen.
Net als intel houd Nvidia gewoon zijn poot stijf en brengen extra features en de meerprijs word gewoon betaald.
Zelfs als AMD een kaart uit zou brengen die de 2080TI zou evenaren dan zouden ze die gewoon op de markt slingeren voor 1099 iets goedkoper maar de kans dat mensen dan gewoon voor de 2080TI gaan is groot mede door RTX wat juist op die kaart boeiend is. Misschien als amd er 16gb GDDR6 tegen aan gooit dat die mensen wat anders overwegen doordat dat goed is voor later en de kaart beter scaled in de toekomst.

Ondanks de 100 euro (20%) lagere prijs heeft de 2060 tot 2070 super range beter verkocht dan de navi kaarten van AMD. (was vorige week ergens bij 1 van de techtubers te horen).

Denk dat AMD totdat ze wat beters op de plank hebben zich er niet aan branden en het bij de gpu's moeten hebben van de fanbase.
Nvidia zit nog op 12nm en gaat met de overstap een enorme besparing tegemoed wat ze heel veel ruimte geeft voor extra power en dat beseft AMD ook wel. Ze hebben wat dat betreft meer in te halen om met navi gelijk te komen aan Nvidia dan dat ze na ryzen 1 hadden om gelijk te komen aan Intel waar ze ook nog eens een die shrink tot hun beschikking hadden die ze met navi niet meer hebben voorlopig.
En dus zal het bij navi van architectuur moeten komen, dus meer cores of hogere clock en veel rek in de clocks zet er niet meer dus word het meer clocks of hogere bandbreedte.
En meer shader units/cores is meer solicon en dat kost veel geld.
Een verdubbeling aan silicon is meer dan een verdubbeling aan kosten door het aantal chips per platter en een lagere yield van het aantal chips die voldoen als high end chip.
AMD gaat straks gewoon 100 miljoen+ APU's leveren aan Sony en MS voor de nieuwe consoles, dus er is ook helemaal geen reden voor AMD om iets in een niche hoger segment te hebben. Geld verdienen ze toch wel.
Nou ja zon vaart zal het niet direct lopen. In totaal zijn er rond de 150 miljoen Xbox one en Playstation 4 consoles verkocht. Maar hier hebben ze wel 6 jaar over gedaan en is de xbox one 2x vernieuwd met een snellere Soc en de playstation 1x voor in totaal 5 verschillende socs.
Dus die aantallen zullen ze misschien ooit wel halen maar daar gaan ze wel lang over doen. Zeker de mensen die de afgelopen paar jaar een console gekocht heeft zal niet meteen de nieuwe halen.
En dat is maar goed ook want amd is totaal niet in staat om die chips binnen 3 jaar te leveren.

AMD niet erg voorzichtig gaan zijn met hun supply en demand en zorgen dat de demand niet te hoog word want dat kan ze een behoorlijke klap in het gezicht geven. Ze produceren niet zelf en niet constant en TSMC is overbezet met steeds langere wacht tijden.

Time will tell maar AMD krijgt nu al bpaalde contracten niet omdat ze niet direct aan de vraag kunnen voldoen.
En De consument zal het ze niet in dank afnemen als keer op keer op keer er niets voorradig is doordat ze de productie capaciteit niet hebben. Het is nu een paar keer gebeurt maar dat kunnen ze niet te vaak doen.
Op zich goed dat ze uitverkopen maar kijk maar wat het intel gebracht heeft. Niet veel goeds qua prijzen en consumenten tevredenheid.
150 miljoen chips in 6 jaar is toch gewoon 25 miljoen per jaar! Nu weet ik niet hoeveel videokaarten ze per jaar verkopen maar...niet verkeerd!

[Reactie gewijzigd door harrytasker op 13 december 2019 16:16]

De 5700 XT is geen directe concurrentie voor de 2070 Super, maar wel voor de normale 2070. Performance verschil daarmee is 1% terwijl het prijsverschil wel wat anders is.

Ben het er wel mee eens dat iets als een 5800 of 5900 XT wel gaaf zou zijn, maar ik denk dat die de laagste prio krijgt gezien die kaarten het minst verkopen.
Daar ben ik het niet mee eens.
Bekijk deze vergelijking met de nieuwste drivers eens.
https://www.youtube.com/watch?v=ZmlRzGhdWdM

Naar mijn idee is de 2070 super zijn prijsverschil niet waard.

[Reactie gewijzigd door bounto op 13 december 2019 14:43]

De 5700XT concurreert perfect met de 2070 Super. Gemiddeld 8% lagere prestaties voor 100 euro minder. Dan hebben we het over 100fps tegenover 92fps. In sommige games lopen ze zelfs gelijk.
En voor zelfde geld maakt ie nog eens gehakt van de 2060super.
De 5700 werd al duur gezien door sommige tech youtubers, maar prijs prestatie tegenover nvidia was het nog altijd goed.
De 5500 is dat niet goed.
Tis dat ze de lading van polaris even kwijt willen net als nvidia toen de gtx1000 voorraad kwijt wilde.
Ik zie dat de 2080 ietjes goedkoper zijn geworden en dollar is nog steeds sterk tegenover de euros.
Als je vergelijkt met nVidia, dan kan je beter vergelijken met de RTX 2060 Super:
https://gpu.userbenchmark...AMD-RX-5700-XT/4049vs4045
Vergelijkbare prijs voor vergelijkbare prestaties.
Als je het forum en/of nieuws een beetje mag geloven (op de meer specialistische hardware sites/fora) dan kan je tenminste een "announcement" op de CES2020 verwachten (7-jan-2020, -red.).
De verwachting is óf aankondiging van de 5800(XT), óf de aankondiging van RDNA2 met HW Raytracing (laten we ze voor het gemak de 6000-series noemen), óf beide.

[Reactie gewijzigd door zion op 13 december 2019 22:36]

Voorlopig niet. Ze verdienen nou eenmaal genoeg aan het midden segment van de markt.
Dat is de reden niet echt. Er is een probleem, en dat is dat AMD helaas niet kan meedoen in het hoge segment. Nvidia heeft hierdoor vrij spel.
Heb je dat een bron voor? Afgezien van capaciteit van TSMC kan ik niet bedenken waarom er geen grotere chip dan de navi10 kan worden gemaakt. Bij de Polaris en vega zag je dat die chips echt aan de grenzen zaten met stroomverbruik en die-size. Dat is bij Navi nog niet het geval. De specificaties van de nieuwe Xbox en ps5 suggereren ook betere prestaties dan navi10.
Het is niet alleen het maken van de chip. Het is voornamelijk het ontwerpen van de architectuur en dát hebben ze niet op orde. Waarom heb je daar een bron voor nodig? Als AMD de kans had om ook marktaandeel bij het hogere segment te krijgen hadden ze dat zeker geprobeerd.
Misschien je eerst even inlezen voordat je willekeurige propaganda verkoopt anders?
AMD (en dat gaat absoluut niet geheel foutloos) moest van ver komen, en heeft bewust gericht om eerst weer competetief in het midden-segment te worden == veel inkomen, daarna met onder andere deze releases het lagere segment een nieuwe kaart aan te bieden (die helaas in mijn en velen optiek even een *miss* is bij deze prijzen, € 30,- minder en het zijn fijne kaartjes, en ze staan al te springen om op CES2020 weer iets uit hun hoed te toveren.

Je moet bedenken dat ze op 2 fronten vechten met jongens die 100x de omzet hebben (Intel & Nvidia), en toch hebben ze het voor elkaar gekregen om Intel te verslaan (ga ik geen discussie over houden, zelfs de meest verfente Intel die-hard durft niet meer met een recht gezicht te beweren dat de Intel op dit moment king of the hill is, én ze hebben het voor elkaar gekregen om Nvidia nerveus te maken en halsoverkop allemaal *supers* uit te brengen die ze nooit van plan waren te lanceren.

Hebben ze nVidia al te pakken? hell no. Zullen ze dat zo eventjes uit hun hoed toveren? hell no. Zijn ze lekker bezig met elke iteratie een steeds concurender product neer te zetten? zeker. Gaan ze in 2020 serieus meedoen met de high-end markt? naar alle schijn wel, maar die plannen krijgen we wat beter zicht op in een klein maandje, waar AMD (normaliter) weer even hun stokpaardje(s) voor 2020 van stal zal halen op de CES2020.
Omdat wat jij zegt in zijn geheel te verklaren is dit een gebrek aan productiecapaciteit. In CPUs zijn ze qua prestatie nu compleet dominant, dus dat zal prioriteit hebben en in het GPU landschap is 1080p gaming veruit het grootste. Daar zijn ze nu redelijk competitief en hebben ze nu de producten redelijk liggen. Waarom dan capaciteit gebruiken voor de veel grotere dies die een 2080 Ti concurrent vereist, waar de yield lager ligt, terwijl ze nog geen eens de capaciteit voor een 1660s concurrent hebben.

Ik snap dat de architectuur anders in elkaar zal zitten voor de grotere dies, maar er is geen enkele reden aan te nemen dat dat nu de limiet is. Er zijn immers wel geruchten over big Navi en de koek is natuurlijk niet op bij de eerste iteratie van een nieuwe architectuur. Als je wel gelijk hebt betekend dat, dat Nvidia nog jaren dominant zal zijn, en dat is best waardevol om te onderbouwen.
Er zijn helemaal geen aangepaste kaarten omdat er geen standaard ontwerp van AMD is deze release! Iedere fabrikant maakt een eigen otwerp.
Semantiek...

De kaarten zelf zijn wellicht niet "aangepast", maar ze zijn wel custom met veelal verschillende kloksnelheden..
Dit soort kaarten zouden toch minima op 3ghz moeten draaien.

230 euro voor een kaart in 2020 die amper 1080p aankan is om te huilen. En een absolute aanfluiting voor de maatschappij. Dit is echt iets waar je hooguit je oma mee laat gamen.

[Reactie gewijzigd door A87 op 13 december 2019 17:27]

Een RX570, splinternieuw voor circa 130 Euro doet zo goed als elk spel maxed out, op ULTRA bij 1080p met ~60FPS. 2e-hands, met garantie zijn zulke kaarten vaak te vinden voor ~80-90 Euro. Volgens mij onderschat je de toepassingen van een RX 5500 XT.
Dat was anderhalf jaar geleden zo maar rdr2, borderlands 3, outer worlds en wat andere recentere games zijn gewoon niet meer sleelbaar op ultra 1080p.
Zelfs mijn fors snellere GTX1070 kan dat namelijk al niet meer en die is echt niet gelimit door de 9900k waar hij mee gepaired is.
Volgens mijn overschat je de snelheid van deze kaartjes in 2019. Een 2060 of vergelijkend amd model is toch wel het minimum geworden voor 1080p ultra .
Ja, maar ik zeg ook zo goed als elk spel en dus niet alle spellen. Degene waar ik op had gereageerd geeft aan dat je zelfs met een GPU van 220 Euro nauwelijks op 1080p kan spelen. Dat is definitief niet waar. Al speel je niet op ultra bij 1080p60, dan speel je maar 1-2 standen onder ultra op 1080p60. Met RDR2 kan je het wel vergeten met een RX570 of GTX1070. Dat is zo een slecht geoptimaliseerd spel dat je maar beter een console er voor kan aanschaffen want tja, om dat spel redelijk op ten minste high te willen spelen heb je een RTX2070 nodig á 450+ euro, wat dus veel duurder is dan een console+RDR2.
Mijn punt was dan ook dat het een trent is dat alle nieuwe tripple A titels niet meer op ultra gedraaid kunnen worden.

En rdr op een low setting zie er beter uit als op een co sole. Il snap noet dat mensen steeds zeggen dat je beter een console kan halen. Consoles hebben settings ver onder low,missende effecten enhalen standaard al nog lagere fps.
Daarnaast zijn consoles andere input en dus een andere markt. Met een rx570 kan je betere graphics en ook hogere fps krijgen als een console. Ultra is alleen onmogelijk.
Soms denk ik heeft het wel nut al deze videokaarten ? een gt 1030 bijvoorbeeld is leuk voor een media pc en een gtx 1050 leuk voor 720P 60 frames en een gtx 1070 voor 1080P 60 frames etc.

Maar nu heb je GTX1650, RX5500XT, GTX1660, GTX1660 Super, GTX1660TI, RTX2060, RX5700, RTX2060 Super, RX5700XT, RTX2070, RTX2070 Super, etc. wat heeft het voor zin je komt telkens op een bepaalde frame per € uit.

Dan nog amper prijs verschil tussen bijvoorbeeld een Gigabyte of Msi kaart en een Inno3D of Palit kaart en de webshops houden rotsvaste prijzen aan en zullen eerder met voorraden over blijven dan verkopen voor minder of juist voor meer als de voorraad bijna op is.

AMD doet hun best maar elke keer net niet genoeg.. als hun iets uitbrengen dan past Nvidia hun prijzen iets aan of gooien afgedankte en aangepaste videokaarten op de markt als Super kaarten om een bepaald frame per € gat op te vullen.

PC gaming zal wel weer een zeldzaam Master race worden door Streaming services die eraan komen en nieuwe generatie Consoles die net zoveel kosten als een Videokaart die je nodig hebt om die Consoles bij te houden omdat Nvidia geen concurrentie heeft..

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True