Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

'AMD Radeon RX 590-videokaarten komen op 15 november uit'

Videokaarten met de AMD Radeon RX 590-gpu komen op 15 november uit, dat meldt onder andere VideoCardz. De website heeft al diverse afbeeldingen van RX 590-kaarten van verschillende fabrikanten gepubliceerd. De RX 590 heeft een 12nm-gpu.

VideoCardz noemt de datum in een bericht over de Sapphire Radeon RX 590 Nitro+. Dat is een uitvoering met een fikse koeler en een backplate. Volgens VideoCardz kiezen fabrikanten ervoor om hun RX 590-videokaarten uit te rusten met hun beste koeloplossingen. Asus komt bijvoorbeeld met een model in zijn RoG Strix-serie en eerder verschenen er foto's van een PowerColor-variant met een koeler die drie slots in beslag neemt.

Uit eerder uitgelekte informatie is gebleken dat de RX 590-videokaarten worden voorzien van een Polaris 30-gpu. Dat is een refresh van de Polaris 20-gpu op de RX 580-videokaarten. De nieuwe gpu heeft net als zijn voorganger 2304 streamprocessors, maar wordt gemaakt op 12 in plaats van 14nm. De kloksnelheden van de RX 590 zijn vermoedelijk hoger dan die van de RX 580.

Wat de nieuwe videokaarten gaan kosten, is nog niet bekend. Er lijken alleen uitvoeringen met 8GB gddr5-geheugen te komen. RX 580-varianten met die geheugenhoeveelheid en vergelijkbare koelers kosten momenteel tussen 250 en 300 euro.

Door Julian Huijbregts

Nieuwsredacteur

07-11-2018 • 11:16

137 Linkedin Google+

Reacties (137)

Wijzig sortering
"De nieuwe gpu heeft net als zijn voorganger 2304 streamprocessors, maar wordt gemaakt op 12 in plaats van 14nm. De kloksnelheden van de RX 590 zijn vermoedelijk hoger dan die van de RX 580."

Als er precies dezelfde hoeveelheid streamprocessors aanwezig zijn, dan zal de snelheid wel omhoog mten. Anders dan bezit dit product een weinig unieke Selling Position.
De kaart heeft sowieso geen positie in de GPU markt gezien de kaart voor de release al zwaar out-dated is.
over een x maand gaat nVidia de 2060 uitbrengen die weer een stuk sneller zal zijn en dan gaat AMD weer stof happen.

De CPU markt is nu e-i-n-d-e-l-i-j-k wat aan het op pakken met de Ryzen CPU's, maar de GPU markt is enorm triest als je na gaat hoe goed ATI in het verleden was (4870 anyone?). Na de RX290 is het berg afwaarts gegaan betreft prestaties en dat is enorm zonde imo.
Wat een onzin. Om maar eens een voorbeeld aan te kaarten Crypto door veel tweakers alom gehaat. Ik haal het alleen maar aan om aan te geven dat Nvidia niet op alle vlakken heer en meester is. Als het om pure rekenkracht in de GPU gaat dan staat AMD ook haar mannetje. Er is niet voor niks een algemene spreuk in crypto-land: "AMD the way it's meant to mine".

Een ander verhaal is Apple. Apple past al geruime tijd AMD Gpu's toe. In de laatst iMacPro zit een RX Vega 56 of 64. Niet om mee te gamen maar voor grafische toepassingen. En verder is nog de virtualisatiemarkt waar Nvidia wel heel groot is maar op papier AMD soms betere features heeft voor sommige usecases. (Logische verdeling Nvidia vs Fysieke opdeling AMD).

Het nadeel van AMD is dat ze zich te makkelijk laten wegzetten door de agressieve marktleider nVidia. (Gaming brands die bestonden en gedwongen werden zich te binden aan nVidia, EA die battlefield 5 uitstelt totdat ook de 2080ti leverbaar is ... enz). Iets waar ik bewust afstand van wil nemen. Noem het maatschappelijk verantwoord computeren ;-)
Apple gebruikt geen Nvidia grafische kaarten meer sinds het akkefietje van de stabiliteit van (discreet) Nvidia GPUs in de MBP 2010/2011.

Het mooie van AMD is dat het perfect onder Linux werkt, met open source drivers. En onder Mac werken ze, zoals je al aangeeft, ook. Dat is mogelijk handig wanneer je voor Hackintosh gaat.
Dat dacht ik ook altijd maar is toch niet helemaal waar. Ik heb namelijk hier thuis een iMac staan late 2012 met een GT650M. De iMac daarvoor had wl AMD. Dus Apple had na het akkefietje toch weer systemen geleverd met nVidia erin. De eerste iMac die weer met een AMD GPU was opgebouwd was pas de Late 2014 5K. In de iMac Late 2013 zat de laatste Nvidia GPU met als dikste variant de GTX780M.

Insanelyhack ... Insanelymac ... its me ;-)

En inderdaad ik heb mijn EVGA GTX1080Ti verruild met een Sapphire RX Vega 64 voor macOS. Als je zo dicht mogelijk tegen een echte iMac / MacPro aan wil bouwen zou ik altijd AMD kiezen. Het is geen vergelijking met een nVidia kaart. Dat komt omdat je voor de nieuwste nVidia kaarten overgeleverd bent aan de drivers van nVidia zelf. Deze zijn veel slechter ondersteunt in de rest van het OS. AMD wordt door Apple native ondersteunt (... bijna ...).

[Reactie gewijzigd door InsanelyHack op 7 november 2018 16:22]

Misschien waren die dingen allang gedesigned toen de beslissing om AMD only te gaan was genomen.
Ja n modeliteratie kan ik me voorstellen maar 3-4 generaties verder?
Het nadeel van AMD is niet 'laten wegzetten', het nadeel is dat ze in feite al vanaf Hawaii op achterstand lopen en die niet weten in te halen, en dat komt omdat de focus op GPU compleet verkeerd ligt. AMD zoekt synergie met CPU, wil de datacenters in met GPU, en gaming staat ergens onderaan het lijstje met kleine lettertjes en een minimaal budget.

Daar plukken we nu de vruchten van, so to speak. Een royale 80 versus 20 Nvidia-AMD markt is niet van gisteren op vandaag ontstaan. Daar is vanaf Kepler een gestage lijn ingezet en AMD heeft GCN laten bungelen. Wat daar ook de echte reden voor is geweest; feit blijft dat het niet Nvidia's schuld is. Alle andere voorvallen zijn slechts gevolgen. Als je een noemenswaardige speler bent, gebeuren die dingen niet of heb je een sterk antwoord. AMD heeft dat niet, omdat het ze geen bal meer kan schelen, en omdat ze die inhaalslag voorlopig never nooit kunnen maken.

Neem nu de RX480>580>590. Het begon zo mooi. 'We pakken die midrange' riep iedereen... Inmiddels is het bijna 2019 en kijken we tegen een refresh van een refresh aan, want meer is het niet, en Nvidia brengt gewoon een 2-3 jaar oude 1060 op de markt, opgebouwd uit afgedankte GP104 en GDDR5X chips en dat was het dan. Tot zover de strijd om de midrange. AMD met een Polaris op een nieuw proces, en Nvidia met een 3 jaar oud product. En raad eens wie gaat winnen.

AMD heeft de gamer al enkele jaren volledig in de kou laten staan. Laten we het gewoon bij de naam noemen. Vega is geen gaming product meer en ook Navi gaat niet verder dan een midrange product komen in zijn eerste iteratie. Verder bestaat er niet eens iets op de roadmap. Ja 'next-gen'... wat dat ook mag zijn.
Ach met een RX Vega 64 die ik heb kan ik prima gamen. Ik had eerst een 1080ti en die heb ik omgeruild voor deze sapphire RX Vega 64 nitro+. Ik weet dus waar ik het over heb. De Vega krijgt standaard geen optimale voltages waardoor de kaart al direct op zijn limiet loopt. Deze limiet is vergelijkbaar met de prestaties van een 1080 wat ik niet echt in de kou staan vind. Na een correctie van de juice die de kaart ingaat zijn de temps dik in orde en schiet de prestatie ruim over die 1080 prestatie heen. Dus hoezo in de kou staan? Weet je wat ik voor die RX Vega betaald heb? Ik hield 200 euro na verkoop van de 1080ti en de kaart vult ruim mijn gaming verwachtingen in. Maar het belangrijkste is dat hij snel is met h265 encoding op mijn hackintosh.

En wat bedoel je er nu mee te zeggen? Dat je maar gewoon Nvidia moet kopen en dan mondjesmaat wat prestatie laten toevoegen onder het genot van prijsstijgingen van ca 30-40% tov 10-20% performance na de mining hype? Neu dan liever een kaart die misschien ietsje minder presteerd in gaming maar je absoluut niet in de kou laat staan (zeker niet met de standaard v-core :-))

[Reactie gewijzigd door InsanelyHack op 8 november 2018 11:50]

Kijk, het argument prijs en jouw aankopen zijn niet relevant. Leuk dat je wat geld hebt uitgespaard met een downgrade (een behoorlijke, overigens) maar hoe is dat verder interessant als het gaat om de positie van AMD op de GPU markt? Het zal mij een worst wezen wat jij met je GPU aankopen doet. Daar ging mijn post en jouw initiele reactie ook helemaal niet over en dit is een beetje een struisvogel reactie van je. 'Hij doet wat ik nu nodig heb'. Fijn. Maar feit blijft dat het beste wat AMD kan brengen meer dan 60% trager is dan wat de concurrent op tafel legt. Al het andere is daar slechts een gevolg van. Mining? Nee - AMD's stagneren op GPU is er debet aan dat Nvidia nu een RTX lijn uitbrengt met astronomische prijzen. En dat stagneren bestaat uit het alsmaar uitstellen en verder rekken van GCN optimalisaties en het maken van keuzes mbt die architectuur. Keuzes die niet 'gamer oriented' zijn maar alles behalve dat. Vega 20 op 7nm - geen gaming product. Navi: nog ver weg en wederom midrange. Polaris: gewoon een shrink, ze doen niet eens de moeite om er wat stream processors bij te gooien.

Maw denk maar niet dat jij over een paar jaar nog een upgrade voor Vega gaat vinden bij AMD, en als die er is, dan is het een zeer marginale upgrade. Het beste scenario voor Navi is dat het rond een RTX 2080 gaat presteren... maar dan wel twee jaar te laat - of zelfs 4-5 jaar want dan hebben we het nog altijd over een 1080ti equivalent.

[Reactie gewijzigd door Vayra op 8 november 2018 12:40]

En wat maakt een 2080(ti) nu zo bijzonder tov een 1080ti? Wat raytrace geneuzel met paar procentjes performance. 1000 cuda cores toegevoegd 2000 shaders toegevoegd 10% performance increase geweldig innovatief hoor! En ja nVidia zal best de betere kaarten hebben met hun enorme budgetten en veiliggestelde afzetmarkten in vergelijking waar AMD het dan mee moet doen. Maar de markt vervolgens volledig te dwingen om achter nVidia te gaan staan door de bestaande gamingbrands exclusief op te eisen door daar inkoopconsequenties aan te verbinden als fabrikanten niet mee gaan vind ik te ver gaan.

Ik wist ook wel dat ik performance zou inleveren en dat het een downgrade was absoluut gezien maar iedereen heeft zijn eigen set usecases en dat is inderdaad niet relevant. Ik denk ook dat 60% trager overdreven is, geen idee hoe je aan dit cijfer komt. En waarom moet AMD ook het beste, het meest innovatief zijn als het even kan en het snelste bieden? Ze mogen toch ook gewoon net beneden het topsegment kaarten uitbrengen voor een aantrekkelijke prijs. Ik vind ook dat er best sprake mag zijn van enige vooruitgang en dus iets meer dan alleen een shrink. Ik snap jouw punt wel dat nVidia inderdaad astronomische prijzen kan vragen omdat AMD geen antwoord heeft in dit segment. Maar uiteindelijk zijn we toch zelf baas van onze portemonnee en bepalen we zelf wat we ergens voor willen uitgeven of niet en zijn we daar zelf ook niet een beetje debet aan dat men ook altijd klakkeloos nVidia koos net zoals intel en AMD Cpus? In de servermarkt is dat ook gewoon bewezen dat AMD bewust op achterstand werd gezet maar wat is daar destijds concreet door veranderd? Dat bedoel ik met weggezet. Vroeger weggezet in de CPU server markt en nu in de GPU gaming markt. nVidia is heer en meester in het topsegement en maakt daar de marge. In het low en mid segment, waar de meeste omzet zit, hebben ze afnemers in de tang door speciale inkoopafspraken gekoppeld aan de nvidia exclusiviteit in relatie met het "gaming brand" van de fabrikant. En dan ga jij klagen dat AMD daar lang al geen antwoord op heeft.

Misschien is het inderdaad waar dat AMD de strijd heeft opgegeven in de gamingmarkt en vindt men de huidige afzetmarkten zoals APU / Consoles / Apple / CPUs veiliger. Aan de andere kant heeft AMD in het verleden ook wel flinke uitschieters laten zien zoals de Athlon 64 CPU de 48x0 GPUs en recentelijk de Rizen CPUs waar ik geen ervaring mee heb maar waarvan ik begreep dat die redelijk kunnen meeliften.
Je weet dat GPP inmiddels allang gedropped is, he? Asus voert ook gewoon weer AMD producten onder Strix en ROG. En ja, eens dat dat een ratten actie was. Dat vonden dus meer mensen en de feedback was dusdanig dat die keutel weer is ingetrokken.
En wat maakt een 2080(ti) nu zo bijzonder tov een 1080ti? Wat raytrace geneuzel met paar procentjes performance. 1000 cuda cores toegevoegd 2000 shaders toegevoegd 10% performance increase geweldig innovatief hoor!

Ik denk ook dat 60% trager overdreven is, geen idee hoe je aan dit cijfer komt.
Bijzonder, dat zul je mij niet horen zeggen. Net zo min als dat ik ray tracing relevant vind of uberhaupt geloof dat dat boven de gemiddelde GameWorks implementatie gaat uitstijgen (waarom? De consoles gaan (nog) niet mee, performance is bedroevend en alleen de high end heeft RTRT = geen markt voor grote investeringen = doodgeboren tech).

Maarre... de rest?
Zie hier het gapende gat.
https://www.techpowerup.c..._2080_Ti_XC_Ultra/33.html

Dat is al bijna 80% verschil tussen de Vega 64 en een 2080ti. En op 4K is de 2080ti nagenoeg twee keer zo snel. Wat nou 10%? 10% was het verschil tussen een Fury X en de 980ti OC ja, dat is nieuws van 4 jaar geleden, toen je al kon zien dat het einde eraan kwam voor GCN. Zelfs de 1080ti is al 40% sneller en binnen Nvidia's eigen stack zit er netjes weer zo'n 30-35% meer perf tussen elke gelijkgenoemde tier (1080 > 2080 enzovoort).
En waarom moet AMD ook het beste, het meest innovatief zijn als het even kan en het snelste bieden? Ze mogen toch ook gewoon net beneden het topsegment kaarten uitbrengen voor een aantrekkelijke prijs. I
Alles mag maar je ziet waar het toe leidt. Stilstand is achteruitgang. En AMD staat sinds Fury X volledig stil. Vega is geen levensvatbaar product voor gaming en wordt met vrijwel geen marge verkocht. Daarom zijn de meeste Vega's ook richting MI25 en Frontier versies gegaan en niet naar de RX lijn. En daarom is Vega 20 ook een pure datacenter/workstation GPU. Tekort aan GPUs door mining? Nee, ze werden gewoon elders ingezet. Daarom waren er weinig te koop en daarom was er een bait and switch met de launch, met FreeSync combi aanbiedingen die niemand echt te pakken kon krijgen. Want ja, AMD mest wel een RX Vega uitbrengen, ze konden niet meer terug ivm de PR en het imago van RTG / Raja, ondanks de dramatische perf/watt en absolute performance.
Misschien is het inderdaad waar dat AMD de strijd heeft opgegeven in de gamingmarkt en vindt men de huidige afzetmarkten zoals APU / Consoles / Apple / CPUs veiliger.
Niet misschien, er is geen enkele twijfel meer over, je hoeft maar naar de roadmap en de afgelopen jaren te kijken en je ziet dat er niets meer in de tank zit. En dt is het euvel met blijven hangen in de midrange. Als je top-end niet meer meedoet, zak je steeds verder weg. Het bewijs tekent zich af in het enorme gat tussen Nvidia en AMD - zie link hierboven, in marktaandeel, in absolute performance, en in efficientie. Je hoeft maar naar Zen te kijken om te zien hoe lang het kan duren voordat zo'n gat wordt gedicht, en dan is er n belangrijk verschil met CPU: op GPU is de concurrent wl volop aan het doorontwikkelen, itt Intel op CPU. Ga er maar aan staan.

Ik blijf het zeggen, mijn analyse over GPUs en de markt gaat nooit over anti-AMD of anti-Nvidia, maar over de gezondheid van de markt. En AMD draagt daar net zomin aan bij als Nvidia. Uiteindelijk is AMD daarmee ook het meest geholpen, want nu nog proberen serieus mee te doen in de high end is een verloren zaak. Maar dat heeft wel consequenties. Laten we maar hopen dat Intel met een leuk alternatief komt, ergens in of na 2020. Als je nu nog je zinnen op een AMD antwoord hebt gezet, dan is dat tegen beter weten in.

[Reactie gewijzigd door Vayra op 8 november 2018 15:54]

Bedankt voor je indrukwekkende en overtuigende reactie. Die 10% die ik bedoelde was een 2080(ti) tov een 1080ti. Niet tov een RX Vega 64. En als ik nu zo de performances in sommige games zie dan is dit iets te laag geschat. Ik denk dat ik het wel met je eens kan zijn en samen concluderen dat de markt volledig naar de gallemiezen is. Ik vind voornamelijk dat nVidia te agressief is en daardoor AMD beperkter is en jij vindt dat AMD te lang niks heeft ondernomen om bij te blijven. De waarheid zal ergens in het midden liggen denk ik.
Als de 2060 net zo omhoog gaat in prijs ten opzichte van de 1060 als de 2070 en 2080 dan blijft deze gewoon concureren als een van de beste mid range kaarten.

De 580 is momenteel van de beste prijs/performance kaarten die te krijgen zijn. Hoezo out-dated? Een refresh die iets sneller of zuiniger is lijkt mij dus prima een markt voor.

[Reactie gewijzigd door n3othebest op 7 november 2018 11:59]

Het overgrote merendeel van de gamers speelt op 1080p, dit is een perfecte kaart voor deze resolutie. Het grote geld zit in de mainstream market, niet in de high end. Uiteraard heeft deze kaart zijn positie en is die niet outdated. Heb je reeds een rx480 of rx580 dan laat je deze kaart aan je voorbij gaan maar dan heb je sowieso geen reden om te upgraden als je op 1080p speelt.
AMD neemt absoluut de tijd voor het uitbrengen van een echte nieuwe generatie videokaarten... te veel tijd zelfs als je het mij vraagt. Maar aan de andere kant heb ik zoiets van dat ze hun tijd maar moeten nemen en net zoals met Ryzen een zeer concurrerende serie videokaarten uit gaan brengen... de markt heeft het nodig.

Daarnaast is zoals genoemd voor 1080p gaming de RX580 een no-brainer en dat zal de RX590 ook nog steeds worden gezien Nvidia zichzelf uit de markt aan het prijzen is... 4K 60hz of zelfs 120hz gaming is nog altijd een niche markt.
het moet echt nog maar blijken of er een 2060 komt op korte termijn. En daarbij als nvidia hun huidige trend volgt kost die wat de 1070 koste en is daarmee geen directe concurrent.

En als er een 2060 voor ~450 komt en een 2050 voor ~250 op 16/12nm dan gaat Navi van beide compleet gehakt maken op 7nm voor een 200-300 euro prijs.

Daarom denk ik dat nvidia dat maar gewoon compleet skipped. of die mid range kaarten ook gelijk op 7nm uit brengt.

[Reactie gewijzigd door Countess op 7 november 2018 12:08]

dan gaat Navi
Navi is er voorlopig ook nog niet..
nee, en tot die tijd is de 590 de beste mid range GPU.

en Joeri.Bijlsma had het over 'X maanden'. dat kan je van Navi ook zeggen. helemaal als de 2060 er daadwerkelijk is (als hij idd begin 2019 komt)

[Reactie gewijzigd door Countess op 7 november 2018 13:02]

Idd en buiten dat is verschil tussen een 10x0 en een 20x0 ook niks anders dan wat raytrace frutsels die eraan zijn toegevoegd. Dus wie is er nu zwaar outdated?
En de 1070 waren 450 een nu kost de 2070 wat een 1080 koste.

Sterker nog de 970 had een launch prijs van 320. Vorige generatie hebben ze dus exact het zelfde gedaan

Nvidia heeft met de 2000 series alles (weer) 1 tier opgeschoven. Dus waarom zouden ze bij de 2060 dat opeens niet doen?

[Reactie gewijzigd door Countess op 7 november 2018 12:24]

De x70 schoven iedere keer weer iets naar boven qua prijsniveau. Ik ben het met je eens dat de stap van de 1070 naar de 2070 een forse is, maar geef het een half jaar.
De 970 daarentegen was eigenlijk te goedkoop op de markt gezet met prijzen net onder de 400 terwijl de goede exemplaren OCed tegen de 980 aanschurkten. De markt had dit binnen een half jaar gecorrigeerd samen met de andere factor: crypto mining.

Nu uitgaan van 450 voor de 2060 om je argument te versterken is een enorm zwaktebod.

Daarbij is de 2060 allang confirmed, dus nee die gaan ze niet overslaan ;)
Dus jij echt denkt dat nvidia een ENORM gapend gat in hun lineup laat zitten tussen de 300 en de 500 euro? kom nou.

nee de 2060 gaat ergens in dat gat vallen. de 2050 word als het aan nvidia ligt de nieuwe mid range.

of ze gaan iets doen van een 2060Ti die helemaal niks met de GPU van de 2060 te maken heeft.
Daarbij is de 2060 allang confirmed, dus nee die gaan ze niet overslaan
zeg ik ook niet dat ze die gaan overslaan. alleen dat ik niet zie dat hij op 16/12nm gaat komen met navi op 7nm zo vlak bij. en als nvidia toch door drukt en hij er wel komt, lekker links laten liggen. Een nieuwe GPU kopen voor de volle prijs net voor de overgang naar een nieuw process is de slechtste GPU investering die je kan doen.

[Reactie gewijzigd door Countess op 7 november 2018 13:14]

Mooi hoe je zelf inzichtelijk maakt dat je op 75% van het gat gaat zitten :D

RTX 2060 komt gewoon op 12 nm. Benchmarks zijn ook al gevonden.
ik pakte gewoon de prijs van de 1070 die hij het overgrote deel van de tijd heeft gehad. blijkbaar was de launch prijs iets lager... maar dan nog, allemaal niet heel relevant. ik sla een enorm gat in je argument, en jij gaat muggenziften over een detail. laat het 400 zijn, of de launch prijs van de 1070, 380. veranderd echt helemaal niks aan mijn argument.

Als ze wel 2060 op 16/12nm gaan doen, slechts een paar maanden voor navi, dan weten we wat ons te doen staat: lekker negeren en 7nm afwachten voor de echte verbeteringen.

[Reactie gewijzigd door Countess op 7 november 2018 20:43]

Nvidia kennende komt het met een 2060 line-up die van 250 tot 400 loopt. Nog extremer dan 3 en 6GB modellen
60 serie is een sterk merk. En die moet gewoon betaalbaar zijn. Al krijg je een gehandicapte kaart terug.
Pak even het prijsverloop van de x(x)80, x(x)70 en ook al de x(x)60's erbij en je zult zien dat 400-450 best een serieuze schatting is (helaas).
De 2060 heeft freesync?
Zo ja, dan geef ik je groot gelijk.
Zo nee, dan is er een prima markt voor de RX590
Als jij al een RX480 of 580 hebt is de 590 een waardeloze kaart.
Gezien de meesten die hebben op AMD gebied zie ik geen markt voor de kaart.
Als je al een RX480 of RX580 hebt, is de RX590 nog steeds een prima kaart.
Alleen heeft het weinig nut om 'm te kopen als je al een van de bovenstaande hebt.

Als je, zoals velen, een mindere kaart hebt (bijvoorbeeld zonder freesync) en je wilt voor niet te veel geld toch wat meer frames/sec, dan is het een leuke instapper.
Incorrecte aanname.
Zie https://store.steampowered.com/hwsurvey/videocard/
Er zijn heel veel gamers met een AMD GPU ouder dan de RX480.
AMD weet heus wel waar ze mee bezig zijn.
ik met mijn hd5770 8)7
Cool die heb ik ook in een van mijn pc's.

Heb op dit moment in werkende pc's
HD 5770 (Was echt bang4buck. Had het specifiek gekocht om DOW2 te draaien toen het uit kwam)
HD 7850
HD 7950 in 2 pc's
RX 580 in mijn main pc sinds 2 weken. Ik wou wachten op de RX 590 maar info over concrete release datum kwam maar niet.
Pluspunt?
Een monitor moeten kopen die flink duurder is?
Ik stop dat geld dan liever in een VEGA kaart.

Edit: Link toegevoegd

[Reactie gewijzigd door misterbennie op 7 november 2018 11:54]

Volgens mij heeft dat niet zo heel veel zin bij een low/mid-range. G-Sync / Free-sync monitoren hebben meestal een resolutie die deze low/mid-range toch niet kunnen aansturen. Dus dat pluspuntje van zie ik niet zo zitten eigenlijk gezegd.
Er zijn 144 monitors op pricewatch met:
Resolutie: 1920x1080
FreeSync 1: Ja

categorie: Monitoren

Vanaf 92 euro.
Mid range kaarten zoals RX 470/570/480/580 kunnen zeer zeker wel games spelen in 1920x1080 met de minimale FPS nodig om FreeSync te kunnen gebruiken.

Ook een RX 460/560 zou een game kunnen spelen in 1920x1080 met met de minimale FPS nodig om FreeSync te kunnen gebruiken, maar dan praten we niet over AAA titels van 2017/2018 maar wat oudere games zoals Counterstrike of Dota of League of legends.
Ik denk dat het Freesync filter niet goed werkt. Is een 75Hz monitor berhaupt een Freesync monitor of begint dat feest pas bij 144Hz? Ik bedoel mijn 4K scherm heeft ook 75Hz als refresh en ik ik kan ook v-sync aanzetten maar dat is toch bij lange na niet hetzelfde als 144Hz icm freesync? Dan zou de eerste echte monitor volgens jouw link de acer zijn van 179 euro niet vanaf 92 euro of zie ik het toch verkeerd?

[Reactie gewijzigd door InsanelyHack op 7 november 2018 13:54]

Ik begrijp niet helemaal wat je bedoelt.

FreeSync heeft meestal per monitor een minimale en maximale FPS nodig om te kunnen functioneren.

We pakken de volgende monitor als voorbeeld:
pricewatch: Iiyama G-Master Black Hawk G2530HSU-B1 Zwart

Resolutie: 1920x1080
Refresh rate: 75Hz
FreeSync min. refresh rate 48
FreeSync max. refresh rate 75

Als het goed is betekend dat FreeSync pas actief word als je game 48 FPS of hoger draait en niet hoger dan 75 FPS. Dus als je game 76 FPS of hoger draait dan is FreeSync niet meer actief.
Als je 47 FPS of lager draait dan is FreeSync niet meer actief.

Duurdere versie van die monitor is:
pricewatch: Iiyama G-Master GB2488HSU-B3 Zilver, Zwart

Resolutie: 1920x1080
Refresh rate: 144Hz
FreeSync min. refresh rate 35
FreeSync max. refresh rate 120

Dus FreeSync actief tussen de 35 FPS en 120 FPS.
Misschien voor deze monitor. Maar mijn schermpje:
pricewatch: AOC AG271QX Zwart, Rood

FreeSync 1
FreeSync min. refresh rate 30Hz
FreeSync max. refresh rate 144Hz

En zelf speel ik op 2560x1440 (Quad HD) met een RX-580 en waar een aantal spelen gewoon netjes de 143/144 fps aantikken (bijvoorbeeld BO2) voldoet de RX-580 verder prima.
Ah ok dus tearing wordt tegengegaan binnen een bepaalde range. Ik dacht altijd dat het fixed was net zoals bij v-sync. Maar nu begrijp ik het hele punt. Games fluctueren en freesync voorkomt dat dus binnen een bandbreedte van fps-en.
Als je een AMD kaart hebt met Freesync, ondersteunt die in de drivers ook "Enhanced Sync". Als je dat activeert bovenop je freesync, dan heb je op alle framerates gewoon geen tearing meer.
En toch vertik ik het om Nvidia te kopen, vanwege de kunstmatige hoge prijzen.
De rx580 is de mostbangforurbuck kaart op 1080p/1440p en er komt nu een nog snellere kaart van, wat is daar outdated aan? Jouw verhaal bevat een groot fanboy gehalte zo te zien..
De kaart heeft sowieso geen positie in de GPU markt gezien de kaart voor de release al zwaar out-dated is.
over een x maand gaat nVidia de 2060 uitbrengen die weer een stuk sneller zal zijn en dan gaat AMD weer stof happen.

De CPU markt is nu e-i-n-d-e-l-i-j-k wat aan het op pakken met de Ryzen CPU's, maar de GPU markt is enorm triest als je na gaat hoe goed ATI in het verleden was (4870 anyone?). Na de RX290 is het berg afwaarts gegaan betreft prestaties en dat is enorm zonde imo.
Het blijft sowieso 10% sneller wat men beweert, en ideaal voor beeldschermen met FreeSync.
Dat is toch snel gebruikelijk met videokaarten icm schermen in de goedkopere klasse
Lager verbuik eventueel, maar dan verwacht je niet de top koelers meer nee.
Dat is de bedoeling ook van zo'n refresh. Naar verluid en rumors moet de kaart op 1500Mhz draaien met dezelfde TDP als de RX580 (180W).
Het design van die Sapphire kaart ziet er wat mij betreft erg ouderwets uit. Verder snap ik ook nog steeds niet waarom ze zulke specifieke kleuren kiezen, als de kleur neutraal (zwart/wit/grijs) was dan zou deze kaart toch ook veel meer mensen aanspreken?
Ik heb echt nog nooit een videokaart gekocht om het uiterlijk. Altijd puur op specificaties en prijs. Als dat ding gewoon z'n werk doet kijk ik naar de pracht op m'n scherm, niet naar die kaart. Ik vermoed dat ik hierin geen enorme uitzondering ben.
Genoeg mensen die dat wel doen. In een markt waar veel verschillende merken met vrijwel hetzelfde product concurreren is design dan weer een vlak waar je mensen mee over de streep kan halen. Het had hen echt niet meer tijd of geld gekost om een neutralere kleur te kiezen.
De Saphire is juist geweldig in ontwerp.
Eens. De RX580 Nitro+ van Sapphire ziet er mooi uit in een case. Zeker met wat RGB erbij. (Want rgb gaat sneller, toch? :) )
(Want rgb gaat sneller, toch? :) )
Nee RGB is +10fps
Van de 10 meest bekeken behuizingen in de Pricewatch hebben 7 stuks een window. Ik denk dat ik daarmee mag concluderen dat er wel degelijk heel veel mensen zijn die wl om het uiterlijk van hun hardware geven, waardoor je de keuze voor deze vreemde schreeuwerige kleuren op zijn minst opmerkelijk kan noemen. Zeker die rare blauwe kleur van de Sapphire shroud, die werkelijk met geen enkel blauw stukje hardware matcht.
Ik denk dat ik daarmee mag concluderen dat er wel degelijk heel veel mensen zijn die wl om het uiterlijk van hun hardware geven,
Onder tweakers..... 90% van de computerkasten zijn gewoon saaie dichte dozen.
Ja maar de vraag is hoeveel mensen die een saaie dichte doos hebben deze kaart kopen.
ik denk niet dat dit de juiste site is om relatieproblemen te bespreken.
XL ATX hiero, wel met raampje is die zo donker is dat je niks ziet. En vier fans aan het raampje... die ervoor zorgen dat je sowieso niet naar binnen kan kijken. 8)7
Had ik maar de zwarte gehaald grrrr... wel voor mn vriend een zwarte gehaald -_-, omgespoten naar rood... toch maar nog een keer omspuiten naar zwart. Ben en blijf een Tweaker, had gewoon een zwarte dichte doos moeten halen -__-.

https://static3.nordic.pi...atx-motherboard-white.jpg
Bron.........??
Ik geloof daar gewoon niets van.
Het jonge publiek van tweakers wil gewoon iets leuks.
Heb mijn laatste systeem op stijl keuze gebouwd/gekocht.
Hoewel de MSI 1080 ti Armor meer een gebrek was aan leverbaarheid van andere series/merken.
Mijn systeem is helemaal wit/grijs/zwart als het ware.
Witte NZXT behuizing, Asus Prime Mobo, DarkRock CPU cooler e.d. En de RGB was meer een nagedachte.
Doorgaans zou ik dezelfde gedachte hebben, maar dat baby blauw vind ik wel echt triest en dan denk ik ook aan hoe makkelijk ik zo'n kaart weer zou kunnen verkopen. Dat is een stuk lastiger met een kaart die er niet uit ziet.
Zolang dat ding in een ietwat normale kleur en andere onzinnige versiering komt, ben ik het met je eens. Bij deze zou ik gewoon voor de zwarte variant gaan.
Ik heb bewust geen "raam" in mijn computerkast, de kleur van de kaart is voor mij dus totaal onbelangrijk.
Daarnaast is het vervangen van een fan in dit design een kwestie van 1 schroefje en de fan is los.
Geen geklooi met kabeltjes ed. er zit een mooie en handige connector op. Vervangen van een fan is letterlijk 30 seconden werk.

En,... je hoeft die schroefjes van de behuizing niet los te maken, waardoor de garantie niet vervalt....!

Wat mij betreft het beste ontwerp dat ik in tijden gezien heb voor GPU's... En ik heb er al een hoop gezien ;-)
Ja maar echt innovatief vind ik het niet. Ik zou juist een keer een videokaart koeling zien die n een goede koeling geeft n de lucht naar buiten plaatst ipv overal langs de zijkanten waarbij de warmte dus direct in je kast uitkomt. En die kaarten zijn er natuurlijk al lang maar vallen enorm tegen qua geluid en koelprestaties op de GPU chip zlf. Een ander nadeel vind ik dat Fans tegenwoordig door hun PWM regeling behoorlijk hoorbaar worden en in sommige gevallen is dit geluid op de spoel van de Fan irritanter dan gewoon een hogere RPM met meer luchtverplaatsing.
Als het prijsverschil weinig is zou ik alsnog een "mooiere" kaart nemen omdat die ook een hogere resale value behouden. Ik ken maar weinig mensen die daadwerkelijk zo'n blauw ding willen.
Ja tja.. In een pc met een lichtblauw kleurenschema zou deze kaart wel mooi van pas komen. Zo is er gelukkig voor iedereen wat.
Ik heb een sharkoon kast met blauwe rgb. dus deze kaart kan er wel in denk ik.Maar het moet wel een toevoeging hebben want anders kun je toch beter een gtx 1070 kopen
Een neutrale kaart zal een groter deel van de markt aanspreken. Echter mensen die een neutrale kaart zoeken hebben 1001 opties om uit te kiezen. Mensen die dit design wel mooi vinden komen hier uit.

Daarnaast zou ik verwachten dat het grootste deel van de markt het helemaal niet belangrijk vindt dat een kaart "mooi" is.
Klopt helemaal. Neutrale kleuren zouden makkelijker in je build passen. Het heeft ook even geduurd voordat Noctua (fans en koelers) een ander kleurschema aan zijn arsenaal heeft toegevoegd dan hun klassieke beige en bruin.

Noctua was daarmee uniek en opvallend, dat dan wel. mensen die ervan af weten zien dan wel gelijk de (") beste ("?) Fans die er te krijgen zijn voor enthousiastelingen.

Dat Sapphire met een blauwe shroud komt voor de gpu's is ook niet echt een verassing. (Sapphire... Blauw... Is er een verband ?)

En ze hebben eerder ook wel vaak zwarte opties uitgebracht meen ik me te kunnen herinneren. Blauw valt wel op en is dus goed voor het merk als het herkend word in build video's en plaatjes die gedeeld worden online.

Neutrale kleur is leuk, maar daarin hebben we gelukkig al genoeg keuze. Een merk dat iets anders doet dan de anderen, is meestal wel weer interessant om af en toe langs te zien komen, naar mijn mening.
Dit lijkt me de special edition, niet de normale versie.
de rx580 had bijvoorbeeld ook een special edition die er zo uit zag.
pricewatch: Sapphire Nitro+ Radeon RX 580 8GD5 Special Edition
Ze hebben bij de rx 580 verschillende kleur varianten. Neem aan dat het voor deze kaart net z opgaat.
Gamer videokaarten zien er vaak uit alsof ze door een 13-jarige puber getekend zijn (ik tekende ook graag enorm overdreven guns met honderdduizend kabeltjes en uitsparingen enzo op die leeftijd).
Ik vind de Sapphire kaart er redelijk straigtforward uitzien, en dat vind ik prima.
Ja die kleuren die intresseren me niet veel maar net wat je zegt zwart wit en grijs zijn nu wel in de mode.
Wat ik verder niet snap dat ze die kaart niet met gddr6 hebben uitgerust, of zou dat puur prijstechnisch zijn?
Nu idd wachten op die benchmarks.

[Reactie gewijzigd door rjmno1 op 7 november 2018 13:02]

gddr6 zou betekenen dat er een andere controller in moet e dat is meer werk dan het waard is
Maar wel n zo niet de beste koeloplossing... liever een koele kaart dan een design die niet presteerd.
Het design van die Sapphire kaart ziet er wat mij betreft erg ouderwets uit. Verder snap ik ook nog steeds niet waarom ze zulke specifieke kleuren kiezen, als de kleur neutraal (zwart/wit/grijs) was dan zou deze kaart toch ook veel meer mensen aanspreken?
Het is een SE, die is blauw. er komt ook een gewone versie en Pulse die zwart/grijs zijn.
Na een week ben ik wel gewend aan die kleur en ik kijk over het algemeen toch op mn scherm.
:-)
Ik snap dat het oog ook wel iets wilt natuurlijk, maar uiteindelijk is het secundair aan het speelplezier.
Maar daar waar vroeger "iedereen" een grote tower naast zijn desk had staan, is men nu vooral met kleinere cases bezig. Als ik zo op de foto afga, is die Sapphire 2 units hoogt, die Powercolor is er 3 hoog.
Verder ziet die kaart van Sapphire er steviger uit (nadruk op ziet, ik weet niet of het echt zo is), dan die Powercolor.
Misschien ook een punt waarom sommige mensen voor dit type kaart zouden kiezen, geen RGB-opsmuk. (Al zou dit wel kunnen met die doorzichtige fan-bladen).
Op de kleurzetting moet ik je wel gelijk geven, als je een case met raam hebt, kan dit zomaar uit de toon vallen in de rest van je opstelling. Of je zou voor een babyblauwe opstelling moeten gaan natuurlijk :9

[Reactie gewijzigd door Arator op 7 november 2018 15:14]

Sapphire GPU's zijn meestal in een blauwe trend. Snap ook niet waarom dat komt.
Dan zijn over het algemeen de Nitro+ special editions, verder zijn de kaarten van Sapphire overwegend zwart, neutraler kan bijna niet. Zie de website : http://www.sapphiretech.com/default.asp?lang=eng De aanwezige LEDs zijn gewoon RGB, maar worden vaak met blauw afgebeeld.

[Reactie gewijzigd door _Dune_ op 8 november 2018 09:48]

Zeer benieuwd naar de benchmarks op zowel AMD als Intel CPU's.

Is het een idee om een 'FPS / ' vergelijking op te nemen in de vergelijkingen en reviews?
Blijft een zachte waarde aangezien de fps van zoveel factoren afhangt. Welke game(s), welke instellingen, welke resolutie. Ook krijg je dan het probleem dat het veel werk is om elke uitgebrachte kaart te testen.
Klopt volledig. Maar maakt dit argument niet meteen alle benchmarks nietszeggend? Er moet ergens een lijn worden getrokken betreft wat de uitkomst is voor een bepaalde setup en dat doe je door je systeem zo veel mogelijk hetzelfde te houden, wat nu ook al gebeurt. Dat kan voor zowel AMD als Intel-based met onderdelen die door de meerderheid van de consumenten worden gebruikt.

Hoe reel is het om een benchmark te tonen met een monster CPU, 32 GB DDR4 RAM, een 2TB PCI-e SSD, etc.. Het is prima om te laten zien wat een CPU/videokaart kan onder ideale omstandigheden maar dit is voor nog geen 1% van de gamers van toepassing.

De uitspraak 'iedereen heeft altijd de nieuwste CPU en GPU' is BS. Of je moet hard kunnen maken dat Steam zijn gegevens verzint: https://store.steampowere...e-Survey-Welcome-to-Steam

Edit: reactie komt wellicht wat nors over, niet de bedoeling.

[Reactie gewijzigd door Danger.Mouse op 7 november 2018 11:40]

Omdat de GPU gebenchmarkt wordt, niet het systeem. Dus wil je alle mogelijke bottlenecks weghalen/vermijden om te zien wat de GPU kan.
De driver performance of echter ook van belang en die varieert met de CPU. nvidia had bijvoorbeeld een enorme performance hit in dx12 met Ryzen in een aantal games. Die had je niet met een Intel CPU of AMD GPU. Maar mensen gaven Ryzen de schuld.

En met Threadripper 32 core review opnieuw flinke problemen door de nvidia divers. Maar iedereen had in eerste instantie de threadripper de schuld.

Meerdere CPU testen bij gpu reviews is dus zeer zeker van belang. en andersom ook.

[Reactie gewijzigd door Countess op 7 november 2018 12:38]

Maar het met een Pentium of Celeron testen omdat dat realistischer zou zijn voor wat een gemiddelde gamer zou hebben is daar weer net niet van belang, omdat je dus de bottlenecks wil vermijden. Als AMD cpu een bottleneck vormt, om wat voor reden dan ook, dan test je daar niet verder meer want het toont niet wat de GPU kan.
omdat je dus de bottlenecks wil vermijden.
wil je dat ja? volgens mij wil je juist ook benchmarken wat een gamer thuis ook heeft.
Al was het maar om te zeggen, dit geld aan deze GPU uitgeven heeft pas zin als je minimaal CPU X of Y hebt.
Als AMD cpu een bottleneck vormt, om wat voor reden dan ook, dan test je daar niet verder meer want het toont niet wat de GPU kan.
Maar hoe weet je dat het de AMD CPU was en niet de nvidia drivers als je niet ook test met AMD GPU's?
Dat lijkt me van enorm belang voor iemand die een hardware keuze probeert te maken.

Die threadripper problemen waren een paar dagen later opgelost namelijk. Maar doordat iedereen alleen met nvidia GPU's had getest waren alle launchday reviews veel negatiever over de gaming performance van de 32core CPU als nodig was.
wil je dat ja? volgens mij wil je juist ook benchmarken wat een gamer thuis ook heeft.
Al was het maar om te zeggen, dit geld aan deze GPU uitgeven heeft pas zin als je minimaal CPU X of Y hebt.
Maar dat is niet het doel van die reviews. Jij vindt misschien dat dat wel het doel zou moeten zijn, en daar is zeker ruimte voor, maar dat is niet wat de (meeste iig) reviewers doen. Voor velen is het onrealistisch om zoveel tijd aan benchmarking te besteden. Er zijn er (of er waren er) die het wel deden, en dan ga je die bekijken.
En daarmee denk ik dat ze hun lezers/kijkers (onbewust) dus verkeer of misleidend informeren.

Zie bijvoorbeeld hoeveel heisa er word gemaakt over ryzen's (1080p met GPU van 1300 euro) game performance. terwijl in realistische scenarios het verschil minimaal is, en nog niet eens bijna de intel meerprijs waard is.

[Reactie gewijzigd door Countess op 7 november 2018 13:24]

Je hebt volkomen gelijk dat het een lastig probleem is.

Ik zou niet zo ver willen gaan dat benchmarks nietszeggend zijn omdat er doorgaans een aantal kaarten met een (verder) zoveel mogelijk zelfde systeem getest worden. En gelukkig niet alleen met de nieuwste CPU etc.

Je reactie komt op mij niet nors over, behalve misschien dat het nu lijkt alsof ik beweer dat 'iedereen altijd de nieuwste CPU en GPU' heeft. ;)

Is er niet zo'n site waar je bijna eindeloos veel combinaties van hardware (mobo/CPU/GPU) kunt kiezen en die dan kunt vergelijken met een ander setje? En dat er dan een benchmark gedraaid is op mensen met die hardware en je daar het gemiddelde van kunt vergelijken? https://www.userbenchmark.com/PCBuilder of https://pcpartpicker.com
Dat is niet te doen. FPS is van meer afhankelijk dan enkel de GPU. Daarnaast maakt het ook nogal uit in welke game of test je de FPS test. Kortom, er is niet 1 enkele FPS score te testen voor iedere GPU.
Een gemiddelde FPS van alle games zou een uitgangpunt zijn. Ik kan me niet voorstellen dan mensen games niet kopen omdat ze niet op een bepaalde DX versie draait :)
Welke alle games? Door die keuze ken je de uitkomst enorm sturen.
Ik zou zeggen de top 10 meest gespeelde PC-games van de afgelopen periode. Als voorbeeld: de lijst die Guru3D aanhoud.
Dus minimaal de helft oude games waarbij nieuwe GPU's uit hun neus staan te eten en alsnog 300+FPS produceren?

Welke lijst je ook geeft ik kan er bezwaren tegen verzinnen.

[Reactie gewijzigd door Countess op 7 november 2018 12:43]

"..."
Welke lijst je ook geeft ik kan er bezwaren tegen verzinnen.
Het je sieren om met een voorstel te komen welke games het volgens jou wel moeten zijn.

Succes met bezwaren verzinnen.
Dat weet ik dus niet.

Mijn punt was nu juist dat er geen eerlijke eenduidige lijst te verzinnen is, zeker niet als je dat moet reduceren tot 1 score.

En als je wel zo'n lijst zou kunnen verzinnen, dan gaat de driver makers van beide bedrijven zich enkel en alleen daar op focussen, en dat zou helemaal slecht zijn voor de PC gaming markt. dingen als 3dmark en zo krijgen nu al veel te veel aandacht.

[Reactie gewijzigd door Countess op 7 november 2018 13:23]

'Alle games' is ook niet haalbaar. Er worden continu games toegevoegd en verwijderd aan benchmarks en je kan niet eeuwig een zelfde set games houden omdat het na verloop van tijd gewoon irrelevant is om 8 jaar oude games in je benchmark te houden. En om alleen games toe te voegen en niets te verwijderen is weer veel te veel werk/tijd. Ik denk dat wat je oppert erg lastig te onderhouden is f niet compleet representatief is, afhankelijk welke methode van testset beheer je zou toepassen (ie. welke games je benchmarkt)
Hoogstens 10% sneller dan zijn voorganger, RX580. De clocks moeten op ongeveer 1500Mhz komen te liggen als de geruchten kloppen, en een hoop RX580's doen al 1500Mhz. Op water was 1600Mhz zelfs haalbaar (RX580).
Het kan meer als zijn als de 590 bijvoorbeeld zijn boost langer kan gebruiken of vaker kan inzetten door een lager verbruik. maar ik verwacht geen wonderen. hoeft ook niet want met ~10% meer is hij onbetwist sneller als de 1060.
En ook nog steeds onbetwist langzamer dan de 1070. Was toch leuk geweest als ie daar bij in de buurt had gekomen.
Daar is hij ook niet voor bedoeld want dat is een hoger (en beduidend minder verkocht) prijs segment.

[Reactie gewijzigd door Countess op 7 november 2018 13:45]

Ah dat is niet de bedoeling. Ik wist niet dat AMD in de markt van bedoelingen was. Nvidia loopt aan de bovenkant van de markt weg van AMD. Er is inmiddels een 1070, 1070ti, 1080, 1080ti, 2070, 2080 en 2080ti die allemaal boven of gelijk aan de maximale performance zitten van AMD. Nu verwacht ik niet meer dat AMD de performance kroon gaat winnen in de komende jaren, maar in ieder geval dan af en toe een winst pakken in de markt net onder de top. De 1070 was inderdaad net boven mainstream, maar we gaan naar de volgende generatie videokaarten. de 1070 wordt of is misschien al wel dus mainstream. Als je dan als AMD een 'nieuwe' mainstream videokaart neerzet zou dat van mij wel de marker mogen zijn, niet meer de oude mainstream 1060. Het zou gewoon fijn zijn als AMD eens ballen durft te tonen.
De vega 56 is de concurrent van de 1070, en de 64 de concurrent voor de 1080.

En nvidia is nu enkel net wat eerder met het lanceren van een nieuwe generatie, terwijl we weten dat AMD er iets langer over doet, omdat ze gelijk over gaan naar 7nm, en daarmee ook echte verbeteringen kunnen laten zien in tegenstelling tot nvidia die enkel de zelfde performance voor de zelfde prijs levert (plus een veel te dure kaart erboven zet)

Dus de eerste ballen komen met 7nm Navi. Deze 590 is een kaart die ze enkel maken omdat dat process technische beter uit komt zeer waarschijnlijk en omdat het goedkoop kon. Het is niet voor niks dat ze er geen grote marketing campagne voor opzetten.
AMD doet wat het kan om technische verbeteringen in de huidige lijnen door te voeren tot de nieuwe high end klaar is. Omdat VEGA zo tegenviel hebben ze die lijn niet door laten druppelen naar beneden, op de APU's en wat andere uitzonderingen na.
Wees blij dat er op deze manier iig in het middensegment wat concurentie blijft
Zou het raar vinden als aantal streaming processors gelijk blijft aan 580, voor XBOX One X zit er een Polaris chip in met 40 ROP oftwel 2560 stream processors, wellicht dat de 590 dit ook heeft, lijkt mij logischer?!
Zou het raar vinden als aantal streaming processors gelijk blijft aan 580, voor XBOX One X zit er een Polaris chip in met 40 ROP oftwel 2560 stream processors, wellicht dat de 590 dit ook heeft, lijkt mij logischer?!
Nee, heeft hoogstwaarschijnlijk te maken met hoeveel chipjes je uit een stuk wafer kunt halen. Het aantal kapotte die's zal met 2560 sp's een stuk hoger liggen dan 2304 sp's zoals nu het geval is met de 480/580/680.
Nee die GPU zit vast aan 8 bobcat cores een apart geheugen systeem en speciale Microsoft aanpassingen. Daar is niet zomaar een losse desktop GPU van te maken.

Een simpele die shrink zoals in het artikel staat is veel waarschijnlijker.
Ok duidelijk, raar dat ze dan RX580 ineens RX590 gaan noemen, als alleen productie formaat kleiner wordt en de clock hoger wordt, hadden ze hem beter RX585 kunnen noemen?!
Yikes, dit is dus een refresh van de RX580, wat zelf ook al een refresh van de RX480 was.
Jaren geleden was het toenmalige ATI er snel bij om de vele refreshes van de 8800GT aan te kaarten.
How the tables have turned...
aangezien het een nieuwe node betreft is het geen refresh.
12nm is echter geen nieuwe node. Het is gewoon de marketing term voor 14nm+.
blijkbaar toch genoeg verschil om een hoger geclockte kaart te maken zonder het TDP te verhogen. Ryzen 2000 heeft er ook duidelijk profijt van gehad.

maar ik verwacht dat dit gewoon een GPU is die ze maken omdat dat beter uit kwam met de foundries, en dan maar gelijk gebruik maakte van het process voordeel. het is niet voor niks dat AMD er zelf weinig ruchtbaarheid aan geeft.

[Reactie gewijzigd door Countess op 7 november 2018 21:11]

"Dat is een refresh van de Polaris 20-gpu op de RX 580-videokaarten."

Het verhaal is niet compleet, volgens mij mis ik nog een deel: RX 480. Eigenlijk is een RX 590 een re-refresh van RX 4xx videokaarten.
Een AMD RX 570 kaart is op dit moment toch echt wel de beste koop. Duiken ruim onder de 200 euro, terwijl dat voor de GTX 1060-3GB toch niet geldt. Ik vind de stap tussen de 570 voor <190 euro of RX 580 voor >250 euro dan te groot.

Deze snellere kaart wordt pas een succesje als de prijs ook scherp is. Dus eerder rond het prijspijl van 250 euro dan zuiden van 300 euro.

[Reactie gewijzigd door Maulwurfje op 7 november 2018 14:51]

Net gisteren een Sapphire Nitro+ Radeon RX 580 8GD5 besteld. Loop ik nu al achter?
neuj, gewoon overclocken, heb je dezelfde kaart voor minder.
Dezelfde kaart? De 590 kan je natuurlijk ook gewoon overclocken, welke dan weer alsnog sneller is dan de 580.
en is die 10% sneller 300+ euro waard?

Nee, dat is het niet.
Er is dan ook nog niets over de prijs bekend, als het inderdaad meer dan 300 euro zou zijn heb je gelijk, maar aangezien de goedkoopste 580 al voor 235 in de pricewatch staat verwacht ik eerder een bedrag van 260/270. Het is nou niet alsof AMD altijd zo'n enorm slechte prijs/prestatie verhouding neerzet in het middensement.
Een paar %, maar het is nog maar afwachten wat de prijzen van de 590 gaan doen. Je kan natuurlijk altijd nog terugsturen en wachten tot de release vande 590.
Hardware info:

$300 MSRP in + btw + merknaam(msi,asus) is het ongeveer 400. |:(

1060 is sneller. goedkoper, beter beschikbaar.
Lijkt me dat die prijzen niet kloppen. Want de rx580 is ook onder de 250 dus ze zouden nooit 1.5x de prijs vragen voor een refresh met 9% prestatie winst.

Overigens is de 1060 niet zomaar sneller dan de 590 (of vaak zelfs de 580)
geen idee hoe jij rekent maar met 300 dollar kom ik uit op 315 euro inclusief de BTW.

en de 1060 is zeker niet sneller als de 590, die is namelijk nu al niet sneller als de 580.

[Reactie gewijzigd door Countess op 7 november 2018 15:23]

rauwe rekenkracht in Gflops is idd hoger bij een RX580 dan een GTX1060, echter in de (game)praktijk (nvidia optimised engines) is een 1060 zeker net zo snel, zo niet sneller, dan een 580.
Da's iig mijn ervaring,
ik had het over games. In Gflops is het niet eens een wedstrijd.

Oude games wint de 1060 nog wel, maarja, who cares je hebt als 120FPS+. nieuwe games, en zeker met nieuwe API's, wint de Rx580 het vaker dan de 1060.

maar het ligt maar helemaal aan je game selectie. met de ene selectie winst de rx580, met een andere de gtx1060 nipt. tenzij de game selectie heel bias is zijn de verschillen minimaal. zo minimaal dat je gelijkspel kan zeggen.
nvidia optimised engines
je bedoeld die gameworks rommel. daarbuiten laat alleen de unreal engine consequent een bias voor nvidia zien. tot ook die engine over gaat op vulkan.
Ga aankomend nieuwe AMD build bouwen, dus kaart zeker nodig. Ik hou 'm wel.
Clock hem over en hij is net zo snel
Niet als je de 590 ook weer gaat overclocken
In dit hele verhaal mis ik eigenlijk budgetkaarten van 50-100 gebaseerd op nieuwere technologie zoals RX 400 en 500. Ik heb nog een paar oude computers staan, waar ik een SSD en beetje moderne videokaart in wil doen, omdat de grafische prestaties nu toch wel erg ondermaats zijn geworden met de onboard videokaarten. Tegelijkertijd wil ik niet een mid-end of high-end kaart in die machines doen.

In de pricewatch zie ik kaarten zoals de R7 250 die al 4 jaar dezelfde prijzen hebben. Kan iemand vertellen wat er nu aan de hand is met de markt voor videokaarten? Willen ze dat je een nieuw moederbord en een nieuwe processor zoals Ryzen 2200G koopt voor moderne grafische prestaties? Of is het wachten tot er een discrete budgetversie van Vega komt?
kan me goed voorstellen dat de 580 levering word afgebouwd, en deze kaart de prijs positie overneemt.

Misschien is deze kaart er vooral zodat ze meer 12nm kunnen afnemen, en geen 14nm.
het is niet voor niks dat AMD er verder weinig over zegt, en geen hele marketing campaign voor heeft opgezet.

[Reactie gewijzigd door Countess op 7 november 2018 15:32]


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True