1. Laagste prijs
    Niet beschikbaar
    Prijsalert ontvangen zodra er een prijs is?
  2. Kenmerken | Gebruikersreviews
  3. Willen (3) Hebben (1)

Bekijk alle reviews

XFX RX-580A8DBR6 Review

24 augustus 2018, laatste update op 13 december 2018, 1.089 views Rapporteer
Product gekocht +2

Een prima kaart voor full hd gaming van diverse nieuwe games.
Oftewel, de kaart kan best nog wel even mee, mede door zijn
hogere snelheden en overklok-potentie.

Pluspunten

  • Voelt en oogt aan als een premium product zonder spectaculair te zijn
  • De koelers zijn los te klikken dankzij een zeer handig systeem
  • Koelers zijn er in verschillende led-kleur varianten
  • Extra hoge overklok-potentie vanwege een 6 & 6+2 pins stroom aanlsuiting
  • 3 jaar garantie op de kaart en 5 jaar op de koelers

Minpunten

  • Beslist geen stille kaart maar wat wil je met hogere kloksnelheden
  • Goede 600 watt voeding vereist
  • Past vanwege zijn formaat lang niet in iedere behuizing

Eindoordeel

4 van 5 sterren (Goed)

Inleiding:

Ik weet nog goed toen ik overstapte van het groene team.
Ik stapte over van een Inno3d GTX 1060 3GB naar een
Gigabyte RX 480 Gaming G1 8GB videokaart.
Ik was toen overstag gegaan vanwege FreeSync wat mij
een compleet nieuwe gamebeleving opleverde.
Eindelijk gingen nu alle beelden vloeiend zonder
last te hebben van een flucturerende framerates.
Maar daar later meer over.

Want eerst wil ik aangeven dat ik met de RX 580 in feite ben
overgestapt naar een kaart met een zelfde GPU en geheugen
waarvan de clocks en uiteraard de stroomvoorziening is aangepakt.

Voornamelijk op dat laatste punt liep ik met de Gigabyte RX 480 al snel tegen
grenzen aan. Een bios flash naar de RX 580 vond ik niet verantwoord vanwege de
te zwakke stroomregeling en een RX 580 referentiekaart vond ik weer niet interessant genoeg.
En in deze wereld van miners waren de snellere RX 580 kaarten tot een half jaar geleden
van dit schrijven nog peper duur. Om die reden zong ik het nog even uit met mijn RX480.

Een bewuste keuze:

Nu we dan eindelijk een beetje verlost lijken te zijn van de miners waardoor deze kaarten
weer normaal verkrijgbaar zijn, ben ik dan ook weer opnieuw op zoek gegaan.
Dit keer waren mijn pijlen gericht op de snelste RX 580 van familie Ellesmere.

https://tweakers.net/i/b5Vj-OY-3Z4ayoVxvpktc_W8gnY=/620x/filters:strip_icc():strip_exif()/m/58689/1FTixy1PoshscwKySsFz4wdORmpvgyhi0OyjoHdfTjrCOkcvuU?f=620xauto

Wat is het signalement:

Het gaat hier om de XFX RX580 GTR-S Black Edition Crimson (RX-580A8DBR6)
Hier volgt een beknopt overzicht, zie hier de artikel specs voor het totale overzicht.
Aanschafprijs op het moment van schrijven:
Deze GTR-S uitvoering is niet onder deze omschrijving in pricewatch te vinden
maar wel onder de fabrieks-artikelcode RX-580A8DBR6.
Mogelijk is om die reden de kaart bij velen onder ons niet bekend, of gewoonweg
altijd te duur geweest. Megekko zou er nog één voor 499 Euro kunnen leveren, al
betwijfel ik of dit de up-to-date-prijs is. Want het lijkt eerder nog een prijs vanuit de
tijd dat de miners op deze kaarten zaten te azen.
En al helemaal gezien de XFX RX580 GTS XXX er op het moment van schrijven
al is voor net geen 300 Euro. Al zijn deze kaarten welliswaar een stuk lager geklokt.
Tweede hands zijn deze kaarten er al voor rond de 200 Euro maar let dan wel op.
Veel kaarten komen uit het miners-circuit wat voor een kortere levensduur kan zorgen.

Houdt rekening bij verschillen tussen 4GB of 8GB Videogeheugen

Niet onbelangrijk om te weten. Een RX580 met 4GB heeft
een geheugenklok van 7Ghz of 7.1Ghz en de versie met
8GB draait op een geheugenklok van 8Ghz of 8.1Ghz
De belangrijkste punten op een rijtje om voor deze kaart te kiezen:
Nominale GPU snelheid 1.43GHZ -- Maximale turboklok 1.45GHZ t.o.v. een
referentiekaart met een nominale snelheid van 1,25GHZ en een maximale turboklok van 1,34GHZ
Dat is op papier zelfs qua turboklok 9 mhz meer dan de befaamde MSI RADEON RX 580 GAMING X+ 8G
die vooral wel bekend is onder de RX 580 kaarten.

De standaard geheugenklok van een RX580 draait op 8GHZ, en deze XFX uitvoering kan volgens XFX moeiteloos op 8,1GHZ draaien.
Net als de befaamde MSI RADEON RX 580 GAMING X+ 8G.

6+2 & 6 pins voeding aansluiting voor een hoger overklok-potentieel
(een stabiele 600 watt voeding wordt zodoende door XFX aangeraden)

Dual bios (met een setting speciaal voor mining of gaming)

Gemakkelijk te verwisselen led-fans.

3 jaar garantie op de videokaart en 5 jaar garantie op de koelers

Fijne XFX service en overdraagbare garantie, zelfs zonder factuur op basis van de shipments-date op
serienummer. En een reeds op naam geregistreerde kaart kun je moeiteloos zelf online op naam van
een nieuwe eigenaar overzetten. Echte top-service noem ik dit!

Online garantie is duidelijk en een eventuele rma aanvraag werkt super simpel.
En zelfs de complete historie van de kaart is volledig inzichtelijk.
https://tweakers.net/i/ePRevhoCqTlxto6NUWHwjrHMiqs=/620x/filters:strip_exif()/m/58689/1FTaEPqm4IlYeism6tK0rYV47x9A0ZdiutEISojYSDFk3PMFOD?f=620xauto

Hier volgen wat foto's en ander beeldmateriaal:

https://tweakers.net/i/tUgngsj6rpx_9PTzKKsFGjRMiSo=/620x/filters:strip_icc():strip_exif()/m/58689/1FTixyID1gWhQ9WUFzSrnUAK6EQVbnI3lzDMuD2IY5mf5z7KbB?f=620xauto

https://tweakers.net/i/Ox1MTh69dNr92bDZTqppI2L4mhM=/fit-in/234x176/filters:strip_icc():fill(white):strip_exif()/m/58689/1FSWW51XeL6KPT9ZHwUuQHcf3qb0IiILWjaesOaj8Oz2Y6JUSU?f=234x176

De kaart heeft een mooie backplate die zijn werk goed doet.
https://tweakers.net/i/RElKUaC6ibgUxAbEw43cgOxHTfg=/620x/filters:strip_icc():strip_exif()/m/58689/1FTiuX2VQaVB8uLQrvv26zE71uMreUOWKtgYZxYpF0Rnw3gmJ9?f=620xauto

Verder is de kaart voorzien van 1 DVI-D, 3 displayporten (v1.4) en 1 HDMI (2.0b) aansluiting.
https://tweakers.net/i/i7iL7ywiERiVWfRqPo2LE4srVqE=/620x/filters:strip_icc():strip_exif()/m/58689/1FTiuX3g0mrYswVX3TilEki3UceGs5maY7nssWViEehn0QZtAR?f=620xauto

En voor mensen met een voorliefde voor een bepaalde led-kleur
in de fans, zijn er de hardswap fans van XFX zelf.
Deze worden per set verkocht in het wit, blauw of rood.
Het XFX letter-logo is hieronder wit (betreft een andere kaart)
Bij deze besproken Crimson uitvoering is dit logo rood.

https://tweakers.net/i/dE9rF_3CQ-sAOCFvcuKzTczzn_w=/620x/filters:strip_icc():strip_exif()/m/58689/1FSX7z2zKvQKHpbJnitxNuLVS0UAdwTk0DbfKRVPP8xOdFaZIX?f=620xauto

https://tweakers.net/i/wfdvug4V9z7YNaewbfMlr-6wFZk=/620x/filters:strip_exif()/m/58689/1FSXiT1p060cFcfi0NMHfMS4CICvOPfeHhFeRC2ZpYQBnag4AB?f=620xauto

De fans zijn binnen een halve minuut vervangen,
wat zelfs te doen is als de kaart idle draait.

De systeem samenstelling, gecombineerd met de betreffende videokaart:

In deze test zijn twee verschillende voedingen en verschillende monitoren gebruikt.

Behuizing : Fractal Design Define R4 Pearl Black (met 2 140mm fans)
Voeding 1 : Sharkoon WPM-600 80-Plus Bronze (600Watt)
Voeding 2 : Corsair RM550x 80 Plus Gold (550Watt) Volledig Modulair
Mobo : Gigabyte Z370P D3
Processor : I3 8100 3.6GHZ
Geheugen: Crucial Dual Channel 8GB DDR4-2400
Geluidskrt : X-FI Titanium HD PCIE uitvoering
HD : Crucial MX300 525GB SSD
Monitor 1 : AOC Q2460VQ6 24 inch FreeSync monitor (max 75hz), FreeSync via Displayport V.1.2
Monitor 2 : Iiyama GB2788HS Read Eagle 27 Inch (max 144hz), FreeSync via Displayport
Systeem : Windows 10 Pro 64x
De installatie:
De installatie verliep prima met de nieuwste adrenalin drivers van AMD. (augustus Versie 18.8.1.)
FreeSync werkte ook gelijk, en zo was de setup binnen een 20 minuten klaar om getest te gaan worden.
Uiteraard is het systeem eerst volledig opnieuw geïnstalleerd en voorzien van de allernieuwste drivers.


Snel heb ik zoals altijd meteen 3dmark geïnstalleerd,
want die doet bij mij al jaren mee als het beste vergelijkingsmateriaal.

In de praktijk:

Hieronder is te zien hoe de Gigabyte RX480 8GB Gaming presteerde in hetzelfde systeem
en met de belangrijke driver update voor de beste prestaties. Goed voor een graphics score van 16111 punten.
https://tweakers.net/i/YdLULPCitCgNQJIRcEDJXyn-SUI=/620x/filters:strip_exif()/m/58689/1FSYyw2qMT29TV863x9ttiFrRwdc2muabqUv7DSjTN8ZpeUMgN?f=620xauto

Een belangrijke driver-update van AMD voor een wereld van verschil:

In december of januari begon amd zijn Adrenalin drivers te vernieuwen en dat bracht
zomaar ineens een winst op van 10 fps binnen de graphics tests van 3dmark Firestrike.
Een verschil waardoor de prestaties van de RX 480 t.o.v. de GTX 1060 series nu ineens
beter waren in plaats van net iets minder dan de GTX 1060 series.
En ondertussen zien we op Internet alleen nog maar oude benchmark-results waar
de RX480 een stuk achter ligt op de GTX 1060, behalve de laatste scores van 3dmark dan.
Maar hier kom ik later nog op terug.

En nu werd het voor mij pas echt spannend, of deze RX 580 echt een
volwaardige vervanger zou zijn voor t.o.v. de prestaties van de Gigabyte RX480 Gaming uitvoering.

Maar eerst nog even een tip voor de adrenalin-driver gebruikers onder ons.
Zet de tessalation mode geheel uit en je krijgt voor niets een boost van 10fps!
Al is dit bij mij voornamelijk bij 3dmark het geval geweest.
https://tweakers.net/i/df4sKev8i3AhWctn4BqV8xa1cAE=/620x/filters:strip_exif()/m/58689/1FSYIU1200iOczIRdFQ79dwyCCKOE6b8Trf42I2XUgo03OXjLo?f=620xauto

De eerste runs deed ik op de out of the box clock-speeds.


GPU: 1,43ghz Geheugen:8GHZ
https://tweakers.net/i/HbC0oIYrIpjZIFvfLhb8kaZWZr4=/620x/filters:strip_exif()/m/58689/1FSYZPlQ1nRJLRgP81nKOYfI6sCG02kmehzdzvkFpPQ1d8t8iF?f=620xauto

Overklokken:

Daarna heb ik geprobeerd om met de ingebakken tuningtool "Wattman"
van de Adrenalin driver de gpu en geheugensnelheid hoger af te stellen.
Dit verliep echter in vastlopers en auto-resets van het systeem.
Hoe voorzichtig ik ook te werk ging, ik kreeg het systeem niet stabiel.
Zelfs al liet ik de koelers voor 100% draaien.
3dmark ging telkens over z'n nek.

Uiteindelijk heb ik het systeem stabiel gekregen met Afterburner.

Met de onderstaande settings is het uiteindelijk gelukt om het systeem stabiel
te krijgen op de eigenlijke oc settings die de kaart gewoonlijk al moet aan kunnen.
Vermoedelijk gaat Afterburner net even iets beter om met de psu.

Daarnaast is de geteste voeding is een 600 Watt 80 Plus Bronze
die in de verste verte geen 600 watt gaat leveren, maar wat xfx wel adviseert.

https://tweakers.net/i/SB-52JEcHEx_hn4E7SrT0uXClVY=/620x/filters:strip_exif()/m/58689/1FSYZP1JLIJ9eKzoxUGZfBdMq0JUbcru6I4gRpVngl5SoFqikz?f=620xauto


De gpu draait vanaf nu op maximaal 1,45ghz en het geheugen op 8,1ghz.

De werking van de koelers:

Echt vergelijkingsmateriaal heb ik niet maar ik kan wel zeggen dat de
koelers out of the box veel herrie maken.

Met de hierboven getoonde settings is de koeling iets beter afgesteld
dan nodig omdat ik de kaart liever wat koeler wil houden omdat
ik absoluut geen risico's wil lopen.

De maximaal toelaatbare temperatuur staat op 80 graden ingesteld
maar bij intensieve gaming komt de kaart tot waarden van maximaal 65 graden.
Zo is er een mooi compromis tussen geluid en goede warmte afvoer.
En ik moet zeggen dat de warmte afvoer van de kaart erg goed is.

Sluit je een game eenmaal af, dan is de kaart binnen enkele ogenblikken
weer afgekoeld naar 35 graden, en dan gaan de koelers direct veel
minder luidruchtig hun werk doen met de settings binnen afterburner.
Dit kan ik een ieder dan ook echt aanraden om toe te passen.

Ten opzichte van de RX480 is en blijft deze kaart qua geluid wel meer aanwezig.

De kaart heeft wel een mogelijkheid om de actieve koeling uit te zetten
maar dan krijg je telkens in en uitschakel momenten.
Dan heb ik persoonlijk liever continu hetzelfde monotone geluid.

Idle komt het geluid van de de koeling met de huidige settings onder
Afterburner niet boven de twee 140mm casefans van de Fractal R4
behuizing uit. En ik moet zeggen dat dit zeer aangenaam klinkt.

Bij volle belasting met bijvoorbeeld benchmarks draaien de koelers
op maximaal 66%. En dan zou je elkaar fluisterend nog kunnen
verstaan, om je een idee te geven.

En met deze settings kwam ik tot de volgende resultaten.
https://tweakers.net/i/RnvEtvRyucXVCxCTVDuwAajKchc=/620x/filters:strip_exif()/m/58689/1FSZ2r1VML9JbjEa7sFOXZ4CIBKsNUh4dfXnQpgYWV4KaIqz1a?f=620xauto

En ik kon het niet laten om de processor ook nog heel even te kietelen.
De i3 8100 van de familie Coffee Lake kon op het Gigabyte Z370 D3 bordje
worden overklokt met 80mhz waardoor de snelheid uit kwam op totaal 3.68GHZ.

Hiermee kwam de score net een klein beetje maar niet echt noemenswaardig hoger uit.
En toevalligerwijs verliep dit maal ook de laatste combitest geheel vlekkeloos.
https://tweakers.net/i/SIFE9oGivq-4-zdEn1MSd6QYf34=/620x/filters:strip_exif()/m/58689/1FTipQ2wrEVqUXlofqYqtYALuzrF06xXgxhnO4ljhQ214Vxbal?f=620xauto


>

RX 580 vs GTX 1070 op Full HD (1080P) :

Hieronder is te zien hoe de diverse videokaarten presteerde
medio april van 2017 met de toen nog oude AMD driver die
een stuk minder presteerde.

De hoogste graphics score kwam toen uit op 14.958 voor de snellere RX 580
tegen een score van 17.323 van de GTX 1070. Het testsysteem was daarbij
een Intel Core i7-6950X @ 4,2GHz met sneller DDR4 geheugen, die dus
zeker sneller is dan de i3 8100 in mijn tests.

Inmiddels weet de RX 580 een graphics score neer te zetten van 17.780
(zie hiervoor de 3dmark Firestrike benchmark-results hierboven)
wat zelfs hoger ligt dan dat van de GTX 1070, toen der tijd dan welliswaar.
En wel voor de duidelijkheid, het ging in die test om een GTX 1070 referentiekaart.

Verder ik heb geen idee of Nvidia zijn drivers inmiddels ook heeft weten
te optimaliseren voor merkbaar betere prestaties.
https://tweakers.net/i/Z4bdjdhV2VGuxT4APqt6AHUFgao=/620x/filters:strip_exif()/m/58689/1FVk5PVMwXyaZZlBMF3hjGhkOJvE2h8pBjgxN40JfWTVdJbpHc?f=620xauto


Vervolg benchmarks: (de i3 8100 draait hier weer op de standaard 3.6ghz)
https://tweakers.net/i/DYwvffdVoKey1V77S69nOzDvLvM=/620x/filters:strip_exif()/m/58689/1FSZjj3eNf5WLxiLqB6nyv96hU87wyDvUNcJGRTmU25gzEyNLw?f=620xauto

Stabiliteit:

Ondanks het gehele systeem nu perfect stabiel werkt, met inbegrip van
diverse spellen als Cod ww2, Tom Clancy's Ghost Recon en Gravel Colorado River,
gaf 3dmark bij een oc onder wattman van amd zelf knipperende beelden bij de laatste combitest
van de Firestrike benchmark, dit in tegenstelling tot de hogere kloksnelheden met Afterburner.
Wel vreemd gezien de "superposition benchmark" van Unigine 2 alles vlekkeloos laat verlopen.
En ook de Kombuster test binnen Afterburner geeft geen problemen.

Zou 3dmark dan nog meer van de voeding vragen dan andere benchmarks waardoor
complicaties ontstaan bij het overklokken onder Wattman van de adrenalin driver van AMD?
Dit wilde ik graag inzichtelijk maken, ook gezien de eerdere negatieve ervaringen
wat betreft het tunen onder Wattman.

Stroomverbruik bij benchmarks onder de loep genomen:

En om dit inzichtelijk te maken heb ik HWinfo64 v.5.86-3580 gebruikt.
Eigenlijk zou ik nu een test ter vergelijking moeten doen met een overklok-setting
onder Wattman en Afterburner, maar omdat een eventueel instabiel systeem
niets ten goede brengt laat ik dit liever achter wege.

Het gaat me er nu eigenlijk alleen maar om of 3dmark daadwerkelijk een
zwaardere belasting is qua stroomverbruik.

Inzichtelijkheid van het stroomgebruik tijdens benchmarks:
En dit waren de crijfers dan tijdens de overklok-settings met afterburner.

De GPU op 1,45Ghz en het geheugen op 8,1Ghz (de cpu draait hier in oc setting op 3.68Ghz)
https://tweakers.net/i/KqoKZt6WezxPeDXTkVFnCp09x2Y=/620x/filters:strip_exif()/m/58689/1FTWe75gwLzlK1FwvptoVKjURqU2nnSqZE7M8w8uZGAXnHrqu2?f=620xauto


Vanuit de bovenstaande vergelijking blijkt dan toch wel duidelijk dat 3dmark
wat hogere pieken laat zien in het stroomgebruik.
Of 3dmark dan ook per definitie een betere benchmark is durf ik niet te zeggen
maar met hogere pieken zou je wel kunnen veronderstellen dat het in de
zin van systeembelasting wel de betere is.

Mijn eindconclusie over wat betreft de knipperende beelden bij hogere kloksnelheden
onder wattman, is dat bij wattman het systeem lang niet zo stabiel werkt als bij
Afterburner. Deze conclusie kan worden getrokken vanuit het feit dat de
3dmark Firestrike test nu wel geheel goed verloopt.

Een latere test met een andere voeding:

(update 11-12-2018)

https://tweakers.net/i/LjTVYvr7GhL3dyhppU_w6DOadIk=/620x/filters:strip_icc():strip_exif()/m/58689/1GwFItbF7Jrj8FemNLmhpDrPCTalm2nwxxzeh3SFCtLw1J808K?f=620xauto

Nu heeft de Sharkoon voeding plaatsgemaakt voor een Corsair RM550x voeding
met een 80 Plus Gold certificering. Dit is niet zozeer een krachtigere voeding
qua wattage, maar hij levert wel meer dan voldoende stabiele Ampère op om er zeker
van te zijn dat de voeding geen zwakke schakel van het systeem vormt.
Hoe ik tot deze keuze ben gekomen:
Aan de hand van een calculatie via de website van Coolermaster bleek al
snel dat dit systeem geen extra power nodig had om voldoende veilige
marge over te houden om de kaart verder te kunnen overklokken.
Met deze RM550x voeding blijft er zelfs meer dan genoeg power over.
Conclusie over de nieuwe voeding:
Echter heeft deze voeding geen verandering gebracht in de overklokprestaties
onder wattman. Knipperende beelden blijven hiermee terug komen.
En dat terwijl onder Afterburner alles gewoon goed blijft lopen.
De Sharkoon voeding bleek toch niet de bepalende factor te zijn.
Latere tests met Afterburner wezen toch echt uit dat deze kaart niet
verder overklokt wil worden, ook al is er nu een betere voeding aanwezig.
Het systeem lijkt met de Corsair RM550x voeding nu wel iets vlotter op te
starten en te reageren.

Stroomgebruik in de praktijk bij gaming:

En qua stroomverbruik zitten mensen altijd erg te klagen over AMD kaarten, maar
in de praktijk gebruikt de kaart veel minder omdat FreeSync in combinatie van de
maximale frequentie van 75hz, dus maar 75fps verwerkt.
Het stroomgebruik zit bij Call of Duty WW2 met alles op maximaal en
freesync op 75hz op maximaal 150 watt in OC mode.
En dat zijn dan letterlijk uitschieters.
En dat is niet bijster veel als de maximale TDP op 185 watt zit.
En ja, de TDP ligt 30 watt hoger dan de GTX 1060 maar die presteert dan ook minder.
Het is maar net wat je zelf belangrijker vind.

Kiezen voor de juiste videokaart en monitor -combinatie:

Full HD of mag het ietsje meer zijn? :
De belangrijkste punten voor een videokaart blijven per persoon verschillend afhankelijk
van wat je ermee wilt gaan doen. Gamen op Full HD bij een resolutie van 1920x1080 blijft
denk ik voor de meeste op dit moment van schrijven wel het meest interessant.
Daar leent een RX580 kaart zich sowieso prima voor.

Daarnaast moet je voor jezelf nagaan of dat je een normale 60hz (refreshrate) voor maximaal
60 beelden per seconde wilt hebben, of dat je een snellere monitor wilt gaan gebruiken voor
een snellere game ervaring.
Moet ik rekening houden met FreeSync, Gsync of niet? :
Een snellere monitor met een hogere hz waarde (refreshrate) wil niet zeggen
dat de beelden ook per definitie sneller gaan, want dat zit hem erin of dat je videokaart het
aantal beelden per seconde (fps) gaat kunnen bijbenen. Want is je videokaart te zwak, dan
gaat hij het aantal beelden nooit sneller op je beeldscherm tonen, en is de investering voor
een snelle monitor meer voor de toekomst gebleken.
Gaan het aantal beelden op jouw pc maar met maximaal 60fps (60 per seconde) dan zou
in feite een monitor met een maximale refreshrate van 60hz volstaan.
Zo kun je vooraf je voorbereiding doen om je videokaart op je monitor af te stemmen en
visa versa.

Met een RX580 kun je gerust een snellere monitor tot zo'n beetje 75hz gebruiken want
over het algemeen kunnen alle games in Full HD prima draaien in extra high of ultra settings.
In de bovenstaande tests is gebruik gemaakt van een AOC monitor met FreeSync ondersteuning.
FreeSync (van AMD) en Gsync (van Nvidia) ondervangt een terugval in de fps als het op een
bepaald moment voor de videokaart even te zwaar wordt.
FreeSync kan een lage fps vanaf 30fps (laagste) tot afhankelijk van hoe
hoog (maximale FreeSync frequentie in hz binnen range) je monitor geheel vloeiend in beeld brengen.
Wel staat vast dat alle snelheden binnen je FreeSync range altijd vloeiend zijn, en het gemiddeld
aantal frames per seconde hoger ligt, en belangrijk misschien voor sommige onder ons, het
stroomgebruik ligt meestal ook een stuk lager als de kaart tenminste niet telkens maximaal hoeft
te presteren.

De snelheidsverschillen tussen 60hz, 75hz, 144hz etc. die echt duidelijk merkbaar zijn
blijven te allen tijde afhankelijk van je videokaart aan kan. En soms zal je dan je settings
omlaag moeten afstellen om meer gewenste fps te behalen, wat over het algemeen het
meest merkbaar is met games waar het gewoon echt zo snel mogelijk moet gaan zoals
bij race spellen of schiet spellen als Call of Duty.

Prestaties op 1080P (Full HD) met een AOC G2460VQ6 75hz monitor met FreeSync:

https://tweakers.net/i/UJgcsMwJET_Nz5d9eHt45Wfb1_I=/620x/filters:strip_icc():strip_exif()/m/58689/1GwFZP3H6LmIIxwCsNKpEmDAejBs5Wq36nkgUCsPuNZjP3vQgz?f=620xauto

Zie hieronder een door mij gemaakte schermopname van Call of Duty WW2
waar het gebruik uit komt op maximaal 150 Watt met alles op ultra settings en FreeSync aan.
(De FreeSync range van dit scherm is 35 tot 75hz)

Prestaties op 1080P (Full HD) met een Iiyama GB2788HS 144hz monitor met FreeSync:

https://tweakers.net/i/uXQQDqyTQX-1_HaXfNj5ZJEm7p8=/620x/filters:strip_icc():strip_exif()/m/58689/1GxaWV35uvzIGcSZmmdjup7QR8NlYVjWU3wH0xR5hYoLQCbGp0?f=620xauto

En dan nu wat resultaten van de RX580 in combinatie van de genoemde 144hz monitor.
Bij het gebruik van een 144hz scherm op een resolutie van 1080P is Call of Duty WW2
in combinatie met de eerder genoemde systeemconfiguratie geweldig goed te spelen.
Ik kan niet anders zeggen dan dat 144hz gewoonweg een verademing is voor fps games en racegames.
En voor wie dacht dat 75hz / 75fps snel ging, en overstapt naar een 144hz scherm wil nooit meer anders.
Met een 170 watt aan maximaal gebruik bij alles op ultra settings toont de RX580 zich als een
meer dan goede videokaart die continu boven de 80fps blijft uitpersen.
En nee, dat is niet niet de 144fps die de monitor kan verwerken.
Want als je tussen de 100 en 144hz wilt bereiken zullen er wat settings lager moeten worden ingesteld.
Verder kun je Vsync (verticale synchronisatie) uitzetten omdat de frames boven
de 144fps door de snelheid van het scherm keurig worden verwerkt zonder zichtbare tearing,
en daar krijg je een kleine reductie aan inputlag voor terug, wat eigenlijk ook nog maar minimaal is geworden.
Al is het wel zo dat je met Vsync ingeschakeld een hoger
gemiddeld aantal frames hebt omdat FreeSync zich hierop aanpast.

Hieronder staan nog een paar benchmarks met FreeSync aan
en de videokaart geklokt op de out of the box settings:

Farcry 5, Op ultra settings: min. framerate 68, gemiddeld 75 frames en maximaal 91
Farcry 5, Op high settings: min. framerate 72, gemiddeld 81 frames en maximaal 99


Eigenlijk is dit een perfecte combi, een RX580 met een 144hz scherm op 1080p.
Let wel dat dit Iiyama scherm een FreeSync bereik heeft van 45hz tot 144hz.
Niet alle schermen hebben dit zelfde bereik qua hoogste waarde in hz waardoor er
verschillen kunnen optreden.Dus let hier vooral goed op voordat je er een koopt om
teleurstelling te voorkomen. Minder dan 45hz is feitelijk niet nodig want een spel dat
je vloeiend wilt spelen moet al bij voorkeur op 60fps draaien.

Coil Whine:

Coil Whine is een soort piepend geluid of het zijn verschillende tonen die van de videokaart
afkomstig zijn, dit in verband met flucturerende belasting op de componenten van de videokaart.
Dit komt vaker voor bij hoge belasting tijdens benchmarks of zware games.
Dit fenomeen wordt over het algemeen als zeer irritant ervaren.

Deze XFX kaart had hier wel behoorlijk last van bij het gebruik van de Wattman, de overklok tool
van AMD die met de drivers mee komt, maar sinds het gebruik van Afterburner heeft de kaart
er helemaal geen last meer van. Oftewel, Afterburner is de betere overklok tool.

Eindconclusie:

Wat betreft het overklokken heeft deze RX580 variant niet meer overklokpotentie dan
de oc waarden waar hij volgens fabrieksspecificatie op kan draaien.
Dus GPU op 1450mhz en het geheugen op 8100mhz.
En voor wat betreft geteste configuratie is hij juist in een goede
balans met de i3 8100 zonder enige vorm van een bottleneck.

Wel is duidelijk gebleken dat het overklokken via AMD's Wattman een stuk minder
goed verloopt als met Afterburner. Het gebruik van Afterburner is dan ook zeer aan
te raden want ook op het gebied van koeling lijkt dit beter te zijn in te regelen.

In oc mode is hij vooral bij hogere resoluties net even iets sneller.
En voor wie op full-hd en 75hz / 75fps wil gamen kan deze kaart naar mijn idee nog
wel een tijdje mee. Wil je hogere resoluties en meer hz / fps, kies dan een snellere kaart of
pas bij een 144hz scherm desnoods de instellingen aan naar lagere waardes om toch lekker te
kunnen gamen. Al denk ik persoonlijk dat meer hz / fps bij full-hd eerder denkbaar is dan een
hogere resolutie. Tenzij je een scherm met FreeSync hebt die de lagere fps mooi kan opvangen.

Deze RX580 in combinatie met met 144hz scherm op 1080P is een prima combinatie gebleken.

Verder is het duidelijk dat deze RX 580 algemeen een stuk beter scoort dan de
vorige RX480 Gaming kaart van Gigabyte. Dus voor wie twijfelde, niet meer
doen en gewoon gerust overstappen naar een snellere RX 580.
Met maarliefst duizend punten verschil met de graphics score bij
3dmark en met ruim 10fps winst vind ik het persoonlijk de aankoop dik waard t.o.v. de RX480.
Maar ga vooral niet voor een referentiekaart gaan want dan is er nauwelijks verschil te merken.
Dus kies voor een hoger geklokte versie.

Op het moment van schrijven is een snelle niet-referentie RX580 kaart er tweede hands al
voor rond de 180 Euro. En dat is een koopje als je nagaat dat de langzamere GTX 1060
zo'n beetje voor hetzelfde bedrag gaat, en de GTX 1070
nog ruim 300 Euro moet kosten. En dan krijg je FreeSync bij de RX580 cadeau,
waar je voor Gsync bij Nvidia behoorlijk moet lappen voor een Gsync monitor.

Verder mag het voordeel best genoemd worden dat de fans erg makkelijk te vervangen zijn.
Het stofvrij maken en of het vervangen van een fan is nu een fluitje van een cent.

En kies vooral voor een XFX vanwege de goede garantie regeling en overdraagbare garantie.


Bedankt voor het lezen!

Alle afbeeldingen

Beoordeel deze review: 0 +1 +2 +3

Heb jij ook een XFX RX-580A8DBR6?

Deel je ervaringen en help andere tweakers!

Schrijf review

Reacties (6)

6
6
3
0
0
3
Wijzig sortering
Dit is de locatie waarvandaan je de driver
kunt downloaden.

https://eu.aoc.com/nl/gaming/products/g2460vq6/support

Deze installeer je in Windows 10 via de veilige modus ivm dat de driver niet digitaal ondertekend is.

Met vriendelijke groeten Jeroen
Goed review! wat ik nog wel even wil verduidelijken:

"FreeSync kan een lage fps vanaf 35fps (laagste) tot afhankelijk van hoe
hoog (maximale FreeSync frequentie in hz binnen range) je monitor geheel vloeiend in beeld brengen.
"

Deze waardes hangen af van je monitor. Ook ik heb een AOC monitor met freesync. Echter vallen mijn waarders binnen 48hz en 75hz(max vna mijn monitor). dus 48fps en 75fps. Er is al een vervanger van de monitor die ik bezit, deze heeft bijna geen bezel. Deze monito heeft een range tussen 30hz en 75hz.

Dit verschilt dus per monitor dus hier is wel voor op te letten.
Bedankt voor je reactie!

Zie toevallig ook mijn review onder jouw type monitor op Tweakers.

Er is namelijk een driver voor deze AOC monitor waarmee de FreeSync range wel vanaf 35hz is. :)

Zie mijn review voor meer info.

En met een tool kun je hem zelfs
desgewenst vanaf 30 hz laten werken, mocht je dit willen.
Dan kun je wellicht beide monitoren synchroon laten lopen😉

[Reactie gewijzigd door vanderark op 24 juli 2024 15:14]

Ik heb wel een driver gedownload die freesync zou moeten unlocken (oid.) zou het kunnen zijn dat dit de update is die je bedoeld? Of heb ik er 1 gemist? Dan zou ik vandaag even de updat die die de 35hz mogelijk maakt even moeten zoeken.

Gezien ik merk dat mijn frames een beetje beginnen te wankelen rond 45fps (niet in elke game natuurlijk. maar in Ghost recon wildlands bijv doet deze dat wel.) Dan zou deze update me daar dus goed bij helpen.

Bedankt voor de tip! :)
Heb de kaart zelf ook, maar draai hem zonder problemen op een 450 watt voeding.. Ook met overclocken gaat alles gewoon prima. Het investeren in een goede voeding betaalt zich altijd terug, ik denk dat je bronze geclassificeerde voeding hier eerder de oorzaak van is.
Ik denk alleen dat deze vergelijking niet op gaat, want zelfs al zou je een 450 watt gold
voeding hebben, zal deze nooit even veel of meer vermogen kunnen leveren dan
een 600 watt bronze voeding.

Dat de gebruikte voeding geen stabiele 600 watt kan leveren is een feit.
Qua overklokken, wat betreft tot hoever je maximaal kunt gaan, kan de éne kaart
ook weer verschillen met weer een andere identieke kaart, en stabieler of minder stabiel
werken wegens andere factoren waaronder meerdere apparaten die stroom trekken.
Daarnaast verliest iedere voeding door de jaren heen zijn vermogen stukje bij beetje,
wat dan ook nog een factor betreft.

Zodra ik een andere voeding heb ben ik zeer benieuwd, maar eigenlijk ben ik ook
gewoon tevreden met hoe alles werkt, want met freesync gebruik je nooit continu
vol vermogen waardoor alles stabiel werkt op de fabrieks oc-settings.
Als daar verandering in zal komen kijk ik zeker uit naar een nieuwe voeding
of ik moet toevallig tegen een aantrekkelijke aanbieding aan lopen.
Ik denk zelf aan een Modulaire voeding van Seasonic.

[Reactie gewijzigd door vanderark op 24 juli 2024 15:14]


Om te kunnen reageren moet je ingelogd zijn