Door Jelle Stuip

Redacteur

AMD Radeon RX 480 Review

Getest met CrossFire, VR, DX12 en overklok

Conclusie

Met de RX 480 heeft AMD zich ten doel gesteld om vr-gaming voor zoveel mogelijk mensen bereikbaar te maken. Hoewel AMD daarmee aardig gebruikmaakt van de vr-hype, hangt het van je verwachtingen af of de fabrikant die belofte waarmaakt. De zwaarste vr-games zul je met de RX 480 in ieder geval niet kunnen spelen, maar de kaart is sneller dan een R9 290 en kan zich meten met Nvidia's GTX 970, en dat zijn de videokaarten die je volgens Oculus en HTC minstens nodig hebt om vr-games te kunnen spelen.

Wie had gehoopt dat AMD's nieuwe 14nm-gpu de high-end kaarten zou vervangen, komt helaas bedrogen uit, want deze RX 480 is een echte midrange-kaart, die niet de prestaties kan bieden van de Fury-reeks. Daarnaast bleek onze RX 480 niet ver overklokbaar, is de standaardkoeler rumoerig en lijkt de RX 480 bovendien voorlopig AMD's snelste 14nm-videokaart te zijn, totdat de RX 490 ergens eind dit jaar zijn opwachting maakt.

Over een deel van de verbeteringen die moeten helpen bij vr kunnen we nu nog niks zeggen. Net als Nvidia's nieuwste gpu ondersteunt ook Polaris technieken om vr-rendering minder zwaar te maken. Het is echter aan gamefabrikanten om dat soort technieken toe te passen; pas dan kunnen we ervan profiteren. Hetzelfde geldt voor ondersteuning van api's als DirectX12 en Vulkan.

Wat de RX 480 je nu in ieder geval al wel biedt, zijn prima midrange-prestaties, een interessante CrossFire-setup en ondersteuning voor een aantal technieken die de kaart toekomstvast maken. Zo kan de Polaris-gpu hevc-video (de)coderen op 4k-resolutie met 60fps en heeft AMD eindelijk een hdmi 2.0-aansluiting gemonteerd, terwijl er ook ondersteuning is voor de nieuwe displayport-standaard, waarmee hdr-schermen aangestuurd kunnen worden.

Dat alles maakt van de RX 480 een interessante kaart voor mensen die niet veel hoger dan full-hd willen gamen. Maar zoals we op de vorige pagina al aanstipten, is het uiteindelijk de prijs die bepaalt of het ook een goede koop is. Tot een paar uur voor de publicatie van deze review hadden we alleen de adviesprijzen van AMD om op af te gaan en stonden we klaar om de RX 480 een 'prijs-prestatiekampioen' te noemen. Kort voor publicatie kregen we echter de eerste twee winkelprijzen te horen voor de 8GB-variant en daarmee werd dat beeld flink geweld aangedaan.

Het wordt heel interessant om het prijsverloop van de RX 480 in de komende weken in de gaten te houden. Als fabrikanten hun prijzen redelijk in de buurt krijgen van AMD's adviesprijzen, 220 euro voor het 4GB-model en 260 euro voor de 8GB-versie, kan de RX 480 wel eens heel populair worden bij mensen die niet per se het snelste van het snelste willen, of bij fans van multi-gpu-set-ups. Vindt die daling echter niet plaats, dan krijgt de RX 480 het een stuk zwaarder tegenover het aanbod van Nvidia.

Lees meer

Reacties (423)

Wijzig sortering
Dus om even kort samen te vatten, deze gloednieuwe 14nm AMD kaart kan zich qua prijs prestatie niveau net meten met een Nvidia kaart van 2 jaar oud die op 28nm geproduceerd wordt. En aan de comments te zien vinden veel mensen dat een geweldige prestatie? Daar komt nog een bij dat de advies prijzen voor de REFERENTIE kaarten op 220 en 260 euro liggen, normaal gezien worden de custom kaarten dus nog een paar tientjes duurder.

Nvidia komt binnenkort ook nog met 1060, hier zou de 480 straks mee vergeleken worden. Aangezien Pascal een efficiëntie heeft die z'n 70-80% beter is dan Polaris kan je dus verwachten dat dit een lastig verhaal wordt voor AMD en dan hebben we het nog niet eens over de dramatisch slechte koeloplossing van AMD gehad.

Tijdens de E3 persconferentie is door AMD gezegd dat de 480 de prestaties moet leveren van kaarten die $500 dollar kosten, ik denk dat ze daarmee twee jaar te laat zijn.

Alles bij elkaar vind ik het dus een grote teleurstelling, en helaas voor ons als consument betekend dit nogmaals dat er bijna tot geen concurrentie is in videokaart land. Zowel high end als mid range zijn er betere opties als je alles in beschouwing neemt.
Dus om even kort samen te vatten, deze gloednieuwe 14nm AMD kaart kan zich qua prijs prestatie niveau net meten met een Nvidia kaart van 2 jaar oud die op 28nm geproduceerd wordt.
Toch wel gek hoor. Toen de GTX 960 uitkwam was er helemaal niemand die een +2 wist te krijgen voor de opmerking "Dus om even kort samen te vatten, deze gloednieuwe Maxwell videokaart kan zich qua prijs/prestatieniveau meten met een AMD kaart van 3 jaar oud?"

Het hele idee, de hele doelgroep van deze kaart (zoals ook aangekondigd op E3), is de huidige afzetmarkt van de GTX970. Ja, daar presteert hij inderdaad gelijk mee. Vorige week kostte een GTX970 nog ~€330. Een RX480 met eveneens 4GB videogeheugen, die dus vaak net iets sneller is, maar wel ondersteuning biedt voor HDR, h.265, Displayport 1.4 en Freesync, kost nu maar 219. Ja, Nvidia heeft daarop de prijzen laten dalen, maar het is duidelijk dat AMD op dit moment een minimaal gelijk presterende kaart met modernere features voor €50 minder verkoopt. Dat lijkt mij vrij fair.

Het energieverbruik is inderdaad wel een dingetje. Hardware.info trekt hier de cijfers die AMD gebruikte in zijn presentatie goed onderuit, imo: de vergelijkingen waren niet volledig eerlijk https://nl.hardware.info/...a-e-250-4de-generatie-gcn
Wat de 1060 gaat worden is sowieso nog maar de vraag. Ik geloof zeker dat de 1060 sneller gaat worden, maar Nvidia kan niet die kaart op $200 zetten en 'de volgende stap' 1070 op $380 zetten wat op dit moment nog geen enkele fabrikant weet te halen.

Voor ons als consument breekt er een nieuwe tijd aan. Laten we afwachten tot Nvidia zijn antwoord op deze GPU's heeft uitgebracht, en afwachten tot AMD zijn antwoord op de 1070/1080 heeft uitgebracht. De concurrentie komt vanzelf wel :)

Admin-edit:Opmerkingen over moderaties horen thuis in Frontpagemoderatie.

[Reactie gewijzigd door Bor op 30 juni 2016 08:24]

Op dat afwachten speculeert Nvidia door de GTX 1060 eerder dan oorspronkelijk gepland op de markt te brengen. Pure strategie om AMD het vuur aan de schenen te leggen.

Dat de prijs van de 1070 nog zal dalen is zeker, maar of Nvidia dat doet na de RX490 (Q4 2016) of vlak ervoor is de vraag.
Ik heb begrepen dat die 1060 launch daadwerkelijk midden juli gaat plaatsvinden; die geruchten kloppen. Al is het nog maar de vraag of dat net zo'n paper launch gaat worden als de huidige 1070/1080.
Het lijkt er in deze aanloop naar 14/16nm GPU's vooral te gaan om wie er nu een aardige stock heeft. Je zegt het goed dat de 1070/1080 paper launches zijn, dat is ook een reden dat de prijs nog zo hoog ligt. AMD daarentegen heeft aangegeven dat ze de RX480 al in grote getale hebben geproduceerd. Mogelijk proberen ze daarmee het momentum te pakken, en gezien de aankondiging van de 1060 zo snel, lijkt dat een aardige strategie. Niet in de laatste plaats omdat Nvidia's aanbod nu zo enorm duur is/lijkt en dat van AMD totaal tegenovergesteld aandoet.

Tegelijkertijd vind ik de RX480 en met name dan 'Polaris' als GPU niet zo interessant. Er is geen echte vooruitgang, er is wat bijgeschaafd en op een kleinere node gebakken. Eigenlijk net als bij Nvidia, maar Nvidia haalt er veel hogere clocks uit en betere efficientie op die hogere clocks. De perf/watt winst van Maxwell schaalt gewoon heel mooi mee, en die van GCN niet. Jammer.

[Reactie gewijzigd door Vayra op 30 juni 2016 09:28]

Het verschil zit hem in het feit dat de 1070 en 1080 geen mainstream gamer kaarten zijn.. (1070 zit misschien nog op het randje wanneer de prijzen normal zijn, lees ongeveer 300 euro)

AMD heeft het laatste jaar duidelijk aangegeven dat dit een mainstream kaart word.

Daarnaast denk ik dat je met de opmerking "maar Nvidia haalt er veel hogere clocks uit" doelt op het feit dat Nvidia's nieuwe kaarten draaien op 1.8Ghz (1080)?
Dit is een beetje een nutteloze vergelijking aangezien je core clocks niet kan vergelijken over verschillende architecturen..

En de efficientie van de Nvidia kaarten is ook een beetje overdreven, een GTX 980ti overclocked naar ongeveer 1500/1550Mhz is evensnel als een stock GTX 1070 die op 1683Mhz draait .
De grootste reden dat de nieuwe Nvidia kaarten sneller zijn is dus dat ze een hogere core clock kunnen bereiken, de rest heeft er zo goed als weinig invloed op. (Er waren ook een hele poos een hoop geruchten dat Pascal is wat Maxwell eigenlijk had moeten zijn, maar door dat ze problemen hadden met de procede verkleining (niet alleen Nvidia maar ook AMD) hebben ze dus stukken Maxwell weghaalt om het op 28nm te laten passen.
In hoeverre dit waar is weet ik niet.)
Vwb die verschillen in architectuur; tot op zekere hoogte waar, maar zo groot zijn de verschillen niet meer. Beiden passen ze delta compressie toe, hebben grotendeels dezelfde technieken, alleen de opbouw van de shaders en pipeline is iets anders. Maar ze doen hetzelfde, pixels pushen, en het is wel zo dat een 'streaming processor' icm clockspeed direct te linken is aan performance. Je zegt het zelf; Pascal kan meer teweeg brengen vanwege hogere clocks, en dat zeg ik dus ook. Het resultaat is dat AMD zoals ook op het oude GCN en zoals ook al met Kepler het geval was (2012!) meer transistors nodig heeft om gelijke prestaties te bereiken.
Ik zie het ja, denk dat ik er te snel over heen gelezen heb. Excuus.

Haalt niet weg dat een rx 480 een redelijke sprong is van een r9 380 (die hij vervangt), rx 480 met een 1070 vergelijken is naar mijn idee niet helemaal correct. Maar goed, ik denk dat we het over het algemeen eens zijn haha.
Ik heb gehoord dat de 1060 7 Juli wordt gelaunched. Weet ik niet zeker hoor.
Ik sta niet bekend om mijn lovende woorden over het bedrijf AMD maar als deze kaart er straks voor 220 euro is en net wat beter is dan de GTX 970, die tot voorkort 350 euro moest kosten, dan vindt ik dat AMD geen slechte prestatie heeft geleverd. Dit alles wel onder voorbehoud van de jaarcijfers. Als AMD straks nauwelijks winst op de gpu tak draait, en dus te weinig voor deze kaart vraagt, dan neem ik mijn woorden terug.

Juist die GTX 970 vond ik overigens veel te duur voor hoe oud hij was (2014). Dit komt natuurlijk deels door de euro problematiek, maar AMD zegt nu toch voor 220 euro op dat prestatie niveau mee te kunnen dingen. Ook de GTX 960 was niet bijster interessant voor prijs/prestatie. In ieder geval niet voor iemand die nog een GTX 660 Ti/GTX 670, GTX 680 of iets vergelijkbaars heeft.

Mijn hoop was gevestigd op een GTX 1080 voor 500 euro. Echter voorlopig is dat met de paper launch van nvidia nog lang niet aan de orde.

Het is nu vooral de vraag hoe (snel) Nvidia gaat reageren. Voorraden zijn er niet dus de advies prijs van de 1070 verlagen heeft geen nut. Het zal dus vooral spannend voor AMD worden hoe lang Nvidia er over doet om hun GTX 1060 te introduceren.

[Reactie gewijzigd door sdk1985 op 29 juni 2016 21:36]

Prima geschreven Richh zou ik zo zeggen. Ik wacht op verdere prijsdalingen, mijn R7 360 met 2Gb doet het goed genoeg, evenals mijn 7970 3Gb die ik voor renderen gebruik en een FirePro die ik op ebay heb gekocht voor €27,50, die goed werkt en nog steeds snel is. Ik heb een FirePro W 5000 gehad die net zo snel is als een Tesla T10 4Gb, voor een fractie van de prijs van de W5000. . En om nu zo'n 200 euro bij te moeten lappen voor 20 frames extra per seconde terwijl het nu ook vloeiend gaat...Tja hoe gek kun je zijn. Een nieuwe kaart ,mocht ik mijn "oude" verkopen is me het geld niet waard. Ik was eerder een nVidia fan maar sinds ze marktleider zijn geworden zijn de prijzen omhoog geschoten. Ik wil niet als melkkoe worden gezien door de computerindustrie, een paar vernieuwingen, en het is weer geld tanken bij de consument. De productie kosten zijn aanzienlijk lager geworden, maar dat vertaald zich niet naar de prijs. Ik werk nu met tweedehandskaarten, daardoor hou ik aanzienlijk meer geld over voor echt leuke dingen met vrienden. Dat is voor mij de ware schat van het leven. 8)7
'Voor ons als consument breekt er een nieuwe tijd aan. Laten we afwachten tot Nvidia zijn antwoord op deze GPU's heeft uitgebracht, en afwachten tot AMD zijn antwoord op de 1070/1080 heeft uitgebracht. De concurrentie komt vanzelf wel :)'

dat is nogmaar te hopen...
zoals ik in de andere AMD RX480 threat heb gezegd:

en nu maar afwachten wat dit gaat doen.. dat kunnen 2 dingen zijn

1. Nvidia gaat zijn prijzen verlagen om 'enigzins' gelijk te komen met AMD's prijs
(reken 350 voor Nvidia vs 275 voor AMD)
2. Nvidia haalt zijn schouders op 'want het is toch maar een 970 OC' dus we hebben niks te vrezen van AMD (alweer niet) dus die prijs blijft mooi staan.

ik vrees zelf voor het 2e punt.
want ze kunnen wel zeggen (zoals ze dus ook met de hype rondom de 480 hebben gedaan) 'wij hebben de betaalbare stap naar VR etc. etc. etc.

maar als straks blijkt dat OOK de 490 'net aan' een 1070 zou inhalen met een beetje tweaken..
dan is het tochwel gedaan voor mij wat betreft AMD.. heb ze in deze nieuwe chip GEN een beetje het voordeel van de twijfel gegeven.. maar die lijkt misplaats te zijn.
AMD zal nooit een snellere kaart uitbrengen als Nvidia op hetzelfde tijdvlak.

en dat heeft vooral te maken met 1 ding.. keiharde pegels voor RND die ze niet hebben in kamp rood. in de schaal vergelijking met kamp groen.
Eneregieverbruik is wel echt een issue, daaruit kun jij eigenlijk enigszins opmaken dat de architectuur van Nvidia op dit moment superieur is. Een gtx 1070 is 2x zo snel, en verbruikt hetzelfde. Dat impliceert dat Nivida bij downscaling een veel snellere gpu met een lager stroomverbruik dan de 480 kan maken. Of die dan ook goedkoper kan worden weet ik niet, maar het lijkt me een logische stap.
Laten we het wel even in het juiste perspectief zetten: de teleurstelling wordt natuurlijk voornamelijk veroorzaakt door de (Nederlandse) prijsstelling. Wanneer de RX480 prijs dichter bij de € 200,- dan bij de € 300,- had gelegen, had het wel een mooie prestatie geweest. Op een of andere manier liggen (hardware)prijzen bij de introductie veel hoger dan in andere, omringende landen.

Dat is niet alleen bij hardware zo, maar geldt voor meerdere produkten, zo heb ik in Duitsland een koffiemachine gekocht voor € 860,- terwijl de goedkoopste in Nederland € 1340,- kostte. Ook gereedschap e.d. zijn goedkoper bij onze oosterburen. Klaarblijkelijk geldt in Nederland nog steeds het principe: "Greed is good".

Het is nog even afwachten, want introductieprijzen liggen vaak hoger dan een paar weken/maanden later, dus je conclusie vind ik net iets te voorbarig.
Het is idd wel wachten op de GTX 1060, die zal in ieder geval de prijzen weer een beetje sneller drukken.
Dit prijzen zullen in korte tijd nog wel wat dalen. De eerste kopers komen toch wel, dus kunnen ze ook een goede prijs vragen. Denk dat als er straks after-market kaarten komen dan zal dat nog sneller gaan. Winkels gaan over het algemeen nog wel een stuk lager dan de adviesprijs.
Ik reageerde op jandd0's post, die wel erg negatief was.

Zelf zie ik het positief in; als ik het zo inschat zal een OC RX480 rond de € 200,- uitkomen, wat het een héél aantrekkelijke optie maakt, zeker voor 1080p gaming 's het een no brainer. Tel daarbij de DX12 implementatie, Freesync etc bij op en de keuze tussen de RX480 en de GTX970 is snel gemaakt.

GTX 970 heeft dus in feite afgedaan, maar wat gaat de GTX1060 brengen? Als die onder de €200,- komt, zal het een flinke strijd worden tussen het groene en rode kamp.
Van wat ik van iemand begrepen heb is dat AMD met de RX-Serie op een kleinere procedé meer chips uit een wafer kan halen en dus goedkoper kan produceren dan Nvidia dat kan. Maar misschien vergis ik me met de volgende aankomende series.

Daarnaast heeft Nvidia volgensmij behoorlijk problemen met het leveren van de 1070. Volgensmij is er geen webshop in Nederland die hem op voorraad heeft. Ik verwacht daar voorlopig nog geen concurrentie van.
Nvidia is ook overgestapt op een kleiner procedé, dus dat argument gaat niet helemaal op.

1070 en zelfs 1080 zijn nu al bijna een maand uit, maar leverbaar in Nederland? Ho maar. Het was voor ons in ieder geval een paperlaunch.
Dat zou idd mooi zijn, dat ze beide rond de 200 euro uitkomen, dat is ook wat ik verwacht, eerst maar eens zien of de 1060 ook geen paperlaunch wordt. Daar mag amd op hopen kunnen ze mooi wat kaartjes verkopen.
dat werd ook over Nvidia gezegt... als je een week of 3 terug het forum heb gezien..

introductie van de 1080 en daarna de 1070

'ja de prijzen van de after-markets worden zoveel % minder want....'
nou mooi niet dus he.. MSI armor 1070 8 GB kaart.. pre-order was eerst 460.. nu staat hij ook gewoon heel netjes op 512 euro.. dus waar 52 euro 'meer' vandaan komt, afgezien van 'kleine voorraad' is mij een raadsel.. en met mij niet de enige op dit forum lijkt me.
No offence naar de review maar:

Van Tweakers had ik betere benchmark en games selectie verwacht. Het lijkt wel of Tweakers ook al de koorts van Nvidia "inception" te pakken heeft.
Gamers en GPU-Compute gebruikers, houdt deze punten in je achterhoofd:

GameWorks en DirectX12/Vulkan zijn heikel punten van Nvidia. Over GameWorks is al genoeg geschreven en we weten allemaal waar het voor dient: Ongelijke speelveld creëren zodat Nvidia kaarten beter uit de verf komen en de sterke kant van AMD-architectuur onbenut laten. AMD heeft daarop met Mantle API terug geslagen om onder andere GameWorks te omzeilen. DirectX12 / Vulkan zijn de geadopteerde dochters van Mantle. Dit heeft alleen meer tijd nodig om in te burgeren. Laat nu net Nvidia juist DirectX 12 / Mantle vertragen want GameWorks heeft dan nauwelijks effect meer –heck, Nvidia heeft GameWorks sinds kort openbaar voor iedereen gemaakt omdat het bijna is uitgespeeld door de next-gen API's. Nvidia heeft slechte of zelfs geen Asynchronous Compute én slechtere multi-GPU support. En laat Asynchronous een belangrijk techniek zijn voor multi-GPU's. En gezien de Pascal chips van Nvidia, dus ook geen Multi-GPU support van de groen kant (> 80% marketshare vs Radeon !)

Dan nu de gamekeuze bij Tweakers:

Project Cars:
Game compleet om proprietary Cuda's heen gebouwd. Er zijn reviewwebsites die juist om deze redenen Project Cars niet mee nemen in hun benchmarks. Tweakers plakt er ook nog eens vrolijk VR-test bij deze game voor de RX 480.

Tomb Raider Rise Of (DirectX 12):
Dit is een Nvidia GameWorks DirectX 12 wassen neus game. Als je goed opgelet hebt wat ik eerder beschreef weet je het antwoord al. Hier zit ook geen Asynchronous Compute. Al kun je in de gamefiles wel ASC vinden en aan zetten maar het doet verder niets. Dit is een rasechte DirectX 11 game. Een belediging om als DirectX12 benchmark te gebruiken. Ik schrok toen ik vernam dat Tweakers ROTR als de nieuwe DirectX 12 game benchmark ging gebruiken.

Witcher 3:
Nvidia GameWorks game met de infamous HairWorks om AMD kaarten op de knieen te krijgen (en ook de oudere Nvidia kaarten).
RX 480 heeft de nieuwe “primitive discard accelerator”. Dit is een nieuwe techniek waar AMD onder andere zichzelf iets beter kan beschermen tegen de GameWorks "black box" effecten. AMD zegt het netjes met de woorden dat het beter met tessellation om kan gaan.

Waar is "Ashes of the Singularity" DirectX 12 benchmark? En nee, het is geen AMD love. Nvidia had evenveel mogelijkheden om te optimaliseren maar deed het niet omdat Nvidia geen echte DirectX 12 / Vulkan hardware heeft. En de Nvidia DirectX 12_1 bestaat officieel niet eens! Ook weer om zand bij de consumenten te strooien.
En waar is"Total War: Warhammer DirectX 12" benchmark?

Tweakers test 8 games waarvan 5 (!) NVidia GameWorks titels. Houdt dit in je achterhoofd mensen voordat je blind conclusies trekt. En vergeet nogmaals, de DirectX12 / Vulkan niet. Ik lees zelfs als de RX 480 paar tientjes meer kost dan een GTX 970 OC dat je beter voor laatste kunt gaan...

AMD RX 480 is juist een zegen voor de gamers voor zowel AMD en Nvidia lovers! Betaalbaar, energie zuinig, op dit moment tussen het niveau van een GTX 970 en GTX 980. En met de vooruitstrevende techniek al ingebakken voor DirectX12 en Vulkan gaat het binnen een jaar de GTX 980 voorbij. En de Multi-GPU toekomst ziet goed uit als alle Nvidia GameWorks proprietary games verouderd en vergeten is.

Een goede YouTube kanaal over GameWorks en DirectX 12 / Vulkan: AdoredTV
https://www.youtube.com/user/adoredtv/videos

[Reactie gewijzigd door HanBurger op 29 juni 2016 19:10]

Zoals ik in een andere reactie ook al opmerkte, zijn de grote problemen van Project Cars met AMD-kaarten die er bij launch waren opgelost. Zeker in het midrange-segment waarin de RX 480 zich bevindt zijn verhoudingen tussen de AMD en Nvidia-kaarten in deze game niet veel anders dan in andere games.

Wat betreft Tomb Raider: het geeft goed aan dat er DirectX12-games zijn die heel goed gebruik maken van nieuwe features en het goed doen op AMD-kaarten (zoals Hitman, een game die we ook testen en waarin de RX 480 bijzonder goed naar voren komt) en dat er DX12-games zijn met een wat 'luie' implementatie. Wat mij betreft goed om beide kanten van het verhaal te laten zien en dat is precies wat we doen.

We zijn bekend met het effect van HairWorks bij The Witcher 3 en hebben dat voor onze benchmarks dan ook uitstaan.

Jouw post insinueert dat Nvidia-kaarten bij games die we getest hebben in het voordeel zijn, maar als je puur naar de resultaten kijkt is dat simpelweg niet zo. Het verschil tussen bijvoorbeeld de RX480 en de GTX 970 is behoorlijk constant in alle games met als hoogste uitschieter Hitman, waarin het juist de RX 480 is die het veel beter doet en uiteindelijk is de RX480 in 6 van de 8 games sneller op 1920x1080. Afgaande op de resultaten hebben we een nette selectie van games waarbij geen enorme uitschieters te zien zijn richting het 'groene' of 'rode' kamp.

Net als jij kan ik overigens niet wachten tot we veel meer games zien met een goede DX12- of Vulkan-implementatie. Ik ben erg benieuwd of verschillen dan groter zullen worden.
De laatste keer dat een review mij zoveel hoofdpijn gaf als met de RX 480 kan ik mij bijna niet herinneren. Niet vanwege de kaart, maar enkel vanwege DX12 op zowel Nvidia als AMD kaarten.

Dan gaan de prestaties 20% omhoog, dan gaan ze 5% omlaag, dan start een benchmark niet eens op op een specifieke kaart, vervolgens zijn de prestaties in een andere benchmark -exact- gelijk ongeacht de API. DX12 toont enorme potentie, maar een kritische en afwachtende notitie lijkt mij niet meer dan vanzelfsprekend. AMD wil zo veel mogelijk DX12 zien, Nvidia knalt daar gameworks titels tegen aan, maar uiteindelijk kan je weinig anders doen dan de boel nuanceren zoals nu ook gebeurd.
Fair enough. Maar laten we niet over het woord insinueren hebben want dan schiet je (ook) in je eigen voet daarmee. Wat belangrijk is om beide kanten van de medaille te laten zien, juist op het punt waar een omslag plaats kan vinden naar de nieuwe API’s en optimalisaties. Ja ik maak met mijn kritiek niet populair mee met +80% Nvidia marketshare ten opzichte van AMD. Maar het is wel belangrijk om de kopers van nu duidelijk te informeren waar Abraham de mosterd haalt maar vooral waar het heen gaat.
Ashes of the singularity geen AMD love?
Ten eerste is het spel is een AMD featured game: http://www.amd.com/en-us/.../ashes-of-the-singularity
Ten tweede is het spel gesponsored door AMD en oorspronkelijk bedoeld als Mantle tech demo. Sinds maart 2014 werken de makers van het spel Dan Baker en Tim Kipp van oxide games voor AMD. Als dat geen AMD love is dan weet ik het niet meer.
Zie 2de slide: http://pt.slideshare.net/...for-graphics-amd-at-gdc14
Verschil tussen Nvidia en AMD geoptimaliseerde games is dat AMD ook Nvidia kans geeft op in de code te kijken voor driveroptimalisaties. Nvidia’s proprietary juist niet. En DirectX 12 code was voor iedereen bekend en toegankelijk, ook Nvidia.
Als ik je betoog lees denk ik: waarom nog überhaupt een AMD kaart, geen game komt ermee uit de verf.
Het ligt behoorlijk ingewikkeld in elkaar. Iemand die veel beter dan mij kan uitleggen is onder andere AdoredTV. https://www.youtube.com/watch?v=2IcRF201cEc

Soms moet je een muur of 2 slopen wil je het complete verhaal zien omdat je soms AMD/Nvida mindshare infectie kunt hebben en hoe sommige (agressieve) marketing technieken werken. Maar hoe het er nu uit ziet is de AMD RX 480 een pareltje voor de grote gros PC-gamers. Ook voor Nvidia minded mensen! Kijk maar wat er met de prijzen van GTX 970/980 aan het gebeuren is. :9
En de AMD RX 480 voor de betaalbare schappelijke prijs wordt alleen maar beter en beter door de nieuwe API's ontwikkelingen. Daarom mijn eerdere betoog om hier meer op te letten als tegengeluid, en ook omdat Nvidia mindshare sterk is.

Mijn mening: GTX 970 én GTX 980 zijn sinds vandaag dood verklaart. En ook de aanstaande GTX 1060 gaat op den duur afleggen omdat het gewoon de oude DX11 gebaseerde architectuur gaat hebben. Terwijl de game-industrie allemaal naar DX12/Vulkan marcheren.
Toch wel straf dat AMD net op Computex ook Ashes of singularity had gekozen om te vergelijken met die ene competitieve net gelanceerde kaart van de groene zijde... Terzijde, als de kaarten effectief gaan kosten wat toen beloofd was is dit een heel strafef bang for the buck kaart. Helaas als de prijzen voor de 8GB versie rond de huidige 300 euro blijven plakken heeft de PR machine van AMD nogmaals gefaald. Ik ben eerlijk gezegd na de lovende woorden vorige maand een beetje teleurgesteld.... De twijfel over ZEN neemt nu ook toe :?
kan je door de mods niet meer waarderen maar +2 is dit zeker waard.
staat een boel in jou comment wat menig game dev. bij kamp groen slapeloze nachten geeft denk ik zomaar.
Project Cars:
Game compleet om proprietary Cuda's heen gebouwd. Er zijn reviewwebsites die juist om deze redenen Project Cars niet mee nemen in hun benchmarks. Tweakers plakt er ook nog eens vrolijk VR-test bij deze game voor de RX 480.
En opmerkelijk het verschil in positie tussen de andere kaarten. In VR tussen de beide 980-ers, en bij de monitor versie tussen de 970 en de 290X.

Waar komt dat verschil vandaan?
Welke betere opties dan? Een Gtx960 is 20 euro goedkoper maar bijna twee maal zo traag. Een 970 is 60 euro duurder en even snel. In crossfire komen ze dichtbij de gtx1080 voor honderden euro's minder.
Zie de review van Techpowerup daarvoor;

Zelfs als je de niet schaalde games eruit haalt(!!) komt hij niet aan de GTX 1080. Doe je dat niet vliegt ook een GTX1070 er ruim aan voorbij.

Ook heb je daarvoor een zwaardere voeding nodig, heb je meer stroomverbruik en lawaai, geen opties tot een wat kleinere behuizing etc.. Zo aantrekkelijk vind ik Crossfire 480 voor een vergelijkbare prijs als een GTX1070 dan eigenlijk niet tbh
Eens er zitten zeker de bekende nadelen aan een twee kaarten opstelling en ik prefereer ook een enkele. Maar jandd0 stelt dat de kaart niet concurrerend is

Terwijl als crossfire werkt hij ook bij jou link sneller is dan de 1070. Lijkt me prima concurrerend. In de tweakers review is hij in Alien, Dragon Age, Far Cry en The Witcher erg dichtbij de gtx1080. Als je de 4GB versie neemt kan je dan voor 440 euro 1070+ prestaties halen in de spellen waarbij crossfire werkt. Dat is echt een prima product. Als enkele kaart zeker.

Als die 8GB erg belangrijk is (niet vaak) of je speelt spellen zonder CF ondersteuning dan is de 1070 de handigere optie inderdaad.
"Waar crossfire werkt"

Laat dat nou juist het hele probleem zijn met 2 (of meer) kaart opstellingen. Het lijkt wel of er steeds minder games, bij launch, een goede SLI / Crossfire ondersteuning hebben.
Je zal net de games spelen waar cross fire wel goed schaalt, spaar je mooi 400 euro uit tov 1080..
Nee dat crossfire ding is onzin. Het is net iets minder dan 970. Dus crossfire zijn deze kaarten ongeveer iets beter dan een 980ti. Maar 1080 is verreweg heg best
En dan hebben we het nog niet over het energieverbruik gehad wat nu pas op het niveau van de vorige generatie NVIDIA kaarten ligt.

Stukje van Tom:
It truly takes an observant eye to see why we bemoaned the lack of an eight-pin power connector and the power circuit's design. AMD’s Radeon RX 480 draws an average of 164W, which exceeds the company's target TDP. And it gets worse. The load distribution works out in a way that has the card draw 86W through the motherboard’s PCIe slot. Not only does this exceed the 75W ceiling we typically associate with a 16-lane slot, but that 75W limit covers several rails combined and not just this one interface.
With peaks of up to 155W, we have to be thankful they're brief, and not putting the motherboard in any immediate danger. However, the audio subsystems on cheaper platforms will have a hard time dealing with them. This means that the "you can hear what you see" effect will be in full force during load changes; activities like scrolling may very well result in audible artifacts. We’re also left to wonder what we'd see from a CrossFire configuration. Two graphics cards would draw 160W via the motherboard’s 24-pin connector; that's a tall order.
http://www.tomshardware.c...80-polaris-10,4616-9.html

[Reactie gewijzigd door aval0ne op 29 juni 2016 18:00]

komt wel meer voor bij eerste PCB designs, effe bios bijsturen en opgelost. typische tom's fuss.
Niet alleen typische Tom's fuss, ook bij andere reviewers is dit waargenomen. Bijv. ook op de retail kaart van Saphire, waar het eerst ook gegooid werd op de reviewkaarten met een bepaalde bios. Betekent vooralsnog dat AMD 3 maanden heeft om bij te stellen om niet de validatie van PCI-SIG te verliezen. Blijft dan de keuze tussen reguleren van opgenomen wattage (=achteruit in performance) of alsnog ande re verdeling voeding kiezen naast de 75w uit het slot, als ze binnen de spelregels voor validatie willen blijven met een 6-pins aansluiting (hoewel een beetje voeding hier buiten de speciale makkelijk veel meer kan leveren, maar dat valt dan volgens mij buiten de specs van PCI-SIG). Zie ook deze thread.
Een risico is wel dat op mobo's met een zwakkere energievoorziening je bij reguliere operatie in een wat zwaardere game al problemen kan ondervinden, laat staan als je een OC doet of Crossfire gaat draaien. Extra warmteontwikkeling en invloed op andere geïntegreerde pci devices zoals audio en netwerk bijvoorbeeld. Eens zien hoe dit zich ontvouwt, hoop voor AMD van harte dat het geen of een heel klein issue is.

[Reactie gewijzigd door Venator op 30 juni 2016 09:54]

Dus jij vind 199 dollar ten opzichte van 330 dollar wat de 970 koste bij release teleurstellend? In dx12 gamens komt hij ook bij dan wel niet de 980 voorbij.

En je zecht toch ook niet bij de 1070. Ook eigenlijk teleurstellend. een kaart uitbrengen die zich kan meten met een kaart die 1 jaar oud is? dan laten we prijs even buiten beschouwing want dat is totaal niet doorslaggevend.. Misschien voor jouw niet. Maar 90% de consumenten kijkt wel naar de prijs. en dan naar de performance. En laten we eerlijk wezen. Deze presteert beter als een 970. En wat de 1060 gaat doen weten we niet. Maar die is er momenteel niet. Dus is AMD king of the prijs per FPS king. Zoals ze 9/10 keer zijn.
ik heb al jaren een gtx 780Ti deze staat nog steeds 7e als snelste kaart in de wereld. de RX 480 (22e plaats) is 1/3 langzamer dan de 780Ti. dus koop altijd een Ti wacht op de 1080Ti kan je weer 4 jaar verder mee. http://www.videocardbenchmark.net/high_end_gpus.html
Je vergeet wel 1 heel belangrijk punt. Deze kaart is nieuw, ondersteund de nieuwste tech en zal met DX12 en vulkan beter presteren. Iets wat de kaarten van 2 jaar terug van Nvidia nooit zullen doen.

Het is gewoon de beste kaart in de 100-300 doel groep.
Je bent eigenlijk gek als je een GTX 980 of 970 koopt in plaats van deze.
Als men de enige concurrent afkraakt, wanneer zij de prestaties van het high-end segment naar het midrange segment brengen. Terwijl Nvidia die prestatie juist in het hoge segment wil houden, dan moeten wij als consumenten toch wel afvragen of wij goed bezig zijn.
Wat mij verder uitermate stoort aan de review is dat de reviewer zijn oordeel baseerd de prijs op het moment van schrijven, maar op dat moment is er nog schaarste en zullen de prijzen altijd hoger zijn. Gezien zijn ervaring in het veld zou hij dit moeten weten. Al een dag na de review was de 8gb versie al 269,- euro, dus op de advies prijs van AMD en is de kaart wel de prijs prestatie kampioen zoals AMD 'm in markt zette.
Echt objectief vind ik het niet, maar ja de reclame inkomsten zijn ook nodig. ;) ;) ;)
euhm met een GTX 970, die inderdaad 2 jaar zo oud is maar waar je nog altijd 50 tot 100 euro meer voor neertelt dan deze kaart is het op zijn minst een economische verbetering
Arstechnica zei dat er meer dan 90 watt via de pcie bus wordt gevraagd wat meer is dan de 75 die toegestaan zijn. Is daar iets over bekend ?
Op een Reddit topic reageerde AMD dat ze het gaan onderzoeken en de situatie van de testers gaan nabootsen. Er zijn ook modellen dus waar dat niet zo is. De kaart heeft officieel wel de specificaties voor pci-e. (vrij vertaald)


https://www.reddit.com/r/...rt_your_pcie_power_usage/

Hier in dit topic word je vraag door AMD beantwoord.

https://www.reddit.com/r/...me_has_come_to_ama_about/
Ik vind dat de kaart mooie prestaties neerzet voor de prijs!

Blijkt over het algemeen sneller dan een GTX 970 OC, en dat voor 220 EUR.

Gezien dat de vorige generatie DE kaart was qua prijs/performance, die gemiddeld gemakkelijk 330 - 350 EUR kostte voor de aftermarket kaarten, krijg je dezelfde prestatie voor VEEL minder geld (62% van de prijs van een GTX 970).

Ik denk dat velen de prestaties van een GTX 970 willen, om alles vlot op 1080p 60fps te kunnen draaien, maar voor velen was deze kaart toch een tikje te duur. Nu is deze prestatie dus bereikbaar voor de massa. Niet te vergeten dat deze kaart ook de "minimale VR" kaart was, dus nu is dit bereikbaar voor 220 EUR.

[Reactie gewijzigd door lazershark op 29 juni 2016 15:10]

Volgens mij is het nog even afwachten voor welke prijzen ze precies in de schappen komen te liggen: de genoemde 8GB modellen van MSI en Gigabyte (en ook Sapphire, als ik de prijzen op Afuture mag geloven - 325 euro) wijken in ieder geval flink af ten opzichte van de prijzen waar zo velen hier zich met flinke stelligheid in vast hadden gebeten, dus de kans lijkt me ook zeker aanwezig dat - op zijn minst bij sommige merken - de 4GB versie duurder uitvalt dan de 220 Euro adviesprijs.


Wat me trouwens nogal opviel de laatste tijd is een tendens dat velen hier zich vrij halsstarrig vastklampen aan die info die gunstig uitvalt, en datgene dat ze minder bevalt een beetje onder het tapijt moffelen onder het mom 'ik moet het nog zien' (vrij sterk aanwezig bij al die berichten over de komende AMD generatie, maar komt eigenlijk overal wel voor waar je sterke 'kamp-vorming' hebt, van consoles tot smartphones en wat dan ook). Maar goed, maakt verder ook niet echt uit: de enige die de dupe is van cognitieve dissonantie/confirmation bias ben je uiteindelijk zelf...

[Reactie gewijzigd door w00t00w op 29 juni 2016 15:39]

En als iedereen hier genoegen mee zou nemen komt er volgende generate 150€ bovenop de advies prijs ;)
Dus laat ze maar lekker verontwaardigd zijn denk ik dan.

De priizen zullen sowieso snel stabiliseren, velen kunnen ze voor deze prijs helaas niet laten liggen dus kunnen ze het ervoor vragen de eerste dagen.

[Reactie gewijzigd door Sergelwd op 29 juni 2016 15:48]

Idd. even wachten op prijzen. Zou ook goed kunnen dat de prijsverlaging van de 970 is om stock leeg te maken. Voor de oude prijs zullen ze de 970 (dus rond de 330) niet makkelijk verkopen denk ik. Sowieso weinig ruimte voor meer prijsverlaging denk ik. Nvidia kan ze niet veel goedkoper produceren dan amd ze kan toch? Zoiets heb ik begrepen.

In iedergeval mensen die een (nieuwe) videokaart 'bang for buck' willen kopen hebben nu na vandaag aan beide merken een mooie optie naar keuze.
Het gaat mij niet om gelijk willen hebben, salty gedrag of Schadenfreude, meer om verbazing waarom velen zichzelf zo kritiekloos in de luren laten leggen zodra een nieuwtje in hun straatje past.
Ik kan me prima voorstellen dat iemand een persoonlijke voorkeur voor een bepaald merk heeft en blij kan zijn met de aankoop/bezit van een bepaald product (dat heb ik ook), maar ik snap oprecht niet waarom dat zo vaak gepaard moet gaan met zulke oogkleppen, of met kwaad of zelfs agressief worden als iemand wat lelijks zegt over je favoriete product/merk? Heb je dan zo'n pathetisch leven dat je je zo expliciet moet identificeren met een bepaald merk (en dan hebben we het niet eens over sexy dingen maar feitelijk gewoon om domme 'dingen' als een videokaart, een spelletjesconsole, een mobieltje...)
helemaal mee eens, maar ik vraag me nu wel af waarom ("en dan hebben we het niet eens over sexy dingen") een stel prachtige tieten dit wel zouden rechtvaardigen volgens jouw :D
Ooit gehoord van de termen als "Arm Candy" en "Trophy Wife"? Bovendien, vergeleken met een videokaart of een mobieltje kosten die dingen een godsvermogen (alhoewel dat eerder onderhoud betreft) - kan me heel goed voorstellen dat je er dan ook wel een beetje mee te koop wil lopen ;)

</offtopic>
Azerty verkoopt de 8GB versie vanaf €269,-
Ik zag dat bij Afuture een kwartier later de prijs ook al met een tiietntje was gedaald. Even afwachten lijkt me dan ook het devies: kan me voorstellen dat veel mensen deze kaart willen aanschaffen (het is imo. ook gewoon een goede deal), maar even wachten tot het stof is neergedaald kan volgens mij heel lucratief zijn.
Geef je groot gelijk, plus(wat ik denk) is dat fabrikanten zoals Msi etc.. Niet zomaar de kaart voor de adviesprijs van Amd de deur uit zullen doen, wanneer ze dit zouden doen gok ik dat zij een omzet verlies van andere modellen zullen krikgen en dit willen ze natuurlijk zoveel mogelijk voorkomen, want als die kaart voor zo goedkoop aangeboden zal worden, zullen voorgaande modellen of niet of nauwlijks nog gekocht worden of ze zullen de prijzen ervan drastisch omlaag moeten gooien..
We kunnen na mijn idee voorlopig nog wel even wachten tot de kaarten echt interessant worden, ik heb zo het gevoel dat elke fabrikant bij elkaar in de buurt qua prijs zal gaan zitten en dat er maat 1á2, 10 á 20 euro goedkoper zullen zijn.
Vind de prestaties zeer mooi maar aangezien als ik zo de overclock prestaties zie.. Zal er na mijn idee weinig verschil in zitten of je er nou een reference of non-reference koeler op hebt zitten..
Geluidsdruk is wel belachelijk hoog imo. Hopelijk heeft die niet ook nog coil-whine
wachten dan even op de aftermarket coolers. kan je er gelijk een flinke OC op gooien.
Is nog maar de vraag. Kaart beschikt over een 6-pins aansluiting en kan dus slechts max 150 W verbruiken. Of kunnen fabrikanten meer 6-of 8-pins connectoren toevoegen?

Ik heb de indruk dat de RX480 aan alle kanten wordt toegeknepen. De kaart zou gemakkelijk 30 W meer mogen verbruiken want verbruikt in-game dan nog altijd 10 W minder dan de 1070 gtx. Het 14 nm procedee laat dit toe. De performance/watt verhouding bij nVidia is veel beter. nVidia heeft gekozen voor hogere prestaties(gpu veel hoger geklokt dan AMD) bij hoger verbruik, AMD voor lagere prestaties bij lager verbruik.

Ik verwacht dus dat fabrikanten veel hoger geklokte kaarten gaan uitbrengen waardoor de prestatie drastisch zal stijgen en meer in lijn met nVidia komt te liggen. Tweakers zelf heeft er bij het overklokken al 10 % prestatieverbetering uitgekregen zonder spanningsverhoging. Fabrikanten gaan de spanning wel verhogen dus ik verwacht >10% prestatiewinst.
ze starten altijd met basis kaarten, dan smijten ze er een custom cooler op, dan bouwen ze eigen pcb. altijd in die volgorde om snelle go to market te hebben.

beste designs krijg je dus laatst.... het is ook nog eerste gpu batch zonder process optimalistaie. dus latere gpu zullen minder verbruiken.
Hopelijk brengt AMD ook een RX485 revisie uit voor de RX480 zoals ze recent aangegeven hebben om beter te concurreren met nVidia aangezien de 1060 op het niveau van de 980 zit maar de RX480 net daaronder.
en die 1060 zal dan ook wel weer 100eur meerkosten...
https://www.alternate.nl/AMD/Grafische-kaarten/RX-480

Dat is de prijs geen 220 euro doe mer maar meer dan 100 bij
Dat is een beetje overdeven, 50 euro bijleggen is voldoende: https://azerty.nl/0-6932-...hire-radeon-rx480-8g.html
Ik ben bang dat deze prijzen omhoog gaan.
Afuture is de eerste in de pricewatch
maar helaas ook weer boven de 300 euro

Dus voor mensen die er 1tje willen hebben voor een goede prijs
Bestellen bij azerty zolang die prijs nog laag is.
ze kunnen helaas niet uit voorraad leveren.
maar je zult ze vast krijgen voor die prijs.
Raalte 0 stuks voorradig
Online ruim voorradig
Althans wat hun site zegt

[Reactie gewijzigd door LopendeVogel op 29 juni 2016 21:00]

Netjes van Azerty. Hoop dat niemand zo gek is om 60 meer neer te tellen bij Alternate, zal dat stel uitbuiters leren.
40 euro meer voor de 8gb variant vind ik vrij fors.

Ik zie ook niet direct een toepassing voor die 8gb behalve CAD modellen renderen oid.
Ik zeker wel. Ik merk dat mijn 4GB op mijn 290 al te weinig is. Ik ga zeker voor de 480 8GB alleen al voor de exra V-Ram :)
Met wat voor toepassingen merk je het dan? Ik zit persoonlijk nog op 1 gb, en heb dus geen idee.
Games als GTA V vinden het wel fijn om meer VRAM te hebben, vooral op alles vanaf 1080p.
Assetto Corsa met wat graphic mods ga je gauw over de 4GB heen. Tevens is GTA V ook behoorlijk geheugen vretend.
Op spellen als Ashes of the Singularity raden ze al sterk een 4GB VRAM kaart aan voor de recommended/medium settings en 8GB VRAM voor de maximum settings.

Als ik in de map editor (niet VRAM) bezig ben in Ashes of the Singularity (Ben een modder voor maps/scenarios/campaigns) dan gebruikt ie de volle 16 GB RAM, voor grote maps heb je 32 GB RAM nodig in de editor (Niet in game godszijdank anders zou bijna niemand ze kunnen spelen).

En ze willen graag NOG grotere maps gaan maken (makkelijk 4x de grootte) dus die devs hebben 64-128 GB ram in hun systemen.

Gekkenwerk, maar het is dus vooral een stukje toekomstbestendigheid als je voor 8GB ipv 4GB gaat.
Geheugen gebruik staat niet in verhouding tot benodigd geheugen.
Het kan zo zijn dat je Vram counter 4GB aan geeft, maar de kaart prima met 3GB overweg kan zonder in fps te zaken.
Ik ben met 2x 980ti 6GB in SLI nog geen geheugen te kort tegen gekomen in GTA V, lijkt me sterk dat een 290 te weinig aan 4GB heeft.
ik merk het ook met dirt rally, project cars en asetto corsa dat 4gb eigenlijk net te weinig is. ik heb nu een gigabyte g1 gaming gtx 960 met 4gb vram. maar af en toe loopt die 4gb toch aardig vol.
Ik zie ook niet direct een toepassing voor die 8gb behalve CAD modellen renderen oid.
Misschien op het moment niet, maar games gaan steeds meer V-ram gebruiken, dus 'better safe than sorry', en dus is die 4GB extra het echt wel waard imo.
Je krijgt niet alleen meer VRAM, het geheugen is ook iets sneller geklokt (7Gbs vs 8Gbs).
Medetweakers, blijf alstublieft weg van Crossfire (of SLI) als alternatief van bijvoorbeeld de GTX 1070. Want dit heeft enkele grote nadelen, zoals
  • Slechte support door games (zie Hitman en Tomb Raider). Ik vind die Prestatie-index DX11 dan ook erg onrepresentatief
  • Onstabiele games (bv.: https://www.google.nl/web...%204%20crossfire%20issues)
  • Hogere geluidsproductie (je produceert letterlijk twee keer zoveel geluid (dBa schaal is logaritmisch) en de warmte kan nog slechter je kast uit waarmee de fans ook nog harder moet draaien)
Wat wel een redelijke optie is om te investeren in de mogelijkheid om SLI/Crossfire in de toekomst mogelijk te maken (door een grote voeding en een moederbord met twee PCi-e aansluitingen). Zodat je later een goedkope tweedehands vidoekaart op de kop kan tikken.

[Reactie gewijzigd door kami124 op 29 juni 2016 15:20]

(je produceert letterlijk twee keer zoveel geluid (dBa schaal is logaritmisch)
Daar wil ik graag een toevoegen dat dit nog niet 2 keer zo hard klinkt voor het menselijk oor ;) Voor een mens klinkt een toename van 10db twee keer zo hard.

Bron:
Zo blijkt een subjectieve verdubbeling van de geluidssterkte overeen te komen met een stijging van het geluidsniveau met 10 dB, dus met een factor 10 voor de intensiteit.
Nog een bron:
Voor het menselijk oor lijkt een geluid pas tweemaal zo hard als het 10 dB sterker is.
Neemt niet weg dat SLI/CrossFire wel degelijk nadelen heeft maar deze specifieke ligt iets genuanceerder dan wellicht op eerste gezicht lijkt ;)
Ik had er daarom juist ook tussen haakjes bijgezet dat de "(dBa schaal is logaritmisch)". Omdat ik weet dat hetgeen wat je zegt klopt ;).
Toch eigenlijk om te janken, dat er met de aankondiging van DX12 werd gesproken over verbeterde Multi-GPU support, met switch van AFR naar SFR, shared memory pooling en meer.
Bron: http://www.overclock3d.ne...dx12_multi_gpu_benefits/1

Kijken we naar de enige DX12 titels in deze test, presteert de CF opstelling slechter dan de enkele kaart |:(

- Of DX12 is nog niet volwassen en het werkt gewoon nog niet.
- Of de developers hebben gewoon geen support voor CF/SLI ingebouwd.

Ik hoop dat de optimalisatie-clusterf*ck niet de standaard gaat worden, aangezien nu een nieuwe kaart kopen, en later een tweede erbij zetten flink kan besparen.
ROTR en Hitman zijn niet geheel toevallig allebei Square Enix spellen, die altijd al redelijk belabberde multi-gpu support heeft ingebouwd in hun spellen. En in allebei de titels is er net genoeg dx12 features toegepast zodat ze er het stickertje op kunnen plakken.

In het devblog van TOTR wordt er heel veel gepraat maar weinig gezegd. http://tombraider.tumblr....tx-12-to-rise-of-the-tomb Als je concreet kijkt zijn er alleen CPU features van de API toegevoegd, en is bijvoorbeeld async compute alleen voor de XBone beschikbaar gemaakt (!) Dit zal voor Hitman niet veel anders zijn. Compleet waardeloze dx12 benchmarks.

Spellen die dx12 een stuk completer hebben toegepast; een Total War of Ashes. MS heeft recentelijk ook een aantal dx12 titels uitgebracht via de store (Quantum of GoW). Worden gewoon genegeerd door heren Tweakers.
een verbubbeling in geluid klopt niet helemaal... ;)

bij een verdubbeling van de geluidsbron (2 kaarten ipv 1) stijgt het geluidsniveau met ong 3 dba. dus voor het menselijk gehoor stijgt het geluidsniveau met 3 dba met 2 kaarten ipv 1 kaart.
Zie mijn reactie hierboven.
220 euro voor 290x of gtx970 prestaties. En ook nog super zuinig (zeker tov 290x) Dat is toch gewoon prima werk? Snap de negatieve berichten hier niet. Erg mooi kaartje. Doet me qua prijs/prestatie aan de oude 4800 series denken die ook erg fijn waren.

[Reactie gewijzigd door Goron op 29 juni 2016 17:18]

Super zuinig? Even zuinig als de NVIDIA kaarten van een generatie eerder is al super zuining?
Je hebt gelijk, super zuinig is niet het juiste woord. Ik bedoelde het meer ten opzichte van de energieslurpende 290x die hij qua prestaties evenaart.
En daarbij komt kijken dan kaarten van een voorgaande generatie op een groter process gebaseerd waren 28nm. De vergelijking met nvidias huidige kaarten is dus eerlijker. En dan loopt AMD toch wel enorm achter. De 1070 verstookt vrijwel hetzelfde maar is veel krachtiger.
Probleem is dat de verwachtingen hoger waren...
In welk opzicht? Zou een relatief zuinige midrange kaart worden met flinke prestatie winst t.o.v. de oudere generatie. Dat is toch ook gelukt? Je hebt nu high-end prestaties van de 290x voor midrange prijs en minder verbruik.

In crossfire zit hij dicht tegen de 1080 aan en boven de 1070. Ik snap niet zo goed wat er nog meer verwacht was dan.

Enige gekke is de winkelprijs die veel hoger is dan adviesprijs, maar dat zal zich snel rechttrekken lijkt me
Ik denk dat veel mensen hem dicht tegen de 980 aan hadden verwacht.
Probleem is voornamelijk dat de 8GB versies eerst zijn uitgekomen die een adviesprijs hadden van 260 euro en nu op veel plekken ruim 300 euro kosten en dat mensen zich daardoor bedrogen voelen. Als ze kijken bij Azerty zie ik bijvoorbeeld de MSI staan voor 279 euro wat ik op zich nog niet zo'n gekke prijs vind.

Ik zit al even te wachten op deze kaarten aangezien ik ook na mijn HD4870's toe was aan een nieuwe kaart / nieuwe kaarten. Nu vraag ik me alleen af hoe goed dit gaat werken om drie schermen aan te sturen en of het met een losse kaart gaat lukken of dat het handig is om straks voor een CFX opstelling te gaan.
Duurt het even of zijn er geen grafieken van de benchmarks?
productreview: AMD Radeon RX 480 8GB review door Foritain

Hier zijn ze wel, gemeten door Foritain, for the time being. :)
Ik zie ook geen grafieken

EDIT: nu wel

[Reactie gewijzigd door lazershark op 29 juni 2016 15:03]

Die hadden even een schopje nodig
Waarom worden bij het benchmarken van 1 losse videokaart ook de SLI/Crossfire opstellingen samen in 1 grafiek gegooid ? :/

Dat de TI en OC versies wellicht meegenomen worden is op zich nog wel te begrijpen aangezien het gaat om 1 videokaart maar de vergelijking met 2 videokaarten geeft een warrig overzicht in de grafieken. (met name ook de kleur blauw/roze) Daarnaast denk ik (aanname) dat de meeste gebruikers een enkele videokaart hebben/draaien tov de SLI/CF opstelling. Of ligt dit aan mij ?
Omdat het een interessante vergelijking is, vooral bij deze RX 480. Twee RX 480's komen namelijk erg dicht in de buurt bij een GTX 1080 voor een fors lagere prijs.
Twee RX 480's komen namelijk erg dicht in de buurt bij een GTX 1080 voor een fors lagere prijs.
Ligt eraan waar je naar kijkt. ;)
Qua latency / tijd (van game state update tot beeld op monitor) zijn CF & SLI gewoon een ramp.
En zorgt dit dan voor input lag latency of een andere soort latency ?
Hogere output latency ;)
Afhankelijk van game en hoe je meet kan input latency ook hoger worden.
Het is natuurlijk ook gewoon hetzelfde. Waar "input latency" om draait is het tijdsverschil tussen het doen van een actie en het zien van het resultaat. Als het resultaat later zichtbaar is (wat jij "output latency" noemt), dan heeft dat direct tot gevolg dat de "input latency" hoger is.
Je hebt ook nog de tijd tussen user input en het moment dat de server die input verwerkt in een MP game, volgens mij zit daar niet per se die output latency in, afhankelijk van de game engine.
Nou moet ik zeggen dat ik de term nooit heb gehoord in die context, maar in dat geval kan dat ook nog ja.
En ook in een SP game heb je die latency.
Genoeg Quake spelers die 200+ fps beter vinden spelen alhoewel monitoren dat nog steeds niet weer kunnen geven.
Dat heeft meer met floating point afrondingen te maken, die een sweet spot bereiken bij bepaalde framerates waardoor je uiteindelijke snelheid gunstiger uitvalt.
En een fors hoger energieverbruik.
Ik vind het wel een reële keuze. De 480 RX is een heel stuk goedkoper dan bijv. de 1070, dus voor ongeveer hetzelfde geld kun je er twee van in het systeem zetten. Het is dan wel fijn om te weten hoe de verhouding is van twee 480 RX'en in crossfire vs 1 GTX 1070.
Moest CF consistent in elk game werken dan is dat nuttig ja maar dat is helemaal niet het geval.
Je bedoelt dan dat het niet werkt in DirectX 12. En is dat dan niet juist interessant om te weten, hoe goed hij het doet bij verschillende games? Nu kun je concluderen dat je er in DirectX 12 nog geen fluit aan hebt. Als hij niet was opgenomen in de benchmarks dan kon je die conclusie niet eens trekken en bleef je met vragen zitten.

[Reactie gewijzigd door .oisyn op 29 juni 2016 15:42]

Ook. Maar het werkt ook niet in alle DX11 games.
Welke dan niet? Of doel je dan specifiek op Project Cars in 1920x1080? Want op hogere resoluties wordt het verschil weldegelijk relevant. En zie verder mijn aanvulling in mijn vorige reactie.

[Reactie gewijzigd door .oisyn op 29 juni 2016 15:46]

Is dit een serieuze vraag? Of bedoel je welke werken wel?
Euh ja :? Ik weet niet of we nou volledig langs elkaar heen lullen of dat jij gewoon de grafieken niet snapt, maar volgens mij kunnen we concluderen dat het in álle DX 11 games zin heeft om de 480 RX te gebruiken in CrossFire.
Ik wist niet dat alle DX11 games getest waren? Jouw bewering dat alle DX11 games baat hebben bij een CF setup zal zelfs de AMD CEO niet durven herhalen.
Oh je hebt het over álle games :). Nee inderdaad, je weet van tevoren niet of games het ondersteunen. Maar maakt dat benchmarks onzinnig?
Eh, de benchmarks zijn natuurlijk niet fout maar als CF/SLI slechts af en toe goed werkt kun je je wel afvragen of ze nuttig zijn ja.
Maar hier zijn de testen gevoerd in momenteel populaire games die de gpu's het vuur aan de schenen kunnen leggen. Dat er weinig verschil zal zijn met een CF/SLI opstelling in bv Prison Architect, weet het kleinste kind (al is die wel lekker om OC op cpu's te testen). Dus ja een CF test was relevant.
Ja, hoe doen twee RX480's het eigenlijk met DX12 in Rise of the Tomb Raider, .oisyn? :+
Inderdaad, speel je veel games die goed schalen in CF ben je veel goedkoper uit, dat ie wat singleplayer games minder is who cares..
Je kunt bij Azerty terecht voor 270 dus 540 totaal. Daarmee wordt het gat met de 1080 zo groot dat er niet om heen te kletsen is.
Daarmee wordt het gat met de 1080 zo groot dat er niet om heen te kletsen is.
Toch heb ik het idee dat als het over CF en SLI gaat het vaak bij kletsen blijft. De meesten gebruiken het niet daadwerkelijk.
Maar als ze hun adviesprijs van ~250 bereiken wordt dit een ander verhaal.
Daar ga ik dan ook vanuit. Het is niet bijzonder constructief om de daadwerkelijke prijzen op launch day aan te houden.
Lukt het nog om een score neer te zetten voor dual rx480’s in de steamvr benchmark?

Leuke review en de cf schaling is impressive, ben benieuwd of alle dx12 games zo gaan schalen want dan veranderd de markt zeer snel.
Ik ga de benches even draaien.

[Reactie gewijzigd door Ch3cker op 29 juni 2016 16:29]

Super!!
Edit: en thanks! Schaalt in de steamvr bench dus niet lekker naar 1080 niveau.

[Reactie gewijzigd door SpiceWorm op 29 juni 2016 16:36]

Heb de bench even voor je gedraaid. De RX480 zet een score neer van 6.6, de RX 480 in CrossFire doet 8.6.
Ben ik ook heel benieuwd naar. Zou top zijn als 480CF overal boven de 90 zit.
Grafiekjes werken niet? Voorderest valt het een beetje tegen kwa performance t.o.v. 290x/390x alleen verbruik is heel wat beter.
Eens, had gehoopt dat ingame prestaties on par zouden zijn met 390X en bijna op GTX 980 niveau..
Ja vind het ook wat teleurstellend, hij zit tussen de Geforce GTX 970/980 in, en de Geforce GTX 970 is niet veel duurder, en zelfs net zo duur als de 8GB versie (ja weet de Geforce GTX 970 heeft maar 4GB), en dat de Geforce GTX 9** kaarten al weer +/- 2 jaar oud zijn, en dat Nvidia bijna met de Geforce GTX 1060 uit komt, en die hoogstwaarschijnlijk sneller zou wezen, en daar had de Radeon RX 480 mee moeten concurreren.

En BTW waarom is de Energieverbruik systeem - Ingame niet met 2x Radeon RX 480 CrossFire gemeten, zie allen het van een Radeon RX 480?????

Verders een mooie review.

[Reactie gewijzigd door AmigaWolf op 30 juni 2016 04:19]

De 980 is een duidelijke high end kaart. De 480 is mid range en is zo door AMD ook gepresenteerd. Als je sec kijkt naar de 980 dan valt de nieuwe AMD 'tegen'. Alleen dat is geen eerlijk vergelijk. Die kaart is 150 Euro duurder. Zelfs nog met de 1080 op de stoep...
Nu weet ik ook wel dat (volgens geruchten) AMD claimde 980 prestaties te leveren voor $200. En als je kijkt naar de DX12 benchmark, klopt die claim ook.

Kijk je naar de prestaties en de prijs, is de 480 een no brainer voor 1080p Gaming. Vsync aan en gaan. Steady 60 FPS op een dikke setting gaat prima af.
En wat nog belangrijker is, Energie verbruik is dik, maar dan ook dik in orde.

Over 3 weken ben ik jarig, en ik weet al wat ik mijzelf cadeau ga doen!
Dat zal best, maar die Geforce GTX 980 is +/- al weer 2 jaar oud, en je hebt een Geforce GTX 980 al voor €370,-

Ik weet dat hij €150,- duurder is, maar hij is wel sneller in 99% van de spellen, en ja je kan 2x Radeon RX 480 kopen, maar dan verbruik je weer 135w meer, dus het is maar wat je wil.

En een Geforce GTX 1080, is niet veel duurder dan 2x Radeon RX 480 8GB, een Radeon RX 480 8GB kost €269,-, en 2x dat is dan €538,-, en een Geforce GTX 1080 kost €677,50, en dan scheelt het nog maar €139,50, en dat de Geforce GTX 1080 in bijna alle spellen even wat sneller is.

[Reactie gewijzigd door AmigaWolf op 30 juni 2016 19:42]

Kies score Let op: Beoordeel reacties objectief. De kwaliteit van de argumentatie is leidend voor de beoordeling van een reactie, niet of een mening overeenkomt met die van jou.

Een uitgebreider overzicht van de werking van het moderatiesysteem vind je in de Moderatie FAQ

Rapporteer misbruik van moderaties in Frontpagemoderatie.



1 2 3 ... 10

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee