AMD geeft benchmarks vrij van RX 480 en RX 470 en onthult RX 480M

AMD heeft enkele nieuwe details over de Polaris 10 en 11-gpu's bekendgemaakt. De nieuwe slides tonen dat Polaris 11 over 16 CU's beschikt en is voorzien van een 128bit-bus. Er komt een RX 480M met deze gpu. Ook deelt AMD enkele benchmarkresultaten van de RX 480 en RX 470.

De vrijgegeven presentatie bevat deels dezelfde inhoud als de details die AMD tijdens de introductie van de Radeon RX 480 bekendmaakte, maar toont ook nieuwe details. Het was al bekend dat de RX 480 beschikt over 36 CU's en een 256bit-bus, ofwel de Polaris 10-gpu. Ook de RX 470 heeft een Polaris 10-gpu, blijkt uit de presentatie. Mogelijk gaat het om een variant die niet volledig is ingeschakeld.

AMD heeft nu bekendgemaakt dat Polaris 11 bestaat uit 16 CU's en een 128bit-bus heeft. Waarschijnlijk krijgt de RX 460 deze gpu. Ook komt er een RX 480M voor laptops met deze kleinere variant van de Polaris-chip. Polaris 11 is goed voor 'meer dan' 2tflops. Van Polaris 10 was al bekend dat deze goed is voor meer dan 5tflops.

Verder zet AMD de RX 480 tegenover de R9 380 in de Steam VR Performance test. De nieuwe videokaart scoort hierin volgens de fabrikant 6.3, terwijl het oude model op 3.6 blijft steken. Het Windows 10-systeem waar de test op is uitgevoerd bestaat uit een Intel Core i7-5960X met 16GB ram.

Ook benadrukt AMD dat de prestaties per watt van Polaris 2,8 keer beter zijn dan bij de huidige generatie. De videokaartmaker zet die bewering kracht bij met 3DMark-scores, die zijn te zien in de bijgevoegde notities van de presentatie. In diezelfde endnotes staat ook een RX 480M vermeld onder de Polaris 11-kaarten. Dit is vermoedelijk een gpu voor laptops, het verbruik zou op maximaal 35W liggen. AMD vergelijkt de gpu met de R9 M280 en terwijl Polaris sneller is, verbruikt de RX 480M veel minder.

In de notes staan ook scores van Polaris 10 en die zijn gebaseerd op benchmarkresultaten van de RX 470, zegt AMD. Het maximale verbruik zou 110W bedragen volgens de tekst; de fabrikant vergelijkt de kaart met de R9 270X die tot 180W verbruikt. De benchmarks zijn gedraaid in Ashes of the Singularity, Hitman en Overwatch.

AMD Polaris
AMD PolarisAMD Polaris
AMD PolarisAMD PolarisAMD Polaris

Door Julian Huijbregts

Nieuwsredacteur

14-06-2016 • 21:42

230

Reacties (230)

230
218
136
7
0
55
Wijzig sortering
Ik ben van plan een GeForce GTX 1070 te kopen, maar dat is meteen 500+ euro aftikken. Iemand al een idee aan de hand van de informatie die beschikbaar is of een van deze GPU's van AMD een waardig (en goedkoper) alternatief is?
Als je de uitgelekte benchmarks neemt dan zat de 480 net boven de gtx 980.

op volgorde:
3DMark Fire Strike Ultra:
R9 390X: 2922 punten
GTX 980: 3000 punten
RX 480: 3429 punten
GTX 980Ti: 3800 punten
R9 Fury X: 3965 punten
GTX 1070: 4127 punten


(neem dit wel met een korreltje zout, verwacht morgen nieuwe benchmarks en vergeet niet dat dit synthetische benchmarks zijn)

200 euro voor de kracht van een gtx 980 met 4gb of 250 voor de 8gb versie.

[Reactie gewijzigd door Adel_F16 op 23 juli 2024 01:19]

De laatste zin op de endnotes sheet vind ik een beetje appart. "test results are not average and may vary"

Het 2e deel dat test resultaten kunnen varrieren kan ik in komen. In een andere test PC of met andere drivers kunnen scores gemakkelijk anders uitvallen.

Het eerste deel lijkt te insenueren dat deze test resutaten niet gemiddeld te noemen zijn maar rooskleurig beeld schetsen van de werkelijkheid.
Dat lijkt me toch wel een beetje logisch, al is markering per definitie eigenlijk een te rooskleurig beeld schetsen.

Is dus wellicht een kwestie van de test 100 keer doen, en de allerhoogste score publiceren.
Daarom snapt ik ook niet dat er zo juichend op deze WC-Eend benchmarks wordt gereageerd. Duidelijk is dat de nieuwe kaarten een hoop bang for your bucks gaan leveren (wat uiteraard reden mag zijn voor enig gejuich), maar ik krijg ook de indruk dat men - vooral het rode kamp - al wat voorbarig conclusies aan deze benchmarks uit eigen keuken aan het verbinden is, in plaats even van te wachten op officiële benchmarks van tech websites. Je zou van een Tweaker toch beter verwachten...
Laatste zinnetje is nogel misleidend voor een +3 post. 200 euro misschien voor een tweedehands 980 als je mazzel hebt - nieuw gewoon tegen de 400 euro.
Wat ik bedoelde was 200 euro voor de kracht van een gtx 980. Mijn fout om het niet goed duidelijk te maken
Je was heel duidelijk hoor :)
Ik denk dat ik ook even wacht tot er betere benchmarks zijn van de RX480. Stel dat ik het dan niks vind dan zullen van de GTX1070 ook meer reviews en benchmarks zijn.
Toch even de prijs en reviews afwachten.
Het ziet er misschien niet zo super uit, maar in deze benchmark is de 1070 "maar" 20% sneller dan de RX 480.
Als AMD er in slaagt deze kaart voor een mooie prijs neer te zetten ga ik echt het dubbele (?) geven voor 20% winst
Catfish maakt toch heel duidelijk gewoon een typfout. Moest echt niet zijn volgens mij. :Y)
Wel voor mensen zoals ik met een 560TI die naar een upgrade aan het loeren zijn. Ik zat al naar 2e hands 970's te kijken voor ca 230-250 euro, maar dit ziet er dan toch interessanter uit.
De RX 480 kost 200 euro standaard met 4GB en 249 met 8GB GDDR5, koop dus 2x een RX480 in crossfire en je bent een stuk sneller als een GTX1070 voor 100 euro minder.
en Nvidia ondersteunt ook nog steeds geen hardware matige asynchronous compute.

je kan net zo goed nu 1x een RX480 voor 200euro kopen en wachten op een nvidia kaart in 2017 met hardware matige asynchronous compute en HBM2 geheugen voor hetzelfde geld als een GTX1070.
Ik heb ook even op Reddit rondgevraagd en hier raadde ze het gebruik van CrossFire af omdat veel recente games daar helemaal niet voor geoptimaliseerd zijn. Heb je daar zelf ervaring mee?

En hoe werkt geheugen in CrossFire, stel dat ik 2x een RX480 met 4GB koop, heb ik dan niet nog steeds maar 4GB geheugen omdat het geheugen gespiegeld wordt over beide kaarten?

[Reactie gewijzigd door lepel op 23 juli 2024 01:19]

Moderne DX11 games ondersteunen inderdaad CF erg slecht, echter, DX12 heeft juist zeer goede, echt veel beter dan DX11, ondersteuning voor multigpu.

CF 480 is dus erg leuk voor in de toekomst, als devs ook echt die mulit-GPU dingen gaan ondersteunen, tot die tijd is het hit or miss.
Of de developers ook de extra moeite gaan nemen om dat goed te benutten is nog maar afwachten.
Tot op heden is de CF support verre van ideaal te noemen en daarom zou ik altijd 100 euro meer betalen voor een 1 kaart oplossing zelfs als die minder snel is.
Dat kan AMD vrij makkelijk afdwingen, gezien zij momenteel de enige zijn die goede hardware voor consoles kunnen leveren.

Als zij een apu + losse gpu erbij kunnen verkopen, oa. onder het mom "beter voor VR", dan zullen devs er wel voor moeten zorgen dat ze goede multigpu ondersteuning hebben.

Gelukkig is dat in dx12 al vrij goed geregeld, en zou je ook geen problemen met microstutter meer hebben.
''Dat kan AMD vrij makkelijk afdwingen, gezien zij momenteel de enige zijn die goede hardware voor consoles kunnen leveren. ''

Wat voor relevantie heeft dit? En wie zegt dat alleen AMD goede hardware kan maken bij consoles, als je de term ''kosten'' erbuiten houdt?
De relevantie is er omdat console-devs zo veel mogelijk power uit een console moeten persen. Zo heel veel purrie zit er immers niet in zo'n ding, dus er moet heel veel geoptimaliseerd worden.

Stel AMD propt in zowel de nieuwe PS als de nieuwe Xbox iets met dual graphics, dan "moeten" de de devs wel allebei de GPU's gaan gebruiken, anders gooi je rekenkracht weg, en dat moet je niet willen.

En zoals gezegd is zeker voor VR dual graphics heel interessant, de ene GPU doet het ene oog, de andere het andere ook.

Over console-hardware:
Je moet juist niet kosten eruit laten, immers, die zijn bij een console vreselijk belangrijk 8)7

Consolebouwers willen zo goed mogelijke performance, voor een zo laag mogelijke prijs, en een platform waarop het makkelijk ontwikkelen is.

ARM valt dan al af puur omdat het game-performance-wise niet interessant is.

PowerPC is leuk, maar is een hell om voor te ontwikkelen, immers, PC is x86, en misschien je concurrent ook wel. Het staat lullig als games niet voor je console uit komen omdat veel devs het simpelweg niet de moeite waard vinden, of dat de performance achterblijft omdat het te moeilijk is om te optimaliseren. Dat is het probleem van de PS3 geweest.

Door het bovenstaande valt Nvidia eigenlijk al af. Zij hebben immers geen x86 licentie, en gaan die ook nooit krijgen, dus moeten zij of Intel of AMD lief aankijken, of geen x86 gebruiken. Het is natuurlijk niet heel moeilijk om te bedenken dat zeker AMD nooit CPU's gaat leveren aan Nvidia. Hoewel, een grote zak geld doet wonderen, maarja, die kosten moeten ergens doorberekend worden.

Natuurlijk heb je nog de mythe dat van "Nvidia wilde meer winst", tja, dat zou ik ook zeggen als ik afgewezen wordt omdat mijn plan niet deugd :+ Nvidia kon en kan simpelweg niet leveren wat er gevraagd word door Sony en MS.

Uiteindelijk blijft het huidige APU systeem dan over.

Intel kan wel GPU's maken, maar heeft niks kant en klaar liggen wat geschikt is voor consoles qua prestaties. De normale HD's zijn te traag, de Iris Pro is erg duur.
Dus moeten ze iets nieuws ontwikkelen wat de boel behoorlijk duur maakt. Dus ja, als jij die kosten wilt betalen kan Intel vast wel iets maken, als ze zin hebben, maar dan heb je een console die je of met verlies verkoopt, of veel te duur maakt waardoor niemand hem koopt. Dat schiet niet op.

AMD heeft alles gewoon al op de plank liggen, vandaar dat het semi-custom heet wat zij aanbieden. Heel simpel gezegd plakken zij gewoon wat al bestaande onderdelen aan elkaar, en tadaa, je hebt het kloppende hart van een console. Voor een lage prijs, want er hoeft niks ontwikkeld te worden en AMD bakt ze op een goedkoop proces.

En dat is het knap slimme spel wat AMD speelt. Ja, in desktop-land hebben ze een klein marktaandeel, maar iedereen die een XBO of een PS4 heeft, heeft gewoon een AMD systeem in huis. Games worden dus ontwikkeld voor AMD systemen. En als AMD multi-GPU consoles weet te verkopen aan Sony en MS [en Nintendo misschien] dan moeten devs wel gebruik maken van multi-GPU. En de multi-gpu van DX12 is sowieso veel beter dan wat er in DX11 nog beschikbaar was.

Nogmaals, inderdaad, laat kosten buiten beschouwing en iedereen kan de hardware leveren, maar je kan niet eventjes de kosten buiten beschouwing laten. Het is een vitaal onderdeel van consoles. En daarom is AMD de enige die goede hardware kan leveren voor de consoles.
Met de nieuwe multigpu technieken is er dus geen microstutter meer ;)

Bij DX12 kunnen gewoon alle rekenkernen bij elkaar opgeteld worden, dus heb je niet zoals het nu gaat dat de GPU's om en om een frame maken, daardoor heb je microstuttering.
De overweging om CF te nemen, doe je door te kijken naar welke games je speelt en welke CF supporten. Alle games die ik speel hebben CF support dus ik ervaar geen problemen, maar als je de speller er op uit kiest zonder support dan ga je er niet veel van kunnen genieten.
Als je 2x 4GB koopt heb je 4GB net als bij SLI, dit heeft te maken met buffering tussen de twee kaarten.

en als een game DX12 is dan is CF vaak geen probleem.

[Reactie gewijzigd door stewie op 23 juli 2024 01:19]

Anoniem: 58485 @stewie15 juni 2016 03:26
4GB is nog steeds geen probleem, zie de Fury. Daarnaast biedt DX12 / Vulkan de mogelijkheid om het geheugen van 2 kaarten anders te adresseren zoals nu het geval met DX11 is. Het is nog toekomstmuziek maar de techniek kan het wel al.

Als je 2 kaartjes voor beide 200 per stuk kunt aanschaffen en qua performance op 1 high-end kaart nu zit van 700 euro dan is dat een ontzettende sweat deal. Ik weet het wel. Crossfire werkt naar mijn weten harstikke goed, vooral in Doom bijv.

Microstuttering is iets dat best meevalt, en alleen als je een hardcore gamer bent en van alle in & output van je PC afhankelijk bent het mischien een betere keuze is 1 single kaart te nemen.
SLI en Crossfire is altijd gezeik en de voordelen wegen imho niet op tegen de nadelen;
-Meer stroomverbruik.
-Meer herrie.
-PC kast voller.
-Best veel games die er niet mee werken of problemen krijgen, ook AAA titels.
+Beetje geld bespaard
+Ik ben stoer effect
Doe mij maar een enkele GTX1080
Het nadeel van dual SLI/CF is soms de hitte probleem. Als ik vroeger een GTX draaide in enkel opstelling, was het ultra stil. Tripple fan MSI versie. Steek er een 2de bij en die dingen begonnen veel meer lawaai te maken omdat de ene de hitte opnam van de andere ( omdat ze over elkaar staan ).

Wat ik me afvraag is waar blijft die techniek waarbij games in SLI/CF niet meer alle data moesten delen. Aka, 2 * 4GB werd rond de 7GB in echt gebruik, ipv nu alles van textures enz te verdubbelen over iedere kaart. Ben de naam vergeten...
Heb ergens gelezen (heb de bron zo even naar niet) dat in DX11 twee kaarten van elk 4Gb dat je gewoon 4GB houd, maar met DX12 heb je wel 8GB tot je beschikking.
Daar zit ik nu dus op te wachten,weet niet hoe dat gaat met twee kaarten van elk 8Gb,of je dan 16Gb tot je beschikking hebt. :?
In theorie worden je specs dan verdubbeld inderdaad. Enige zorgen is hoe de game developers hier mee omgaan. Nemen ze de tijd om multigpu te optimaliseren en voor de klant waar te maken? Dat zien we maar in de volgende aflevering van dx12, episode 2017 of 2018..
Ik zou het niet verwachten, hoeveel % van je playerbase zou hier baat bij hebben, en wegen de optimalisatie-/implementatiekosten op tegen de potentiële voordelen/voorkomen nadelen?
Anoniem: 420148 @stewie15 juni 2016 00:26
Beter raad je mensen niet SLI/CrossFire aan. 1 goede videokaart > 2 zwakkere (die op papier samen beter zouden moeten zijn) Stutter en andere bugs zijn nog steeds aan de orde in veel games, en een hele zooi ondersteunen het niet eens degelijk.
Het ging erom dat he goedkoper is als 1x 1070, en ook qua performance is de GTX1070 niet 50% sneller als een enkele RX480 eerder 10/20% (maar dan voor 300 euro meer)

[Reactie gewijzigd door stewie op 23 juli 2024 01:19]

RX480 heeft 7200 in Firestrike en de GTX 1070 zo'n 16000.

Dus ik weet niet waar jij 10/20% vandaan haalt.
Volgens mij vergelijk je een laptop GPU met een desktop GPU. Die 7200 staat in dit artikel bij de RX480M.
Wow in wel 1 hele benchmark suite uitslag :z
In games zal het verschil niet meer als 30% zijn, en daar betaal je dan 300 euro meer voor... (100 Euro per 10% extra?)

[Reactie gewijzigd door stewie op 23 juli 2024 01:19]

Wat blijkbaar heel veel mensen blijven vergeten is het feit dat de announcement prijzen altijd exclusief BTW is naar het Amerikaans systeem, daarnaast zijn er nog mogelijke importkosten voor Europa en de kleine winstmarge van de verkoper. Dus voor de RX480 8GB ga je wel 350€ mogen verwachten i.p.v. 250€.
Die winstmarge zit er al in (denk maar niet dat winkels in de VS geen winst maken op hardware verkopen) en importkosten heb je net zo goed in de VS, het verschil zal hem dus primair zitten in lokale belastingen (in ons geval BTW) en eventuele marktverstoringen waardoor importeurs meer winst kunnen pakken (maar dat varieert enorm per productsoort)
Maar dan zit je wel weer met een Crossfire opstelling wat bagger is als een game dat niet ondersteund.
Als je nog even geduld hebt zakken de prijzen echt nog wel. De custom GTX 1070 is nog niet eens leverbaar en de kaarten hebben nog geen- of pas net een enkele prijs indicatie. Dat is echt niet representatief voor de uiteindelijke verkoopprijs.
http://wccftech.com/amd-rx-480-faster-than-nano-980/

er komen dus ook AIB bordjes die overclocked zijn. die zullen wel tegen Fury X of hoger aanhikken.

Ik zou zeker nog een maandje wachten voordat ik een 1070 zou kopen.
Je bent minimaal 200 tot 250 euro goedkoper uit en krijgt aanzienlijk meer terug voor je geld. Echter ligt het helemaal aan jou eisen. Wat is jou "tippingpoint"? Is dat onder de 60frames op FHD of ben je (waarschijnlijk) op zoek gaming vanaf WQHD@60frames+ (of UHD@60frames).
Je weet dat je nu de hoofdprijs betaald en als Vega er is nVidia zeker met haar prijs gaat zakken.

Ik zelf ga voor een RX 480 omdat ik nog steeds op 1080p game. Over een dik jaar wanneer nieuwe kaarten komen hoop ik dat er eindelijk een WQHD VA scherm op 144Hz is. Dan stap ik over op de volgende generatie. De RX 480 wordt enorm scherp in de markt gezet en ik kan je nu al vertellen dat de resale waarde van de kaarten goed is. Dus je verliest er hooguit 100 euro op. Terwijl je bij een GTX 1070 op dit moment honderden euro's verliest als je deze verkoopt omdat de aanschafprijs (kunstmatig) hoog is.
1080p op 60fps is voor mij al meer dan genoeg. Ik game tegenwoordig meestal op beduidend lagere resoluties met 40-50 fps dus daarmee ben ik allang blij. De resale waarde is voor mij niet zo belangrijk, dus ik ben aan het kijken of ik met een RX480 genoeg heb, of dat ik een GTX1070 koop en daar gewoon een aantal jaar langer mee kan doen.
Nu een (op dit moment zwaar overpriced) kaart voor 1080p op 60fps kopen om in de toekomst mee te gaan vind ik niet de slimste keuze. Met een RX480 gaat dat zeker ook lukken en kun je over twee jaar (met de tweehonderd euro plus geld van de verkoop van je RX480) upgraden naar dan de beste kaart voor jou portemonnee. Niet dat GTX 1070 een slechte keus is; het is alleen duur voor jou wensen.

[Reactie gewijzigd door Maulwurfje op 23 juli 2024 01:19]

Anoniem: 776095 @lepel28 juni 2016 23:05
Ik denk erover een xfire rx 480 opstelling te nemen. Prestaties horen dan beter te kunnen zijn dan een goede gtx 1080 boor de prijs van een gtx 1070! Ik game niet zoveel, dus heb ik voor games aan een kaart genoeg, dus als er maar een kaart benut kan worden door het spel vind ik dat niet erg, en de tweede kaart is dan voor renderen.
Hoe kan het dat Tweakers geen 1070 or 1080 heeft gekregen en nu opeens als eerste met deze benchmarks komt?
Er wordt op buitenlandse sites zelfs naar tweakers.net gelinkt.
AMD en Nvidia zijn natuurlijk twee verschillende bedrijven :) de banden met AMD zijn wat strakker aangehaald de laatste tijd en dat vertaalde zich gisteravond naar deze info (die overigens naar meerdere titels gestuurd is, maar wellicht hebben anderen het minder goed doorgespit). Wat betreft Nvidia hadden we het gevoel dat het goed zat, tot we rondom de launch van Pascal communicatieproblemen kregen met als gevolg een late toevoer van testsamples. Ook daar zijn we natuurlijk ingedoken en dat zou de volgende keer beter moeten gaan.
Dit is mijn persoonlijke invulling, maar ik kijk er naar uit dat straks XFX weer een prachtige kaart gaat maken op basis van de RX 480. Nu is het met de huidige stand van techniek een goede keuze, al vind ik het jammer dat AMD niet gekozen heeft voor HBM
hbm is puur voor het hoge segment, omdat dit niet betaalbaar is.
besides AMD is the only one with HBM
Je vergeet de Tesla op basis van de gp100. Die is al een heel tijdje uit en heeft zelfs Hbm2.0

Dus geen hbm op de 1080 is een bewuste keuze gebleken. En het bleek ook niet nodig, de 1080 presteert ook prima met Gddr5x. Overclocken van het geheugen lijkt de performance nauwelijks te verhogen, een indicatie dat het geen bottleneck vormt bij de gp104. Dus voor mij zegt het gebrek aan hbm sowieso weinig, eender welke fabrikant.
Die Tesla is nog niet in productie, hij zou dit jaar ergens verscheept moeten worden. Als hij er is zal hij HBM2 hebben, maar dat gaat dus nog wel even duren. Toen ze em voor het eerst in januari lieten zien was ie al een jaar oud, en inmiddels zijn we iets verder en verwacht ik dat ze de eerste samples aan het testen zijn...

Nvidia heeft HBM niet actief gesteund, in tegenstelling tot AMD, en is dus ook pas later begonnen met integreren ervan. Ze kozen ervoor om geen HBM van welk type dan ook op de nieuwe kaarten te stoppen, vermoedelijk omdat het nog niet klaar is. Dat is denk ik ook de reden dat AMD deze mid-end kaarten zonder HBM uitbrengt, en de Vega-dingen (high-end) nog vertraagt.

[Reactie gewijzigd door FreezeXJ op 23 juli 2024 01:19]

Dat is maar een klein deel van het verhaal. De Q1 2017 (waar jij op lijkt te hinten) gaat over 3rd party OEMS die verschepen naar "reguliere" klanten. Nvidia verscheept de dgx1 (met gp100's) al even en de eerste draaien zelfs al even op universiteiten.

http://www.anandtech.com/...dia-announces-dgx1-server
"Anyhow, NVIDIA has already begun taking pre-orders of the systems over on their website. The first systems will be shipping in May to various research universities; what NVIDIA calls their pioneers."
06-04-2016

Als je wilt kun je hem nu zelf ook kopen, mits je 129K neerlegt en goed contact onderhoud met NVIDIA.

Stervelingen als wij kunnen hem inderdaad pas Q1 2017 krijgen, mits je genoeg geld hebt...

Wat betreft het supporten van HBM, dat klopt in de basis wel, maar AMD heeft niet het alleen recht op HBM2. De gelekte informatie zegt dat je voorrang krijgen, maar dat wil niet zeggen dat NVIDIA zonder zit. Wat ook te zien is.

[Reactie gewijzigd door Thekilldevilhil op 23 juli 2024 01:19]

Tja, ik weet niet wat AMD ondertussen verscheept naar speciale partners... Pre-orders zeggen mij weinig, net zo min als beloften wanneer iets begint met verschepen. Paper launches zijn helaas in de computerwereld niet ongewoon, en zeker bij HBM2 vrees ik dat we er meer van gaan zien. De productielijnen moeten nog stabiel worden, dus de yields zijn dramatisch (en de prijs dus hoog). GDDRX5 is een snel ingeschoven oplossing, die heel veel hergebruikt van GDDR5, en dus eigenlijk meteen goed werkt.
Dit is geen paper launch, dit is geen belofte. Ze draaien al op verschillende universiteiten en 3rd parties kunnen ze nu op het moment gewoon aanschaffen mits je goede banden hebt met NVIDIA.

Ze bestaan, ze draaien en zijn te vinden in het wild.
Klopt, ik ben het met je eens, maar de performance van de RX 480 is vermoedelijk bijna de performance van de R9 Fury X. Daarmee houdt het in dat de kaart vermoedelijk met HBM nog sneller zou zijn, en voor een meerprijs van zo'n 50 Euro zou ik dat graag er voor over hebben.
Gewoon nog ff wachten dan heb je vega met hbm2.
De enige kaarten die momenteel op de markt zijn met HBM zijn van AMD...
Klopt, dat maakt het alleen maar erger. Ze hebben te techniek in huis, en ze zouden van een hele goede midrangekaart een flagshipkiller kunnen maken.
maar hbm is nog niet klaar voor massaproductie op die schaal als ik het goed heb. daarnaast is het gebruik van hbm ook nog eens vele malen duurder waardoor de kaart ver boven de 200 dollar uit gaat komen
Ik denk dat productiecapaciteit wel het grootste issue zal zijn, want de kosten zullen niet zo hoog zijn dat de kaart zich uit de markt zal drijven. Als hij dan rond de 250 Euro zou blijven, is het echt wel een flagshipkiller
Gelukkig heeft AMD niet voor HBM gekozen. Dat zou de 480 veel te duur maken en zouden ze niet verkocht krijgen en dat kan AMD zich momenteel niet veroorloven. Die fout hebben ze trouwens met Fury al gemaakt.
Anoniem: 58485 @Johannes7715 juni 2016 03:33
HBM 1 kent limitaties, zoals maximaal 4GB per chip, of dat het beperkt in kloksnelheden (500MHz) is. HBM 2 daarintegen is de opvolger en kan tot 16GB per chip gaan, ook zullen de snelheden en beschikbare bandbreedte een stuk hoger liggen.

AMD is medeontwikkelaar geweest in HBM / HBM2 en heeft ook contracten dat het first pick in een nieuwe lading chips zal krijgen. Nvidia en anderen sluiten hier dus gewoon in de rij aan.

HBM is een goede zet, minder verbruik, veel meer bandbreedte, geen grote kaarten met 8x8 chips meer nodig en qua warmteafzet doet het een stuk minder dan 8x8 chips (Als je spreekt over de high-end kaarten).

Tel daarbij op dat AMD in de toekomst hun APU's of CPU's met HBM in zowel desktop als zakelijke markt combineren kan en je straks hele interessante producten zult gaan krijgen.
Anoniem: 776095 @Johannes7728 juni 2016 23:07
Ik wacht ook op betere versies van de rx 480 voor een xfire opstelling. Vind het niet erg als maar een kaart voor spellen benut kan worden. De tweede kaart wordt dan benut bij het renderen van filmpjes en zo.
Als ik het zo zie lijken de scores van de rx 470 net iets onder de gtx 970 te liggen wat denken jullie? Ben erg benieuwd naar de prijs!
Met 'slechts' een i7-4770k (Firestrike profiteert wel wat van een dikke CPU) tik je met een factory OC kaart ongeveer 10K aan met een GTX 970. Een R9 290 zit daar net onder, een R9 390 zal ook zoiets doen. De R7 470 die ze hier tonen zit daar dus ~10% onder met e en dikkere CPU, en hoewel afhankelijk van wat de board partners (Asus / MSI / etc) doen mag je er toch wel ongeveer vanuit gaan dat ze dat gat grotendeels zullen overbruggen. Dus dat is een redelijk uitgangspunt, of wellicht er niet veel onder :)

Edit: ik zie nu dat mijn Sapphire 270X (ook OC model) op 5791 zat in FS, hetzelfde als wat zij voor de 270X opgeven. Wellicht dat een achterstand van iets van 10% op een GTX 970 geen slecht uitgangspunt is. Nog altijd knap voor dat verbruik en dat vermoedelijke prijspunt (<200eur)

[Reactie gewijzigd door Foritain op 23 juli 2024 01:19]

10k met een 970?

Met een 5960X en stock 970 kom je met pijn aan moeite aan de 9.5k, althans dat is de score die Guru3D bijvoorbeeld heeft staan met die combinatie ;)

Ik zat volgens mij net over de 9k toen ik hem voor het laatst draaide. Zou graag even willen kijken maar de 3DMark site werkt momenteel niet echt :|

[Reactie gewijzigd door Werelds op 23 juli 2024 01:19]

productreview: Asus ROG STRIX-GTX1080-O8G-GAMING review door Foritain

icm een 4770k op 4.0GHz:

10.5K met een MSI GTX 970, 10K met een Asus GTX 970 Strix & Mini. 9360 met een Gigabyte R9 290.

Er zit nogal wat verschil tussen verschillende setups, handigste blijft dan ook GPU's op één platform te vergelijken :D
Dat is dus wat ik bedoel ;)

Met een beetje overklokken schiet die score flink omhoog in FireStrike. Een stock 970 doet zo rond de 9,5. Een custom 970 heeft constantere clocks door de betere koeling en dat zie je heel snel in de resultaten. In veel gevallen valt het qua daadwerkelijke OC best mee, MSI zit maar 30 MHz boven stock boost :|

Edit: http://www.3dmark.com/compare/fs/8809904/fs/8809831#

13,7% OC geeft 10,2% hoger resultaat, ofwel bijna exact 1000 punten ;)

[Reactie gewijzigd door Werelds op 23 juli 2024 01:19]

Anoniem: 159816 @Werelds15 juni 2016 08:55
Mijn GTX970 OC zit op 980 niveau in Firestrike en games. Ik ben dus vooral benieuwd hoeveel rek er in al deze nieuwe kaarten zit.
Mijn 290 gaat toch echt stock al ruim boven de 10k, met overclock zelfs boven de 11k :)

http://www.3dmark.com/fs/8192433
Wellicht dat de CPU OC daar nog een rol speelt, of iets anders. De GB R9 290 was op dat moment wel één van de snellere 290's, al hebben we het dan over een test van 2 jaar terug, optimalisatie zal ook nog wel een rol spelen. Regardless, verandert weinig aan de algemene positionering van de 470 lijkt mij.
Helemaal mee eens, veranderd ook verder niks. Had wel graag een forse upgrade mogelijkheid gehad van AMD though, wellicht een overbrugging bij het groene kamp tot Vega uit is.
Nu maar hopen dat er een leuke review van gaat komen O-)
Volgens mij staan de benchmarks van de RX 480 er niet bij, die van de RX 470 wel. Of mis ik iets?
Zover ik lees moet dit deze benchmark voorstellen:

"Verder zet AMD de RX 480 tegenover de R9 380 in de Steam VR Performance test. De nieuwe videokaart scoort hierin volgens de fabrikant 6.3, terwijl het oude model op 3.6 blijft steken. Het Windows 10-systeem waar de test op is uitgevoerd bestaat uit een Intel Core i7-5960X met 16GB ram."

helaas niet een echte benchmark zoals bij de 470 en 480m. Juist gezien de 480 imo de meest interessante kaart is erg jammer.
Klopt, dit is midrange tot lowend, al zou twee keer de RX 480 die samen 400 dollar kosten de 1080 verslaan. Nu zegt dat niet alles, maar er komt naast de Polaris, ook nog de Vega, die oorspronkelijk begin 2017 op de markt komen, maar nu schijnt die weer vervroegd op de markt te komen. Het belangrijkste, is dat er weer AMD weer een concurrerend bedrijf wordt, en op die manier zowel AMD als Nvidia op de GPUmarkt en AMD en Intel op de CPUmarkt hun best moeten doen om het allerbeste product te maken
Alleen niet alle spellen ondersteunen 2 videokaarten waardoor er meer problemen worden veroorzaakt dan met 1. Bij sommige spellen creëer je dus meer lag met 2 dan met 1 videokaart. En het is algemeen bekend dat de 1070 en 1080 overpriced zijn dus als een game 2 videokaarten ondersteund vind ik het ook niet gek dat het een 1080 verslaat.
Vandaar staat er ook in mijn reactie de opmerking
Nu zegt dat niet alles
Ik ben het met je eens dat 2 kaarten zeker niet 2 keer de performance levert, zelfs als het in het betreffende geval (spel en grafische kaarten) goed werkt, dan levert het niet meer dan 75 % extra in verhouding met een enkele kaart.
In veel games schaalt t anders boven de 100%...BF series bv...
Boven de 100% is ook weer net te enthousiast, ga er maar van uit dat als een game CF een beetje redelijk ondersteund 70% aan fps er bij komt met een 2de kaart.

Even zelf getest ;)

Grid 2 maxt out op 7680x1440.

Met 1 r9 295x2 2 Gpus
http://imgur.com/azTnZF9
Met 2x r9 295x2 4Gpus
http://imgur.com/fvtEiU4

Gewoon een scaling van +95% met 4Gpu's ;)
Mja, vervroegd naar oktober, dat gerucht ging eerst ook de ronde over Zen/Summit Ridge, en die lijkt nu juist weer tot januari uitgesteld. Ik geloof het als ik het zie :P
Ondanks 2x RX480 sneller is dan de 1080, zal dat niet altijd blijken aangezien er games zijn die niet meer dan één GPU ondersteunen waardoor je dus effectief 1x RX480 kan gebruiken. Desondanks is het zeer wenselijk dat de RX480 een grote groep aanspreekt zodat de AMD marktaandeel terug pakt en dat nVidia niet meer zomaar eventjes belachelijk hoge bedragen gaat blijven vragen.
Je kan er wel 2 gebruiken in crossfire, maar bij gpus is het niet zo dat 2x1 2 is, je kan namelijk niet van allebei 100% en je houd evenveel vram omdat ze allebei hetzelfde daarin moeten hebben staan.
Dus Vega is de opvolger van 390 en 390x.
Is daar al iets over bekend van de prijzen. Ik vind het soms heel erg lastig bij de nieuwe kaarten om ze te vergelijken met wat je gewend. HD7950 tov R9 280
vervolgens kwamen ze met de 3... en nu deze weer. dan ben ik spoor wel bijster.
Kwa prijs makkelijk.
Als jij had verwacht dat een 200 dollar kaartje een 700 dollar kaart kan verslaan dan heb je het helaas mis, 2 ervan in CF zouden ongeveer gelijk aan een 1080 moeten gaan presteren.
De Steam VR Performance Test staat in de slides. Verder zijn er in de notes geen benchmarks van de RX 480 te ontdekken, helaas :)
Jammer, ik was namelijk wel benieuwd naar de prestaties van de RX 480. Dan maar wachten op de reviews O-)
Een R390x krijgt al een 7.1 in SteamVR, dus dit beloofd niet zoveel goeds.
Je vergelijkt nu een kaart van 350,- met een kaart van +-200,-
Daarnaast, kijk eens naar het verbruik ;)
In de comment waar je op reageert, vergelijk ik niks. ;) Daarbij is de 390 al een stukje ouder en heb zelf een R290 die is al 3 jaar oud ondertussen en die krijgt ook een hogere score (6.9). Ik had stiekem gehoopt dat ik mijn R290 hiermee kon vervangen, maar helaas. :'(

[Reactie gewijzigd door GoT.Typhoon op 23 juli 2024 01:19]

Haha nee niet specifiek maar je doelt op de RX 480/M gok ik zo ;)

Als je een vervanger wilt voor je R9 290 moet je idd nog even wachten :P
En als vervanger voor een 280X op 1440p? ^^
Kan ik lang over praten maar als vervanger voor de 280x is het een zeer aantrekkelijke kaart, op alle fronten ga je er op vooruit. (Verbruik,Memory,Fps) :)

Als je jouw kaart verkoopt voor +- 130,- dan kost de nieuw nog maar een schijntje kwa prijs/prestatie ;)
Dat is wel een goeie! Maar ik twijfel nog tussen den RX480 of een GTX1070 of 1060.. Ff afwachten nog:)
Het is toch iets genuanceerder IMO. De GTX 970 kan je hier en daar al voor minder dan 300,- en ook de R9 390(X) is stevig in prijs aan het dalen. Daar staat tegenover dat de euro-prijs van de RX480 nog niet gekend is. Die $199 zou wel eens 250 euro kunnen worden als de kaart de eerste weken (maanden?) matig verkrijgbaar is. Dan is het verschil in prijs toch niet zo groot meer...
De GTX 970 heeft 3,5Gb ''Bruikbaar'' Ram en het is nog maar afwachten hoe hij het in DX12 zometeen gaat doen, verwacht er maar niet teveel vanDe GTX 970 heeft 3,5Gb ''Bruikbaar'' Ram en het is nog maar afwachten hoe hij het in DX12 zometeen gaat doen, verwacht er maar niet teveel van. [/small]

Deze launch word waarschijnlijk een hardlaunch met 177.000 Gpu's die klaar liggen om verkocht te worden de eerste dag dacht ik ergens op redit te lezen ;)

[Reactie gewijzigd door dylan111111 op 23 juli 2024 01:19]

Eens, ik vind de score van 6.3 ook aan de lage kant. Er wordt toch gesuggereerd dat je bijna GTX 980 performance, op zijn minst iig iets beter dan GTX970 krijgt voor dat geld maar dar zie ik niet terug komen in deze cijfers. Wat prijs betreft, een 4GB GTX 970 is nu al nieuw voor 269 te krijgen, zet daar 229 voor een 4GB 480 tegenover en zo groot is dat verschil niet meer waarbij de GTX970 voor 40 tientjes net iets sneller is.
Anoniem: 589442 14 juni 2016 21:44
Moooie scores. Dit word zeker weten mijn volgende kaart. En eindelijk concurentie voor nvidia. :Y)
AMD had in het lagere segment de afgelopen generatie iig al de betere kaarten. De GTX950 en GTX960 waren qua prijs/prestatie minder dan de AMD equivalent. Pas bij de hogere kaarten (GTX980+) was/is nVidia beter.
Ondanks dat ik hetzelfde ook blijf roepen denkt men vaak gewoonweg nvidia is beter dus koop ik een 960, terwijl een 380 of 380x en toekomstig de 480 gewoonweg betere performance voor het geld is.
Ik heb de 960 gekocht, loopt stil en koel, verbruikt minder stroom, drivers zijn up to date en bij iedere release van nieuwe games is er een updated driver. Da's voor mij meer dan genoeg reden om voor Nvidia te kiezen, een paar procent verschil in performance kan mij niet echt boeien.
Regelmatige driverupdates en nieuwe drivers bij grote game releases geniet ik ook enorm van sinds een half jaar geleden.

... met een AMD kaart.
Nvidia was ook beter omdat de GTX 960 maar 120w gebruikt en de GTX 970 145W, en de Radeon 380 190W en Radeon 380X 225W.

Qua performance is de Radeon 380 sneller dan de GTX 960 maar qua stroom gebruik is de GTX 960 gewoon veel beter, en de GTX 970 is weer sneller dan de Radeon 380X en ook weer een stuk zuiniger,

Het is maar wat je wil, een zuinige computer die toch snel genoeg is voor 1080p gamen, of geen zuinige game computer die ook alleen genoeg is voor een 1080P.

Ontopic: deze benchmarks zeg me helemaal niks, geloof het pas als review sites als Guru3D en Techpowerup en Tomshardware en Hexux en Techgage en zo reviews gemaakt hebben van deze kaarten.

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 01:19]

TDP is totaal iets anders dan daadwerkelijk verbruik. Ik zeg niet dat de AMD-kaarten zuiniger zijn dan de nVidia tegenhangers, maar doodleuk met een TDP waarde gaan gooien is natuurlijk onzin.
Kijk maar naar alle review sites de Radeon 380 en Radeon 380X gebruiken gewoon veel meer stroom dan de GTX 960 GTX 970.

Is algemeen bekent, en er zijn zat spellen die 100% stroom gebruikt van de kaart wat neer komt op ongeveer de TDP van wat ze krijgen.

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 01:19]

Anoniem: 88815 @AmigaWolf14 juni 2016 23:30
Als dat de reden is waarom Nvidia beter is dan sla je de plank best wel mis. De marges waar jij het over hebt komt neer op 8 uur per dag 100% load gamen en dat 500-600 dagen lang voor je 50 euro winst hebt.
Anoniem: 88815 @AmigaWolf14 juni 2016 23:52
Is gemaakt op een prijs van 0.23 cent, gemiddeld hebben wij in NL 0.22 cent maar een gangbare aanbieder zit hier al op -.16/17 cent

Daarbij gaat die berekening enkel op als je gpu ook echt vol 100% load staat, dus niet alt tabben, cutscenes, loading screens noem het allemaal maar op.

Wil je een realistische cijfer dan kom je al veel lager uit.

Maar ik reageerde enkel op het feit je voorkeur uitging naar Nvidia omdat ze "zoveel" zuiniger en daarom beter zijn. PR afdeling van Nvidia is sterk.

[Reactie gewijzigd door Anoniem: 88815 op 23 juli 2024 01:19]

Het gaat mij nu niet om welke merk, maar welk single GPU graphics card is de snelste, en dat zal Nvidia voorlopig zijn, ieder geval 6 maanden of meer.

Als AMD nu zijn RX 490 uit zou brengen einde van de maand had ik hoog waarschijnlijk die gekocht.

[Reactie gewijzigd door AmigaWolf op 23 juli 2024 01:19]

Anoniem: 88815 @AmigaWolf15 juni 2016 00:09
Dat is toch heel iets anders dan waar jij het net over had, ik volg het niet meer. Weltrusten.
Ik kijk zelf niet naar een zuinige GPU perse, maar wel een grafische kaart met een GPU, en dan is Nvidia de snelste.

En welterusten.
Dat zullen we nog wel zien..
Ja en die 980ti op vollast verbruikt meer als een fury, qua stroom scheelt t niet zo veel, en nu met die nieuwe kaarten wil ik wel zien of t laatste propaganda puntje ook weg gaat vallen (oh nee amd gebruikt 5 cent per jaar meer) ;)
https://www.youtube.com/watch?v=MLaSASWQ_o4

Fury X gebruikt minder watts tijdens normale gaming. dat het een hoger TDP heeft betekent niet dat ie meer gebruitk in regulier gebruik.

in iedergeval maakt AMD nu grote stappen in hun efficientie. werd wel tijd want zoals in de video was de 390X een power monster voor de performance die het levert.
Het duurt wel lang dan voordat je het prijsverschil eruit zou hebben. Het duurt best lang voordat je een kwh hebt. Duurt ~4u op full load van beide kaarten, als je in het lagere segment zit duurt het nog langer. Als je je kaart 3 jaar ofzo wilt gebruiken en je veel gamed heeft het misschien zin om een nvidia te kopen ipv een AMD om goedkoper uit te zijn. Ben zelf fan van nvidia omdat het naar mijn idee gewoon betere kaarten zijn. (heb van een aantal mensen gehoord dat ze nogal problemen hadden met AMD systemen)
Anoniem: 58485 @AmigaWolf15 juni 2016 03:29
TDP is maximaal verbruik. Als je naar reviews op techpowerup.com kijkt dan zie je daar een meting tussen typical gaming load & peak load, waarbij typical gaming een game is, en de peak load een dikke stresstest van Furmark betreft.

Hoevaak speel jij games dat je echt de peak load aan zult gaan spreken? Als de typical gaming load gunstiger is dan die van de tegenhanger dan zit je alleen maar goed.

FPS limiter van AMD is ook een handige feature, of je kunt per game gewoon je kaart terugklokken als die toch voldoende FPS presteert. Doe ik ook, 2x R7 270 terug naar 550MHz en dat werkt prima, nauwelijks warmte meer in m'n kast, lekker stil en nog steeds boven de 60 fps ermee.
Ben al zeer tevreden met een 7770 in mijn game pc, met een 2e voor 25 euro 2e hands.
Voor het geld wel veel waar vergeleken met mijn internet pc met Nvidia kaartjes.
Oh?

In DX12 is AMD natuurlijk sowieso al heer en meester.

De GTX980 is trager dan een Fury, en een Fury X is even snel als een stock 980ti: http://www.techpowerup.co...TX_1080_G1_Gaming/24.html

In het geval van de 980ti is het natuurlijk wel zo dat een overclocked 980ti wel sneller is, maar die is dan ook direct minder zuinig dan een Fury X.

Ook is de R9 390 inmiddels wat beter dan een GTX970 als je kijkt naar performance.

Concurrentie had Nvidia al meer dan genoeg ;)
Maar OpenGL draait weer beter op de GTX 980Ti, en als er meer spellen gaan uikomen met de zelfde OpenGL als DOOM zal dat het zelfde blijven, en ik verwacht meer grote spellen die met de nieuwe OpenGL gaan werken.
Anoniem: 88815 @AmigaWolf15 juni 2016 00:27
OpenGL/Vulkan? Ik denk niet dat een 980Ti er veel bijster meer uit kan gaan halen waar de oude 290 en alles daarboven nog wat kan winnen in performence.

Dat komt mede omdat een 980Ti niet overweg kan met Async omdat het gewoon niet aanwezig is. Alle AMD kaartjes hebben dat wel. Consoles doen Async en trekken hierdoor ruwweg 10-25% meer performance.

Als je kijkt hoeveel consoles en andere hardware AMD gebruikt dan is het alleen maar logisch dat we in de toekomst steeds meer games krijgen die gemaakt zijn voor AMD hardware.
We zullen wel zien wat de toekomst ons geeft.

Maar je ging toch slapen? :P
Beter is een rekbaar begrip, hogere FPS: ja. Betere frametimes? Nope, daar doet AMD het beter in.

En volgens Nvidia fans zijn frametimes belangrijker :Y)
Nee gewoon de gene die average frame rates hoger hebben is voor mij de gene die ik neem, en dat heeft Nvidia nu met de GTX 1070 en 1080.
Goh, dat is ook een compleet andere klasse :+

Overigens is, zolang de Cf ondersteuning goed is, 2x 480 zeker sneller, alleen zal die echt goede ondersteuning in DX12 nog wel een tijdje duren.
Is het niet zo dat als je fps over hebt (je kan een spel draaien op 90fps maar je scherm kan maar 60) en je gewoon vsync aanzet dat dat helemaal geen probleem is?
Simpele V-sync zorgt alleen voor een max fps, de frametimes kunnen dan nog steeds wisselen als je pech hebt. Ook zijn er games waarbij je inputlag enorm omhoog schiet.

Een framelimiter is dan vaak al wat interessanter om te gebruiken vanwege dat laatste, maar ook dan kun je natuurlijk nog frametime problemen krijgen.

Maar dit valt wel allemaal in het rijtje "hoe gevoelig ben je ervoor?". Zelf vind ik veel games boven de 45 al prima, inputlag merk ik echt helemaal niet, tearing zie ik nauwelijks en alleen in extreme gevallen, en ook falende frametimes merk ik niet echt, tenzij het echt drops onder de 30 zijn.

Maar als je van die dingen wel last hebt, dan is meer fps = beter niet perse kloppend. Consistente frametimes zijn dan erg belangrijk, en een scherm met G-Sync of Freesync kan dan ook erg interessant zijn.
Voor mij bleef NVidia interessanter bij de 950 en 960 door zaken als HDMI 2.0 en vooral HEVC 10 bit...nu vind ik de nieuwe kaarten fantastisch van AMD!
Ik heb zelf altijd AMD gehad, als laatste een R9 280X. Maar nu ik eindelijk een Nvidia kaart heb (GTX970) wil ik niet meer terug.

Ik had zoveel kleine problemen die makkelijk te negeren zijn bij AMD kaarten. Gekke dingen zoals dat bij Dota af en toe de muiscursor corrupt raakt. Of gekke flikkeringen in 2D modus (bekende bug bij de 280X, te fixen door de 2D memoryclock te overklokken). Of dat sommige games heel af en toe crashen. Ik dacht altijd dat hoort er gewoon bij.

Kortom, met mijn AMD kaarten ben ik altijd bezig geweest om met kleine tweaks, fixes etc.. alles echt lekker te laten werken.

Nu ik een Nvidia kaart heb heb ik ineens helemaal niet meer van dit soort problemen. Alle games werken zonder fixes. In 2D modus werkt alles perfect. Ik heb nog geen enkele keer iets aan de driver instellingen moeten veranderen of aan de config van een game. Heerlijk. Ja Nvidia kaarten zijn net wat duurder (in het lagere segment) maar ik vind die rust heel erg veel waard.

Daar komt ook nog bij dat mijn laatste twee AMD kaarten beide binnen 2 jaar kapot gingen :/. Nu weet ik nog niet hoelang deze Nvidia kaart mee gaat, maar ik ben hoopvol :).
Leuk verhaal en ook begrijpelijk, maar niet echt iets wat representatief is voor AMD of nVidia

ik heb zelf al jaren AMD en heb eigenlijk nergens last van, niks wat jij opnoemt komt mij bekend voor, wat me wel bekend voor komt is dat me laatste nVidia kaart er naar 2 jaar mee ophield, en ik hem 3x in de oven heb moeten stoppen om hem weer werkend te krijgen.

Dus ieder ze eigen ervaringen, ik kijk zelf altijd naar de beste prestaties voor mijn budget en staar me niet blind naar 1 merk
Het is waar dat dit maar een verhaal is van 1 gebruiker. Maar van elk van die problemen die ik noemde hebben duizenden mensen last. Voor bijvoorbeeld dat 2D flickering is er een firmware update geweest van enkele fabrikanten die de 2D clocks automatisch op die van de 3D clocks zet. (Helaas had mijn fabrikant die update niet). Dit maakt de kaart erg energie onzuinig en is slecht voor de levensduur, maar zorgt er wel voor dat het probleem opgelost is.

De AMD mouse cursor corruption bug bestaat inmiddels ook al eeuwen en is zelfs met die nieuwe fancy drivers niet opgelost (hoewel die wel veel andere dingen verhielpen).

nVidia kaarten in de oven zetten is toch zeker wel 10 jaar geleden? Ik wist niet dat die truuk nog steeds relevant was :).
me laatste kaart van Nvidia die dat had was een 9800 serie, en die komt uit 2008 dus iets minder als 10 jaar geleden, maar dat heeft net als bij jouw een zure nasmaak achter gelaten

en zoals ik zei, flickering met 2D clocks en mouse cursor corruption komt mij totaal niet bekend voor, en heb 3 verschillende AMD kaarten gehad in de tussen tijd

wat ik dus bedoel te zeggen is dat het eigenlijk stom is om je door zulk soort zaken te laten leiden bij de aanschaf van een videokaart, want AMD en nVidia hebben allebei problemen
net een R9 270 gekocht :'(
Hmm, was de prijs van die R9 270 dan zo goed, dat je niet kon wachten? Het is al een tijdje bekend dat er nieuwe videokaarten komen op korter termijn.
40 euro :X en is net wat beter als de 7770 die ik hiervoor had draaien.
Oww heb begin dit jaar een 260x voor 80 gekocht ofzo dus je hebt niks te klagen...

Geen slechte aankoop als je t mij vraagt.
Dank u die 260x is ook niet verkeerd.
Dus die kun je gewoon weer voor hetzelfde geld verkopen. Geen reden tot klagen dus.
Goed idee, zal eens kijken wat de benchmarks doen van de nieuwe generatie.
Als je hem wilt verkopen voor 40 dan heb je hier al een koper gevonden
Zal het in gedachten houden. :)
Dat is logisch, een 270 is dan ook een 7870 van die generatie. Fijne kaartjes, zeker voor dat geld!
Vond mijn 7770 al fijn dus die 270 zal wel lekker draaien in mijn game pc met I3.
Vergeleken met mijn internet pc die alles ongeveer op max draait vind ik dat de 7770 het prima doet.
€40 is echt ren fantastische prijs voor een 270 hoor, en voor dat geld zul je niet beter krijgen. :)
Mijn tweedehands 290x haalt een 7.5 in de steam benchmark en deze heeft niet ruim voldoende power voor vr. Ik zeg de rx480 is onvoldoende snel in z'n eentje.

[Reactie gewijzigd door SpiceWorm op 23 juli 2024 01:19]

Yeap, het ziet ernaar uit dat de RX480 toch niet zo snel wordt als de meeste gehoopt hadden. Helaas. Dan blijft mijn R290 toch nog even in mijn systeem. :)
Het meest jammere vind ik dat er geen 480X of 490 komt met wat nog wat meer CUs ;)
Dat was inderdaad erg mooi geweest, maar helaas. Blijkbaar heeft AMD voorlopig geen antwoord voor het high-end segment.
Nee, inderdaad. Blijkbaar zijn de yields van P10 niet goed genoeg een nog dikkere variant te produceren.. Betekent dat ik serieus overweeg twee 480s te fixen (eerst eentje), want waarschijnlijk is dat qua prijs - performance beter dan de Vegas die wss net zoveel kosten als de GTX1080.
Ik overweeg om gewoon te wachten op de Vega. Het heeft geen haast en 2x RX480 is leuk (wel 400 euro) en levert daarbij een hoop hoofdpijn op met crossfire (dit geld ook voor SLi trouwens) omdat het niet altijd wordt ondersteund. Uiteindelijk ben je dan meer bezig met troubleshooting dan daadwerkelijk gamen in mijn ervaring. Ik denk dat ik mijzelf een hoop hoofdpijn bespaar om gewoon lekker te wachten op de Vega, de R290 zit zijn tijd nog wel uit, ik heb zelf nog geen 4K scherm dus het heeft ook nog niet zoveel haast. :) Momenteel loopt alles nog soepel, op Star Citizen na, maar daar kijk ik wel naar als die game verder is optimized. Aangezien SC waarschijnlijk mijn meest gespeelde game wordt, heeft het voor mij dus sowieso ook nog niet zoveel zin.
Of een 490x die net ff 20-30% sneller is.
Wow 35 watt met die prestaties is best wel indrukwekkend. Ik hoop dat je nu wel fatsoenlijk kunt gamen op een laptop die niet 4 kilo weegt.
Dat denk ik wel, die 35W RX 480M is sneller dan mijn 100W GTX 680m 8)7 en zal dat lage verbruik vast een boel metaal aan koeling en ruimte schelen.

Als ze die RX 480M nou eens verdubbelen dan heb je gelijk een leuke high end laptop gpu met een relatief laag verbruik van 70W :9~.
Waarom ben je zeker dat hij sneller is dan je GTX 680M?
vrij simpel

http://gpuboss.com/gpus/Radeon-R9-280X-vs-GeForce-GTX-680

nou is dit niet de mobielle versie maartoch, ze liggen aardig dicht tegen elkaar

http://www.hwcompare.com/...tx-680-vs-radeon-r9-280x/

tel daar bij op dat de 480m sneller is dan de 280m

dus zou de 480m sneller zijn dan de 680m of net gelijk lopen
Dat mensen deze sites nog gebruiken terwijl er zoveel fatsoenlijk sites zijn waaromder TPU, Anandtech, Computerbase etc........... :'(

. De GTX680 is tegenwoordig geen competitie meer voor de 280x, de 280x is haast zo snel als een GTX780.

Tevens kan je de mobiele gpu's van Nvidia en AMD niet zo met elkaar vergelijken. De type nummers komen weinig overeen met hun desktop variant.

Dat de 480m sneller is dat geloof ik maar al te graag.
Omdat de score van die benchmark hoger is al zal die wel met een korreltje zout zijn gemaakt ;).

Op dit item kan niet meer gereageerd worden.