Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 209 reacties

XFX heeft afbeeldingen van de Radeon R9 390X op zijn site gezet. Tegelijkertijd is informatie over de kaart van Asus verschenen. De R9 390X lijkt in de CU-II OC-versie hogere kloksnelheden dan de vergelijkbare R9 290X-versie te krijgen en ook is er 8GB in plaats van 4GB gddr5.

XFX heeft de Radeon R9 390X op zijn productpagina van de R9 290X staan. Uit de afbeeldingen is op te maken dat de kaart met 8GB gddr5 gecombineerd wordt en dat XFX het product met Dirt Rally combineert. De 390X heeft in deze uitvoering twee ventilators en zeven heatpipes. Verder zijn er twee dvi-d-aansluitingen, hdmi en displayport.

XFX Radeon R9 390X XFX Radeon R9 390X XFX Radeon R9 390X XFX Radeon R9 390X

Asus Direct CUII R9 390X specs PCTuningDe Tsjechische site PCTuning claimt de specificaties van de Asus R9 390X in handen te hebben. Het gaat om de gegevens van de DirectCU-II OC-versie met een kloksnelheid van 1070MHz en een geheugensnelheid van, effectief, 6000MHz. Daarmee lijkt de nieuweling wat kloksnelheid betreft slechts een fractie sneller te lopen dan de huidige DirectCU-11 OC-versie van de R9 290X, die op 1050MHz loopt en een geheugenfrequentie van effectief 5400MHz heeft. Wel heeft de 390X dus 8GB gddr5.

Videocardz en PCTuning grijpen de beide berichten aan om te claimen dat het bij de Radeon R9 390X om een rebrand van de R9 290X gaat met meer geheugen en hogere kloksnelheden.

De nieuwe Radeon-lijn wordt op 16 juni aangekondigd. Dan moet ook de Radeon R9-kaart met Fiji-gpu en hbm-geheugen officieel voorgesteld worden, waarschijnlijk onder de naam Radeon R9 Fury.

Update, 10.40: De claim dat het mogelijk om een rebrand gaat nadrukkelijk in de tekst toegeschreven aan Videocardz en PCTuning.

Moderatie-faq Wijzig weergave

Reacties (209)

Ik heb het een beetje gehad met die rebrands die op een hogere kloksnelheid draaien. Zelf heb ik een R9 280X, een rebrand van een HD7970. Ik heb onzettend veel moeite om die kaart artefact vrij games te laten renderen, en ik ben zeker niet de enige online. De oplossing? De kaart op snelheden waar de 7970 voor gemaakt was draaien! Zo heb je natuurlijk niets aan die 'snellere' kaart.

Ook gebeuren er andere gekke dingen. Zo zijn sommige kaarten uit de R9 2XXX serie rebrands van nog veel oudere kaarten die al meerdere generaties mee gaan. Hierdoor hebben niet alle kaarten in deze serie dezelfde features, zoals support voor de nieuwe dynamische refresh rate opties.

Maar het is natuurlijk wel leuk voor de marketing afdeling...
Om het even in perspectief te zetten, dit zou dus de eerste generatie zijn sinds lange tijd dat AMD een bepaalde discrete (dus niet mobile) gpu meer dan 2x gaat gebruiken ALS de geruchten kloppen. Dit zou dus alleen voor de HD78xx en de HD79xx dus zijn, de andere kaarten zijn geen rebrands. In de reactie hierboven van The Mask geeft hij aan dat juist die kaarten misschien ook een refresh krijgen.
Zowel de 260, 285 en 290 waren nieuwe kaarten toen ze uitkwamen.

Nvidia rebrand er veel vaker op los, de 88xx is tot de GTS250 meegegaan. De 4xx serie is zover ik weet voledig gerebrand naar 5xx op het topmodel na. De 6xx serie is volledig gerebrand naar de 7xx serie op het topmodel na.

Het voelt misschien aan alsof AMD niks uitbrengt en dat daardoor iedereen denkt dat ze maar blijven rebranden. Over het algemeen rebranden ze behoorlijk weinig. In de HD4xxx, HD5xxx, HD6xxx is er niks gerebrand (op de HD57xx na).

Als ik ergens een foute claim heb gemaakt qua wat er wel of niet is gerebrand verbeter me maar :P. Ik heb de mobiele kaarten even buiten beschouwing gehouden omdat zowel AMD als Nvidia daar gigantisch veel rebranden....
idd, ik denk dat AMD het moeilijk aan het krijgen is, eerst op CPU-gebied, maar nu ook al een tijdje op GPU-gebied
de omzet is al een tijdje veel hoger bij nVidia dan bij AMD, en dat merk je, nvidia heeft veel meer geld voor R&D dan AMD, ze hebben meer omzet dan AMD's CPU en GPU-tak samenen dus kan veel vaker grote wijzigingen doorvoeren op verschillende prijsklassen,
AMD daarintegen heeft dit budget niet, en heeft dus enkel voldoende R&D voor hun sterkste kaart, de rest van hun serie moet het doen met rebrands en price-cuts

[Reactie gewijzigd door jeroen7s op 8 juni 2015 09:44]

AMD daarintegen heeft dit budget niet, en heeft dus enkel voldoende R&D voor hun sterkste kaart, de rest van hun serie moet het doen met rebrands en price-cuts
Maar je tragere kaarten zijn toch gewoon kreupele versies van je snellere kaarten (lagere clockrate, verwijderde features, minder geheugen) ?
Maar je tragere kaarten zijn toch gewoon kreupele versies van je snellere kaarten (lagere clockrate, verwijderde features, minder geheugen) ?
Nee, daarvoor is de markt te groot geworden.
Je kunt 2 a 3 modellen lanceren op dezelfde chip, op deze manier.
Maar voor de goedkopere modellen wil je ook echt een kleinere chip, die goedkoper is om te produceren, en misschien met een smallere geheugeninterface om ook het geheugen goedkoper te maken etc.
In totaal heb je tegenwoordig meestal 3 of zelfs meer chips nodig om de hele markt te bedienen.
nVidia heeft momenteel drie Maxwell-varianten, de GM200, GM204 en GM206.
En daarmee hebben ze nog niet echt de budget-markt te pakken, want de GTX960 is de 'kleinste'. Er zullen dus nog meer chips komen.

Ik vermoed dat het gebruik van HBM voor AMD een probleem is op dit moment. Die technologie is waarschijnlijk nog te duur om op grote schaal toe te passen op midrange/budget GPUs.
Ik vermoed dat het gebruik van HBM voor AMD een probleem is op dit moment. Die technologie is waarschijnlijk nog te duur om op grote schaal toe te passen op midrange/budget GPUs.
Bron?
'Ik vermoed', en jij vraagt een bron? Goed bezig!
Nee, ik speculeer waarom AMD er voor zou kiezen om een groot deel van de 300-serie te rebranden ipv meer GPUs met de nieuwe Fury-architectuur en HBM uit te brengen.
Ik zeg niet dat er een probleem is met HBM op zich, alleen dat het waarschijnlijk nog te duur is voor de lagere modellen.
Dat zie je vrijwel altijd met nieuwe technologie (neem bv Crystal Well/Iris Pro van Intel).
HBM is dan ook cutting-edge tech te noemen, in de zin dat het de manier verandert waarop geheugen wordt gebruikt op deze kaart. Het kan zo zijn dat midrange kaarten wel HBM gaan ondersteunen, bij de 200-serie zag je ook hoe bepaalde midrange AMD GPU's Trueaudio ondersteunen doordat er een GCN update werd gebruikt.

Als deze kaart overigens een rebrand wordt, zouden hem dan voor een premium price aan de man brengen? Het zal dan immers dezelfde kaart zijn die al 2 keer eerder is gebruikt.
HBM is een compleet nieuwe techniek, dat kun je natuurlijk niet zomaar "even ondersteunen", net als dat kaarten die DDR3 hebben ook niet op magische wijze GDDR5 krijgen.
bij de 200-serie zag je ook hoe bepaalde midrange AMD GPU's Trueaudio ondersteunen doordat er een GCN update werd gebruikt.
Dit was alleen de R7260x, de rede daarvoor is heel simpel, AMD gebruikt meerdere GCN versies door elkaar in de 200 series en vanaf 1.1 ondersteunen ze Trueaudio:

HD7790/R260x/R9290/290x = GCN 1.1
DX12.0 FL, FreeSync, TrueAudio.

R9285 = GCN 1.2
Bandbreedte compressie + 1.1 features

De rest is allemaal GCN1.0*
DX11.1 FL.

*R5230 is zelfs VLIW :X
Daarom juist. Het is best een innovatie te noemen bij AMD. Nvidia zou dat ook gaan doen met diens Volta GPU (Of nou ja, stacked memory gebruiken), maar die is op de lange baan geschoven ten faveuren van Pascal (Welke nog niet dergelijke dingen heeft) Echt zoiets waar de praktijk moet uitwijzen of het een enorme prestatie boost oplevert in games.

Waren er niet meer midrange kaarten met Trueaudio? Ik meen mij toch minstens 2 kaarten te herrinerren.. :?
Ik denk dat AMD ook het een en ander gaat aangepast hebben aan de 390X. Ze kunnen zich het gewoon niet veroorloven om enkel de kloksnelheden van de gpu en het geheugen op te voeren zonder iets ad architectuur te doen. De 290X verbruikte al zo veel en nu zou de 390X nog meer verbruiken door de hogere kloksnelheden. Dat kan AMD gewoon niet maken, dat zou hun ondergang zijn.

Dat de Fury geen 390X is zal idd waarschijnlijk te maken met de hogere marktpositionering omdat het HBM nog te duur is om te produceren.
Bij nVidia is dit inderdaad het geval, ik snap eigenlijk niet waarom AMD niet hetzelfde doet.

Ik snap ook niet waarom ze de r9 290x niet omgedoopt hebben tot de 380x, zodat de fury als 390x uitgegeven kon worden.
Waarom stuur je de kaart dan niet terug en vraag je een andere kaart? Desnoods zelfs een ander type kaart? Zonde om met een defecte kaart te zitten.
Ik dacht eerst dat het aan iets anders in mijn PC lag. Duurde nogal lang voordat ik dat kon oplossen. Daarna was ik er eigenlijk al aan gewend en het is ontzettend lastig om hard te maken dat je kaart kapot is als je niet gewoon kan zeggen 'dit doet ie niet'. De artefacten verschijnen op willekeurige momenten. Soms werkt alles dagen goed, en soms zie je de eerste na 15 minuten. Ook zou ik dan drie weken zonder kaart zitten voor iets wat meestal opgelost is na een reboot of na een tijdje weer vanzelf weg gaat.
Ik dacht eerst dat het aan iets anders in mijn PC lag. Duurde nogal lang voordat ik dat kon oplossen. Daarna was ik er eigenlijk al aan gewend en het is ontzettend lastig om hard te maken dat je kaart kapot is als je niet gewoon kan zeggen 'dit doet ie niet'. De artefacten verschijnen op willekeurige momenten. Soms werkt alles dagen goed, en soms zie je de eerste na 15 minuten. Ook zou ik dan drie weken zonder kaart zitten voor iets wat meestal opgelost is na een reboot of na een tijdje weer vanzelf weg gaat.
Dit komt vaker voor bij factory overclocked modellen, geen idee of jij eentje hebt?
Je ziet dit op het V&B forum bij zowel AMD als Nvidia kaarten gebeuren als ze al een standaard overclock hebben, vaak helpt het als je het voltage iets verhoogt of de core snelheid wat lager zet. Geen nette oplossing maar bespaart een RMA als je daar geen zin in hebt.
Bij sommige modellen zijn de VRM's ook niet goed gekoelt.
Ik heb dit exact probleem dus met de 7970 ASUS CUII

Standaard snelheden = crash / grey stripes
Ga je er 50 á 100 Mhz onder zitten en alles werkt perfect.
Klopt, dit probleem had ik ook met mijn MSi 670 oc kaart. Deze stond geklokt op 1200 Mhz. Zodra ik Battlefield 4 ging spelen crashde iedere keer mijn driver. Dit gebeurde alleen bij dit spel. Toen ik de factory OC 50 Mhz omlaag zette, werkte hij prima!

[Reactie gewijzigd door Merkane op 8 juni 2015 22:16]

ik heb een XFX 7970 black,

iedere keer als ik reviews lees over een R9 280 moet ik altijd maar denken.
Heb een goede kaart op een goed moment gekocht,... want ze hebben nog steeds niet echt een "nieuwe" kaart uitgebracht in al die tussentijd

beetje jamme dat dit dus een trend is die word vastgehouden
Klopt, ik heb een HD7770 in mijn PC zitten, nu mag dat misschien geen rebrand zijn maar AMD pusht de kaarten veel te ver, dat ding is niet stabiel bij 1GHz, constante frame drops enz.
De clock teruggedraaid naar 740MHz en hij loopt soepel en behaalt op sommige spellen 'magischer wijze' zélfs hogere prestaties.
Het lijkt erop dat AMD het tij niet kan keren en ze nu nog meer marktaandeel gaan verliezen. AMD komt dit jaar dus met maar 1(!) nieuwe kaart, en die kaart is dus nu alles of niet voor ze.

Als die kaart de GTX980 niet verslaat, of de prijs te hoog is, dan kan AMD inpakken en is de concurrentiestrijd met NVIDIA echt voorbij.
Met NVIDIA aan de top en zonder concurrentie zal uiteindelijk de gamer treffen.

[Reactie gewijzigd door Deem op 8 juni 2015 10:10]

Moah, dat valt op zich ook wel mee. AMD kan al jaren Intel niet meer bijhouden en toch blijft de performance stabiel toenemen met 5 tot 10% (afhankelijk van applicatie) per generatie.

Maar dat er flink in het R&D budget van AMD is gesneden wordt nu wel heel erg pijnlijk.
Het is niet alleen de GPU tak, er is ook al heel erg lang stagnatie op CPU gebied. De APU's deden het voornamelijk goed vanwege de ingebouwde GPU waardoor ze zeer interessant waren voor budget systemen. Maar als je de Intel IPG als de afgelopen jaren naast elkaar zet, zag je de Iris zeer snel dichterbij komen bij de grafische performance van de AMD APU's. En de IPG 6200 van de Broadwell gaat zowel op CPU als GPU vlak de AMD APU's links en rechts voorbij.

En over enkele maanden komen de eerste Skylakes met dezelfde IPG 6200 GPU on board.
De R290(X) had ook al wat probleempjes zoals het vermogen en flinke warmte ontwikkeling. Ook als de stock koeling niet optimaal.

Aangezien de Hawaii XT 'refresh' de R390X en R390 serie gaan vormen, is er eigenlijk ook geen ruimte voor een kaart daarboven. Maar ik ben zeer benieuwd naar de performance van de Fiji GPU in de Fury (X) lijn. HBM was ooit ontwikkelt als alternatief voor DDR4, dus daarmee kunnen ze wel een performance boost krijgen. Ik wel geval op de Texture Fill Rate..

En ja, de Fury X moet echt gelijkwaardig of beter zijn dan de GTX980Ti. Maar aangezien zelfs de R295X2 (dubbele GPU) moeite heeft om de 980Ti bij te houden, zijn mijn verwachtingen van de Fury serie een beetje gezakt..
Maar dat er flink in het R&D budget van AMD is gesneden wordt nu wel heel erg pijnlijk.
Het is niet alleen de GPU tak, er is ook al heel erg lang stagnatie op CPU gebied. De APU's deden het voornamelijk goed vanwege de ingebouwde GPU waardoor ze zeer interessant waren voor budget systemen. Maar als je de Intel IPG als de afgelopen jaren naast elkaar zet, zag je de Iris zeer snel dichterbij komen bij de grafische performance van de AMD APU's. En de IPG 6200 van de Broadwell gaat zowel op CPU als GPU vlak de AMD APU's links en rechts voorbij.

En over enkele maanden komen de eerste Skylakes met dezelfde IPG 6200 GPU on board.
De R290(X) had ook al wat probleempjes zoals het vermogen en flinke warmte ontwikkeling. Ook als de stock koeling niet optimaal.
De IGP van Intel en met name het topmodel is een heel ander verhaal. Hij presteert inderdaad beter dan de AMD chips maar dat is het enige echt positieve wat je erover kan zeggen. Om die betere performance te krijgen zitten ze op een kleiner productie process dan AMD (welke nog op 28nm zit), is de die-size een heel stuk groter dan de IGP's van AMD. Een van de redenen dat hij zo groot is is omdat hij een stukje eDRAM heeft van 128mb speciaal voor de IGP. Met IGP's is de bottleneck juist de geheugenbandbreedte, daar lopen de IGP's van AMD tegenaan.
Laatste argument, doordat de IGP van Intel zoveel die-space inneemt vind je hem alleen terug in de topmodelen die 2x zoveel kosten als de snelste APU.
Aangezien de Hawaii XT 'refresh' de R390X en R390 serie gaan vormen, is er eigenlijk ook geen ruimte voor een kaart daarboven. Maar ik ben zeer benieuwd naar de performance van de Fiji GPU in de Fury (X) lijn. HBM was ooit ontwikkelt als alternatief voor DDR4, dus daarmee kunnen ze wel een performance boost krijgen. Ik wel geval op de Texture Fill Rate..
Ben wel benieuwd naar de bron dat HBM is ontwikkelt als alternatief voor DDR4 (niet omdat het onzin zou zijn maar omdat het interessant is :p). De grote reden dat er voor HBM is gekozen voor het topmodel is de grotere geheugenbandbreedte en bijkomende stroombesparing.
Om het in het kort uit te leggen. Als een gpu communiceert met het geheugen dan gaat dat via een geheugen bus. Highend kaarten hebben over het algemeen en een grote geheugen bus 256bit-512bits en een hoge geheugen clock snelheid om er voor te zorgen dat de gpu niet tegen een geheugen bandbreedte bottleneck aanloopt. In het geval van GDDR5 en vorige varianten van geheugen zat het geheugen op het PCB (het "moederbord" van je videokaart), maar om te communiceren met de gpu moesten er een heleboel "lijntjes" lopen vanaf het geheugen naar de gpu. Bij highend kaarten met een grote geheugen bus kan dit behoorlijk complex worden.
HBM lost dit op door het geheugen op de die van de gpu te plaatsen (via een interposer), dit zorgt ervoor dat het PCB minder complex wordt en goedkoper, je hebt daardoor ook iets minder latency en bespaard stroom. HBM draait op een veel lagere clocksnelheid dan GDDR5 wat ook weer een energie bespaard.
Het volgende artikel legt dit veel beter uit dan ik dat kan:
http://www.anandtech.com/show/9266/amd-hbm-deep-dive

Voor zover ik weet staat je geheugenbandbreedte voor een groot deel los van je texture fill rate. Texture Fill Rate wordt vooral bepaald door het aantal TMU's en de clocksnelheid van je core.

De verwachtingen zijn dat Fury vergelijkbaar zal zijn met de GTX 980Ti.
Wat je zegt klopt, Intel kan al jaren 5 tot 10% performance verbeteringen jaar op jaar realiseren. Ik merk ook dat de prijzen van high end Intel processoren al jaren stijgen, omdat intel hier geen concurentie heeft. Weet je nog de absolute high end in 2008? Toen kon je een C2Q 9550 voor 250 euro kopen, terwijl je nu minstens 350 euro neer legt voor een current gen i7.

Het punt is, Intel heeft alleen nog mooie prijzen voor zijn budget processoren omdat AMD hier kan concureren. Waar AMD geen inbreng heeft in de markt kan Intel hele hoge marges hanteren en hier is de consument de dupe van.
Weet je nog de absolute high end in 2008? Toen kon je een C2Q 9550 voor 250 euro kopen, terwijl je nu minstens 350 euro neer legt voor een current gen i7.
De absolute high-end was toen geen 9550, maar een Core 2 Extreme QX9775. Die was 'iets' duurder dan een 9550 :)
Volgens mij was socket 1366 destijds de bom. Heel duur natuurlijk. En kwam pas in november. Maar het punt van DtenBrink is wel duidelijk.
Vind ik niet.
Een C2Q was toen evenmin high-end als een 4c/8t Core i7 dat vandaag is.
Er is qua prijsstelling niet zo veel veranderd.

Ik snap het punt van DtenBrink dus eigenlijk niet.

[Reactie gewijzigd door Scalibq op 8 juni 2015 18:53]

Je doet net of wat er nu is of net aankomt final is voor voor eeuwig.
Dieshink nieuwe kansen. NV heeft het deze ronde goed gedaan.
Is helaas voor hun fans geen garantie voor de toekomst.
Maar met hun middelen toch wel wat grotere kans op sucses.
Als je naar het financieel plaatje kijkt, dan kan AMD zich op dit moment geen geflopte high end kaart permitteren. AMD maakt al een tijdje verlies en dr vraag is hoe lang ze dat zo nog vol kunnen houden.
De R9 390X van Asus lijkt een rebrand van de Radeon R9 290X te worden, maar dan met hogere kloksnelheden en 8GB gddr5.
Ik vindt dit een zeer boude stelling naar aanleiding van de beschikbare gegevens.

Er wordt in geen van de beschikbare verhalen ook maar gerept over het aantal streamprocessors, texture units, ROPs. Waar komt dan de conclusie vandaan dat het om een rebrand zou gaan?

Wie weet heeft de 390X twee keer zoveel streamprocessors en drie keer zoveel texture units. Geen van de bronnen zegt hier iets over.
Ik wilde net zeggen, mensen moeten rustig die paar dagen afwachten voordat men conclusies trekt. Een week geleden werd ook door een of andere website geroepen dat ze een R9 390X in het wild hadden gezien, maar dit bleek puur een nieuwe hybrid cooled R9 290X (deels aircooled met een 120mm AIO op de GPU).

Hetgeen wat mij nog het meest zal benieuwen is de naamgeving van de kaarten. Als de top kaarten de naam Fury met zich mee gaan dragen, is het daarnaast dan gebruiken van een R9 390X naam niet verwarrend? Aangezien men nu een R9 x90X associeert met "de beste single GPU uit die reeks".
klopt. ik vermoed nog steeds een r9 390(x) tegen over de gtx-980(TI) en de fury tegen de titan-x. en dan zal de fury lijn gezien worden als best kaart met de slechte fps voor je geld. en de r9 x90x als mest betalbare nog krachtige gpu zoals nvidia altijd de x80-ti heeft.
Dat zou best kunnen inderdaad. Kijk je naar de huidige R9 290X op 4K, dan zit deze soms al vrij dicht tegen een GTX980 aan. Al zou de R9 390X een soort rebranded, iets opgeleukte variant op de 290X worden, dan zou deze zich best moeten kunnen meten met een GTX980.

Nu is de GTX980 mijn inziens, op dit moment, een niet bepaald interessante kaart (voor de consument). Een GTX970 of R9 290X presteert marginaal minder, maar kosten beiden tweederde van de prijs. Daarnaast heb je de GTX980Ti die wel flink wat duurder is, maar heel veel beter presteert. Mij boeit het over het algemeen vrij weinig wie nu de absoluut snelste kaart heeft, hoofdzakelijk omdat de prijs daar ook naar is (zie de Titan X). Al presteert de snelste nieuwe AMD kaart een paar procent onder dat van de Titan X of GTX980Ti, al zij hun kaart voor 600 euro over de toonbank laten gaan is dat voor ons als consument interessanter.
Verschil is nog altijd ~11% ongeveer, word bijzonder lastig de voor de 390x zich echt te kunnen meten met een 980.

http://tpucdn.com/reviews...0/images/perfrel_3840.gif

Al hoop ik dat Grenada een update krijgt naar GCN1.2, dan moet concurreren met de 980 weer wel mogelijk zijn ;)

[Reactie gewijzigd door !mark op 8 juni 2015 12:47]

Met een modernere driver is het verschil op 4K al terug gelopen naar 8% gemiddeld volgens TechPowerUp.
http://tpucdn.com/reviews...C/images/perfrel_3840.gif
http://www.techpowerup.co...gabyte/GTX_960_OC/27.html
De meesten die zo'n kaart kopen spelen op 1080p of 1440p. Zelfs onder de mensen die zo'n GPU kopen speelt slechts een klein percentage op 4K. 4K resultaten is dus ook niet iets waar je hoofdzakelijk naar moet kijken.

De AMD market share crash op de discrete GPU-markt heeft er dan ook mee te maken dat ze qua performance en qua performance per watt op 1080p echt niet mee kunnen komen. En laat 1080p nou net dé resolutie zijn waar zowat iedereen op gamed (behalve dan diegenen die op een nóg lagere resolutie gamen, dat zijn er ook een hele hoop).
Dat AMD op 4K nog een klein beetje mee kan komen is natuurlijk leuk voor die paar enthousiastelingen die op die resolutie gamen, maar van die paar lui wordt je als bedrijf niet rijk.

[Reactie gewijzigd door dusty-2011 op 8 juni 2015 14:43]

Volgens mij ondersteunt de 390x geen DirectX 12_1, alleen maar 12_0: nieuws: AMD-videokaarten ondersteunen niet alle features DirectX 12 - update

Alleen al om die reden zou ik persoonlijk wachten op de volgende generatie.

Edit: In het tweakers artikel van 3 dagen geleden stond nog "Het nieuwe topmodel, de R9 390X, krijgt naar verwachting wel een nieuw ontwikkelde chip". Beetje vreemd dat in dit artikel dan gesproken wordt over een rebrand.

[Reactie gewijzigd door maniak op 8 juni 2015 09:35]

Dat gaat over de huidige kaarten en niet de nieuwe 300 serie
Er staat:

"Binnenkort komt AMD met nieuwe kaarten, maar volgens geruchten bestaat een groot deel van die lineup uit rebrands van huidige modellen. Daarom lijkt het aannemelijk dat een groot deel van de 300-serie het hoogste feature level ook niet zal ondersteunen. Het nieuwe topmodel, de R9 390X, krijgt naar verwachting wel een nieuw ontwikkelde chip. "

Het gaat dus niet helemaal alleen maar over de huidige lineup.
Nee oke, maar wel dat de 390x een nieuwe chip heeft en dus wel ondersteund
Neen de 390x is een rebrand van de 290x (oude chip dus met meer geheugen en paar mhz oc).
De 390(X) Fury zal de Fiji chip met HBM zijn en is dus een ander product.
.
Volgens de geruchten dan...
Het is geen 100% rebrand, eerder een refresh:
AMD verplaatst productie van TSMC naar Global Foundries, die een beter productieprocess hebben dat winst moet opleveren voor krachtsefficiëntie (geruchten gaan voor 20%, maar waarschijnlijk zal het niet zoveel zijn).

Ze blijven wel op 28nm, net zoals bij TSMC.

[Reactie gewijzigd door graverobber2 op 8 juni 2015 14:46]

Daarom vind ik het ook zo vreemd dat in dit artikel wordt gesproken dat de 390x een rebrand lijkt te zijn maar in het artikel van 3 dagen geleden een nieuwe chip.
Het is allemaal gebaseerd op geruchten.
Die geruchten kunnen bronnen hebben toen de product namen nog niet final waren en dus 390x en de fury door mekaar halen.

Nu weten we dat er 390x en Fury komt.
Met voor die laaste performance geruchten.
Nvidea doet niet anders. die renamed ook vaak alle low en midend en alleen de highend kaart is een nieuwe
Bron? Dat artikel gaat alleen maar over kaarten tot de 2xx serie, en in dit artikel staat niks over DirectX.
Alle nvidia kaarten ondersteunen ook niet alle nieuwe features voor dx12. ;)

Dus...het wachten is op een nieuwe generatie na deze aankomende generatie en er is al gezegd dat die eind dit jaar zal komen.
nVidia ondersteunt wel alle grafische features, alleen zitten er wat limieten aan de resource binding.
In theorie kun je met de AMD-hardware wat meer textures/buffers tegelijk gebruiken. Maar ik denk dat het in de praktijk wel meevalt, omdat de limieten van nVidia ook vrij ruim zijn.

Het is sowieso beter dan wat je in DX11 kon doen, en dat leverde in de praktijk geen problemen op.

[Reactie gewijzigd door Scalibq op 9 juni 2015 10:07]

maakt niks uit, want Nvidia ondersteunt geen DirectX 12_0;
Dit is gewoon een manier van implementatie.

Spellen met DX12_1 kunnen nog steeds op AMD kaarten draaien, en spellen met DX12_0 kunnen nog steeds op Nvidia kaarten draaien, alleen zullen ze efficienter overweg kunnen met hun respectievelijke implementatie.
Precies... ter verduidelijking:
DX12_0 en DX12_1 zijn feature-sets binnen de DX12-API.
Je kunt dus in je game bepalen welke feature-set de hardware ondersteunt, en aan de hand daarvan een specifiek pad kiezen voor je renderer dat compatible is met de hardware.
De game zal dan iets anders renderen, en dus krijg je mogelijk verschillen qua beeldkwaliteit en/of performance, maar games zullen gewoon alle gangbare hardware ondersteunen, zoals altijd (dat is natuurlijk wel de verantwoordelijkheid van de ontwikkelaar, het gaat niet 'automatisch').

[Reactie gewijzigd door Scalibq op 8 juni 2015 14:58]

juist. Eb er zullen games komen die voor AMD geoptimaliseerd zijn en games die voor NVIDIA geoptimaliseerd zijn. Het maakt dus eigenlijk niet zoveel uit. ;)
De GTX 960, 970, 980, 980ti en Titan-X ondersteunen DirectX 11_0, DirectX 11_1, Direct X 12_0 en Direct X 12_1.

Ik weet niet waar je het idee hebt gekregen dat recente Nvidia-kaarten geen 12_0 ondersteunen, maar dat is onzin.
heb je daar een bron voor?
het enige wat ik kan vinden hierover is in het artikel dat ik hierboven gepost heb:
Feature level 11.0: NVIDIA Fermi, Kepler, Maxwell 1.0
Feature level 11.1: AMD GCN 1.0, INTEL Haswell and Broadwell
Feature level 12.0: AMD GCN 1.1 and GCN 1.2
Feature level 12.1: NVIDIA Maxwell 2.0

Ik heb van de Nvidia blog dat alle huidige DX11 kaarten ook DX12 ondersteunen, maar daar is geen niks gezegd over de specifieke feature levels.

[Reactie gewijzigd door graverobber2 op 8 juni 2015 14:42]

Die tabel die je hier neerzet die klopt, maar je interpretatie ervan is helemaal verkeerd. In de tabel hebben ze het HOOGSTE feature level gezet dat een serie kaarten ondersteund. De feature levels daarbeneden ondersteunt die serie kaarten dan ook.

In die tabel hebben ze wel feature level 11_2 weggelaten, die schijnt Maxwell 2.0 om één of andere reden niet te ondersteunen. Waarom dat het geval is weet ik ook niet. Wil je er allemaal het fijne van weten, lees dan dit eens door:

http://gathering.tweakers.net/forum/view_message/44359417

In die forumpost staat van iedere kaartenserie duidelijk uitgelegd wat ze ondersteunen en wat ze missen.
In die tabel hebben ze wel feature level 11_2 weggelaten, die schijnt Maxwell 2.0 om één of andere reden niet te ondersteunen. Waarom dat het geval is weet ik ook niet.
Dat komt omdat feature level 11_2 resources binding Tier 3 vereist, waar Maxwell 2.0 alleen Tier 2 ondersteunt: https://msdn.microsoft.co...n899127%28v=vs.85%29.aspx
Level 12_1 vereist dus geen Tier 3.
De nieuwe carrizo apu's ondersteunen wel al GCN1.3 waardoor die wel feature lvl 12_1 ondersteunt.
Het lijkt mij niet te ver gegrepen dat het topmodel van de AMD kaarten ook GCN 1.3 zal hebben (de oudere kaarten waarschijnlijk niet, omdat deze rebrands/refreshes zijn)
De nieuwe carrizo apu's ondersteunen wel al GCN1.3 waardoor die wel feature lvl 12_1 ondersteunt.
Heb je daar een bron voor?
Ik heb nog nergens gezien dat AMD conservative rasterization en ROVs ondersteunt in enige architectuur.

Zelfs in deze gelekte sheets wordt het niet genoemd: https://forum.beyond3d.co...5600/page-29#post-1831601
Ze gaan wel in op resource binding Tier 3, en claimen ook "Full DX12", maar dat zou dan DX12_0 zijn.

[Reactie gewijzigd door Scalibq op 8 juni 2015 15:53]

De gebruikte chiparchitectuur lijkt overal hetzeflde, evenals het gebruikte pcb (maar dan met 8 GB). Het is zeer waarschijnlijk dat de kaart hoger geklokt is maar that's it.

De chip van de 290 is al bijzonder groot en kan niet 'gewoon even uitgebreid' worden - dat is ook nog nooit gebeurd.
De gebruikte chiparchitectuur lijkt overal hetzeflde, evenals het gebruikte pcb (maar dan met 8 GB). Het is zeer waarschijnlijk dat de kaart hoger geklokt is maar that's it.
Ik vindt het knap dat je aan een ventilator kunt zien dat het hetzelfde PCB is (veel meer zie je namelijk niet op de fotos) en nog veel knapper dat je de chip architectuur kunt zien daar aan.

De informatie is gewoon niet beschikbaar. Er worden hier conclusies getrokken uit een enorm gebrek aan informatie. Dit is hetzelfde als een F1 auto onder een doek zien en zeggen "Oh, dat is dezelfde motor als vorig jaar".
Echter weten we wel dat HBM een veel kleiner oppervlak inneemt, en dat op moment de GPUs bevolkt worden door de stroom-convertors, geheugen en de chip. Als 1 daarvan wegvalt, scheelt dat flink in ruimte. Deze kaart ziet er best groot uit (ongeveer formaat van de 290X, terwijl we verwachten dat de 390X / HBM-kaart veel kleiner is. Er zijn ook nog geruchten dat de 390 vanilla geen HBM zou hebben en de 390X wel, maar in dat geval zou het ook nog een typo zijn.

Mijn vermoeden is dat ze alvast de site gemaakt hebben, maar nog geen plaatje van de 390 hebben, en er tijdelijk dus een 290X neergekwakt hebben. Dat zal ergens volgende week gefikst worden, als het embargo opgeheven is.
Echter weten we wel dat HBM een veel kleiner oppervlak inneemt, en dat op moment de GPUs bevolkt worden door de stroom-convertors, geheugen en de chip. Als 1 daarvan wegvalt, scheelt dat flink in ruimte.
Dat zou een hint kunnen geven over of HBM gebruikt wordt of niet. Dat zegt nogsteeds niets over de gebruikte GPU en of die anders is dan van de 290X of niet...

"Deze F1 auto heeft geen dubbele diffuser dus zal het wel dezelfde motor zijn als vorig jaar"

[Reactie gewijzigd door Croga op 8 juni 2015 10:54]

Eeeh nee, het probleem is dat auto-analogieen meestal misgaan omdat iemand zelden verstand heeft van beide :P
Een betere zou (denk ik, ik snap autos niet) zijn "Deze F1-auto rijdt op een andere brandstof, dus de motor is anders". HBM vereist een flink bijgeschaafde chip, met misschien wel de GCN-architectuur, maar het hele bus-systeem is anders, om de switch van 512bits op 7 GHz naar 4096 bits op 1 GHz aan te kunnen. De chip is dus sowieso opnieuw ontworpen en moet nu met een interposer kunnen praten. That is, tenzij het inderdaad de 290X is, maar in dat geval is het geen HBM, en is het een ordinaire rebrand. Da's dan ook wat het artikel nu zegt.

Lijkt mij onwaarschijnlijk, dan zou er niets nieuws gebeurd zijn sinds de 290X, en ik moet de eerste keer nog zien dat een halo-product opgepoetst wordt om er nog een jaar mee verder te gaan. Da's ongeveer net zo'n blamage als bij F1 met de auto van vorig jaar te rijden.
Je gebruikt in je eerdere post een gebrek aan uiterlijke verandering om te impliceren dat er geen innerlijke verandering is. Mijn analogie gaat dus wel degelijk op. Zeker aangezien dat uiterlijke kenmerk maar een heel dunne relatie heeft met innerlijke verandering.

Als het uiterlijke kenmerk er zou zijn dan zou dit nagenoeg zeker bewijs zijn van innerlijke verandering. Een gebrek aan dat uiterlijke kenmerk zegt echter helemaal niets over of er iets innerlijk verandert is of niet. Er zijn oneindig veel mogelijke innerlijke veranderingen die níet het genoemde uiterlijke kenmerk ten gevolg zouden hebben.

Ofwel: "Deze F1 auto heeft geen dubbele diffuser (uiterlijk kenmerk) dus zal het wel dezelfde motor zijn als vorig jaar (innerlijke verandering)".
Er wordt in ieder geval geen HBM op deze R9 390X van XFX gebruikt. de foto's van de Fury-kaart van AMD tonen een bijzonder korte kaart (omdat er geen GDDR5 geheugenchips geplaatst hoeven te worden) - deze kaart is veel langer. Toevallig ongeveer net zo lang als een 290X :P
Mijn vermoeden is dat ze alvast de site gemaakt hebben, maar nog geen plaatje van de 390 hebben, en er tijdelijk dus een 290X neergekwakt hebben. Dat zal ergens volgende week gefikst worden, als het embargo opgeheven is.
Wel vreemd dat het een site voor de 290X is en er foto's onder staan van een 390X, andersom dus zoals jij stelt.
Kan je even geen quote geven maar heb ergens gelezen, dat de PCB nummer die net boven te PCI aansluitstuk zit overeen komt met die van de 290X..

Maar ja misschien is dat gewoon dat ze de koeler laten zien op een 290X omdat ze de 390X niet klaar hebben.
Dat was bij de watergekoelde versie op hardware.info. Daar is later ook van bekend geworden dat het gewoon om een 290x ging met een andere koeler.
Het gaat om geruchten, dit is niet het enige gerucht wat hierop wijst :P er zijn al andere 390X's gespot. Daarnaast loopt dit gerucht al een maand en zijn er meerdere, onafhankelijke websites die hetzelfde laten zien. De ene toont een 390X waarvan het PCB een code is af te lezen die overeenkomt met 290X's, de andere toont een vermoedelijke prijslijst en bijbehorende chipnamen, en daarnaast loopt het gerucht al veel langer. En waar (veel) rook is, is over het algemeen vuur.

Het blijven inderdaad geruchten, tuurlijk... maar het lijkt mij inmiddels heel sterk als het anders zal zijn.
Voor dezelfde PCB geld dat de chip pin compatible moet zijn. Maar dat is geen garantie dat het ook exact dezelfde GPU is het kan nog altijd een refresh zijn. Als alle spect exact overeen komen is het een rebrand. Tja refresh kan heel subtiel zijn als een revisie tot extra SM blokken.
Dat vraag ik me nou ook af. Overal wordt 'rebrand' geschreeuwd, maar waar komt dit nou eigenlijk vandaan?
Omdat het gewoon een Radeon 290x opnieuw gebruikt is op een kaart en als nieuw verkocht wordt.
Maar dat is nergens uit op te maken en al helemaal niet bevestigd, toch claimt Tweakers dat het zo is. Slechte journalistiek.
Check videocardz.net voor details. Uit drivers is gebleken dat alleen de aankomende fury card allemaal rebrands zijn gebasseerd op de oude architectuur.
Op heel veel plaatsen wordt de GPU Grenada genoemd, als het een pure rebrand zou zijn dan zou die normaal gesproken gewoon Hawaii genoemd worden.

Tonga lijkt bijvoorbeeld ook veel op Tahiti, aan de specs te zien lijkt alleen de geheugencontroller van 384 bit naar 256 bit zijn te verkleint. Maar er is eigenlijk wel meer veranderd. Tonga heeft betere datacompressie, waardoor die minder geheugenbandbreedte nodig heeft. (Vergelijkbaar met wat nVidia met Maxwell 2.0 doet)

De Tonga GPU heeft ook de GCN 1.2 architectuur, terwijl Tahiti nog op 1.0 zit. Verschillen hiertussen kun je bijvoorbeeld vinden in de review op Anandtech: http://www.anandtech.com/...md-radeon-r9-285-review/2

Zoiets kan Grenada ook prima zijn. Vergelijkbare specs met zijn voorganger, Hawaii, maar toch met een iets nieuwere architectuur, van 1.1 naar 1.2 bijvoorbeeld.

Haalde idd de naampjes wat door elkaar. :p

[Reactie gewijzigd door -The_Mask- op 8 juni 2015 13:07]

Op 9 februari waren er al geruchten dat Grenada een rebrand zou zijn van Hawaii: nieuws: Gerucht: AMD Radeon R9 380-kaarten krijgen 'Grenada'-gpu

Het zou kunnen, eens. Maar ik verwacht het niet: er zijn teveel gelijkenissen en er is teveel 'rook' dat het om 100% dezelfde chip gaat. Net als Curacao en Pitcairn.
Een R9 270 en R9 270 is geen Curacao kaart, maar gewoon Pitcairn. Vindt maar eens een orginele bron waarbij een R9 270(X) Curacao wordt genoemd, die is er niet.

Er zijn alleen een paar onofficiële bronnen die dit noemen en elkaar napraten.

Zie bijvoorbeeld deze review: http://www.techpowerup.co...S/R9_270_Direct_Cu_II_OC/
The R9 270 is meant to replace the AMD HD 7850, with more performance of course. Both the HD 7850 and R9 270/270X are based on the same Pitcairn silicon, although we've seen the name "Curacao" thrown around by unofficial sources. AMD never confirmed the name change nor do they claim the GPU to be different, or come with different GPU specifications. The R9 270 does not support AMD TrueAudio technology.
Weer wat geleerd :P op meerdere sites, waaronder Wikipedia, kom je de naam Curacao chip tegen.
Tonga lijkt meer op Tahiti, Pitcairn is een segment lager, wordt o.a. gebruikt voor de 270/270x
Dat is de definitie van een rebrand, maar dat was de vraag niet. waaruit kunnen die sites opmaken dat het een rebrand betreft, met de sumiere informatie die er is.

Ik acht de kans trouwens wel degelijk aanwezig, en dat zou echt pijnlijk jammer zijn! Dan ga ik toch weer naar nvidia toe, die ik sinds de 8800GTX heb verlaten tot heden :D
en dat zou echt pijnlijk jammer zijn
Valt wel mee hoe pijnlijk dat gaat zijn volgens mij, de oude kaarten iets opgevoerd kunnen prima mee komen met de nvidia tegen hangers. (met de juiste prijs)
Dan ga ik toch weer naar nvidia toe
Rare conclusie... ik wacht gewoon tot alles beschikbaar is en maak dan een keuze met de beschikbare informatie die er dan is
Rare conclusie... ik wacht gewoon tot alles beschikbaar is en maak dan een keuze met de beschikbare informatie die er dan is
Dat doe ik toch, ik zeg toch dat ik overstap ALS het rebrands zijn, ik wacht dus juist tot het uit is.
Valt wel mee hoe pijnlijk dat gaat zijn volgens mij, de oude kaarten iets opgevoerd kunnen prima mee komen met de nvidia tegen hangers. (met de juiste prijs)
Dat opvoeren kan je met de oude kaarten ook ;) Maargoed ze kunnen nu ook niet tegen nvidia op gezien AMD nog steeds verliezen draait, dus als ze niet met iets komen wat de boel op de kop gooit (en dat gaat een rebrand echt niet doen) zie ik ze richting de afgrond gaan helaas...
Als het toch een rebrand is ga voor de Fury.
Als die kaart betaalbaar is.....
Nee het was al wel duidelijk dat de 'nieuwe' R9 de naam Fury ging dragen. En dat alles tot aan de R9 380x sowieso rebrands zouden zijn. Aangezien de naam Fury pas heel laat (onlangs) bekend is geworden, ligt het wel in de lijn der verwachting dat alle R9 3xx kaarten rebrands gaan worden, of dat er een soortgelijk trucje wordt gebruikt als Nvidia deed met de 680 > 770. Sneller geheugen. En door 8GB te bieden wordt de kaart dan een stuk interessanter voor Crossfire.

Echt tof is het allemaal niet, maar het is wel héél plausibel.
ik had eigenlijk gehoopt. dat de r9 390(x) richting de 980/980ti ging. en "FURY" de strijd aan zou gaan met titan. alleen dan voor een amd prijsje.

en 8gb versies waren er al van de r9 290x versie.
Ik zou dat juist niet verwachten. NV produceerd tot hele grote chips. AMD heeft al generaties voor iets kleinere maat gekozen.
Dat in minder problemen maar ook grotere kans dat je niet de snelste zal zijn.
NV beleid is prestige en imago. Ze moeten de kroon binnen halen.
Kwa productie chip bin en yield is dat duur minder commercieel rendable beleid.
AMD met R&D beperkingen heeft die luxe niet en gast voor commercieel rendement. Kleinere chips meer volume sales en leuke prijsje voor iets minder performance.
Wat AMD doet die gaan voor sub high-end en noemden dat de performance klasse. Top end is voor hun de Dual GPU ding.
Komt door het feit dat met HBM de memory bus effectief 4096 bits zou zijn. Deze staat op de screenshot als details van de kaart nog steeds met 512 bits aangegeven. Dit betekend dat de nieuwe chip die HBM moet ondersteunen er nog niet is en dat dit om een rebrand gaat.
Dat is nu juist ook de vooruitgang met HBM, dat eindelijk de geheugen bottleneck zou verdwijnen door de bredere bus.

Of het wordt een kleine verandering qua architectuur of het is gewoon een rebrand helaas.
Dit betekend dat de nieuwe chip die HBM moet ondersteunen er nog niet is
Tot zover kan ik me er iets bij voorstellen.
en dat dit om een rebrand gaat.
Deze conclusie volgt niet uit de eerdere observatie.

Of HBM ondersteund wordt of niet zegt niets over rebranding.
XFX heeft afbeeldingen van de Radeon R9 390X op zijn site gezet. Tegelijkertijd is informatie over de kaart verschenen. De R9 390X van Asus lijkt een rebrand van de Radeon R9 290X te worden, maar dan met hogere kloksnelheden en 8GB gddr5.


Kan iemand mij vertellen waarom ze het eerst over XFX hebben en daarna over Asus?
Zeker gezien de titel lijkt dat niet helemaal te kloppen.. (Mja, Tweakers he.. :9)

Waarschijnlijk hebben ze ergens op een site over beide fabrikanten wat gevonden en wilden ze dit nieuws zo snel mogelijk naar buiten brengen om als nieuws-site maar relevant te blijven. Dat een fatsoenlijk titel daar dan bij in schiet moet je maar voor lief nemen..

[Reactie gewijzigd door Vickiieee op 8 juni 2015 09:54]

Ja snap ik ook niet helemaal, xfx brengt het uit en vervolgens gaat bericht over in asus.

Maarja de zoveelste rebrand van amd, blijft voor hun dus erg lastig om iets nieuws teverzinnen, en als dit zo doorgaat zal AMD het erg zwaar krijgen.

[Reactie gewijzigd door devil-strike op 8 juni 2015 09:36]

Als ik het goed lees heeft XFX enkel afbeeldingen online gezet, geen verdere specificaties.
Van de kaart van Asus echter zijn wel de specificaties bekend geworden, en uit die informatie lijkt naar voren te komen dat het een rebrand van de R9 290X betreft.
Gaat over de chip zelf, dus moet AMD ipv. Asus zijn lijkt mij.
Gek genoeg staat op de site van XFX alleen een nieuw plaatje, de info erbij is nog steeds hetzelfde, van de R9 290x.
Ik denk dat we het op 16 Juni pas zeker weten. Het lijkt me vreemd dat ze van alles weer een rebrand maken, ze weten bij AMD namelijk goed dat de concurrentie van Nvidia moordend is en ze snel met betere producten moeten komen.
Weten en kunnen (betalen) zijn helaas twee verschillende dingen.
de investering die nodig om op 28nm nog iets heel nieuws te maken is gewoon veel te duur aangezien het allemaal de prullenbak in kan met 14nm binnen 1 jaar.
Ik denk dat ze niet anders kunnen. Een product lijn omgooien zijn ook kosten. Naast de R&Zd voor nieuw refreshes.
14 nm is dichtbij mogelijk is investeren in refreshes zo kort voor dieshrink sowieso niet rendable.
Dus alleen de Fury wordt nieuw, en voor de rest brengen ze alleen rebrands uit?

Dat wordt interessant... :O
Blame the novice maar in het artikel staat toch dat deze kaart op een hogere kloksnelheid draait en meer geheugen heeft? In dat geval is er misschien geen nieuwe chipset maar is een rebrand toch wel degelijk een vernieuwde c.q. verbeterde kaart?
8GB, kost alleen maar meer en voegt niks toe.

En die iets hogere kloksnelheid is louter marketing, zodat ie net wat beter is dan de 290x in benchmarks :Y)
8GB is echter een stuk interessanter als je crossfire opstellingen gaat draaien. Ook voor GPGPU doeleinden is het heel chill dat je wat meer geheugen ruimte hebt.
Dat snap ik even niet, voor zover ik weet is er nu geen game die 8Gb aan VRAM gebruikt, in een crossfire opstelling met 2 van deze kaarten zou je dan 16Gb Vram hebben...waar gebruik je dat dan voor?
Crossfire verdubbelt niet de hoeveelheid beschikbaar geheugen, hoor. Twee kaarten met 8 GB elk levert niet ineens 16 GB vRAM op, ik snap eerlijk gezegd niet dat dit sprookje steeds maar weer op blijft duiken bij multi-GPU systemen.
Sorry, dan heb ik het verkeerd opgeschreven, ik bedoel dat je dan 16Gb ter beschikking hebt, niet dat je 16Gb unified ter beschikking hebt. Ik weet dat het 2x 8Gb is een geen 1x 16.

Vraag blijft wat je doet met zoveel VRAM, pure nieuwsgierigheid mijnerzijds.
Nou om bijvoorbeeld High-res textures te kunnen gebruiken op UHD resolutie in games als Skyrim en andere mmorpgs.

4K resoluties met alles max is nog lastig met "maar" 4GB. en voor de rest is het heerlijk in GPGPU toepassingen om 2x zoveel geheugen te hebben als je wat complexere matrices hebt.
Ja je hebt dan 16GB alleen is dat tot DX11 effectief 8 GB.
Met XF is 4K in hoogste setting vaker wel te doen.
En met 8GB heb je dan wat marge voor toekomstige games. Waar de kans is dat er een wel over de 4GB limiet kan gaan. Bij 4GB neemt de performance een duikvlucht.
En met 8 GB behoud je redelijk de performance.
GPGPU ja, voor gamen nog steeds niet echt.

4GB GDDR5 kost toch zeker nog altijd ¤50, dan is een 4GB versie voor dat bedrag minder voor 99% van de consumenten interessanter
Voor Gamen wordt het wel degelijk aantrekkelijk hoor. 4K is niet heel ver meer verwijderd van de mainstream markt en dan is 4GB echt te weinig.
Niet met een enkele R9390x als het een hoger geklokte 290x is, meer dan 4GB heeft dan voor gamen gewoon geen zin.

En Crossfire is niet bepaald mainstream markt, en als het over DX12 waar is, en Vram wel verdubbeld wordt, is dat probleem ook weg

Al die "double memory" uitvoeringen zijn nooit beter geweest dan de gewone versies, tenzij je al <30fps zit, waarop niemand gaat zitten gamen.
Er zijn meerdere spellen waar de 4GB versie meer fps geeft dan 2 GB versie.

Zo als GTA 5 geeft je 5 tot 10 meer fps met een 4GB grafische kaart dan met een 2GB grafische kaart.

www.youtube.com/watch?v=DciW-EPXY8o

Zelfde met FarCry 4 en Assassin's Creed: Unity en Battlefield Hardline, die werkt ook 5 a 10 fps sneller met een 4GB grafische kaart.

https://www.youtube.com/watch?v=iX_mW36BDKs

Dus ja die ¤ 40 extra voor een 4GB grafische kaart is zeker bij de Geforce GTX 960 een aanrader, en zo zou het ook wel zijn met andere snellere grafische kaart zijn.

Maar bij een Geforce GTX 750Ti zal het geen bal uitmaken, omdat ze niet snel genoeg zijn om het verschil te merken.

[Reactie gewijzigd door AmigaWolf op 8 juni 2015 19:02]

Onzin het is al LANG bewezen dat 4 en in sommige gevallen 6 gb voor 4k gaming de prestaties flink naar beneden kan halen.

Het is nu aan de game defs om dit ook te gaan benutten zoals de makers van ik Grid gedaan hebben en daat 30 tot 50% prestatiewinst mee haalde op 4k Ultra !

Dus nu nog niet super interessant maar voor games die binnenkort komen is dit wel degelijk interessant.
Als je grid op een single gpu op 4k ultra kan spelen alleen foor 4gb geheugen toe te voegen is dat een zeer waardevolle toevoeging.
Het is immers goedkoper als SLI/Xfire draaien en bidden dat de game op sli/Xfire goed werkt.

http://imagescdn.tweaktow..._oc_video_card_review.png

[Reactie gewijzigd door computerjunky op 8 juni 2015 14:18]

Komt dat louter door die 8GB of de manier waarop AMD het geheugen aanstuurd o.i.d.?

De GTX980 doet het vergelijkbaar(minder op average, beter op minima) en die heeft ook maar 4GB(sowieso een GTX980 die 50%+ beter is als een 970 is wat apart).

Als 8GB echt nodig was, zou de Fury dat ook wel krijgen. Nu is bekend dat HBMv1 maar tot 4GB kan, maar als dat echt een beperking zou zijn zou AMD die kaart niet eens in die vorm gaan uitbrengen lijkt mij

[Reactie gewijzigd door !mark op 8 juni 2015 14:46]

Ik denk dat veel games tot op heden simpelweg gescheven zijn om maar 4 gb of minder te ondersteunen en ze bij grid een aanpassing gedaan hebben bij het maken van de game (waarschijnlijk voor de titan serie omdat deze 8gb kaart nog niet uit was.

Het is dan ook de enigste game die zon verschil laat zien.
Er zijn wel games waar 5 of 10% waarneembaar is maar zon verchil is bijna niet te vinden.

Let wel dit is niet alleen 4k maar ook Ultra settings bij low settings was er geen verschil te vinden.

Maar goed het kan dus voor 4k verschil maken en is dus interessant en de switch naar 4k die momenteel aan de gang is.
Dus vanuit dat oogpunt is 8gb zo verkeerd nog niet al kan ik begrijpen dat er mensen zijn die liever 70 euro minder betalen en voor lief nemen dat in de nabije toekomst sommige games niet zullen werken op hun kaartje.
Ik denk niet voor niets dat amd aan dat supersnelle stacked memory is gaan werken. als meer of sneller geheugen geen zin had gehad hadden ze wel wat anders gedaan.
Zoals iemand eerder al zei in de comments hier, de R9 290X had al een 8GB versie.
Het is gewoon een rebrand dus, een partner van AMD had ook een R9 290X 8GB met die kloksnelheid kunnen uitbrengen denk ik dan.

Ik heb trouwens gehoord dat de Fury ¤849 zal kosten, als hij concurreert met de Titan is dat wel een redelijke prijs, maar die 4GB vs 12GB van de Titan zie ik wel als een probleem of dat HBM geheugen moet echt zo geweldig zijn.

edit http://wccftech.com/fiji-xt-4gb-amd-dual-8gb-hbm-msrp-849/
$849 dollars dus zal wat meer euro's zijn

[Reactie gewijzigd door Nature op 8 juni 2015 20:27]

Zo lijkt het...
Fury zal ongetwijfeld gepositioneerd worden tegenover Titan, dus krijgt de GTX 9xx reeks weer een seizoen langer vrij spel. Als dat maar goed gaat...
gezien de prijs (volgens de geruchten) eerder tegenover de GTX 980TI
Nou near 980ti ¤750,-
TitanX ¤1100,- is dan ook niet zo ver weg aan performance.
Op 1080p.
Alleen wat doet de fury in 4K gaming? Het Heeft HBM
Het kan bij bepaalde benches teggen zijn 4GB limiet aan hinken.
Maar zo niet dan krijg je een andere verdeling in games tov 1080p
Benches.
Prijs zal dan ook onder de 980Ti maar boven de 980.
¤600 - ¤700,- verwacht ik.

Ik heb een 32" 1440p en 27" 1080P 120hz 3D monitor.
Dus standaard FHD boeid mij niet.

Voor Oculus Rift is ook een dubbele resolutie op hoge refresh rate.

Dus als de geruchten waar zijn, is het niet slecht.
Als de budged rond de 980 zit dan kan je kiezen.
Voor Flinke zuinigheid.
Of high resolutie near 980ti performance voor kleinere meer prijs, met iets meer vermogen +\- 50 watt tov 980Ti
De R9 390X van Asus lijkt een rebrand van de Radeon R9 290X te worden, maar dan met hogere kloksnelheden en 8GB gddr5.
Ooohh man, ik had zo gehoopt op een volledig nieuwe line-up, niet op rebrands met hogere kloksnelheden.. :( Dat zou je als overclocker eventueel zelf ook nog kunnen bereiken, dus wat is dan de toegevoegde waarde afgezien van eventueel kleine nieuwe features?

Het VRAM geheugen daarentegen ziet er leuk uit! 8GB is meer dan wat nVidia op dit moment aanbied op de GTX980Ti (de Titan X heeft 12GB, ik weet het :9) dus die wedstrijd heeft AMD dan weer 'gewonnen'..


Verder maar echt wachten op 'Fury' dan?
*Gaat vanmiddag de film 'Fury' maar eens kijken als voorproefje :9
[...]

Het VRAM geheugen daarentegen ziet er leuk uit! 8GB is meer dan wat nVidia op dit moment aanbied op de GTX980Ti (de Titan X heeft 12GB, ik weet het :9) dus die wedstrijd heeft AMD dan weer 'gewonnen'..
[...]
Jammer dat het geen wedstrijd meer is. Waar denk je 8GB vram op zo'n kaart met oude GPU voor nodig te hebben? Waar is de volle DX12.1-ondersteuning? (ja, ik weet dat het bij Nvidia ook nog niet perfect is.) Die 8GB is gewoon het enige wat ze nog konden verzinnen onder de noemer upgrade voor deze kaartenreeks, en waarschijnlijk verlagen ze hun winstmarges nog meer met deze "upgrade". Je ziet aan de kleine verhogingen van kloksnelheden dat ze uit deze GPU's gewoon niet veel meer uit kúnnen halen, want de 200-serie loopt al zo warm. En een nieuwe GPU die wel levert wat ze willen komt er maar niet. Met die rebrands die ze doorvoerden met de introductie van de 200-serie kwamen ze nog redelijk weg, maar nu de 300-serie eigenlijk de 200-serie is met een klein beetje extra, denk ik dat AMD behalve hun trouwe schare fans, consoles en OEMs niet veel meer vooruit te kijken heeft op de GPU-markt. En qua APU's denk ik dat ze Intel ook voor moeten laten gaan met de Broadwell's met de Iris-Pro's. En dat zal alleen nog maar verergeren (voor AMD) want Nvidia en Intel hebben wel gewoon een solide cash-flow te gebruiken voor R&D.

[Reactie gewijzigd door KrazyJay op 8 juni 2015 09:49]

Een wedstrijd is het al tijden niet meer nee, en nVidia rust daarom ook op haar louweren.. Die zouden ook wel harder vooruit kunnen, maar de druk is er gewoon niet. Hetzelfde geldt voor de gewone processors tussen AMD en Intel (niet de APU's e.d. dus): Intel kan daar ook vast wel een stuk harder vooruit dan ze nu doen (met de 10% performance increase per generatie), maar ze richten zich nu vooral op processors zoals de Broadwell generatie.

Die 8GB VRAM is niet per se nodig, maar meer is altijd leuk en beter zolang het goed werkt. Headroom over hebben is nooit verkeerd, toch? Wie weet wat er in de toekomst nog voor VRAM-hongerige games uit komen, dan ben je in ieder geval alvast voorbereid ;).

Wat betreft de DX12 ondersteuning, daar mist nVidia ook het een en ander hoor, ik verwijs je naar dit artikel en dan met name de eerste reactie (+3): nieuws: AMD-videokaarten ondersteunen niet alle features DirectX 12 - update

Als dit nu dan weer 'rebrands' worden van de 200-serie dan zijn het dus eigenlijk rebrands van rebrands. Want: de 200-serie waren al rebrands van de 7970-generatie. Al met al enorm jammer dat AMD het zo aan pakt. Maargoed, misschien kunnen ze op het moment niet anders..
Die 8GB VRAM is niet per se nodig, maar meer is altijd leuk en beter zolang het goed werkt.
Da's een beetje het punt... Je kunt wel meer geheugen erop doen, maar als je niet genoeg bandbreedte en/of processorkracht hebt, kun je er op een gegeven moment ook niet meer uit halen.
Wat betreft de DX12 ondersteuning, daar mist nVidia ook het een en ander hoor
Jammer alleen dat er niet gelinkt wordt naar wat het precies inhoudt.
Hier staat wat nVidia mist (ze zijn Tier 2, niet Tier 3): https://msdn.microsoft.co...op/dn899127(v=vs.85).aspx
Hier staat 1 van de 2 features die AMD mist (de ander is rasterizer ordered views):
https://msdn.microsoft.co...n903791%28v=vs.85%29.aspx
https://developer.nvidia....onservative-rasterization
http://www.geforce.com/wh...xt-generation-of-graphics

Dat is nogal een verschilletje.

[Reactie gewijzigd door Scalibq op 8 juni 2015 12:53]

Da's een beetje het punt... Je kunt wel meer geheugen erop doen, maar als je niet genoeg bandbreedte en/of processorkracht hebt, kun je er op een gegeven moment ook niet meer uit halen.
Dus in dat geval is de 12GB van de Titan X helemaal overdreven, of niet? Dan denk ik dat die kaart van nVidia overdreven is, aangezien met benchmarks al bewezen is dat de GTX980Ti krachtiger is dan de Titan X en maar de helft aan geheugen heeft.. Om over de geheugen busbreedte nog maar te zwijgen. Die is bij de Titan X maar 384 bits en bij de (vermoedelijke) R9 390X 512 bits! Dat is nogal een verschilletje!
Jammer alleen dat er niet gelinkt wordt naar wat het precies inhoudt.
Hier staat wat nVidia mist (ze zijn Tier 2, niet Tier 3): https://msdn.microsoft.co...op/dn899127(v=vs.85).aspx
Hier staat 1 van de 2 features die AMD mist (de ander is rasterizer ordered views):
https://msdn.microsoft.co...n903791%28v=vs.85%29.aspx
https://developer.nvidia....onservative-rasterization
http://www.geforce.com/wh...xt-generation-of-graphics

Dat is nogal een verschilletje.
Maar nVidia mist dan weer een paar dingen die GCN (en dus AMD) wel heeft, waardoor AMD met veel andere taken veel flexibeler en vooral efficiënter is. AMD is met GCN ook al een tijdje bezig dus je mag verwachten dat die verder zijn dan nVidia, toch?
Dus in dat geval is de 12GB van de Titan X helemaal overdreven, of niet?
Wat is er *niet* overdreven aan de Titan-kaarten? :)
Maar nVidia mist dan weer een paar dingen die GCN (en dus AMD) wel heeft, waardoor AMD met veel andere taken veel flexibeler en vooral efficiënter is.
Nee, zie de eerste link die ik plaatste. Dat is het enige verschil.
Dus "veel andere taken", "veel flexibeler" en "vooral efficiënter" zijn zwaar overdreven.
In het theoretische geval dat je tegen de limiten aan zou lopen van het aantal resources dat je kunt binden, zou AMD een voordeeltje kunnen pakken.
Zolang je niet tegen die limieten aanloopt (wat in de praktijk waarschijnlijk niet vaak zal voorkomen, want zo strak zijn die limieten niet), is er geen verschil.
Ik vind niet dat Nvidia op hun lauweren rust... zeker de vergelijking met Intel is niet eerlijk.
De huidige maxwell kaarten zijn vooral qua verbruik stukken beter dan de vorige generatie. En over een paar maanden ontvangen we "Pascal" alweer, met hbm...

8GB is m.i. overkill voor deze rebrand, wellicht nuttig voor slechte ports in 4k. Het lijkt een beetje een wanhoopspoging om een unique selling point te hebben in de vermoedelijke prijsklasse.
Een bedrijf dat obsessie heeft zal nooit op lauweren rusten.
GPU design kost lange tijd in het begin van ontwikkeling hebben ze totaal geen idee wat de concurrent doet. Het gevaar zit er altijd in dat AMD toch ook met godzilla chip komt. En sucsesvol kan zijn. Waar AMD gewoon wat er uit komt in de dan wat er in de markt is hun product positioneerd als sub highend als het tegen valt. Doet nV juist uiters paniek gedrag om er alles uit te halen. Gedachte of optie van sub high-end zit er niet in.

NV had veel eerder hun nV30 kunnen releasen als sub high- end voor leuk prijsje. Ipv factory extreem OC'ed

Pascal wordt ook kolos van chip. En daarmee de kans vergroten dat het de snelste kan worden.
Als dit nu dan weer 'rebrands' worden van de 200-serie dan zijn het dus eigenlijk rebrands van rebrands. Want: de 200-serie waren al rebrands van de 7970-generatie. Al met al enorm jammer dat AMD het zo aan pakt.
Ik vind dit gewoon niet kunnen dat AMD voor hun topmodellen rebrands gebruikt. Je topmodellen moeten toch altijd voorzien ve nieuwe architectuur en de reeks trekken. Dat de modellen eronder rebrands zijn kan ik nog begrijpen.
Wat betreft de DX12 ondersteuning, daar mist nVidia ook het een en ander hoor, ik verwijs je naar dit artikel en dan met name de eerste reactie (+3):
Ja, maar nVidia ondersteunt wel het belangrijkste level 12_1 dat zorgt voor de nieuwste grafische effecten en dat is toch waar je een nieuwe grafische kaart voor koopt. nVidia ondersteunt enkel een paar prestatieverbeterende functies niet. AMD ondersteunt level 12_1 niet, enkel met de Fury wel maar die gaat waarschijnlijk te duur worden. Oplossing zou kunnen zijn dat AMD zijn prijs vd Fury snel laat zakken om beter te kunnen concurreren met nVidia.
aangezien alles nog steeds 28nm is is een nieuwe lijnup gewoon te duur voor de te verwachte winst.

een nieuwe lijnup komst met 14nm chips volgend jaar.
Gek dat we zo'n vervelend gevoel hebben bij rebrands. Zo zat er plots een R9 M270X in mijn laptop terwijl ik hem de avond daarvoor toch echt had dichtgeklapt met een 8870M onder de motorkap.

Over motorkap gesproken; autofabrikanten doen precies hetzelfde. Vaak is het verschil tussen een krachtige en minder krachtige versie van een auto puur een iets hogere turbodruk DMV een andere software versie waar je x-duidend euro meer voor betaalt ;-)

Lang leve de tuner op de hoek zullen we maar zeggen.
Dat had ik ook met mijn 7950. Nu ineens een r9 2xx reeks.
Nog wachten tot de 16de. Grafische kaart begint het te begeven . Game nu op 2550x1440 en wil ook een oculus kopen. Pfft 970,980, 980TI of toch een 390x of Fury. Geen makkelijke keuze.
Voor VR eist nogal wat performance kwa geheugenband breedte.
Die HBM kan mischien totaal anderbeeld geven dan de standaard bench 1080p daarom is de near 980 ti performance vaag. Was dat 1080? En 4K? Test verantwoording is er niet.
Ik vind het helemaal niet gek, voor de nietsvermoedende consument zal het weinig uitmaken. Die zien een hoger nummertje en gaan er automatisch van uit dat het beter is. Als Tweaker zie je echter duidelijk dat de markt aan het stagneren is voor AMD wat ook betekend dat Nvidia minder haar best hoeft te doen.

Dit kan eigenlijk maar één ding betekenen voor gamers, prijzen worden kunstmatig hoog gehouden en prestaties gaan nauwelijks vooruit omdat er geen enkele reden is om meer geld in R&D te steken als jou concurrent het zweet op het voorhoofd heeft staan en je niet kan bijbenen.

Op dit moment heb ik nog een GTX670 maar eigenlijk is er nog geen enkele reden voor mij om echt te gaan upgraden. Ik kan zowat alles nog op high draaien (sommige nieuwe games zelfs ultra) en het is ondertussen al weer 3 jaar geleden dat ik de kaart gekocht heb (wat een eeuwigheid is in computerland). Eerder mocht ik hopen (met mijn GF6800) als ik een jaar na datum alles nog op medium kon draaien.

Als het zo door gaat met AMD dan word Intel nog eerder (directe) concurrent van NVidia dan dat AMD dat nu is. Terwijl het nu indirecte concurrent is.
Het lijkt erop dat de logica op de verschillende websites voor de rebrand-claim is gebaseerd op het niet aanwezig zijn van hbm op de kaart op de afbeeldingen. Immers ondersteunt hbm maximaal 4GB vram en deze kaart heeft 8GB vram. Nu was hbm altijd al alleen voor Fury bedoeld en niet voor de 390X. Dit kan dus net zo goed WEL een nieuwe gpu zijn, maar dan zonder hbm. Wellicht Fihi Pro?
HBM is niet gelimiteerd tot maximaal 4GB. Met de huidige techniek is 8GB mogelijk. Al heeft AMD zover enkel diagrammen met 4GB laten zien.
Ik hoop dat er ook een variant met 8GB aan komt, 4GB is ok, maar voor 4K resoluties toch aan de lage kant.

"HBM in turn allows from 2 to 8 stacks to be used, with each stack carrying 1GB of DRAM. AMD’s example diagrams so far (along with NVIDIA’s Pascal test vehicle) have all been drawn with 4 stacks..."

http://www.anandtech.com/show/9266/amd-hbm-deep-dive/4
Volgens mij is 8GB in de nabije toekomst mogelijk, maar zal dat op de eerste generatie niet het geval zijn:
http://arstechnica.com/in...-first-hbm-graphics-card/

[Reactie gewijzigd door Ed_L op 8 juni 2015 11:29]

Dat zit er inderdaad dik in, gezien de diagrammen die AMD zover heeft laten zien.
Zou erg jammer zijn, afwachten maar weer.
Yep maar deze eerste gen is gelimiteerd aan 4GB.
Uieindelijk komen er ook chips met 8GB en veel meer.
Maar niet voor deze Fury.
Ik heb zelf de 7970, en ik heb hem op 1050MHZ draaien. Met een effectieve geheugenclock van 6000MHZ. Weet iemand hoe mijn kaart zich nog zal verhouden tot de R9 390X? Zal de verbetering in performance aanzienlijk zijn, of valt dat mee?
Wellicht een 30% verschil in performance:
http://tpucdn.com/reviews...g/images/perfrel_1920.gif (nog iets sterker dan R9 290X)
Alleen in dat performance overzicht, daar draait de 7970 standaard, (925Mhz core en 1325Mhz memory). Ik draai hem nu op 1050Mhz core en 1500Mhz memory clock.
Ik had het over de 7970 Ghz Edition in die tabel ;)
20% verschil met de R9 290X, dus wellicht een 30% met de R9 390X.

Daarnaast zal je de nieuwe R9 390X ook nog wat overklokken.
Mwa vind het maar een rare vergelijking in dat grafiekje. Want de 7970 en de 290x is eerder 40-50% sneller. En de titan is niet 1% sneller dan een 290x logischerwijs.

http://gpuboss.com/gpus/Radeon-R9-290X-vs-Radeon-HD-7970

http://www.ocaholic.ch/mo...tion/item.php?itemid=1255

Maar om de vraag te beantwoorden de upgrade zou aanzienlijk zijn al is het alleen om de hoeveelheid memory (als je op hogere resolutie speelt).
op 1080p ook wel iets maar aanzienlijk minder.
Kijk gerust de 31 pagina's (16 games tested, telkens op 5 resoluties) na ;)
http://www.techpowerup.com/reviews/MSI/R9_290X_Lightning/

Als er één review site is die ik vertrouw, is het wel Techpowerup. Een van de weinige die ook effectief het goede materiaal hebben. (bv. enkel de power consumption van de GPU uitmeten ipv heel systeem en dan de overige componenten aftrekken of bv. hun geluidsopstelling met een 4000$ geluidsmeter..)

[Reactie gewijzigd door SmokingCrop op 8 juni 2015 10:43]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True