Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 47 reacties
Submitter: Johannes77

Een technologiewebsite heeft de mogelijke specificaties van gpu's in de komende Treasure Islands-serie van AMD online gezet. De kaarten op basis van de gpu, de R9 390X, R9 380X en R9 370X, zouden nog dit jaar moeten verschijnen.

De eerste mogelijke details over Nvidia's GTX 880 kwamen donderdag online, hoewel er twijfel is over de correctheid van dat bericht. Nu zijn ook de specificaties van AMD's komende generatie gpu's uit de Treasure Island-serie verschenen, al gaat het opnieuw om geruchten waarvan niet duidelijk is of de gegevens kloppen. WccfTech benadrukt zelf al dat het oudere gegevens zijn, die desondanks de basis zouden vormen van wat komen gaat.

De R9 390X, R9 380X en R9 370X zouden over respectievelijk de Bermuda XTX-, Fiji XTX- en Treasure Island XTX-gpu gaan beschikken, die allemaal op 20nm geproduceerd worden. Het aantal shaders, rop's en tmu's zou weer flink verhoogd worden, en de gpu's gaan DirectX 12 ondersteunen..

De kaarten op basis van de gpu's zouden nog dit jaar moeten verschijnen. Volgens SweClockers zou de 20nm-productie van gpu's bij TSMC uitgesteld zijn tot 2015. TSMC heeft volgens Digitimes aangegeven problemen te hebben met de 20nm-productie, maar deze zouden geen invloed op de leveringen hebben. TSMC zou zich in eerste instantie op de productie van Apples A8-soc richten.

Update, 10.45: De specificaties van de R9 280X die aanvankelijk in de tabel stonden, klopten niet. Die zijn aangepast naar de correcte gegevens.

 R9 270XR9 370XR9 290XR9 390XR9 280XR9 380X
Gpu Pitcairn Treasure Island XTX Hawaii Bermuda XTX Tahiti Fiji XTX
Procedé 28nm 20nm 28nm 20nm 28nm 20nm
Kloksn. 1050 MHz (Boost) ~ 900 MHz 1000 MHz (Boost) ~ 1000 MHz 1000 MHz (Boost) ~ 900 MHz
Shaders 1280 (1D) 1536 2816 (1D) 4224 (1D) 2048 (1D) 3072 (1D)
Rop's 32 48 64 96 32 72
Tmu's 80 96 176 264 128 192
DirectX 11,2 12 11,2 12 11,2 12
Geheugencap. 2048MB gddr5   4096MB gddr5   3072MB gddr5  
Geheugensn. 5,6GHz ~5GHz 5GHz ~7GHz  6GHz ~6GHz 
Interface 256bit 256bit 512bit 512bit 384bit 384bit
Moderatie-faq Wijzig weergave

Reacties (47)

R9 280x is een 384 bit.in plaats van een 512 bit wat in het artikel staat.

Het antwoord van AMD op nvidia. De geheugenkloks zijn effectief een stuk hoger dan de huidige videokaarten en dit in combinatie met een 512 bitbreedte moet een goede verbetring in Tflops worden. Ik hoop binnenkort meer te horen over de prijs,.
De effectieve clocks zijn niet echt veel hoger hoor. Effectieve kloksnelheid van het geheugen op een 270X is 5,6 GHz, 280X zit op 6 GHz en de 290X zit op 5 GHz. De 380X is dus *exact* hetzelfde als de 280X als het gewoon GDDR5 is.

Daarnaast heeft het aantal TFLOPS niet te maken met de bus breedte of de bandbreedte die voort komt uit de rekensom.
R9 280x heeft geen 512 bit bus, maar 384 bit
Dit jaar nog? Ik heb er sinds januari een 290X in hangen en ze gaan nu al weer door naar de 390X?
Kijkend naar de specs dan gaat zelfs de 380X dik over de 290X heen. Best netjes moet ik zeggen. Nu maar hopen dat ik nog een leuk bedrag voor m'n 290X kan terug krijgen op dat moment.

Edit:

Ik vraag me af of dit wel klopt. De 290 en de 290X zijn behoorlijke heethoofden en lusten een aardige slok stroom. De 390X is de 290X x 1,5 en dat in slechts een jaartje tijd.

Nu heeft AMD dit trucje eerder gedaan, maar dan zelfs een x2: 4870 --> 5780. Hier zat een slechts 1 jaar en 3 maanden tussen, maar betekende wel een verdubbeling van de snelheid;
(800:40:16 vs 1600:80:32).
Maar dit was wel een verkleining van 55nm naar 40nm. Een verkleining van 15nm tegenover de 8nm die de 390X kleiner zal zijn.

[Reactie gewijzigd door Rye op 11 april 2014 10:37]

Ik heb ook net een 290 gekocht maar ik zie geen reden deze te vervangen. Alles is CPU dependent hier.
Met Mantle en of DirectX 12 niet meer. DirectX 12 gaat ook gewoon ondersteund worden op de AMD kaarten met GCN architectuur.
En daarnaast is een moderne quadcore i5 / i7 meestal ruimschoots voldoende.
DirectX12 gaat waarschijnlijk toch alleen werken op Windows 8.2 of hoger dus er zullen niet veel developers dat gaan gebruiken. Net als DirectX10 toen op Vista.
Dat betwijfel ik. Waar directX10 qua performance weinig opschoot (10.1 was wel beter) zal DirectX12 heel wat meer gaan betekenen. Belangrijkste is minder overhead op de CPU. Voor heel veel developers toch wel erg handig.

Windows 7 is nog onwijs populair en Microsoft schiet zichzelf aardig in de voet als ze 7 links laten liggen, maar ook al zouden ze dat doen: DX10 was wel een mega-flop, waar ik dat bij DX12 dat niet zo snel zie gebeuren door de performance winst.
En de Xbox gaat ook dx12 ondersteunen. Dus game ontwikkelaars gaan het ongetwijfeld massaal ondersteunen.
Maar de verhoudingen zijn wel ongeveer gelijk, want beide nemen een kwart af in afmetingen. Daarnaast neemt hitte ook af omdat de transistors kleiner zijn.

Ik hoop dat dit waar is! GPU-land is een stuk leuker dan intel, die in z'n eentje het hoge segment domineert.
Ik denk dat laatste (15nm tegenover 8nm) niet zoveel zegt.
Van 28 nm -> 20 nm is procentueel hetzelfde als van 55nm -> 40 nm.
Zelfs iets groter, maar dat is afronding.
De verkleining van 28 naar 20nm is relatief veel groter dan die van 55 naar 40nm, vandaar meer ruimte voor componenten op eenzelfde die grootte.
Ligt het trouwens aan mij of maken de geheugensnelheden wel een hele drastische stap naar boven?
Klein stapje, je moet de 'effectieve snelheid' door 2 delen om de echte snelheid te krijgen, maar DDR verstuurt zowel bij de opgaande als neergaande kloktik data, vandaar DoubleDataRate ;)

Effectief gaan we van 5 Ghz naar 7 Ghz voor de x90-serie, da's leuk, maar niet onverwacht. Voorlopig bood de 512-bits brede bus meer dan zat ruimte, en dan kun je met veel lagere snelheden toe, en da's weer goedkoper aan de geheugenkant.
Die kloppen ook niet:

270X:
"1400 (Effective 5600)"

280X & 290X
"1250 (Effective 5000)."
Bron: http://en.wikipedia.org/wiki/AMD_Radeon_Rx_200_Series

De snelheden moet je wel zien in combinatie met de breedte van de geheugenbus: 256/384/512.
Hoe groter de geheugenbus, des te groter de bandbreedte is op gelijke kloksnelheid.
info over de GTX 880 was nep, dus ben benieuwd of dit wel echt is....
Laat staan dat ze het nu hebben over ''de 880M''
De GTX 880M bestaat wel al en is in diverse gamelaptops te vinden (nieuwe MSI's ). Of is dit niet wat je bedoelde?
Ik bedoel dat ze de 880M noemen in de post, terwijl ze het gister over de GTX 880 hadden. Wat overigens niet echt is
Owja, ik zie het nu pas (foutje). Wel een beetje een faal van redactie aangezien de GTX880M al ' lang' uit is en het gisteren inderdaad over de GTX 880 ging.
Waarom staat er bij de meeste kaarten "1D" achter het shaderaantal? Om aan te geven dat het om de aantallen van 1 chip gaat?
Dat heeft te maken met de work group space. Het is een wat technisch verhaal, maar zie hier voor meer info: https://www.opengl.org/wiki/Compute_Shader. De bron is de OpenGL wiki, maar een zelfde verhaal geldt voor Dx.

[Reactie gewijzigd door Ed_L op 11 april 2014 11:23]

Thanks voor de link, flink technisch verhaal en wel gek dat de 370X nog niet bevestigd is als 1D
Lijkt me wel dat dat 1D wordt. Het hangt van de architectuur af (GCN 2.0?), en die zal waarschijnlijk niet anders zijn voor de 370x.
vraag me eigenlijk ook af welke versie van openGL deze gaat ondersteunen
openGL 4.3 zoals de huidige generatie van amd, of een nieuwere
1 Dimensionaal (ipv de aankomende 3D techniek) vermoed ik... ben benieuwd
Vind het altijd wel leuk om te volgen en te zien wat er waar blijkt te zijn.
Uh, trouwens, sinds wanneer schrijven we versienummers met een komma (bij DirectX)?
Het is triest dat Tweakers zich baseert op dit soort bronnen, vooral WccfTech post elk gerucht zonder ook maar enige controle, puur om maar te kunnen zeggen dat ze er als eerste mee kwamen... Het oude Tweakers deed dit niet. ;(

DX11 heeft (net als DX10) een aantal iteraties gehad, waarvan sommige een hardware matige aanpassing vereisen, vandaar dat 11,2 apart wordt aangegeven. (net als 10.1)
DX 11.2 is US of GB notatie.
DX 11,2 naar NL vertaalde cijver notatie.
De interface bij de 280x is toch echt 384bit met 3 GB. Dus die geheugenbus blijft gewoon hetzelfde....

Misschien niet alles klakkeloos overnemen, zeker als er dit soort domme foutjes inzitten.
De gegevens van de R9 280X kloppen niet in het overzicht.
Als dit echt is dan blijft de geheugenbus van de 380X ten opzichte van de 280X gelijk, de 280X heeft namelijk een 384-bit bus.

EDIT: Ik ben een beetje laat met mijn reactie. :+

[Reactie gewijzigd door DeLuXo op 11 april 2014 10:20]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True