Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 86 reacties
Submitter: NitroX infinity

AMD gaat de Radeon R9 380 en 380X optrekken rond de Grenada-gpu, die feitelijk een rebrand van Hawaii zou zijn. De Radeon R9 390 en 390X krijgen de Fiji-videochip. Dat claimt 3dcenter althans op basis van informatie van fabrikanten.

AMD Radeon Graphics logo (über)De Duitse techsite 3dcenter heeft een overzicht gemaakt van geruchten over de komende Radeon Rx 300-lijn van videokaarten. Daarbij put de site uit nieuwe informatie van fabrikanten van grafische kaarten, het forum van de site en VR-Zone, aangevuld met eigen speculaties. Videocardz voegt nog eigen informatie toe om de mogelijke line-up compleet te krijgen.

De Radeon R9 395X2 zou pas in de herfst of de winter van dit jaar verschijnen en dan over twee Fiji-gpu's beschikken, waar AMD onder de naam Bermuda naar zou verwijzen. De R9 390X en de 390 komen aan het eind van het tweede kwartaal van 2015, als de geruchten kloppen, en deze modellen worden van een Fiji-videochip voorzien. Al deze kaarten gaan over hbm beschikken: gestapeld dram dat voor meer bandbreedte en een lager verbruik zou moeten zorgen.

Verder verwacht Videocardz de komst van een R9 385X, mits de Fiji XT inderdaad over 4096 cores gaat beschikken. Een R9 385X met 3328 cores zou dan het gat tussen de R9 390- en de R9 380-modellen op moeten vullen. Die R9 380 en R9 380X gaan naar verluidt over respectievelijk een Grenada Pro- en XTX-chip beschikken. Dit zijn rebrands van de huidige Hawaii-gpu, die hooguit over een lager verbruik en hogere kloksnelheden gaan beschikken.

Tenslotte zouden de lagere segmenten bediend gaan worden door Tonga- en Trinidad-gpu's. De Tonga XT zou over meer cores en een bredere geheugenbus beschikken dan de Tonga-gpu van de bestaande Radeon R9 285.

AMD Radeon Rx 300-lijn (speculatie)
 GpuMogelijke specificatiesMogelijke introductiedatum
R9 395X2 Bermuda (Fiji x2) GCN 1.3; 8192 (?) Cores; 8192bit 8GB HBM Q4 2015
R9 390X Fiji XT GCN 1.3; 4096 (?) Cores; 4096bit 4GB HBM Eind Q2 2015
R9 390 Fiji Pro GCN 1.3; 3840 (?) Cores; 4096bit 4GB HBM Eind Q2 2015
R9 385X Fiji CE (?) GCN 1.3; 3328 (?) Cores; 2048bit 2GB HBM (?)
R9 380X Grenada XTX (Hawaii) GCN 1.1; 2816 Cores; 512bit 4GB GDDR5 Eind Q2 2015
R9 380 Grenada Pro (Hawaii) GCN 1.1; 2560 Cores; 512bit 4GB GDDR5 Q2 2015
R9 370X Tonga XT GCN 1.2; 2048 Cores; 384bit 3GB GDDR5 Q2 2015
R9 370 Tonga Pro GCN 1.2; 1792 Cores; 256bit 2GB GDDR5 Q2 2015
R9 360X Trinidad GCN 1.3; (?) Cores; 256bit 2GB GDDR5 Maart 2015
R9 360 Trinidad GCN 1.3; (?) Cores; 256bit 2GB GDDR5 Maart 2015
Moderatie-faq Wijzig weergave

Reacties (86)

Ik had stiekum gehoopt dat AMD niet meer op 28nm zou produceren bij hun nieuwe serie.

Op dit moment verbruiken hun R200 serie veel meer energie/performance dan NVIDIA's Maxxel/GTX900 serie, ik ben bang dat dat met deze rebrand niet gaat veranderen.
20 nm en kleiner zijn peperduur, zie hier, op moment is 28 nm het goedkoopste dat ze kunnen doen, en dan optimaliseren ze liever daarop verder dan dat ze de gok nemen dat een kleiner proces binnenkort goedkoper wordt. NVidia zit ook nog op 28 nm, en ook die willen best naar 20nm, als het maar betaalbaar is.

De reden dat AMD meer stroom verbruikt is omdat ze er nog best veel in dual-precision en GPGPU-transistors hebben geinvesteerd. Voor gamers zijn die niet interessant, maar zodra je je GPU echt nuttig wilt inzetten is het een voordeel. Datzelfde had NVidia destijds met de 400-serie, die zette ook zwaar in op GPGPU, en zoop daardoor als een ketter.
De reden dat AMD meer stroom verbruikt is omdat ze er nog best veel in dual-precision en GPGPU-transistors hebben geinvesteerd. Voor gamers zijn die niet interessant, maar zodra je je GPU echt nuttig wilt inzetten is het een voordeel. Datzelfde had NVidia destijds met de 400-serie, die zette ook zwaar in op GPGPU, en zoop daardoor als een ketter.
Weet niet of ik dat zo stellig neer zou zetten. In ieder geval niet met die onderbouwing. Juist de 400 serie was de eerste stap in de goede richting. De kaarten hadden zeker 30% meer performance per watt tov de geforce 200 serie. Nvidia had traditioneel een flinke achterstand, dat was eigenlijk het keerpunt.

http://www.techpowerup.co...orce_GTX_460_1_GB/32.html

Zie ook de conclusie
Whereas the GF100 based products were plagued by excessive power consumption resulting in high temperatures and noise levels, the GTX 460 delivers massive improvements here. Essentially NVIDIA managed to reduce idle power consumption below ATI's HD 5000 levels, and gaming power consumption to slightly higher but similar levels. This improvement in power consumption trickles down to temperatures and cooler noise helping NVIDIA's new card to be able to compete there.

[Reactie gewijzigd door sdk1985 op 9 februari 2015 23:21]

"..., maar zodra je je GPU echt nuttig wilt inzetten is het een voordeel." Voor welk doelpubliek is dat dan? En is die groep dan zo interessant dat AMD hier veel werk in stak? :?
Als je eens GPGPU intikt in Google kun je redelijk snel zien dat wetenschappers die kaarten graag gebruiken, en ja, dat is een significante markt. Zo belangrijk zelfs, dat fabrikanten er extra kaarten voor ontwikkelen, de Firepro of Quadro-series bijvoorbeeld (prijskaartje vaak ruim in de 4 cijfers). Voor die kaarten is dual precision en programmeerbaarheid belangrijker dan botte game-prestaties (waar het meer om tesselation en vertices invullen gaat).
Daarvoor heb je de Workstations, bedrijfsmatige wetenschapper koopt een xeon/hoop ecc mem/quadro met eventueel een extra Tesla kaart. Maar gaat geen game station bouwen/kopen..... Wellicht een wetenschapper op budget wie thuis zit :)
is alleen wel dezelfde chip.
op practisch dezelfde kaart met voornamelijk andere drivers, en wat meer geheugen.

kortom bij het design moet je toch een zekere balans treffen tussen GPGPU prestaties en vertex en pixel shader performance.

(kortom hoeveel van je die spendeer je aan gpgpu, of veel en fantastische prestaties daar, of weinig en meer pixel en vertex shader performance op dezelfde die size)

dit is waarom de de GTX 680-770 (gk204) slechte gpgpu prestaties hebben vaak minder dan de GTX 580 bijv, maar de GTX780 TITAN etc het veel beter doen (GK210) ja ook sneller in games maar per die space trager,

voor de high end range is het voornamelijk game prestaties per die space
voor enthusiast is het betere game prestaties en voornamelijk betere gpgpu prestaties.

daarom is de gtx980 (gm204 wederom de high end kaart uit de maxwell serie) niet extreem veel sneller in gpgpu, maar vooral veel sneller per watt en die area.

en zal de gm200/gm210 hoe die ook gaat heten voor consumers dat wel zijn.
zie bijv de quadro m6000
http://wccftech.com/quadr...pu-spotted-gm200-finally/
De chips op consumenten/gamer-gpu's en workstation-gpu's zijn vaak vrijwel identiek (het verschil zit hem dan in de drivers en kleine verschillen op de printplaat). Dat is ook logisch, productieaantallen van de workstation-versies zijn veel te laag om daarvoor een apart ontwerp voor te maken. Uitzonderingen zijn er uiteraard ook.
Klopt, de overschakeling zal prijzig zijn, hopelijk kan AMD NVIDIA matchen zodat ze hun
opvolger van de R290 ook rond de 150 watt laten verstoken in plaats van 250 watt als nu.
Ik hoop zelf / denk dat wellicht alleen de Fiji core misschien wel op 20nm word gemaakt..
En dat de rest dan gewoon op 28nm word gemaakt.. Misschien lijkt dit erg onlogisch..
Maar ik denk dat de kaarten met de fiji core dan zeg maar het nieuwe product gaat worden.
Maar AMD zo iets heeft, van als je dan ook echt meer wilt dan moet je er ook maar flink meer voor betalen.. En dat het op de lagere kaarten gewoon niet rendable is om op 20nm te maken. En misschien zo meer mensen overhalen om toch een x390 te kopen..

[Reactie gewijzigd door Robin4 op 10 februari 2015 00:32]

Ja, ik hoop het ook dat ze er niet in knoeien, zodat de performance onaangetast blijft op hogere resoluties. Laat maar komen!
Wow das mega bus 4048bit k heb 256 :o
Het probleem is dat je niet enkel naar de bit rate mag kijken.

De 290x ( 380x ) heeft 512bit maar het geheugen draait effectief op 1250/1350 ( 5000Mhz of 5400Mhz ). En heeft 320GB/s a 350GB/s bandbreedte ( afhankelijk van welke kaart je hebt. Stock of after-market ).

De 390x heeft volgens de geruchten 4096bit maar het geheugen draait trager. Het gevolg is dat de 390x volgens de geruchten in de 600GB/s range aan bandbreedte zou hebben. HBM is beter wegens lagere energie gebruik, minder modules nodig ( is stacked memory ), men kan in theorie kleinere kaarten maken ( minder geheugen modules = minder plaats nodig ) enz ...

HBM geheugen is iets voor de toekomst dat kan uitbouwen / sneller gaan. Ik ben zelf van mening dat het geheugen niet echt de beperkende factor meer is, of je moet op 4k gamen ( en die lichte verbetering in graphics kost je wel enorm wat meer bandbreedte / en rekenkracht ).

Moesten we spreken over VR, waar het scherm enorm dicht bij je ogen zit en je zo een hoog mogelijk resolutie displays wilt per oog. Daar is 4K idd enorm nuttig.

Ik durf er op wedden dat er weeral mensen gaan zijn dat op men nek gaan zitten omdat ik zeg dat 4K overdreven is en dat weinig mensen het verschil gaan zien. Op een bepaalde moment zijn de verbeteringen dat je ziet minder en minder "onmerkbaar" behalve in je geldbeugel. Het is zoals de smartphone's dat constant zitten te racen voor hogere resoluties terwijl je boven de 1080p het verschil met moeite kan zien ( maar het zuipt wel meer energie om die hoge resolutie schermen aan te drijven en de backlight licht door het scherm te drijven ).
Bij smartphones is het verschil tussen 720p en 1080p heel moeilijk te zien. Tussen 1080p en 1440p zie je het verschil niet op een smartphone. Bij een monitor is dat anders. Ik kon de stap tussen 1440p en uHD prima zien. Dat komt omdat monitoren veel groter zijn.
logisch een smartphone is 200 ŗ 300 ppi, een standaard monitor 100 ppi en een 4k monitor 200 ppi
Vergeet niet dat 1440P/144hz precies dezelfde pixels/seconde is als Cinema 4K (4096x2160).
UHD 3840x2160 zit hier dus onder, dus is makkelijker voor de videokaart.

4096x2160x60= 530.841.600 pixels
2560x1440x144= 530.841.600 pixels
3840x2160x60= 497.664.000 pixels
Wat dacht je van HiDPI / Retina? Zie de iMac 5k.
Is dan ook eerste generatie van nieuwe techniek, de geschatte bandbreedte is toch behoorlijk vooruitgang. Als het goed is heeft deze eerste generatie 1TBps potentie en wellicht nog wat meer.

http://wccftech.com/sk-hy...amd-r9-390x380x-fiji-gpu/
G*dver wat een gi-gantische geheugenbus, laat maar komen! Als zo de bottleneck van het geheugen weg gaat zal crossfire ook nog beter gaan schalen. Ik ben benieuwd! :Y)
Welke bottleneck van het geheugen heb je het precies over? Crossfire beter laten scalen zal voornamelijk in het optimaliseren van games en met name de Catalyst drivers zitten. Ook kan een eventuele DirectX12 release wellicht wat extra performance toevoegen. Maar momenteel zijn zaken als microstuttering de grootste boosdoener van CF en SLI.

Uiteraard ben ik wel zeer benieuwd naar de nieuwe 3XX series, al vind ik het rebranden wel een nare gewoonte bij AMD.. Een 'oude' videokaart in een nieuw jasje steken en dan een nieuwe naam geven. Tweakers trappen hier niet in maar 'gewone' consumenten uiteraard wel.

Uiteraard gun ik AMD het beste; een tweede videokaart speler is een must-have op deze markt. Het liefst zou ik nog een grote derde speler zien maar dat gaat niet gebeuren gezien de schaalvoordelen en snel ontwikkelende markt + techniek. Mijn twee grootste problemen met AMD videokaarten momenteel zijn de hoge performance per watt en de, in mijn ogen, toch wat buggy drivers. Ik heb een aantal AMD kaarten geprobeerd (7850, 7950, R9 290 tri-x) maar ben helaas naar een relatief gezien veel duurdere Nvidia gegaan vanwege de prettigere drivers.
Zucht... OK... Nvidia GTX Lesuurtje. ik ga even snel "googelen";
310 ==> 210
620,605 ==> 520,510
770 ==> 680
760 ==> 670

Edit; (deze eve vergeten joh :X )
780 <==> titan
780Ti <==> titan black

Het punt van mijn mierenneuken is dat dit geen full-time AMD aangelegenheid is. Het is een gekende oplossing om van oudere yields af te raken, of nog geld te verdienen op oude, geteste, designs die nog steeds kunnen dienen als budgetoplossing van de nieuwere generatie. Op de meeste markten koop je inderdaad best met een gezonde blik op zaken. Deze markt is geen uitzondering. Maar ik zie nog altijd het nut in rebranden, samen met Nvidia en AMD.

[Reactie gewijzigd door egnappahz op 9 februari 2015 14:47]

Sorry, de 780 en Titan-broertjes zijn wel degelijk verschillend, in kloksnelheid en aantal shaders dat werkt. Als je de lijst wilt uitbreiden:
Het begon ooit met de 9800-serie (8800 met extra SLI-connector enzo), waarna ze uiteindelijk bakzeil haalden, en een refresh produceerden (GTX+ ), maar het idee was er. Sindsdien zijn ruwweg alle low-end kaarten (X10 tot X40) gewoonlijk rebranded, meestal 1-down van de vorige serie. Verder zijn de 750, en de hele 300 en 800-series allemaal opgewarmde restjes van de vorige ronde.
Klopt wel, maar er zit geen ton R&D tussen die kaartjes in, maar goed, rebrands zijn het niet, akkoord.
De 9800 GTX was ook op die manier aangepast;
De core draait nu op 675 MHz, 25 MHz sneller dan de 8800 GTS. Het 512 MB aan gddr3-geheugen draait 130 Mhz sneller op 1100 MHz (2200 MHz effectief) waardoor de maximale bandbreedte op 70.4 Gb/s uitkomt. De shaderfrequentie is opgehoogd van 1625 naar 1688 MHz.

Het meest interessante aan de 9800 GTX zijn de extra features. De kaart ondersteunt triple-SLI en voor eco-bewuste mensen is er Hybrid Power. Een nieuwe koeler ondersteunt variabele ventilatorsnelheden waardoor de fan alleen op zijn maximum draait wanneer het nodig is. Dit werkt effectiever en prettiger dan de fan van de 8800 GTS -- we horen duidelijk het verschil.
Dat was dus ook al direct een refresh en geen rebadging. Maar iets verder terug meen ik me wel vaag iets te herrineren in de richting van Geforce 2 MX400 en een Geforce 4 MX variant... Maar dat is meer dan 10 jaar geleden...

Los hiervan ben ik sinds dag 1 al voorstander van het rebranden van videokaarten die in productie blijven. Dat is namelijk de enige manier om zinnig een indicatie te krijgen over hoe snel een videokaart is. Het is zonder benchmarks immers onmogelijk om vast te stellen of een GTX 650Ti sneller is dan een GTX 750. Door de videokaart die in productie blijft te hernoemen weet iedereen in ieder geval waar de kaart in het product aanbod is te plaatsen. Het is niet alsof ze een budget kaart ineens als GTX Titan gaan verkopen voor 900 euro ;).

[Reactie gewijzigd door sdk1985 op 9 februari 2015 23:37]

Vaak heb je toch wel dat als je met hogere resoluties crossfire/sli gaat draaien (dan wel met 3 of meer kaarten) dat je merkt dat je geheugen het niet meer bijbeent. Zo heb je dat de 2 a 3 keer zoveel gpu power hebt (er vanuit gaande dat je 2 of 3 kaarten gebruikt) maar dat het geheugen niet mee schaalt. Zo heb je maar effectief 1/3 van je geheugenbandbreedte per kaart. En hiervoor zal het wel een grote winst zijn ;) Al wordt het allemaal (zoals ik in jou post kan lezen) wel beter en beter geoptimaliseert. :)

[Reactie gewijzigd door auto660 op 9 februari 2015 14:13]

Uiteraard ben ik wel zeer benieuwd naar de nieuwe 3XX series, al vind ik het rebranden wel een nare gewoonte van AMD en Nvidia.. Een 'oude' videokaart in een nieuw jasje steken en dan een nieuwe naam geven. Tweakers trappen hier niet in maar 'gewone' consumenten uiteraard wel.
Helaas doen beide fabrikanten het, op de desktop vind ik het nog wel meevallen. In het mobiele segment gebeurt het soms echt tot in den treure.
De reden dat ze het doen... Het werkt en ze maken de aandeelhouders blij omdat er "nieuwe" dingen kunnen worden verkocht.

Geheugen bottleneck had je zo ver ik niet bij AMD kaarten. Die worden gereleased met genoeg bandbreedte :P. Bij Nvidia komt het vaker voor, maar dit ga je pas bij echt hoge resoluties met veel AA merken (GTX960) en met name in SLI.
Een rebrand zou een hele slechte zet zijn. Zie de meerwaarde daar niet van. Je hebt dan een kaart die hooguit een paar % beter presteerd. Performance per watt is nog steeds slechter en qua prestaties red je het ook niet vs de concurrentie. Dan kun je alleen nog concurreren op prijs. Maar daar heb je geen 3xx type aanduiding voor nodig. Hopelijk komen ze toch met een update van de Hawaii chip. Een nieuwe zuinigere stepping of zo met de laatste GCN architectuur.
Toch gebeurt dat met regelmaat, ook met de huidige r9 serie en r7 series (R9 280X aka 7970, R9 270X aka Radeon 7870, R7 260X aka Radeon 7790)... Ze worden nog steeds verkocht dus blijkbaar is er gewoon een markt voor, nvidia kan er trouwens ook wel wat van hoor (en al helemaal op het mobiele platform !)....
Ja dat klopt en ik ben er niet voor. Het is gewoon de consument misleiden door ze te laten denken dat ze iets state of the art kopen terwijl het om oude producten gaat. Rebrands zijn altijd een slechte zaak. Of je ze moeten met een nieuwe stepping komen waardoor je de prestaties met meer dan 10% kan opkrikken en de featureset weer up to date kan maken. Maar met een rebrand gebeurd dat niet. Dan heb je het over 0-3% met een nieuwe naam.
De vraag is of het consumenten om de feature-set gaat, om de prestaties, of om de naam. Gezien rebrands massaal toegepast worden (sinds NVidia met de 9800 = 8800 begon) durf ik haast te gokken dat het om de naam, en de daarbij verwachte prestaties gaat. Dat wil zeggen dat de 380 ergens tussen de 370 en 390 moet presteren, en dat gaat ie ook wel doen denk ik. Of dat met GCN 1.1 of 1.3 bereikt wordt is dan niet echt interessant, hoeveel mensen gebruiken die extra features, en hoeveel weten waar het om gaat? Weinig.

Het punt is dat mensen niet weten hoe een 290 presteert ten opzichte van een 370 of 390, en dat ze dat bij een 380 wel kunnen inschatten. Daarnaast is het gratis reclame, want alleen nieuw spul wordt gereviewd. Geen hond die nu nog de 290 gaat bekijken, die zijn oud... Dat praat het niet goed, maar verklaart wel veel. Het is nu aan consumenten om rebrands al dan niet te negeren.
Tja ieder zijn eigen mening. Ik vind dat je de consument voor de gek probeerd te houden door oude producten te verkopen als nieuw. De consument denk automatisch dat een 380 beter is als een 290 terwijl het om pressies hetzelfde gaat.

Een simpele marketing slide kan de cosument ook vertellen hoe een 290 zich verhoud tot de rest van de 3xx lineup maar daar verdienen ze minder mee.

Ik weet dat het al heel lang gedaan wordt maar ik heb het toen al een slechte zaak gevonden (en dit ook uitgesproken)
En dat vind ik nu nog steeds en ik zal dat ook zo blijven verkondigen. Het is in mijn ogen niet nodig om het zo te doen. Het gaat alleen maar om de $$$.
Ok, waarschuw het Front Anti-Auto-AnalogieŽn maar vast, want we gaan er weer voor: als ik nu een 'nieuwe' auto haal, vers uit 2015, krijg ik ook gewoon dezelfde bak als in 2013, behalve dan dat ie een nieuw kleurtje heeft, en een navigatiesysteem met hopelijk de kaarten uit 2015... Als een fabrikant zegt dat het een nieuw product is, dan is het een nieuw product. Ja, ook als alleen het stickertje veranderd is. Wat zou anders het criterium moeten zijn? Minimaal 50% nieuwe onderdelen? Het verschil in hoofd-ingredient? Er zijn geen nette eisen waaraan een 'nieuw' product moet voldoen om nieuw te zijn.
De consument denk automatisch dat een 380 beter is dan een 290 terwijl het om precies hetzelfde gaat.
Daar zou ik graag wat onderbouwing van willen zien, want het enige dat mij logisch lijkt is dat de consument niet weet hoe hij die 290 moet plaatsen. Ik zou ook niet weten hoe een 6970 zich verhoudt tot een 270X, totdat ik de reviews erbij pak. Als je dat ding dan 255X noemt, dan heb ik een uitstekend idee, omdat het dan dezelfde serie is, en ik 'dus' van hoog naar laag kan indelen.
Die vergelijking gaat in mijn ogen niet op. Het is immers nog steeds een Golf 5 of 6 of Focus 3. Alleen dan een nieuw modeljaar soms met een paar nieuwe opties of een ander kleurtje meestal niet.
Ze willen alleen wel eens zeggen dat het om een nieuwe auto gaat bij een facelift. Ook niet helemaal waar maar dan is in ieder geval het uiterlijk van buiten aangepast. Soms krijgen de modellen er dan ook wat mooie opties bij die voorheen niet beschikbaar waren (maar ook niet altijd) en bij grotere facelifts krijgen ze ook een nieuw interieur.

In mijn ogen zijn de verschillen in het geval van een auto facelift groter dan bij een videokaart rebrand. En is het bij een facelift wel spraken van een "nieuwe auto" hij ziet er anders uit en er zitten mogelijk dingen op die voorheen niet te bestellen waren op die auto's.

Bij de videokaarten is dat niet het geval. Het is dezelfde chip met dezelfde mogelijkheden. Soms niet eens met een andere cooler er op.

En persoonlijk vind ik de looks van een videokaart minder belangrijk dan de looks van een auto. Maar ik snap goed dat dat een mening is die niet eerdereen zal delen.

Bij nieuwe modeljaren wordt er in auto land niet van een nieuwe auto gesproken. Verkopers die dat wel doen zijn wel heel erg. Het is niet normaal in de automarkt om dat te doen. Facelifs zoals hierboven ook al aangegeven worden vaak wel als een nieuwe auto in de markt gezet.
Bij de videokaarten is dat niet het geval. Het is dezelfde chip met dezelfde mogelijkheden. Soms niet eens met een andere cooler er op.
Een punt wat je wel hebt bij rebrands is dat de oude dure highend onverwacht betaalbare mainstream wordt.
Zoals bij de R9 280X was het dat de chip wel een rebrand was, maar de XTL versie van dezelfde chip (XT2) die vrij vlot kwam had toch wel wat verbeteringen. Wellicht niet het beste voorbeeld, omdat dit niet vanaf dag 1 bij de 280X zo was, maar wel vrij vlot dus... ik denk dat de meeste mensen wel een XTL in huis hebben gehaald.
Ik vraag me dan af: is het beter om een kaart onder nieuwe naam uit te brengen of de oude te laten bestaan, deze reviseren, een ander rev.nummer erbij plakken en het prijspeil langzaam te laten zakken? Persoonlijk klinkt dat laatste ook best verwarrend en omslachtig.

Enerzijds ben ik met je eens dat rebranden suggereert dat een bepaald product beter is dan de oude, maar anderzijds is het ook aan de consument om zelf te kijken wat ie koopt. Ik vind het meer kwalijk dat nummering soms zo onlogisch wordt, dat je niet meer goed weet wat het is. Iets dat je ook in de hand zult werken als je bijv. de R9 280X niet had uitgebracht maar gewoon te duur een XTL revisie HD7970 had verkocht. Of iets dat je veelal bij laptopkaarten vindt.
Ik heb weinig verschil gezien tussen de XT XT2 en XTL chips.
De best overclockende Tahiti die ik ooit heb gehad en nog heb is gewoon een refferenced 7970. Ik het verleden heb ik steppings gezien die meer verschil lieten zien.

Het is wel zo dat de 280X voor een aanzienlijk lagere prijs verkocht is dan de 7970. PCB is standaard iets meer cost down ontworpen. Maar in het verleden hebben we genoeg 1:1 rebrands gehad.
Imho is het gewoon heel simpel, het is een keuze tussen twee kwaden.

Of je behoud de oude naam en verwar consumenten, of je geeft de producten nieuwe namen, en je bedonder ligt je consumenten.

Zolang alle producten goed aangeven wat ze ondersteunen, zie ik geen probleem.

In ieder geval vanaf de 360 ondersteunen alle kaarten Free Sync, en TrueAudio, de vraag is alleen welke kaarten H.265 hardwarematig ondersteunen.

Persoonlijk heb ik niet zo een probleem met het her labelen van kaarten, het is voor consumenten iig een stuk duidelijker dan het vergelijken van kaarten uit verschillende series.

Daarnaast is het elke keer opnieuw de hele lijn vervangen onbetaalbaar geworden qua ontwikkelingskosten, en zullen we gewoon moeten leven met de huidige trend.

Wat ik persoonlijk wel een plus zou vinden als men dingen als UVD TrueAudio en FreeSync, toe voegt of update naar de laatste versie, en een (energie / prestatie) geoptimaliseerde versie van de huidige silicon, men weet voor een jaar al dat er een nieuwe versie komt of dat men een ontwerp gaat hergebruiken, bij hergebruik mag men van mij het ontwerp best wel wat oppoetsen en lik verf geven. ;)
Nu was het ook al lastig. Alleen GCN 1.1+ ondersteunde TrueAudio en de nieuwe hardware Crossfire techniek over de PCI-E bus.

De 280X was nog een 1.0 kaart. Kortom alleen de 260(X) en de 290(X) hadden die features (en later de 285 ook deze kan zelfs wat dingen die Hawaii (290(X)) niet kan) De 240,250, 270 en 280 kaarten ondersteunde die features niet.

Aan de andere kant hadden ze anders geen mooie product lineup gehad. Marketing technisch snap ik het wel.
Maar ik zie liever net als ik het verleden meer nieuwe chips. Zodat je een echte nieuwe lineup neer kan zetten. (zal nu wel te duur geworden zijn/te weinig op leveren)
Het probleem is volgens mij ook niet dat ze het een nieuwe "auto" noemen (nieuw als in de zin van niemand anders heeft hem voor je gebruikt). Het probleem is dat de naamgeving suggereert dat het om een andere "auto" gaat maar wat ze om en nabij doen is de ford mondeo een jaar later verkopen als een ford blamio (ofzoiets) en de naam op zo'n manier opzetten dat het lijkt alsof je een beter/ander product koopt (door een hoger nummer er op te zetten). Je krijgt ook wel een iets beter product, maar of dat een volledig nieuwe naam rechtvaardigd is de vraag. Velen hier zullen zeggen van niet. En zouden liever iets zien als ford mondeo revision 2.

[Reactie gewijzigd door Flaggie op 9 februari 2015 14:31]

Inderdaad zo had Nvidia de 680M / 775M / 870M welke allemaal dezelfde kepler gpu hadden.

4096bit 4GB HBM 8-) Klinkt erg goed, lekker snel, al vraag ik mij af of een 512bit geheugen bus al niet voldoende was geweest.. (Nvidia doet het zelfs met 256bit (wel met compressie dan).
hoe bedoeld u met mobiele platform? de k1? meende dat die flink aangepast is doormiddel van de halvering van de cores en rops
Hij bedoeld op notebook gebied. daar zijn ook flink wat rebrands gedaan door Nvidia, onder andere met de GTX7xx naar GTX8xx series
bij de 5xx serie was het al drama, met als toppunt een mix van de 555 chip, kon met de oude architectuur zijn (rebrand) of met de daadwerkelijk nieuwere.... drama...
Wat mij opvalt is de 4096bit, dat is echt veel! Persoonlijk denk ik dat de stacked ram voor een flinke verbetering gaat zorgen in de nabije toekomst, denk dan vooral aan textures van hogere resoluties waarbij je kan denken aan de Unreal Engine 4 demo. Een GTX 980 zit nog op 224gb/sec memorybandwith waar de eerste generatie stacked ram al gelijk doorgaat naar de 500gb/sec

[Reactie gewijzigd door LocK-NaH op 9 februari 2015 13:45]

Het zal heel veel verschil maken, omdat je totaal het geheugen bottleneck weg haalt met HBM.
en dat zul je ook wel zien als ze op de markt zijn :Y)
zo simpel is het niet. geheugen blijft overduidelijk een bottleneck op de gewone kaarten.


ik bedoel 4gb ram in een tijd dat games meer en betere textures krijgen.
Dat betekend dat we meer ram geheugen nodig hebben om de textures op te slaan.
Doe je dat niet dan moet de gpu dus rekenkracht verspillen aan het opnieuw verwerken van textures en worden er steeds textures geswapped wat gewoon een verspilling van rekenkracht is.
Ik heb liever dat mijnn cpu en gpu bezig zijn met het renderen van de game dan met het verwerken van textures.
of het nlou 5% of 2% verbruikt is daarbij niet interessant aangezien meer ram het probleem in zn geheel kan oplossen en niet veel extra hoeft te kosten.
Stacked ram zal ook nodig zijn om 4k schermen deftig aan te kunnen sturen, al zul je ook 8 GB vram nodig hebben vrees ik.
Ben wel echt benieuwd naar de nieuwe serie. Vooral de 390X en de 395X2 omdat ik er nu nog twijfel om een 295X2 te kopen. De 380X is geen rebrand van de 280X en 7970 toch, ik zie daar 4GB vram staan?
Volgens mij zijn dat rebrands van de 290x kaarten
Oh oke top in dat geval ben ik ook benieuwd naar de 380X.
Q4... dan klapt nVidia toch wel weer in zijn handjes..
4 maanden wachten vind ik weer net te...

Correctie:
Gaat mij niet perse om de dual kaarten (die pas q4 uitkomen)
Eind Q2 de 390.... Dan helaas nog steeds 2,5 maand wachten

keuzes keuzes

[Reactie gewijzigd door markklok op 9 februari 2015 13:26]

De 3xx komen al in Q2 de 3xx-X komen eind 2015. Het wordt dus even kijken wat de 370x en 380 gaan doen. De 380x is eind van het jaar.

De rest dus al eerder.
Ik vind je comment een heuse puinhoop. :*)
de 380x komt wss samen met de 390 en de 390x. (Het is immers een hawaii refresh, dit product heeft geen uitwerkingsperiode nodig 8)7 )

Ik verwacht eerder dat de 370 wat later zal komen.

enkel de dualkaart zal, zoals de geschiedenis het altijd al heeft gedicteerd, helemaal op het laatste komen.
Een dual-kaart is nog helemaal nooit gereleased geweest samen met de kaarten van die generatie.

Ik snap niet waarom dit zo schokkend is. de 390x en 390 gaan zowizo de kaarten zijn waar het allemaal om draait, en deze komen netjes in Q2.

Drama much?
No drama.. Alleen ff keer langs Hans Anders gezien ik het verkeerd had gelezen
Q4 is alleen voor de R9 395X2, de andere kaarten zijn allen Q2 2015
Voor de X2, dual GPU kaart ja ;)
Zeer interessante kaartjes, ben benieuwd naar de prijzen, weet iemand al iets ?
ik ben ervan overtuigd dat als we het wisten, dat we het of al verteld hadden, of niet mogen vertellen.
Met nvidia 900 serie zat ik ook niet ver naast (zo 10tje zat ik er naast xd)... Maar ik gok dat de prijzen ongeveer het zelfde zal zijn als 200 serie in het begin koste.

Dus gok daar maar op een beetje. Precies wat de prijzen zulle zijn horen we meestal 2 weken voor dat de kaart uit komt.
Even afwachten.
Jammer dat AMD niet zoveel resources kan besteden aan het redesignen van hun chip
zoals nVIDIA dit wel kon toen Nvideamen over ging van 700 serie naar de 900 serie
Met name om het gebied PERF per WATT loopt AMD achter.

Ik gun ze het beste.....
Hopelijk dat ze TOP drivers kunnen leveren. :)
Zolang de kaart nog niet op de markt is kun je geen conclusies trekken hierover.
Sowieso is het overstappen van GDDR5 naar HBM toch wel een redelijk redesign van een chip.
Het is goed mogelijk dat AMD dezelfde trucjes gaat uithalen met het verbruik dat Nvidia heeft gedaan.
Hopelijk doet AMD niet aan false advertising want die specs zien er geweldig uit.
bedenk dat dit niet vanuit AMD komt en het op dit moment puur geruchten zijn.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True