Door Jelle Stuip

Redacteur

XFX Radeon R9 380X Review

Gat in AMD's line-up gevuld

19-11-2015 • 15:00

153

Singlepage-opmaak

Conclusie

De goedkoopste Radeon R9 380 met 4GB geheugen in de Pricewatch kost ongeveer 230 euro, terwijl de goedkoopste R9 390 op een euro of 340 komt. Het prijsverschil tussen de beide videokaarten bedraagt 110 euro en daar valt de 270 euro kostende 380X mooi tussenin. Je hebt als consument nu dus meer videokaarten om uit te kiezen, terwijl AMD in feite zonder veel moeite een bestaande gpu van de plank heeft kunnen halen. Een klassieke win-winsituatie dus.

Dat wil echter niet zeggen dat we de 380X meteen boven aan onze verlanglijstjes zetten, want het hangt erg van je situatie af of de nieuwe videokaart echt interessant is. Wil je meer uitgeven dan wat een R9 380 kost, maar is een R9 390 (of GTX 970) je te duur, dan is de 270 euro kostende 380X een mooi alternatief. Bedenk dan echter wel dat de snelheidswinst ten opzichte van een gewone R9 380 maar een procent of negen is. Spaar je door voor een R9 390 of GTX 970, dan ben je meteen 340 euro kwijt, maar heb je wel een videokaart die meer dan vijfendertig procent sneller is dan een R9 380.

De 380X is wat ons betreft dus een 'gatenvuller', die het gat, dat AMD liet vallen toen het de productie van de 280X staakte, weer opvult. De prestaties zijn ongeveer gelijk aan die van een 280X, maar dan wel bij een lagere energieconsumptie en met ondersteuning voor zaken als FreeSync en brugloze CrossFire-opstellingen. De 380X is, kortom, geen spannende videokaart, maar wel een prima toevoeging aan AMD's line-up.

Reacties (153)

153
150
81
6
0
36
Wijzig sortering
Vanwaar telkens de 290 in benchmarks, ik begrijp dat de 390 een refresh is maar de kaart is toch echt wat sneller en moderner dan de 290. Enfin, zal vast een reden voor zijn.

[Reactie gewijzigd door echtwaarisdatzo op 25 juli 2024 14:07]

Om eerlijk te zijn is het enerzijds gemak; van de R9 290 hebben we destijds een reviewsample van AMD gehad, dat gewoon op de plank ligt. Die kaart kunnen we dus makkelijk opnieuw testen met de laatste driver, terwijl we een R9 390 niet meer hebben liggen.
Anderzijds is de R9 390 inderdaad niets meer dan een rebranded R9 290 met iets hogere kloksnelheden en 8GB geheugen. Aan die 8GB heb je in de praktijk vrij weinig, bleek al eens toen we de R9 390 testten, en al helemaal niet op de resoluties waarop we de 380X getest hebben. Heel veel verschil zal er dus niet zitten in de prestaties van de 290 en 390, dus vonden we het wel verantwoord om de oude 290 nog eens uit het vet te trekken :)
Dat kan ik begrijpen. De 8gb is overigens wel nuttig in een crossfire setup. Niet dat ik me daar nog mee bezig houd. Ofjah.. als ze de drivers en support een keer op orde krijgen mss.

[Reactie gewijzigd door echtwaarisdatzo op 25 juli 2024 14:07]

8 GB in crossfire nuttig? Ik zie niet hoe 2x8= 16 GB en alsnog maar 8GB gebruiken nuttig kan zijn.

Drivers en support zijn maar een paar factoren(kleine) bij wel\niet gebruik maken van 8GB VRAM.
8 GB VRAM kan iets meer FPS oplevern op hoge resolutie, maar veel sneller zal het niet draaien op een gemiddelde 1080 setup ( of zelfs twee stappen daarboven) als je 4 GB vs 8GB vergelijkt. Als je GPU geen krachtpatser is met een krappe mem bus dan heb je niets aan veel VRAM(crossfire of niet)

Een spel\applicatie moet 8 GB ook kunnen gebruiken ongeacht de drivers("kwaliteit")
Kijk maar eerst naar je GPU kracht (en mem bus) en vervolgens moet je GPU fatsoenlijk om kunnen gaan met beschikbare VRAM.

Dit is mijn basiskennis (correct me if im wrong) en een vaak gevoerde discussie op allerlei forums, hoewel het niet echt discutabel punt is als je rekenwerk snapt.
Je maakt idd een foutje in je rekensom. Het is niet 8+8 .. het is gewoon 8gb. Je vram telt niet bij elkaar op. In DX12 zou dit mogelijk gaan komen, maar daar is nog niets van terug te zien.
Helemaal bij de gtx970 in sli kan dit een issue zijn als je op hogere resoluties wilt spelen ja. Dan is 3,5gb vram te weinig.

De driver en support waar ik het over heb, staat los van de 8gb vram. Ik doelde puur op driver en support voor crossfire zelf. Sommige games werkt het niet 100% (Far cry 4 schakelt CF uit op bepaalde momenten, driver probleem) en nagenoeg altijd zijn er her en der wat flinke framedrops.
Het wordt steeds beter, maar de issues zijn er nu al jaren.

De rest van je uitleg, was me al bekend. Maar toch bedankt ;)

[Reactie gewijzigd door echtwaarisdatzo op 25 juli 2024 14:07]

Ben er blij mee, zie nou dat ik beter een tweede handsje voor 125 euro kan kopen.
Lijkt me zeker verantwoord, die 290 wordt ineens op de valreep nog 'n interessante optie. Hij is nog te koop voor maar 3 tientjes meer dan de 380X, terwijl de 290 m.u.v. Project Cars minimaal 10 fps hoger scoort, 'n paar keer zelfs >15. :P , tenzij je persé geen 'oude' kaart wilt.
De 380X lijkt me toch meer een soort van tussen oplossing...'t is 't net nie..

[Reactie gewijzigd door Arny III op 25 juli 2024 14:07]

Is die dan zoveel sneller ?
De revieuws die ik gezien heb valt dat heel erg mee.
De kaart word wel vaak aangehaald als directe concurrent van de 970. Maar in de benchmark verschijnt dan de 290. Vandaar.
En hij is wel degelijk een stukje vlotter dan de 290. Wat ik van benchmarks gezien heb, presteerde de 390 zoals de 290x.
Anoniem: 532949 19 november 2015 15:28
leuk kaartje voor wanneer je iets minder stroom verbruik wilt en vergelijkbare prestatie wilt hebben met r9 280x, maar op zichzelf is deze kaart niet zo bijzonder.

Maar waar deze kaart vooral leuk voor lijkt te zijn is CF. Want :
a) hij verbruikt minder , dit betekend ook minder warmte en dat is wel handig bij CF.
b) Je hebt dan gezamenlijk exact even veel stream processors als 1 Fury x
Verder geloof ik dat je bandbrede min of meer kunt optellen bij CF ?? in ieder geval neemt het iets toe, wat het "tekort" aan brandbrete wat opvangt. ( Zou het leuk vinden als iemand mij iets meer over dit laatste punt kan vertellen)


Verder vindt ik het jammer dat men niks zegt over OC mogelijkheden van deze kaart, want een r9 390 word wel eens tot 1200 Mhz overklocked dus ik ben wel nieuwsgierig. Zo vraag ik me af of het Voltage unlocked is ?

[Reactie gewijzigd door Anoniem: 532949 op 25 juli 2024 14:07]

Heb net even voor je gekeken en met Trixx is de spanning naar de gpu zonder problemen aan te passen tot +200mv. Voor overkloks hebben we helaas geen tijd gehad, maar op verschillende sites zie ik dat de gpu over de 1100MHz gaat, terwijl het geheugen 1600MHz+ aan kan.
Anoniem: 532949 @PiweD19 november 2015 15:51
Erg mooi, + 200mv is netjes , bedankt voor de toevoeging :)
Komt er nog echte innovatie wat betreft videokaarten met significante verbeteringen in prestaties of blijven het kleine stapjes met rebrands en hier en daar wat aanpassingen? Is dit misschien wat te kort door de bocht gesteld?
High Bandwidth Memory (HBM) is een redelijke innovatieve vernieuwing. Zit alleen niet op deze kaart omdat dit, zoals al gezegd, een rebrand is en die vorm van geheugen niet ondersteund.

Rebrands zijn helaas van alle tijden, en zullen blijven bestaan. Puur om kosten te drukken en met wat kleine veranderingen toch gaten te kunnen vullen. Daarbij is wel aan te merken dat het verbruik van de rebrands wel significant lager zijn dan het "origineel".

[Reactie gewijzigd door jaquesparblue op 25 juli 2024 14:07]

AMD heeft geen rebrands, maar een Refresh gedaan, zoveel mogelijk geoptimaliseerd, ander geheugenconfiguratie en iets zuiniger.

Toen intel hun Haswell Refresh lijn (devil canyon etc.) uit bracht zeurde niemand dat het een rebrand is (ik weet het, ander onderdeel maar het principe is hetzelfde). Nu doet AMD dat met hun videokaarten (die nog steeds makkelijk meekomen in prestaties) en iedereen zeurt dat het een rebrand is.

Ik snap de gedachtes maar hoe men er mee om gaat vind ik belachelijk om eerlijk te zeggen.
Verschil tussen Intel en de GPU-fabrikanten is wel dat Intel het typenummer voor Haswell Refresh veelal met slechts 10 verhoogde t.o.v. de Haswell-tegenhanger. GPU-fabrikanten draaien hun handen er niet voor om om gewoon het meest significante cijfer van hun typenummers (bijvoorbeeld de 3 in 380) te verhogen. Ze zetten ze daarmee in de markt als een 'nieuwe generatie' (bijvoorbeeld de 'R9 3xx generatie') terwijl Intel met Haswell Refresh duidelijk liet blijken dat het nog steeds Haswell was (Core i7-4xxx). Bij de GPU-fabrikanten geeft het typenummer nu eigenlijk meer aan in welk jaar je 't ding hebt gekocht en niet uit welk jaar de onderliggende technologie stamt.
Het zijn dan ook niet 1 op 1 rebrands maar 'refinements'. Of simpelgezegd het is niet een v1.0 die als v2.0 wordt verkocht maar gewoon een v1.1.
Het is niet gek veel anders maar doet het toch weer nipt een stukje beter en tja als dat genoeg is voor AMD om NVIDIA bij te kunnen benen dan is dat een mooie kostenbesparing in R&D die ze goed kunnen gebruiken.

Voor de mensen die een AMD 7950 of 7970 hebben aangeschaft 3 jaar geleden hebben in ieder geval een goede koop gedaan. Draaien nog steeds zo goed als alles op heel leuke framerates. Ik ben benieuwd naar de volgende generaties van zowel AMD als NVIDIA met HBM geheugen, hopelijk krijgen we dan eindelijk die overtreffende trap die 4K speelbaar maakt op een enkele videokaart. Of een plezierige ervaring geeft op 120-144Hz WQHD monitoren :).
Alleen moet je niet vergeten dat de 280X ook al een rebrand was van de 7970. Dus AMD maakt al drie generaties min of meer gebruik van dezelfde GPU met enkele (kleine) verbeteringen..

Voor mij als tweaker voelt dat toch niet helemaal lekker. Vergelijkbaar met het 3,5gb verhaal op de GTX970. De performance van de kaart veranderd niet met deze informatie, maar het voelt wel een beetje als misleiding..

Misschien heeft Sheldon dan toch gelijk: Emotie/gevoel is waardeloos ;-)
Ik heb een 7870 dat werd een edit:r9 270x en daarna een r7 370.

ownee mijn 7870 is sneller als een r7 370 omdat die gewoon alle smu's in gebruik heeft.........

Ja ze verdienen de naam rebrandeon op dit moment echt zelf.

[Reactie gewijzigd door BarnET op 25 juli 2024 14:07]

nope een 7870 werd 270x de 280 is een 7950, maar voor de prijs doen ze het nog steeds super of niet? tegenwoordig kosten ze nieuw tussen de 170 en 200 en volgens mij zijn ze dat nog steeds waard.
gewijzigt zo verwarrend is het dus... dank.

Nee dat zijn ze niet meer waard omdat DX 12 om de hoek staat en deze architectuur dat niet volledig ondersteund.

Op dit moment moet je echt doorsparen voor minstens de AMD R9 380 die wel volledige ondersteuning biest.

Als je zoals ik 2-2.5 jaar geleden die 7870 hebt gekocht. Dan kan je sel stellen dat je waar voor je geld hebt gehad.

Kost nu namelijk inderdaad nog bijna hetzelfde als toen. Het was toen een geweldige optie. Nu not so much.
dat klopt, maar goed het zelfde kan gezegd worden over gtx 9** maar dat interreseert niemad zo veel als ik zie hoeveel de 960 verkocht wordt ;p
Ik kan nog steeds met mijn 7970 4gb battlefield op ultra draaien zonder problemen. Star wars battlefront met alles op high op 1920x1200. Deze kaart heb ik nu al 3 jaar en zie nog steeds geen nut om een nieuwe te kopen.
7970 4GB? Zelf aan gemod ofzo? :p Want zover ik weet bestaat enkel de 3GB en de 6GB versie ;)
In 2016 met de verlaging van 28nm naar 14/16nm en GDDRX of HBM2.
AMD komt in 2016 met 2 nieuwe GPU brand new geen refresh etc. en de fury was toch nieuw?
Ik ben het hier volledig mee eens. Ik snap niet dat zoveel mensen AMD verdedigen terwijl ze steeds GCN spul uit 2012 opnieuw uitbrengen. Toen NVidia dat deed in de tijd van de 8800GT/9800GT/GTS250 enz. klaagde iedereen steen en been. Hopelijk straks met de die shrink van 28nm naar ??nm komt hier verandering in.
Interessante kaart, Nvidia heeft iig geen antwoord tussen de markt van de 970 en de 960 (terwijl er wel zo'n 150 euro tussenzit wat 75% van de prijs is van een 960). Zeker omdat het energieverbruik van deze kaart aardig binnen de perken blijft in vergelijking met het groene kamp.

Toch is Nvidia nog steeds zuiniger met de 970, had gehoopt dat AMD nog wat dichterbij zou komen (performance/watt in ieder geval). Het blijft dan nog steeds wachten op DX12 wat de kaarten weer gelijk gaat trekken qua verbruik (minder idle tijd op de kaart = meer verbruik = meer prestaties, AMD kaarten idlen iets meer met DX11).

En blijft het wachten op de nieuwe generatie kaarten met de bijbehorende 'die shrink'. Samen met HBM2 staat er veel te veranderen op GPU gebied.

[Reactie gewijzigd door Yamotek op 25 juli 2024 14:07]

Een kaart die minder verbruikt is natuurlijk altijd mooi meegenomen maar waar ik bijvoorbeeld naar kijk is geluidsproductie... En mijn god wat ben ik teleurgesteld in deze kaart ! Zulke waardes zijn bijna onbegrijpbaar, de 280 en 290 met stock cooling waren al abominaties en nu zijn we weer een "generatie" (rebrand) verder en nog steeds niets van geleerd... Echt een gemiste kans aangezien blijkbaar deze kaart gerust met een stillere koeler uitgerust had kunnen worden zonder echte nadelen...
Zoals in het artikel en de reacties is aangegeven is dit echter de fout van XFX, niet AMD. Ik zal even 2 relevante stukjes uit het artikel quoten:
De 380X van XFX blijkt al tijdens idle behoorlijk rumoerig. In tegenstelling tot veel andere fabrikanten heeft XFX namelijk voor een volledig actieve koeling voor zijn videokaart gekozen.
We maten een geluidsniveau dat in de buurt kwam van dat van de beruchte standaardkoeler van de R9 290. Voor een videokaart die minder warmte produceert dan een 290 en beschikt over twee ventilators die ruim voldoende luchtverplaatsing zouden moeten genereren, vinden we het geluidsniveau dan ook behoorlijk tegenvallen.
Het lijkt er dus sterk op dat XFX een verkeerde keuze heeft gemaakt qua koeler. Ik verwacht dat de kaarten van Sapphire, MSI, ASUS, Club 3d etc etc het een stuk beter gaan doen.

[edit]
Even bij de buren spieken toont aan dat de Sapphire variant van deze kaart gewoon lekker stil is. Ik schat de waarde van de nummers van hardware.info sowieso in als accurater in, tweakers zit al meteen op 30dB bij een idle test voor de laagst gemeten waarde in de tabel. Lijkt erop dat ze iets anders hebben gemeten dan het geluid van de videokaart, wellicht de CPU-koeler?

[Reactie gewijzigd door Xthemes.us op 25 juli 2024 14:07]

Dit komt waarschijnlijk omdat XFX 'maar' 90mm fans op de kaart heeft. De MSI kaarten hebben alweer 120mm fans die een stuk minder RPMs hoeven te hebben om net zoveel luchtstroom te hebben. Daarbij heb je met grotere fans ook vaker een groter oppervlak waar lucht langs kan wat ook weer positief werkt.

Deze kaart is lekker compact en 'simpel'. Maar inderdaad de koeling had wat mij betreft ook wel wat stiller gekund. Ik ga er vanuit dat andere fabrikanten er wel betere koelers op zet, de 970 met ongeveer hetzelfde verbruik is namelijk wel 'stil' te krijgen!
Mijn oude XFX 6870 zat automatisch altijd zo rond de 50% fan speed en zo'n 60c zelfs tijdens idle. dmv software zelf de fans op 20% kunnen zetten en de kaart werd toen 62c maar scheelde een bende lawaai.

Vraag mij dus af of dat met deze kaart hetzelfde zou zijn. Vond het een beetje stom.


(nu een 970 strix welke heerlijk stil is :P)

[Reactie gewijzigd door [Remmes] op 25 juli 2024 14:07]

is dan wel zuiver een fout van XFX design....

anandtech heeft een review maandag van een ASUS

[Reactie gewijzigd door d3x op 25 juli 2024 14:07]

Leuk om te zien dat de R9 290 het zo goed doet in verhouding met de GTX970. Een stock R9 290 is haast even snel (en soms sneller) dan een licht overclockte GTX970.
Toen de R9 290 uitkwam was de feitelijke tegenstander van de GTX970 de 290x, nu is dat dus verschoven naar de R9 290.

Verder mooie kaart die 380x, vult enigzins het gat tussen de 380 en 390. Nvidia heeft niks in die prijsklasse want de GTX960 trekt dat niet.
Toen de R9 290 uitkwam was de feitelijke tegenstander van de GTX970 de 290x, nu is dat dus verschoven naar de R9 290.
Toen de 290 uitkwam was er helemaal geen 970.
[...]

Toen de 290 uitkwam was er helemaal geen 970.
}:O

Je hebt gelijk de 290 werd in het begin tegen de GTX780 gepositioneerd. Wat ik had moeten zeggen is dat toen Nvidia de GTX970 had uitgebracht AMD de R9 290x in prijs heeft verlaagd om dat van de GTX970 te matchen.
Dat viel mij ook op. Dit kan alleen komen door optimalisaties van drivers.
Wat is het nut van een performance overzicht als je overclocked kaarten pakt? TPU snapt het tenminste en vergelijkt stock kaarten...
Ja, maar het gaat hier om vergelijkingen, en met stock is het tenminste eerlijk.

De andere mogelijkheid is alle mogelijke snelheden in een lijst te zetten, en dat is ook niet bepaald handig om te doen.

Nu is het een vergelijking van niks, want er zijn ook lager geclockte R9 280x'en en HD7970's verkocht. Had dan zowel de OC variant als de versie met stock clocks getest.

De prestatie-index is een leuk idee, maar de implementatie van Tweakers is nogal halfbakken. Waarom het wiel opnieuw uitvinden als je gewoon TPU kan na doen?
Omdat TPU's methode een nog vertekende beeld geeft.

De clocks van Factory OC kaarten ontlopen elkaar meestal niet zoveel. Maar de OC 's tussen verschillende kaarten verschillen soms wel behoorlijk.

Dan heb ik liever dat wordt gekeken naar de snelheid die je in de winkel koopt, dan naar een "adviessnelheid" vanuit de fabrikant.
Natuurlijk niet. We zien nu ook dat alle GTX 970's zo'n beetje even hoog klokken, al heb je een hele hoge ASIC score. Stock waarden geven een véél beter, en neutraler beeld dan de OC resultaten. Je kan al die stock 970's namelijk gewoon 5-10% bij rekenen en dan ben je er ook, maar is de relatieve performance vrijwel niet gewijzigd.

Er zijn niet zoveel speciale kaarten in GPU land. Dat doen fabrikanten je graag geloven, zodat je naar EVGA gaat en een Kingpin kaartje op de kop tikt, of een Lightning, of een Matrix. Het enige dat je daarmee wint, is dat je je misschien even speciaal 'voelt'. Maar feitelijk ben je gewoon getild tenzij je die kaarten onder LN2 zet.

[Reactie gewijzigd door Vayra op 25 juli 2024 14:07]

De clocks van Factory OC kaarten ontlopen elkaar meestal niet zoveel. Maar de OC 's tussen verschillende kaarten verschillen soms wel behoorlijk.

Excuus, ik bedoelde GPU chips.
Want je kun misschien wel bij een GTX970 overal 10% bij optellen, maar bij een Titan X kun je misschien maar 3 tot 4% optellen.

En bij een Fury X maar 2%.

Of bij een GTX950 wel 12%.
Het is eigenlijk alleen de Fury X die hier negatief opvalt door het beperkte overklokpotentieel en toevallig is dat ook de enige kaart met HBM. Een Titan X kan prima 10% bij mits goed gekoeld, net als vrijwel elke andere kaart. Dan heb je nog kaarten die soms in positieve zin opvallen, denk aan de 7950 / 7970 destijds.

Kortom, de enige reden dat relatieve performance niet klopt is door extreem slechte of goede overklokkers, en die worden er bij de review ook al gauw uit gepikt en dat geldt dan ook voor alle kaarten met die chip. Maar wat je wel *altijd* kan hebben is een kaart die niet veel verder wil klokken dan een stock waarde. Lullig als je dan op de review met OC afgegaan bent.

En last but not least, we hebben zelfs gezien dat kaarten met factory OC niet altijd even fris zijn: MSI Power Edition? En vandaag in deze review hebben we ook weer een kaart van XFX die geen goede koeloplossing heeft en dus met OC waarschijnlijk minder ver komt... al was het alleen maar doordat je anders naast een vliegtuig zit.

[Reactie gewijzigd door Vayra op 25 juli 2024 14:07]

Het enige dat je daarmee wint, is dat je je misschien even speciaal 'voelt'.
Helemaal mee eens. Jammer dat een overgrote kopers percentage zich laat misleiden en toch extra geld bereid zijn uit te geven voor imo lucht.
Toch blijf ik het vreemd vinden dat er nog maar weinig vooruitgang zit op het gebied van performance per euro. Ik heb inmiddels al ruim 2 jaar geleden een 7970 ghz edition gekocht, standaard op 1050mhz dus iets sneller dan de 280x. Deze was toen 250 euro.(Wat toen ook wel een erg goede deal was)
Maar nu ruim 2 jaar later wordt een nieuwe kaart geintroduceerd die iets langzamer is en 270 euro kost. Erg weinig vooruitgang, sterker zelfs vergeleken met 2 jaar geleden krijg je nu minder performance per euro...
Da's ook niet zo gek, we zitten al jaren op 28 nm voor beide partijen. Dat betekent dat alle winst nu uit optimalisatie moet komen, en dat doen ze al vanaf het begin. HBM is ook nog in ontwikkeling, dus over een jaartje (als 14 nm goed werkt, HBM2 er is, en men weer vooruit kan) gaat het weer hard. Nu staat de industrie even op dezelfde plek, en worden alle kleine verbeteringetjes maar doorgevoerd, maar grote klappers zijn er niet.
Het gaat inderdaad niet snel meer, de 380 is eigenlijk maar net sneller dan de 7950 boost die je ook nog voor 179 kan kopen:

pricewatch: Sapphire Radeon HD 7950 3GB GDDR5 With Boost

De 7970 is al bijna niet meer te krijgen.

Ik had gehoopt dat AMD met zijn Fury chip een nieuwe lijn aan kaarten zou opstellen ipv. voor de 3e keer de oude chips te recyclen.
Geloof me, dat zouden ze zelf ook graag willen ;) Echter is HBM nog niet zo betrouwbaar dat ze het overal op kunnen doen, de productielijnen zijn nog 'nieuw', de programmas zullen er nog goed mee om moeten leren gaan, en eigenlijk is het wachten op HBM2 waarbij de bandbreedte nog veel groter wordt.

Daarnaast, TSMC heeft de 22 nm al in 2010 geschrapt, en hun 20 nm bleek ook een grote rotzooi, waardoor alles wat daarvoor geplanned was toch op de oude 28 nm moest gebeuren. GloFo (AMDs huisproducent) wist ook al geen redelijke 20 nm te bakken, eigenlijk alles in die range was low-power only, en de grote klapper moe(s)t komen van 14-16 nm FinFETs. Die moeten nog komen, ergens eind 2016 komen de eerste verkoopbare chips daarvan op de markt.
Intel heeft er een goeie slag mee geslagen (die bakken al even op 14 nm), dus dan wordt het weer leuk.

Overigens was het rond 40 nm ook een tijd zo, 28 nm schoot ook voor geen meter op eerst. That's life, op die schaal.
Nvidia heeft op de 28nm toch behoorlijk winst weten te halen als je kijkt naar de GTX 7x0 serie vergeleken met de GTX 9x0 serie.
Helemaal in performence per Watt.
Ook dat is vooral te danken aan een "truukje": minder preciesie met het berekenen als ik het goed heb.Dat scheelt rekenwerk, dus hitte.
Die maatregel is niet onbelangrijk, want ten opzichte van de R9 280 en 280X is de geheugenbus versmald van 384 naar 256bit. Bovendien is het gddr5-geheugen wat lager geklokt, waardoor er een stuk minder bandbreedte beschikbaar is. De hoeveelheid geheugen is wel toegenomen, van 3GB op de R9 280-kaarten naar 4GB voor de 380X
Wat mij betreft een gemiste kans dat AMD niet de nieuwe technieken heeft gebruikt om een beetje de "wauw" factor terug te halen. Met gelijke bus en de nieuwe geheugenbandbreedte had de kaart vermoedelijk in een aantal games een stuk beter gepresteerd dan de 280X.

In dit segment is het belangrijk de consument het idee te geven dat hij een koopje scoort. Immers de superieure kaarten zitten er niet heel ver vanaf qua prijs, maar niet iedereen is bereid over de 300 euro te gaan. Zo was de GTX 660 Ti een goedkope variant van een GTX 680 en dat verhaal verkoopt. Nu betaal je extra voor een erg zorgvuldig gepositioneerde kaart waarvan het prestatie verschil tov de goedkopere 380(zonder X) meer op een factory OC lijkt. Geen reden om de kaart meteen af te doen maar ook zeker geen reden om naar de winkel te rennen. Dat laatste heeft AMD nu net hard nodig.

Nvidia’s discrete desktop GPU market share hits highest level ever – Mercury Research

[Reactie gewijzigd door sdk1985 op 25 juli 2024 14:07]

Anoniem: 532949 @sdk198519 november 2015 15:32
Helemaal met je eens, een van de vele voorbeelden van AMD's gebrekkige marketing, dat is wat het bedrijf langzaam sloopt, niet het gebrek aan goede producten.
Zelf wel net een amd r9 390 gekocht maar dat komt niet dankzij hun zo "goede" marketing ;)
AMD prijst de 380X aan voor 1440p gaming. Slaan ze toch behoorlijk de plank mis. 1080p medium-high settings daar is deze kaart voor bedoeld.
"De goedkoopste Radeon R9 380 met 4GB geheugen in de Pricewatch kost ongeveer 230 euro, terwijl de goedkoopste R9 390 op een euro of 340 komt. Het prijsverschil tussen de beide videokaarten bedraagt 120 euro"

Dus het is begrijpelijk dat AMD het gat van 130 euro wilde opvullen, want een sprong van 140 euro is best groot tussen 2 kaarten. Niet iedereen heeft een budget wat óf 150 euro erop óf 160 euro eronder is.


(jaja, ik begrijp dat het prijsverschil wss 120 euro is als je de niet-afgeronde prijzen vergelijkt)

[Reactie gewijzigd door Meidengroep op 25 juli 2024 14:07]

Het is vooral een kleinere stap om toch de duurdere kaarten te nemen.

Psychologisch werkt dat zo. Als je een nieuwe kaart wil kopen en je denkt aan misschien een 380, dan denk je nu misschien: "380x is maar een paar tientjes duurder, kan ik net zo goed die nemen, langer plezier van dezelfde videokaart". Maar dan als je aan dat idee gewend bent, dan is de stap naar een 390 ineens ook weer kleiner. Hoe meer keuze mensen denken te hebben in de verschillende prijsklassen, hoe meer van de duurste producten verkocht worden.
Jammer van de 4 gb met ook nog eens erg traag geheugen in vergelijking met de 280x tenzij dat een foutje is...
Dat word dus toch een 390 met 8gb.

Ik blijf erbij dat het veel effect gaat hebben in de komende 2 jaar.

Plus dat je voor iets meer wel veel meer prestatie krijgt en het dus veelmeer waar voor je geld is.
Deze kaart had pas interessant geweest op een prijspunt rond de 230 euro.

Hij word immers met de grond gelijk gemaakt door de goedkopere ne oudere 280x.

[Reactie gewijzigd door computerjunky op 25 juli 2024 14:07]

Dat hij trager geheugen heeft belemmert hem niet omdat hij een nieuwere vorm van Delta Color Compression heeft die de 280x niet heeft. Ze besparen daar in een boel situaties veel bandbreedte mee (net zoals Nvidia met de 9xx lijn).

Hij presteerd gelijk met de oudere 280x terwijl hij minder stroom gebruikt. Dat de oudere 280x zo goedkoop is komt omdat hij aan het einde van zijn life cycle is en dus voor een dump prijs wordt weggedaan.

Wat wel waar is is dat de 380x eigenlijk alleen interessant is als je voorheen een tragere kaart had en nu een upgrade nodig hebt. Als je een HD79xx/280(x)/GTX680/GTX770 hebt dan bied de kaart weinig meerwaarde en zal hij maar een klein beetje sneller zijn.

De 390 is inderdaad de betere kaart, maar die bevind zich ook in een andere prijsklasse. Je kan natuurlijk geen wonderen verwachten van 256 meer shaders ten opzichte van de 380.

Op dit item kan niet meer gereageerd worden.