Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

AMD zet naam 'Radeon RX 500X Serie' op zijn site

AMD noemt de naam Radeon RX 500X Series op zijn site, zonder verdere details over de nieuwe serie videokaarten te geven. Vermoedelijk gaat het om kaarten op basis van de Polaris-gpu met wat hogere kloksnelheden dan de RX 500-serie.

AMD heeft de Radeon RX 500X-serie nog niet officieel aangekondigd en niet duidelijk is wanneer de kaarten beschikbaar komen, maar de pagina voor de serie staat online. De naam verschijnt een week nadat TweakTown het gerucht plaatste dat AMD met deze serie zou komen.

Volgens de techsite gaat het om kaarten die 5 tot 6 procent sneller zijn dan de huidige Radeon RX 500-kaarten, maar bevatten ze verder niets nieuws. De 500X-kaarten zouden in juni of juli moeten verschijnen.

De Radeon RX 580- en 570-kaarten verschenen een jaar geleden en waren al rebrands van de RX 480- en 470-kaarten met iets hogere kloksnelheden. De kaarten zijn opgetrokken rond de Polaris-gpu van AMD.

Door

Nieuwscoördinator

93 Linkedin Google+

Reacties (93)

Wijzig sortering
Inmiddels lijkt de pagina alweer offline te zijn... "nothing here matches your search" als je de link in het artikel volgt.
Volgens mij gaat het erom dat de categorie bestaat. Als je bovenaan in de breadcrumbs kijkt, staat er: RX Series > RX 500X Series. Er staan geen producten onder (vandaar de nothing matches your search), maar de categorie bestaat nog steeds.
Ergens in de code stond toch het volgende lijstje verborgen:
540X
550X
560X
570X
580X

Dus dan gaat het om Polaris 10 11 en 12.
Slim, Polaris nog wat uimelken zodat ze tijd maken om vega verder te ontwikkelen.
zolang deze kaarten nog goed minen worden ze wel verkocht.
Ik vind het zo vreemd dat de Vega GPUs maar niet echt beschikbaar worden. De twee Vega GPUs zijn inmiddels 8 maanden uit. Maar er is nooit een echte hele line-up van budget to extreme prestaties gekomen.

Ik zou heel benieuwd zijn naar een wat langer artikel over wat hier nu achter zit.
Er gaat ook geen budget versie uitkomen, Vega werkt enkel met HBM2 geheugen en dat is nu eenmaal te duur om er een budget reeks mee te maken.
De Ryzen 2200g en 2400g hebben toch ook Vega based GPUs? Lijkt me dat ze prima een scaled down vega kunnen maken die met gddr5 overweg kan dan toch?

Ik meen me herinneren dat er laatst ook een referentie naar "Vega 20" opdook in linux drivers
Die APU's pakken het RAM, Ram is vele malen sneller dan gddr5. Dus dit met elkaar vergelijken is niet geheel correct, ram en HBM kunnen beide enorme hoeveelheden data aan in vergelijking tot gddr.
Ram is vele malen sneller dan gddr5.
Eh nope? een Ryzen heeft dual channel geheugen dus kan 128 bits per clock cycle heen en weer pompen, zeg op 3200 mhz (als we even optimistisch zijn), gddr5 klokt ondertussen makkelijk voorbij de 6 GHz effectief, en elke mid-range kaart heeft ook gewoon een 128 (of 192/256) bits bus, effectieve bandbreedte van een GTX 1050 met gddr5 ligt twee keer zo hoog als die van een Ryzen met latjes ddr4.
Sneller niet in de hoeveelheid data maar latency.
klopt, maar latency is juist minder belangrijk, gpus handelen in grote brokken data (frames, textures)
bandbreedte wel, latency ligt wel hoger ;). Sowieso is vergelijken moeilijk :-).
De bandbreedte van RAM gecombineerd met een Ryzen CPU zit net onder de 40GBps. GDDR5 zit meestal in de honderdtallen. Dus nee, GDDR5 is sneller
In afgelopen generaties waren er soms meerdere chips, ander geheugen (GDDR3/4/5) en zelfs andere features die elke kaart aan konden. Dat hield zowel AMD als nVidia niet tegen om de hele serie dezelfde naam te geven :).
Fout. Vega is een ontwerp en niet één product, en het is wel degelijk schaalbaar, en gaat ook prima in combinatie met ander geheugen werken, mits AMD dat als zodanig ontwikkelt.

Dat Vega 56 en 64 alleen in die twee smaken uit zijn gekomen komt omdat het toen al met veel kunst en vliegwerk tot een release kwam, en die release viel zwaar tegen. Desondanks gaat het ontwikkelen door en daarom zie je nu Vega 20 enzovoort verschijnen.

Maar een grotere Vega met GDDR5 zal niet gaan werken, simpelweg omdat het TDP budget er niet is en/of die combinatie niet leidt tot een snellere GPU of tot een kosteneffectieve GPU voor het midrange/high end segment en ertussenin. Je hebt dus Polaris RX580 voor de midrange en daarboven Vega 56 en 64 voor de slots tot aan de GTX 1080. Daartussen is eigenlijk ook geen ruimte voor een Vega met GDDR5, het is de moeite niet om alleen voor dat gaatje een heel apart proces in te richten, zeker niet omdat we al 2 jaar tegen Pascal aan kijken.
Vega is bandwidth starved, daarom wil hij niet lekker combineren met gddr5. In vergelijking met hbm is dat nu eenmaal inferieur.
Nouja welke iteratie van Vega... als je het hebt over de APUs dan ja, zeker waar, maar een full fat Vega 56 of 64 zou met 512 bit nog nét aan kunnen denk ik nu AMD ook wat delta compressie toepast.

Tja en 'inferieur'... dat is ook betrekkelijk. VRAM moet er gewoon voldoende zijn met voldoende bandbreedte, 'teveel' levert je geen enkele FPS extra op.

[Reactie gewijzigd door Vayra op 10 april 2018 08:55]

Als je de marketing slides van HBM bekijkt dan is het nogal een verschil. Volgens de officiele lezing is HBM 400% sneller dan GDDR5 en is HBM2 op zijn beurt weer 100% sneller. Het stroomverbruik daalt respectievelijk met 48% en 8%. Dat scheelt nogal wat. Met die getallen durf ik GDDR5 best inferieur te noemen.

Gamer nexus had er vorig jaar een stukje over, waarbij ook over 512 bit werd gepraat.
We also know that an RX 480 uses 40-50W for its 8GB, which is already a significant increase in power consumption per-GB over Vega: FE. The RX 480 also has a memory bandwidth of 256GB/s with 8GB GDDR5, versus Vega 64’s 484GB/s. The result is increased bandwidth, the same capacity, and lower power consumption, but at higher cost to build. In order for an RX 480 to hypothetically reach similar bandwidth, power consumption would increase significantly. Buildzoid calculates that a hypothetical 384-bit GDDR5 bus on Polaris architecture would push 60-75W, and an imaginary 512-bit bus would do 80-100W. For this reason alone, HBM2 saves AMD from high power budget that would otherwise be spent solely on memory. This comes down to architectural decisions made years ago by AMD, which are most readily solved for with HBM2, as HBM2 provides greater bandwidth per watt than GDDR5. HBM is effectively a necessity to make Vega at least somewhat power efficient while keeping the higher memory bandwidth. Imagine Vega 56, 64, or FE drawing an additional 70-100W – the world wouldn’t have it, and it’d be among the hottest cards since the GTX 480 or R9 290X.

The Vega architecture is clearly starved by memory bandwidth, too: Overclocking HBM2 alone shows this, as its gains are greater than just core clock increases. AMD didn’t have another choice but to go with HBM2, even though costs would be roughly one-third on the memory. GDDR5 might be possible, but not without blowing power consumption through the roof or losing on performance by limiting bandwidth.

AMD provided GN with a statement pertaining to choices revolving around HBM2, which reads as follows:
“AMD chose HBM2 memory for Vega because this advanced memory technology has clear benefits on multiple fronts. HBM2 is a second-generation product that offers nearly twice the bandwidth per pin of first-generation HBM thanks to various refinements.
“As we noted in the Vega whitepaper, HBM2 offers over 3x the bandwidth per watt compared to GDDR5. Each stack of HBM2 has a wide, dedicated 1024-bit interface, allowing the memory devices to run at relatively low clock speeds while delivering tremendous bandwidth. Also, thanks to die stacking and the use of an interposer, Vega with HBM2 achieves a 75% smaller physical footprint for the GPU die plus memories versus a comparable GDDR5 solution.
“The combination of high bandwidth, excellent power efficiency, and a compact physical footprint made HBM2 a clear choice for Vega. We have no plans to step back to GDDR5.”
AMD ended up opting for two stacks of HBM2 on the current Vega cards, which limits its bandwidth to Fury X bandwidth (2x 1024-bit Vega vs. 4x 1024-bit Fury X), ultimately, but AMD does benefit in the bandwidth-per-watt category. That’s the crux of this decision.
Wat dat betreft is de performance lead van Nvidia eigenlijk best indrukwekkend. De 1070 moest het immers ook met trage en onzuinige GDDR5 doen (de 1080 kreeg het snellere GDDR5X). Ondanks dat zijn de Nvidia kaarten flink zuiniger en, buiten DX12 om, min of meer even snel als de Vega56. Stel je voor dat Nvidia de 1070 GDDR5X had gegeven en de 1080 HBM2...

[Reactie gewijzigd door sdk1985 op 10 april 2018 15:52]

Top linkje, ik zet alleen een groot vraagteken bij de bandwidth starvation die wordt genoemd, want de Vega core is pok weer niet zo snel. Dat kan maar een ding betekenen: AMD laat veel meer data over dat VRAM gaan terwijl dat waarschijnlijk totaal niet hoeft. Want wat jij ook zegt: Nvidia lukt het prima met een 1070.
Wellicht is delta color compression de truuk. Nvidia ging er met de presentatie van de 1080 prat op de nieuwste delta color compression techniek. AMD gaf bij vega aan met hun nieuwe dcc 20-30% verbetering te hebben gehaald.

Wat dat betreft wordt memory bandwidth een beetje hetzelfde als Mhz, het zegt alleen binnen dezelfde generatie nog iets.
Miners, vega's minen nog steeds profitable, zeker met de recente forks waardoor asics zijn uitgeschakeld, 1 vega haalt nog zo 5 euro per dag binnen.
Slim misschien, maar wel een beetje zorgwekkend dat AMD niet beter lijkt te kunnen op dit moment.

Polaris is nu al zo'n twee jaar oud, en was eigenlijk al een beetje achterhaald toen het uitkwam. (Polaris is niet veel meer dan een die shrink van de architectuur in de Fury/Fury X en de Radeon R9 285 uit 2014). Hoewel Vega geen daverend succes is als onderdeel van de Vega 56 en 64 - en dat komt met name omdat AMD te hard met kloksnelheid probeert bij Nvidia in de buurt te blijven - laat de architectuur o.a. in de nieuwe Ryzen APUs wel zien dat het een wat efficientere architectuur is en in het algemeen een goede ontwikkeling is.

In feite zou AMD theoretisch in plaats van een chip met 36 Polaris compute units zoals de RX580 ook een chip met 32 of 36 Vega compute units uit kunnen brengen die waarschijnlijk efficienter is en meer doorontwikkelingsmogelijkheden heeft. Maar dat gaat AMD klaarblijkelijk niet lukken, ondanks dat ze al bijna twee jaar met Polaris doen.

Aan de andere kant, waarschijnlijk heeft AMD bedacht dat ze toch nog steeds al hun voorraad sowieso verkopen aan miners. Dus misschien doen ze dit alleen omdat ze het prima vinden.
Ach ja, Pascal ligt ook al 2 jaar op de markt he. Maar inderdaad, AMD heeft financieel grote problemen om aan nieuwe architecturen te werken.

Het probleem met een kleinere Vega-GPU is dat AMD dan HBM2 geheugen moet plaatsen, wat enorm duur is en lastig is te krijgen.
De mining bubbel lijkt overigens op een einde te komen getuige V&A, dus dat probleem valt ook steeds meer mee.
De prijzen stabiliseren helaas nog niet zo snel.
komt omdat de verkopers nog zolang mogelijk aan de mentaliteit van kaarten zijn duur vast willen houden , ook is de vraag & aanbod verandert.
In nederland was mining toch al niet aantrekkelijk in vergelijking met andere landen maar toch waren de prijzen hoog.

Het zal me niks verbazen dat de prijs niet langzaam gaat dalen maar heel snel in een korte periode omdat er dan enkele partijen beginnen en dat een prijsoorlog creëert.
Van mij mag het.
Idem, ik wacht op 4 GPUtjes om in een gaming machine te steken :)
Quad SLI/Fire is al een jaar of acht totaal niet meer interessant. Het schaalt voor geen meter en de support is totaal waardeloos. En zelfs 2 kaarten is af te raden tegenwoordig aangezien de midrange al geen SLI vingers meer krijgt. Maw je bent een niche en daar wordt zelden voor geoptimaliseerd.

[Reactie gewijzigd door Vayra op 10 april 2018 08:58]

Ik ga ze in een Unraid box steken zodat je met vier mensen op één machine kan spelen. :)
De voorraaden lopen op, maar de winkels speculeren nog steeds met hun voorraad VGA kaarten, ik denk dat er straks een complete armada komt van 2e hands kaarten (het is al begonnen) en inherent hieraan verwacht ik flinke prijsdalingen van de nieuwe kaarten.

Eind november 2017, tijdens de black friday sale zag je nog 1070's, meestal de rumoerige founders editions, voor 379 euro weggaan en RX570 4GB voor 169 euro.
Ben benieuwd hoe lang het duurt eer dat het weer op dit niveau is, of zelfs lager.
Ja terechte opmerking over Pascal. De ontwikkeling is weg uit de GPU-markt: de volgende mainstream GPU-serie van Nvidia zou volgens geruchten ook weer een verfijning worden van Pascal (dat alleen een die shrink was van Maxwell).

Ik zie trouwens nu al twee keer genoemd dat Vega HBM2 nodig zou hebben, maar dat is volgens mij nergens op gebaseerd. De memory controller moet uitwisselbaar zijn: Vega in de nieuwe Ryzen APU's maakt gebruik van DDR4 (via de CPU memory controller), en bijvoorbeeld de R9 285 had dezelfde architectuur als Fury, maar maakte ook gebruik van conventioneel GDDR5 geheugen in plaats van HBM op de Fury.
Vega''s zijn juist nog zeer profitabel om te minen, bitcoin moet ng heel erg veel zakken voordat een vega niet meer profitable mined, die kaart mined nog makkelijk 5 euro per dag per kaart jammer genoeg.
eerst komt toch nog de Refesh van vega ?
Vega FE, Vega 56 en Vega 64 delen dezelfde PCB/VRM. Dat doe je alleen om kosten te besparen. Zie ook https://www.gamersnexus.n...2-and-necessity-to-use-it . Een wat grotere Polaris voor het $399 segment in 2016 had eigenlijk nog logischer geweest. Nu had Nvidia een jaar lang het alleen recht. Gezien de winkelprijzen van Vega hebben ze dat effectief nog steeds.
Zou de X staan voor GDDR5X? Dat zou erg positief zijn omdat mining op GDDR5X nog altijd lastig is terwijl games er meer voordeel van hebben.
Was AMD niet hoog aan het inzetten op HBM? Want dan lijkt me dat een meer logische keuze.

[Reactie gewijzigd door xoleum op 9 april 2018 12:03]

Dat was het idee nog voordat het begon aan het ontwerp van Vega. We kunnen nu achteraf wel concluderen dat HBM2 erg lastig te leveren is en ook erg prijzig is. AMD heeft een beetje op het verkeerde paard gewed wat dat betreft, al is de techniek zelf wel dikke prima.
je hoort vaak nieuw over dat er een stap naar kleinere die zit aan te komen met cpu's (7nm) en gpu's.
Maar gezien er een x komt en niet naar 600serie neem ik aan dat het niet met deze rebrand zal gebeuren.

Jammer want de meeste performance winst lijkt toch vaak door de die shrink te komen.
Als Intel een die shrink doorvoert dan noemen ze het de tick tock principe maar als AMD het doet noemt men het een rebrand.

Het lijkt erop dat AMD altijd negatief word aangekeken op alles wat ze doen, terwijl ze gewoon goede en betaalbare producten maken met de weinige middelen die ze hebben.
uhm ik snap niet waar je het over hebt.
Ik zeg juist dat ik geen die shrink verwacht (vooral met maar 5-6% performance winst)

As het een 600 serie benaming was kan het nog steeds een rebrand genoemd worden maar zie ik een hogere kans van een die shrink.
De Geforce 800 series werd volgens mij ook een rebrand genoemd.
Vroeger werd de term rebrand vaker gebruikt dwanneer dezelfde architectuur gebruikt wordt en minimale verbetering plaats vindt.
Wacht nog steeds op een goed alternatief voor mijn r9 290
Inderdaad. Bezit zelf een R9 290x en heb nog geen zin om een upgrade te doen. Dan heb ik hem nog niet eens overclocked. Maar goed, nieuwere kaarten zijn wel sneller en beter, maar de prijzen die er voor gevraagd worden, voor de hoeveelheid dat ze beter zijn. Nah, wacht wel even.
Of die 580X moet voor een vriendelijke prijs worden aangeboden dan wil ik er wel naar kijken. bezit een R9 290 op dit moment. (en qua prestaties moet ik er wel merkbaar op vooruit gaan. geen 3fps meer in battlefield of dat soort flauwekul)
Zelfde verhaal hier. Al is een Vega 56 in theorie een mooie vervanger met zijn $400 msrp.
In de echte wereld komt daar natuurlijk maar weinig van terecht, maar toch.
Wacht nog steeds op een goed alternatief voor mijn r9 290
Die was er al in 2016 in de vorm van de GTX 1070. Een TDP van 150W ipv 290W en een pak hem beet 50% hogere score. Helaas wel 100 euro duurder dan de R9 290 destijds.

[Reactie gewijzigd door sdk1985 op 10 april 2018 06:29]

Dat is een mooie optie.
Alleen heeft die geen free sync voor mij lc ultra wide.
Ik heb 200 euro voor een review kaart betaald met nog geruime garantie erop.
Dus in mijn geval is die 200-300 euro duurder dan mijn r9 290 en dat vind ik iets te prijzig.
Het beste alternatief voor een 290 of 290X is een elektrische kachel :+
Ik heb 2x 290 in Crossfire gehad, dat was inderdaad wel lekker in de winter hoor :+
Combineren met een fx8350 en je kan je CV de deur uit doen
CV's op gas moeten toch weg van de overheid :Y)
en voor de strengere winters een FX9590 :P
Poeh. nou dan zit je er warmpjes bij. Dat ding trekt zelfs mijn H100i niet meer volgens mij. Waterleiding erop aansluiten dan kan er iemand douchen tijdens een benchmark
Ook een 8350 kan je op 9590 niveau trekken qua verbruik hoor. Gewoon wat geluk hebben dat de chip op 5GHz draaien wil. :P
het alternatief is een GTX 980TI
1 woord: GPP

AMD moet echt iets gaan doen voordat ze failiet gaan.
Nog een rebrand van de RX 480, lijkt wel de HD7970 all over again.

[Reactie gewijzigd door Djonny op 9 april 2018 09:01]

Is dat ernstig? En de vraag stel ik serieus. Ik zie namelijk de HD7970 als één van de beste kaarten van afgelopen jaar. Deze kaart kon gewoon niet kapot.
Is dat ernstig? En de vraag stel ik serieus. Ik zie namelijk de HD7970 als één van de beste kaarten van afgelopen jaar. Deze kaart kon gewoon niet kapot.
De Radeon HD 7970 is wel een kaart uit januari 2012. Dat uitmelken is dan wel erg succesvol als je er zes jaar later nog rebrands van kan maken.

Stilstand is achteruitgang hier, waar deze kaarten ooit meededen in het high-end segment is de RX 580 een midrange kaart en tot de komst van Vega was het de beste kaart die AMD kon bieden. Nvidia zit niet stil in de ontwikkelingen en die domineert nu het high-end segment met de 1070 Ti, 1080 en 1080 Ti. Naar verwachting brengt Nvidia ergens dit jaar de opvolger uit van Pascal, een rebrand van de RX 5xx serie zal dan niet meer helpen.
,,, ik speel nog dagelijks mijn spelletjes met een 7850 2gb :+

Wat jij midrange noemt is meer Nvidia marketing bs, ook met AMD kaarten kan je gewoon goed gamen. Moet je geen Nvidia propiatary spellen willen spelen want deze zijn softwarematig gewoon gemaakt om brak te draaien op alles wat geen Nvidia heet.

Het meeste slechte wat je kan zeggen van AMD heeft te maken met de beschikbaarheid / prijs van hun kaarten maar dat is al zo lang en breed uitgemeten ( mining... ) dat ik daar hopelijk niet opnieuw aan hoef te beginnen.

Niet het absolute topmodel hebben is helemaal niet erg, als je maar competitief bent in het middensegment waar de grootste afzet en dus de meeste marge is te halen.
Wat jij midrange noemt is meer Nvidia marketing bs, ook met AMD kaarten kan je gewoon goed gamen.
De RX 580 kan de GTX 1060 bijhouden. Van alles wat daarboven zit verliest de RX 580 onherroepelijk. Dat is dus midrange segment. Vega was bedoeld om te concurreren in het high-end segment.

Ik zeg niet dat er niet te gamen valt op AMD kaarten, maar als je veeleisend wordt (alle instellingen op Ultra, 144 fps of gamen in 4K) dan kan je beter de RX 580 laten staan, je hebt dan een kaart uit het high-end segment nodig. En daar is Nvidia nu al geruime tijd de enige speler.
Alles wat op DX12 draait gaat beter op 580 volgens mij? Maar ok, niet veel spellen die dx12 benutten jammer genoeg.

Vega kan best 144hz schermen aansturen of 4k -> https://m.hardocp.com/art...a_64_4k_video_card_review

Maar dan kom je weer op prijs en beschikbaarheid en DUS weer op de mining hype...
het is maar hoe zwaar je kickt op die 60+fps. Ik heb me vorig jaar, vlak voor de release van vega, een RX580 aangeschaft voor 306 euro, verzending inbegrepen, daarvoor had ik een R290, die spijtig genoeg overleed. Ik kan vlot Kingdom Come Deliverence spelen op 2560x1440, met settings in high en med, en ik haal in de steden vlot 55fps.
De schaduw in de verte is misschien niet zo'n vlotte lijn, en de wolken worden misschien niet (mooi) weerspiegeld in de waterplassen op straat, maar met de 500 euro die me dat bespaard kan ik nu een villaatje huren op het Deense platteland voor een week.

Dus het is inderdaad maar wat je wil. Qua bang for the bucks denk ik dat ik toen wel een slag geslagen heb, zeker als ik de prijzen van die kaarten nu zie.
Dat AMD die chips blijft hergebruiken wil toch aantonen dat ze, mits nieuwe drivers (en Dx12?), in se een goed ontwerp hadden.
Klopt. Ik heb ook een Sapphire voor 319 aangeschaft, in 1ste instantie voor mijn zoontje bedoeld. Ik heb tevens een GTX1070. De GTX1070 haalt absoluut meer frames, maar toch geniet ik meer met de RX 580 in mijn systeem. Ik zit op 1440p met freesync te gamen, meestal toch wel hoogste instellingen. Mijn zoontje gebruikt de GTX 1070. (Trouwens ook overkill voor hem). Wanneer de prijzen zakken, verpats ik de GTX 1070 en schaf ik me een andere AMD kaart aan!
Alle marketing ten spijt, ik speel sinds 2013 op een 7970 en ik heb met geen enkele game last, zelfs op 1440p geen problemen. Met Far Cry 5 dacht ik de eerste problemen te ondervinden maar ook niet, average 45fps op 1440p, ik vind het prima. Ik wacht ook nog met een upgrade aangezien ik geen enkele reden zie om dat nu te doen.
Nee hoor, de 7970 was een erg goede kaart die de tijd goed doorstaan heeft.
Heb er anders een hoop ten onder zien gaan. Bga fails etc. Niet zo erg als bij de nvidia 8800 series. Maar wel fors meer dan de rest van de kaarten op de markt.
Mijn arme 8800 gtx, de gt(s) had hier toch al minder last van? Ook de ultra's nooit echt wat over gehoord.

OT;5-6% sneller, maar dan ook de prijs daar lineair mee verhogen? :+
Volgens begon het juist bij de 8xxx series?

Vooral veel laptops met nvidia chips uit die generatie zag ik ten onder gaan.
Was vooral een laptop dingetje voor zover ik me herinner inderdaad, en dan vooral de 8400s en 8600s in macbooks sneuvelden vaak, ik geloof dat het een combo van RoHS soldeer en gebrekkig koelontwerp was (zie ook de eerste Xbox 360s)
Het soldeer inderdaad. Naast volgens mij was de methode van bga packages ontwerpen toen nog vrij nieuwe. Pcb's flexden niet op dezelfde manier als de substrate waardoor het soldeer ging barsten etc.
Oh kan goed dat inderdaad BGA packaging er ook wat mee te maken had, zo goed lette ik destijds niet op laptop chips
mijn HD 7870 doet het nog steeds na >5 jaar... HD 7770 ook.

Enkel een (zwaar OC'd) HD 7950 van de eerste dagen [reference design met blower], van een neef is kapot gegaan na 2 jaar intensief gebruik. Hij heeft meteen een HD7970 gekocht (toen nog net te koop tussen de rebrands), wat nog steeds fantastisch werkt, zelf met OC en intensief gebruik.

Nu ja een geval is het andere niet. Op een paar samples kan ik maar weinig statistiek doen.
Dit zijn even de cijfers die ik tegen kwam.

https://hardforum.com/threads/amd-failure-rates.1861702/

Maar kwam ooit cijfers tegen waar bijvoorbeeld XFX failure rates over de 20% had die generatie.
Dat was toen mining serious een ding werd, en de kaarten waren er toen zeker niet op berekend. nvidia was toen helemaal nuttenloos met mining dus had helemaal geen last van.

kan me dus goed voorstellen dat dat het verschil verklaard. (ook omdat het vooral de 7970 en 7950 waren. de 2 mining kaarten bij uitstek. de 7850/70 waren gewoon in lijn met alle andere, inclusief nvidia)

[Reactie gewijzigd door Countess op 9 april 2018 12:50]

ja volgens andere website dat ik volg, is er een vergelijkbare trend. Zelf binnen de Nvidia familie zijn er grote verschillen, waarbij de 1080 allemaal <3% zit,en de Inno3D 1070 het met 7% moet doen.

Ik durf toch een beetje nuance te brengen.

De vraag is natuurlijk altijd:
- ligt het aan de GPU zelf [dus fout van AMD/Nvidia]?
- of ligt het aan PCB design/assemblage [dus integrators zoals XFX, Sapphire, ...]?

Bijvoorbeeld "AMD" heeft een hele tijd meer RMA gehad i.v.m. Coil Whine, en zover ik weet niet direct de fout van "AMD" is, maar van de integrators.

En met een druppeltje lijm is dat ook opgelost :D
Aan eerdere reacties te zien op verschillende nieuws artikelen, heb je volgens mij een serieus probleem met AMD? Wat is het? Gooi het in de groep.
hmm nee ik vind dit geen rebrand...een snellere versie uitbrengen en een x-je erachter is toch geen rebrand!?
Klopt dit is een refresh. Maar wel een armzalige.
inderdaad, HD7970, 280X, 380X .
Als je nu eens leest is alleen de naam bekend en verder geen details.
Dan is een prijs niet te noemen.
Niet helemaal waar... er staan nieuwe modellen in de pijplijn alleen die zet je niet in een week op de markt. Polaris is ansich een goede chip. Op 1450 - 1500Mhz sneller dan de 1060 van Nvidia. En met de driver optimalisaties van de laatste tijd kan je er prima mee gamen op WQHD hoor. :)

High-end is een ander verhaal, moet je toch richting Vega of 1080 gaan kijken.
Ja joh want Nviida heeft nooit aan rebrands gedaan :+

Op dit item kan niet meer gereageerd worden.


Call of Duty: Black Ops 4 HTC U12+ dual sim LG W7 Google Pixel 3 XL OnePlus 6 Battlefield V Samsung Galaxy S9 Dual Sim Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*