Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 77 reacties

Samsung heeft volgens Koreaanse geruchten AMD als grote partner binnengehaald en gaat niet alleen apu's maar ook gpu's op zijn tweede generatie 14nm-procedť produceren. Dit zou vanaf het tweede kwartaal moeten gebeuren.

AMD gaat de gpu met codenaam Greenland naar verluidt niet alleen bij zijn vaste partner Global Foundries produceren, maar ook bij Samsung. Voor Samsung is het een belangrijke stap, meldt het Koreaanse ETNews, want tot nog toe produceerde de chiptak van het concern voornamelijk mobiele chips. Het gerucht komt niet helemaal uit de lucht vallen: recent maakten AMD en Global Foundries bekend een eerste testchip op het 14nm-low power plus-procedé ontwikkeld te hebben.

Samsung en Global Foundries werken nauw samen aan dit procedé. Toen was niet bekend of het om een apu of gpu ging, maar in ieder geval zou Samsung dus beide chips gaan produceren. Wat de apu betreft zou het om de Zen-chips gaan die eind 2016 of begin 2017 moeten verschijnen.

Wccftech zet de geruchten over de nieuwe gpu-generatie van AMD op een rij. Greenland zou onderdeel worden van een serie die intern als 'Arctic Islands'-familie van Radeon 400-modellen bekendstaat. De videochips worden rond een nieuwe Graphic Core Next-architectuur opgetrokken en gaan van de tweede generatie high bandwidth memory gebruikmaken. De overstap van een 28nm-procedé naar een 14lpp-finfet-procedé moet voor flink zuiniger gpu's zorgen.

AMD cpu gpu roadmap 2016

Moderatie-faq Wijzig weergave

Reacties (77)

En nou gewoon de performance 2x zo groot maken en het verbruik hetzelfde laten <3
Zo zal dat niet werken. Het is eerder vergelijkbare performance zijn met de helft van het verbruik. Maar dat is natuurlijk een marketing praatje, het zal vast mooier klinken dan het zal zijn.

[Reactie gewijzigd door Bose321 op 22 december 2015 10:36]

Nee er staat 2x zo efficient in de screenshot, en flink zuiniger (dus niet 2x zo snel) in de text :)

Welke kant ze precies op willen is dus niet duidelijk, maar lijkt mij dat ze beide markten willen bedienen (de 2x zo zuinige en de 2x zo snelle).

[Reactie gewijzigd door watercoolertje op 22 december 2015 10:38]

AMD zal het vast wel alle 2 willen, maar ik heb een vermoeden dat het erg hard gaat afhangen hoe de clocks zullen zijn. Hier is naar mijn weten nog niets over bekend.

De hogere IPC en efficiŽntie enzo zijn heel leuk en brood nodig, maar als je chips niet bijster goed schalen op het 14nm proces zullen ze wel gedwongen worden om te kiezen voor een laag verbruik met hoge efficiŽntie, ten koste van een minder hoge performance surplus in vergelijking met de vorige generatie.
Wat de apu betreft zou het om de Zen-chips gaan die eind 2016 of begin 2017 moeten verschijnen.
Dit is overigens wel nieuw voor mij. Ik dacht dat 1ste APU's op 14nm gebruik zouden maken van de laatste versie van de vorige architectuur (Excavator). Voor de CPU's ging men wel direct over naar Zen. Mocht dit waar zijn natuurlijk des te beter!
Er komen 3 verschillende chips, in oplopende rekenkracht zijn dat Baffin, Ellesmere en Greenland. Van deze 3 chips kunnen vervolgens weer naar keuze bepaalde delen uitgeschakeld worden om een hele lijn videokaarten te kunnen maken.

Met Greenland zal AMD natuurlijk een aanval op de kroon voor de snelste videokaart gaan doen, eventueel als de productieopbrengsten tegenvallen zullen ze niet alle rekeneenheden activeren, maar in principe zal deze groot, warm en duur zijn.

Wil je efficiŽnt en zuinig dan komen Baffin en Ellesmere in het vizier en omdat dat de eerste goedkopere kaarten met HBM-geheugen zullen zijn, denk ik dat het gat groot gaat zijn met de huidige budgetkaarten, omdat die nu vaak met 128-bit geheugenbussen worden uitgerust. De combinatie van HBM en toegenomen rekenkracht, kan 2016 wel eens een mooi jaar maken om betaalbare en zuinige videokaarten te gaan kopen. Ook laptops gaan daar natuurlijk van profiteren.
Ja dat zeg ik volgens mij ook. Echter is het maar de vraag of AMD dit ook daadwerkelijk waar kan maken. Volgens mij lopen ze nog steeds vrij ver achter op de concurrentie.

[Reactie gewijzigd door Bose321 op 22 december 2015 10:40]

Op wat voor manier lopen ze achter op de concurrentie dan?

Kwa hardware valt het wel mee.

390 = 970, zelfs ietsje beter

fury > 980

Fury X = 980 ti (wel pas bij hogere resoluties)

Alleen als je het over het verbruik hebt geef ik je inderdaad gelijk. Dat ligt een stukje hoger bij AMD.
Valt wel mee
Daarmee geef je in principe aan dat ze inderdaad een (lichte) achterstand hebben. Maar je hebt het hier alleen over GPUs. Je vergeet de andere takken waar AMD ook achterstanden heeft. Op CPU voor zowel de desktop- als server markt kan men Intel niet bijhouden.

Om ervoor te zorgen dat AMD processors toch interessant zijn, moet men de prijs van de processor flink laten zakken. Zelfs zo erg dat AMD al jaren verlies draait op de CPU processors. Terwijl Intel zijn processors voor 'gezonde' prijzen in de markt kan zetten. Maar in Q1 komen de nieuwe Broadwell-E processors van Intel op de markt en heeft Intel een nieuw top niveau geintroduceerd.

Ik ben erg benieuwd of het topmodel 6950X als gewoonlijk op 1000 dollar wordt gezet. Dat zou dan namelijk inhouden dat de huidige 5960X (6900K) , 5930K (6850K) en 5820K (6800K) allemaal een stuk goedkoper zullen worden dan de huidige serie. Ik hoop voor AMD dat Intel de 6900K op 1000 dollar laat staan en de 6950X voor 1300 dollar zet of zo. Prijs technisch kan Intel niet heel erg veel zakken met de 6850K. De huidige 5930K kost zo'n 580 euro. De 6700K (Skylake) ligt voor 389 euro in de winkel. Als Intel de 6850K te veel in prijs laat zakken zou het namelijk de 6700K uit de markt prijzen welke nu net onder de 5820K van 420 euro is geplaatst..

Echter als Intel in 2016 alle processors 50 euro goedkoper maakt om prijstechnisch ruimte te maken voor de HEDT modellen, dan gaat AMD een zeer zwaar 2016 krijgen. Intel heeft zelfs genoeg reserves om de processors twee jaar tegen bijna kostprijs op de markt te zetten.

Net zoals Microsoft heeft geholpen om Apple overheid te houden zodat Windows nog enige concurrentie heeft, heeft ook Intel concurrentie van AMD (en Via) nodig om niet elke keer in de problemen te komen bij een prijsverhoging. AMD weet door hun lage prijzen nog wat marktaandeel op te via budget systemen.

Maar zolang AMD met zowel met hun CPUs, APUs en GPUs met hun prijzen onder die van de concurrentie blijft zitten, zullen ze financieel niet snel gezond worden..

[Reactie gewijzigd door Niemand_Anders op 22 december 2015 14:40]

Je vergeet de andere takken waar AMD ook achterstanden heeft. Op CPU voor zowel de desktop- als server markt kan men Intel niet bijhouden.
En wat kan AMD daar aan doen? Intel bakt zijn eigen chips op 14nm, in hun eigen fabrieken. AMD is volledig afhankelijk van TSMC/Glofo voor de chips en die zijn nu al twee generaties gefaald ťn lopen achter op Intel.

Kleinere chips zijn een stuk energiezuiniger, efficiŽnter, kunnen meer transistors bevatten (dus sneller zijn) en zijn bovenal goedkoper om te produceren (meer chips per wafer) mits de yields goed zijn natuurlijk.

Ik weet niet of @Shodan het is 'vergeten'; het is nou eenmaal niet echt relevant om die vergelijking nog neer te zetten. Iedereen weet toch wel dat AMD onmogelijk met Intel kan concurreren zolang laatstgenoemde een monopoly heeft op 14nm high-voltage.
Intel heeft zelfs genoeg reserves om de processors twee jaar tegen bijna kostprijs op de markt te zetten.
Exact. Intel had AMD allang failliet kunnen laten gaan, al jaren. Intel heeft namelijk (heel) veel geld en een enorme technische voorsprong.
Het is echter niet interessant om dat te doen, omdat Intel dan een echte monopoliepositie krijgt (die ze eigenlijk ook al tijden hebben in het hogere segment). Dat is niet aantrekkelijk voor Intel - en al helemaal niet voor de consument :P

Wat betreft de AMD CPU's/APU's onder kostprijs: AMD heeft simpelweg geen keuze. Willen ze er met Zen bovenop komen, dan moeten ze wel een beetje een merk hebben om op te bouwen immers.
Ja lijkt eerder op dat de foundry industry compleet achter loopt op intel.
Ik had ooit een i740. Had intel conventioneel de retail bestormt stond ATI AMD nV te kijken met hun achterlopende foundry partners of eigen fabs.

Dan had je nu al een refresh van intel highEnd gpu.
Maar ja ze gingen extreem innovatief met larabee en dat was een brug te ver.
Normaal niet, maar we maken nu de stap van 28 naar 14nm in plaats van kleine stapjes als 20 naar 16nm, ofzoiets. Natuurlijk is het een marketingpraatje, maar ik verwacht behoorlijk veel op gebied van efficiency!
Het 14nm noemen is ook marketing helaas qua featuresize is het geen hele grote vooruitgang ten opzichte van 20nm planar. de FinFets zorgen wel voor stuk lagere lekstromen.
zitten ze nu niet op 28nm?
Iedere nm is een enorme winst!
Het is namelijk steeds een stukje "draad" minder dat je moet "opladen".
Bij iedere clockpuls, zal de CMOS-transistor schakelen, en zal er stroom gaan naar de verbinding= "draad"
om genoeg stroom te geven, kan je, ofwel de spanning verhogen, (de stroom loopt sneller), de clock verlagen, (meer tijd om de draad op te laden), of de draad verkorten!

De clock willen we net zo snel mogelijk
De spanning verhogen, heeft als gevolg dat er zeer veel warmte bijkomt. (zie formule)
De echte oplossing, is het verkorten van de draad

Dan kan je tevens de spanning verlagen, en de clock verhogen!
Bovendien kan je op ťťnzelfde oppervlakte, met een halvering, 4 keer zoveel transistors zetten! (halvering in 2 richtingen!)

De formule om een draad op te laden: c.v = i.t
* c=capaciteit van de draad, v=spanning(volt), i=stroom(ampere), t=tijd

De frequentie f = 1 / t
i = c. v.f

Vermogen P = i.v
i.v = c.v.v.f

P = c.v≤.f

Bij een verhogen van de spanning, verhoogt het vermogen exponentieel!
PS: Nergens op internet ga je dit zo eenvoudig uitgelegd vinden

[Reactie gewijzigd door g4wx3 op 23 december 2015 11:02]

Ja dat klopt nu 28nm maar het is dus geen halvering maar qua featuresize's vergelijkbaar met reguliere 20nm.En inderdaad de FinFet's gaan zeker wel helpen met lager verbruik.

Zie reactie kidde: kidde in 'nieuws: Gerucht: Samsung gaat AMD-gpu op 14nm produceren'

[Reactie gewijzigd door AlphaBlack_NL op 22 december 2015 13:36]

exponentieel is imho niet hetzelfde als kwadratisch
De frequenctie is ook evenredig met de spanning, dus is er in feite een kubisch verband tussen vermogen en spanning.
(exponentieel is iets heel anders)
Zelfs al is het praktisch 18nm ofzoiets... we komen van 28 af, terwijl stappen van 2 of 4nm al gigantisch veel betekenen voor het stroomverbruik en dus de toepassingen.
Waar ergens moet dat dan staan?
Wat er wel staat is dat het efficienter per Watt zal omgaan, maar hoogst wss gooien ze de TDP omlaag en de performance met 20% omhoog
Jep, dat zeg ik ook. Jouw fipo zou mooi zijn als dat zou kunnen, maar dat zie ik niet gebeuren. Ik vraag mij af of AMD haar beloftes nou eens waar kan maken...
Tuurlijk is het wel mogelijk om alle efficiŽntie winst bij de performance kant te gebruiken. Zover ik weet is de temperatuur en ruimte altijd het limiet. Als ze nou dus gewoon de TDP hetzelfde houden zou er volgens de roadmap een 2x zo goede performance uitkomen in theorie natuurlijk.
Ze Gaan van 28nm naar 14nm
dezelfde Die zou dus nog maar 25% vd opvervlakte innemen.

stel je hebt nu een soc van 20mm*20mm @ 28nm
je maakt hier een soc van 20mm*10mm @ 14nm
- dit houd in dat deze 50% kleiner word en dus 50% zuiniger
- dit houdt in dat er 2x zoveel logica inpast (vb 8cores ipv4) dus 2x zo snel

ze kunnen dus in principy een cpu maken die Dubbel zo snel is en de helft verbruikt.
hierbij ga ik er ook nog vanuit dat hun architectuur hetzelfde blijft en hier geen verbetering in gebeuren. anders kan de verbeterin nog hoger zijn.

en als ze een CPU zouden maken ýet dezelfde TPD kunne ze hem zelfs 4x zo snel maken...
Kleine correctie , het gaat om Gpu. Maar je berekening klopt.
Verder denk ik dat ze idd kleiner chips gaan maken, meer opbrengst uit 1 wafel, dus voordeliger voor AMD en zuiniger.
Verder krijgen deze GPU's inderdaad een nieuwe architectuur GCN 1.3 dus dat gaat waarschijnlijk nog wat opleveren op het gebied van IPC, waardoor de clocksnelheid wat naar beneden kan en zo nog wat extra stroom bespaard word.
Als laatste krijgen deze GPU's HBM 2.0 geheugen, waardoor nu grote's van 8 en zelfs 16GB mogelijk zijn.
Kleiner betekent niet direct zuiniger !

Juist als ze voor zuinigheid willen gaan zullen ze hun design wel op de schop moeten nemen. Een belangrijk punt is niet alleen warmteontwikkeling maar ook warmte-afvoer. Als die niet goed is gaat de temperatuur omhoog, weerstand wordt hoger, en als je betere prestaties nodig hebt gaat de voltage/stroom onevenredig omhoog.

Idle niks aan de hand, speel je een keer een spel begint je kast te zoemen, blazen en te zuigen.

AMD heeft de laatste jaren verschillende malen prototypes laten zien die erg zuinig zouden zijn maar achteraf bleken ze waardeloos te presteren en/of paper-launches.
Om een of andere hebben ze er niet van geleerd maar ook niet tijdig externe hulp ingeroepen.

De vraag die hier gesteld moet worden in hoeverre Samsung daadwerkelijk AMD kan helpen. Samsung heeft weinig ervaring met het bouwen van dergelijke GPU's,
maar ik zie AMD niet direct nuttige bijdrages leveren aan het proces aangezien dat ook niet eerder is gelukt. Ze lijken constant achter de feiten aan te lopen en gezien de strubbelingen binnen het bedrijf en druk om met iets te komen zijn mijn verwachtingen niet te hoog.
Misschien interessant wat Samsung Foundry zelf claimt (GloFo 14nm proces is hetzelfde als dat van Samsung):
14LPE is the first foundry process technology manufactured in the foundry industry with the successful volume ramp-up. 14LPE offers 40% faster performance; 60% less power consumption; and, 50% smaller chip area scaling as compared to its 28LPP process. ... 14LPP (Performance boosted edition) is the 2nd FinFET generation which the performance is enhanced up to 10%
Dus 4x kleiner van 28nm naar 14nm is zeer overdreven en helaas niet het geval.

Bron: Samsung Foundry
dan nog van 28nm naar 20 nm is een enorme doorbraak,

28^2 = 784
20^2 = 400

dat is bijna de helft, aka minimaal een verdubbeling in transistor dichtheid (en anderen hebben geschat dat het samsung 14nm process ongeveer gelijk is aan tsmc's 16 nm en dat is pak en beet een toename van 3x met het uiteindelijke proces, dit is oa gebaseerd op de apple chips welke zowel op 14nm samsung en tsmc 16 nm zijn gebakken en pak em beet even groot zijn. (256 nm2 dus)

kortom dit gaat een enorme doorbraak worden in compute power, 3x zoveel transsistors betekend toch al snel approx een verdubbeling in ruwe compute power, en zo'n toename hebben we in lange tijd niet gezien.

verder zijn zowel AMD als Nvidia bezeig met HBM2 wat enorm veel extra bandbreedte moet oplevern,

dan zijn er nog de extra bussen welke de PCI-E bottleneck op moeten heffen,

de kaarten zullen een stuk korter worden, erg fijn voor ITX builds.

kortom dit wordt echt wel een knallerjaar zoals we dat in JAREN niet hebben gezien...
Dezelfde die wordt 4 keer kleiner:

28*28 = 784
14*14 = 196
784 : 196 = 4

Dus meer chips per wafer = goedkoper,
of meer transistors/chip!

verder nog eens aanhalen:
Kleiner procede, betekend dat de spanning kan zakken, en dit heeft direct positief invloed op verbruik.

[Reactie gewijzigd door g4wx3 op 23 december 2015 11:11]

Nee, zo kan u geen oppervlakken aan transistor-detail-grootte relateren; dat is een oversimplificatie.

Het ideale geval geeft 14nm geeft de minimum feature size aan, en alleen die van de transistors. Dit staat grotendeels los van de grootte van een chip.

Bijv. bij 28nm is 10% van de transistors met features op 28nm en 90% van de transistors met features op 45nm, dan spreekt men van een 28nm-proces.
Is bij 14nm 10% van de features op 14nm, 50% op 28nm en 40% op 45nm is het een 14nm-proces. Hoe die verhoudingen zijn, hangt grotendeels af van de toepassing. Daaraan ten grondslag liggen thermische berekeningen, die horen bij het proces en zijn niet per se uit de "minimum feature size" (het getal x uit de bekende "x-nm" notatie) af te lezen.

Minimum detailgrootte van transistors wordt vaak "front-end" genoemd, maar dit moet vaak nog met 10+ lagen metalen interconnects (backend, BEOL) aan elkaar worden verbonden. Een typische backend kan zijn gemaakt op 40nm (Intel 14nm) of bijv 64nm voor Samsung 14nm.

Vervolgens zijn er voor die BEOL weer bepaalde ontwerpregels. Die van Intel is "dichter", dus meer metalen interconnects per oppervlak, maar ze hebben strikte regels, bij Intel kunnen ze alleen 1D zijn (SDAP: self-alignined double pattetrning). Bij Samsung zijn ze minder dicht, "groter", maar kunnen ze door een ander proces (Lito-Etch-Lito-Etch) 2D zijn. Bron: Scotten Jones - SemiWiki.

Bovendien bepaalt tegenwoordig niet Moore's law hoeveel berekeningen te doen zijn per oppervlak, maar Dennard's law. Zie Dennards scaling:
Since around 2005–2007, Dennard scaling appears to have broken down, so even though Moore's law continued for several years after that, it has not yielded dividends in improved performance.
Op zich is de situatie bij Intel natuurlijk niet van toepassing op Samsung, maar de voorbeelden geven wel aan waarom er misschien 6 zaken belangrijker zijn voor de rekenkracht per oppervlak dan het "nm-getal".

[Reactie gewijzigd door kidde op 23 december 2015 15:37]

Nou... het verbruik van AMD chips mag nog best wel flink wat lager, dat is waar ze sowieso de grootste achterstand hebben op Intel en Nvidia en met deze stap halen ze dat (grotendeels) in en dat is een goede zaak. Zie maar eens het verschil in verbruik tussen de high end chips (cpu & gpu), dat is toch aanzienlijk, plus dat het ook de nodige warmte met zich meebrengt... een R9 390 doet idle zo'n 60 graden en dat is best wat.

Maar als de chips zuiniger en daardoor dus koeler worden zal je sowieso als neveneffect krijgen dat ze de chips weer sneller kunnen maken. Het komt dus sowieso wel goed :)
Op zich valt dat best mee hoor. Ja, Intel is stukken zuiniger, maar dat komt omdat zij hun eigen chips fabriceren die inmiddels al op 14nm zitten. AMD is (net als Nvidia) voor high-voltage chips inmiddels al jaren toegewezen op 28nm, omdat chipbakkers zoals TSMC maar geen fatsoenlijk 20nm procedť met high-voltage aan de praat kregen (en AMD vrijwel geen financiŽle middelen heeft om het te financieren). Daar gaat nu eindelijk verandering in komen.

Zo ontzettend veel energiezuiniger is Nvidia helemaal niet, althans, als je kijkt naar ruwe performance. Een 980 Ti verbruikt ongeveer net zoveel energie als een Fury X voor dezelfde performance. Een R9 290 mag dan wel wat meer stroom verbruiken dan een GTX 970, maar eerstgenoemde doet zo'n 4.8 TFLOP's terwijl de Nvidia kaart rond de 3,5 blijft steken. Toch weet Nvidia door efficiŽntere drivers veel meer performance ingame uit de 970 te trekken (of AMD weet het te verpesten door inefficiŽnte drivers, net hoe je het bekijkt).

Kijk je naar watt per fps, dan is een 970 inderdaad een stuk zuiniger. Kijk je naar ruwe performance, oftewel enkel naar de hardware, dan gaan Nvidia en AMD gewoon gelijk op - niet heel gek, gezien ze beide 28nm GPU's aan het maken zijn.
Ik weet niet waar je die cijfers van verbruik vandaan haalt maar over het algemeen moet je de R9 290x en 970 vergelijken met elkaar.

Ik heb een Asus 290x en Asus 970 met beide met dezelfde cooler ( Direct CU II ) design en zelf zonder meetinstrumenten kan je gewoon het verschil in warmte productie ( = energie verlies ) horen aan de ventilators.

Asus 970 idle: Ventilator staat uit, temperatuur rond de 40 a 42įC
Asus 290x idle: Ventilator draait vrij stil maar temperatuur is nog altijd rond de 35įC

Gaming ( zelfde games, zelfde settings, gewoon verwisselen van driver & gpu ). Niet echt puur stress ( 1080p etc )

Asus 970: Draait op een 700rpm met een temperatuur van nog geen 60 a 65įC
Asus 290x: Draait op een 1600 a 1800rpm met een temperatuur van rond de 75įC

We spreken hier over dezelfde cooler, in dezelfde case, met dezelfde componenten! Qua performance geven beide kaarten ongeveer dezelfde FPS ( in een bepaalde marge natuurlijk ). Welke zal je duidelijk horen?

Het argument dat beide op hetzelfde process gemaakt zijn gaat niet gans op. Als we de grote van de GPU's bekijken, de theoretische "kracht" dat ze zouden moeten hebben, zie je duidelijk dat AMD minder efficient design draait. Gewoon de 970's 256 bit bus vs R9 290x 512 bit bus... Puur op specs, zou de R9 290x / 390x gewoon de vloer moeten vegen met Nvidia hun producten ( buiten de TI / Titan ;) ).

Het gaat iets verder dan gewoon driver optimalisatie. Nvidia heeft veel gestoken in tessellation voor hun GPU design en dat betaal zich terug. Wat grappig is, want ik herinner me dat AMD eerst tessellation als marketing argument gebruikte.

Ze zijn op hetzelfde process gemaakt maar er zijn fundamentele verschillen intern in hun designs.


En tussen haakjes: Zo energie zuinig is NVdia niet? De 970 doet een 170 a 180w ( puur op de kaart ), terwijl een zelfde 290x gerust nog eens 130 a 150w bovenop smijt, voor dezelfde performance. We spreken hier niet enkel over iets betere drivers, want moest Nvidia hun drivers zo goed zijn, zou AMD al lang alle trucjes reverse engineered hebben.

Laten we ook niet beginnen over het feit dat de R9 290x/390x nog altijd energie zuipt als je maar probeert een monitor aan te hangen. We spreken van 40w+ gewoon met een 2de monitor aan te sluiten. Die zelfde 2de monitor bij de 970 geeft een 3 a 4 verschil. Moeilijker om te testen met een socket power meter wegens de geringe stijging.

Dit is niet een verschil van beter driver design van Nvidia maar gewoon AMD dat vrij ongemotiveerd is om een probleem op te lossen dat al 10+ jaar bestaat. En waar mensen over zagen op hun eigen forum. Al die jaren zei AMD: We kunnen dat niet oplossen want we hebben een hogere memory/clock speed nodig voor 2 monitors aan te drijven. Dan kom de volgende GPU serie uit. Niet opgelost. De volgende. Niet opgelost... Denk dat ze dat nu EINDELIJK opgelost hebben met de Fury.

Als we spreken over slechte drivers, ja ... dan mogen we best Linux niet opnoemen. *lol* ...

Het probleem gaat veel verder met AMD dan gewoon iets produceren op 14nm. Men heeft te veel interne problemen. Hun producten zijn goed als je op windows draait en de hoge energie kosten er graag bijneemt. Maar op ander platforms is het een andere koek en ei

M.a.w, de boel op 14nm maken gaat AMD niet ineens meer beter maken. Nvidia zal ook wel om switchen naar 14nm in korte tijd. Het probleem is vooral de interne structuur waar men te veel mensen buiten smeet ( linux team ), de constante verliezen dat ze draaien, de gebrekkig marketing, het niet inplanten van help van game designers zoals nvidia doet. Sommige game designers klagen over het gebrek van samenwerking van AMD. Zo is het niet moeilijk dat bepaalde games beter draaien op Nvidia hardware dan AMD.

Zo lang AMD blijft problemen hebben zoals hierboven omschreven zullen ze 2de viool blijven spelen. Dan mogen ze een monster van een GPU neerzetten op 14nm, het lost nog altijd die andere punten niet op. Soms komt AMD me over als American muscle car stijl ( puur horse power ) design terwijl Nvidia me overkomt als Ricer ( typische Aziatische auto's met veel turbo / tech / fine tuning etc ).

Beide maken goede producten maar je merkt wel de verschillen buiten de puur fps / benchmarks.
Nvidia heeft veel gestoken in tessellation voor hun GPU design en dat betaal zich terug.
tot zo'n 11x tesselation is AMD sneller als nvidia anders met tessellation. met 2x en 4x zelfs 60% sneller (fury x vs titan x)

het is pas als je belachelijke waarde als 32 en 64x gaat gebruiken die geen enkel doel dienen dat nvidia echt sneller wordt.

er is geen geldige use case for 32 of 64x die niet gemakkelijk op een andere manier opgelost kan worden. maar toch pushed nvidia die settings overal met gameworks.
En tussen haakjes: Zo energie zuinig is NVdia niet? De 970 doet een 170 a 180w ( puur op de kaart ), terwijl een zelfde 290x gerust nog eens 130 a 150w bovenop smijt, voor dezelfde performance.
en 290x is de VORIGE generatie, terwijl de 970 de huidige is.

De fury X is al veel zuiniger, en verschilt maar zo'n 30 watt met de gtx980Ti in games (en dat restant is met name omdat AMD niet zo diep in de double precision GPGPU performance heeft gesneden als nvidia).
We spreken hier niet enkel over iets betere drivers, want moest Nvidia hun drivers zo goed zijn, zou AMD al lang alle trucjes reverse engineered hebben.
Dat heeft helemaal geen zin, nvidia steekt enorm veel tijd en geld in het optimaliseren van specifieke games voor hun huidige GPU's. daar heeft AMD niks aan, zelfs als nvidia dat niet zou obfuscaten.

daarbij is dat allemaal weg gegooid geld(geen blijvende voordeel) , en lossen al die optimalisaties het structurele probleem van dx11 niet op. AMD koos om in plaats daarvan mantle te maken en daarmee dx12 en vulkan te stimuleren, wat wel een structurele oplossingen, waardoor al die game specifieke optimalisaties van nvidia (grotendeels) niet meer nodig zijn.
AMD koos om in plaats daarvan mantle te maken en daarmee dx12 en vulkan te stimuleren, wat wel een structurele oplossingen, waardoor al die game specifieke optimalisaties van nvidia (grotendeels) niet meer nodig zijn.
Kijk dit had ik ook Door MAAR nvidia weet dat donders goed en daar hebben ze een antwoord op haircros of hoe die dan ook heet.
Door die lock-in kan AMD weer opnieuw beginnen
tressFX bedoel je.

wat de gameworks rommel van nvidia betreft is het vooral zaak hard te klagen bij developers en publishers om het niet te gebruiken en anders standaard uit te zetten, en hopen dat AMD's GPUopen project slaagt.

[Reactie gewijzigd door Countess op 22 december 2015 17:00]

Je gaat volledig aan mijn punt voorbij :P ik onderschrijf namelijk precies wat je zegt: als je kijkt naar verbruikte watt's per fps, dan 'wint' Nvidia by far. Dat staat er vrijwel letterlijk ook.

Mijn punt is dat een R9 290 (en al helemaal de 290X die inderdaad nog wat dichterbij staat) vťťl meer ruwe performance biedt dan een GTX970, bijna 50% meer! Geen wonder dat daar dan ook een ~50% hoger energieverbruik mee gepaard gaat. En dat terwijl de prestaties ongeveer gelijk blijven. Zoals hieronder ook is gezegd, ja de 290 is een generatie ouder, maar dan nog :P
Ik probeer in mijn post te verduidelijken dat wanneer je enkel naar hardware kijkt, het probleem helemaal niet zit in inefficiŽnte GPU's/chips/hardware. Het probleem is dat AMD veel minder performance uit krachtigere chips haalt. Ondanks dat AMD tientallen procenten meer ruwe power biedt (met bijkomend energieverbruik) presteren ze vaak minder dan Nvidia.

Je vergelijking van 'American Muscle Car' en de 'Aziatische tech-auto's' is daarmee dus precies wat ik bedoel.

Tot slot vind ik dat je best een kanttekening mag plaatsen bij de 'AMD problemen'. Vergeet niet dat Nvidia vťťťťl hoger budget in R&D stopt. AMD heeft dat geld niet. Ondersteuning voor high-end GPU's icm Linux is ook iets wat amper gebruikt wordt, AMD heeft nu eenmaal niet zoveel geld in kas om dat ook te ondersteunen. Marketing? Daar is gewoon geen geld voor nu. Gamedev's overtuigen om AMD's stuff te gebruiken? Dat gaat meestal gepaard met grote zakken geld (dat is er niet) en met het huidige marktaandeel van AMD GPU's is het sowieso interessanter om Nvidia te kiezen als partner.
In de huidige situatie van AMD kan je onmogelijk van ze verwachten dat ze dezelfde investeringen doen als Nvidia - dat geld is er gewoon niet. En ja, ik verwacht ook dat ze daarmee de 2e viool blijven spelen. Als ze het uberhaupt al overleven.

Persoonlijk vind ik het ontzettend zonde dat het zo moet lopen met AMD, en dat ze wel extreem veel gebash te verduren krijgen op verschillende fora. Imo verdienen ze toch echt iets meer liefde met wat ze zelfs nu nog kunnen neerzetten met kaarten als de Fury X. Als je ziet hoe veel AMD nu nog klaar kan spelen ondanks de enorm gebrekkige middelen die ze hebben, kan je daar echt niet anders dan respect voor hebben imo.

[Reactie gewijzigd door Richh op 22 december 2015 14:44]

je kijkt naar de flop's. maar die zijn primair indicatief voor de GPGPU performance. en niet de in game prestaties.

en in GPGPU taken wint de 290x het zelfs (gemakkelijk) van een titan X. want nvidia heeft enorm zitten snijden in de double precission performance van hun kaarten, en daar hebben ze ook het lagere verbruik vandaan gehaald.

AMD heeft al het zelfde gedaan met de fury X (naar double wat nvidia heeft ipv 4 tot 8 keer zo veel) en gelijk is het verschil maar 30 watt in games.

met greenland gaat AMD het verschil echt niet zo hoog op laten lopen als met de vorige generatie kaarten. en zelfs als nvidia nog verder gaat snijden wordt de winst steeds kleiner, dus kan het verbruik verschil (hier door tenminste) niet meer zo groot worden.

[Reactie gewijzigd door Countess op 22 december 2015 17:03]

je kijkt naar de flop's. maar die zijn primair indicatief voor de GPGPU performance. en niet de in game prestaties.
Dat is dus ook precies wat ik zeg... opnieuw :P Ik citeer mezelf dan maar:
Ik probeer in mijn post te verduidelijken dat wanneer je enkel naar hardware kijkt, het probleem helemaal niet zit in inefficiŽnte GPU's/chips/hardware. Het probleem is dat AMD veel minder performance uit krachtigere chips haalt. Ondanks dat AMD tientallen procenten meer ruwe power biedt (met bijkomend energieverbruik) presteren ze vaak minder dan Nvidia.
Het verschil zou hoe dan ook kleiner worden, al is het maar door DX12 :)
Het heeft denk ik niet heel veel zin om een heel oud ontwerp als de 290x te vergelijken met een veel nieuwer ontwerp als de 970.

Bovendien, wanneer je dan toch op zoek bent naar een elegant design zou ik eens kijken naar de nieuwe AMD HBM GPU's die lopen nl wel voorop qua ontwerp.

Arctic Island op 14nm zeker icm HBM kun je tzt ook niet vergelijken met nvidia ontwerpen die dan nog geen HBM hebben. Pas wanneer ook nvidia HBM heeft kunnen we een eerste vergelijking gaan maken wie er de betere ontwerpen heeft.
Dat is sowieso al wat er de laatste jaren in processorland gebeurd. In vergelijking met een aantal jaren terug is de performance omhoog gegaan, en het huidige verbruik ligt veelal lager/gelijk dan/als bijvoorbeeld de pentium 4's, die nogal wat energie nodig hadden.
Echter bij GPu's is het verbruik juist flink gestegen sinds het P4 tijdperk.

[Reactie gewijzigd door watercoolertje op 22 december 2015 10:36]

Juist AMD had last van hoge TDP's de laatste tijd.
EfficiŽntie verhoogd performance. Zie het als minder omwegen of trucage gebruiken om iets gedaan te maken. Oftewel: sneller.
Ik quote even Watercoolertje hiervoor

Watercoolertje: " In de screenshot is sprake van efficiŽntie, dus zal wel 2 kanten op werken "

Oftwel, ze kunnen ook de performance gelijk laten en gewoon de TDP halveren.
Wat ze in ieder geval al op andere locaties hebben gemeld is display port 1.3 en HDMI2.0 interface op de kaarten. 4K@60Hz en HDR wordt mogelijk. Ik weet niet of je dit bedoeld met 3 keer zoveel performance, maar ik vind echt fantastisch dat je straks nog meer kleurruimte op je scherm kunt krijgen. Het enige nadeel zijn de prijzen voor HDR schermen. Maar 32" 4K @ 60Hz HDR make me a deal and take my money. Link.
In de screenshot is sprake van efficiŽntie, dus zal wel 2 kanten op werken :)

Daarnaast moet je dat natuurlijk wel met een korreltje zout nemen!
Leuk als ze straks R390's met 50% verbruik kunnen maken en dezelfde performance, maar doe mij dan gewoon maar een 100% verbruik met dubbele performance. Als ik 2,5ct per uur extra moet betalen voor 60fps op ultra settings, doe ik met liefde.

Maarja, ook met de aankondiging van de 14nm, het is maar weer de vraag van Nvidia in de tussentijd doet, dat wanneer AMD met deze kaarten komt, Nvidia alweer paar stappen verder is.
Waarom niet beide opties. Een zuinigere versie en een krachtigere versie.
Een passief gekoelde kaart met de performance van een R390?! :+

[Reactie gewijzigd door KevinT op 22 december 2015 11:22]

Sterker nog. Als je een 2x krachtigere kaart hebt kan je bijna alles op 1080p @ 60 Hz al vele malen zuiniger spelen, aangezien die kaart daar dan toch zwaar overkill voor is. Echter heb je dan wel een soort buffer voor verhoogde systeemeisen in de toekomst.
Als ik het niet mis heb krijgen we zodadelijk een r9 390x met de 50% van zijn TDP en 50% extra performance.. van 28 naar bijna 14 is nogal een grote stap. :)
daarbij krijgt deze kaart een nieuwe architectuur GCN 1.3 en HBM geheugen ( welke ook minder verbruikt dan GDDR5)
2,5 cent per uur dan ga je uit van 100 watt verbruik. Dat is wel erg optimistisch voor een 390 opvolger.
Je gebruikt ook niet continue 100%, dus je verbruik is ook nooit absoluut zoveel watt hoger :) Daarbij ging ik op 150watt gemiddeld, ik betaal iets minder dan 25ct/kwu.
Dan haal je 2 R390's?
Goede zaak dat amd zijn tdp gaat reduceren.
Dat zal zeker voor de temperatuur ontwikkeling erg goed zijn.
Bij mijn weten is AMD altijd de hetere tov Nvidia en Intel.
Dan heb je denk ik het verhaal van de GTX 480 gemist.
Ach joh, je had het in ieder geval nooit koud in de kerstdagen ;)
zelfs met intel was dat niet altijd het geval (p4 vs athlon64) ondanks het productie process voordeel van intel. En met nvidia is dat al helemaal niet het geval.

met nvidia is het zelfs pas since de 6xx serie dat nvidia heel ietsjes zuiniger was als de al eerder op de markt zijnde hd7xxx serie. pas met de 7xx serie was nvidia echt zuiniger, en alleen omdat ze de GPGPU performance van hun GPU's enorm hebben verlaagt.

daarvoor, vanaf de hd4xxx serie tot aan met de hd7xxx serie was AMD zuiniger, sneller en goedkoper. maar als nvidia het weer eventjes iets beter doet is iedereen dat gelijk weer vergeten zo lijkt het.

[Reactie gewijzigd door Countess op 22 december 2015 15:27]

Slimme zet van Samsung, Apple is al afhankelijk van hun voor z'n mobiele chips.
Met deze zet worden nog meer bedrijven afhankelijk. Samsung zal waarschjnlijk meer AMD cpu's gaan gebruiken.
Doen ze slim die Koreanen, jammer dat de Nederlandse overheid geen initiatieven weet aan te wakkeren. In Nl is genoeg kennis en infrastructuur om chips te maken.
Juist niet, de leverancier kan naar behoefte op hetzelfde proces schakelen tussen Samsung / GloFo, dus AMD wordt niet afhankelijk van Samsung.
For the first time, the industry’s most advanced 14nm FinFET technology will be available at both Samsung and GLOBALFOUNDRIES, giving customers the assurance of supply that can only come from true design compatibility at multiple sources across the globe
Bron: Persbericht GloFo Apr '14.

[Reactie gewijzigd door kidde op 22 december 2015 13:13]

Juist niet, de leverancier kan naar behoefte op hetzelfde proces schakelen tussen Samsung / GloFo, dus AMD wordt niet afhankelijk van Samsung.
Niet schakelen, maar verdelen als ik je quote lees :)
Eindelijk kunnen we een einde maken aan de 28nm-generatie, en een stap verder gaan! Ik kan in ieder geval niet wachten.
Ik ook niet, zit nog op 40nm met mijn 6970... In veel spellen doet ie het nog prima zelfs op high settings, maar 60fps wordt wel steeds lastiger...
Ik ken 1 partij die hier heel erg mee gaat zitten: TSMC. Op dit moment laten zowel AMD als NVidia hun kaarten bakken bij TSMC, en dat is niet geheel vrijwillig, maar omdat die de enige zijn die moderne procedťs kunnen leveren voor high-power chips. Echter heeft TSMC 20 nm verknald, en waren ze destijds met 28 nm ook niet de snelste. Ik kan me zo voorstellen dat AMD het ermee gehad heeft, en nu overstapt, zodat ze te zijner tijd (als GloFo de boel ook onder controle heeft) alles in eigen huis kan fabriceren.

Al jaren speelde het idee om naast de CPUs (en APUs) ook de GPUs bij GloFo te laten bakken, maar tot nu toe is dat niks geworden. Ik weet niet waarom, maar gebrek aan kennis kan een grote rol gespeeld hebben. (ATi liet ook de kaarten al bij TSMC bakken, en daar komt de GPU-kennis van AMD vandaan).

Wellicht dat NVidia wat capaciteit kan overnemen, maar verder blijft de high-performance tak beperkt in omvang...
Een probleem waar de vorige AMD-leiding mee zat waren de hoge kosten om iedere keer vooruitstrevende fabs neer te zetten. Men wilde daarom ervaring hebben met externe fabricage, voordat men ertoe overging de fabs af te stoten, en daarom was men minder geneigd de GPU's bij TSMC weg te halen.
FX CPU's met DDR4 compatibility, eindelijk :D
wel voornamelijk APU's en tot 4 cores(2 modules)
Klinkt goed! Hopelijk krijgt AMD het voor elkaar om topproducten op de markt te zetten voor een concurrerende prijs. Het marktaandeel t.o.v. Nvidia begint namelijk beangstigend klein te worden. Voor de stabiliteit op de videokaartmarkt en de ontwikkelingen lijkt het mij fijn als deze Nvidia en AMD weer een beetje in balans komen.
Ik ben vooral benieuwd naar de 'vr/ar acceleration'. Dat is de reden dat ik nu nog geen nieuwe grafische kaart haal. M'n hele PC is alvast ge-upgrade voorbereidend op de VR brillen, op de GPU na. Toch lees je hier nog niet zoveel over... Logisch ook, dan verkopen ze nu geen GPU's meer. Ik hoop op een soort free-sync voor VR.
Hopen dat het wat lekkerder gaat lopen bij AMD, het zit ze niet mee. Ik gun ze weer eens een echt succes en het is bovendien goed voor de concurrentie. Hoop weer naar AMD over te kunnen stappen, nu "moest" ik wel naar het groene kamp...ik kon de 980Ti gewoon niet laten liggen en vond de Fury-X geen overtuigend alternatief.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True