AMD introduceert Polaris-architectuur voor gpu's

AMD heeft een nieuwe architectuur voor videokaarten en embedded gpu's aangekondigd. De architectuur heeft de naam Polaris gekregen en moet in de loop van 2016 met 16nm finfet-technologie geproduceerd gaan worden.

AMD geeft in zijn communicatie over Polaris nog maar weinig details vrij, maar belooft wel aanzienlijke verbeteringen in de nieuwe gpu-architectuur. Deels zijn die van de intrinsieke verbeteringen die met de nieuwe 16nm finfet-productietechnologie gepaard gaan afkomstig en deels van het Polaris-ontwerp. De huidige gpu's van AMD worden nog op 28nm door TSMC geproduceerd. De overstap naar 16nm finfet-technologie maakt zuiniger transistors mogelijk die minder last van lekstromen hebben in een idle-staat, maar betere prestaties bieden. Dat moet het energiegebruik van Polaris-gpu's terugdringen.

Daarnaast heeft AMD architecturele wijzigingen in de Polaris-gpu's doorgevoerd, die de prestaties aanzienlijk zouden verbeteren. Dat zou moeten resulteren in krachtige, zuinige gpu's. AMD toonde een Polaris-gpu die Star Wars: Battlefront op 1080p met 60fps speelbaar maakt met een opgenomen vermogen van 86W. De concurrentie zou hetzelfde doen met 140W op een GTX 950.

De Polaris-gpu zou over een architectuur beschikken die aanzienlijk gewijzigd is vergeleken met eerdere gpu's. De graphics core next-architectuur is vernieuwd en naar de vierde generatie getild. Bijna alle onderdelen van de gpu zijn vernieuwd, van de cache en geheugencontroller tot de multimedia-cores en display engine en geometry processor. Zo is ondersteuning voor displayport 1.3 en hdmi 2.0a toegevoegd en kunnen de gpu's hardwarematig 4k-video met de h265-codec encoden en decoden. AMD wil de eerste Polaris-gpu's halverwege het jaar introduceren.

Het is nog onduidelijk wie de gpu's voor AMD gaat produceren. Het bedrijf spreekt in zijn presentatie van een 16nm finfet-procedé maar noemt in zijn persbericht 14nm. Het Taiwanese bedrijf TSMC, traditionele partner van AMD voor gpu's, zou de productie van Polaris-gpu's op 16nm voor rekening kunnen nemen. Eerder was sprake van gpu-productie door Samsung of GlobalFoundries, dat Samsungs 14nm finfet-procedé in licentie heeft. Welke producten er concreet met Polaris-architectuur verschijnen, welke specificaties ze krijgen en wanneer we ze mogen verwachten, maakte AMD nog niet bekend.

Door Willem de Moor

Redacteur

04-01-2016 • 15:00

106 Linkedin

Reacties (106)

106
104
84
9
0
6
Wijzig sortering
Dit klinkt bekend in de oren en doet denken aan wat destijds ATi uithaalde met de Radeon HD 4770. Destijds was het 40nm-procede nieuw en het had gebreken. ATi nam destijds het besluit om een eerst budget-GPU op 40nm te produceren. Die chip was volledig geoptimaliseerd op een beperkt oppervlak, om überhaupt nog een redelijk rendement te halen op het nog jonge 40nm-procede. De HD4770 flopte commercieel, maar dat was ingecalculeerd. Wat belangrijker was, is, dat de ingenieurs ontdekten dat een mislukte chip in veel gevallen het gevolg was van een niet goed werkende verbinding tussen de lagen van de chip.

Bij de HD5xxx-reeks werd daarom besloten om alle verbindingen tussen de lagen redundant uit te voeren. De opzet slaagde, AMD had de HD5xxx-reeks ruim voor Nvidia op de markt, wat ze een hoop goede verkopen heeft opgeleverd.

Als we kijken naar wat hier aangekondigd wordt: Een 16nm-GPU, te produceren bij vermoedelijk TSMC, op een fonkelnieuw proces, waarbij we weten dat TSMC ploetert om het goed te krijgen. En AMD die dus een budget-GPU aankondigd, lekker compact, ontdaan van complexiteit als HBM.

[Reactie gewijzigd door dmantione op 4 januari 2016 18:26]

Exact, RTG (weet niet waarom dit artikel het nog AMD noemt) heeft aangekondigd dat de eerste Polaris-kaarten GDDR5 zullen hebben, en het is zeer waarschijnlijk dat dit om kaarten uit het middensegment gaat. RTG heeft ook aangegeven dat ze zowel TSMC’s 16nm als GlobalFoundries’ 14nm gebruiken voor de nieuwe kaarten. Het is nog niet duidelijk of dezelfde kaarten op verschillende procede's gemaakt zullen worden, of dat bijvoorbeeld 16nm voor het middensegment is en 14nm voor de high-end.
Waar staat RTG voor? Radeon Technology Group?

Ik vind het erg goed opgemerkt, en het valt inderdaad op dat AMD(RTG?) als eerste een low-end GPU 'presenteert'.
Echter ben ik wel bang, dat als ze nu eerst de 5xx serie gaan uitbrengen, met één kaart op het nieuwe procedé, de high-end kaarten op 16nm/14nm pas in de 6xx serie komen. Wat dus ook veel tijd geeft aan Nvidia.
Waar staat RTG voor? Radeon Technology Group?
Naar mijn weten is een RTG een soort kleine kernreactor... :+

[Reactie gewijzigd door Wolfos op 5 januari 2016 09:54]

Wow, dat had ik dus niet verwacht, ik hal namelijk iets gehoord dat AMD zijn GPU divisie wil scheiden van de CPU divisie, dus ik dacht dat dit misschien de nieuwe naam was. :+
Klopt hoor, Radeon Technologies Group, onder leiding van Raja Koduri. Het is een redelijk zelfstandig opererende divisie van AMD.
Is dit dan niet voor de hogere segment?
Yep ik hoop dat AMD weer een RV870/Cypress kan doen.

6 jaar geleden heeft Anandtech een heel goed achtergrond artikel/interview geschreven, dat erg veel inzicht geeft in hoe men GPU's ontwikkeld, het betreffende artikel gaat over de 4770 en 5000 series GPU's, en hoe ze het nVidia op dat moment heel erg moeilijk maakte, een must read voor iedereen die meer wil weten hoe ze GPUs maken, met een bijna volledige toegang tot de keuken van de AMD GPU divisie.

Anandtech The RV870 Story: AMD Showing up to the Fight.
Het is nog onduidelijk wie de gpu's voor AMD gaat produceren. Het bedrijf spreekt in zijn presentatie van een 16nm finfet-procedé maar noemt in zijn persbericht 14nm.
Dat zou best wel eens opzettelijk kunnen zijn, om een betere deal tussen AMD en een van de twee foundry's te kunnen bedingen.

Want ze kunnen bij beide fabs proef maskers (of iig doen alsof ze het bij beide doen) aan het maken zijn, en pas op het laatste moment kiezen met welke fabriek ze in zee gaan, dat heeft twee voordelen, ze kunnen kijken welk proces het beste werkt, en daarnaast beide fabs tegen elkaar laten op bieden.
is het echt zo moeilijk op een link aan te klikken?
quote: van uit de link
What follows is a small portion of the story of the RV870, the GPU behind the Radeon HD 5800 series.
Het is door AMD officieel bevestigd dat her hier om een 14nm procedé gaat. https://www.youtube.com/watch?v=5g3eQejGJ_A
Een GTX 950 heeft toch geen stroomverbruik van 140Watt? Dat ligt toch meer in lijn met de GTX 960?
Geen 140W nee, eerder 90~W tijdens gaming en 110~W max.
http://www.techpowerup.co...SI/GTX_950_Gaming/28.html

Al ligt dat natuurlijk ook weer aan de versie die je gebruikt..
Gigabyte Extreme versie: 106 - 117W
Gigabyte OC: 96 - 102W
EVGA SSC: 97 - 122W
Asus strix: 95 - 103W

Al heb je bij de Zotac amp! edition gemiddeld 118W en 144W max..
Ze hebben wellicht gewoon een uiterste genomen.

[Reactie gewijzigd door SmokingCrop op 4 januari 2016 15:39]

Kan natuurlijk ook een totaal systeem verbruik zijn, de rest van het systeem kan makkelijk nog eens 30~40W extra verbruiken. ;)
quote: TechPowerUp
For this test, we measure the power consumption of only the graphics card via the PCI-Express power connector(s) and PCI-Express bus slot.
Daarnaast is SW:BF een DX12 titel, welke meer efficiënt om gaat met de hardware.
According to lead Frostbite Engineer Johan Andersson who is very focused on low level API and is gearing the new updated Frostbite engine to use such technique, as a result AMD is strongly benefiting from their GCN architecture which favors low level API as witnessed by other benchmarks which uses DX 12 which saw AMD having significant jump.
Dus als ze V-Sync aan hebben gezet een een detail level hebben ingesteld dat makkelijk 60fps haalt, hoeft de RTG(AMD) kaart minder hard te werken, en verbruikt het nog minder totaal vermogen dan nVidia.

Uiteraard zou dit niet netjes zijn, maar nVidia staat zeker ook niet boven dergelijke praktijken, met onder andere hun nVidia lock-in SDKs, en in het verleden zelfs met het sturen van cherry picked kaarten, die ze naar testers stuurden.

[Reactie gewijzigd door player-x op 5 januari 2016 09:52]

TDP is 90 watt van de 950 GTX, dus die gaat echt geen 140 watt opnemen, mischien hebben ze het opgenomen vermogen van het complete systeem gemeten.

[Reactie gewijzigd door Zoidberg_AvG op 4 januari 2016 15:19]

Misschien is de TDP van de GPU core 90W en niet van de gehele videokaart? Dat zou alleszins veel verklaren. Geheugen, fan, spanningomzetters, etc. vreten ook heel wat stroom.
Tweakers had het inderdaad wel even duidelijker neer mogen zetten.
Het gaat inderdaad zoals in de slides te zien is om de complete setup bestaand uit onder meer: Core i7 4790K, 4x4GB DDR4-2600Mhz, Windows 10 64 bit.
(Tijdens de live presentatie waren de waarden 88.1W vs 150W average "wall power")
edit Zoals Merkane hieronder opmerkt: DDR4 moet waarschijnlijk DDR3 zijn, er zijn echter wel slides waarop zowel DDR3 als DDR4 beschreven staat

[Reactie gewijzigd door W.Wonderland op 4 januari 2016 17:00]

Het verschil is dan nog steeds redelijk groot. Positief blijven! :)
86 watt is redelijk laag, aangezien ze dan 54 watt onder het huidige verbruik van de GTX950 zitten.
Hierdoor wordt het waarschijnlijk een erg goede kaart voor het upgraden van 'kantoor PC's.'
Als nVidia zijn nieuwe GTX serie uitbrengt, zullen ze eerst beginnen met de high-end kaarten, waardoor AMD op dat moment de zuinigste kaart heeft.
Wel knap dat jij ddr4 op een 1150 socket zet :D Denk dat dit ddr3 moet zijn =)

[Reactie gewijzigd door Merkane op 4 januari 2016 16:50]

Als dat klopt dan is dat een pittig zuinige kaart. Das echt een gigantisch verschil qua efficientie.
ik dacht dat TDP alleen de warmte aangeeft die bij maximaal verbruik kon optreden en dat dit niet gelijk stond aan werkelijk verbruik al zal het niet zo zijn dat een TDP van 90W een verbruik van 140w oplevert maar. 110 of zo zou toch kunnen? of zit ik dan helemaal verkeerd te denken.
Aangezien een PC op zijn geheel maar heel weinig bewegende onderdelen heeft (die paar ventilators of oude harde schijven niet meegerekend) wordt het merendeel van de verbruikte elektriciteit gewoon omgezet in warmte, dus de TDP en het stroomverbruik liggen soms dichter bij elkaar dan je misschien denkt. Natuurlijk wordt een systeem niet altijd (eigenlijk bijna nooit) volledig 100% belast, dus zal het ook nooit verbruiken wat z'n maximale TDP aangeeft, maar het is vaak wel een goeie richtlijn om te vergelijken.
Het gaat inderdaad om het opgenomen vermogen van het hele systeem.
Zie:
http://www.youtube.com/watch?v=5g3eQejGJ_A&t=2m26s
Tekst onderaan.
Het meest belangrijke uit die test is, waarom op MEDIUM settings? Is dat de gulde midden weg, waar het verschil in Watt het grootste is?

Had graag deze test op ULTRA settings gezien, maar dat gaan ze natuurlijk niet doen!
Dat.. of misschien omdat ze dan allebei stabiel 60fps konden halen.
Toch wel: http://www.techspot.com/r...eforce-gtx-950/page9.html
Verbaasde mij overigens ook, ik dacht ook dat de GTX 950 meer rond de 120 Watt zou zitten.

[Reactie gewijzigd door Johan9711 op 4 januari 2016 15:16]

Volgens mij zijn het verbruiken aan het stopcontact, dus van complete systemen :)
Als ik zo een willekeurige GTX950 uit de pricewatch trek, met een gemiddelde kloksnelheid, dan geeft, in dit geval, ASUS toch echt op dat dat ding maximaal 150 Watt voeding nodig heeft, ja. Dat 'ie in de praktijk waarschijnlijk met minder ook wel af kan zit 'm in de hufterproofing die GPU-fabrikanten toepassen - die gaan er immers van uit dat mensen met een el cheapo C-merk voeding ook zo'n kaart willen kunnen gebruiken, en bouwen dus een behoorlijke marge in die voedingseis.

https://www.asus.com/us/G...50-M-2GD5/specifications/
"up to 150W1 additional 6 pin PCIe power required"

Waar mee bedoeld wordt dat de kaart een 6-pin pci-e stekker nodig heeft die inderdaad 150W kan leveren. Betekent echter niet dat de kaart ook de 150W die de stekker kan leveren volledig gebruikt.
Nee, maar dat zeg ik net - AMD en Nvidia weten dat, maar houden er alvast maar rekening mee dat jij die kaart op een voeding gaat aansluiten die je gratis bij een pak cornflakes hebt gekregen.
Nope, dit is puur om aan te geven dat er een 6-pin pci-e stekker in moet. Als het om flutvoedingen gaat staat er iets als "minimum 500W psu required".
950 en 960 schelen niet zo veel in sommige games (en andere weer meer)

maar het gaat hierbij om het verbruik van het gehele systeem volgens het anand artikel
Het ging over het complete systeem, en dat is ook aan de muur geverifieerd. Het is natuurlijk een gefabriceerde demonstratie maar ik vond het wel boeiend en geloofwaardig overkomen, en dat is bij AMD niet altijd het geval.

Ik hoop echt dat AMD de slag kan maken, wat mij betreft hebben ze vooral op het lagere/midden segment een grote slag te slaan, Nvidia heeft daar een betrekkelijk prijzig aanbod voor wat ze biedt. GTX 970 is de sweet spot maar als je de helft aan je GPU wil geven is er niet zo'n 'topper' op dit moment, en AMD heeft daar flink wat performance/watt in te halen.
Polaris + Zen kan AMD weer een beetje terug in de desktopmarkt brengen.
Ik hoop het, maar Kaby Lake refresh komt er ook aan. AMD zal echt enorme sprongen moeten maken gezien de huidige achterstand op bijvoorbeeld Intel. Tegenover Nvidia zijn ze al meer dan terug, omdat ze voor het geld prima GPU's maken.

[Reactie gewijzigd door Johan9711 op 4 januari 2016 15:32]

AMD's APU's zijn op graphische gebied nog altijd beduidend beter als intel. alleen de Pro's kunnen mee komen door de on-package memory , maar voor die pro betaal je wel zo'n 200 euro meer.

en het kan bijna niet anders dan dat zen dicht genoeg bij komt bij intel daar het voor het gros van de mensen niks uit meer uit maakt. (carrizo op 14nm zou dat al kunnen doen)

ruby lake kan ik niks over vinden.

[Reactie gewijzigd door Countess op 4 januari 2016 15:31]

Moest Kaby Lake zijn. Maar sinds Iris graphics zijn de AMD APU's niet zo interessant meer IMO. Veel games zijn op Low/Medium speelbaar op IntelHD graphics.
kaby lake brengt niks echt nieuws, en de kleine verschillen ten opzichte van skylake gaan geen make or break verschil maken voor AMD zen.
Want Zen gaat de wereld veranderen...

Noem me cynisch maar ik heb er (helaas!) niet veel vertrouwen in. Ik zie maar al te graag dat AMD de competitie een beetje kan aanscherpen maar de achterstand die ze hebben opgelopen is enorm en van Zen is nog steeds maar heel weinig bekend / bevestigd. Ik hoop echt dat het ze lukt, maar wat je tegenwoordig allemaal lees over Zen online is waarzeggerij. 8)7

Las ik vorige maand niet dat Zen (weer) vertraagd is? Tegen 2017 hoopt Intel ook weer een generatie verder te zijn, en in elk geval op het gebied van high-end CPUs beloofd Intel ook weer een hoop te gaan doen tegen die tijd (met Purley). Daar zal ongetwijfeld ook op het gebied van desktop en low/mid-end CPUs iets van te merken zijn. Maar ook dat is in de glazenbol kijken :P

[Reactie gewijzigd door Mmore op 4 januari 2016 16:56]

Die achterstand bestaat voornamelijk uit verkeerde ontwerp keuzes met bulldozer en 2 nods achterstand op productie process. beide zijn opgelost met zen.

Dus ja zen gaat de CPU wereld veranderen. Niet door Intel uit het water te blazen, maar wel door weer langs zij te komen.
Las ik vorige maand niet dat Zen (weer) vertraagd is?
het is altijd h2 2016 geweest en is dat nog steeds, en we weten nu eind 2016. niks vertraging.

purley is xeon, en niks van de performance features die ze daar noemen is ook maar in de veste verte interessant voor consumenten.

[Reactie gewijzigd door Countess op 5 januari 2016 09:35]

Tegenover Nvidia zijn ze al meer dan terug, omdat ze voor het geld prima GPU's maken.
Bron? De achterstand is nog nooit zo groot geweest wil je zeggen ....
http://i.imgur.com/bNqJYgA.png
De R9 390 presteert op hogere resoluties beter dan de GTX 970, en met DX12 gaat dat vermoedelijk op de lagere resoluties ook het geval zijn. De 380 4GB is beter dan de 960 4GB op hoge resoluties, door de 128 bits geheugenbus van de 960. de 270x presteerd beter dan de 950, en zo kan ik nog wel even doorgaan. Afhankelijk van het budget maken zowel Nvidia als AMD goede kaarten, en Nvidia kaarten zijn momenteel zuiniger, maar qua prestaties doet AMD niet onder voor Nvidia, daar getuigen de benchmarks van. Qua marktaandeel kan Nvidia best groter zijn, maar dat zegt niets over de GPU's zelf.

[Reactie gewijzigd door Johan9711 op 4 januari 2016 16:42]

Ik wil niet aan gpu-brand-bashing gaan doen, dus let it be clear: Ja helemaal gelijk.

Er zijn goeie punten en slechte punten. Kijk je puur naar geld-per-fps dan kan je vrolijk kiezen tussen de twee, maar hier en daar zijn er verschillen waardoor je voor 1 of de andere wil gaan.. en dat is persoonlijk.

Een puntje wat ik hier dan alleen wil toevoegen wat blijkbaar niet zo bekend is (komt ook niet zo vaak in benchmarks voorbij) is dat ironisch genoeg de AMD kaarten wat slechter presteren als de CPU performance naar beneden gaat (ahem, zoals met AMD cpu's). Waar het tipping-point zit weet ik niet, maar je ziet het niet zo snel in benchmarks omdat die meestal met brutal-cpu's worden gedraaid om het out-of-the-equation te halen.

Mooi voorbeeld is de oude 740 ti. Klein cheap-ass instap kaartje, maar er zijn een aantal AMD kaarten die meer performance leveren voor hetzelfde (of zelfs minder) geld.
MAAR, pair je die AMD kaarten met een instap-core-i3 of zelfs een Pentium gxxxx (want je ziet een budget-gpu niet zo vaak samen met een overclocked high-end i7) dan levert de 740ti opeens snellere of op z'n minst stabielere performance (minima beter op de 30fps of erboven bijvoorbeeld, minder stuttering, etc..).

Loont dus altijd even om benchmarks te zoeken van een test-systeem wat wat meer in lijn ligt van wat je zelf gaat bouwen. Dus niet gewoon naar de 'conclusie' pagina van een review springen (of naar 1 avg-fps tabelletje kijken), maar even nadenken over wat voor _jou_ belangrijk is :).

[Reactie gewijzigd door dipje2 op 5 januari 2016 12:46]

En dat AMD meer verbruikt dan Nvidia is ook maar een wassen neus. Wil je 100 euro voordeel halen moet je iets van 8 uur per dag gamen dus gpu onder load en dan iets van 500 dagen lang als het er niet meer zijn, waar praten we nog over.

Tuurlijk het kan zijn voordelen hebben maar voor de desktop/gaming markt niet zo interessant tenzij je triple sli gaat maar ik denk als je dat kan betalen de energierekening wel je laatste zorg is.
We kunnen je artikel niet lezen, er zit een paywall voor. Als je nou echt iets kon posten waardoor we overtuigd kunnen worden in plaats van plaatjes over marktaandeel en een paywall..
Die achterstand op Intel is eigenlijk alleen op het high-end segment en dat is een bewuste keuze van AMD geweest, juist voornamelijk in het budget segment heeft AMD heel aantrekkelijke chips maar blijven daarin toch voornamelijk achter omdat het simpelweg maar niet de wind in de zeilen krijgt. Het enige waar ze werkelijk nog een beetje achterlopen is het verschil in verbruik/warmteontwikkeling en daar wordt dan doorgaans ook heel erg op gehamerd, terwijl dit praktisch gezien bijna verwaarloosbare verschillen zijn... maar met de deze komende ontwikkelingen en de die shrink kunnen ze weer helemaal meekomen en hoop ik toch wel dat het ze weer eens wat beter voor de wind gaat.
De enige echt interessante AMD chip op dit moment is M.I. de x4 860k, de rest is allemaal voor Intel.
ik vind zelf de APUs geweldig voor de wat simpelere pctjes. meestal toch een quad core (wat mensen graag lezen ook al zouden de meeste niet eens een pc nodig hebben) een leuke gpu meegebakken voor wat licht vertier en alle facebook games.

voor htpctjes heb je ook nog het A1 platform Tom's hardware had gekeken naar A1 en intels celeron J1900 bordje en qua verbruik lag amd 2 tot 4 watt in full load erboven als ik mij niet vergis. tijdens films e.d. was het om het even. (paar gebruikers in de comments gaven wel aan dat je er verstandig aan doet om een aftermarket koeler op te plakken)
AMD had ook op multi-core gegokt, maar dat was ook fout gegaan. Met Zen zouden ze weer hoge IPCs moeten halen en dus per core competetief zijn met Intel.
Kaby lake refresh zal waarschijnlijk alleen uitmaken bij high-end overclockbare CPU's, en dat is -zover ik weet- niet waar AMD voor gaat.
Als AMD hun budget-CPU's (lees; non-k i3 of i5 niveau) ook overclockbaar maakt, zal je met een lichte overclock het zelfde verschil merken als met een refresh van Intel.
Dus dan moet je weer een in de meeste gevallen duurder moederbord kopen aftermarket koeler erbij zit je zo weer over een intel met cheap mobo en stock koeler. Plus dat de PC fabrikanten de onderdelen niet overklokken die je sowieso al moet overtuigen AMD erin te doen.

En wat MicGlou zegt dat AMD bewust budget spul verkoopt is ook niet zo ze zouden het toch wel fijn vinden wanneer er wat laptops komen met AMD cpu. Laptops zijn de grootste computer business, fabrikanten eisen sneller beter zuiniger.
Je moet je redelijk aan de wet van Moore houden wil je meedoen en Intel bijhouden die de standaard is, wil je bij het grote geld zitten.

Als je dan zegt:
''Het enige waar ze werkelijk nog een beetje achterlopen is het verschil in verbruik/warmteontwikkeling en daar wordt dan doorgaans ook heel erg op gehamerd, terwijl dit praktisch gezien bijna verwaarloosbare verschillen zijn...''

Als ze bij AMD zo denken snap ik wel dat ze hun desktop en iig laptop cpu's niet slijten

Maar er komt dus een mooi product hij werkt op 14nm, hij is zuiniger dan het product van Nvidia welk op 28nm werkt.
Ik ben wel heel benieuwd en ik hoop dat ze in de toekomst wat van mijn ideeën en vooroordelen weg kunnen nemen en dat ze dan wellicht zullen floreren.
Denk niet dat dit AMD terug gaat brengen.
Nvidia komt rond die tijd waarschijnlijk met Pascal en Intel met vermoedelijk met een refresh van de skylake
refresh van skylake brengt niks nieuws, en door polaris verliest nvidia hun voordeel wat verbruik betreft (eigenlijk al met fury).

nvidia had dat verbruiksvoordeel omdat ze hun double precision performance tot bijna niks hadden gereduceerd. met fury ging AMD bijna net zo ver (nog altijd 2.5 keer nvidia's) en gelijk was het verschil maar 30 watt in game. AMD gaat dat verschil echt niet opnieuw op laten lopen met polaris dus nvidia is hun voordeel wat dat betreft kwijt.

Met de nieuwe GPU generatie kan het dus weer beide kanten op.

[Reactie gewijzigd door Countess op 5 januari 2016 09:29]

Qua zuinigheid ben ik het niet met je eens. AMD heeft bij de huidige generatie GPU's nog het voordeel van het veel zuinigere HBM. Ik meen me te herinneren dat Nvidia's GDDR5 implementatie op de GTX980Ti al gauw 30W meer verbruikt tov het HBM geheugen op de Fury X.

Aangezien Nvidia ook aangegeven heeft HMB2 te gebruiken, is AMD op geheugen gebied haar voorsprong weer kwijt, en zal het het dus weer aankomen op de efficiëntie van de architectuur zelf.

Verder verwacht ik niet dat AMD nog meer gaat knippen in hun FP64 budget, aangezien dat juist hun voordeel is tov Nvidia.

[Reactie gewijzigd door ColinZ op 4 januari 2016 16:57]

Pascal is Nvidia's eerste chip met HBM terwijl AMD zijn ervaring met de Fury kan benutten. Tevens doe je de aanname dat Nvidia en AMD tegelijk op de markt komen. Met deze demonstratie heeft AMD aangetoond hoever ze staan, Nvidia heeft dat nog niet gedaan.
Je kan het ook van de andere kant bekijken: eventuele problemen en/of eigenaardigheden met HBM zullen al verholpen door AMD en gerapporteerd zijn bij SK Hynix. Nvidia kan hierdoor mogelijk makkelijker instappen.

Verder claim ik nergens dat AMD en Nvidia tegelijkertijd hun GPU's release? Op dit moment is dit gewoon koffiedik kijken.

Nvidia's CES presentatie is pas later op de avond, dus tot dan valt er gewoon bar weinig over te zeggen.
AMD kan hele zuinge chips maken anders. Vanaf de hd4xxx t/m de hd7xxx was AMD zowel zuiniger als goedkoper.

Pas toen nvidia ging snijden in hun gpgpu prestaties konden ze weer meekomen op dat gebied. Dat trukje gaat AMD echter niet meer verrassen zoals ik al eerder Zei.
Dat AMD GPU meer verbruiken ligt ook aan de veel bredere bus en dat vreet juist vermogen.

Voor AMD betekend dit meer TDP maar langzamere goedkopere geheugen chips.
Voor de customer tja wat meer hitte dat afgevoerd moet worden.

Kan zo zijn dat bij de volgende gen de rollen zijn omgedraaid.
Nee hoor, de geheugen breedte is juist waar HBM's efficiëntie op gebaseerd is. Zo heeft HBM1 een gigantische brede 4096-bit bus welke op 1Gbps loopt. De GTX980 heeft ter verglijking maar een smalle 256-bit bus, en moet deze op 7Gbps draaien om de GPU niet al te veel te bottlenecken (iets wat niet helemaal lukt).

Het is efficiënter om je bus breed, maar laag geclocked, in plaats van andersom. Natuurlijk vraagt een bredere bus wel meer die space.
Klopt. Alleen genoeg game pcs hebben niet echt een geweldige cpu nodig(een i5 2500 volstaat nu zelfs nog). Alleen die octacore van amd is gewoon crap. Als ze in de buurt komen van de i5 6400 voor een 130-150 euro(zonder aso verbruik). En met de mogelijkheid tot OC zie ik geen reden om een i5 in je game pc te stoppen.
Ik denk meer dan een beetje :)
Leuk dat de GPU's steeds zuiniger worden, maar de voedingen onder de 400 watt hebben vaak niet de juiste aansluitingen. Wat wel interessant kan zijn zijn de GPU's van 75 watt of lager, omdat die door het PCI-e slot kunnen worden gevoed.
Maar wat zegt 1080p@60 fps nu werkelijk over het gebruik? Als je v-sync aanzet en je gpu hoeft maar voor 30% te werken schiet je er alsnog niets mee op.
Maar wat zegt 1080p@60 fps nu werkelijk over het gebruik?
Het zegt toch wat over de efficiëntie?

Ze moeten identiek werk verzetten en de ene verbruikt 86 watt en de ander 140 watt...

Zelf heb ik daar meer aan dan het maximale verbruik, mn GPU is zelden voluit aan het werk. Enige waar het maximale verbruik handig voor is is voor het aanmeten van een voeding :)

Bij auto's testen ze dat toch ook op die manier? En niet alle auto's vol gas :P

[Reactie gewijzigd door watercoolertje op 4 januari 2016 16:12]

voor een deel wel. maar het is toch logisch dat ze efficiënter worden. anders zaten we nu met 100kw computers. en als we power consumption benchmarks vergelijken kijken ze naar idle en tijdens gamen(ala 90-100% load) en niet op een capped fps.
Zeker waar. Eigenlijk weten we vanuit dit plaatje niet de omstandigheden, en ook niet of het verbruik een compleet systeem is of niet. (aannemelijk van wel)
Het kan goed zijn dat ze optimale omstandigheden in het voordeel van de AMD hebben genomen.
Leuk dat de GPU's steeds zuiniger worden, maar de voedingen onder de 400 watt hebben vaak niet de juiste aansluitingen.
Moderne volgens mij wel hoor, maar daarnaast krijg je er in 9/10 gevallen een verloopstekkertje bij, lijkt me weinig mis mee (behalve dat het niet zo mooi is).
Molex naar 6(+2) smelt vrij snel, altijd tricky dus.
Echter betwijfel ik of er een midrange tot high end GPU in staat zal zijn om binnen dat TDP te blijven. De low end tot midrange kan het wel, maar die zijn niet serieus te nemen in games en 3D algemeen.

Desalniettemin juich ik deze efficiëntieslag toe.
"AMD toonde een Polaris-gpu die Star Wars: Battlefront op 1080p met 60fps speelbaar maakt met een opgenomen vermogen van 86W. De concurrentie zou hetzelfde doen met 140W op een GTX 950"

Wellicht dat het een typo is, maar een GTX 950 heeft een Power Rating van zo'n 90W; Een GTX970 zit eerder rond de vermelde 140W.
Idle is dat inderdaad het geval, ingame komt de lichtste kaart (ASUS GTX950) al uit op maar liefst 189 Watt.

Edit: Dit gaat dus om het complete systeem blijkbaar. Dan vind ik 140 Watt ingame niet eens zo heel veel...

[Reactie gewijzigd door Vinny_93 op 4 januari 2016 15:27]

De vermogens waar jij naar verwijst gaan over het complete systeem. Als het goed is zou een kaart niet veel meer dan zijn TDP moeten opnemen (90 watt voor GTX950)
90 watt TDP betekend niet dat het maar 90 watt maximaal kan gebruiken. Dit betekend dat maximaal 90 watt aan warmte verloren kan gaan (volgens de uitgever).
Als er maximaal 90w verloren kan gaan aan warmte kan hij ook maar 90w verbruiken hé? De enige energieomzetting in een gpu is die van elektrische energie naar warmte en een heeeel klein beetje beweging (fans en heel misschien coilwhine). In principe kan je dus zeggen dat een gpu een ontzettend efficiënte elektrische verwarming is, al is dat niet echt een enorme prestatie ;) .
Het gaat hierbij om het hele systeem blijkt uit het anandtech artikel.
De meting gaat over het verbruik van het hele systeem (in de demo werden twee, op de GPU na, identieke systemen gebruikt). Dit wordt genoemd in het AnandTech artikel dat LongBowNL elders in de comments heeft gepost.
Het werd ook eens tijd voor een dieshrink. We zitten volgens mij al bijna 4 jaar op 28nm. Met deze dieshrink mogen we weer grote stappen vooruit in prestaties verwachten.
Mwah. Als een die shrink fors hogere productiekosten oplevert dan lijkt het me niet rendabel. AMD kan niet echt zulke risico's nemen gezien de huidige markt.
AMD heeft de afgelopen jaren te veel focus gelegd op randzaken en niet hun core-producten. Samenvoegen van twee bedrijven wat gepaard gaat met veel trammelant, veel divisies worden samengevoegd maar in de praktijk betekent dat er ergens een afdeling sluit en soms sluiten beide er op een totaal andere locatie de divisie.
Daarnaast moesten aandeelhouders tevreden werden gehouden waarbij er verschillende reorganisaties zijn geweest.

Dat beetje extra geld voor een die-shrink had allang op tafel moeten worden gelegd. Dat is wat ze doen als bedrijf, steeds betere en snellere chips produceren, dan stuit je op problemen, maar met die problemen komen oplossingen.
Als je die constante uitdaging als bedrijf niet durft aan te gaan, dan is het misschien verstandig om in een andere tak van sport actief te worden.
Zover ik het snap zijn ze met een dieshrink wel afhankelijk van de partner die de chips bakt, en als die het produce niet in orde krijgt gebeurd er niet veel
Dan hou ik het nog even iets langer vol met mijn GTX 680 en dan word mijn volgende kaart hoogst waarschijnlijk toch weer eentje van de rode kant. Ik had eigenlijk al een R9 290/390 willen kopen maar ik wacht het nu maar eens rustig af :p
ik zou dan ook nog even wachten op pascal van de groene kant:P die komt ook in 2016.
Voor de fans van Anandtech, een uitgebreider verhaaltje.
http://anandtech.com/show...-polaris-gpu-architecture
Hmm, interessante strategie van AMD, een Polaris lanceren om van Nvidia te winnen :+

Ben wel erg benieuwd naar de performance, hopelijk eindelijk weer een flinke performanceboost, mijn inmiddels meer dan 2 jaar oude R9 290 is namelijk nog steeds een high-end videokaart.
Ik ben benieuwd of AMD zijn beloftes waar kan maken. Hun vorige "compleet vernieuwde" architecturen vond ik vaak tegenvallen. Het mooiste (of slechtste voorbeeld) was nog wel hun Bulldozer architectuur. Dat als teleurstelling bestempelen is een understatement.

Daarbij zitten nVidia en Intel ook niet stil. Ikzelf verwacht veel van pascal en ben dan ook benieuwd hoe beide het tegen het einde van het jaar doen.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee