Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties

AMD heeft een afbeelding in een onderzoek gezet, waarin het hint op een apu met 32 Zen-cores en 32GB aan hbm2-geheugen. Zo'n apu staat momenteel niet op de roadmap. Het is onwaarschijnlijk dat het product zou verschijnen voor de consumentenmarkt.

De afbeelding is een schematische weergave van een Exascale Heterogeneous Processor en staat in een paper van AMD die online te vinden is bij de IEEE en waaruit de Italiaanse site Bits and Chips citeert. De apu zou moeten verschijnen in 2016 of 2017.

Gezien de timing zijn de zichtbare 32 cpu-kernen naar alle waarschijnlijkheid Zen-cores, die AMD binnenkort in gebruik zou nemen bij nieuwe apu's. De genoemde gpu zou dan gebaseerd zijn op Greenland, merkt WCCFTech op. De diagram toont ook acht blokken met ieder vier units van dram. Als het daarbij gaat om hbm2, de nieuwe generatie 3d-geheugen van Hynix, dan zou het in totaal gaan om 32GB.

Een dergelijke apu is nog niet verschenen op de roadmap van AMD. Het is niet waarschijnlijk dat een dergelijke apu verkrijgbaar zou zijn voor consumenten.

Moderatie-faq Wijzig weergave

Reacties (41)

Niet voor consumenten, ik denk dat dit inderdaad nog niet betaalbaar is.

Maar in 2016 a 2017 weetje nog niet wat er komt, alhoewel de cpu technologie niet heel snel meer gaat tenopzicht van 10 jaar geleden.
Die 'snelheid' heeft een verschuiving gekregen, het was eerst vooral op kloksnelheid gericht waar het tegenwoordig vooral op die shrinks is gericht. De snelheid neemt in principe nog maar weinig toe, maar als je ziet hoeveel kleiner en zuiniger cpu's zijn geworden vergeleken met 10 jaar geleden... dat is ook een toename in 'snelheid'. De wet van Moore geld nog steeds... Heel erg vergelijkbaar met het downsizen van motoren tegenwoordig, vroeger kocht je een 2 liter motor met 120pk, tegenwoordig kan je al een auto met een 1.4 liter met 120pk kopen. Dan is er geen toename in het aantal pk's, maar wel een stuk kleinere motor die minder verbruikt voor hetzelfde resultaat ;)

Edit/toevoeging nav de reactie van ACM:
De snelheid is op zich ook nog wel aardig toegenomen, quote uit een benchmark die toevallig afgelopen week online kwam:

[...]

Het is uiteraard een definitiekwestie van of je dat veel of weinig vindt. Als je een verdubbeling elke anderhalf jaar had verwacht, dan is het natuurlijk niet zoveel; dan had het meer dan 32-40x moeten zijn. Dat artikel laat ook mooi je andere punt zien; het verbruik is bij die snelheidswinst niet toegenomen.
Die link van jou trekt de boel wel aardig scheef, niet heel erg treffend als je het mij vraagt. Ze baseren dat puur door een oude dualcore tegenover een nieuwe quadcore te zetten en doen dat op prijsniveau. Als je het verschil in toename wil beoordelen dan moet je het per core bekijken en dan is het dus niet 6 tot 12 keer sneller, maar 3 tot 6 keer sneller... theoretisch gezien uiteraard. Plus dat er ook nog eens een klasse verschil tussen die twee processoren zit, een E6600 was geen high end cpu toentertijd, er waren toen ook al snellere cpu's beschikbaar zoals de Q6600... dat was al een eerlijker vergelijk geweest.

[Reactie gewijzigd door MicGlou op 3 augustus 2015 09:01]

De snelheid is op zich ook nog wel aardig toegenomen, quote uit een benchmark die toevallig afgelopen week online kwam:
With almost eight years of separation, it should be unsurprising to find that the newer processor is between 6 and 12 times faster
Het is uiteraard een definitiekwestie van of je dat veel of weinig vindt. Als je een verdubbeling elke anderhalf jaar had verwacht, dan is het natuurlijk niet zoveel; dan had het meer dan 32-40x moeten zijn. Dat artikel laat ook mooi je andere punt zien; het verbruik is bij die snelheidswinst niet toegenomen.

Overigens kan je ook al een tijdje 1.0 liter motoren met 120pk kopen :P
Zie mijn aangepaste reactie aub... die vergelijking in de link gaat van jou niet geheel op aangezien het niet per core wordt bekeken maar op prijsniveau. Dat een huidige quadcore veel sneller is dan een oude dualcore is uiteraard niets verbazend aan. Het moet per core worden bekeken en dan zijn de verschillen qua pure kloksnelheid dus alweer 50% kleiner dan in dat artikel wordt aangegeven. Het is een beetje appels met peren vergelijken op die manier... of om bij de motoren te blijven, benzine met diesel ;)
Ik vind het onzin om het per core te bekijken. De wet van Moore zegt niets over cores, alleen maar over het aantal transistoren. Omdat we nu een veel kleiner werkenpassen er veel meer cores op een processor,. Dat is ook vooruitgang. Progamma's maken hier ook steeds beter gebruik van en het vertaald zich in snelheidsverbeteringen. Erg arbitraire om te zeggen dat dit dan niet telt.

Verder zou je om echt goed te vergekelijken over tien jaar in het zelfde prijssegment ook de inflatiecorrectie en misschien zelfs koopkracht moeten toevoegen. Hoewel dat voor de laatste jaren misschien niet al te veel uit maakt of zelfs negatief uitpakt :P.
Jij gaat erg vrij om met mijn opmerking, ik benoem nergens dat de wet van Moore het aantal cores beschrijft. Ik doelde veel meer op het feit dat er toentertijd ook al quadcores beschikbaar waren die ook alweer een stukje sneller waren dan de dualcores en daardoor het verschil scheef gaat en het daarom per core bekeken behoort te worden. Het is simpelweg geen eerlijk vergelijk om de rekensnelheid te vergelijken als je een cpu gebruikt met meer rekenkernen, ongeacht het aantal transistoren. Ik zeg ook helemaal niet dat het niet telt, ik zeg dat het vergelijk scheef is om eerder genoemde reden.

Laat ik het dan anders zeggen aangezien we nu toch zijn begonnen met mierenneuken :+ Het gaat om het aantal transistoren per core, dat is een eerlijk vergelijk... vergelijken op prijs is echt nonsens, zeker gezien cpu's nogal in prijs zijn gezakt de afgelopen jaren.

De ene auto van Ą20.000 is ook de andere niet, voor hetzelfde geld kan je hele andere klasse wagens aanschaffen... om maar weer even bij die auto te blijven. Als je een vergelijk doet moet het wel zoveel mogelijk hetzelfde zijn... een auto met 300pk presteert ook heel anders dan een vrachtwagen met 300pk. Of op een andere manier gezegd, 4 vrachtwagens kunnen ook meer gewicht verplaatsen dan twee...

[Reactie gewijzigd door MicGlou op 3 augustus 2015 09:56]

Maar Quadcores waren toen veel duurder. Zoals jij zelf ook al zegt heb je tegen woordig veel meer bang-for-buck. Is dat niet waar het uiteindelijk om gaat? Voor het zelfde geld een beter product? Ik zie niet in waarom een andere maatstaaf beter zou zijn.

Waarom je vast houd aan ... per core snap ik echt niet. Kijk bijvoorbeeld naar GPGPU, daar zit een hoop toekomst in, maar daar zitten honderden, tot duizenden cores in. Deze zijn individueel zeker een stuk langzamer dan zelfs cores van tien jaar geleden. Ook hebben ze per core minder transistoren. Toch gebruiken veel super computer clusters nu deze speciale GPGPUs om dingen uit te rekenen omdat ze samen ontzettend veel sneller zijn, voor dezelfde prijs en het zelfde stroom verbruik.

Daarom zou ik zelf nooit de architectuur of innerlijke werking mee laten spelen bij vergelijkingen tussen computer componenten (of auto's :P). Maar het einddoel. Het einddoel is dat je sneller dagelijkse taken kan uitvoeren. In die benchmark zit oa een Excel benchmark, die is 7x zo snel voor dezelfde prijs.
Als je je single core performance niet verbetert zal uiteindelijk ook je multicore performance niet kunnen verbeteren. Die kritieke single core code wordt dan de bottleneck voor heel het systeem. En wat ik zag in die benchmarks was dat je zelf met een oude Quad of Duo core theoretisch eigenlijk nog best kon "gamen". Echter dat die ene multicore optimised excel benchmark er 7 x op vooruit gaat maakt voor mij niet uit sinds ik zo'n macrocode/functie amper uitvoer. Voor mij is de verbetering dus niet het optimistische tot 11 x sneller maar eerder 2-3 x.
edit: dt-fout

[Reactie gewijzigd door goarilla op 3 augustus 2015 19:12]

Jij gaat erg vrij om met mijn opmerking, ik benoem nergens dat de wet van Moore het aantal cores beschrijft. Ik doelde veel meer op het feit dat er toentertijd ook al quadcores beschikbaar waren die ook alweer een stukje sneller waren dan de dualcores en daardoor het verschil scheef gaat en het daarom per core bekeken behoort te worden. Het is simpelweg geen eerlijk vergelijk om de rekensnelheid te vergelijken als je een cpu gebruikt met meer rekenkernen, ongeacht het aantal transistoren. Ik zeg ook helemaal niet dat het niet telt, ik zeg dat het vergelijk scheef is om eerder genoemde reden.
Je gaat even voorbij aan het feit dat die Q6600, voor gaming, helemaal niet sneller was dan bijvoorbeeld een dual core E6750. Dat kwam doordat die dualcore e6750 eenvoudig overclockbaar was tot ruim 3.8 GHz op luchtkoeling (ipv 2.66 GHz). Die Q6600 wilden meestal niet verder dan 3.0-3.2 GHz (ipv 2.4 GHz) en daarbij waren er gewoon weinig games die echt iets met meer dan 2 threads deden. Zelfs het geroemde Supreme Commander haalde meer fps op 2x 3.8 GHz (e6750) dan op 4x 3.2 GHz (q6600).

Het verschil met vandaag (nou ja, sinds Sandy Bridge in 2011) is dat je nu ook op de quadcores dergelijk hoge klokfrequenties kunt halen. Een 2500K draait probleemloos 4.4 GHz op alle cores tegelijk... Het nadeel dat quadcores toen hadden (warmte, beperkte OC) is nu verdwenen.

Als je dus eerlijk wil vergelijken dan zul je dat ook moeten meenemen. Wil je dualcores blijven vergelijken? Kijk dan eens naar de Pentium G3258 Anniversary edition en ga dan nog eens beweren dat we single threaded niet vooruit zijn gegaan... 179 fps in Cinebench one thread....
http://techreport.com/rev...rsary-edition-processor/3

Wil je quadcores vergelijken? Kijk dan eens naar een Q6600 vs een i7 4790K. Die hebben ongeveer dezelfde prijs positionering... Zie hier bijvoorbeeld circa 250% single threaded en 315% multithreaded: http://www.legitreviews.c...0-to-core-i7-4770k_2247/9 ...

Overigens is de meest zinnige vergelijking niet een kunstmatig opgelegde limiet van prestaties per core maar highend chip vs high end chip. Een alternatief is binnen dezelfde price range blijven ;).

[Reactie gewijzigd door sdk1985 op 3 augustus 2015 14:54]

Er zijn meer haken en ogen aan.

PIII 1.133GHZ vs thunderbird 1200MHZ
Toon haalde iNtel net als NVidia ook maximale uit nV30.
Men roamed nu de markt af.
Dus al die consumenten zooi van iNtel nu is niet wat de limiet nu is, dat is met zeer grote marge. Wat wel opvalt is dat Xeon al op 16 Cores zit.
Dat zijn nog 22nm chips. Op 14nm is meer mogelijk.

Nou met 14nm kan Intel en AMD met gemak 16cores leveren
AMD cores zijn mogelijk wat kleiner kwa transistor aantal. Dus als iNtel al richting de 28 gaat is 32 cores zo gek nog niet.

Maar ja maar dan moet ook consumenten software multithreading veel beter ondersteunen. Maar dat komt ook op gang.

De toekomst van CPU is ook wat GPU al is many cores. Waar de toekomst van GPU massive many cores is.
Grafiekje met performance per core, volgens SPECInt: http://imgur.com/a/r3wbh

Eerde een factor 4 in 8 jaar. Kan je nog bakkeleien over multicore van 2 naar 4-8 cores. Maar verbetering op dat vlak ga je niet overal terug zien. Voor multicore is ook meer de interconnect belangrijk, en dat de individuele core snel zijn (dus bovenstaande benchmark).

Anderszins zeggen ze bij Intel ook dat einde van Moore's law erg nabij is. Luister bijvoorbeeld naar: https://twitter.com/feraldata/status/626781821582352385

[Reactie gewijzigd door Henk Poley op 3 augustus 2015 13:40]

De Wet van Moore stelt dat het aantal transistors in een ge´ntegreerde schakeling door de technologische vooruitgang elke 2 jaar verdubbelt.

Deze 'wet' heeft niets met GHz of snelheid te maken. Door de verkleining in het productieproces en het steeds meer toevoegen van cores, gpu's, geheugencontrolers, cache, etc. aan 'CPU's', is het aantal transistors per 'die' de afgelopen 10 jaar evengoed toegenomen volgens de curve van deze 'wet'.
De echte snelheid van schakelen is wel minder snel gestegen de MHz wars zijn al erg lang voorbij en met het huidige halfgeleider materiaal kunnen we niet echt veel sneller. De 5GHz zou nog net kunnen echt veel sneller kan het materiaal zelf simpel weg niet schakelen ongeacht de koeling dat wil gewoon niet verder.
Nu is zo snel schakelen nog al energie behoeftig en produceert het dus nog al wat hitte, wat weer flinke koeling vereist. Omdat de meeste consumenten niet echt zitten te wachten op een computer met vloeibare stikstof en een beest van een installatie om de te warme stikstof weer te koelen; blijven we voorlopig steken op ~4GHz. Echt sneller worden we niet meer zo lang we silicium blijven gebruiken.

Wel zijn de processoren steeds krachtiger geworden met een zelfde snelheid kunnen we nu meer doen. Maar je moet ook niet vergeten dat de enige echte marktleider op dit moment totaal geen behoefte heeft aan enorme innovatie op desktop/consumenten gebied. Intel heeft immers de markt zeer stevig in handen, een concurrent is ver te zoeken en dus hoeft er een stuk minder geld in R&D gepompt te worden op dit vlak. Mobile computing en natuurlijk de internet of things toepassingen.
Je ziet de verschuiving heel duidelijk, nadat AMD verslagen was en Nvidia niet met Intel in bed wilde zijn de research budgetten verschoven naar de mobile en internet of things toepassingen. ARM is een geduchte tegenstander en dat is waar Intel nu haar focus heeft liggen. De gewone desktop markt krimpt al jaren ook de workstation markt is niet meer wat het geweest is, steeds meer taken verdwijnen in een VDI setup want deze worden steeds krachtiger met multi core chips en bergen met geheugen en SSD's in de storage oplossingen.

Voorlopig hoeven we geen wonderen meer te verwachten van Intel op desktop gebied want ze hebben toch geen concurrenten. Op mobile computing gebied en internet of things gebied denk ik dat de enorme investeringen die Intel doet misschien wel iets zullen op leveren nu het er eindelijk op lijkt dat Intel ARM heeft kunnen bijhouden met de laatste generatie chips. Al is de terugloop in verkoop aantallen op de desktop markt natuurlijk wel een gevaar want hoelang kun je miljarden in een nog niet zo succesvolle markt blijven pompen als de cashcow met de dag magerder wordt?

Wat deze CPU betreft... (toch nog een beetje on topic)
AMD wil wel en kan misschien zelfs deze CPU wel maken maar kijkend naar de huidige top super computers dan vrees ik toch voor AMD omdat dit in middels al weer jaren een Intel lijstje is met Nvidia GPU's voor de rauwe parallel rekenkracht. Deze chip zou daar verandering in kunnen brengen maar als dit alles on die moet gebeuren met daarnaast het gestapeld geheugen dan vrees ik nog het meest voor de yield. 32 cores, 32GB gestapeld geheugen (nog een erg nieuw proces) en dat alles een paar duizend keer als je de racks met computing nodes moet geloven. Dat lijkt me ook in 2017 nog een zware kluif voor onze vrienden in het groene kamp.
Ik weet niet waar ik het recent gelezen heb, maar een topman bij Intel had gezegd dat de Wet van Moore de komende tijd naar 2.5 jaar wordt bijgesteld. De verwachting is dat na een bepaalde periode deze weer naar 2 jaar gaat.

Edit: beetje zoeken leverde me het volgende artikel op, http://uk.businessinsider...moores-law-is-over-2015-7

[Reactie gewijzigd door Mythx op 3 augustus 2015 08:57]

Die 'snelheid' heeft een verschuiving gekregen, het was eerst vooral op kloksnelheid gericht waar het tegenwoordig vooral op die shrinks is gericht. De snelheid neemt in principe nog maar weinig toe, maar als je ziet hoeveel kleiner en zuiniger cpu's zijn geworden vergeleken met 10 jaar geleden... dat is ook een toename in 'snelheid'
Ik ben bang dat je een klassieke fout maakt onder het motto 640K is enough. Net voor Sandy Bridge dacht gros op tweakers dat we geen grote stappen voor pc gaming qua rekenkracht zouden krijgen. Inclusief een heel artikel hier op tweakers over videokaarten waarbij zelfs werd gesteld dat snellere videokaarten geen nut hadden omdat we een cpu bottleneck hadden (en daar zou sandy bridge niets aan veranderen)(reviews: 2010: Nvidia en AMD nek aan nek).

Ondertussen weten we, 4 jaar later, dat niets minder waar was. Sandby bridge gaf een onwijze sprong in performance. De videokaart markt is 4 jaar later nog steeds bezig met een inhaal race. Zelfs met een "belachelijke" kaart als de GTX 980 Ti kun je nog 99% gpu loads zien. Misschien gaat dit veranderen als Nvidia's Pascal (Nvidia) volgend jaar gaat brengen wat het beloofd op de slides. Dan zou de cpu bottleneck weer terug kunnen komen... Dit is overigens niet de eerste keer... Intel heeft ook een tijd vertraagd na de introductie van Northwood in 2001.

Je moet of heel jong of heel na´ef zijn om te denken dat er geen kans meer is op grote sprongen...
De wet van moore is dan ook niet gericht op de snelheid van de processors maar op het aantal transistors in een processor
Ik vind het inderdaad een goede en leuke vergelijking met de motor, kudo's daarvoor :D
Echter zit er wel een verschil, ze moeten beiden zuiniger worden, maar sommige hebben baat bij een snellere cpu, hoewel het nog niet echt van de orde is als je kijkt naar de particuliere software heeft het minder nut om een snellere motor te kopen.
Zolang die voor de maniak naar de 300km/u gaat heeft het geen nut om een motor te maken die 500km/u kan. Dus ga je naar de zuinigheid kijken, sneller heeft weinig nut ( uiteraard heb je snelheid monsters maar goed ook die zullen geen motor hebben die 500 haalt ) Daar waar sommige wel baat erbij hebben indien de cpu niet alleen zuiniger wordt maar ook nogeens sneller :D
Zo'n opzet kan erg interessant zijn voor consoles. Je hebt dan super snel geheugen. En ook relatief veel. En dan een hele krachtige APU er achter.

Nu is het natuurlijk de vraag hoeveel er van dit gerucht klopt en hoe groot zo'n chip wel niet gaat worden. Aan de andere kant zou AMD dan van 28nm naar 14nm kunnen gaan. Dat bied wel mogelijkheden voor meer cores al denk ik dan toch eerder aan 8 en 16.
Dat console firma's voor APU gegaan zijn zegt toch wel wat.
Nu hoeven ze maar een chip voor leuk prijsje in te kopen.
APU met HBM is nog een leukere bundle prijsje.
CPU GPU mem in een chip. Nog even en je hebt een SOC

Nintendo is eerste aan zet. Denk niet dat ze voor power gaan maar wel klein goedkoop en compact. En dat is een APU met HBM .

Een 8core met 4GB HBM1 is zo gek nog niet.

14nm 8 Zen core met 8GB HBM2 Maar dat verwacht ik niet van Nintendo.
Wat HWI zegt is veel aannemelijker. Namelijk dat dit een chip is die gebruikt gaat worden in supercomputers. Een stuk of 4 van die chips in 1 blade en je hebt veel computing power. Erg interessant! Zeker als er ook een form van HT in Zen zit dan heb je 64 threads en natuurlijk de grote krachtige gpu.

Dan ga je wel records breken.

[Reactie gewijzigd door Astennu op 3 augustus 2015 19:07]

"Dan ga je wel records breken"

Ik ben bang van niet eigenlijk; puur omdat het 'te laat' zal zijn en iemand anders ze al gebroken zal hebben. Intel komt er binnenkort aan met hun 2e generatie Xeon Phi (of eigenlijk de 3e als je de prototype release mee telt); de 'Knights Landing' serie. En wat er tot nu toe over bekend is liegt er niet om.Tussen de 60 en 72 (blijven ze vaag over) out-of-order Atom Silvermont cores, 4 threads per core, hun variant van HBM (16GB), en dit zal de eerste generatie zijn die niet alleen als accellerator kaart maar ook als server processor chip in een socket gestoken kan worden. Waarschijnlijk zijn die cores zelf clock-voor-clock al op het zelfde performance niveau als de huidige AMD cores (beide dual-issue). Zen zal daar zeker wel wat verbetering in brengen, maar ik betwijfel of ze echt tegen dit beest van Intel op kunnen. Het wordt echt heel moeilijk voor AMD.
Zo'n opzet is inderdaad leuk voor consoles, zeker als er voldoende HBM aan boord kan zitten zodat 'gewoon' DRAM overbodig is. Aan de andere kant zou dat dan wel met een veel kleinere chip moeten dan deze theoretische 32 core variant; dat zou werkelijk een gigantische chip zijn (zeker als er nog een flinke GPU op zit ook). Ter vergelijking zijn de 8-core Jaguar APUs in de Xbox One en PS4 al rond de 350mm2; (363mm2 en 348mm2 om precies te zijn). Bij een veel grotere chip zouden er veel meer yield issues zijn, en de kosten om die te produceren zouden flink stijgen. Om nog maar niet te spreken van de hoeveelheid warmte die die chip zou produceren; en een (g)loeiende console is toch niet echt waar we op zitten te wachten :+ Natuurlijk zou er wel een transitie naar een kleiner procede gemaakt zijn; 14nm misschien in plaats van 28nm, maar ik denk niet dat dat voldoende besparingen zou geven voor zo'n grote chip. Het lijkt me waarschijnlijker dat ze rond de 8 cores blijven en de GPU kant flink vergroten; ik betwijfel of er echt vraag is naar meer CPU kracht in de consoles, behalve dan misschien meer single-thread performance.
De GPU en custom logic gebruiken bij de XBone1 en de PS4 het meeste van het oppervlak. Die Jaguar cores zijn maar relatief zijn. Ik gok dat Zen wel een stukje groter is. Zelfs op 14nm zou dit inderdaad een grote chip worden of ze moeten de GPU klein houden. Maar dat is voor een Console niet interessant.

Aan de andere kant verwacht ik niet dat er nu al klanten zijn voor zo'n APU. De Xbone1 en de PS4 moeten nog heel lang mee. En Nintendo kennende gaan ze voor een chip die niet al te krachtig is. Als hij vergelijkbaar is met de PS4 of Xbone1 vind ik dat al heel wat.
Daar komt nog bij dat APU's specifiek voor de consumentenmarkt bedoeld zijn, dus vroeg of laat komt het er zeker. Toen ik mijn eerste P1 op 100 MHz had, had ik ook nooit kunnen voorstellen dat er 4GHz octo-core processors zouden bestaan voor de consument.
Tja, als je de eerste 1 Mhz processoren had meegemaakt (factor 100x langzamer), dan was 40x sneller best geloofwaardig. En de P1 was de eerste Intel met meerdere Execution Units die parallel draaiden, dus ook can multi-core waren al hints zichtbaar.
Op het moment dat zoiets in een tekening zit met een cabinet vol compute nodes en die weer in meerdere cabinets is het wel vrij evident dat het niet om consumententoepassingen gaat :P En het stukje 'exascale ...' in de naam geeft het ook wel weg.

Deze slide is een representatie van een supercomputer en deze apu's zijn daar (blijkbaar) ook voor bedoeld.

Dat zegt natuurlijk niet dat dergelijke apu's nooit beschikbaar komen voor het grotere publiek. En dan vast in eenvoudigere versies (minder ram, minder cores).
Gezien de release date een leuke APU voor de Nintendo NX...
AMD's Opterons zijn op zich altijd "gewoon" voor consumenten verkrijgbaar geweest; ze werden via dezelfde groothandelskanalen aangeboden als consumentenprocessoren, dus computerwinkels konden ze gewoon bestellen. In die zin klopt wat in het artikel staat niet echt. Ze zijn niet de ideale processor voor een consumenten-PC, maar dat lijkt me evident. Desondanks zijn er wel wat mensen die een 1-processor Opteronbordje van bijvoorbeeld Supermicro als desktop hebben ingezet.
De andere reden dat het niet zo boeiend voor de consument is, is dat veel programma's toch niet de kracht van veel cores benutten. Op het moment dat het zover is, doen zelfs de I7 of welke processor van nu dan ook, het al een stuk beter :)
Die laatste zin "Wel verscheen onlangs een gerucht van een vermoedelijke 'GTX 1080' voor consumenten."

Is die zin daar echt bedoeld? Zo ja, wat heeft een GTX1080 met dit bericht te maken? :P
Die zin staat hier wat mij betreft onterecht.
Enige overeenkomst tussen dit bericht en die GTX1080 is dat er HBM2 geheugen gebruikt wordt.

Verder loopt de vergelijking nogal mank.
Dit bericht gaat over AMD terwijl de GTX1080 een NVidia product is.
Dit bericht gaat over een APU terwijl de GTX1080 een grafische kaart is.
Vond het ook een rare actie. Sluik reclame voor nVidia.....
Men doet echt alsof die naam waar is. Waarschijnlijk is dit gewoon een gerucht wat door iemand bedacht is voor page views en is het niet vanuit nVidia gelekt.

GTX1080 zou een logisch vervolg zijn qua naamgeving maar het kan ook zo maar anders worden.

Zoals door meerdere al aangegeven de enige overeenkomst was HBM2. Vind het een beetje ongepast om nVidia hier dan te gaan noemen.
En ik vraag me vooral af wat dat dan zou moeten zijn, ze hebben net hun nieuwe topkaart gelanceerd lijkt me sterk dat ze stiekem in het geniep een toch nog sterkere kaart hebben weten te maken.
WCCFTech staat erom bekend niet de beste Nieuwsbron te zijn, wees gewaarschuwd...

Een apu met HBM is briljant: Je hoeft geen RAM meer te kopen, het moederbord hoeft geen RAM meer te ondersteunen en het zal nooit een bottleneck voor je systeem zijn. Scheelt de consument een hoop kosten!
Het grote probleem met HBM is dat je ook meteen vast zit aan de hoeveelheid geheugen waar de chip mee komt, en dat is het dan. Je verliest de flexibiliteit om daar je keuzes te maken in wat het beste bij jouw gebruiks scenario voor die machine past. Ook is de capaciteit en prijs van HBM nog veel ongunstiger ten opzichte van de massa productie van DRAM; voor servers/HPC heb je toch wel heel veel meer nodig dan 16 GB. Ik zie voor server/HPC toepassingen dan ook meer brood in het idee dat HBM als een extra grote L4 cache gebruikt kan worden die veel sneller benaderd kan worden dan DRAM.

Misschien is het wel een idee voor AMD om dat dynamisch partitioneerbaar te maken; een deel van HBM gebruiken als een L4 cache, en de rest om de GPGPU units van voldoende bandbreedte te voorzien, mits die in gebruik zijn. Dan kan je afhankelijk van het type workload wat je er op wilt draaien de instellingen daar voor optimaliseren. Aan de andere kant, hun strategie met HSA/hUMA was juist om dat niet meer in apart geheugen te hebben, en mits je kan garanderen dat het in de L4 cache staat wanneer je je GPGPU operatie begint, dan heb je zo'n partitionering niet nodig.
Ik zat meer te denken aan consumenten computers. Er is vrijwel niemand die meer dan 16GB gebruikt, en dat gebruik zal ook voor een lange tijd niet toe nemen in de toekomst, dus met 32GB zitten ze meteen goed totdat de processor te langzaam is, wat misschien wel niet zal gebeuren de komende 10 jaar...
Het paper beschrijft een visie, en staat vol met woorden als "could", "envisioned" en "must". Ik denk dat het daarom wat ver gaat om dit plaatje als meer te interpreteren dan wat het is: een schematisch plaatje van hoe iets eruit zou kunnen zien.
Zelf lees ik dit bericht vooral als een onderstreping van het belang dat AMD hecht aan de integratie van HBM geheugen in haar APU. De eerste hint die ik daarover las (er zijn er vast veel meer) was in een artikel van extremetech (6 mei). Een quote hieruit:
The most interesting statement in AMD’s server presentation is the “Disruptive Memory Bandwidth” and “Transformational Memory Architecture” claims. We’ve seen rumors before that AMD might integrate HBM into APUs. If the company were to do this, it might make the most sense to integrate it into servers first. While HBM has been discussed as a game-changer for integrated graphics — and it truly could change the rules of the game in that segment — it’s important to stair-step new technologies into markets that can afford the additional cost.

Offering HBM on a server chip would give AMD access to a nearly on-die cache that would offer vastly improved bandwidth compared with traditional DRAM. AMD likely can’t afford to take Intel’s route of building a 128MB L4 cache on die, but an HBM memory segment (backed by a conventional DDR4 main memory) could be a potent alternative.
Dit klonk al leuk, en misschien wat realistischer als we denken aan de thermische huishouding. Als je doorklikt in de WCCFTech link, en naar de official roadmap op regel 2 gaat, dan is die misschien nog explicieter over de cruciale rol van dat HBM:
By 2017 AMD plans to introduce what it described as a High Performance Computing APU or HPC for short. This APU will carry a sizable TDP between 200 and 300 watts. This sort of APU, AMD expects, will excel in HPC applications. Similarly powerful APUs were not attempted up to this point because they were simply not viable due to the amount of memory bandwidth required to keep such a powerful APU fed. Thankfully however stacked HBM ( High Bandwidth Memory ) will make such designs not only possible but extremely effective as well. As the second generation of HBM is 9 times faster than GDDR5 memory and a whopping 128 times faster than DDR3 memory.
Maar de informatie in dit topic lijkt ronduit stoutmoedig. 8 stacks 3D DRAM, het dubbele aantal van de 4x1GB stack in de huidige Fury x kaarten. Laten we eens aannemen dat dit een plannetje is voor 2017. Bij de berekening van de grootte van het HBM geheugen van wccftech raak ik een beetje op het verkeerde been. Er wordt gesproken over 4 Hi-stacks, dan zeggen ze dat HBM2 8Gb per die toelaat, en dit zou 4GB per stack zijn :/, zal wel een bit/Byte bandbreedte/opslag verschil zijn. Met de totale 8x4GB heeft iedere core een modaal cache geheugen van 1GB, geheel in de geest van Extremetech, waarbij we dan aannemen dat de CPU cores en de GPU cores dit cache nog delen ook. Zoek ik meer info over de te verwachten groei van opslagcapaciteit dan loop ik vooral tegen die Gb bandbreedte maatstaf aan. Ik kan niets vinden over de te verwachten groei in opslagcapaciteit. Een oplossing met nog grotere stacks HBM zal het gewone DDR geheugen naar de achtergrond gaan. Warmte zal voorlopig nog wel een grote spelbreker zijn.

[Reactie gewijzigd door teacup op 3 augustus 2015 22:53]

Er wordt altijd zo negatief gereageerd op berichten van WCCFTech en Videocardz maar ze hebben wel bijna altijd in grote lijnen gelijk. Omdat ze gebruik maken van lekken ipv officiele bronnen vind ik dat ze best wel eens wat credit mogen hebben!

OT

Volgens mij tijd voor een nieuwe console :) De PS4 en XB1 waren eigenlijk al outdaten bij launch en devs lopen nu al tegen de grenzen aan. Daar zou deze apu wellicht erg fraai voor zijn dus verwacht weer nieuwe consoles rond 2016-2017.
Op een interposer kunnen er meerdere chips staan. Dus een aparte cpu en gpu is mogelijk. Andere chips zoals een fpga kunnen ook toegevoegd worden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True