Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 98 reacties

AMD heeft details over de komende Zen-generatie van cores vrijgegeven. Daarnaast trekt het concern de stekker uit Project Skybridge, waarmee de fabrikant x86-apu's met ARM-cores wilde combineren. Verder bevestigde AMD de komst van grafische kaarten met high bandwidth memory.

Zen is de nieuwe architectuur voor high-end-processors in AMD's FX-lijn, die in 2016 met de nieuwe cores uitgerust worden. Het gaat om een compleet nieuw ontwerp dat ervoor moet zorgen dat 40 procent meer instructies per kloktik afgehandeld kunnen worden dan de huidige Excavator-cores dat kunnen. De doorvoersnelheid moet flink toenemen door wat AMD Simultaneous Multithreading noemt, wat grofweg neerkomt op wat Intels HyperThreading doet.

AMD FX-processors met Zen-cores moeten het AM4-platform met de komende generaties desktop-apu's in de A-serie gaan delen en beide chip-generaties moeten in 2016 verschijnen. De chips zullen dan gebouwd worden op een FinFET-procedé, wat voordelen met betrekking op efficiëntie met zich mee gaat brengen.

AMD Zen roadmap 2015AMD Zen roadmap 2015AMD Zen roadmap 2015AMD Zen roadmap 2015

De onthulling van de Zen-architectuur gebeurde op een analistenpresentatie waarin de toekomstplannen van AMD uit de doeken gedaan werden. AMD gaat minder in low-end-pc's, tablets en smartphones investeren en zich meer op gaming, datacenters en embedded en custom chips richten.

Ook de ontwikkeling van ARM-cores blijft op de roadmap, maar Project Skybridge moet het veld ruimen. Voor dit project wilde AMD ARM-A57-cores combineren met Puma+-cores en een gcn-gpu maar op basis van feedback van de markt zijn de plannen geschrapt, vertelde AMD-ceo Lisa Su.

AMD roadmap 2015

Tenslotte bevestigde AMD dat komende grafische kaarten met high bandwidth memory uitgerust gaan worden. Geruchten hierover doen al lang de ronde. Uit de bijbehorende grafiek blijkt dat het om een zogenoemde 2,5- en niet 'zuivere' 3d-methode gaat: de dram-lagen zijn naast de processor gestapeld en niet erop. De dram-lagen zijn met elkaar en een interposer verbonden via verticale through-silicon via- of tsv-kanalen, die rusten op een base layer. Tsv's vormen paden door het silicium heen, zoals de naam al aangeeft, en zorgen daarmee voor korte lijnen. Volgens AMD gaat het hbm ten opzichte van gddr5 voor een verdrievoudiging van de prestaties-per-watt en afname van het verbruik van 50 procent zorgen. Details over de kaarten die met hbm uitgerust gaan worden gaf AMD nog niet.

AMD HBM roadmap 2015

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (98)

"De doorvoersnelheid moet flink toenemen door wat AMD Simultaneous Multithreading noemt, wat grofweg neerkomt op wat Intels HyperThreading doet."

als het grofweg hetzelfde is waar zit dan het verschil tussen deze twee?
Simultaneous Multithreading (SMT) is de technische term. HyperThreading is slechts een merknaam die Intel op zijn implementatie ervan kleeft.
Ik dacht dat hyperthreading gewoon een extra set registers waren.
Eg: ebx1, eax1, ... en ebx2, eax2, ... waardoor je niet zoveel moet context switchen.
Nope. Die registers heb je sowieso nodig, maar HT kan soms 2 instructies simultaan verwerken, mits de instructies niet dezelfde hardware van een core nodig hebben.
Iedere superscalar architectuur kan soms 2 (of meer) instructies simultaan verwerken. Dat doet Intel al sinds de eerste Pentium.
HT kan twee threads simultaan verwerken per core.
Er zijn dus twee contexts tegelijk actief op een enkele core (waardoor de registers idd dubbel uitgevoerd moeten worden). Hierdoor kan de out-of-order execution logica instructies uit twee instructiestromen tegelijk vewerken.
Omdat instructies uit verschillende threads per definitie onafhankelijk van elkaar zijn, is de kans op parallele instructieverwerking hoger, en dus neemt de efficientie van de core toe.
De instructies van de ene thread vullen de pipeline bubbles van de andere thread.

[Reactie gewijzigd door Scalibq op 7 mei 2015 00:18]

Zeer waarschijnlijk omdat beide fabrikanten een andere interpratie/uitvoering van het concept hebben.
Zeer waarschijnlijk omdat beide fabrikanten een andere interpratie/uitvoering van het concept hebben.
Heeft met name te maken met licenties. Voor een eigen implementatie hoef je geen licenties te betalen (als ze dat al niet doen) en voor de naam al helemaal niet. Hopelijk is de compatibiliteit met programma's die geoptimaliseerd zijn voor Intels Hyper Threading, wel hetzelfde.
Ik hoop juist dat AMD's HT eindelijk een HT is waar je ook wat aan hebt in gaming.
Want hoewel legio gamepublishers je een i7 aanraden, moet het spel dat HT gebruikt volgens mij nog uitkomen.
Ik kan je vertellen dat dat m niet wordt. het ligt namelijk niet aan de cpu, maar aan de manier waarop de game geprogrammeerd wordt.

het werkt zegmaar als volgt: (sterk versimpeld)
ik hebhet hier over threads als software threads, niet als hardware threads. wel is het aantal software threads dat n cpu tegelijkertiijd kan draaien gelijk aan het aantal fysieke threads op de cpu.

normaal besproken wordt de code van jou programma achter elkaar aan op 1 thread uitgevoerd. Om gebruikte maken van een extra thread moet je daar ook code op laten draaien. het probleem alleen, is dat threads niet zomaar de code op de main thread kunnen aanspreken. wat je wel kan doen is dat je aan het begin, variabelen meegeeft aan de tweede thread, en zodra jou tweede thread klaar is met verwerken, kun je wat met t resultaat doen. probleem is dus dat je niet weet wanneer die code op de tweede thread wordt uitgevoerd. dit wordt geregeld door het OS. Hierdoor kun je bijvoorbeeld in de main thread, waar je program,a op draait, steeds checken of de thread al klaar is. dit heeft dus alleen zin wanneer een zelfde taak meerdere keren onafhankelijk van elkaar afgehandeld kan worden. dit is bij games echter niet zo vaak het geval.

renderen van n 3D model bijvoorbeeld wel. hierbij verdelen ze de afbeelding in blokjes en doen die elk apart op n thread. het maakt immers niet uit wanneer de thread klaar is, en ook gebruiken de threads elk n ander stukje van de afbeelding. hierdoor is renderen dus sterk multithreaded,maar aangezien in het geval van een game vaak de spelwereld aangepast moet worden, en dus dezelfde gegevens vaak gebruikt moeten worden, gaat dat zo gemakkelijk niet.

zoals ik al zei is dit niet precies hoe t werkt, maar meer n sterk versimpelde uitleg om het probleem duidelijk te maken.
Denk dat je hier wat te kort door de bocht gaat... De meeste game engines maken wel degelijk gebruik van meerdere threads. Zowel op de cpu als de gpu. Als programmeur focus je alleen normaliter op de bottlenecks... Als dat in de Graphics zit is je gpu hard bezig en je cpu niet, zo simpel is het. Ik denk dat in de meeste spellen van vandaag dat laatste het geval is, je thread voor I/O, level loading / decompressie, audio, netwerk, etc houden het meestal wel bij op moderne hardware - en dat zit op je cpu.

Waar ik meer vraagtekens bij zet is de focus op bandbreedte ipv latency. Het valt me op dat AMD het heeft over Gddr ipv DDR en over bandbreedte wat dit suggereert. Voor de meeste algoritmes en datastructuren heb je echter meer aan lage latency dan aan bandbreedte. Ik heb heel wat professionele C++ code gezien in mijn leven en maar zelden raken de cpu's de memory speed aan (16 GB/s op ddr4). Hoge bandbreedte maakt deze limiet hoger -- maar dan moet wel eerst een probleem zijn... Grote hash tables en boomstructuren (zoals databases wat meestal varianten van b-tree's zijn) - hebben juist last van latency.

Enige echte nut hiervan zie ik voor map/reduce achtige (big data) toepassingen en voor film / rendering engines (eg Pixar). Daar wordt alleen hard gebruik gemaakt van cloud dynamische scalability, en om daar binnen te komen moet je volgens mij vooral ook een goed verhaal hebben over power consumptie - wat ik mis op de roadmap.

Kortom, ik snap het verhaal van AMD nog niet.
Het feit dat de engine zelf gebruik kan maken / maakt van meerdere threads, wil niet zeggen dat de game het doet. Zoals ik heb proberen uit te leggen kan je niet zomaar zeggen: Hé, laat ik het renderen op een andere thread doen en de AI op nog een andere thread.
Dit gaat niet op. Je eerste verhaal is een typisch voorbeeld hier van. Je kan afhankelijk van het soort game enz. maar beperkt gebruik maken van meerdere threads, in tegenstelling tot iets als een render engine, waarbij je dus alles (bijna) volledig parallel kunt doen.

Zoals je zelf ook al aangeeft, is het nut van meerdere threads beperkt. De meeste applicaties zijn nog steeds single threaded. Het wordt wel steeds beter, maar toch. Daarom denk ik ook dat AMD zich veel en veel beter op single thread performance kan richten. Alhoewel het wel een goede stap is dat ze nu eindelijk 'hyperthreading' ondersteunen zoals intel dat al bij de P4 had.
Het feit dat de engine zelf gebruik kan maken / maakt van meerdere threads, wil niet zeggen dat de game het doet. Zoals ik heb proberen uit te leggen kan je niet zomaar zeggen: Hé, laat ik het renderen op een andere thread doen en de AI op nog een andere thread.
Dit gaat niet op.
Nou, dat gaat dus wel op. Ik geloof dat je me verkeerd hebt begrepen.

Moderne spellen (en dan bedoel ik niet candy crush) werken gewoon met meerdere threads hoor. Vaak alleen wel dedicated op bepaalde taken, zoals ik probeerde uit te leggen. Ik weet niet eens waar ik moet beginnen met uitleggen... Zo ongeveer iedere game engine tutorial begint met uitleg over hoe je voor bepaalde taken op separate threads draaien. Als je bij het serieuze spul komt, wordt het absoluut veel complexer, maar dat wil niet zeggen dat het onmogelijk is.

Mijn punt is dat bij games de cpu meestal niet de bottleneck is. Meer of minder mips vind ik dus niet zo relevant daarvoor.

De meeste applicaties single threaded? Hell no! Om maar even wat voorbeelden te noemen: Web servers, database engines, game engines, search engines, professionele 3D Graphics, ja zelfs Excel en je torrents doen leuk mee en mijn programmatuur compileert lekker over alle processoren - ja, allemaal via meerdere threads, vaak icm async io. Er worden vaak zo veel threads gespawned dat er thread pooling (en andere truuks) worden gedaan om context switching binnen de perken te houden.

Als je cpu niet op 100% cpu zit, wacht hij ergens op. Dat kan je gpu zijn, een sleep/yield, io of memory. Volgens mij is memory latency daarbij de meest voorkomende bottleneck.

Sommige games prefereren een spinlock ipv een yield in de main loop. Het effect dat je observeert is 100% cpu op 1 core. Let wel, als je een hogere snelheid hebt op die core zegt dat helemaal niets over het effect op een snellere pc. En ja, ook dat kan komen omdat het spel dan wacht op een andere thread.

Je hebt niet ongelijk op algoritme niveau gezien; dat is alleen niet hoe het werkt. De meest voorkomende strategie is echter om een thread de meeste taken te laten uitvoeren en aparte threads te runnen voor grote subtaken die makkelijk kunnen worden opgesplitst.
in het geval van een game vaak de spelwereld aangepast moet worden, en dus dezelfde gegevens vaak gebruikt moeten worden, gaat dat zo gemakkelijk niet.
Wat ik weet van PS4 spellen, is dat ze alle taken proberen onder te verdelen per thread. Eén voor de engine, één voor de AI, één voor de special effects, etc. Dus ja het schaalt idd niet zo mooi mee als bij fotobewerking of videoprocessing.
Dat nieuwe high bandwidth memory doet het toch wel goed tegenover GDDR5 als wat zij beweren echt klopt. Benieuwd of het genoeg is om de komende GeForce-kaarten bij te blijven. Verder is het toch wel goed om te zien dat AMD blijft innoveren om onder andere te zorgen voor serieuze concurrentie.
Ik hoop met je mee dat AMD een goede concurrent kan blijven voor nvidia op grafisch gebied, maar met high bandwidth memory alleen zal AMD het niet gaan winnen. Want nvidia gaat zelf ook gebruik maken van HBM in hun aankomende nvidia GTX 1000-serie (oftewel de Pascal-GPU's).

[Reactie gewijzigd door geert1 op 6 mei 2015 20:47]

En ook Intel is er al mee bezig en willen er nog dit jaar een product mee uitleveren

http://www.extremetech.co...n-hybrid-memory-cube-tech

Zij noemen het hybrid memory cube en ze zijn er ook al minstens sinds 2011 mee bezig:

http://blogs.intel.com/intellabs/2011/09/15/hmc/

Hopelijk komt door de concurrentie er weer een beetje versnelling in de ontwikkelingen.

[Reactie gewijzigd door PuzzleSolver op 6 mei 2015 21:19]

Maar deze komen naar verwachting pas in 2016 op de markt.
AMD blijft vooral sterke concurrentie op het gebied van prijs.
en inderdaad, AMD zal dus eerder zijn met het gebruik van HBM. het was ook AMD die het eerst kwam met 8gb geheugen op mainstream-videokaarten(afgezien van de Titan serie).
Ja, het zou toch zonde zijn als NVIDIA het in haar eentje voor het zeggen zou hebben. En de markt voor grafische kaarten bestaat eigenlijk al uit slechts twee partijen, daarom is het goed om te zien dat AMD serieus bezig blijft met haar grafische kaarten. Verder is inderdaad meer nodig dan alleen een nieuw soort geheugen, maar het toont in ieder geval dat AMD nog steeds goed bezig is met de grafische kaarten-tak.
Helaas is de geheugen bandbreedte niet iets dat echt een bottleneck op de videokaart is, een VRAM overclock zal je hooguit 5% winst geven, terwijl een GPU overclock makkelijk 20% kan geven met een beetje geluk.

Het feit dat dit geheugen minder energie gebruikt voor dezelfde prestaties is dan weer wel voordelig: zo krijg je minder warmte waardoor je kaart kouder is waardoor je GPU beter overgeclocked kan worden.
VRAM bandwidth is juist wel een bottleneck voor het _aantal_ GPU cores. Als je een fixed design hebt hebben ze juist het maximale aantal cores en VRAM bandwidth op elkaar afgestemd en is op geen enkele manier meer veel meer bandwidth voor het vaste aantal cores nodig.

Nu kunnen ze dus meer cores erbij plakken _zonder_ dat VRAMbandwidth een probleem vormt.

voorheen was het al moeilijk/duur om 512 buswidth te layout-en en GDDR5 is al een tijd aan zijn max. Hetgeen betekent dat deze technologie weldegelijk de bottleneck is voor designs die meer dan 300-400 GB/s throughput nodig gaan hebben (wanneer ze dus meer cores erbij willen plakken).

Het was eigenlijk de keuze om 1024 buswidth te gaan toepassen of iets drastisch anders (HBM voor AMD, of extra compressie voor Nvidia)

[Reactie gewijzigd door ripzor op 6 mei 2015 22:32]

Toen ik ging studeren in 1999 heb ik overwogen een siliconen Graphics pc te kopen. Dat was een Intel xeon (Pentium 3) met een paar grote aanpassingen: de 1024 bit bus naar memory, shared memory met de gpu en iirc Graphics hardware van sgi. De veel bredere bus dan standaard was de enorme plus tov andere hardware. Kosten waren uit mijn hoofd +/- 10k.

Het klopt wat je zegt, het design is al eerder bewezen.
Dat hangt toch ook sterk van je situatie af. De reden dat de R9 290X op UHD goed meekomt met alle top kaarten van NV muv de Titan X (die natuurlijk ook veel nieuwer is), is juist die geheugenbandbreedte. De hoeveelheden bandbreedte die nodig zijn om games op 4K weer te geven zijn veel hoger dan bij FHD en daar was het al een tijdje geen bottleneck meer. Maar nu 4K langzaamaan breed beschikbaar en enigszins betaalbaar wordt (natuurlijk nog altijd high-end prijzen) zullen zowel AMD als NV hierop moeten reageren. Ik denk dat NV ook bij de volgende generatie een dergelijke stap richting sneller geheugen gaat maken om dit bij te kunnen houden.
Zoals ik het begrijp komen er dus ook nieuwe AMD FX CPU's ( dus zonder GPU )

Het zal mij benieuwen :)
Jammer dat het x86-ARM-project de nek wordt omgedraaid.

Ik had graag het beste van beide werelden in huis willen hebben. Een krachtige x86-CPU voor Windows die x86-applicaties en -games kan draaien en niet een halve oplossing zoals Windows RT. En een zuinige ARM voor Android voor de meer simplistische taken, of wanneer de accu op kwartvol staat.

Hoewel ik snap dat zoiets gebeurd als "de markt" feedbackt dat het niet geïnteresseerd is in de nieuwe technologie, vraag ik me wel af of er überhaupt zo'n markt al bestaat, omdat het nieuw is.

Hopelijk pakt een ander bedrijf de handschoen op en gaat ermee verder.

[Reactie gewijzigd door RoestVrijStaal op 6 mei 2015 21:02]

Een ander bedrijf? Dat kan alleen VIA zijn dan, gezien dat de enige overige speler is met x86 licentie (Intel zal nooit in de ARM markt stappen).

Maar wat jij wil is helemaal niet nodig. Er zitten ook al Intel soc's in smartphones, die net zo zuinig zijn als de ARM varianten. Aangezien Android ook gewoon op x86 draait, is het gewoon onnodig om deze 2 samen te voegen.
Inderdaad, enkel VIA of Intel. Of een bedrijf dat bulkt van het geld om de benodigde licenties op de patenten van Intel & AMD, en eventueel nog VIA te kopen.

Bij Android op de x86 krijg je hetzelfde euvel als Windows RT: apps van 3de partijen zijn niet compatibel, tenzij die een speciale x86-build vrijgeven (dat maar een enkeling zal doen). Zeker nu er afgestapt wordt op de Dalvik-VM en Android apps steeds meer native worden door de ART-compiler.

[Reactie gewijzigd door RoestVrijStaal op 6 mei 2015 22:01]

De ART compiler is nog steeds instructie onafhankelijk.
Bij een normaal Android programma is de input is nog steeds een bytecode APK die platformonafhankelijk is. De Art compiler zal deze dan op het platform zelf compileren naar native code (deze draait immers op de telefoon/tablet).
Art is dus even platformonafhankelijk als Dalvik.

Wat wel waar is: indien er libraries meegeleverd worden die gemaakt zijn in C/C++, dan valt deze patformonafhankelijkheid weg. Deze moeten dan aan de kant van de developer gecompileerd worden voor ARM, X86, MIPS,... (Maar dit is een vlagje in je build script. Alle multiplatform libs kunnen nog altijd in 1 apk gzet worden om een multiplatform APK te krijgen).

In de praktijk valt het redelijk mee. Als ik de play-store vergelijk op een X86 tablet (oa. Galaxy tab 3), dan zijn er geen grote verschillen t.o.v. een ARM tablet.
Intel heeft overigens al een ARM-naar-x86 recompiler in de x86-versie van Android opgenomen, om native ARM-code toch te kunnen laten werken op x86, genaamd Houdini: https://commonsware.com/b...means-for-developers.html

[Reactie gewijzigd door Scalibq op 7 mei 2015 11:26]

Intel had jaren ARM cpu's maar die zijn aan Marvell verkocht. Maar recent heeft Intel Zii ARM omtwerpteam van Creative overgenomen dus misschien gaan ze nog een poging wagen ;)
Die ARM extensies zijn bijvoorbeeld in Windows zinloos. Heb je weinig aan.

Ontopic: Ik ben benieuwd naar het pakket dat AMD in 2016 te bieden weet. Een nieuw AM4 platform waarmee het AM3 echt achter de doeken doet, mijn X6 zit te wachten op een upgrade. Een high performance ZEN FX is waar ik naar uit zal kijken. :)
Ik zou graag gezien hebben dat het OS zelf op de ARM chip zou draaien. Windows/Linux zelf kunnen wel goed uit de voeten op een quad core ARM.

Dat applicaties/games op de X86 chip draaien, vooral met games is elke interupt minder mooi meegenomen.

MS is/was ook met zoiets bezig in hun Research, zo'n dual chip design waarvan er 1 voor het OS zelf zou zijn, voeg dat met AMDs Skybridge samen, ik zie mogelijkheden :)
Wat je wil is zo gimmicky dat niemand het gaat maken, zeker niet op die omslachtige manier.
BIG.little is een idee wat enigszins succesvol is maar dat is ARM en ARM, ARM en X86 zal zoals je al aan gaf een daadwerkelijke scheiding hebben. De afgelopen jaren zijn X86 cores naar een lager TDP gegaan en ARM cores naar een hoger TDP. Er zit niet gek veel verschil tussen een 5W X86 en 5W ARM core.
Wat in dit verband veelzeggend is, is dat er nooit een serieuze markt voor hybride multi-CPU oplossingen is geweest. Dat wil zeggen dual-socket systemen met 1 x86 en 1 ARM. De beste benadering daarvan is nog steeds 1 x86 CPU met 1 GPGPU.

Er is dus ook geen OS wat zoiets aankan, wat natuurlijk de marktkansen van een hybride CPU ook niet hielp.
Ik snap niet dat amd niks doet met de jaguar cores uit de ps4 en xboxone, lijken me goed geschikt voor budget game pc's, omdat je de gpu en cpu in 1 koopt.
Die chips zijn gigantisch duur om te maken, omdat het een hele grote chip is. De consumentenprijs van die chip is waarschijnlijk hoger dan de huidige FX-9000 serie. En de consument schakelt daarbij tegelijkertijd de mogelijkheid om hun GPU te upgraden uit.

Daarnaast vinden PC-games die 8-core chip op lage kloksnelheid helemaal niet zo leuk. Die hebben meer profijt bij de helft van de cores op dubbele snelheid. Games ook, ook anno 2015 (jammer genoeg).
Bovendien is de HD7870-like GPU nou ook niet enorm krachtig, veel gamers zoeken toch net iets meer... sowieso ga je zonder GDDR5 ook niet enorm lekkere prestaties uit die GPU trekken; het VRAM zal dan ook uit je DDR3-geheugen moeten komen.
Daarnaast vinden PC-games die 8-core chip op lage kloksnelheid helemaal niet zo leuk. Die hebben meer profijt bij de helft van de cores op dubbele snelheid. Games ook, ook anno 2015 (jammer genoeg).
Toch appart, je zou verwachten dat het porten van een PS4/xone naar PC, er toe zou leiden dat games beter mee schalen met meer cores.
Directx is geen ster qua multithreading, bovendien wil je als je een muis gebruikt ipv een controller ook niet op 30 fps spelen, dus moet alles sneller zijn.
Als het zo duur is, waarom zitten ze dan in de console? De apu van de consoles is nu 1,5 jaar oud, dus die hadden ze kunnen verbeteren. Dan heb je prima chips voor budget game pc's voor bijvoorbeeld lekker league of legends te spelen.
Het gaat al jaren niet bijzonder goed met AMD, met deze deals zijn ze 6-8 jaar voorzien van een grote klant die samen sowieso 100 miljoen chips afneemt. Goed voor de aandeelhouders ook. Qua winst levert het AMD niet zoveel op.
Voor Sony en MS is 1 chip iig goedkoper dan 2 chips.

Zo'n chip zou met Windows ook prima zijn voor LoL hoor, trouwens :)
Hoewel dat inderdaad Jaguar cores zijn, zijn dat slechts 4 cores in plaats van 8, zonder een krachtige GPU.
De ps4/X1 gebruiken geen 8-core versie. maar een dual-quadcore configuratie.
(net zoals de Q6600 van intel feitelijk een dual-dual core was).

Je kan deze PS4 cpu beter het beste positioneren tussen een quadcore met HT en een echte octa-core. (even heel zwart wit gezien, de intel HT cpu's bieden natuurlijk een compleet ander soort product)

Er worden meer rekenkernen toegevoegd op de die, maar in de rest van de architectuur worden geen aanpassingen gedaan om hier optimaal gebruik van te maken.
Ik geef je helemaal gelijk :) mijn reactie was ook meer bedoeld op Nieuwevolger.
Ik snap niet dat amd niks doet met de jaguar cores uit de ps4 en xboxone,
Omdat Jaguar an sich helemaal niet zo goed presteert ten opzichte van andere CPU core architecturen. Jaguar is vooral bedoeld voor relatief goedkope en low power SoC's. De implementatie van Jaguar cores in de consoles komt vooral goed uit de verf door de relatief sterke GPU die in die APU zit, en wat andere tweaks zoals de geheugencontroller.

Voor budget gaming op de PC heb je liever een APU met krachtigere CPU cores en een geïntegreerde GPU van ongeveer hetzelfde kaliber als de geïntegreerde GPU van de consoles.
lijken me goed geschikt voor budget game pc's, omdat je de gpu en cpu in 1 koopt.
Het is een APU. Zoals AMD al behoorlijk veel APU's in z'n assortiment heeft. CPU en GPU in één package is niet nieuw te noemen. En de huidige APU's doen het niet eens zo slecht wat betreft budget gaming.

Maar het is inderdaad te hopen dat AMD in z'n komende line up(s) ook APU's uitbrengt met sterkere geïntegreerde GPU's.

[edit]
@nieuwevolger
Ik bedoelde ten opzichte van de consoles. Aangepast voor de duidelijkheid.

[Reactie gewijzigd door houseparty op 7 mei 2015 13:05]

De gpu's is normale apu's zijn beperkt in kracht en eigenlijk wil je wel wat krachtigers dan dat.
Hebben ze toch al met de A series niet bepaald prijzig te noemen en voor budget gaming/htpc leuke cputjes
Maarja, 2016. Tussentijd kan Intel nog even verder R&D'en en komen ze volgend jaar met spul wat inmiddels al weer sneller of beter is en loopt AMD weer achter de feiten aan, beetje oude DDR verhaal eigenlijk.
nou, AMD loopt sws al achter op intel en heeft nog heel wat stappen te maken voordat ze intel uberhaupt maar in kunnen halen. ( dan kijk ik naar de cpu's )

De APU's van AMD blijven sws voorlopen op die van Intel aangezien Intel het zijn bedoeling niet is om grote sprongen daarin te maken.

ik vind de APU's en de FX zeker niet slecht.
Jep ik denk dat dit gewoon praatjes zijn, tegen die tijd knallen nvidea en helemaal intel er dik overheen.
Het is dankzij AMD dat we DDR hebben, niet Intel. Ik weet niet hoe jij "achter de feiten aanloopt" bedoeld. 8)7
De doorvoersnelheid moet flink toenemen door wat AMD Simultaneous Multithreading noemt, wat grofweg neerkomt op wat Intels HyperThreading doet.
Zo nieuw is Simultaneous Multithreading niet, want dat zat ook al in de oude cores sinds bulldozer.
http://en.wikipedia.org/wiki/Bulldozer_(microarchitecture)
The modular architecture consists of multithreaded shared L2 cache and FlexFPU, which uses simultaneous multithreading.
Wat is er nu dan zo nieuw aan? Dat na de FPU nu ook de integer units multithreaded zijn?
de FPU SMT werd geheel achter de schermen gedaan. daar zag bijvoorbeeld windows niks van.

nu krijgt ook windows te zien dat er 2 threads uitgevoerd kunnen worden.
Ok, op die manier. Maar zou dat dan ook inhouden dat een module geen FPU meer gaat delen met twee integer cores, want hierdoor bleef de FPU performance achter op die van intel. Ik vermoed dat ze deze opzet gekozen hadden omdat je op een bepaalde punt deze FPU load ook beter op de gpgpu kan gaan draaien. Maar die switch is nooit echt goed van de grond gekomen.
dat is dus met zen niet meer het geval. iedere core krijgt zijn eigen (nog bredere) FPU.

de FPU bandbreedte per core is met zen 4 keer zo hoog als bij bulldozer. (en per thread dus 2 keer.)
SMT gebeurt altijd geheel achter de schermen, dus ik snap niet goed wat je bedoelt.
Ik denk dat het vooral nieuw is dat AMD nu zelf van SMT spreekt.
Met Bulldozer noemden ze het nog CMT, en wilden ze zich onderscheiden van Intel. Maar inderdaad, wat ze deden met 'FlexFPU' is in feite hetzelfde idee als SMT, alleen pasten ze het nog niet toe op de integer units.
Dit klinkt wat processors betreft als een ommezwaai voor AMD, die zich eerder juist minder op de high-end- en gamers-markt leek te richten. Hoe dan ook ben ik er blij mee dat er nieuwe FX-processoren komen, want het leek erop dat Intel dit segment helemaal zou gaan domineren. Dat kan alsnog natuurlijk, afhankelijk van de prijzen en prestaties van de nieuwe FX-processoren. Ben benieuwd hoe deze CPU's zich gaan verhouden tot de huidige en aankomende i5's en i7's (zowel qua prestaties als qua stroomverbruik / warmte, de zwaktes van de huidige FX-CPU's).

Het nieuwe videogeheugen klinkt op papier in elk geval goed. Natuurlijk moeten er dan ook GPU's komen die hun voordeel kunnen doen met al die extra bandbreedte. Hopelijk blijft het niet bij vooruitgang in videogeheugen alleen, maar wordt de R9 3xx-serie algeheel een flinke verbetering. Nvidia komt tenslotte ook met High Bandwidth Memory, dus daarmee alleen is de slag niet geslagen.

[Reactie gewijzigd door geert1 op 6 mei 2015 20:48]

Nou eigenlijk niet. AMD zal uiteraard ooit met een nieuwe architectuur komen ook met lage R&D budged na vele Jaren. En nu komt de voordeel van scheiden van FAB's en CPU ontwikkelaar. Het zelfstandige Globalfoundry komt met meer courantere dieshrink.
Kleinere procede houd ook in meer budged voor cores. Meer transistoren per alu pipeline.
En als je een out of order core kwa alu voorbij de 3 a 4 gaat tot 6 dan wordt extra tread er door mixen wel noodzakelijk om die pipeline redelijk gevuld te houden.

Ten minste als iNTel niet al te snel 10nm of zo komt.

Dat is als iNTel 14nm en 16nm de komende Jaren de dieshrink worden. Dan geniet AMD een concurerende positive door CPU te produceren op een redelijk gelijkere dieshrink.
Dat verhoogt de concurerende opties.

Maar daarbij genieten de GPU tak ook van hetzelfde procede.
Daar is het ook een finke stap.
AMD, die zich eerder juist minder op de high-end- en gamers-markt leek te richten

De verwarring komt door bij gamers aan high-end te denken.

Het blijkt dat de meerderheid van gamers low en mid-end systemen hebben. Juist waar AMD successvol is omdat ze qua grafische kracht veel beter zijn dan Intel met hun embedded GFX. Denk o.a. aan de vele laptops met A6 en A8 CPU's die het typisch afleggen tegen de i3 en i5 behalve bij gaming.
Het wordt niet expliciet gezegd, maar het lijkt er op dat de nieuwe Zen-core in 2016 nog niet in de APU's zit, alleen in de top end processors.

Als die nieuwe core werkelijk zoveel verbeteringen oplevert dan lijkt dat me een gemiste kans. Juist door de APU's te verbeteren zou AMD in het lagere en midden segment veel beter kunnen concurreren met Intel. En dat is toch verreweg het grootste deel van de markt.

Het topsegment is erg klein en met deze verbeteringen gaan ze het toch ook nog niet redden tegen Intel.
Maar op zich is dit vrij standaard verhaal.. Eerst de Topmodellen uitbrengen om mee te pronken en dan de rest pas.

En ik gok dat het uitbrengen van APU's iets langer duurt omdat het even wat meer werk kost om de nieuw architectuur te verwerken in een APU..

Het is gewoon een beetje marketing... Kijk wat wij kunnen, en daarna kijk wij hebben dat techniek verwerkt in een APU die de gemiddelde consument kan gebruiken.. Al is het voor AMD te hopen dat het niet zo hard flopt als de FX reeks..
'Want als je duurste CPU's erg tegenvallen, zullen die goedkope APU's ook niks zijn..'
Het topsegment is erg klein en met deze verbeteringen gaan ze het toch ook nog niet redden tegen Intel.
Dat is helemaal waar, echter:

- Marketingtechnisch is het zeer interessant om ook ik de top mee te kunnen. "Wij hebben het beste product en ook wat goedkopere afgeleiden daarvan" verkoopt gemakkelijker dan "wij zijn vaak relatief gezien de goedkoopste".
Toen AMD (meer dan een decennium geleden alweer) met z'n K7 en K8 architectuur (AthlonXP, Athlon64 en AthlonX2) Intel's Netburst Pentiums de oren waste verkochten ze over de gehele breedte meer CPU's en was het bedrijf financieel in betere staat.

- De winstmarge in de hogere segmenten ligt hoger.

Overigens stellen ze niet zo zeer dat ze zich meer op het high end / topsegment willen richten. Ze stellen vooral zich meer te willen richten op gaming, datacenters en embedded en custom chips, en minder op low-end-pc's, tablets en smartphones.

Dat zegt dus niet expliciet dat ze zich meer op high end / topsegment willen richten. En dat hoeft ook niet perse.
Kijk bijvoorbeeld naar "custom chips / gaming". Op dat vlak hebben ze met hun APU's in de PS4 en XBox One al een behoorlijke basis waarop ze door zouden kunnen bouwen. En nee, qua gaming hardware behoren de APU's in die consoles niet tot het topsegment, verre van zelfs.

[Reactie gewijzigd door houseparty op 7 mei 2015 12:21]

Grappig dat AMD ook hyperthreading gebruikt, terwijl het zo ongeveer overal wordt neergesabeld omdat het geen zin zou hebben.

Heb al sinds een van de eerste Pentium 4 HT modellen hyperthreading gebruikt, en altijd het idee gehad dat het aanzienlijk versneld. Sinds die tijd op werk pc's en laptops alleen i7's als het budget het toeliet.

Zal wel een niet meetbaar gevoel zijn, maar dit ervaar ik toch als gerechtigheid tegen eenieder die zegt het beter te weten.
op de pentium 4 had HT nog regelmatig een negatief effect op de performance anders. en alle winst die je gevoelsmatig had toen is waarschijnlijk het zelfde als die je ook zou hebben met een dual core.

nu alle cpu's minimaal dual core zijn zal die winst van HT niet meer zo duidelijk merkbaar zijn. blijft het meetbare prestatie verschil over en dat is MAXIMAAL 30%, en meestal beduidend minder.

HT is dus leuk, maar niet echt een wonder middel.

[Reactie gewijzigd door Countess op 7 mei 2015 14:49]

Natuurlijk is het geen wondermiddel. Aan de andere kant, als je ziet hoever sommigen gaan om 20% te overclocken....

Ik vermoed dat het bij de Pentium 4 vooral de snellere reactie was op gebruikersinvoer.
Je kunt performance op meerdere manieren meten natuurlijk.
HT is vooral interessant voor bv webservers of database-servers, omdat er meer threads tegelijktertijd actief kunnen zijn, waardoor de gemiddelde response-tijd lager is.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True