Foto vermeende AMD Phoenix 2-apu wijzen op hybride chipontwerp

Er is een foto opgedoken van wat een AMD Phoenix 2-apu zou kunnen zijn. Uit aantekeningen van X-/Twitter-gebruikers zou blijken dat deze nieuwe AMD-apu over een hybride chipontwerp beschikt, zoals eerdere geruchten ook al deden vermoeden.

Op de foto, die op X/Twitter is geplaatst, zijn naar verluidt twee ‘normale’ Zen 4-rekenkernen te ontwaren, maar ook vier efficiëntere Zen 4c-kernen. Die laatste zijn geoptimaliseerde rekenkernen met een lagere kloksnelheid, minder stroomverbruik en een kleinere omvang.

AMD bevestigde in juli van dit jaar het bestaan van een nieuwe Phoenix-apu met zes kernen, maar het bedrijf vertelde toen nog niet dat het om een chip met hybride architectuur ging. Eerder dit jaar waren er ook al documenten van AMD gelekt waarin de nieuwe Phoenix-apu’s werden vermeld. Daaruit was af te leiden dat de chipset wel over ‘normale’ en ‘efficiëntere’ rekenkernen zou gaan beschikken.

Als de Phoenix 2-apu over een hybride architectuur beschikt, treedt AMD in de voetstappen van zijn concurrent Intel. Die introduceerde in 2021 zijn Alder Lake-chips, die ook over ‘normale’ en 'efficiëntere' rekenkernen beschikken.

Foto vermeende AMD Phoenix 2-apu
Foto vermeende AMD Phoenix 2-apu - Bron: X

Door Jay Stout

Redacteur

10-09-2023 • 12:59

41

Reacties (41)

Sorteer op:

Weergave:

Ik vind dit prentje (ook gedeeld op HWI) overigens wel wat verduidelijkender voor wie (net als ik) niet weet waar hij precies moet naar kijken: https://twitter.com/BusAlexey/status/1700534630481310003
Mooi plaatje! Vraag me alleen wel af waarom er nog steeds zo veel USB2 controllers op de SOC zitten?
Je zou verwachten dat een standaard die al "oud" is sinds 2010 (ik dacht dat Ivy Bridge de eerste was met geïntegreerde support?) inmiddels wel bijna weg zou zijn in plaats van een groot deel van het silicon op te eisen.
Een paar voor backwards compatibility ofzo zou me logisch lijken, maar USB3.0 is dat al.
Omdat USB2 minder complex is en veel apparatuur heeft niet meer nodig.
Ja en nee, er zijn toch nog gek genoeg wat USB-sticks bijv. die niet goed mee willen werken op USB 3.x. Een voorbeeld is simpelweg booten. Vanaf USB 2.0 weer wel. Er zijn nog wat andere problemen, maar vaak denk ik dat dit meer software gerelateerd is. Een PSP aansluiten op USB 3.x gaf mij bijv. ook wel eens problemen en op USB 2.x/1.x ging alles zoals het moet.
Hmm, ja van de andere kant zou je ook kunnen zeggen dat dit gewoon op de moederboarde geintegreerd kan worden wat vaak wel al het geval is.
Zoals @SkyStreaker al zei er zijn wat devices die niet goed werken met USB3.0. Zo heb ik een bluetooth stick (mijn pc heeft geen ingebouwde bluetooth) en als ik die op USB3.X zet dan lagt mijn bluetooth muis (nieuw gekocht van Logitech).

Op het internet wordt er geadviseerd om USB2.0 te gebruiken en inderdaad! Het werkt normaal op USB2.0, maar niet met USB3.X.
Weet iemand waarom de twee performancekernen tegen elkaar liggen? Vanuit performance-oogpunt zou ik wat afstand willen: op die manier kan warmte efficiënter afgevoerd worden in plaats van dat beide performancekernen elkaar opwarmen.
Misschien omdat ze zo sneller en makkelijker toegang hebben tot elkaars cache? Dat helpt als ze aan dezelfde taak bezig zijn.
Weet het niet zeker, maar denk dat het met supply/voeding domein te maken heeft. Die kernen zitten op dezelfde rails, dus efficienter routen. De meeste warmte wordt in the I/O ontwikkeld, en die hebben ze inderdaad gespreid.
Ziet er goed uit je kan alle aansluitingen zien best goed ontwerp als je het mij vraagt.
Vertel eens waarom jij het een goed ontwerp vind?
Ik weet te weinig van het ontwerpen van chips om daar een uitspraak over te doen. En volgens mij geld dat voor 99.999% van de tweakers.
Dus ik ben heel benieuwd naar iemand die daar blijkbaar kennis van heeft om te horen wat er goed is aan dit ontwerp. (of slecht)
er is nog een heel stuk niet duidelijk wat het is :)
big.little is een ontwerp van ARM. Het is ideaal voor laptops net zoals hybride graphics dat eerder al waren.

Maar met een goed stepping-ontwerp lijkt het mij eigenlijk niet nodig.
De vraag of het nodig is, is niet zo relevant. Wat belangrijker is, is of het wenselijk is. Na twee jaar ervaring met de hybride x86/x64 chipontwerpen van Intel weet iedereen inmiddels dat het antwoord ja is. Het is een effectieve en kostenefficiënte manier om het energieverbruik van chips te beperken zonder dat dit al te zeer ten koste gaat van de maximale prestaties.
Ik vraag me af of op den duur we in de PC wereld ook grotendeels overgaan op een shared memory architectuur die volledig op GDDR draait.

De PS5 en Xbox X bewijzen dat een OS en algemene applicaties prima kunnen draaien op de latencies van GDDR.

Uiteraard blijft SDRAM dan beschikbaar voor gespecialiseerde toepassingen, net zoals ECC dat nu is.

De mobiele telefoon wereld is daar al een tijdje. LPDDR werkt net als GDDR volgens het concept van een smalle bitbandbreedte en een hogere snelheid per pin, al is GDDR getuned op performance en LPDDR op laag energieverbruik.
ergens hoop ik da niet want dan verdwijnt toch de modulariteit van de PC en dan moet je met SoC gaan werken en dan ben je in feite afhankelijk van 1 fabrikant

moeilijk moeiijk want ergens ben ik wel onder de indruk van de voordelen die dat bied allaat MS met direct storage zien dat SoC niet nodig is voor instant loading times
Je kan GDDR gewoon op een stickje plaatsen hoor, dat is niet anders dan hoe een console PCB het doet, alleen daar zit het vastgesoldeerd.

Het levert eigenlijk juist meer modulariteit want dan kun je je GPU geheugen los van de rekenkernen uitbreiden :9 zou je bijvoorbeeld een 3070Ti kunnen upgraden naar 16* GB.

*Uiteindelijk moet je ook nog wat vroeger het systeemgeheugen was meetellen, dus uiteindelijk zou je dan van 24 naar 32 of 48 GB o.i.d. upgraden..

[Reactie gewijzigd door Halfscherp op 24 juli 2024 07:37]

Dat concept had AMD al met de HBM kaarten(Fury, Vega56/64, Radeon VII) getackled, maar leek niet echt optimaal gebruikt te worden, pas een test gezien waarbij ze idd "HBCC" functie aanzetten in games, voornamelijk goed voor 0.1% lows alleen.

Alleen AMD is gestopt met HBM implementeren wegens het prijsverschil en de flexibiliteit volgens mij.
Je kan GDDR gewoon op een stickje plaatsen hoor
Als dat stickje dan vastgesoldeerd zit op de gpu, zeker, en dan vooral niet door de gebruiker maar af fabriek. In dat geval, laat het stickje maar zitten en soldeer het meteen vast.

De timing van gddr om de thoughput te halen die men wil, laat zich niet goed werken op door de gebruiker installeerbare sticks. Of je moet genoegen nemen met een slechter presterende GPU door gebrek aan geheugenbandbreedte

En dan hebben we het nog niet over de kosten gehad (want die gaan omhoog).
[...]
De timing van gddr om de thoughput te halen die men wil, laat zich niet goed werken op door de gebruiker installeerbare sticks.
Waar haal je dit vandaan? Want vastgesoldeerd op traces of via een slot verbonden aan traces maakt echt nauwelijks uit.

Wat overigens wel zo is is dat je de connect via PCIe zal moeten laten verlopen, en PCIe is point-to-point i.p.v aan een bus te hangen. Maar goed, dat kunstje heeft AMD al uitgevogeld op de consoles dus dat zou niet veel moeite moeten zijn om te herhalen op de PC.
Denk dat het meer om de afstand gaat. GDPR kan je behoorlijk dichtbij plaatsen. Vraag me af of we op den duur niet meer naar CPU-achtige sockets gaan. Als je chiplets kan samenbrengen dan lukt dat vast ook met memory - en Apple doet dit al met de meeste componenten. Lijkt me een logische vervolgstap.
Als je kijkt naar de memory bandwidth van een 3070Ti dan zie je dat die veel hoger is dan dat van een DDR5 DIMM. Dat is niet verwonderlijk: de afstand is een extreem belangrijke factor, en het GDDR op een 3070Ti is simpelweg veel dichter bij.

Dit is onvermijdelijke natuurkunde. De lichtsnelheid is eindig, en je traces zijn niet te modelleren als simpele draadjes op deze frequenties. Het worden antennes en condensatoren.
De memory chips op bijvoorbeeld een 3080 zitten echt niet bijzonder veel dichterbij dan je RAM slots bij je CPU zitten hoor. En je kan ze “gewoon” de- en hersolderen (er is bijvoorbeeld een modder die zijn 3070Ti daadwerkelijk heeft geupgrade naar 16GB).
Ik zie ik echt wel de mogelijkheid om dit in de toekomst HSA op de PC te krijgen.

Alleen, tja.. de GPU manufacturers willen er niet aan want dan kunnen ze niet de markt segmenteren op geheugengrootte, en Samsung / Micron / Hynix willen er niet aan want dan verkopen ze ineens 1/3 minder geheugenchips.
as ets vast gesoldeerd zit noem ik dat niet bepaalt modulair en al helemaal niet meer of ik moet iets verkeerd begrijpen
Ik bedoel meer dat het geheugen en de GPU rekenkernen niet per se binnen een paar centimeter van elkaar móeten zitten.

Of dat GDDR nou 10cm verderop vast zit gesoldeerd of in een slot zit als stickje maakt niet uit.
op die fiets

ik ben benieuwd of we zoiets gaan krijgen
Ik ben er helaas weinig vertrouwen in omdat zowel de GPU manufacturers, memory OEMs als memory OBMs aan de huidige situatie veel meer verdienen.
Weet iedereen dat? Is nog geen enkele review enthousiast om dat buiten mobiele oplossingen te gebruiken.

Waarde desktops? Ver te zoeken.
Mooi benchmarks met wat multicore om je eigen gebrek van high core en schaling te verdoezelen.

Om dat dan door te duwen op je hele portfolio is zeer bedenkelijk.

En de info van het artikel is niet juist. AMD treed niet in de voetsporen van zijn concurrent. Die ryzenc zet met een heel ander doel gemaakt. Waarom volgen, we weten allemaal hoe blind consumenten zijn en in low power oplossingen die batterij nodig hebben heeft big-,little concept al jaren zijn waarde getoond ware het natuurlijk hier niet dat je met een log OS zit en x86.....

[Reactie gewijzigd door d3x op 24 juli 2024 07:37]

En waarom is het gebrek aan high core een probleem? Oh wacht, omdat mensen daadwerkelijk many-core workloads gebruiken. En daarin helpen de E-cores zeker mee. Bedenk dat de benchmarks waar je het over hebt gebaseerd zijn op echte workloads.

Puur omdat ze in minder MT-heavy workloads zoals games geen toegevoegde waarde hebben betekent niet dat ze dat helemaal niet hebben. Anders mag AMD hun Ryzen 9 en Threadripper portfolio ook wel in de prullenbak gooien, want die zijn toch ook alleen om in benchmarks te pronken?
Intel is gewoon een energievreter en probeert dat nu te compenseren met bestaande ontwerpen. Een cpu die grofweg 3x zoveel watt gebruikt dan een gelijksoortige van de grote concurrent is op sterven na, dood.

Intel heeft als voordeel nog zijn levercintracten met grote builders maar als het bedrijf zo door gaat, zal het klappen.

AMD reageert nu met relatief speels gemak op de capriolen van Intel. Ik weet niet wat er is gebeurd maar met de introductie van Ryzen heeft Intel blijkbaar een onoverbrugbare kloof gezien.
ik denk dat tsmc de capabilities levert die intel langzaamaan in de thermische hoek laten schilderen
Het gaat niet alleen om stepping maar ook om kosten. Zo is de c4 die een stuk kleiner en waarschijnlijk ook goedkoper om te produceren. Dus je productie kosten per cpu kunnen omlaag. Prijs blijft gelijk of gaast omhoog en hiermee heeft AMD hogere winst potentiëel.
Heel interessant omdat AMD - naar verluid - dezelfde chip architectuur gebruikt met een efficiëntere layout, terwijl Intel wel degelijk een andere architectuur gebruikt voor de efficiënte kernen. Dus het is technisch wel spannend welk van die twee strategieën het meest zal uitbetalen. Het testen van de efficiëntie van applicaties is hogere wiskunde geworden ik; gelukkig is dat geen probleem van het gros van de office applicaties, die hebben zat aan de CPU power.

Ik vermoed dat AMD dit vooral in zal zetten voor thin & lights, een dubbele power core lijkt niet te duiden op high end systemen. Be benieuwd. Ik vind de mobiele Zen in mijn systeem al goed werken - en de USB-4 zelfs verbazend goed voor een eerste generatie - maar minder power gebruik met nog steeds prima responsiviteit is altijd fijn.
Als je totale snelheid beperkt is door het vermogen hoeft dit niet slecht te zijn.
Toch blijf ik zo mijn vraagtekens houden bij dat big/little concept in combinatie dan met een lager energie verbruik. Uiteindelijk kan je bestaande 'big cores' ook zuinig laten werken door een goed energiebeheer en je daarvoor dan niet persé little cores nodig hebt.

Persoonlijk heb ik toch nog steeds het vermoeden dat big/little ook wel een beetje onder het mom van verkoperspraat valt. Veelal maken fabrikanten dan ook reclame met alleen het aantal cores en in kleine lettertjes dan big/little staat.

Zelf heb ik een Intel i5 12600 K met dan 6 big en 4 little cores maar ik de cpu niet specifiek daarvoor gekocht heb. Het was meer te doen om de 10 cores voor een schappelijke prijs en dit wel merkbaar is met b.v. Adobe Premiere Pro.
Ik vind het principe wel logisch. Met deze apu heb je dus 2 zware cores als er 2-3 threads nodig zijn op hoge snelheid. Maar als je een taak hebt die 10 treads of meer bezig kan houden - dan moeten de kloksnelheden omlaag. En dan kun je of 4 grote zen cores hebben, of 2 grote en 4 kleine - in dezelfde ruimte volgens amd. En hoe presteren grote versus de kleine? Wel, ze zijn exact hetzelfde behalve kloksnelheid en halve l2 cache - dat laatste zorgt voor een verschil natuurlijk maar het is niet bizar groot. Dus vergelijk zeg 2 ghz x 4 groot of 1.9 ghz X 4 klein en 2 groot - dat tweede zal in veel gevallen dus al gauw 30% sneller zijn. En je verliest niets, de 4 grote zouden in vrijwel geen enkel scenario beter kunnen presteren: ze kunnen niet sneller (te hoog verbruik) en ze hebben (samen) evenveel l2 cache - er is dus, in totaal, niets te verliezen.

Dat is trouwens anders bij Intel, daar zou je denk ik wel een paar (zeldzame) scenario’s kunnen vinden waar grote cores beter waren geweest, omdat het verschil tussen de cores veel groter is.
Hope dat deze APU's ook op ITX/mATX bordjes komen, zou de perfecte upgrade zijn voor mijn HTPC.
Als de Phoenix 2-apu over een hybride architectuur beschikt, treedt AMD in de voetstappen van zijn concurrent Intel. Die introduceerde in 2021 zijn Alder Lake-chips, die ook over ‘normale’ en 'efficiëntere' rekenkernen beschikken.
Dat is niet helemaal eerlijk.
  • Intel heeft zijn Atom chips geïntegreerd op zijn i-cores.
  • AMD heeft Zen4c-cores en Zen4-cores samengevoegd, welke beiden dezelfde instructieset bevatten, enkel met de Zen4c's op een lagere kloksnelheid en minder L1/L2 cache.
Dat is een wezenlijk verschil, zoals bleek uit het AVX512-debacle rond Intel.
Als de Phoenix 2-apu over een hybride architectuur beschikt, treedt AMD in de voetstappen van zijn concurrent Intel.
Bepaald niet!
Intel's E-cores hebben een compleet andere microarchitectuur dan de P-cores, terwijl bij AMD zowel de performance- als de efficieny cores beiden Zen4 zijn.

Op dit item kan niet meer gereageerd worden.