AMD demonstreert gestapeld 3D V-Cache met snelheid van 2TB/s op Ryzen 5900X

AMD werkt aan het stapelen van geheugenchips bovenop de core complex die van zijn processors. Het SRAM wordt ingezet als extra L3-cache en volgens AMD is dat goed voor een doorvoersnelheid van 2TB/s. Dat levert onder andere prestatiewinst op in games.

AMD werkt samen met chipproducent TSMC aan de gestapelde chips. Ceo Lisa Su toonde op de Computex-beurs een prototype van een Ryzen 9 5900X-processor waarbij een van de ccd's is voorzien van 64MB aan SRAM. De twee 7nm-chips zijn met through silicon via-techniek met elkaar verbonden. AMD noemt het gestapelde geheugen 3D V-Cache.

Het gestapelde geheugen is extra L3-cache, naast de al beschikbare 32MB per ccd. Processors met twee ccd's, zoals de Ryzen 9 5900X en Ryzen 9 5950X, zouden in totaal 192MB aan L3-cache krijgen. Iedere chiplet is dus voorzien van de 64MB extra SRAM. De geheugen-die is 6x6mm groot.

Volgens AMD zorgt het stapelen van de chips onder meer voor prestatiewinst bij games. Een prototype van een Ryzen 9 5900X die is uitgerust met V-Cache, is in benchmarks van AMD gemiddeld 15 procent sneller dan de reguliere chip. Dat is getest bij een gelijke kloksnelheid van 4GHz.

Eind dit jaar gaan de eerste AMD-chips met 3D V-Cache in productie. De technologie komt eerst naar de 'hoogst gepositioneerde producten', zegt Su. Mogelijk betekent dit dat de techniek eerst naar Epyc-serverprocessors komt. Details daarover zijn nog niet bekendgemaakt.

AMD 3D V-Cache
AMD 3D V-CacheAMD 3D V-CacheAMD 3D V-CacheAMD 3D V-Cache

Video begint bij presentatie 3D V-Cache

Door Julian Huijbregts

Nieuwsredacteur

01-06-2021 • 08:46

105

Reacties (105)

105
102
39
6
0
60
Wijzig sortering
Beetje vertekend beeld natuurlijk. Je gaat geen Ryzen 5900x halen om vervolgens op 1080p te gaan gamen... Gezien er geen prestaties worden getoond van 1440p en 4k zullen die wel tegenvallen. Desondanks een mooie upgrade maar daar zal de prijs ook wel naar zijn.

Een recente 6 core is nog altijd veruit de beste optie als je alleen gaat gamen.

Waarom krijgt dit in hemelsnaam een -1. Tweakers mag het hele moderatie systeem wel verwijderen man man

[Reactie gewijzigd door biggydeen2 op 24 juli 2024 07:16]

De reden om een 'lage' resolutie te gebruiken bij een CPU test is om minder afhankelijk te zijn van de GPU. Je kan wel dit soort tests laten zien op 8k ultra met raytracing en meer toeters en bellen, maar dat laat niet zien wat de CPU kan. Door een lage resolutie te gebruiken wordt juist een beter beeld gegeven.

De resultaten zullen dus waarschijnlijk kleiner zijn op 1440/4k zoals je zegt, maar de CPU kan daar dan ook weinig aan doen verder, dus dat is niet relevant.

Edit:
Verder was dit natuurlijk ook gewoon een tech demo, AMD wilde graag laten zien waar ze mee bezig zijn. Je kan dit denk ik niet direct in de eerstvolgende gaming CPU verwachten.

[Reactie gewijzigd door marcmeide op 24 juli 2024 07:16]

Wat relevant is, is in dit soort discussies altijd lastig. Vaak zie je inderdaad het dat het potentieel getest wordt door zo laag mogelijke resoluties te testen. Wat op zich logisch is vanuit in dit geval de fabrikant, je wil immers laten zien wat het product kan in een zo goed mogelijk scenario. Bij reviews zie je uiteraard ook dat reviewers vaak voor dat soort scenario's kiezen.

Echter is het wel de vraag hoe relevant zo'n test is voor de consument. Ik wil als consument juist reviews zien met workloads die voor mij relevant zijn, ik game op 1440P / High refresh en kijk met een schuin oog naar 4K. 1080P testen , hoe goed ze ook verschillen laten zien zijn voor mij persoonlijk niet relevant, ik zal immers nooit meer op die resolutie gamen. Ik moet namelijk weten wat ik aan een cpu heb tijdens de workloads die ik ga uitvoeren. Voor mij is bijvoorbeeld relevant, wat kan ik beter doen, bij wijze van €100 meer investeren in een cpu, want voor die cpu van €500 daar krijg ik X prestaties voor in mijn workloads ten opzichte van die cpu van €400, of investeer ik liever minder in de cpu, en koop ik in plaat van die cpu van €400 er een van €250 en investeer ik die €150 in een betere gpu omdat dit in mijn workloads meer helpt qua prestaties.

Wat dat betreft vind ik testjes waarbij iedere bottleneck vermeden wordt door lage resoluties te gebruiken best leuk om te zien, maar totaal niet relevant voor mijn beslissingen.
Wat dat betreft vind ik testjes waarbij iedere bottleneck vermeden wordt door lage resoluties te gebruiken best leuk om te zien, maar totaal niet relevant voor mijn beslissingen.
Dan ga je er vanuit dat je één systeem hebt dat x jaar mee gaat. Bij mij gaat er elke 2-3 jaar een andere videokaart in. De cpu gaat vaak 2 of 3 generaties videokaarten mee. De 1080p resultaten van nu zijn de 1440p resultaten van de volgende generatie.

Los daarvan wil je eigenlijk uberhaupt geen systeem dat (net) in balans is. Op het moment dat de bottleneck duidelijk bij de GPU ligt heb je de stabielste frame times.

Met andere woorden zou je alles op 4K testen (wat overigens vaak genoeg alsnog gedaan wordt) en daaruit de conclusie trekken dat cpu X ook prima volstaat dan kun je nog weleens bedrogen uitkomen. Zelfs op 1080p ben je niet volledig ingedekt. Dit kun je goed zien in de reviews van de 8700K vs de 1700(X). In eerste instantie vallen de verschillen nog wel mee met pak hem beet 12% in de eerste benchmark die je tegen komt. Een jaar later zie je vervolgens AC origins voorbij komen een verschil van meer dan 30% tegen de stock en 40%+ tegen de oc.

Dan kun je dus in het vervelende scenario komen dat je niet tevreden bent met je huidige performance máár een GPU upgrade dubieus wordt omdat je die gpu dan mogelijk niet geheel gaat benutten én je last kan krijgen van frame drops. Om het goed te doen moet je dan de cpu en/of het hele platform ook vervangen. Dan wordt het ineens een héle dure upgrade. Dan had je beter 100 euro extra uit kunnen geven (bij wijze van spreke, in dit voorbeeld niet aan de orde :P) en dan had je later die GPU probleemloos kunnen wisselen. Een GPU swap is zo gedaan en de oude videokaart is goed te verkopen.

[Reactie gewijzigd door sdk1985 op 24 juli 2024 07:16]

[...]

Dan ga je er vanuit dat je één systeem hebt dat x jaar mee gaat.
Vreemde conclusie, maar nee. Misschien upgrade ik mijn cpu wel jaarlijks, dan nog wil ik voor mij relevante benchmarks zien, en niet (vrijwel) alleen 1080P.
De 1080p resultaten van nu zijn de 1440p resultaten van de volgende generatie.
Dat soort commentaar dat je in reviews 'future proofing' zou kunnen zien is trouwens ook al meerdere keren ontkracht, o.a. Adored heeft daar een tijd geleden eens een analyse over gemaakt en dat liet zien dat deze stelling lang niet altijd op gaat (al was het destijds 720P maar 1080P ipv 1080P nar 1440P).
Los daarvan wil je eigenlijk uberhaupt geen systeem dat (net) in balans is. Op het moment dat de bottleneck duidelijk bij de GPU ligt heb je de stabielste frame times.
Ben ik met je eens, een cpu bottleneck zuigt, maar dat betekent niet dat je dan maar moet doorslaan de andere kant op. Je wil altijd een balans in je systeem, en die mag inderdaad best iets meer richting de GPU bottleneck gaan, maar je wil het zeker niet overdrijven.
Met andere woorden zou je alles op 4K testen (wat overigens vaak genoeg alsnog gedaan wordt) en daaruit de conclusie trekken dat cpu X ook prima volstaat dan kun je nog weleens bedrogen uitkomen. Zelfs op 1080p ben je niet volledig ingedekt. Dit kun je goed zien in de reviews van de 8700K vs de 1700(X). In eerste instantie vallen de verschillen nog wel mee met pak hem beet 12% in de eerste benchmark die je tegen komt. Een jaar later zie je vervolgens AC origins voorbij komen een verschil van meer dan 30% tegen de stock en 40%+ tegen de oc.
Maar dat is nu juist wat ik aangeef, ik geef niet aan dat ik wil dat reviewers geen 1080P meer testen, maar alleen hogere resoluties. Nee, wat ik graag terug zou willen zien is dat er meer, voor de gebruiker realisitische, workloads / scenario's worden getest.

Dus niet bij cpu's voornamelijk 1080P testen, want de rest kan je wel extrapoleren. Nee, test (mits relevant) een cpu op 1080P / 1440P / 4K en laat duidelijk zien aan de kijker / lezer dat op verschillende resoluties je ook verschillende resultaten kan verwachten. Dat wordt mijn inziens veel te weinig gedaan.

Immers benchmarks van workloads die ik als consument nooit ga draaien, zijn voor mij ook in het heden, nooit relevant. Je koopt immers normaliter je hardware niet op de groei, aangezien dat vrijwel nooit goed is voor de portemonnee. Nu een overbemeten (en dus dure) cpu kopen is zodat deze iets langer meegaat, maar je deze de eerste periode niet volledig kan benutten, is vaak minder kosten efficiënt dan iets vaker upgraden naar een gloednieuwe midrange cpu.

[Reactie gewijzigd door Dennism op 24 juli 2024 07:16]

Nu een overbemeten (en dus dure) cpu kopen is zodat deze iets langer meegaat, maar je deze de eerste periode niet volledig kan benutten, is vaak minder kosten efficiënt dan iets vaker upgraden naar een gloednieuwe midrange cpu.
Dat kan zeker waar zijn. Er zijn genoeg voorbeelden van 'slechte' investeringen te vinden. Maar dat gaat dan eigenlijk altijd over cpu's die extra cores/threads hebben waar je nu niets van in de benchmarks ziet en waar vervolgens van wordt gedacht dat over 4 jaar daar magisch een enorm voordeel uit onstaat. Waarbij dan inderdaad wordt vergeten dat over 4 jaar we mogelijk een stuk verder zijn.

Betekent echter niet dat je dan maar met 0 visie naar 4K benchmarks moet gaan kijken. Bij mij pakt dat kijken naar lagere resoluties eigenlijk systematisch goed uit.

Mijn 2500K was zo uit mijn hoofd 200 euro bij launch. Midrange alternatieven waren o.a. de goedkopere 2400 en de non-K versie. De 2500K ging vervolgens mee tussen 2011 en 2017. Videokaarten waren een 260, 460, 660 Ti en een 1070. Bij die laatste ontstond er een cpu bottleneck. Had ik geen K genomen (of een 2400) dan had ik niet op 4.8 Ghz kunnen draaien en had ik met Haswell (4xxx) of Skylake (6xxx) moeten upgraden.

Daarna heb ik een pre-order voor de 8700K geplaatst a 399. Die doet momenteel nog prima zijn werk. Hij is nog net wat sneller dan een 3600X (2020). Alternatieven waren toen de 8700 (non K) en de 8600. In beide gevallen had ik in dat geval 'moeten' upgraden naar een Ryzen 5600/5800X (of wellicht 10700K met de huidige prijzen).
Dus niet bij cpu's voornamelijk 1080P testen, want de rest kan je wel extrapoleren. Nee, test (mits relevant) een cpu op 1080P / 1440P / 4K en laat duidelijk zien aan de kijker / lezer dat op verschillende resoluties je ook verschillende resultaten kan verwachten
Techpowerup publiceert 720,1080,1440 en 4k. Tomshardware doet naast 1080 ook 1440. Er zijn er vast wel meer te vinden.
Ben ik met je eens, een cpu bottleneck zuigt, maar dat betekent niet dat je dan maar moet doorslaan de andere kant op. Je wil altijd een balans in je systeem, en die mag inderdaad best iets meer richting de GPU bottleneck gaan, maar je wil het zeker niet overdrijven.
Ik heb daar echt geen problemen mee. Je kan nooit genoeg single threaded performance hebben. Wellicht dat jij meer doelt op de multithreaded toekomst valkuil.

[Reactie gewijzigd door sdk1985 op 24 juli 2024 07:16]

Betekent echter niet dat je dan maar met 0 visie naar 4K benchmarks moet gaan kijken. Bij mij pakt dat kijken naar lagere resoluties eigenlijk systematisch goed uit.
Dat zeg ik dan ook niet.
Ik probeer juist aan te geven dat je als potentieel koper naar benchmarks moet kijken van workloads die voor jou relevant zijn of gaan zijn in de voorzienbare toekomst.
Ga je nooit op 1080P gamen, is 1080P niet heel relevant voor je. Ga je nooit op 4K gamen met een systeem, kijk dan ook niet naar 4K benchmarks want die zijn niet relevant.

Ik zal het voorbeeld even weghalen uit de 'gaming' sfeer, want dat lijkt te vertroebelen.
Wat ik bedoel is dat wanneer je als consument enkel gaat video editen op een systeem, dat het dan zinloos is om naar benchmarks van montecarlo simulaties te kijken of omgekeerd. En dus wil je graag reviews zien waarin 'jouw' workloads getest worden.

Edit n.a.v. onderstaande post, daar blijf je dus (weer) hangen in het 'future proof' kopen bij die denkwijze en dus meer uitgeven dan nodig bij aanschaf. Terwijl juist mijn denkwijze is, koop wat je nu nodig hebt voor de workloads die je nu draait. Steek wat je bespaard in je zak en upgrade wanneer je performance te kort komt.

[Reactie gewijzigd door Dennism op 24 juli 2024 07:16]

Ga je nooit op 1080P gamen, is 1080P niet heel relevant voor je. Ga je nooit op 4K gamen met een systeem, kijk dan ook niet naar 4K benchmarks want die zijn niet relevant.

Ik zal het voorbeeld even weghalen uit de 'gaming' sfeer, want dat lijkt te vertroebelen.
Maar dat is dus niet zo omdat er voor gaming een simpelweg een andere wetmatigheid aan de orde is.

Bij gaming schuiven resoluties door met nieuwe generaties. Grofweg is het 4K van nu is de 1440P van de volgende generatie architectuur. Pak bijvoorbeeld https://www.techpowerup.c...-founders-edition/18.html en dan zie je dat op 1440P de 2080 146 FPS doet. Op 4K doet de 3080 144 fps. Natuurlijk komt dat niet voor elke generatie en elke resolutie zo perfect uit. Maar doorschuiven is iets dat al decennia aan de orde is.

Combineer dat met de wijsheid dat je in verband met frame drops géén systeem moet kopen waarbij de relatieve positie van de cpu gelijk is aan de relatieve positie van de gpu.

Vervolgens snap je dat kijken naar de 4K benchmarks van nu geen zin heeft. Immers je weet dat je een cpu zoekt die net een stukje beter is. Je weet ook dat je 1 stap omlaag moet als proxy voor je volgende videokaart aankoop.

Dus heb jij nu een 4K monitor? Kijk dan naar 1440P. Heb jij nu een 1440P monitor, kijk dan naar 1080P. Enz. Hieruit volgt dat je de hoogst mogelijke resolutie weg kan laten uit je test. Je aankoop daarop baseren is alleen zinnig als je de videokaart nooit gaat vervangen dan wel graag je cpu/platform overhoop gooit.

[Reactie gewijzigd door sdk1985 op 24 juli 2024 07:16]

Dennism, Je moet begrijpen dat de CPU en GPU verschillende taken hebben. Ik mis dit echt in zijn geheel uit jouw conclusies.

Zal je een mooi voorbeeld geven tussen 2 games die de CPU en GPU anders belasten. Twee games die tegenovergesteld staan zijn Totalwar : Three kingdoms en Cyberpunk 2077.
In Total war verbruik je veel meer CPU resources omdat er gewoon getallen berekend moeten worden voor de AI. Dus je CPU wordt meer gebruikt dan de voornamelijk static graphics van een Total War game.
Voor Cyberpunk is het totaal het tegenovergesteld, zet maar 4k aan, Raytracing max, graphics max en zelfs een RTX 3090 is volledig belast. Omdat de kleine berekeningen in een shooter veel minder relevant zijn, zit je CPU voornamelijk niks te doen.

Dus begrijp goed dat in een GPU intensive game, je een veel minder goeie CPU kan gebruiken om er 99% uit te halen dan in een CPU intensive game. Daarnaast is een test op 1080p exclusief er voor bedoelt om de GPU bottleneck er tussen uit te knijpen en om te kijken of de CPU nog de GPU kan bijhouden. Zie goed in dat verschillende benchmarks verschillende doeleinden hebben en verschillen scenario's testen.

Als jij op 1440p/4k wilt gamen dan is een high-end CPU niet voor jou weggelegd, bewaar je geld voor een nieuwe GPU. voegt op zijn best maar 1-2% gains op fps toe over een mid-high tier CPU. En om terug te komen op het artikel, Hoge cache groottes maken het wel sneller voor een CPU om meer data te verwerken voor games die grote data sets moeten inladen (Denk aan een RPG of een openworld game). Maar dan wijk ik af van het draadje.
Met 6900xt/RTX 3090 heb je een CPU bottleneck op 1440p bij bepaalde games, maar dat is niet al te interessant als je nu een slechtere GPU hebt. Je comment is volkomen terecht dat zo'n CPU improvement niet voor iedereen geldt.

Toch wil ik je inbreng geven. De demo van de nieuwe CPU zal waarschijnlijk wel relevant worden voor 4k/1440p gaming. De reden hiervoor is dat RDNA 3 (gpu architectuur) 2.5x meer performance per watt gaat leveren dan RDNA 2 door MCM (multi-chip module) techniek (https://hexus.net/tech/ne...ted-3x-faster-rx-6900-xt/). Met zo'n jump wordt 4k cpu bound op oudere processors.

Ik verwacht hetzelfde voor nvidia gpu's volgend jaar die op 5nm een grote jump gaan maken in performance, wellicht ook 2x+ performance t.o.v. 3000 series.

Gezien deze cpu improvement volgend jaar pas uitkomt is het niet onredelijk om de nieuwe GPU's hierin mee te nemen. Ookal komt de CPU eerder uit dan de nieuwe GPU. Grootste gedeelte van de gamers zitten nog op GTX 1000 series (ik op 1080 Ti). Met de huidige GPU shortage skip ik waarschijnlijk de huidige generatie. Ethereum mining is volgende jaar waarschijnlijk dood met PoS (proof of stake). Dus ik denk wel dat het weer mogelijk is om een gpu te kopen eind volgend jaar.
Volgens mij is het aan AMD om de performance van de chip te laten zien in een situatie waarin de GPU geen bottleneck vormt. Als Nvidia, AMD of Intel een GPU maken die zo krachtig is dat in 1440p de CPU een bottleneck vormt, dan kan je gerust ook op 1440p testen.

Zolang dat niet zo is, is een 1440p of 4k test voor CPU performance natuurlijk gewoon nutteloos om uit te voeren voor een Tech demo.

Dat is waar reviews voor zijn, die kunnen 1080 VS 1440p VS 4k testen en dan kan iedereeen beslissen of ze wel een 12 core nodig hebben. Stiekem is een 12 core natuurlijk ook gewoon compleet overkill voor een gamer, voor een content creator is het wel nuttig, maar in games gaat die 12 core toch echt niet veel beter presteren als een 8 core. En als je 1440p games speelt, dan kan je net zo goed een 6 core pakken, want dan is de GPU toch wel de bottleneck.

Dit heet gezond verstand, een bedrijf kan alles voorkouwen voor de concument, maar deze tech demo is meer voor de investors dan voor de gemiddelde Gamer en daarom houden ze zich tot 1080p en geen gedetailleerde performance benchmarks voor meerdere resoluties en andere zooi
Iets van nuance had best gemogen. Niet alle games zit de bottleneck in het grafische gedeelte.

Ik zelf ben een extreem Rimworld fan. Grafisch stelt het niet veel voor, maar late game mag ik heel blij zijn als ik 15 fps haal, puur door het gebrek aan cpu power.
Zeker waar, maar dat zijn uitzonderingen op de regel, over het algemeen zit het grootste volume kwa sales toch wel in GPU bottlenecked games en niet in Indie titles.

Indie games zijn zeker waard om te benchmarken en juist voor dat soort games maakt de CPU keuze iets meer uit.

Maar mijn punt wat ik eigenlijk wilde maken is dat het niet aan AMD is om alles te testen en alles te presenteren, ze zijn een groot bedrijf dat deze shows meer doet voor PR en Investors, dan voor nuttige info voor gamers, daarom moet men zelf reviews opzoeken en benchmarks om zelf te bepalen wat je nodig hebt. Ik vertrouw de data van AMD, Nvidia of Intel sws niet op 100% nouwkeurigheid, er zit bijna altijd wel een addertje onder het gras, wacht daarom ook altijd op third party reviews, die zijn er om de onderdelen in de context te plaatsen.
Daar heb je zeker gelijk in voor CPUs die te koop zijn, maar in de contect van deze tech demo is het nog totaal niet relevant.

AMD heeft dit laten zien omdat ze het cool vinden (en om te flexen voor de aandeelhouders natuurlijk). Wanneer dit soort tech daadwerkelijk op de markt komt is nog niets over bekend. Mogelijk zijn ze nog in zo'n begin stadium dat de CPU op 2GHz moest draaien om dit soort Cache te laten werken. We weten alleen dat de normale en deze CPUs de zelfde snelheid hadden. Ik zie net dat dit gewoon in het artikel hierboven staat :D

Zodra dit op de markt komt ben ik het zeker met je eens, dan wordt het belangrijk wat de added value is in specifieke usecases en hoeveel je er dan extra voor moet betalen.

[Reactie gewijzigd door marcmeide op 24 juli 2024 07:16]

Soms zie je in die tests op 1080p een heel groot verschil, maar in 1440p/4k bijna niets bij een oudere cpu.
Dat klopt, en dat is nu juist wat ik bedoel. Juist om dat soort zaken kan je niet concluderen dat een cpu het op 1080P veel beter doet dan de concurrent of een goedkoper model van dezelfde fabrikant, het op bijvoorbeeld 1440P nog steeds zoveel beter doet.

En dat zal (als het goed is) de aankoop beslissingen beïnvloeden, ben jij iemand wiens workloads voornamelijk 1080P E-sports games zijn dan kan een duurdere cpu kopen in bepaalde gevallen flink helpen met de prestaties.

Terwijl wanneer je een 1440P of 4K gamer bent, je vaak beter kan investeren in een betere gpu en vaak kan opteren voor een minder cpu.

En dat is iets, dat ik vaak toch onderbelicht vind in cpu's reviews, al begint het soms wel wat te leven onder reviewers.
Zal dit niet zijn omdat de AMD Ryzen 5000G serie, een prima IGP heeft en dus dat ze logischerwijs testen met de IGP die reeds op de die zit. Dat je dan vervolgens 1080p draait snap ik wel.
De CPU voor deze demo is geen 5000G Serie Sku maar een aangepaste 5000 serie Sku, namelijk een aangepaste 5900X. Deze heeft dus geen IGP.

Zie ook uit het artikel:
Ceo Lisa Su toonde op de Computex-beurs een prototype van een Ryzen 9 5900X-processor waarbij een van de ccd's is voorzien van 64MB aan SRAM. De twee 7nm-chips zijn met through silicon via-techniek met elkaar verbonden. AMD noemt het gestapelde geheugen 3D V-Cache.

[Reactie gewijzigd door Dennism op 24 juli 2024 07:16]

Ja stom, die X serie heeft geen IGP inderdaad. Daar heb ik overheen gelezen.
Inderdaad, dus waarschijnlijk vrij nutteloos in de praktijk omdat je niet gamed op 1080p met een dergelijke cpu..

Het is dus juist super relevant want als je op 1440p of hoger gamed heb je hier dus waarschijnlijk niks aan. Dat was juist mijn hele punt...
Volgens mij is het redelijk algemeen bekend, dat als een spel GPU heavy is, dat het niet super uitmaakt welke CPU je gebruikt, zolang het niet een aardappel is. De andere kant op, als een game CPU heavy is (Civ serie of Cities Skylines bijv.) maakt dus juist de CPU uit, en kan dus ook de extra cache veel uitmaken.

Wat AMD gedaan heeft is iets laten zien wat nog (lang) niet te koop is, als jij iets laat zien wat je graag wilt laten zien maar nog niet af is, laat je denk ik ook de beste kanten zien van waar je mee bezig bent?

Gaming benchmarks waren mogelijk niet het beste om dit mee te laten zien, maar gamers praten veel over hun hobby, dus het zal zo wel redelijk bekendheid krijgen. Anyway, we weten niets van de GPU die gebruikt is en welke FPS het op draaide oid, dus we kunnen het beste maar afwachten en hopen dat het iets moois wordt :)
Om een beetje toekomstvast te zijn lijkt een 8-core me een betere keuze. Ik meen toch al regelmatig benchmarks tegen te komen waar 8-cores beter presteren in games dan 6-cores. PS5 en XSX hebben ook beide een zen 2 octacore aan boord, dus goede kans dat nieuwe games daarop bemeten worden. In het verleden zijn meer cores eigenlijk ook altijd de toekomstvaste keuze gebleken; meer dan hogere kloksnelheden.
Je vergeet volgensmij de 1080p 240hz/360hz scenario's, waar toch een grote groep (competitieve) gamers zich mee bezig houdt :).
Die zijn op 1 hand te tellen. Alleen de top heeft daar iets aan.
Wat een onzin, wie weet ga je wel een game spelen op die res of nog hoger met alle settings op low, en je een paar honderd fps wilt bereiken.

Genoeg CPU/Mem bound games / situaties.
Sure, daar ga je inderdaad een dergelijke cpu voor kopen... En die paar honderd fps heb je al helemaal niks aan. Alleen de top van de top prof. gamers.
Je krijgt een -1 omdat het altijd hetzelfde gemekker is (ik bedoel dat niet specifiek op jou).

Elke keer vraagt wel iemand: "Waarom op 1080p?" met een accentje (zal wel zijn omdat het op andere resoluties slecht draait of omdat de benchmarker er niets van snapt of ...)

en elke keer moet dan iemand antwoorden: omdat dat een resolutie is waarbij de GPU niet de bottleneck is

Dit zijn gewoon wat cijfers om een indicatie te geven. Tuurlijk kiezen ze er de beste uit, maar begrijp toch ook eens dat dit normaal is en dat zo een lage resolutie heus niet zo een onlogische keuze is.
Zou dit nog nadelige effecten hebben voor de warmte-afvoer? Dan worden overclockers er wellicht minder blij van.
AMD heeft de techniek al eerder toegepast met HBM. Ik neem aan dat ervaringen daarmee zijn meegenomen in het ontwerp. Het is nooit uit te sluiten, maar ik neem aan dat het meevalt.

Indirect wordt overclocken ook minder belangrijk voor sommige workloads. Bij intensieve taken met veel geheugentoegang zit de CPU al vaak hele tijden te wachten op nieuwe input. Overclocken helpt dan weinig voor extra performance. Op deze manier gebruik je het vermogen wat je al hebt beter, door de aanvoer van data te verbeteren en de processor gelijkmatiger te belasten.
Bij welke (commercieel verkrijgbare) producten heeft AMD dit toegepast met HBM? Ik weet dat AMD HBM heeft toegepast 'on package', maar voor zover ik weet niet direct bovenop de GPU's dies via TSV's. Wat beide volledig andere technieken zijn. Het 'on package' plaatsen van HBM modules is geen 3D stacking, tenzij je bedoeld dat de HBM modules zelf 3D stacked waren, wat natuurlijk wel klopt, maar dat is volgens mij geen ontwikkeling exclusief van AMD.
Ze waren wel de eerste die HBM toepaste op gaming GPU's. Ik denk dat @Belgar bedoelt dat ze er dus wel al ervaring hebben met het 3D-stacken zelf. Als je naar het verleden kijkt dan ziet AMD veel goeds in het 3D-stacken van chips, want ze zijn vaak (een van de) eerste.
Maar dat is nu juist wat ik bedoel, Vega an sich is geen 3D stacked product. de HBM chips liggen immers naast de GPU die, niet erop, wat je bij 3D stacking zou zien.

Nu heeft AMD natuurlijk HBM mede-ontwikkeld, maar voor zover ik begrepen heb komt de 3D stack methode daar gebruikt bij fabricage van de HBM chips uit de koker van Hynix.

[Reactie gewijzigd door Dennism op 24 juli 2024 07:16]

Overclocken is al tijden en steeds meer en meer een onnodig ding geworden. de processor die dit nl standaard tot de max dat hij kan, Dat laatste beetje dat een overclocker nog doet is meer voor de sport dan dagelijkse gebruiks winst.

kostom voor bijna elke gebruik heeft het geen nut meer als je gewoon je proc en bios goed insteld.
...de processor die dit nl standaard tot de max dat hij kan...
De 5000 serie wordt vrij warm en de temperatuur is dan ook vaak de bottleneck*. Als je goede koeling hebt en niks met PBO doet zal het geen probleem zijn, maar met mindere koeling of hogere limieten kan de CPU vrij snel de 90 graden aantikken waarna hij gaat terugklokken. Gezien de prestatiewinst in games is het waarschijnlijk dat de prestatiewinst van dit geheugen opweegt tegen de potentieel iets lagere maximum snelheid.

*Stock zat m'n 5900X met Scythe Mugen 5 al op de ~77-80 graden bij een cinebench nT run. Met curve optimizer (undervolten) krijg je dat wel omlaag, maar dat kost wat tijd om goed in te stellen.
lager max snelheid is geen overclocken maar tune van je processor,

overclocken is het voorbij gaan van de technische spec maar dat doet hij zelf al binnen de gestelde marge met turbo boost.
De overclocking scene is zo ontzettend klein in verhouding tot de gehele afzet markt. Hun high end segment heeft überhaupt nagenoeg geen ruimte voor overclocken. Gezien de huidige prijzen voor bepaalde onderdelen, is de kans dat een CPU nog een bottleneck vormt al heel gering.
Ik heb begrepen dat dit koper-op-koper verbindingen zijn tussen de verschillende componenten, zonder soldeertin ertussen. Een stuk beter dus in het warmteoverhevelen!
Anoniem: 58485 @Vulcanic1 juni 2021 21:01
Natuurlijk; koper heeft de hoogste geleiding vergeleken met andere metalen die je vinden kunt in een chip.
ik gok dat aangezien dit spul bovenop het bestaande L3 cache gestacked wordt, en niet bovenop de cores zelf, het best mee zal vallen.
Als je kijkt naar hoe de cache erop gezet word dan zie je dat de daadwerkelijke cores van de chiplet geen cache op zich hebben liggen. Dat is 100% voor de warmteafvoer.
Net dát plaatje stond nog niet in het artikel toen ik reageerde...
Dit verduidelijkt de constructie wel, vooral het structural silicon bovenop de daadwerkelijke cores.
Dat kan inderdaad wel het geval zijn. Koeling is bij 3D stacking inderdaad wel een aandachtspunt.
Maar dat zal mogelijk ook een afweging zijn, als jij 5% prestaties verliest doordat je een iets lagere kloksnelheid moet gebruiken, maar 20% aan IPC wint doormiddel van deze cache is dat natuurlijk al snel een 'no brainer', zeker bij cpu's als deze waarbij overklokken sowieso al weinig winst meer geeft doordat zowel AMD als Intel de laatste jaren cpu's al zeer strak binnen tijdens de fabricage.

[Reactie gewijzigd door Dennism op 24 juli 2024 07:16]

Voor dit voorbeeld ga ik uiteraard even uit van een vergelijkbare prijs. Wat ik denk over de mogelijke impact van eventuele prijzen, daar kom ik in deze post op terug: Dennism in 'nieuws: AMD demonstreert gestapeld 3D V-Cache met snelheid van 2T...
Uiteindelijk kijk je naar je budget en ga je daarop kijken wat er dus te kopen valt. En dan is het dus wel het geval en kijk je niet naar de prijs maar naar de prestaties
De prijs is natuurlijk nu wel een factor. Daarom komt deze technologie eerst naar de hoogst gepositioneerde producten van AMD. Daar zijn afnemers als data centres en hp computing vaker wel bereid te betalen voor de hoogste performance (uiteraard binnen een bepaald kosten/baten plaatje).
Er is een reden dat dit eerst alleen naar de hoogst gepositioneerde (lees duurste) chips komt. AMD weet heus wel dat een budget gamer liever een goedkopere processor koopt die makkelijker is over te klokken dan een processor die zonder overklokken 10% sneller is maar 50% meer kost.

Ja de prijs voor extra chips, een flink complexer process om alles te stapelen en meer risico als blijkt dat een van de lagen niet goed is zal zeker niet gelijk blijven. Maar als je markt een markt is waar de meer prijs voor top performance weinig tot niets uitmaakt dan geeft dat natuurlijk niet.
Als je deze top of the line processors voor de hoofdprijs kunt verkopen dan kun je over tijd het process beter onder de knie krijgen en deze techniek ook voor de goedkopere modellen in gaan zetten zal vast de gedachte zijn.

Ik vraag me af wat Intel hier mee gaat doen, ik weet dat ook zij aan het stapelen zijn voor hun chips maar voor zo ver ik weet doet men nog geen geheugen stapelen op de chips. En als ik het nog goed weet hebben zijn toch hun 3d geheugen productie stop gezet en zijn optane schijven ook niet meer te koop... Geen idee of zij nog de rechten in handen hebben maar ik kan me zo voorstellen dat ze zich in het blauwe kamp toch even achter de oren krabbelen bij het horen van dit nieuws uit het groene kamp.
Een Ryzen 5900X heeft normaal 32KB (data) + 32KB (instructie) L1 cache per core voor een totaal van 768KB. Dan is er nog 512KB L2 cache per core voor een totaal van 6MB.

Wat ik niet goed begrijp is dat er ook al 2 X 32MB L3 cache aanwezig is (32MB per core complex) en nu komt daar nog eens 2 x 64MB bij dat op een andere manier op de chip geplaatst wordt. Kan deze dan echt op dezelfde manier gebruikt worden of wordt het eigenlijk een soort van L4 cache?

Los daarvan had ik altijd begrepen dat meer cache niet in elk scenario beter is omdat het potentieel langer kan duren om iets te vinden in die cache. Aan de andere kant blijft het nog steeds sneller dan het systeemgeheugen dus toch winst?
Iets opzoeken in een grote cache duurt langer dan in een kleine cache.

Als dat iets echter überhaupt niet in cache staat (want het paste niet meer) en je moet het uit het gewone geheugen gaan halen dan duurt dat, zoals je zelf ook al bedacht, nog veel en veel en veel en veeeeeel langer dan dat het langer duurt om iets op te zoeken in cache.

Dus toch winst inderdaad :)
Iets opzoeken in een grote cache duurt langer dan in een kleine cache.
Jup, ik had het idee dat met elke verdubbeling van grote (dus elke extra bit op je adres) je een extra clocktick aan latency kost. Dus als de primaire loop in je software prima past in 32k L1 instructie cache, wordt het juist langzamer van extra cache. Daarnaast kost cache ook gewoon die-oppervlak en stroom/hitte.

Daarnaast is cache ook gewoon stukken duurder per MB dan DRAM, NAND of magnetische platter, dus het gaat allemaal om de best mix van heel snel maar duur, en langzamer en goedkoper geheugen.
Jup, ik had het idee dat met elke verdubbeling van grote (dus elke extra bit op je adres) je een extra clocktick aan latency kost.
Die vuistregel heb ik nog nooit gehoord en ik kan me niet voorstellen dat het klopt. Met een extra adreslijn wordt je decoder inderdaad groter, maar dat mag toch geen volledige clock tick kosten!? Weet je nog waar je dit geleerd hebt?
"back in the day" las ik een hoop spul op anandtech en arstechnica, dus ik gok dat ik het daar een keer heb opgedaan. Het zou ook prima kunnen dat dit een specifiek detail van bijvoorbeeld de athlon 64 was of zo (manchester vs clawhammer, 512k vs 1m l2 bijvoorbeeld..)

En het is ook goed mogelijk dat ik wat verkeerd onthouden heb, dat het met cache associativiteit te maken heeft of zo :P

Maar in mijn hoofd komt het wel ongeveer uit, 2Log(cachesize / linesize), dan kom je bij 64k l1 op een latency van 10 ticks, en bij 1M l2 op 14, wat in mijn beleving wel realistische waarden zijn (again, misschien is dit allemaal athlon 64 era spul, en zijn caches tegenwoordig veel sneller)
Als dat iets echter überhaupt niet in cache staat (want het paste niet meer) en je moet het uit het gewone geheugen gaan halen dan duurt dat, zoals je zelf ook al bedacht, nog veel en veel en veel en veeeeeel langer dan dat het langer duurt om iets op te zoeken in cache.
Dat klopt maar je doet er dan ook langer over om alles te vinden, ook wat in een kleinere cache ook had gepast. Ik denk dat een analogie met opslagplaatsen voor keukenspullen hier van toepassing is.

De zaken waar je mee bezig bent zet je op je aanrecht (L1 cache). Spullen die je vaak nodig hebt bij je werk steek je in de lades onder het aanrecht (L2 cache). Dingen die je nog minder vaak nodig hebt leg je in de hoge keukenkasten (L3 cache) en al de rest leg je in de berging (systeemgeheugen).

Als je meer plek hebt in één van de caches kan je meer dingen sneller nemen. Maar als je héél veel kastruimte gaat maken (L3 cache) dan wordt het weer moeilijker om te vinden wat je aan het zoeken bent ook al staat het dichtbij je werkzaamheden.

Nu zeg ik niet dat dit geen mooie oplossing kan zijn en wellicht zijn moderne processors ook efficiënter geworden qua cache-organisatie maar meer cache is niet altijd beter.
In principe is het een soort L4 ja
Weer een argument waarom kloksnelheid op zichzelf niet zo heel veel zegt. Meer L3 cache dan wat ik vroeger ooit als harde schijf had. Lekker, hoor! :Y)
Je kan kloksnelheid niet zomaar wegwuiven. Het is een belangrijke factor, niet de belangrijkste maar wel een factor met impact.

Ik zeg dit want de kans lijkt me groot dat met de Zen3+ refresh AMD de kloksnelheden ook nog een beetje hoger zal proberen te krijgen. Dit gecombineerd met de 3D stacking...

Dit kan een Refresh worden met een 15~20% verbetering op de vorige generatie... Een REFRESH. 8)7
Kloksnelheid is belangrijkste bij architecturen waar memory evensnel is als de core en klokken laag zijn waardoor latency kleinere rol speeld en compute kracht ook beperkt is.
De oer CPU zoals 8086
In heden zijn de cores heel krachtig maar is verschil met geheugen kwa klok layency zo hoog. Dat in moderne systemen het voeden van de core belangrijker is en systeem ram. Is in de orde 600 cpu cycles trager.
Bij slecht ontwikkelde software die onnodig veel random memory access en veel branching. Veel nested if statements , variabelen en objecten los alloceren ipv blok. Zoals linkt list ipv array. Goed gebruik van cores prefetcher en cachelines vol met hot data en instructies is bij moderne architecturen belangrijk.
In de server en HPC en data toepassing zit dat wel goed.
In desktop apps en games is dat vaak niet op orde.
Ook paradigma’s zoals inheritance OOP ipv Functional , data orriented , reactive naast het niet alleen safe multithreaded maar ook zoveel mogelijk non shared data.
Met veel cache is ook de kans groter dat wat je nodig hebt in de cache staat.
Bepaalde toepassing data de bottleneck is en niet de CPU kracht.
Er is uiteraard ook grens wat cache kan bufferen. Hoe trager de memory hoe groter de cache om prefetchen goed bij te kunnen houden of meer memory channels om cache prefetch goed bij te blijven.

Een goede branch prediction is ook belangrijk in branch zwaar ontwikkelde software.

Er is dus per applicatie een balance tussen klok cache memory bandbreedte en latency en of software goed gebruik maakt van prefetch en dus cache en ook safe en effectief multithreaded ontwikkeld is.
Anoniem: 14842 @SG1 juni 2021 13:41
Volgens mij weet je wel iets van cpu's. Maar buiten dat: wat een wazig verhaal. Misschien moet je je post even een keer nalezen en dan her en der aanpassen om te laten weten wat je nu werkelijk wilt zeggen :)
Hij begrijpt er inderdaad wel wat van. Jammer dat je de rest schrijft. Daaruit blijkt vooral dat een cpu, zeker in relatie tot de software, te complex is voor de niet voldoende ingevoerde persoon om te begrijpen.
Jammer dat je de rest schrijft. Daaruit blijkt vooral dat een cpu, zeker in relatie tot de software, te complex is voor de niet voldoende ingevoerde persoon om te begrijpen.
De exacte details van hoe een moderne CPU de laatste paar procentjes performance eruit weet te persen zullen niet-specialisten boven de pet gaan, dat klopt. Maar een groot deel van de technieken (caching, out-of-order, het omzetten van de oorspronkelijke instructies naar micro-ops, de pipeline in meerdere stages opdelen, meerdere ALUs in een core stoppen, register renaming, ...) zijn prima uit te leggen aan mensen zonder specialistische kennis. (Hoe je al die technieken tegelijk toepast zonder dat ze elkaar in de weg zitten, dát is wel zeer complex en erg lastig om uit te leggen.)

Maar dan moet die uitleg wel goed geschreven zijn. De post van SG is voor mij persoonlijk nagenoeg onleesbaar; ik kan enigszins gokken welke punten ie probeert te maken, maar ook alleen maar omdat ik al weet welke punten er zijn die gemaakt kunnen worden. Het zou me verbazen als iemand die niet weet waar het over gaat uit die post iets wijzer wordt. Met de aanmoediging van Mecallie om het verhaal nog een keer na te lezen en flink te herschrijven om het leesbaarder te maken kan ik het alleen maar eens zijn; dat SG verstand van zaken heeft (en dus een interessant punt kan maken) lijkt me best aannemelijk.

[Reactie gewijzigd door robvanwijk op 24 juli 2024 07:16]

Anoniem: 14842 @onetime2 juni 2021 00:25
Ik had het misschien nog iets subtieler kunnen verwoorden, maar mijn reactie was daadwerkelijk bedoeld om zijn post bijgeschaafd te krijgen.

Het is jammer dat je je dan geroepen voelt om op mij af te geven door indirect aan te geven dat de materie te complex is voor de niet ingewijden. Dat blijkt namelijk helemaal niet uit mijn post en dat hoeft het ook niet te zijn. Maar de opmaak van de tekst is dusdanig dat het bijna niet te lezen is. Dat heeft niets met complexiteit of gebrek aan kennis bij de lezer te maken.

Eerder met een nachtje doorhalen en dan zoiets schrijven, of gewoon niet geweldig zijn in teksten. Maakt ook niet uit wat de oorzaak is: voor de gemiddelde T.net bezoeker was zijn post denk ik daadwerkelijk intressant, áls deze leesbaar was.
Kloksnelheid is inderdaad wel 'e'en van de vele factoren die meegenomen worden, ja, maar de instructiesets vormen een veel grotere factor. Toen Intel bijvoorbeeld AVX en AVX2 had, en AMD nog niet, toen trapten de Xeons de aars van AMD's chips (ik zit in het oplossen van lineaire systemen, dus wat mij betreft moeten chips snel matrix-vector-vermenigvuldigingen kunnen doen, en de rest is leuk voor 'erbij'). Benchmarks als Linpack gingen door het dak. Nu is dat veld weer gelijk getrokken en moet er weer iets nieuws komen. Nu heeft AMD blijbaar weer een tof trucje. 8-)
Weer een argument waarom kloksnelheid op zichzelf niet zo heel veel zegt. Meer L3 cache dan wat ik vroeger ooit als harde schijf had. Lekker, hoor! :Y)
Precies, me vaders SCSI HDD in zijn Amiga 2000 is 105MB (Quantum PRO-105S 105MB SCSI 3.5), en deze CPU van AMD heeft 192MB aan L3-cache, is toch wat, maar je betaalde wel ENORM veel geld voor 105MB SCSI HDD in +/- 1992.
AMD gaat niet praten over prestatieverbeteringen in spellen als dit enkel voor serverprocessoren beschikbaar komt. Er komt dus ook een Ryzen uit met deze techniek. De vraag is wanneer, maar AMD kan eind dit jaar nog wel een bommetje gebruiken om het Alder Lake-feestje te bederven. Als het geen Zen3+ is, wie weet is het dit. 15% prestatiewinst is geen klein beetje, zelfs al is het optimistisch voorgesteld.
Ik snap je reactie niet? Ze zeggen toch letterlijk _eerst_ op de hoogst gepositioneerde producten? Dat dat misschien betekent dat in het begin de techniek naar Epyc komt en later anderen...is dus letterlijk een conclusie van wat zij zegt toch?

Het feit dat ze dit op een Ryzen 9 demonstreren, betekent alleen maar maar dat dat dus sowieso een van die producten gaat worden denk ik.
Ik reageer op dit stukje:
De technologie komt eerst naar de 'hoogst gepositioneerde producten', zegt Su. Mogelijk betekent dit dat de techniek eerst naar Epyc-serverprocessors komt.
... en zet vraagtekens bij de interpretatie van de auteur. Ik denk dat je "hoogst gepositioneerde producten" eerder moet zien als 5900X/5950X dan als Epyc, juist omdat AMD het inderdaad op een Ryzen demonstreert en het expliciet heeft over de baten die spellen ervan hebben.
Ze zeggen mogelijk maar nu begrijp ik je. Su zegt wel zelf "de _hoogst_ gepositioneerde producten"...dus dan is de interpretatie van eerst Epyc best mogelijk...maar let's see.

Het zou natuurlijk niet normaal awesome zijn als ze met deze stap zoveel extra performance uit reeds bestaande CPU's te pompen. Met wat kleine fabriek changes, kunnen ze dit denk ik redelijk snel en mass produceren...

Wat natuurlijk interessant kan zijn...gaan ze dit ook vanaf dag 1 op de Zen4 toepassen?

All in all, ik vind dat AMD echt heel sterk bezig is de laatste tijd en dat was hard nodig.
Of eerst Threadripper, waar nog geen versie van is met Zen3-cores? Mogelijk komt die er dit jaar nog, en dan mogelijks met stacked cache?

Al zou het wel vet zijn om een "refresh" van Zen3 te hebben op AM4, compatibel met de huidige B550/X570 :9
Beetje rare reactie gezien ze het hebben over X5** series consumenten producten waarom zou het
daar dan niet beschikbaar komen staat letterlijk in de text
Het gestapelde geheugen is extra L3-cache, naast de al beschikbare 32MB per ccd. Processors met twee ccd's, zoals de Ryzen 9 5900X en Ryzen 9 5950X, zouden in totaal 192MB aan L3-cache krijgen

[Reactie gewijzigd door Scriptkid op 24 juli 2024 07:16]

Omdat dit een prototype is. Deze waarden geven een indicatie van wat nu mogelijk is, een hypothetisch mogelijk product. Niemand stelt dat dit product ook daadwerkelijk op de markt komt als 5xxx-srie Ryzen natuurlijk.
Staat toch letterlijk dat X5900 192MB aan L3 zouden gaan krijgen ????????
Dat denk ik inderdaad ook, al het Epyc only zou zijn, zouden ze dit imho niet laten zien.

De vraag gaat natuurlijk wel zijn wat gaan zaken als dit kosten. Kijk je naar Intels tegenhanger foveros schijnt dat toch wel vrij duur te zijn (al stacked Intel volgens mij in Lakefield, waar dat voorbeeld op gebaseerd was, 3 lagen, wat ook een impact heeft op yields v.s. 2 lagen zoals hier).

Als het 15% prestaties op levert, maar de Sku kost 20% meer, dan levert het qua performance per dollar niets op en dan wordt dit al snel iets voor de kleine niche aan gebruikers die ten koste van alles de beste prestaties willen, waar ik gezien de quote dat dit eerst naar de "hoogst gepositioneerde producten" komt, wel een beetje bang voor ben. Denk aan de groep die een 3090 koopt voor €1500 (even uitgaand van een situatie waarbij beide aan MSRP te krijgen zijn) omdat die 8% beter presteert dan de 3080 van €700.

[Reactie gewijzigd door Dennism op 24 juli 2024 07:16]

Dat zal de tijd leren. Gen 1 van een nieuwe techniek is altijd duurder en word vaak gepresenteerd bij de duurdere producten voor de rest van de range er lucht van krijgt. Het zou zomaar eerst alleen op EPYC en Ryzen 9 gedaan kunnen worden en bij Gen 2 ook bij de rest van de processoren.
Ik vermoed dat het AMD niet helemaal lekker zal zitten dat spelfanaten één van hun belangrijkste klanten zijn, maar hun 5600X feitelijk al goed genoeg is voor deze groep. De dure modellen bieden alleen voordelen m.b.t. de hoeveelheid kernen, maar spellen gebruiken die niet. Prachtige processoren voor wie bijvoorbeeld grote lappen code compileert, maar die groep is veel minder AMD-trouw. Een extra feature om de hoger gepositioneerde modellen nog betere spelprestaties te doen laten leveren zou meer dan welkom zijn.

De kostprijs van een die bij TSMC zit laag in de tientjes, de fabricagekosten van een 5950X zullen zeker niet boven de 100 dollar uitkomen; de grote uitdaging die een chipbakker heeft is hoe de hoge ontwikkelkosten terugverdiend moeten worden. Als de kostprijs dus 20% toeneemt is dat inderdaad een probleem voor de goedkoopste processoren, maar niet echt een probleem voor modellen die honderden euro's opbrengen.

In prestaties per dollar zal dit voor de klant inderdaad niet opbrengen, want het snelste willen kost altijd onevenredig veel meer, en ja als het voor ons tegenzit kan AMD dit ook aangrijpen om nog duurdere processoren te introduceren. Ik verwacht evenwel dat AMD tegen de tijd dat Alder Lake uitkomt de prijzen van de huidige lijn juist zal verlagen: Die is dan een jaar op de markt, ontwikkelkosten zijn dan hopelijk terugverdiend, de productie is opgevoerd, en de lagere prijs pareert dan eventuele benchmarkvoordeeltjes die Intel weet te boeken.
Met mijn huidge 5950x bereik ik temperaturen van 90-91 graden celcius. Ik heb heel veel geprobeerd maar niks lijkt erop te duiden de temperatuur te verlagen.

Nu ben ik benieuwd wat de temperatuur op deze chips met dikkere IHS gaan doen.
Heb je het folie van je koeler gehaald? :+
Yes. Heb de koeler meerdere malen los gehad om te kijken of alles check was contact met de IHS, folie van de koeler. Heb uiteindelijk van Arctic wel een andere koeler mount gekregen die nu beter past op de AM4 socket. Ik gebruik een Arctic liquid freezer II
Desalniettemin zijn hoge temperaturen onder load bij ryzen geen probleem. Zolang de chip goed blijft boosten is er niks aan de hand. Zen3 mag best heet worden.
https://www.pcgamer.com/a...as-typical-and-by-design/

[Reactie gewijzigd door bjvdven op 24 juli 2024 07:16]

90 graden is het maximale waar de 5950x voor getest is. Dan zie je ook dat die niet meer boost en zelfs thermal throttled naar 3.3Ghz
Er zit serieus verschil in kwaliteit tussen koelpasta's.
Dan kan je zo al een paar graden schelen.

Ook zou je nog een betere koeler kunnen nemen, en dan zou het me verbazen als hij nog boven de 80 graden komt.
Ik gebruik arctic m4x koelpasta. Uit reviews blijkt dat de arctic liquid freezer 2 met die koelpasta de 5950x juist heel koel hoort te houden.
Bij mij scheelde het wel meer dan een paar graden.
Niet de mooiste en goedkoopste oplossing, maar je kunt de ventilatoren vervangen met deze jongens:

Noctua NF-A12x25 PWM

Ik heb mijn 240mm AiO ventilatoren vervangen met 2 van deze en gewoon een 8 tot 10 graden drop in temps (5900X) op een onhoorbare 800RPM. Het is dat ik het met mijn eigen ogen zag anders geloofde ik het niet.

Het is net of deze Noctua fans geen besef hebben dat ze door een radiator moeten blazen, de luchtverplaatsing door een radiator is bizar.
Ik heb 3x EKWB Vardar fans op mijn radiator van 360mm..
https://www.techpowerup.c...rdar-evo-120er-rgb/4.html

Je hebt ook nog de NF-F12 die nog beter presteert met rads dan de NF-A12 maar maakt wel meer geluid. De Noctua's winnen het in ieder geval makkelijk van de EK's.

Een kleine undervolt van pak-em-beet 0,1V kan ook een paar graden van de temps afsnoepen zonder prestatieverlies.

En dan nog de koelpasta zoals @hooibergje opperde; sure de mx4 is een goede pasta maar er zijn nog veel meer betere, zoals de Thermal Grizzly Kryonaut (-2 graden).

Een paar graden met ventilatoren, een paar met koelpasta, een paar door kleine undervolt en je snoept zo 10 graden van je temps.

Als laatste je koeler; ik weet niet of je de 240mm of de 360mm hebt maar de 240mm AiO's zijn niet beter dan de betere luchtkoelers. De Noctua NH-D15 luchtkoeler verslaat vrijwel alle 240mm AiO's.
Ik zal eens nieuwe koelpasta bestellen. Wellicht dat dit mij al een stuk zal helpen. Van undervolten en overclocken heb ik geen koek gegeten dus ik brand mijn handen daar liever niet aan.
Mijn 3900X krijg ik niet hoger dan 41 graden.....met een Mugen 5 :P
bij wat voor kamertemperatuur? 41c is echt extreem laag, zo laag zelfs dat wanneer jouw cpu onder load aangeeft niet warmer te worden dan 41c dat ik toch echt eens zou gaan kijken of er niet ergens een sensor defect is.

Met een deftige koeling en een kamertemperatuur rond de 20c zou je bij een 3000 serie cpu minimaal 60+ graden verwachten onder load. En voor de 105W parts zelfs nog wat meer.
Kamer is 18 graden, constant....
Doet me denken aan de intel 5770c, met z'n extra 128mb cache (die eigenlijk voor de gpu bedoeld was).
Ik heb al langer het idee dat Apple ongeveer hetzelfde gaat doen voor de komende high end CPUs.
Dit is een packaging optie bij TSMC, waar Apple een erg grote klant is.
Daarnaast heeft Apple hier een aantal patenten op dit gebied, dus ze zijn er zeker mee bezig:

Systems and methods for implementing a scalable system

Fully Interconnected Heterogeneous Multi-layer Reconstructed Silicon Device

Memory system having combined high density, low bandwidth and low density, high bandwidth memories
Vast een move voor data center klanten i.p.v. gamers, hoewel die laatste daar natuurlijk van kunnen profiteren. Ik denk dat het voornamelijk gaat om performance uplift in HPC workloads.

Een Epyc 7763 met deze technologie heeft dan 512MB cache.

[Reactie gewijzigd door ELD op 24 juli 2024 07:16]

Vast een move voor data center klanten i.p.v. gamers
En daarom showcasen ze het met een consumenten processor in games? Als ik het zo zie is dat product al zo goed als klaar/bruikbaar.

Ik denk ook zeker dat er ruimte voor is op de consumentenmarkt, voor 15% meer performance lever ik mijn 5950x zo in hoor (hoewel op 1080p, het verschil zal bij hogere resolutie wel kleiner zijn)

[Reactie gewijzigd door watercoolertje op 24 juli 2024 07:16]

Deze extra L3 cache in SRAM vorm kan dat ook nog een boost geven aan integrated gpu's?
Zekerweten, maar wellicht is dat minder nodig wanneer we naar ddr5 gaan vanwege de hogere bandbreedte

Op dit item kan niet meer gereageerd worden.