AMD: extra 3D V-Cache zou 9950X3D amper sneller, maar wel duurder maken

Dat de nieuwe Ryzen 9 9900X3D en 9950X3D alleen op hun eerste ccd extra 3D V-Cache hebben, heeft geen technische reden, maar is een puur economisch besluit. Dat zegt Donny Woligroski, technisch marketingmanager voor processors bij AMD, in gesprek met Tweakers tijdens de CES.

Dat de verbeteringen van de 9800X3D ook in de nieuw aangekondigde modellen terecht zouden komen, lag voor de hand. Doordat de 3D V-Cache bij de 9000X3D's onder in plaats van boven de ccd's met processorcores zijn geplaatst, worden de cores minder warm en hoeven de kloksnelheden en overklokmogelijkheden niet zo beperkt te worden als bij voorgaande generaties.

Donny Woligroski, Senior Technical Marketing Manager, Consumer Processors bij AMD
Donny Woligroski, Senior Technical Marketing Manager
​​​Consumer Processors bij AMD

Maar of AMD bij de 12- en 16-core-varianten nu ook beide ccd's zou gaan voorzien van de extra 3D V-Cache, was een vraag die tot het laatste moment boven de markt hing. AMD-manager Woligroski zegt dat de fabrikant er bewust voor heeft gekozen om dat niet te doen. Ze hebben erover nagedacht en prototypes gemaakt, maar daaruit bleek dat de prestatiewinst van een extra 3D V-Cache-chiplet op de tweede ccd minimaal zou zijn.

Toch krijgt Woligroski de vraag om een cpu met 3D V-Cache op beide ccd's vaker. "Het lijkt bijna een psychologisch vraagstuk. We weten dat het theoretisch en technisch kan, dus dan willen we het ook. Maar in de praktijk zou het de prestaties niet verbeteren, en de processor wel aanzienlijk duurder maken."

Het toevoegen van de 3D V-Cache aan het tweede ccd gaat echter niet alleen om de prestaties, maar ook om een meer homogene indeling van de processor. Omdat er nu maar één groep van zes (9900X3D) of acht (9950X3D) cores toegang heeft tot de extra cache, moeten drivers ervoor zorgen dat games alleen op die threads draaien. Dat werkt meestal prima, maar niet bij games die meer dan zes of acht cores nodig hebben, of als een game zich niet goed laat beperken tot de gewenste cores.

De twee ccd's (boven) van een 9950X3D, waarvan er maar één van 3D V-Cache is voorzien.
De twee ccd's (boven) van een 9950X3D, waarvan er maar één van 3D V-Cache is voorzien.

"In veel games zijn de prestaties van de X3D's met meer cores gewoon net zo goed als die van de 8-core-versie", bevestigt Woligroski. Zo'n 8-core-model heeft maar één ccd en daarbij kunnen alle cores dus per definitie bij de cache. "Als je een lijn tekent door een grafiek met de prestatieverschillen tussen beide processors, is die heel lang recht, maar gaat hij aan het einde opeens steil omlaag door games waarin het nu misgaat. Die analyseren we en we proberen de oorzaak op te lossen. De nieuwste versie van onze 3D V-Cache-driver bevatte een aantal belangrijke verbeteringen en ook bij de aankomende release zullen we weer met een verbeterde driver komen."

"De aanwezigheid van 3D V-Cache is bovendien niet de enige reden om te proberen games binnen één ccd te laten draaien", voegt Woligroski daar nog aan toe. "Met meer cache los je niet op dat de latencies hoger zijn tussen cores in verschillende ccd's, en ook daar zijn veel games gevoelig voor."

De AMD Ryzen 9 9900X en 9950X werden maandagavond aangekondigd en zullen in maart op de markt worden gebracht.

Door Tomas Hochstenbach

Redacteur

11-01-2025 • 06:01

96

Lees meer

Reacties (96)

96
96
47
3
0
44
Wijzig sortering
De vraag is ook hoeveel het zou kosten qua productie.
Wanneer ik in de markt zou zijn voor een 9950X3D dan zou ik zonder nadenken bijv. 50 euro uitgeven aan een 9950X3D Ultra max plus met wel meer cache. Zelfs voor 100 meer zou ik dat er voor over hebben.
Wat is dat nu op de kosten van een heel systeem, waar waarschijnlijk ook een high end GPU in zit.
Wie weet welk effect dat geheugen zou hebben over 3 jaar in HL3.
Bij het kopen van een videokaart kijk ik ook niet alleen naar de benchmarks, maar ook naar, wat gaat het eerste een bottleneck zijn bij de games die nog niet uit zijn. Wanneer een videokaart met 12Gb en een met 16Gb ongeveer gelijk presteren, dan neig ik toch naar de 16Gb variant.
Tja, met de beredenering ben je vooral veel geld kwijt. Als je dat voor over hebt, prima. Maar keer op keer, jaar op jaar, is wel bewezen dat “future proofing” enorm zonde van je geld is. Je kan constant per onderdeel 50-100 euro meer uitgeven omdat je denkt dat het onderdeel gaat bottlenecken en dat je uiteindelijk met een pc zit (cpu, gpu, psu, mobo, ram, en ssd) die zo makkelijk 500-700 euro duurder is uitgevallen. Dan kan je beter die geld opzij zetten en over 3 jaar, half gta 6 uitkomt, meteen je gpu upgrade naar 6080/6090 en haal je veel meer prestatiewinst uit dan nu dure onderdelen te kopen omdat het in de toekomst nodig blijkt te zijn.m

[Reactie gewijzigd door FireBladeX op 11 januari 2025 10:21]

Ik heb 11 jaar geleden een systeem gebouwd op een i4790K, toen de snelste en beste consumentenprocessor.
Ik ben nog altijd blij dat ik het gedaan heb, de noodzaak voor mij om te upgraden is er nog steeds niet echt geweest. Ik speel niet echt meer AAA games (te veel troep tegenwoordig, alleen maar graphics en weinig leuke gameplay loops) dus hij doet het nog steeds prima voor wat nichemarkt games en nog steeds loopt de PC vlotjes en soepel bij dagelijks gebruik.

Mijn CPU+MOBO+systeemschijf wil ik gelijk solide hebben bij een nieuwe build dit jaar. Moet dan toch maar weer eens.

RAM en GPU zijn makkelijk een keer uit te wisselen Als het goedkoper is. Opslag kunnen je makkelijk toevoegen in de toekomst.
Of je hebt nu een oude trage pc die veel te veel verbruikt voor wat het kan. En een van de reden dat je er op vast hangt is omdat ie toen veel geld gekost heeft. Elk beetje systeem van vandaag loopt rondjes rond jou systeem.

(Aah, zinsbouw lukt vandaag niet :| ik hoop dat het duidelijk is wat ik bedoel, zo niet, niet om teren 😅 toch al niet belangrijk om te beginnen.)

[Reactie gewijzigd door BlaDeKke op 11 januari 2025 13:26]

Nee hoor, ik begrijp het wel. Maar ik heb gewoon geen zin om elke zoveel jaar weer te 'moeten' upgraden. Met een nieuwe cpu komt dan weer een nieuw mobo, mijn gekochte Windows werkt dan vermoedelijk niet meer omdat hij deze als nieuw systeem ziet.
Is je cpu weer wat rapper, dan is je gpu weer de bottleneck of het geheugen. Of je PSU is weer niet voorbereid op de nieuwe hardware ....

Heb liever CPU overkill (met wat PSU overkill) welke in de toekomst langzaam de bottleneck gaat vormen.

Mijn huidige PC heeft trouwens ook nog steeds zijn originele eerste Windows installatie.
Ja vanaf dat systeem upgraden is alles nieuw. Mobo ram cpu psu. En neen idd, die Windows licentie gaat je hardware niet meer herkennen, dus een oem licentie ben je kwijt. En niets moet ☺️ dit heeft sowieso ook zijn charme.
Ja maar dat is dus precies wat amd beweert. Die 3D cache geeft geen snelheidswinst dus die processor komt er niet. Eind van het liedje is frequency en snelheid is één ding optimaliseren een ander ding etc. etc.
Je bent nog altijd goedkoper af met een Xbox series S/X icm met gamepass of playstation 5 (slim/pro) icm ps+.
Wat dan wel geld is de controller of toetsenbord en muis met beperkingen en de WOWfactor om over WoW en vele andere titels maar te zwijgen. Wie speelt het nog? |:(
Eerder dat het amd meer moeite kost om 2 ccd's met 3Dcache gelijkwaardig te werken
Mss nu dat 8core's voldoen , maar wat als je een game runt en ook de server daarvoor , ergo wie weet is die 12~16 core wel nodig
Zelfs nu zit er verschil in de 2 ccd's , cores die wel lekker lopen op de 1e en op de 2e weer minder
Dus wordt weer uitzoeken welke core met ~volt ultiem loopt , en ja dat is voor de freak among us
niet voor de koper die denkt alles op vol (en dan dat addertje in het gras) kopen
Upgraden is juist leuk! En windows niet opnieuw installeren elke 4 a 5 jaar klinkt als een matige beslissing.
Vergelijk maar eens:
Ik koop grofweg elke 6 jaar een nieuwe workstation. Grofweg een jaar geleden heb ik er een gekocht die grofweg 3k kostte.
Gegeven het gebrek aan grote sprongen in prestaties op CPU gebied, en het feit dat m'n SSDs heerlijk snel zijn, zie ik het best gebeuren dat ik deze keer geen 6 jaar maar langer met deze workstation kan doen, heel misschien met uitzondering van m'n GPU. ik heb nu een 4080 en die voldoet, zonder DLSS, meer dan zat voor zelfs 4k gaming (ik blijf weg van AAA titels van vandaag die mooie gfx maar nauwelijks interessante inhoud hebben) maar als ik eens wat local (itt server-based, wat ik nu doe) machine learning ga doen is een 5090 of tzt 6090 niet misplaatst.

Ik gebruik ook een hoop crapware niet van vendors die "features toevoegen" die ik niet gebruik of wil maar wel extra resources vereisen, en daarmee ontkom ik heerlijk aan het "upgrade cycle" gezeik.

Sterker nog, m'n vorige machine kostte misschien 2k, en als die niet botweg kapot was gegaan had ik die waarschijnlijk nog steeds in gebruik. Maar ik had er op zich vrede mee, het ding stond praktisch 6 jaar nonstop aan, met af en toe ff wat downtime om het ding schoon te maken.

Met andere woorden: het kan zeer zeker lonen om gewoon voor highend spul te gaan en daar dan jaren en jaren mee te doen ipv elke 2 jaar een machine van 1000-1500 te kopen.
Over 6 jaar verspreid ben ik nu 3k/6 jaar = 500 euro per jaar krijt, in het andere geval is het in het meest gunstige geval hetzelfde, maar dan heb je eigenlijk crap hardware (met de prijzen van 2023 en later), of je bent makkelijk 50+% duurder uit, met nog steeds mindere hardware dan ik nu heb.
Conclusie: wie niet per se vast zit aan de upgrade cycle en lekker z'n eigen ding kan doen, is hoogstwaarschijnlijk beter af met mijn strategie dan blind elke 2 jaae een nieuw ding kopen. Zo snel gaan de verbeteringen niet meer, m.u.v. gfx cards. Maar ja voor gaming is ook dat niet echt nodig.

En als ik dus idd langer met deze workstation kan doen is het dus < 500 euro per jaar, hoor een systeem met topprestaties.

[Reactie gewijzigd door Jeanpaul145 op 11 januari 2025 18:32]

Dat was inderdaad mijn punt.
Mijn net iets oudere 3570k begon plots serieuze bokkensprongen in prestaties te maken, te vaak op 100% (en dat voel je), doe ook een video/foto bewerking, dus die zijn ook blij met sterke cpu. In de mindset dat ik nu nog langer me cpu wil doen, en acht jaar meet 3570k gedaan heb, eens goed zot gedaan, 7950x3d is mijne nu. Ik begin zelfs te twijfelen of ik 'Zen 6' nog ga upgraden, want deze cpu is zot snel, zit nooit aan 100% paar keer op 70% kunnen krijgen, maar zelfs dat is moeilijk.

Zen 6 zou 12 core chiplets krijgen, dus misschien naar 12 core single CCD overschakelen, maar we zien wel :) Ik kan echt megalang wachten en speculeren op laagste mogelijke Zen 6 prijzen, al ben ik bang dat amd een 5800x3d'tje pulled: te snel productie eindigen, om zo prijs omhoog te doen, maar simpel dan koop ik niet. Bv 7950x3d heeft ooit op 510€ gestaan :D Dat zou upgrade waardige prijs zijn.
Ik heb ook langer over gedaan met mijn vorige build. Mijn I7 5820K CPU had ik zeker bijna 9,5 jaar gebruikt. Het was de goedkoopste high-end CPU en deed zijn werk ook heel goed.

Vroeger was meestal om de paar jaar een nieuwe PC bouwen. Nu zijn pc's wel veel langer dan gewoon en als u een deftige CPU+MOBO+RAM combinatie wilt kopen ook al kost het paar honderd euro meer, kan je echt paar jaartjes langer volhouden dan goedkopere componenten. De enige component die rapper out of date is, zijn GPU's maar toch ietsje langer mee dan vroeger. Ik gebruik mijn RTX3080 nu al 4 jaar en hou nog vol voor 2 jaartjes.

Nu heb ik vorige maand mijn pc gebouwd. Van ASUS X99-A USB3.1 moederbord, Intel i7 5820K, 16GB DDR4 3000mhz naar ASUS ROG MAXIMUS Z890 Hero, Intel Core Ultra 9 285K en 64GB DDR5 6600Mhz.
Een X3D cpu zal denk ik een stuk minder snel vervangen moeten worden dan een hedendaagse GPU. Zeker nu er op GPU gebied continue features bijkomen die serie locked zijn zoals een nieuwe frame gen of DLSS/FSR functie.
Mensen die een topmodel CPU kopen, zijn ook wel in de markt om 1-2 jaar later weer het nieuwere topmodel te kopen. Geld maakt niet uit, als ze maar het snelste hebben.
Dat is geen gegeven.
Het gaat mij niet om de snelste. Het gaat er mij om, hoe lang doe ik langer met een nieuw systeem tov de meerprijs.
Een CPU is op dit moment relatief tot de GPU vrij goedkoop.
Ik zou zelf voor een 7600x3D gaan of een 7700X. Goede kans dat die op 4k nooit een merkbare bottleneck gaan vormen met een GPU van minder dan 800 euro.
Maar wanneer ik toch al een 9950X3D zou overwegen, waarom dan niet net iets meer uitgeven als ik daarmee bijvoorbeeld een half jaartje langer met mijn systeem kan doen.
''Ik zou zelf voor een 7600x3D gaan of een 7700X.'' Maar we hebben tegenwoordig met upscale te maken waardoor de cpu op een lagere resolutie moet renderen, zelfs met 4k upscale doet een cpu nog veel.

Dus een 7600x3d of een 7700x zal dan weer zonde zijn. Maar wat als AMD met een dual 3dcache was gekomen? Dan had je waarschijnlijk weer ''8jaar'' met je systeem kunnen doen met eventueel een gpu upgrade/upgrades ernaast.

[Reactie gewijzigd door Jeroentjeeuh op 11 januari 2025 19:12]

Dat gaat voor mij niet op. Ik heb een 7950x3d om juist niet te upgraden na 2 jaar. Ook omdat het socket nog wel even ondersteund wordt. En ik vraag me af of systemen voor productivity al na 2 jaar worden geupgeade of vervangen. Laat staan na 1 jaar.
Dat geld ook voor een niet X3D cpu. En dat is van alle tijden, het woord ‘hedendaagse’ kan je laten vallen.

Nu zijn het verschillende versies dlss, destijds waren het verschillende versies directx…

[Reactie gewijzigd door BlaDeKke op 11 januari 2025 13:18]

Dan moet je even uitrekenen hoeveel langer je met je hardware kan doen wanneer je bijv. 20% meer uitgeeft.
Note, ik werk op een skylake i5 NUC.
Game Computer is uit 2018.
Dat kan je niet berekenen. De toekomst is namelijk nog niet gepasseerd.

Als je naar het verleden kijkt dan ben je altijd goedkoper uit door met regelmaat een nieuwe midrange computer te kopen. Dan om de zoveel tijd een high end systeem. Je bent ook vaker ‘mee’ met een mid range systeem dat je vaker vernieuwd. Hoe high end je je systeem ook bouwt, na een aantal jaar gaat het serieus moeite hebben om midrange hardware bij te houden.

Als je de kosten gelijk wil houden en toch high end wil kopen, dan ga je dat moeten compenseren door lang met een verouderde pc te gamen.
Maar dat kan en heeft ook zo zijn charme.

En ik denk dat er een hoop deze les aan het leren zijn sinds de corona gamepc hype.

[Reactie gewijzigd door BlaDeKke op 11 januari 2025 13:59]

Correct. Je kan hooguit wat doen met 30 jaar hardware ervaring.
Ik denk dat CPU' s op het moment vooral tov de GPU's nu relatief erg goedkoop zijn.
Wanneer je je CPU wilt upgraden na een jaar of 5, dan vraagt dat vaak ook een nieuw moederbord en geheugen.
20 jaar geleden koste de snelste CPU voor gamers 999 dollar. De 7950X3D is dan voor 700 euro een koopje, als je bedenkt wat een goede videokaart kost tov de zelfde 20 jaar geleden.
Relatief wat meer uitgeven aan de CPU kan dan al snel uit. Maar hoeveel is altijd de vraag. Vandaar dat ik stel, dat als ik toch al meer dan 700 euro uit geef voor een 9950X3D dat relatief 50 meer voor alle 16 cores met 3D cache, mij een goede investering lijkt.
700 is veel geld. Maar 50 valt dan wel weer mee.
Zeker weten doe je het inderdaad niet.
Wie had er gedacht dat AM4 zo lang mee zou gaan?
Ik niet in elk geval.
AM4 is inderdaad lang meegegaan. Maar een 2700X met meer cache blijft een ouderwetse trage cpu. Naar huidige maatstaven dan.

[Reactie gewijzigd door BlaDeKke op 12 januari 2025 14:17]

Zou alleen me moederbord meer future proof kopen.. De rest vind ik allemaal bijzaak en makkelijk nog altijd zo uit te wisselen zonder het hele systeem te moeten demonteren.. Dat is de extra prijs ook wel waard.
En je weet nooit hoe je financiele status er over paar jaar eruit ziet..
Dan heb ik sommige dingen liever op het moment dat ik ze koop en makkelijk paar jaren uit kunnen zingen.
Dan op het op dat moment kopen, en je weet niet wat de prijzen dan doen.
Ik heb 13 jaar gedaan met een moederboard, kast, ram en power supply.

Ik heb een i7 920 aangeschaft op het 1366 platform.
Daar heb ik later de Videokaart van vervangen (Radeon HD4890 naar HD7950)
Daarna de Processor geupgrade naar een Xeon x5670 (6 cores met HT)
Daarna de Videokaart vervangen voor een GTX 1080 in 2018
In deze config gebruikt tot 2021.

Ik had ook op het toenmalig 1156 platform kunnen starten en 100 euro minder kunnen uitgeven, maar dit heeft toen heel goed uitgepakt voor mij. Ik zal hier ook altijd rekening mee proberen te houden als mensen mij vragen om een pc samen te stelen voor ze.

Met mijn huidige build ben ik juist andersom gegaan. Ik heb een AM4 systeem gekocht een jaar voordat AM5 uitkwam. Simpelweg omdat dat oude systeem niet meer mee kon komen maar ik was zeker AM5 gegaan als ik langer met mijn oude pc had kunnen doen.
Ook als het in de prestaties nauwelijks verschil maakt? Want het klinkt alsof dat hier toch wel het geval zou zijn. Ik ga zelf bij componentkeuze vooral voor prestaties vs prijs.

Met VRAM is het natuurlijk vergelijkbaar, bij 12gb vs 16 maakt het nog wel verschil met met bijvoorbeeld 20 vs 24 ga je waarschijnlijk nooit een scenario tegenkomen dat het benut wordt.
De 64mb 3d cache was volgens mijn berekeningen, in het begin 100€ voor AMD, maar recentelijk, lijkt het zelfs soms 75€ te halen (bv 5700x3d). Vraag me af of dat gewoon marktwerking is (5800x3d overpricen, 5700x3d underpricen) of dat 3d cache effectief nog maar 75€ per chiplet kost (kan e, ze zijn er jaren mee bezig, en cache blijft op zelfde node, omdat nieuwere node, nagenoeg geen verbeteringen geeft, dat wil zeggen dat node productie heel goedkoop is voor Cache.

Bij 7950xd, is de mediaan prijs ongeveer 730€ (over z'n tijd heen), dat wil zeggen of 800€ of 825€ als je liniair chiplet 3d cache cost doorrekent. (dual chiplet versie) of als ze als halo product willen verkopen 900-1000€ (geen reëele kost van 3d cache).
Vandaar dat ik me afvraag wat de kosten zouden zijn.
De productiekosten zijn maar zelden te herleiden van de straatprijs.
Ik snap dat AMD de afweging maakt om minder winst te maken op hun halo product, als het toch wel verkocht wordt (omdat Intel de bal ook heeft laten vallen).
Ik denk heus niet dat AMD Nu enorm inzit om het beste voor de koper te bieden.
Ze willen net als elk ander bedrijf zoveel mogelijk voor zo veel mogelijk verkopen.
Het Halo product kunnen ze voor een X bedrag in de markt zetten. Als dat te hoog is, gaan de reviewers klagen. Al helemaal wanneer het niet veel beter presteert dan een veel goedkoper product (de 9800X3D).
Ik, als heel klein deel van de markt, zo best wat extra uit willen geven als ik toch al dat geld uit had gegeven voor de 9950X3D.
Voor het geval er in 5 jaar wel spellen meer dan 8 cores willen gebruiken.
Of de software support van AMD geen drivers blijft updaten bij nieuwe spellen.
Het is dan een gokje met 50 euro of het in de toekomst wat gaat brengen.
Wat ik ook denk: chiplets in massa produceren is echt makkelijk en ze dan 'ploffen' in cpu omhulsel ook (kijk maar naar Epyc). Maar 3D cache, in absolute termen kost 100€ (max) om te plaatsen, het grote probleem is 20 miljoen in een jaar produceren of meer. Want het is een heel gedoe 'cpu licht daar, chiplet er in 'pauze', neem 3d cache', heel nauwkeurig er op monteren', dan pas sluiten. De loonkost en tijd zal het niet zijn, en ook kost om procueren ook niet, maar dat hele vertragingsprocess tijden massaproductie hindert hun, daarom denk ik dat ze met opzet non 3d cache altijd eerst launchen in hoop dat mensen daar mee tevreden zijn, zodat ze later minder 3d cache moeten maken. Ook is het altijd moeilijk op launch day om ze in stock te hebben. Per kwartaal lijkt me maximum 5 miljoen en dat is al aan hoge kant, terwijl amd makkelijk 50 miljoen 'non 3d ' chips kan maken. Ze moeten heel hun productielane aanpassen en ingevuld krijgen met robots mensen) om dat gedaan te krijgen. Maar ik denk dat amd nu wel al weet hoe belangrijk 3d cache is om Intel te verslaan, dus ze gaan gegarandeerd bijmaken, vraag is, stel er komt een monster product, 10800x3d, +30% snelheidk, kan AMD ooit, voldoende startvoorraad leveren, bv kwartaal na start productie (typisch verkoop start tijd)? Ik vrees van niet. Eigenlijk moet amd weer '+20% ipc' architectuur maken zodat ze deel van mensen met 'kaal zonder 3d cache' en daarna de prestatiegierige mensen met 3d cache kunnen bedienen. 7000 series had voordeel dat 7600x bv ongeveer gelijk aan 5800x3d presteerde en zo deel van koek kon innemen. Bij Zen 5 is dat niet zo, iedereen 3d cache nu.

Het verklaart ook waarom 7600x3d, 5600x3d halo producten zijn, ze bestaan eigenlijk niet, zijn in een exacte hoeveelheid 'per ongelijk deels stukke' 8 core cpus afgeleid, en daarna meteen uit productie, het is voor amd niet waard om 'met opzet' 3d cache op 6 cores te steken, door hun te lage productie van 3d cache kunnen ze beter allemaal op dure chips steken en volle buit binnenhalen (kijk maar naar 730€ die mensen voor 9800x3d tijdelijk betaalden). AMD heeft geen moeite met 8 cores (werkende chips) als 5600x en 7600x te verkopen, het verlies is veel kleiner en kan veel makkelijker massageproduceerd worden, ook door veel chips te maken, krijg je meer 'high bin' chips, en dus ook makkelijker 9950x achtige chips, en die maken ruimschoots 'mogelijk onderprijzing' van 6 cores goed. Bij 3d cache is dat niet zo.

Hopelijk kan amd in toekomst helft van chips in 3d maken zonder problemen (ik voel nu aan dat dat tussen 10-25% is misschien zelfs maar 5% als hele chiplet markt meetelt 8700g en epic, threadripper chips).

[Reactie gewijzigd door Matti7950 op 12 januari 2025 00:05]

Te verwachten, we moeten niet doen alsof 3D V-cache een "wünderkind" was, op een gegeven moment is de rek er ook uit en dat zien we nu gewoon. Dat neemt natuurlijks niks weg van het feit dat het een extreem goede serie chips blijft voor gaming. Daar is op dit moment de discussie bijna pro-AMD t.o.v. Intel, waar zij op achterblijft.

Edit: iets beter verwoord.

[Reactie gewijzigd door SkyStreaker op 11 januari 2025 09:20]

kun je uitleggen hoe je erbij komt dat 3d-v-cache nu ineens geen wunderkind meer zou zijn


Zoals ik dit lees gaat is de stelling niet dat 3D-v nu per sé niet zou werken of dat het geen effect heeft.

het punt is juist dat een moderne cpu uit verschillende sub-constructies bestaat die elk beschikken over een x aantal rekenkernen en een hoeveelheid low-level-cache en dus hele korte lijntjes.

in zekere mate zou je die hele cpu's van nu niet meer als chip moeten zien maar als een volledige moederbord met meerdere cpu's met een bridge tussen de cpu's en met een een gedeeld ramgeheugen in de vorm van DDR.

wat amd dan zegt is: het is beter om in onze software te zorgen dat alle taken die 3D-v nodig hebben op dezelfde cpu (CCD) draaien, dan dat we alle cpu's op het bord upgraden naar 3d-v modellen. die dingen zijn namelijk heel duur en bovendien zit er een fixe latency als je taken van cpu 1 naar cpu 2 gaat sturen dat moet dan via het super trage ddr geheugen dus ook al ga je dan tussen cpu's ofloaden en ook al heb je dan die super coole 3D-v cache tot je beschikking, je zit ondertussen wel te wachten op die enorme lag tussen de verchillende cpu's (of CCD's).

wat ik me dan vooral afvraag is waarom er dan geen a-symetrische cpu's worden gemaakt. maak bijvoorbeeld een cpu met een gaming ccd met 8 (of als je het je lukt zelfs meer cores), en stop die samen in een package met een super-simpele budget ccd met misschien maar 4 normale cores. het idee zou dan zijn dat je windows en alle overige randzaken makkelijk op een 4core ccd kunt laten afhandelen terwijl je die andere 8cores vol kunt geven aan je game (en wellicht je streamingsoftware)...

het kan immers aan mij liggen maar wat heb ik aan 2x 8cores als ik er daarvan maar 8 voor mijn game kan gebruiken. - dan heb ik er dus contstant 4 over die niets staan te doen.
Core parking (single chiplet spelen op 7950x3d /9950x3d), schakelt uit als je gulzige taken opstart zoals fotoshop. Dus dan heb je assymetrische cpu.

Het probleem is eigenlijk windows and game devs. Als het van hun software basiswerking ligt, dan worden non stop processen van core naar core geswitched, het is alsof windows elk process als een 'kort process' behandelt, en zo telkens iets in de 'dan snelste' core dropt, maar hierdoor, switchen ook de lange taken (games) ook de hele tijd, niets blijft op core vastzetten. in HW64Info is het grappig hoe vaak een core van 1ghz naar 0 ghz gaat terwijl een andere core het omgekeerde doet. Bij alt tabbing tijdens gamen, word je gaming process van de snelste 3d cache chiplet, naar snelste non 3d cache chiplet gesmeten. Alt tab terug en word herhaald.

Windows moet eigenlijk bij moderne multicore pc's (e-core, dual chiplet etc) een taak nauwkeurig aan één core geven en bij dat standpunt blijven, snap de hele non stop switching niet, ik denk dat dat nog van low core processors stamt, waar bv Core 1 snel is, core 2 trager, core 3 nog trager, en om latency te min maxen ze proberen die snelle core 1 te pakken te krijgen, paar tegenwoorden is het verschil redelijk klein tussen cores, maar switchen tussen cores heeft net hogere penalty dan vroeger (zie bv 7800x3d is beetje zoals oude cpu's). Windows moet echt stoppen met dat soort fratsen. Taak toegekend? Taak blijft, simple, reserveer snelle cores (hoger gebinned/clocked boostclock), voor snelle taken, smijt er geen rommel op genoeg andere threads. In principe zou 9950x3d sneller moeten zijn dan 9800x3d als windows al zijn eigen scheduling op de 2de chiplet smijt en zonder verpinken of latency de games laat running of chiplet 1. Jammer genoeg gaat dat niet. Vind het wel frappant dat windows taken (die ook latency veroorzaken op 9800x3d) dat wel met zeer lage impact kunnen doen, terwijl je net zou denken dat impact hoger is, bv windows heeft minstens 3mb cache nodig voor zijn taken, die word afgenomen van 3cache, en word dus kleiner, dus minder voordeel bij 9800x3d, bij 9950x3d kan windows die 3mb gewoon op non 3d cache chiplet smijten, maar in praktijk blijft het slecht Windows had al lang moeten hier oplossingen voor vinden.
Ik denk ook dat dit komt omdat er te weinig info bekend is bij het OS. Als je als game-dev kan aangeven wat een gulzige taak is die beter draait onder 3D cache of als van een thread met een bepaalde naamstelling bekend is dat deze meer nodig heeft dan kan je de taken slimmer inrichten. Ik verbaas me er altijd over hoe dit soort simpele info niet word bijgehouden Wat dat betreft is er dan ook nog veel te winnen en dat zal ook steeds meer nodig zijn.

Op zich is het wel grappig dat we steeds meer integreren in de CPU terwijl we steeds meer afhankelijk zijn van het separaat / lokaal uitvoeren van processen om snelheid te behalen.
Het probleem is dat 2 chiplet heb met elk L3
32+64 en 32
Cache vangt tragere hoge latency memory op.
Maar software MT architectuur en data acces patronen, maar ook data sharing en data afhankelijkheden tussen treads kan zijn dat 2 cores dezelfde data nodig hebben.
Core 3 van chiplet 0 en core 9 can chiplet 1 hebben diezelfde data nodig die dan in 1 van die 2 L3 caches aanwezig is.
Dit is probleem van slecht Multithreaded architectuur of software probleem dat veel afhankelijke compute heeft. Voor dat laatste heeft AMD Epyc x3d lijn. Pro toepassing waar data sharing en afhankelijkheden door compute probleem niet te mijden zijn. De runtime load is dan zo groot als de totale L3 cache.
Maar games is de preoriteit voor op pro niveau de software goed multithreaded te maken laag. Ten 1st omdat voor zen er altijd 1 hele L3 was. Multi socket om diezelfde reden een no go is voor gamen. Naast dat pro software ook de MT api gebruiken en dat numa multi socket aware implementeren.
In games is nog puur single socket en niet numa aware . Laat staan geoptimaliseerd voor cache en pre-fetcher. In software ontwikkeling is er twee strijd van OOP vs data orienter. Voor dev waar de main target mainstream cpu zijn. Intel 9th tot 15th amd zen2 tot zen5 is de cpu load licht. En voldoen de dure veelcore client sku ruim. Dat benches cijferneuken minder is. Is niet goal van dev dat is volume sales. Time to market door productie efficient te produceren door goede content pipeline zodat grote art team productie efficient is. Dus key preoriteit is zo ruim mogelijk data driven engine.
Dat is niet data oriented.

MT is data shared en minsten 1 thread kan muteren is slecht voor goede MT scaling.
Functies met side effect is ook iets not done.
Een dev moet core engine thread pool of thread opzetten aan de hand van cache core topology opvragen en threads pinnen. Zodat thread context switches en threads die dezelfde data nodig hebben dezelfde L3 delen maar ook L2 delen en SMT paren affinity of gepind aan de meest ideale hardware threads. En uiteraard wat hardware threads overlaten aan OS en andere apps. Dit wordt niet gedaan voor groepje cpu die hun games al goed genoeg draaien. En is dus AMD die chipset cpu driver moet ontwikkelen om scheduler wat beter aan te sturen. Misschien nog in samen werking met MS. Sommige hebben het wel goed op orde. De betere merk je dat 3dVcache weinig baat heeft. Net zoals bij de meeste pro software.
Cache op de tweede ccd zou het wel sneller maken aangezien je hoe dan ook je game op de v-cache cores draait. Nu is dat maar de vraag en moet je dat softwarematig proberen op te lossen, wat frustrerend werkt.
Tenzij je een hitte probleem krijgt en core snelheden verlaagt moeten worden. Maar kosten lees consumenten prijssegment en tdp en productie yield zullen wel belangrijkere factoren zijn. Misschien weer markt voor dual pc boarden en twee 9800x3d plaatsen.
Edit: Buiten dat de consumenten am5 CPU’s waarschijnlijk niet ontworpen zijn voor dual use, zou het alleen voor vergezochte niche use cases beperkt nuttig zijn en schaalt het zeker niet voor een fullscreen game, vanwege ondergenoemde redenen.

[Reactie gewijzigd door EnderQ op 11 januari 2025 10:10]

meen je dit nu serieus?

HÉT grote probleem waarom AMD geen 3d-v op beide ccd's zet is omdat de latency tussen de ccd's meer lag geeft dan dat die 3d-v winst geeft - en dat is al binnen een chip... nu wil jij in plaats van binnen een chip buiten de chip bruggen gaan slaan tussen ccd's met 3d-v door een multi-cpu board.

ik ben het dan wel met @Icekiller2k6 eens dat je mag hopen dat er eindelijk weer eens stappen gemaakt gaan worden op het gebied van IO en hoe de chiplets worden gestapeld en verbonden. Als daar in AM6 echt grote stappen in worden verwacht (of beloofd) dan zou dat zeker reden kunen zijn om deze discussie opnieuw te voeren maar tot die tijd zullen ontwikkelaars het dus softwarematig (in de ontwerpfase) moeten oplossen.

ik snap overigens ook niet wat @skunkopaat nu precies voor problemen ziet in een software-oplossing juist als game(engine)-dev kun je toch prima voorspellen welke threads er heave 3d-v dependant zijn en deze dus naar de juiste ccd laten wijzen ik me voorstellen dat AMD in zijn driver kan proberen dit goed mogelijk te voorspellen wanneer ontwikkelaars dat niet doen, maar het zou me bijzonder tegevallen als er niet ook gewoon een functie is om dit netjes in de ontwerpfase af te vangen.
Software is dom, zowel windows als andere software. Ze wisselen constant van core, en zelfs chiplet. Als gewoon die permanent switching er uit gesmeten word, elke taak blijft op z'n toegewegen core (en snelle cores blijven open, tot echt zware taak zoals gaming ze benaderd), dan word het gemeengoed.

Trouwens waarom kan windows z'n hele scheduling en 'running processes' niet op chiplet 2 (geen 3d cache) en de game hard lang en efficient op 1 3d chiplet core houden? DAn zou toch sneller moeten zijn dan 9800x3 want, windows eet ook wat performance van de 98003xd op (al is het maar 3%, windows eet cache en resources op). Het enigste wat dit kan doen is slechte optimalisatie. HW64info is het heel duidelijk dat windows non stop threads verplaatst, echt belachelijk in huidige cpu tijdperken.

Éen voordeel: amd moet nu wel alles uit kast halen voor software/driver optimalisatie. En dat komt ook mijn 7950x3d ten goede, word stiekem dus nog heel goed investering.
Er zijn wel degelijk preferred cores maar blijkbaar houdt het scheduling algoritme rekening met warmteontwikkeling. Switchen binnen zelfde chiplet zou weinig uit moeten maken, immers zelfde cache.

Dat kun je als dom of inefficient betitelen maar is het niet. Als het dom zou zijn hadden de E-cores van Intel geen enkel bestaansrecht.

Misschien is de single-core performance slechts marginaal verbeterd en leveren multi-core verbeteringen weinig verbetering op voor consumenten.
Er zit wel een groot verschil in de bining van cores. 2-3 cores halen (bijna) de opgeven 5.2ghz (meestal 5.1ghz), maar een stuk of 5 halen 4.65-4.8ghz, als je game dus daarnaar geswitched wordt prestatieverlies, gelukkig lijken zowel Windows als AMD dit goed te weten, want zelfs voor de drivers optimaal waren, zat mijn game meestal op Core 0 of 1 (snelste) of Core 5 (ook snel), eigenlijk nooit op de tragere gezien, ze lijken soms wel te switchen tussen die 3 'high bin, high clock cores', zelfde trouwens voor non x3d chiplet, 5.7ghz word op 3-4 cores gehaald en bij alt tab, blijven ze ook op een van die cores. (7950x3d)
Er zit wel een groot verschil in de bining van cores. (..)
De door jouw genoemde binning/core verschillen worden aangegeven in de chip zodat de OS scheduler core selectie kan toepassen (aka preferred cores).

Ik kan helaas niet in de source van de Windows scheduler gluren en ik weet ook niet of je processen kan pinnen op cores. Misschien hebben ze de scheduler omgegooid na de P/E introductie van Intel?
Dual-socket heeft een vele malen hogere latency tussen de CPU-cores dan een CPU met 2 CCD's. Dual-socket PC's zullen dan ook erg slecht presteren in games zodra ze beide CPU's gebruiken. In het beste geval snapt de scheduler dat en zet die je game op één enkele CPU, maar dan had je net zo goed geen dual socket kunnen hebben.

Ik kan helaas geen benchmarks vinden die dit ondersteunen, waarschijnlijk omdat niemand daar genoeg vertrouwen in heeft om het te proberen. Wel veel artikelen die zeggen "doe het niet".
Dat hangt helemaal van de game af. Als je een game hebt waarbij de cores veel onafhankelijke dingen doen (zeg een schaakengine) maakt het niks uit of het een dual cpu met hogere latency is. Als alle cores meerenderen voor hetzelfde frame in een shooter is het wel een issue...
Het verschilt natuurlijk altijd per game en per applicatie, als ik het over "gamen" heb is een schaak-engine natuurlijk niet echt waar ik op doel. Voor zover ik kan vinden heeft een schaak-engine ook niks aan 3D-cache.
Een schaakengine gaf ik als voorbeeld omdat je daar heel erg parallel onafhankelijk werkende software van hebt. Er zijn vast ook zat 'normale' games die tegen wat latency kunnen. NPC strategies op de ene cpu en graphics op de andere...
"NPC strategies op de ene cpu en graphics op de andere"
En dan moeten beide taken samen wél meer dan zestien threads gebruiken, anders had dat ook gewoon binnen één X3D-CCD gekund (acht cores met SMT). En dan moet de scheduler ook nog eens snappen dat hij die 16+ threads precies op de goede manier groepeert. En de applicatie moet dan dus ook nog zwaar op de L3-cache leunen, want anders is een gewone 16-core beter, maar de groepen threads mogen geen data delen.

Tja, het is theoretisch mogelijk, maar ik wil de benchmarks wel eerst eens zien. En die éne applicatie moet maar opwegen tegen de 99 andere applicaties die slechter presteren. En als je toch echt een rekenbak wil voor één specifieke taak, doe het dan goed en neem een epyc.

[Reactie gewijzigd door bwerg op 13 januari 2025 07:33]

Ik reageerde op 'dualsocket pc's zullen slecht presteren in games'. Volgens mij valt dat sowieso wel mee en zal het ook per soort game flink verschillen.
Nvidia en AMD/ATi guide line voor renderen en aantal command buffers kan je niet helemaal opschalen. Daar is ook ergens diminishing return als command buffers MT gaat vullen. Geen idee hoeveel het mogen zijn om er nog iets aan te hebben. Maar top threadripper goed gebruiken zit er niet in. Misschien dat in latest versies anders is dan toen bij introductie van DX12 en Vulkan.
Dual-socket hebben gescheiden geheugenbanken/DIMMS of een extra geheugencontroller ertussen.
1 proces incl env splitsen/schakelen gaat ergens dubbele resources eisen omdat beide cpu's eigen memorycontroller hebben.

Lang geleden iets met schaken gedaan maar mijn overklokte Cel 300 (naar 600) zonder cache was rapper dan m'n dual Pentium 300.
Wat de markt eigenlijk wil is een 10 of 12 core CPU die NIET op verschillende CCD's zit maar één geheel is. En dan X3D maken. Dan kan je de winst wel halen bij AMD.

10850X zou een mooie 10 core AMD CPU zijn voor de volgende generatie.

Klinkt bijna als Intel naamgeving.XP
Dat is niet wat markt wil dat meer iets wat groot deel van dev niet willen ondersteunen.
Omdat het probleem diep zit in core game architectuur. Hoe multithreaden is opgezet en hoe goed guidelines voor optimaal multithreaded je software probleem is opgelost.
En dus schalen veel games slecht met meer cores. Kan omdat games lastig of inherent veel data afhankelijkheden heeft. Of men laat dit probleem liggen. Omdat mainstream cpu ruim voldoen. 6core midrange budget cpu. Naast big/little probleem komt deze L3 split daar boven op
Ook (of juist!) twee losse CPUs in aparte sockets zullen ernstig vertraagd worden als ze bij data in elkaars cache moeten komen. Als een CPU uit cache gaat lezen moet ie namelijk erst de andere CPU vertellen (en bevestigd krijgen) dat die niet gaat schrijven in dezelfde cacheregel.
Daarom is het snel als het op de die zelf zit (ze gebruiken wellicht de L3$ logica die al op de CPU-die zit).
De werkelijkheid is dat ze interfacing tussen de 2 CCDs voor de penalty zorgt bij gaming.

Dus hopelijk is bij AM6 dit aangepakt en heeft het wel nut voor op beide ccds 3dv te voorzien wanneer ze o.a. de IO die “eindelijk” gaan vernieuwen…
De cache op de CPU-die heeft een korte en brede verbinding (heel veel contacten) met die cores en werkt dus snel.
Daar gaat een nieuwe IO-die geen verandering in brengen.
Dan moet er 1 cache-chip komen die verbinding maakt mer 2 CPU-dies. Misschien een veel groter cache-die als basis gebruiken en de CPU-dies daar boven op.
Maar dat is best een heel erg grote verandering. Van alles.
Het probleem is dat 16core sku cores heeft met meer L3 en 1 met minder maar hogere kloks.
Shedular prefereert de hogere kloks. Maar moet nu dus 1st grotere l3 cache voorrang geven dan kloks. Dit is typisch dual chiplet probleem bij AMD.
Misschien dat 3dvcache 8 chiplet met 16core zen5dense betere keus zou zijn.24core x3d want dan zijn die weinig L3 lager geklokt en ivm vermogen verdeling nog beter voor pro gebeuren.
Hetgeen in de laatste alinea in het citaat wordt uitgelegd, bevestigt mijn vermoeden en klinkt gewoon als een rationeel besluit dus.

Het zou mooi zijn als we in de toekomst CCD’s krijgen met 10 of 12 cores. Maar er is nu niet bepaald concurrentie op de markt die AMD daartoe dwingt.

Ik kan me voorstellen dat er namelijk games zijn die daar best baat bij zouden hebben, die nu een 9800X3D al vol aan de bak houden.
Die zijn er wel, maar voor de meeste games op 1440p hoogste settings, maakt het geen verschil tov goedkopere modellen.
https://www.techpowerup.c...d-ryzen-7-9800x3d/19.html

Dus nog meer 3D cache er op plakken, of sowieso deze 9900/9950 chips kopen voor een pure gaming pc, is weggegooid geld.
Ah, mijn mede connoisseur van het betere jRPG werk :)

Goed overzicht inderdaad. Wat je er vooral ook uit af kunt leiden is dat er vrijwel geen game getest is waar de reguliere 9950 sneller is dan de 8 core zonder X3D. Hetgeen er op duidt dat deze games in ieder geval amper schalen naar de >8 cores.

De vraag is hoe dat is voor de typische pc games als de Paradox games of een Factorio. Helaas schitteren zulke games nog te vaak in afwezigheid.
Ja, Lufia 2 draait wel op deze chips, evenals FF VII

[Reactie gewijzigd door Dekar op 11 januari 2025 09:18]

Wat dat betreft, het blijft toch knap dat ze on the fly procedurally generated dungeons hebben weten te implementeren, zonder laadtijden, op een chip van amper 3 mHz.

Als men daar toch eens een remake van zou maken, zodat we die van de 3ds kunnen vergeten, dat zou pas echt magistraal zijn.
Ja niet normaal. Overigens ben ik nooit tot level 99 gekomen. Is toch erg lastig! Heb nog wel een save file met veel blue chest items. Zou daar toch nog eens op terug moeten komen. Wel jammer dat het pas unlocked na een new game+ playthrough.

Maar ook de dragon eggs, alle capsule monsters, voeder systeem en evolueren ervan, onderwaterwereld, een casino, de hele soundtrack. Eigenlijk een gigantisch spel op een paar kilobytes.

Een remake zie ik niet gebeuren. Het is zo'n obscuur spel eigenlijk. Dat wordt nooit een succes. Ach, dan maar op de SNES (emulator)

[Reactie gewijzigd door Dekar op 13 januari 2025 09:27]

Of bijvoorbeeld Dcs world, een bekende flightsim die tegenwoordig multi core is…
Een andere oplossing zou zijn als men het voor elkaar krijgt om een enkele de 3D cache o pmeerdere CCDs aan te sluiten. Op die manier is het cache echt unified en gesynchroniseerd.

Als je nu 2 CCDs hebt met cache, en thread op vershcillende CCDs moeten dezelfde data bewerken, dan heb je enorme latency omdat alles via het geheugen moet: de L3 cache is enkel per CCD gedeeld.

als de 3D Vcache ooit echt een soort L4 cache wordt voor alle cores van de CPU, dan ga je wel echt prestatiewinst zien bij apps die alle CCDs belasten.
Met andere woorden, wil je een cpu puur voor gaming, koop dan een 9800X3D.
Of een 9700X omdat 90% van de games toch CPU bound zijn. De 9800X3D is echt niche voor mensen die 200+ fps willen halen in games. Laten we niet maken dat geen andere CPU meer heel goed is voor gaming. Wel met de voeten op de grond blijven.

600 euro voor 9800X3D en 350 euro voor 9700X. Dat is de werkelijkheid voor gamers. Die 250 euro kan je beter in een betere videokaart steken. En dat heeft alleen geen zin meer als je op een RTX4080 zit. Want een RTX4090 heb je niet voor 250 euro meer.
Heel eerlijk? 7800X3D verkocht, ben nu over op een 8700G en eerlijkheidshalve? Ik vindt het prima. Geen vuiltje aan de lucht, simpelweg omdat ik het type gamer ben waarbij competitief op het scherpst van de snede niet nodig is. Ik speel RPG's, Adventures, single player shooters op easy... Het rendement voor mij is al behaald.
Waarom de G?
(Ikzelf zat zonder GPU en heb toen 3600 vervangen door 5600G.)
Omdat ik voor sommige games de dedicated GPU gewoon niet gebruik, ook al kan ik hem helemaal onderklokken voor minder gebruik.
Of een betere monitor..
Nee het is wil TOP dus de kroon drager CPU voor pure gaming PC
Dan is dat nu 9800X3D.
Maar dan ga minstens voor high-end Gkaart 4080
En anders is elke 8 core single chiplet sku van AMD goed genoeg zo ook intel tegenhangers. Ik heb geen probleem om game settings op low of medium hoop features disabled zolang redelijk uitziet bij 1080p native.
Is dit ook niet misschien meer iets wat op lange termijn juist beter uitpakt, maar op korte termijn waarschijnlijk niet echt te merken is in de benchmarks? Ik kan mij voorstellen dat als ze games beter optimaliseren voor deze setup, dat je daar uiteindelijk wel gewoon gebruik van maakt en sneller bent.
En de games worden niet geoptimaliseerd voor die 0,003% van de gamers die zo'n chip koopt.
Die dual chip-lets cpu die runnen triple a games al goed genoeg , omdat die ook al over recommended spect vallen. Daar gaat dev en ook publisher geen resources aan verspillen. Dan time to market belangrijker en features waar alle gamers wat aan hebben. Ook die met beperkte budget en dat zijn de meeste. Mainstream dus.
Meeste studio maar publisher gebruiken een in-house engine. Dus dan is betere MT houd in dat de engine in core op de schop moet. En dat is extreme taak om game engine om te gooien. Sommige publisher met gedeelde engine team kunnen dat op bepaald moment overwegen en is ook gedaan. Maar velen doen dat niet of stellen het uit. Of hun game concepten zijn niet zo thread heavy. Waar het kosten baten en tijd en relevantie overweging is. Bij licenceerbare engine zal die stap wel gemaakt worden, maar ook daar is de nadruk op data driven en content creatie pipeline die optimaal moet zijn voor productiviteit te bevorderen.
9950X3D is trade of voor cliënten die toch hoge game prestaties met hoge pro MT compute willen.
Tegen die tijd verwacht ik dat er al wel weer een nieuwe lijn processoren op de markt is.
Kortom 9800x3d lijkt me het beste voor gaming niet? Ik dacht er eerst nog aan om de 9950x3d daarvoor te kopen en dan de ccd zonder cache uit te schakelen, maar zelfs dat zorgde voor problemen bij de 7000 serie bij enkele games. Gaat dat nu veranderen bij de 9000? Ik ga de gok niet wagen.
Ik koop eigenlijk alleen nog gebruikte onderdelen. Ik heb vorig jaar een cpu en mobo combi gekocht voor €250 (i7 10700kf) en voor €75 een setje 4000mhz DDR4 RAM. Daar heb ik een jaar geleden voor €650 een gebruikte AMD 7900 XT bij gehaald. De hele boel is overgeclocked zo ver als het kan voor nog wat extra prestaties. Ik verwacht daar makkelijk nog een aantal jaar mee te kunnen doen.

De nieuwprijzen tegenwoordig (€600 voor alleen een cpu, 9800X3D) vind ik echt te idioot voor woorden. Laat staan een gpu voor €1200+, echt belachelijk en onnodig.
Weet iemand waar ik het productie proces de extra kosten gemaakt zouden worden?
Cachegeheugen neemt zeer veel plek in en dat kost simpelweg geld. Verder verhoogt het de complexiteit van je CPU en vergroot je de kans op een defect waardoor je mogelijk meer verlies hebt in de productie. Als de baten niet tegen de kosten opwegen dan is de beslissing snel gemaakt.
2 cache chiplets is dus 2 x de prijs en hiermee ook dubbel de kans op assemblage uitval.
Misschien tijd voor tileslots :).
Van die gelijdings mini kussentjes waar je een tile op kunt leggen waardoor je het dus later bij kunt kopen en of vergroten.

Als dat goed werkt zou het miss op elke cpu kunnen en is het een keus of je het nodig hebt. Denk je het niet nodig te hebben en later alsnog, kun je het later toevoegen.

Nadeel is wel dat het een gefriemel is en de cpu cooler moet er af.
Een tileslot voor extra uitbreiding is ook weer vertraging in de chip. Elk stukje meer "snelweg" waar de data ook weer langs moet vertraagt alleen maar.

AMD kent dit probleem ook, en eerste oplossing is natuurlijk het pad tussen de 2 CCD's te optimaliseren. En dat hebben ze vast ook wel uitgedacht en getest. Als zij al nauwelijks tot geen winst daar meer behalen is dit ontwerp op zijn eind gekomen.

De 2 CCD's zijn nu 2 kleine rechthoeken die wellicht in toekomstige serie's aan elkaar moeten als één geheel. Dan kan je daar een 16 core ontwerp uit maken (met ook 3D vcache varianten). En ben je af van dat vertragende pad tussen de CCD's.

En dat is technologie van 10 jaar terug weer, dingen als ringklok komen dan weer boven water.
Zodra ze alles op 3mm kunnen bakken, zal het wel terug naar af gaan denk ik ja :).
Al is mogelijk tiledesign goedkoper dan total design

[Reactie gewijzigd door whitemage2003 op 11 januari 2025 12:49]

L3 is bij AMD op chiplet 32MB APU 16MB x36 32+64MB.
Zen6 zou naast meer cores op chiplet ook groter L3 12core 64MB L3 naast betere inter chiplet io-die interconnects. Derde optie is de chiplets en iodie dichter bij elkaar aansluiten.

Op dit item kan niet meer gereageerd worden.