AMD introduceert Ryzen 9000-desktopprocessors op basis van Zen 5-architectuur

AMD heeft zijn Ryzen 9000-serie desktopprocessors aangekondigd. Deze processors zijn gebaseerd op een geheel nieuwe Zen 5-architectuur en worden gebakken op TSMC's 4nm-procedé. De processors komen in juli beschikbaar. De adviesprijzen zijn nog niet bekend.

AMD introduceert, net als in voorgaande jaren, in eerste instantie vier processors in de Ryzen 9000-desktopserie. De Ryzen 9 9950X wordt het topmodel in de line-up. Deze beschikt weer over 16 cores en 32 threads, met boostclocks tot 5,7GHz. Daarbij heeft deze processor in totaal 80MB L2- en L3-cache, en een tdp van 170W.

Lager gepositioneerd dan de Ryzen 9 9950X komen de Ryzen 9 9900X-, Ryzen 7 9700X- en Ryzen 5 9600X-cpu's beschikbaar. Die beschikken respectievelijk over 12, 8 en 6 cores. AMD heeft daarmee de aantallen cores niet veranderd ten opzichte van de vorige paar generaties, hoewel de nieuwe cores volgens AMD aanzienlijk beter moeten presteren dan de vorige generatie.

AMD Ryzen 9000 Computex 2024

In door AMD gepubliceerde productiviteitsbenchmarks presteert het Ryzen 9 9950X-topmodel 7 tot 56 procent beter dan de Intel Core i9-14900K, afhankelijk van de exacte workload. In gaming liggen die percentages op 4 tot 23 procent, afhankelijk van de game. Er zijn nog geen onafhankelijke benchmarks beschikbaar.

In veel gevallen zijn de tdp's ook verlaagd ten opzichte van de voorgaande modellen. Het topmodel met 16 cores behoudt zijn tdp van 170W. De Ryzen 9 9900X met 12 kernen heeft echter een tdp van 120W, waar dat voorheen ook 170W was. De Ryzen 7- en Ryzen 5-varianten beschikken beide over een 65W-tdp; bij hun Zen 4-tegenhangers was dat nog 105W. De chips komen ergens in juli beschikbaar, maar er wordt nog geen concrete datum genoemd.

AMD's Ryzen 9000-line-up voor desktops
Processor Architectuur Cores/threads Boostclock Cache (L2+L3) Tdp
Ryzen 9 9950X Zen 5 (TSMC 4nm) 16C/32T Tot 5,7GHz 80MB 170W
Ryzen 9 9900X Zen 5 (TSMC 4nm) 12C/24T Tot 5,6GHz 76MB 120W
Ryzen 7 9700X Zen 5 (TSMC 4nm) 8C/16T Tot 5,5GHz 40MB 65W
Ryzen 5 9600X Zen 5 (TSMC 4nm) 6C/12T Tot 5,4GHz 38MB 65W

Zen 5-architectuur biedt gemiddeld 16 procent hogere ipc

De genoemde processors zijn allemaal gebaseerd op de nieuwe Zen 5-cores. Deze bieden volgens AMD een gemiddelde ipc-verbetering tot 16 procent ten opzichte van Zen 4. Dat betekent dat de Zen 5-chips gemiddeld 16 procent sneller moeten zijn bij dezelfde kloksnelheden en hetzelfde aantal cores, afhankelijk van de workload.

Waar AMD soms relatief kleine updates introduceert tussen twee Zen-generaties, claimt het bedrijf dat Zen 5 een fundamentelere upgrade is ten opzichte van Zen 4. De fabrikant heeft daarmee verschillende wijzigingen doorgevoerd. Zo zijn de nauwkeurigheid en latency van de branch prediction verbeterd ten opzichte van Zen 4. Het bedrijf spreekt ook van een hogere throughput dankzij bredere pipelines en vectoren, naast grotere window sizes, zodat de cores beter parallel kunnen werken.

AMD Zen 5 Computex 2024

Met dit alles claimt de chipmaker dat Zen 5 een tot twee keer zo hoge bandbreedte heeft voor frontendinstructies. Dat geldt ook voor de databandbreedte tussen de L2- en L1-caches, en vanaf L1 naar de FP. Daarnaast moeten de 'AI'-prestaties tweemaal zo hoog liggen als in de Ryzen 7000-serie. De desktopchips beschikken overigens niet over een npu voor AI-rekentaken, anders dan de nieuwe Ryzen AI-laptopprocessors van AMD.

Verder heeft de Zen 5-architectuur opnieuw ondersteuning voor DDR5-geheugen. De chips bieden ook opnieuw PCIe 5.0-lanes, hoewel de fabrikant niet zegt hoeveel lanes de cpu's aan boord krijgen. De huidige Ryzen 7000-cpu's op basis van Zen 4 beschikken over 28 PCIe 5.0-lanes, waarvan 16 bestemd zijn voor een videokaart en 8 voor ssd's. De overige 4 PCIe 5.0-lanes worden gebruikt voor communicatie met de chipset.

AMD Zen 5 Computex 2024

Platform: opnieuw AM5, maar nieuwe X870-chipsets

De cpu's maken opnieuw gebruik van het AM5-platform, dat werd geïntroduceerd bij de voorgaande Ryzen 7000-serie. Volgens AMD kunnen gebruikers tot voorbij 2027 nieuwe AM5-processors verwachten. AMD introduceert, samen met de nieuwe Ryzen 9000-chips, wel nieuwe high-end X870- en X870E-chipsets met verschillende verbeteringen ten opzichte van X670(E).

Volgens AMD krijgen alle X870- en X870E-moederborden standaard ondersteuning voor USB4. Ook krijgen alle moederborden met deze chipsets gegarandeerd ondersteuning voor PCIe 5.0 voor de gpu en ssd's. Daarnaast moeten de nieuwe chipsets hogere geheugensnelheden ondersteunen via de EXPO-overklokprofielen.

AMD toonde tijdens zijn presentatie geen concrete X870- en X870E-moederborden. Fabrikanten kondigen die de komende dagen waarschijnlijk zelf aan tijdens de Computex 2024-beurs in Taiwan. De moederborden komen naar verwachting in juli beschikbaar, samen met de Ryzen 9000-chips.

AMD X870(E) Computex 2024

AM4 krijgt twee nieuwe Ryzen 5000-cpu's

Verder introduceert AMD twee nieuwe Ryzen 5000-processors, die beschikbaar komen op het AM4-platform dat in 2017 zijn debuut maakte. Deze worden weer gebaseerd op de Zen 3-architectuur, maar bieden hogere kloksnelheden dan voorheen. De Ryzen 9 5900XT krijgt bijvoorbeeld zestien cores met een boostclock tot 4,8GHz. De Ryzen 7 5800XT beschikt over acht kernen met dezelfde boostsnelheden.

AMD zegt dat deze nieuwe Ryzen 5000XT-processors in juli beschikbaar komen, maar noemt daarbij geen prijzen. De chips worden geleverd met een Wraith Prism-koeler.

AMD Ryzen 9000 Computex 2024

Door Daan van Monsjou

Nieuwsredacteur

03-06-2024 • 04:28

140

Lees meer

Reacties (140)

140
139
63
3
0
66
Wijzig sortering
Er staat niks over een eventuele grafische chip: specs, prestaties t.o.v. de oudere 7000 series ?
Daarover heeft AMD niets bekendgemaakt. Voor zover ik weet is de i/o-die zo goed als ongewijzigd, in elk geval nog altijd TSMC N6, en die huisvest ook de igpu. Ik verwacht dus dat de igpu niet noemenswaardig zal verschillen van die in de Ryzen 7000-reeks, dus nog altijd maar 2 CU's - meer om beeld te krijgen dan om te gamen.
Ergens erg jammer dat er bij deze desktop CPU’s geen NPU wordt ingebakken. Persoonlijk zou ik ook liever een NPU dan een iGPU zien. Vooral omdat het GPU probleem in een desktop makkelijker kan worden opgelost.

Zonder NPU blijft het natuurlijk een leuke CPU, maar voor Windows gebruikers is het toch een gemis dat er straks bepaalde AI functionaliteit achterwege blijft, die wel in de mobiele 300 serie terecht komt.

Ik geloof namelijk zeer sterk dat AI in veel toepassingen een verschil zou kunnen gaan maken, en het wordt een kwestie van tijd voordat ook games hier goed gebruik van kunnen gaan maken.
Misschien doen ze dat niet omdat de ontwikkeling van die NPU behoefte nog sneller gaat dan de lancering van cpu reeksen? Wat ze nu dan uitbrengen is morgen alweer te weinig. Of er komen andere cpu's in de lijn die het wel hebben. Dat was tenminste wat ik dacht bij het lezen.
Goed punt. Ja je zou denken dat ze een nieuwe I/o die kunnen maken met NPU - dat is relatief makkelijk zou je denken.
Een nieuwe I/O standaard is een van de moeilijkste dingen die je voor een CPU kan ontwikkelen omdat je iets wil maken waar niet alleen jij maar ook je concurrenten meer uit te voeten kunnen en waar je daar naast ook nog eens minimaal een aantal jaar gebruik van kunt maken zonder steeds een nieuwe versie te moeten ontwikkelen.

De concurrenten omdat je anders een strijd krijgt tussen jouw standaard en die van de competitie waar de 3rd party ontwikkelaars niet blij van worden en je dus weinig tot geen 3rd party producten gaat zien tot er een duidelijke winnaar is. En omdat als we een aantal standaarden zijn er een redelijke kans is dat die van jouw niet wint en alle R&D voor niets is geweest aan jouw kant wat erg duur is en je dwingt om nog meer R&D te spenderen aan het implementeren van de standaard van de concurrent waar je waarschijnlijk ook nog eens licentie kosten voor moet betalen.

De aantal jaar nuttig gebruik al weer om de R&D kosten en daar naast om de 3rd party ontwikkelaars de zekerheid te geven dat hun R&D ook niet totaal nutteloos zal zijn.

Om deze reden is een nieuwe I/O standaard veel al een jaren lang verhaal waar je samen met een flink aantal bedrijven aan werkt en waar een "onafhankelijke" partij de eigenaar van wordt om de standaard door te ontwikkelen. Kijk naar de PCI en PCIe standaarden, de geheugen standaarden en zo voort, ja allemaal mensen van bedrijven als Intel, AMD, IBM, Samsung, Micron, etc die hier aan werken maar in een geheel aparte groep die niet direct aan een van deze bedrijven is verbonden.

Wat ik eerder denk dat we zullen zien is een nuttig gebruik voor de extra PCIe sloten op je moederbord. Op dit moment gebruikt de over grote meerderheid van de mensen een fysiek PCIe slot voor de GPU en nog wat sloten vermomd als M.2 sloten voor de SSD en dan houd het weer op. De rest van de sloten zijn vrijwel altijd leeg. Je zou daar makkelijk een NPU kaart in kunnen steken en dus heel makkelijk de NPU kunnen upgraden zonder dat je andere dingen in de PC hoeft aan te passen.
Kijk eens terug naar de jaren '90 en '00 toen elke PC minimaal een GPU, een modem, een geluidskaart en vaak ook nog een netwerk kaart had. En dat allemaal omdat deze onderdelen allemaal heel erg snel ontwikkelden en je vrijwel ieder jaar of minimaal iedere paar jaar in ieder geval een van deze kaarten moest upgraden.
Het lijkt me niet geheel ondenkbaar dat we een zelfde verhaal gaan zien met NPU kaarten tot er een punt komt waar er weinig extra meer uit te halen valt en je net als nu met geluidskaarten nog maar een paar opties overhoud voor de echte liefhebbers omdat voor alle andere mensen het geen dat op je moederbord zit meer dan voldoende is.
Ik zie ook meer in een losse unit op een insteekkaart, dan hoef je niet je CPU te upgraden wanneer je op NPU vlak meer snelheid nodig hebt. Zeker ook gezien dat dit nieuw is en zich nog exponentieel ontwikkeld.
Maar dat die sloten leeg zijn is niet bij iedereen zo. Ik denk aan een grafische kaart en een 10Gbit kaart.
Ik zou liever meer PCIe sloten zien en minder onboard M2.
Snelle SSD's hebben baat bij een zo laag mogelijk latency. Daarom rechtstreeks op de CPU aansluiten en niet via de chipset.
2 x PCIe v5 M2 sloten op het MB lijkt me genoeg. Niet veel mensen hebben er meer dan 2 nodig.

I.p.v.extra M2 aansluitingen via de chipset zou ik extra PCIe x4 sloten willen zien.
- Dat is flexibeler, je kunt er allerlei kaarten in steken. Ook SSD's op een kaartje voor minder dan 20 euro. Je kunt dus nog steeds evenveel M2's plaatsen.
- Die sloten nemen minder ruimte in dan de M2's die ze vervangen.
- Als je je SSD op een insteekkaart met koeler (ik gebruik IcyDocks) plaatst worden ze ook nog beter gekoeld.
- Je kunt ze ook makkelijker verplaatsen naar een ander systeem dan een M2 precies onder je grafische kaart bijvoorbeeld.

De huidige AM5 MB's hebben voor mij te weinig sloten waardoor ik voorlopig op AM4 blijf.

[Reactie gewijzigd door Dutchtraveller op 22 juli 2024 13:22]

Ze kunnen het doen zoals Asus het bijvoorbeeld doet met de ROG DIMM.2 sloten, een soort-van DRAM-achtig geheugenslot naast de bestaande DRAM sloten waarin twee full-size M.2 SSDs passen.

Dit heb ik toegepast op de Asus ROG Maximus Z790 Extreme, twee Samsung 990 Pro 4TBs erin geplaatst, en deze werken via PCI-E 4.0 4x snelheden zonder dat dit de PCI-E 5.0 16x sloten verlaagt in snelheid voor de GPU.

Ander bijkomend voordeel, ze steken uit en zijn makkelijk uitneembaar, wat ook de koeling ten goede komt want het zit niet onder een hete GPU gepropt met amper fatsoenlijke airflow die het kan bereiken.

Overigens is PCI-E 4.0 4x snel zat en deze zijn qua hitte niet zo'n debacle als bij PCIE 5.0 SSDs, voor PCI-E 6.0 en 7.0 zijn ze al begonnen met het inbouwen van thermal throttling omdat de PCI-E snelheden blijkbaar te hoog oplopen.

Voor netwerk zien we wel steeds vaker 10Gbit NICs terug komen op de nieuwere moederborden, dus dat scheelt, maar meer PCI-E sloten zijn altijd wenselijk, ik mis de oude X58/X79/X99 tijd van E-ATX borden of zelfs monsters als de EVGA SR-2.

Het is alleen jammer dat de nieuwe videokaarten zo onmogelijk lomp worden uitgevoerd, wat mijn inziens helemaal niet zo extreem hoeft, ook niet voor 450W, dat moet te doen zijn met 2.5 slots want ik houdt een videokaart met 320W en 2 slots ook prima op relatief lage temperaturen. Je krijgt zo het probleem dat die extra sloten nutteloos worden, zeker als het niet in de kast past omdat je een verticale mount nodig hebt, weg flexibiliteit.

Overigens wat ik nog het meeste mis bij de consumentenproducten zijn fatsoenlijke hoeveelheden PCI-E lanes want nu is het allemaal wel erg ondermaats voor de aansluitmogelijkheden.

[Reactie gewijzigd door CriticalHit_NL op 22 juli 2024 13:22]

Het gaat om de i/o-die in de cpu, niet om een nieuwe i/o-standaard.

Je kunt prima een npu in de i/o-die stoppen en die aanroepen.

Al zal die nou vele malen sneller verouderen dan de rest van de i/o-die, gezien de snelheid qua ontwikkeling van ai en de hardware daarvoor.
Ik denk dat de meest gebruikte AI gewoon via de cloud gaat blijven plaatsvinden.
Iedereen gaat nu op de AI hypetrain mee.
Maar bijvoorbeeld die functionaliteit in Windows straks die elke paar seconden een screenshot maakt en dat kan doorzoeken... Op je eigen desktop zullen veel mensen daar al problemen mee hebben, maar gaat het via de cloud dan is het helemaal uit den boze. Dus in ieder geval op dat vlak zal de cloud geen vervanging kunnen zijn.
Blijft natuurlijk wel de vraag of een reguliere cpu het niet ook gewoon kan, of dat het misschien op je gpu zou kunnen draaien. In een desktop is efficiëntie ook wat minder cruciaal dan mobiel.
Denk dat ze daarin veel meer de focus leggen op 'wat nu speelt' dan wat er 'straks belangrijk is'.

Ik zie niet bijzonder veel mensen warm lopen voor AI en gerelateerde features in Windows, dat er een meer dan genoeg mensen zijn die met een 'betere' maar dezelfde CPU meer dan gelukkig dan zijn, dat straks een CPU met NPU met de mogelijk daaraan gekoppelde trade-offs (hogere TDP, lagere boost etc).

De ontwikkeling op AI gaat nog hard, optimalisatie in dedicated chips zal nog in rap tempo veranderen dat je echt de boot niet mist als je nog een halfjaar/jaar wacht met een dedicated CPU op de markt brengen die voor deze groep belangrijk zal gaan worden.

Snap best dat je een workload van screenshot maken en indexeren bij een dedicated chip kan leggen, maar ik betwijfel of je daar echt winst in kan behalen dan dat gewoon met de huidige CPU te doen, immers is een screenshot meer dan alleen een NPU (i/o naar opslag zal ook een rol spelen).
Hangt er vanaf waar "De Cloud" staat en wie de eigenaar is. Wanneer die cloud zich binnen de EU bevindt bij een bedrijf wat geen zaken in de VS of China doet, heb ik er totaal geen probleem mee. Anders wordt dat een veel moeilijker verhaal. En het gaat me dan vooral om GDPR/AVG compliance. Wanneer je kunt verwachten dat je data al dan niet ongevraagd buiten de EU terecht komt, maak ik me toch iets meer zorgen.
Het gaat wat mij betreft niet alleen om of de data de EU verlaat. Ook als er nooit misbruik van gemaakt zou worden en alle privacy wetgeving perfect uitgevoerd wordt, zo'n bedrijf zou een enorm target zijn om te hacken. Natuurlijk als het op mijn eigen pc staat dan kan die ook gehackt worden, maar dan hebben ze alleen mijn data wat waarschijnlijk niet de moeite waard is. Maar met zo'n bedrijf heb je potentieel de data van heel veel mensen wat het de moeite waard maakt om er echt resources op te zetten om er in te komen. Zo'n dataset waar potentieel alles wat ooit op mijn scherm weergegeven wordt in kan staan zou ik absoluut nooit ergens anders dan op mijn eigen systeem willen hebben (en of ik het daar wel ooit zou willen hebben daar ben ik nog niet over uit).
Dat is natuurlijk nu ook al het geval. Ik kan me niet inbeelden hoeveel aanvallen bedrijven als Google, Amazon en Microsoft elke dag te verwerken krijgen. Of de grote betaalverkeerverwerkers, zoals Total System of Equens.

Ja, jouw PC is een kleiner doel, maar wel een veel makkelijker doel. Ik denk dat het voor hackers veel makkelijker is om 100.000 privé PCs te kraken dan om een TSYS of Google te hacken. Maar goed, waarschijnlijk proberen ze het allebei :-)

Hoe dan ook, het is allemaal wel een punt om over na te denken. En soms zul je niet echt een keuze hebben. Ik kan me moeilijk voorstellen dat Google, Microsoft of Apple je de keuze gaan geven waar je je data naar toe stuurt. En al is het bedrijf nog zo snel, het Department of Homeland Security achterhaalt de data wel.
Voor veel data klopt dat, maar ik doelde vooral op die "elke paar seconden een screenshot maken van je scherm en dat maanden bewaren" functionaliteit. Dat is er nu nog niet en als ze dat zomaar ongevraagd voor iedereen aan gaan zetten en uploaden, dat zou gegarandeerd uitkomen en dan barst de bom.

En ja, 1000 willekeurige privé pc's hacken is relatief makkelijk met niet targeted aanvallen, maar ik dacht vooral aan mezelf en schat mezelf hoog genoeg in dat ik niet in die dingen trap :+
Willen ze echt mijn systeem in dan lukt dat uiteraard, maar ik reken er dan op dat ik niet interessant genoeg ben daarvoor. Dus ongerichte hacks vertrouw ik mezelf in, gerichte hacks ben ik niet interessant genoeg voor, maar al die data van miljoenen mensen bij elkaar waar ik ook in zit? Dat is eng. En nogmaals, specifiek die screenshot functionaliteit bedoel ik dan. Dat ze bv al mijn email en search historie op die manier al kunnen vinden ben ik me bewust van ja...
Ik heb nog maar amper nuttige AI functionaliteit gezien. Althans automatisch. Meeste voelt nog een gimmicky aan.

Ik denk dat die focus belangrijker is.
Plus is het knap lastig om voor al die verschillende NPU's support te leveren. Daar wordt je applicatie ook complex van. En dat voor een marktaandeel van een paar procent x86 devices met NPU. Als je snelle adoptie wilt, moet je richten op tech vanaf ca. 50% marktaandeel, of een werkelijk killer app lanceren die exclusief is op bepaalde hardware, zo onderscheidend dat mensen daarvoor zulke hardware willen gaan aanschaffen. Maar volgens mij is zoiets er domweg niet, want haast alles kan via cloud inderdaad voor de drie miljard Facebookers minimaal, en dat is dus zo een markt die groot genoeg is om te werken...
NPU's gaan WinML ondersteunen, net zoals GPU's DirectX ondersteunen. De Windows markt is daar groot genoeg voor. Linux is zoals gebruikelijk gefragmenteerd. Je hebt de proprietary onderliggende interfaces zoals CUDA, verschillende lagen daarboven (Keras/PyTorch) en ook nog eens abstracties (ONNX).
Als WinML een fallback heeft op x86 cpu 'emulatie npu' of 'gpu accelerated' zonder hardware NPU dan heeft het kans op korte termijn. Anders wordt dat een groeiproces van vele jaren.

[Reactie gewijzigd door OruBLMsFrl op 22 juli 2024 13:22]

WinML is ouder dan NPU's - het begon voor de GPU.
Wel een interessant framework. Zie dat Adobe er ook al wat Machine Learning mee gedaan heeft voor in ieder geval Lightroom. Verder vind je weinig over veel en concreet grootschalig gebruik ervan. Wel logisch om daar die support in te gaan bouwen vanuit Microsoft en voor developers fijn te weten dat dan langzaam in de loop der jaren als die hardware ook echt gebruikt gaat worden voor geschikte ML modellen. Ze hebben vooralsnog wel heel veel disclaimers bij Microsoft daar rond en het is ook pas net in preview zelfs, voor nu zal lang niet elke toepassing op een NPU kunnen draaien, laat staan beter/sneller dan met een GPU inderdaad:
NPU support in DirectML is currently only compatible with a subset of machine learning models that have been targeted for support. Some models may not run at all or may have high latency or low accuracy. We are working to improve the compatibility and performance of more models in the future.
Models that are functional and were not selected for this developer preview may have some stability and reliability issues. We are continuing to expand coverage for additional models suitable for NPU.

[Reactie gewijzigd door OruBLMsFrl op 22 juli 2024 13:22]

Ik vind het een pluspunt. Ik ben echt AI moe. Het voegt niet veel tie en maakt windows alleen maar nog meer bloated.
Beetje de oude Agea physic kaart,

Leuk zoon NPU maar geeft het een jaar of 2 en het in integrated in de GPU of CPU,

het heeft geen bestaans recht zodra het main stream is.
Van de GPU dachten sommigen ook dat die in de CPU geïntegreerd zou worden. Deels is dat ook gebeurd (iGPU/APU), maar zelfs in die categorie zie je nu dat de iGPU naar een aparte die in een multi-die CPU verhuist.
En dat is nogsteeds geintegreerd op cpu.

Of gaan we zeggen dat gddr ook niet geintegreerd zit op je video kaart?
Nee, mijn punt is dat jouw NPU-claim ongefundeerd is. NPU's zullen net zoals GPU's geïntegreerd worden, zonder dat daarmee de markt voor losse NPU's verdwijnt.
Het is niet alsof je een GPU uit de IO die kan knippen en daar een NPU kan plaatsen. Je kan het jammer vinden dat er geen ruimte is gemaakt op de CPU in plaats van cores om een NPU te plaatsen maar het is niet alsof AMD een keuze heeft gemaakt tussen de GPU en een NPU.
Voor desktop gebruikers levert AMD een videokaart die ook als NPU gebruikt kan worden ;)
Jammer want het is nou juist die IO Die die mede verantwoordelijk is voor de hoge idle power draw. Die gaat dus niet verbeteren als dat klopt. Dus mogelijk alleen winst aan de kant van het moederbord. Erg jammer.
Dat klopt. Dit is een bekendmaking over de nieuwe generatie CPUs. Zen 5 / Ryzen 9000.

Voor GPUs zal je waarschijnlijk nog tot Oktober moeten wachten.
ik bedoel de iGPU in de processor zelf: niet de videokaarten.
Ik denk dat hij de igp bedoelt
Niet direct maar er staat een 16% uplift in IPC vanaf Zen 4. Dat in combi met de hogere clock snelheid geeft wel een indicatie.
Eigenlijk ben ik stiekem een beetje teleurgesteld dat er geen 9900X3D uitkomt, dat had een mooie opvolger geweest voor de 7800X3D, nog maar even wachten tot volgend jaar gok ik zo?

Het had mij logisch geleken dat dat ertussen zou zitten, zeker met de mogelijkheden van x870 in het achterhoofd.

[Reactie gewijzigd door SkyStreaker op 22 juli 2024 13:22]

Even extrapoleren: de nieuwe generatie is tot 23% sneller dan de i9. En de i9 is weer sneller dan de 7800x3d. Dus geen 3d cache is geen dealbreaker wat mij betreft. Even de prijzen afwachten!
Dat klopt niet direct, de 7800X3D is gemiddeld genomen even snel 14900KS (wel zie je verschillen per workload, soms is de 14900KS sneller en soms de 7800X3D), en dat is ook nog eens in tests waar de reviewers vaak sneller geheugen gebruiken dan dat AMD hier gebruikt heeft voor de 14900KS, daarnaast is het afwachten met welk power profile AMD getest heeft.

Er verder van uitgaande dat je deze slide bedoeld: https://imgur.com/5LYw0nP

Helaas heeft AMD de 'end note' GNR-04 niet gepost met de press release, echter wel GNR-01 die mogelijk een tipje van de sluier oplicht over de AMD en Intel configs voor deze slide :
Testing as of May 2024 by AMD Performance Labs on test systems configured as follows: AMD Ryzen 9 9950X system: GIGABYTE X670E AORUS MASTER, Balanced, DDR5-6000, Radeon RX 7900 XTX, VBS=On, SAM=On, KRACKENX63 vs. similarly configured Intel Core i9-14900KS system: MSI MEG Z790 ACE MAX (MS-7D86), Balanced, DDR5-6000, Radeon RX 7900 XTX, VBS=On, SAM=On, KRAKENX63 {Profile=Intel Default}
Ze gebruiken dus een andere GPU dan de meeste, zo niet alle reviewers (logisch want AMD, maar maakt dus wel de resultaten direct al niet meer te vergelijken met die van andere reviewers wanneer die bijvoorbeeld met de 4090 getest hebben). Ze testen met VBS on, iets dat uit mijn hoofd een performance impact heeft, en iets waarmee de meeste reviewers dus niet testen. SAM=on kan ook performance verschillen opleveren.

Voor beide cpu's gebruiken ze DDR5-6000, wat voor AMD een redelijk gebruikelijke geheugen config is bij de meeste reviewers, echter zoals bijvoorbeeld Tim van HUB ook al opmerkte, de meeste reviewers gebruiken voor Intel DDR6-7200 of zelfs hoger in de reviews, omdat Intel makkelijker de geheugensnelheid laat opschroeven. Of tests met overclockt geheugen sowieso wenselijk zijn is een ander vraagstuk, maar Tim stipt wel aan dat dit de Intel config zoals gebruikt voor AMD enkele procenten performance kost.

Al met al zie je dus dat AMD (logischerwijs) een configuratie heeft gekozen die hun eigen product in een voor hun product zo optimaal mogelijke configuratie test (die veelal overeen lijkt te komen met hoe reviewers ook testen (op zoals genoemd de GPU na), terwijl ze voor de Intel cpu een config neerzetten die minimaal een paar % trager lijkt te zijn dan waarmee reviewers als HUB testen. Wat dus de vraag oproept of deze resultaten representatief zijn en we niet straks in de reviews een wat ander beeld gaan zien.

Want als de 14900KS inderdaad enkele procenten langzamer is, en de 7800X3D is even snel als de 7800X3D en de 9000 serie Sku's wel eens eens erg klein worden, wat dan ook weer zou verklaren waarom AMD wel een IPC slide heeft tussen Zen 4 en Zen 5, en een slide voor performance verschillen tussen de 14900KS en de 9950X, maar geen slide waarbij ze 'head to head' gaan in gaming tussen bijvoorbeeld de 7800X3D en de 9950X.

Zoals altijd zal het mantra weer zijn, onafhankelijke benchmarks afwachten :+

Edit: Aangepast ivm 7800X3D vs 14900KS ipv 14900K.

Dit wel als ze inderdaad een 14900KS gebruikt hebben, immers de end note bij de press release spreekt van een 14900KS, maar de slide over een vergelijking met de 14900K, echter is de end note GNR-04 genoemd op de slide nog niet publiek beschikbaar zo lijkt het, dus kunnen we momenteel alleen kijken naar GNR-01.

Hebben ze dus wel een 14900K gebruikt, waar ik initieel vanuit ging, dan komt deze vergelijking nog beter uit voor de 7800X3D, want die is al 4-5% sneller dan de 14900K in gaming, zie bijvoorbeeld: YouTube: Ryzen 7 7800X3D vs. Core i9-14900K [Asus: Intel Baseline Profile] Ga... en YouTube: AMD Ryzen 7 7800X3D vs. Intel Core i9 14900K, 21 Game Benchmark en bijvoorbeeld de Tweakers review: review: Intel Core i5 14600K, Core i7 14700K en Core i9 14900K

Als het dus inderdaad een 14900K geweest is voor de gaming en productivity tests in deze slide, kan het tussen de 9000 serie Sku's en de 7000 serie X3D Sku's wel eens heel spannend worden. Maar dat maakt dan wel, tenzij de prijzen heel gunstig worden, de 9000 serie wel weer wat minder interessant totdat de X3D Sku's voor deze generatie uitkomen, iets dat je ook al zag tussen de 5800X3D en Ryzen 7000 serie toen deze uit kwam. Daar zat ook amper wat tussen destijds: review: AMD Ryzen 9 7950X en Ryzen 7 7700X - Is Zen 4 pijlsnel of bloedheet?

[Reactie gewijzigd door Dennism op 22 juli 2024 13:22]

geen idee maar is de verwachting dat er ook een 9950x3D komt ? weet niet of dit stopt bij de 9900x3D
De 3D-cache is gevoelig voor hoge temperaturen, met de TDP van de 9950 zie ik dat niet echt gaan gebeuren, vandaar dat ik ook de 9900X3D opper.

Edit: de ene zegt temps, de andere volts

[Reactie gewijzigd door SkyStreaker op 22 juli 2024 13:22]

begrijp ik maar kocht altijd de nieuwe non 3D versie. ik kijk naar 16 core maar 3D is ook wel een keuze die ik kan overwegen bij overstap van mijn huidige 5900x naar 9900x of 9900x3D of toch de 9950x, zal pas 2025 updaten.
Dan hoop ik ergens wel dat ze deze keer beiden CCDs de cache geven en niet de ene helft van de CPU zoals de 7950X3D, tenminste, dat is de configuratie zover ik heb begrepen.

Anders heb je eigenlijk maar effectief de helft van de CPU beschikbaar om goed te kunnen gamen, anderzijds waren die multi-CCD CPUs qua gamen eigenlijk ook wat minder omdat de connectie tussen de CCDs voor hogere latency zorgt.
Anders heb je eigenlijk maar effectief de helft van de CPU beschikbaar om goed te kunnen gamen,
Welke game heeft baat bij meer dan 8 cored met 3D Cache? volgens mij maar weinig.. is ook de reden dat AMD het op deze manier gedaan heeft.. veel extra geld voor bijna geen extra performance is geen slimme keuze

Sowieso als je voor gaming gaat is de X800X3D (8 cores, 1 CCD) natuurlijk gewoon de beste keus

[Reactie gewijzigd door Sinester op 22 juli 2024 13:22]

Het heeft ermee te maken als beiden CCDs actief zijn dit voor een lagere gaming performance zorgt dan als er een CCD wordt uitgeschakeld waar de 3D cache niet aanwezig is.

Als je dus een CCD moet uitschakelen heb je de helft van de CPU nog maar over, niet echt handig mijn inziens als je voor een 16-core betaald wil je ook van de multi-tasking gebruik kunnen maken, ook tijdens het gamen e.d. zonder telkens te moeten wisselen tussen aan of uit.
En ander punt is natuurlijk wel dat mensen een 7950X3D of andere high core variant vaak kopen voor 'business and pleasure', koop je zo'n ding enkel voor gaming kun je beter een 7800X3D kopen.

Echter veel zakelijke workloads hebben geen tot weinig baat bij de CCD's met 3D Cache en wil je dus als gamende ZZPér die overdag zijn geld verdient met dat systeem eigenlijk geen V-Cache op beide CCD's want dat kost je performance. CCD's met V-Cache hebben namelijk lagere (all core) boost snelheden.

De modellen met 2 CCD's en V-Cache zijn dus eigenlijk een soort van compromis, want voor de pure gamer is een enkele CCD zoals bij de 7800X3D beter gemiddeld genomen (al er wel een paar games waar een 7950X beter is dan de 7800X3D), terwijl juist voor zakelijke workloads vaak de 7950X (zonder V-Cache) beter is.
De verwachte TDP van de 9950x is gelijk aan die van de 7950x en 7900x (170W). Maar de X3D varianten van de 7xxx hebben een TDP van 120W.

Dus TDP is geen factor in het wel of niet maken van een 9950X3D.
3D-cache is gevoelig aan hogere voltages, heeft niks met temperatuur te maken. Door de 3d-cache is het zelfs zo dat eigenlijk de core op zich warmer is dan een zonder 3D cache aangezien de warmte erdoor moet verplaatsen.
Die zal waarschijnlijk, net als de 7xxx X3D versies zes maanden later verschijnen.
Het is gewoon beetje jammer dat met de hype van een nieuwe serie je dan als gamer toch nog langer moet wachten.

Ik denk zelf dat ik mijn X570 + 5800X3D vervang door een X870 plank met 9700X, en dan de CPU weer vervang wanneer de 3D versies komen.
Moet die nu al vervangen worden dan? Ik speel nog vlot op mijn niet X3D 5600. Die 6 maanden zullen wel te overbruggen zijn als je een 5800X3D hebt?
Ik speel nog vlot op mijn niet X3D 5600.
Ikzelf speel zelfs nog op m’n i7 9700. Ben wel aan t overwegen om te upgraden naar een AMD CPU, maar ben nog aan t oriënteren wat dat voor voordelen heeft.
Je bedoelt toch niet een i7-970 he? Die is van 2010 ;)
Hah, nee, i7 9700 (2019). Op zich doet ie het nog prima, maar sommige games die mijn zoon speelt zoals Jurassic World Evolution 2 lopen net niet super vloeiend omdat die meer CPU heavy is. En de CPU dan een bottleneck is.

Zodra het leunt op mijn RX 6800 dan is er geen vuiltje aan de lucht. Maar simulatie games kunnen met die CPU bottlenecken.

Wil een nieuwe PC bouwen voor Linux gebruik als thuis kantoor PC, maar dacht; waarom ook niet nieuwere hardware voor de game PC halen, en de mobo + CPU + ram uit die PC hergebruiken voor een werk PC.
Ja idd, ik vind dat h/w steeds langer mee kan ook (wel afhankelijk van je wensen). Ik heb nog nooit zo lang met een pc gedaan als nu (Ryzen 9-3900X nu 4,5 jaar oud), en heb totaal geen behoefte om de CPU te upgraden. Deze staat met games altijd nog uit z'n neus te eten.
De volgende upgrade zal minstens een Ryzen 9000 zijn of daarna pas, maar niet per se omdat het moet voor mijn use-case. Mijn vorige pc (Intel i7-6700K) met een deftige GPU speelde ook echt prima en zou nu zelfs nog prima meekomen denk ik.
Wel jammer want het wordt voor mijzelf steeds lastiger te verantwoorden om een setje mobo+cpu+memory aan te schaffen :)
Ja zo zit ik ook. Ik wil eigenlijk wel een upgrade doen puur omdat ik de oudere hardware kan hergebruiken, dus ik kan het rechtvaardigen om een swap te doen.

Echter, dan heb je de keuze tussen oudere CPU + AM4, of nieuwere overkill hardware + AM5. En DDR4 en DDR5.

Dat laatste is veel duurder, en voegt voor mij qua casual games niks toe.

Dus ik nijg toch een AM4 setup te gaan doen, met een wat oudere AMD CPU, maar wel met fatsoenlijke RAM snelheden.
Mijn 3700X zou waarschijnlijk ook nog steeds prima functioneren in World of Warcraft, misschien iets minder in Total War Warhammer 3. De X570 chipset ben ik wat minder fan van persoonlijk.

Kortom: omdat het kan. Ik vind het ook leuk om om weer es iets nieuws te bouwen.

[Reactie gewijzigd door JeroenNietDoen op 22 juli 2024 13:22]

Hoe nutteloos, de 5800X3D staat in veel game benchmarks nog gewoon in de top...
Die komt echt wel. Zo een best seller laat Amd echt niet aan hun voorbij gaan.
Ik hoopte ook op een X3D variant. Ik vraag me af hoe deze 9000 CPU’s zich gaan verhouden tot de 7800X3D in games.
Volgens laatste geruchten gaan de 9xxx non 3D chip makkelijk de 7XXX 3D chips verslaan in performance

https://overclock3d.net/n...-ryzen-9000-cpus-in-test/
Ja, maar niet volgens AMD. Met 16% zouden ze min of meer gelijk zitten.

Eenmaal je officiële cijfers ziet dan hebben geruchten nog maar weinig waarde.

[Reactie gewijzigd door napata op 22 juli 2024 13:22]

De 3D chips komen altijd later. Eerst doet Intel een zet, en daarna veegt AMD ze weer van de (gaming) benchmarks met een 3D chip :+
die komt er wel, tegen dat Intel met hun 15th gen op de markt komt en kan zeggen, kijk wij hebben weer de gaming koning met 1% hogere fps dan komt AMD effe met de X3D. Elke release van X3D is altijd al veel later in de lijn beschikbaar gekomen. Het is altijd X - none X - X3D volgorde.
Hopelijk komt er weer een 9900 met 65w tpd. Stroomverbruik / hitte zijn voor mij belangrijker dan die paar extra fps.
Stroom verbruik en hitte of stroomverbruik of hitte? Ze zijn namelijk niet gelijk aan elkaar ;)

Mijn 7800X3D is namelijk één van de zuinigste chips die ik afgelopen jaren gehad heb maar ook één van de heetste. Niet dat die hitte uitmaakt want het is ‘by design’ en in geen kwaad maarja slanke daar zo’n hekel aan hebt is het handig om te weten ;)
Hangt er vanaf hoe je het woord hitte opvat. Als je het hebt over de maximale temperatuur die de cpu bereikt dan heb je gelijk. Heb je het over hoeveel warmte moet je koeling afvoeren, dat is letterlijk wel hetzelfde als het verbruik.
Ik bedoel hoe heet de CPU word inderdaad want dat bedoelen mensen vaak ging ik van uit.
Gewoon wat undervolten en de PPT terugschroeven. Ik heb hem (7800X3D) op 75 Watt staan en kan nu zelfs zonder CPU fan gamen. Max performance is 95% van wat het was, maar energieverbruik is echt veel lager.
Dat komt waarschijnlijk omdat het stroomverbruik dan zich concentreert op hele kleine delen van de CPU, dan wordt het alsnog heet met een lage TDP, nog ergers als de afvoering van de hitte niet fatsoenlijk lukt.
En omdat bij de architectuur van de 7800 ook het heetste aan de rand van de IHS ligt. Dat is lastiger voor je koel opstelling. Ik hoop dat ze dat ook hebben veranderd.
Kijk bv naar de Noctua fan. De mounting bracket van AM5 die schuift de koeler naar 1 kant voor betere prestaties.
Je kunt zelf de TDP lager instellen. Ik ken een aantal mensen die bijvoorbeeld een 5950X hebben en die op 35W zetten omdat ze niet gamen maar zo toch veel stille multi-core performance hebben.
Bij mij in de BIOS (Asrock) heet dat ECO mode, en die schroeft de TDP een stap terug (95W -> 65W -> 45W -> 35W). Heb nog geen 5% performance verlies maar een merkbaar lager verbruik.
Als je wilt kan je dit altijd zelf instellen.
Ik blijf het echt goed vinden dat AMD nog steeds nieuwe CPU's uitbrengt voor AM4. Zo blijft de onderkant van de markt nog steeds voorzien van nieuwe betaalbare CPU's en kan het het leven van je AM4 setup nog met een aantal jaar verlengen. AM4 is qua performance zeker nog courant en al helemaal voor een instap systeem. Een degelijke gamepc is zeker wel mee te bouwen. Ik ben benieuwd hoe die twee nieuwe CPU's zich qua performance positioneren tussen de rest van de Zen3 CPU's.

X670(E) en B650(E) is en blijft behoorlijk aan de prijs en ik verwacht met de komst van X870(E) dat dit niet heel snel naar beneden zal gaan. Daardoor blijven X570(en lager) bordjes gewoon een bang-for-buck qua performance. Waar Intel zich naar mijn idee helemaal niet meer bekommerd om de low(er)-end markt(de I3 12300 van 3 generaties terug blijft de beste low-end CPU van Intel), wil Intel alleen maar de lead behouden door zoveel mogelijk power door die CPU's te knallen.

Ik heb laatst een 14900KS systeem mogen bouwen en dat ding is zelfs met een customloop gewoonweg niet normaal te koelen. En dan is er echt pure high-end waterkoeling op gegaan van Heatkiller. Ik vind het ook gewoonweg niet meer leuk om dat soort systemen te bouwen. Het voelt zo mega nutteloos. Ik opteer voor die high-end Intel CPU's gewoon standaard een undervolt, anders zit je als eindgebruiker alleen maar naar 100-graden te kijken en je krijgt er gewoon vragen over.
De enige manier om ze goed te koelen is een garantie-slopende direct-die koeler geloof ik, en zelfs daarvoor is het aanbod beperkt (EK? slecht leverbaar, QA problemen). Misschien durf ik het een keer aan, maar ik vind het parallel weer zo zinloos. Als ik HWInfo sluit, zie ik de temperatuur van mijn CPU niet, heb ik er ook geen last van :+

Ik heb overigens een 7950X met wat kleine tweaks (undervolt enzo) op een EK custom loop. Ik heb de hele setup gemaakt met idee dat-ie gewoon stil blijft, ook onder load. Fan speed is o.b.v. water temperatuur

[Reactie gewijzigd door Gamebuster op 22 juli 2024 13:22]

Precies, ik ben ook benieuwd hoe de nieuwe ' 5900 serie XT' presteren. Ik heb zelf nog een AM4 bord, wat prima werkt voor. En met deze nieuwe CPU's kun je alsnog misschien een waardevolle upgrade doen.
Het is gewoon een 5950X, maar dan met 100 MHz minder max boost. Niet E ch t schokkend.

Jammer dat de x3d’s nog niet aangekondigd zijn, maar marketing-technisch wil je die natuurlijk altijd later introduceren dan de reguliere 9000’s.
persoonlijk vind ik het vooral jammer dat er op AM5 nog steeds geen goede vervangers zijn voor bijvoorbeeld een 5700g sinds de overstap naar am5 lijkt het wel of amd alleen nog maar cpu's maakt met net genoeg iGPU voor een grafische desktop en een browser, maar bijvoorbeeld niet om er daadwerkelijk dagelijkse computer dingen (waaronder dus ook een eenvoudig spelletje) te doen.

zou men ook een variant doen met 6c12t + noemenswaardige igp (op het niveau van 1080/120 medium in de meeste courante games. nu wordt je dan toch al weer direct richting een discrete gpu gebonjourd
AuteurAverageNL Nieuwsredacteur @i-chat3 juni 2024 08:21
De 5700G is eerder dit jaar opgevolgd door een Ryzen 7 8700G met acht Zen 4-cores en een RDNA3-igpu met 12 CU's (op AM5) :)

review: AMD Ryzen 5 8600G en Ryzen 7 8700G - Snelle graphics in een moderne p...
Voor AM5 is dat dan de 8700G. Die is volgens de test van Tweakers beter dan de 5700G: review: AMD Ryzen 5 8600G en Ryzen 7 8700G - Snelle graphics in een moderne p...
Ik ben heel benieuwd naar de vergelijking met de nieuwe 15e gen van Intel qua prestaties en heethoofdigheid.
dan zal je nog een half jaartje mogen wachten. Heethoofdigheid heeft er niks mee te maken, verbruik wel. En dat is duidelijk dat AMD het op orde heeft als ze de TDP van de 8-12 core X varianten nu al lager zetten dan vorige generatie. Dat was vooral het punt waar veel kritiek op gekomen is tussen de X en de nonX, voor enkele mhz meer was TDP pak hoger en dus ook verbruik.
De 13e en 14e generaties van Intel zijn nou niet bepaald koel te noemen en voor mij zal dat een heel belangrijke overweging worden bij mijn keuze.
Er is binnen een architectuur wel een heel sterke correlatie tussen energieverbruik en temperatuur ;)

Ik snap dat X3D wel afwijkt van die stelling, maar dat is dan IMHO toch wel een forse architectuur aanpassing van een deel van de chip.
AMD richting de 6Ghz? Kom maar door.
De 6GHz grens zullen ze mogelijk al binnenkort gaan doorbreken lijkt het.
AMD maakt voor deze 9000-reeks gebruik van TSMC's 4nm proces. Ik verwacht dat er mogelijk een grote sprong komt in GHz zodra ze naar 1.6nm (A16P) overstappen (dat is rond 2026~2027). Dan gebruiken ze TMSC's Super Power Rail (SPR), vergelijkbaar met Intels backside power delivery network (BSPDN). SPR zal de stroomtoevoer naar de achterkant van de wafer verplaatsten. Hierdoor wordt je chip compacter en heb je minder last van ruis. Mijn verwachting is dat het hierdoor eindelijk makkelijker is om ook op hogere GHz stabiel te draaien.
wel fijn dat de 9700X en 9600X 65 tdp hebben wacht zelf op de X3D variant maar ben wel benieuwd naar de prestaties.
Wel weer jammer dat er wederom een X870 en X870E versie verschijnen van chipsets. waarbij deze generatie, als de info juist is, de X870 eigenlijk meer een opvolger is van de B650E.

Lekker verwarrend weer dit, onnodig ingewikkeld.

Ben voornamelijk benieuwd naar de X3D performance van Zen5, maar daar zullen we minimaal 6 maanden op moeten wachten.
Toch interessant dat ze ook nog met nieuwe 5000 reeks chips komen, ben benieuwd wat die 5800XT doet in vergelijking met mijn 5800X
niet veel... kijk en vergelijk hier:

https://videocardz.com/ne...fter-first-am4-cpu-launch


Ik heb zelf ook de 5800x en laat deze lekker aan me voorbij gaan!

[Reactie gewijzigd door qbig1970 op 22 juli 2024 13:22]

Op dit item kan niet meer gereageerd worden.