AMD brengt Ryzen 9 3950X en Threadripper-cpu's van 3e generatie in november uit

AMD's Ryzen 9 3950X verschijnt niet in september, zoals het bedrijf aanvankelijk aankondigde, maar in november, zo heeft AMD laten weten. In die maand moet ook de eerste Ryzen Threadripper-processors van de derde generatie beschikbaar komen.

AMD heeft het uitstel onder andere via Twitter bekendgemaakt. Het bedrijf meldt zich te richten op de sterke vraag naar AMD Ryzen-processors en dat het van plan is de Ryzen 9 3950X en de 'initiële leden van de derde generatie AMD Ryzen Threadripper-familie' in november te introduceren. Het is de eerste keer dat AMD de komst van die derde Threadripper-generatie met een datum bevestigt. Op de bijbehorende afbeelding is te zien dat het bij die eerste processors om modellen met 24 cores gaat. Later volgen waarschijnlijk modellen met meer cores.

AMD Ryzen 3rd Gen Threadripper

Bij de onthulling in juni sprak AMD nog over een release in september voor de Ryzen 9 3950X. Naarmate de maand vorderde, de Ryzen 9 3900X slecht verkrijgbaar bleef en er geruchten van DigiTimes waren over tekorten bij de 7nm-productie van TSMC, werd er al gespeculeerd over uitstel bij AMD.

De Ryzen 9 3950X heeft 16 cores, 32 threads en een kloksnelheid van 3,5GHz met boost naar 4,7GHz. Verdere specificaties van de derde generatie Threadripper zijn niet bekend al lijkt het wel zeker dat ze pci-e 4.0 ondersteunen.

Ryzen 9 3950X

Processor Cores/Threads Kloksnelheid/turbo (GHz) Cache (totaal) Tdp Adviesprijs
Ryzen 9 3950X 16/32 3,5 / 4,7 72MB 105W $749
Ryzen 9 3900X 12/24 3,8 / 4,6 70MB 105W $499
Ryzen 7 3800X 8/16 3,9 / 4,5 36MB 105W $399
Ryzen 7 3700X 8/16 3,6 / 4,4 36MB 65W $329
Ryzen 5 3600X 6/12 3,8 / 4,4 35MB 95W $249
Ryzen 5 3600 6/12 3,6 / 4,2 35MB 65W $199

Door Olaf van Miltenburg

Nieuwscoördinator

20-09-2019 • 19:43

141

Lees meer

Reacties (141)

Sorteer op:

Weergave:

De 3950X is nog wel gewoon AM4 socket toch? Zou wel een mega upgrade zijn voor mijn 2600 als de prijs een beetje gaat zakken.
Je moet wel een beetje zien dat je moederbord het aankan. De 3950X gaat waarschijnlijk de beste VRM's nodig hebben om toch een beetje stabiel te draaien.
Dat geldt misschien voor het slechtste soort borden, maar een gemiddelde B450(M) kan het gewoon allemaal aan.
Misschien zul je niet de wereldrecords boosts verbreken, maar het gaat gewoon werken.
Zelfs daar is het rode kruisje "not recommended", wat in mijn ogen, als je zo'n bord hebt betekent "zeker het proberen waard".
Zeker alvorens iets nieuws te kopen. Zoals ik al zei, laat je niet in de marketingpraat meeslepen.
Toch heeft AMD in het verleden wel problemen gehad met VRM's. Er waren toen genoeg borden die bepaalde CPU's compleet niet konden draaien. Geen idee of dat nu zo is, maar het gelijk marketingpraat noemen is misschien wat te kort door de bocht.
Het is meer de mobo fabrikanten die het verbruik te licht in schatten en dan ook vaak de koeling op de vrm's te wensen laten , en vooral de oc als mogenlijkheid aan prijzen
Dat is ook zeker waar. Het is ook sowieso de moederbord fabrikant die niet doet wat ze zouden moeten doen om de complete sersie van AMD in alle gevallen te laten draaien. Alleen daar ook wel het verhaal bij dat er vanuit gaan dat een nieuwe serie CPU's op alle borden goed zal draaien zonder problemen, misschien niet helemaal het geval zal zijn.
Net als hoe de gemiddelde PSU fabrikant je aan raadt om 100-200w hoger in te zetten dan nodig is.

Voor degenen die al een AM4 bordje hebben zou ik aanraden om gewoon de processor te halen die je wilt. Als het niet werkt kun je altijd nog een nieuw mobo bijbestellen.

Zo draai ik nu een 3600x op een x370 bord met een "experimentele" bios versie. Boost vrolijk naar 4,3ghz met auto settings, geen problemen.
Dit is in de tijdens geweest van de Phenom X4... en ja, daar gingen VRM's in rook op vanwege wat @postbus51 al zei - slechte koeling (of geen koeling) + cheap onderdelen. Dat is niet meer echt van deze tijd ;)
De lijst is volgens mij op basis van theoretische analyse van de VRM en niet vanuit fabrikanten of marketing.
Ik kan best lezen en gegevens analyseren, maar even voor de duidelijkheid.
Kan ik dan in mijn Auros X370 Gaming 5 bordje een:
3900X 3950X op stock speed
Of een 3600/X; 3700X; 3800X OC
prikken, zonder al te veel problemen?
En op wat duiden die Core Current waarden? Is dit iets aanpasbaar?
Ik ben niet zo thuis in dit soort data, maar heb wel interesse in een upgrade van mijn
Ryzen 1600..
Alvast bedankt voor enige opmerkingen.
De core current is de hoeveelheid stroom die bepaalde cpu normaliter trekt. Dus je moederbord moet die stroom wel kunnen leveren. (Of doorgeven).
Nu, hoe meer je overclocked, hoe hoger de stroom. Maar stock is het rond de 100A voor de 3950x. Als we de tabel volgen. Kan je bordje dat wel aan.

Zie wel dat je je bios eerst update ;)
Stom advies. Zelfs een 3900X in OC'ed toestand werkt prima op een 50 euro kostend B350 bordje. Zie https://www.techpowerup.c...n-cheap-b350-motherboard/

De TDP is gewoon 105W. Dus ieder gangbaar 470/570 bord kan dat prima aan. De (technische) reden waarom een 50 euro kostend bord een high end AMD CPU aankan is omdat AMD dat van fabrikanten wil. Het minimale moet gewoon mogelijk zijn om een 105W CPU aan te kunnen. Dat gerommel met de FX series toen dat willen ze niet meer.

M.a.w het maakt niet echt uit welk bord je tegenwoordig koopt. De VRM is al mee rekening gehouden. Om nu een 3950X op een B350 Bord in OC'ed toestand te gaan doen is weer een andere vraag. Maar in de regel heb je geen ultra-high-end VRM meer nodig om te oc'en. Je kunt die potentie er toch (niet) uithalen want de chips van AMD reiken gewoon niet zo ver.

[Reactie gewijzigd door Verwijderd op 24 juli 2024 18:08]

Enkel boost kan een probleem zijn, de stock allcore snelheden, waarop de 105W TDP gebaseerd is, zijn zelfs voor moederborden niet echt een probleem.
De TDP's zijn bij AMD niet gebaseerd op de stock snelheden, dit is alleen bij Intel zo.

Bij AMD is het een combinatie van stock en boost.
Dat betekent dus dat je in het slechtste geval je niet heel hoge boosts haalt.
Wat is daar mis mee?
Zen2 haalt al het maximum uit alle cores, veel hoger dan normaal.
R3600 haalt hier "all core" 3.9GHz (spec 3.6) tijdens stresstests, en ja soms gaat een core naar 4.1, terwijl het 4.2 zou moeten zijn.
Allemaal terwijl de Noctua D15 zit te gapen van verveeldheid.
precies mensen zuren enorm het gaat om vaak om tussen de 100 en 50 MHZ boost die ze niet krijgen . dat is 1 % performance op 1of 2 cores en de wereld is te klein en schande spreken ze. Echt ik weet niet wat ik van dit soort mensen moet denken . Je merkt het niet eens in bench marks het zit in de margin of error zelfs. de laatste driver update van amd was niet om performance sneller te maken maar om de mensen die zuren te laten zien ja hij haalt je boost heel af en toe in idle .
ryzen 3 000 is een geweldige CPU . de intel 9900K is dat ook alleen gebruikt 2 keer zo veel energie als een 3700
Mensen die echt de wereld te klein schreeuwen, ja. Zelf echter ook een 3700x gekocht en je zit je toch af te vragen of je iets verkeerd doet als je de geadverteerde boost sneleheden niet haalt op een degelijk VRM bord met dikke koeler er op. Mij betreft had AMD wel iets meer duidelijkheid mogen geven hoe en wat. Maar inderdaad, de performance spreekt in ieder geval voor zich in die was wel naar verwachting van reviews / advertenties.
Als je hem stock draait valt dat wel mee. TDP is niet zo hoog. Alleen dan moet je geen hoge all core turbo verwachten en overclocken kan je dan ook beter niet doen. Maar stock is geen issue. Zoals anderen ook al zeiden zolang je een beetje een midrange bord of hoger hebt is het goed.
Ja, het is AM4, en zal doorgaans werken (in theorie) op moederborden die huidige Zen2/3rd gen Ryzen CPU's ondersteunen (zoals de 3600). Let wel op dat het een CPU is met 105W TDP. TDP zegt niet alles echter, hoewel AMD vrij dicht bij de waarheid zit... Met wat boosts, en zeker als je gaat overklokken, zul je al vrij snel meer vermogen naar die CPU willen pompen. Ik weet niet wat voor bordje je hebt, maar bij de 370-series en sommige 450/470 series is de VRM wisselvallig geweest. Prima voor normale 2nd gen CPU's (als je niet LN2-stijl gaat overklokken oid...), maar voor dit soort monsters (die nog geen fonkeling in de ogen waren van de board designers...) zou het wel eens hit-or-mis kunnen zijn. Er zijn borden die naast een 8pin EPS connector óók een 4-pin P4 connector hebben. Bij dat soort bordjes zou ik, hoewel technisch niet verplicht, zeker beiden aansluiten.
Laat je toch niet zo gek maken met al die verhalen over VRM's en ondersteuning.
Een degelijk bord is een degelijk bord en als de mobo-fabrikant een BIOS update voor R3000-series uitbrengt dan werkt het gewoon.

Ze zouden het uiteraard graag niet doen, en alle hype rondom VRM's doet er goed in mee, want uiteraard willen ze liever dat je een nieuw bord koopt
De board designers hebben juist wél rekening gehouden met dit soort monsters. Die waren vanaf het begin al bekend bij de designers. Je ziet de kwaliteit aan alles af en met name de VRM's. Die zijn echt goed op de x570 bordjes. Voor de vorige generaties boards zou ik wel een bordje nemen wat een 2700X prima aan zou kunnen. Die vreet ook stroom net als dit 'monster'.

Maar 105W is niet zo enorm, je VRM's worden gewoon warm. Mijn Bulldozer deed 125W en het bord was 120 euro ofzo en heeft het 6 of 7 jaar volgehouden.
Ik ben benieuwd of je een am4 mobo kan tonen die de 2700x niet aan zou kunnen.
Vraag me wel af of die boost gehaald word, de 3900 halen die boost al niet.

laat staan een 3950 met 4 meer cores en meer hitten en dan nog eens 100 MHz meer boost. Dan moet die chip toch wel een heel stuk beter zijn dan de 3900 om dat te halen.
die max boost zijn toch maar met 1 core te halen dus of je nu 12 of 16 cores hebt die even niks doen, het zal weinig uitmaken.

En de laatste bios update heeft voor heel veel mensen het niet halen van de max boost al verholpen. Er zijn nog een paar probleem gevallen zo her en der, maar daar is intel ook niet helemaal vrij van.
meschien op de 3600 maar niet op de 3900
Ik haal sinds de laatste bios update met mijn 3900x met gemak de max boost (iets meer zelfs). Is idd maar met 1 core.
in windows of op amd ryzenmaster,

ik zie in diverse tools dat ik 4,5 wel haal maar ryzenmaster komt niet verder dan 4,3
Klopt niet helemaal dit.
3950 zal beter gebinned zijn gok ik .. maar idd.. 1-2 maybe 3 cores max.
Op waar is die "beter gebinned" assumptie gebaseerd? Uit publicaties blijken de cores van de 3900X niet beter te zijn gebinned dan de SKUs daar onder (als in de cores presteren niet beter, of zelfs minder), dus waarom zou dat anders zijn dan met de 3950X? Een hoop mensen roepen maar wat over elk aanstaand AMD product, en vervolgens raken een hoop mensen teleurgesteld wanneer het AMD product dan niet aan die verwachtingen voldoet.
Omdat AMD dit zelf heeft aangegeven? Betere binnen hoe hoger in de product stack. Is geen aanname maar gewoon een feit.
AMD took this a step further, and with the new 7nm process, in order to get the best frequencies out of every chip, it would perform binning per core, and only one core was required to reach the rated turbo speed.
Daarmee is wel dat dus een 3800X soms beter uit de verf kan komen dan een 3900X.

https://www.anandtech.com...amds-frequency-metrics-/3
Komt deze chip toevallig in PS5?
Ik denk dat er een 8 core 16 thread zen2 (met wat tweaks) cpu in komt.
Games worden vaak van console naar PC geport, dus dat bied de kans dat in nieuwe games de ryzen's sneller kunnen zijn dat de huidige Intel chips.

Interessant is dat als een game is geoptimaliseerd voor 16 threads je bijvoorbeeld een 3950x kunt komen en SMT uit zou kunnen zetten. Dan zou een game die geoptimaliseerd is voor 16 zen threads op 16 echte cores runnen. Zou ik wel een testje van willen zien als het eenmaal zo ver is.
Ryse: son of rome is mn tegenargument, en heb er wel meer. Die game was gemaakt om de xbox toen in het zonnetje te zetten. Kwam ook naar de pc. Mn pc was, net als de xbox, een amd cpu met amd gpu. De gpu die ik had was een hd7970, de cpu fx8350. Kocht basicly die pc om die compatibiliteit.

Had nogal issues. Reden? Mn amd onderdelen (aldus fora). Game eiste een ssd van me en die had ik toen niet, constant stilstand bij laden nieuw deel level enzo. Maat van me met oudere i5, ook zonder ssd, en met een oudere geforce draaide alles dikke prima ook.

[Reactie gewijzigd door ImperatorTiber op 24 juli 2024 18:08]

Let op dat Jaguar (Xbox One) en Bulldozer (jouw FX CPU) 2 verschillende architecturen zijn. Dat was van tevoren ook al bekend, dus je bent denk ik destijds verkeerd geïnformeerd over de compatibiliteit :)

Voor de nieuwe consoles wordt echter, als de geruchten kloppen, Zen 2 gebruikt, hetzelfde als voor PC CPU's. Dat kan wel een verschil maken.

[Reactie gewijzigd door Khrome op 24 juli 2024 18:08]

Dat was me wel bekend, gelukkig en kwam niet door evt voorlichting. Maar toch zegt het niet veel denk ik als de chips geleverd worden door hetzelfde bedrijf voor consoles als degene die de chips levert voor je pc.
Achitectuur van en console vs. PC gaat wel wet verder dan alleen ‘de onderdelen komen van dezelfde fabrikant’. Een xbox one gebruikt shared memory + eSRAM, wat een compleet andere opzet is dan een PC met apart GPU VRAM. Trade-offs bij het optimaliseren zijn dan ook heel anders, waardoor een rechttoe-rechtaan port waarschijnlijk beroerde prestaties gaat geven, zelfs op systemen die op papier veel krachtiger zijn.
Het was niet mn eerste amd machine, en was in de tijd van de athlon 1.2ghz fanboy... dus dont get me wrong: it was idle hope haha.

Maar ja nogal andere architectuur inderdaad, mag je niet moderaten maar das prima uitleg
Deze chip kost meer dan eender welke ps versie ooit heeft gekost afaik, waarschijnlijk niet zou ik denken.
Dat wel maar als je even een deal sluit van vele tienduizenden dan daalt die prijs ook snel. Tevens leggen console bouwers regelmatig geld bij omdat de grote winst komt uit de verkoop van spellen en accessoires in plaats van het game console zelf, als je eenmaal over de drempel bent koop je namelijk van zelf meer ;)
Dat is iets wat al lang niet meer standaard is, voor alle drie de console makers. De laatste keer dat dit gebeurde was voor de launch uitvoeringen van de Xbox 360 en PS3.

Kwantum korting is een leuk iets maar het worden niet ineens magische prijzen, zelfs niet wanneer het voor de console makers wel gewoon was om geld bij te leggen. Zo werd zelfs de PS3 verkocht met een verlies van "maar" $240~$305(afhankelijk van de SKU) per unit, wat Sony financieel bijna verwoeste. En vergeet niet dat de rest van de onderdelen ook verre van gratis zijn. Onderdelen zijn de afgelopen jaren vele malen duurder geworden, verwacht dus geen consoles meer met high-end specs zoals we ze vroeger zagen.

Naast de prijs zitten ze ook met het verbruik, een 3950X verbruikt simpelweg teveel stroom voor console gebruik.

[Reactie gewijzigd door Caayn op 24 juli 2024 18:08]

Onderdelen zijn de afgelopen jaren vele malen duurder geworden, verwacht dus geen consoles meer met high-end specs zoals we ze vroeger zagen.
Wanneer hebben we dan consoles gezien met high-end specs?

18 jaar geleden kwam de XBox uit. Met een 733Mhz Pentium-III processor terwijl PCs ondertussen al een tijdje op de Pentium-4 zaten. Met 64MB DDR-SDRAM terwijl 1GB modules geen uitzondering waren. En hoewel ik het zo snel niet terug kan vinden zou het me niets verbazen als de 8GB harddisk ook niet heel erg bijzonder was.....

Consoles hebben nooit high-end specs gehad. Zelfs de NES en SNES liepen al achter op de MSX-en en Amigas van die periode.
Op het moment dat een console op de ontwerptafel ligt heeft het vaak high-end specs (bv de nieuwste generatie AMD CPUs en GPUs lijken iig in de PS5 terecht te komen). Probleem is dat tegen de tijd dat dat ding van de tekentafel af komt die specs al weer verouderd zijn in verhouding tot de ontwikkelingen op PC-gebied.

Als ik het me goed herinner, ligt tussen de ontwerpfase en daadwerkelijk productie vaak nog wel tussen de 1-3 jaar vanwege de nieuwe inrichting van de fabs, aanpassen van de assembleermachines (of compleet nieuw aanschaffen, afhankelijk van de details die nodig zijn en hoe secuur de 'huidige' generatie machines is), etc. Volgens mij begint het ontwerp voor de nieuwe console al vaak op het moment dat de generatie daarvoor net de deur uit gaat - de focus die gelegd gaat worden, wat voor eisen, etc.
Consoles hebben nooit high-end specs gehad. Zelfs de NES en SNES liepen al achter op de MSX-en en Amigas van die periode.
De famicom was zijn tijd ver vooruit toen deze in 1983 was uitgebracht. De MSX (i) was op de geluidschip na identiek aan bv. de Colecovision of de Sega SG-1000 (dit was op zichzelf weer een coleco kloon). De MSX II had specs die min of meer vergelijkbaar waren met de latere mark III/mastersystem (MSXII had een iets beter palette en een iets betere resolutie in bepaalde screens).
De Neo-Geo (die in hetzelfde jaar als de gameboy was gelanceerd) was gelanceerd was een high-end spelcomputer waarnaast de specs van de Amiga en/of de ST in het niets vielen. Ook de Super-famicom lag ver voor qua specs op de Amiga. De Amiga was qua specs beter dan de master system en nes maar de Amiga legde het in (bijna) alle opzichten tegenover de Mega-drive, S.Famicom, PC-Engine(met CD-Rom-speler) en vooral de Neo-Geo af.
Super Famicom is toch gewoon een SNES? Die had een 65816 cpu (soort van 16bit 6502). Die kon zich toch toch niet meten aan de Amiga’s van die tijd? Ik meen dat die al met 68030’s waren uitgerust.

Dat de Amiga qua games het zou afleggen tegen de consoles van die tijd heeft puur te maken dat de architectuur van die machines helemaal op games is toegelegd. Denk aan de meerdere framebuffers, alle verwerking opgebouwd rond de vsync, de snelle ROM toegang, en de mogelijkheid direct code vanaf de cartridge te draaien zonder deze te hoeven downloaden naar ram. Allemaal zaken waar de Amiga (als allround computer) niet van kon profiteren.
Het ging mij vnl. om de opmerking dat de console nooit high end specs heeft gehad en dat de console altijd achterliep op de computer van die tijd zoals de msx of de amiga (De Amiga 3000 had inderdaad een 68030 en de ECS en kon hiermee 2mb adresseren ipv 1 mb/ 512 kb en een high res mode (ik dacht 1280x 200 met 4 kleuren maar de huis, tuin en keuken, en waar >95% van de software op was gericht was de a500 en had een 68000. Ik ben van mening (hoezeer ik ook fan ben van de Amiga, en retroconsoles) dat die stelling gewoon niet (helemaal) klopt (als je idd een homecomputer al wil/kan vergelijken met een spelcomputer).

[Reactie gewijzigd door Odious Trident op 24 juli 2024 18:08]

En hoewel ik het zo snel niet terug kan vinden zou het me niets verbazen als de 8GB harddisk ook niet heel erg bijzonder was
Dit kan ik, gezien mijn computer uit zomer 1995 een HDD had van ~8 GB (een Deathstar, dat vergeet je niet :X), beamen.
MSX was al op sterven na dood toen de NES & Gameboy uit kwam. Bij de Zilog Z80 CPU en de CPU's van andere home computers uit die tijd was 64 KB geheugen adresseerbaar, de rest van het geheugen was - als het er was - memory mapped (niet adresseerbaar totdat het met 16 KB tegelijk werd gemapped op een van de vier plekken) . Niet een architectuur voor de toekomst helaas.

Voor hardware specifieke spelletjes minder een probleem, dus dan kom je weg met een lagere prijs en 2 x 2 KB en 1,5 MHz, zwaar underpowered zelfs voor die tijd. De SNES was dan tenminste een echte 16 bitter met 24 bits adresseerbaar (16 MiB). Maar Nintendo heeft het nooit echt moeten hebben van de CPU en hardware van de computer zelf.
Daar ben ik het niet mee eens. Neem de Xbox 360 bijvoorbeeld

- Triple core CPU op 3.2Ghz met ondersteuning voor twee threads per core.
- GPU grotendeels gebaseerd op een mix van de R500 en R600/HD2000 architectuur die Ati zelf pas met de HD2XXX serie 1.5 jaar later op de markt bracht.

Uiteraard waren we daar ookal het punt voor exotische hardware ver gepasseerd wat consoles hun voorsprong gaf. Maar ik zou het bovenstaande nog steeds high-end willen noemen in vergelijking met de markt in 2005.
Dat staat los van de specs, waar het over ging.
Laat wel zien dat de specs te ambitieus waren voor de gebruikte koeling. Daarnaast zat er een forse fabricage fout in de klem achter het moederbord.

Ze werden zo warm dat de soldeer smolt. Daarna kwamen de GPU/processor los van het moederbord.
Eindstand een reddeloos verloren console.
Ja en nee. Dat "zo warm worden dat de soldeer smolt" is niet waar, en het is ook wat algemener dan alleen een paar spelconsoles. Er zijn twee gangbare problemen met grote BGA chips in moderne apparatuur (in TV's ook). Eentje heeft met koeling te maken maar ook niet helemaal op de manier die je denkt - bovendien kun je dan ook zeggen dat de koeling te slecht was voor het ontwerp, in plaats van het ontwerp te ambitieus.

1) De combinatie van fors opwarmen en afkoelen in combinatie met een mechanisch zwakke constructie zorgt voor mechanische problemen in de loodvrije solderingen (geen smelten maar scheuren, want voor smelten wordt het niet warm genoeg). Zonder die fabricagefout was het uitvalpercentage al merkbaar lager geweest, vermoed ik. Verder is een goede koeling in een TV of console al wat lastiger dan in een PC maar absoluut niet ondoenlijk. In bepaalde hiervoor beruchte Philips TV's (6xx7 t/m 8xx8 series, QFU chassis) scheelt het al 20 of 30 graden als je de ventilatiegaatjes op een andere plek boort... Door kleinere temperatuurwisselingen gaat het dan een stuk langer goed.

2) Aanhechtingen binnen de chip bij een flipchip ontwerp. Daar heeft vooral nVidia een tijd lang last van gehad, maar waarschijnlijk andere fabrikanten ook.

Voor probleem 2 is geen duurzame oplossing tenzij de fabrikant vervangende chips levert, dus dan kun je van reddeloos verloren spreken (rehotten kan tijdelijk helpen).

Voor probleem 1 is reflowen een redelijke oplossing, en reballen een duurzame oplossing. Er is geen sprake van reddeloos verloren.

[Reactie gewijzigd door mae-t.net op 24 juli 2024 18:08]

Een afgeleide hiervan. Deze 3950X zal zeer waarschijnlijk duurder zijn dan een ps5 of nieuwe Xbox
Zeer grote kans van niet.
Console CPU zijn bij de laaste generaties APU met voor APU flinke iGPU erin.
De PS5 krijgt een 8 core chip van AMD. Waarschijnlijk een enkele Zen 2 chiplet in een andere form factor.

EDIT: verwijder deze, iemand anders had em al :)

[Reactie gewijzigd door Khrome op 24 juli 2024 18:08]

Hopelijk weet AMD een goed slaatje te slaan uit hun huidige goede concurrentiepositie, zodat ze ook in de toekomst bovenaan in de pricewatch kunnen blijven staan. AMD is gewoon goed bezig met zijn zuinige 7nm chips...
Zo lang jij geen reden ziet om aan de Intels te gaan blijven ze wel bovenaan staan hoor ;) Enige gebied waar ze nog veel te winnen hebben is de servermarkt, als ik nu om een nieuwe server ga krijg ik standaard Intels voor mn neus... en moet je zoeken naar de Epycs, terwijl die toch echt prima zijn. Bij desktops is de zelfbouw-markt al om, de prefab-gamer-markt gaat nu langzaam om, en alleen de die-hards of mensen met een specifieke benchmark of reden willen nog Intels (de icpc blijft een prima compiler, voor Intels).
Geen idee of dit wel helemaal klopt is, maar een sysadmin die ik ken, en die erg uitkeek naar de nieuwe Epyc lijn, is teleurgesteld.

Het probleem voor zijn situatie is de L2 cache: daar loopt AMD achter op Intel: AMD zit met Zen2 (en de chiplets en dus cache zijn identiek voor Epyc en Ryzen) op 512KiB L2. In een Xeon 6130 bvb krijg je 1MiB L2 cache per core, dubbel zo veel.

Hij vertelde mij dat in zijn omgeving de servers enorm hoge netwerk throughput hebben, waarvoor de netwerkdriver constant in de L2 cache moet zitten om de maximale snelheid te halen. De kloktiks vertraging door de driver in L3 te stoppen is blijkbaar niet acceptabel in die omgeving.

Geen idee of dit klopt tbh, maar ook als het klopt lijkt me dit natuurlijk een vrij specifieke situatie: voor vele toepassingen is L3 cache ruim snel genoeg, en daar heeft Zen2 dan weer meer van dan eender welke Xeon.
de vraag is hoeveel het scheelt en of het de "intel-tax" waard is. in de praktijk blijkt het moelijk te verkopen om vandaag de dag een intel systeem te nemen als je puur naar de cijfers kijkt, helemaal met de juiste intel NIC's....
Als de L3 latency te hoog is om een netwerkdriver, die kennelijk zo groot is, te draaien, kennelijk op elke core, blijft er volgens mij zelfs op een Xeon weinig snelle cache over voor de applicatie die het dan serveert, dus die performance zal ook niet heel spannend zijn. Zeker als je fatsoenlijke netwerkhardware gebruikt waarop alles te offloaden is kan ik me niet voorstellen dat een netwerkdriver de bottleneck gaat zijn. Dus geen onboard NICje he, hoewel die tegenwoordig ook al behoorlijk redelijk zijn. Dan zou ik naar andere hardware gaan zoeken. Laat je systeembeheerder liever kijken naar benchmarks/tests (of die zelf uitvoeren met real-world machines) voordat 'ie een beslissing maakt over performance van een bepaalde architectuur tegenover een compleet andere, slechts gebaseerd op 1 nummer en voorbijgaand aan het feit dat die caches compleet verschillend werken bij AMD vs Intel.

[Reactie gewijzigd door DataGhost op 24 juli 2024 18:08]

Tot je de Intel Mitigations voor Meltdown/Spectre/Sideload/etc aanzet in ESX of Hyper-V. Dan merk je opeens dat je onder Intel met VM's van meer dan 2 cores ontzettend veel latency hebt bij context switching in je VM's omdat je cache iedere keer geflushed wordt.....

[Reactie gewijzigd door Wim-Bart op 24 juli 2024 18:08]

Ik zit met een schuin oog te kijken naar een eventueel nieuw te bouwen game pc. Moet allemaal niet te veel kosten en dan kom ik toch op een 9600KF van intel uit. Is momenteel gelijk geprijsd aan de Ryzen 3600. Game prestaties zijn ook zo goed als gelijk máár, de Intel laat zich nog een eind overklokken en gaat dan in gaming performance een slordige 10-20% (afhankelijk van sillicon lottery) over de 3600(X) heen.

Combineer dat met het feit dat je qua vergelijkbare moederborden voor de Intel nog een paar tientjes goedkoper uit bent en dan zou ik op dit moment toch voor die Intel gaan.

Dus voor een zelfbouwende overklokkende gamer die zich niet om productiviteit bekommert is er zeker nog wel een case te maken voor een keuze voor Intel. :P
Op welke resolutie/gpu is dit getest?
Dus voor een zelfbouwende overklokkende gamer die zich niet om productiviteit bekommert is er zeker nog wel een case te maken voor een keuze voor Intel. :P
wauw…..ik had hierboven gereageerd en was naar beneden aan het scrollen toen ik jouw post las en dacht...DAMN...wat is het cpu playing field veranderd in slechts 2 a 3 jaar tijd.

dat we zijn gegaan van Intel is heer en meester in eigenlijk alles behalve budget, naar " Dus voor een zelfbouwende overklokkende gamer die zich niet om productiviteit bekommert is er zeker nog wel een case te maken voor een keuze voor Intel"

dat er gewoon excuses en redenen gevonden moeten worden om intel te verantwoorden….kan er alleen maar blij mee zijn, niet perse omdat AMD eindelijk intel verslaat, maar om de concurrentie die het teweeg brengt en de consument daarvan profiteert.
Vergeet niet dat de Intel een eigen koeler nodig heeft, en het overklokken zelf kost ook wel wat. Bovendien geeft overklokken weinig meerwaarde tegenwoordig ten opzichte van de performance die je daadwerkelijk wint.

Is het nu zo super belangrijk dat games ipv 100 fps op een AMD of standaard Intel naar 110 FPS op een overklockte Intel gaan? Het verschil is in de huidige generatie verwaarloosbaar imho, en is meer een "e-peen" competitie dan iets daadwerkelijk nuttigs, vooral als je je bedenkt dat je al gauw 50-100% meer stroom nodig hebt voor ~10-15% betere prestaties.

Daarnaast, zowel de nieuwe Xbox als de PS5 draaien vrijwel dezelfde AMD hardware, zowel CPU als GPU. Omdat multicore CPU's ook steeds meer gebruikt gaan worden, niet alleen voor games, zal Intel straks wel met zijn single core overclocks mooi vooraan staan, maar op dat punt maakt dat helemaal niets meer uit :)

Om vandáág dus een Intel te halen puur voor de overclocking lijkt me nogal onzinning. Het enige argument wat ik nog voor Intel zie werken is dat het platform veel stabieler is (AMD heeft nog wel wat BIOS problemen bij vrijwel alle moederborden), maar dat zal over een paar maanden ook wel gefixt zijn.

[Reactie gewijzigd door Khrome op 24 juli 2024 18:08]

De koeler heb ik al in huis. En dat zal voor veel zelfbouwers gelden.

Dat 'het verschil tussen 100 en 110 fps merk je toch niet'-argument vind ik altijd een beetje raar. 10% sneller is 10% sneller. Dan kiezen voor de langzamere hardware 'omdat je het verschil toch niet merkt' vind ik geen sterk argument.

Wat stroomverbruik betreft. Dat valt in de praktijk allemaal erg mee. Laat je de stroombesparende maatregelen in je bios en os gewoon hun ding doen dan klokt en volt dat ding toch wel terug als hij weinig te doen heeft. Dagelijks gebruik is heel wat anders dan de zwaarste stresstest uit de kast halen waarbij er idd zo maar 50-100 watt extra uit de muur getrokken kan worden.
Ik bouw zelf en ik hergebruik een koeler alleen bij een mid-life upgrade. Nieuw bouwen is gewoon nieuw dus moet je daar ook mee rekenen.
Het is niet direct dat je het verschil niet mérkt, maar dat het verschil in performance het verschil in prijs (en werk) niet rechtvaardigt voor veruit de meeste gebruikers. Je betaalt voor die 10% toch al gauw 60%+ meer geld (en stroom), en dan tel je de koeler nog niet mee. Daarnaast heb je die winst eigenlijk ook alleen in games, en zelfs dan niet álle games. Bij games hangt het van de toepassing af of je er echt iets mee wint, en bij vrijwel alle andere applicaties is er vrijwel geen verschil of zelfs verlies voor Intel.

En wat gaming betreft: De nieuwe xbox en ps gaan gewoon een zen 2 based apu gebruiken met 8 cores. De xbox gebruikt zelfs gewoon een versie van windows 10 als OS. Hoe dat precies zal gaan uitpakken weet niemand, maar ik zou wedden dat zen 2 AMD PC's hier wel de vruchten van gaan plukken, zeker wanneer game developers al die cores gaan benutten.

Als je nú direct meteen onmiddelijk de snelste gaming CPU wilt moet je inderdaad voor een Intel gaan, maar voor alle andere applicaties en voor de toekomst zou ik daar toch wel wat langer over moeten gaan denken.

Dat je een koeler al in huis hebt is overigens leuk, maar die heb je toch ooit gewoon moeten kopen. Je koopt niet random extra koelers die je niet nodig hebt, en als je dat wel doet hoor je bij een zeer kleine minderheid ;) Dat je die niet meetelt 'omdat je die al hebt' vind ík dan weer geen sterk argument :)
Hoe kom jij op 60% meer geld? 3600 en 9600KF kosten hetzelfde, ga je moederborden vergelijken dan kom met de Ryzen duurder uit. Met het prestatievoordeel in games zéér significant in het voordeel van de overgeclockte 9600KF. Dat compenseert die paar duppies per jaar aan extra stroom wel imo.

Wat het hebben van de koeler betreft, tja, dat is nou eenmaal MIJN persoonlijke situatie. Ik kan er ook niks aan doen dat ik dat ding al heb en daarom dus geen rekening hoef te houden met de aanschaf van een nieuwe. Het zou zelfs bijzonder raar zijn als die kosten (die ik dus NIET hoef te maken) mee zou nemen in mijn beslissing hè? :D
Welke benchmarks geven zoveel winst? Van wat ik kan vinden lopen de 3600 en 9600kf vrijwel gelijk op in games.
Op stock speeds klopt dat. Echter heeft de 9600K(F) nog een behoorlijk overklokpotentieel. Waar dat bij de nieuwe Ryzens zoals bekend mag zijn zo goed als nul is. Sterker, handmatige all core overclocks werken bij gaming zelfs vaak negatief bij de nieuwe Ryzens. Overklokken op die nieuwe Ryzens is PBO aanzetten en dan ben je klaar, en dan haal je in gaming ongeveer 1% extra prestaties.
Naar hoeveel krijg je die omhoog op een redelijk normale luchtkoeler? Volgens mij blijf je op 5-5.1 GHz wel steken, en hij doet standaard al 4.7. Ik vraag me alleen af hoeveel winst je er precies uit kan persen en wat de resultaten precies zijn. Met een 9600/3600 zit je naar 1080p en 1440p gaming te kijken denk ik.

Hoeveel verschil zit er trouwens ook tussen als je multicore apps gaan benchen en niet alleen games?

[Reactie gewijzigd door Khrome op 24 juli 2024 18:08]

5 GHZ is als ik het zo allemaal lees 'normaal' voor een 9600K(F). Alles er boven dus bonus. Standaard doet hij geen 4,7 maar maximaal 4,6. En dat is single core boost. Tegenover 5(+) GHz all-core boost. Stock komt de all core boost van de 9600K tot 4,3.

Qua gaming kijk ik idd vooral naar 1080P en 1440P resoluties ja. 4K gaming is toch meer voor de exotischere pc-builds, en zelfs die kunnen het dan nog zo zwaar hebben in de modernste games dat ze de 60FPS niet eens aantikken. Zie hier bijvoorbeeld.

Hoe het ding presteert onder zware multicore apps heb ik nauwelijks naar gekeken. Dat is voor mij persoonlijk niet interessant. Doe niet aan videobewerking, stream m'n games niet of wat dan ook. Mijn pc is slechts voor dagelijks internetgebruik en gaming. Is dat voor iemand wél van belang, dan zou ik zeker voor de 3600 gaan. Of de hexacores helemaal links laten liggen en voor een 3900X gaan. Kost wel wat :P
eehhhh je snapt wel dat die benchmarks met een 2080Ti gedaan zijn? Als jij dus geen 2080Ti hebt ga je dus een veeeeeeellll kleiner of misschien zelfs geen verschil zien. Dus die 10%? Yeah not gonna happen als je een 1070 ofzo hebt
eehhhh je snapt wel dat die benchmarks met een 2080Ti gedaan zijn? Als jij dus geen 2080Ti hebt ga je dus een veeeeeeellll kleiner of misschien zelfs geen verschil zien. Dus die 10%? Yeah not gonna happen als je een 1070 ofzo hebt
Naarmate je een langzamere grafische kaart hebt wordt het verschil in prestatie idd kleiner. Dat mag algemeen bekend worden beschouwd.
Eerst en vooral: mijn laatste build is ook amd, dus geen intel fanboy. Maar...

Jaren lang is AMD een heethoofd geweest met hoog verbruik: price/performance is goed dus AMD! Nu dit het argument voor intel is, is het dom.

Bij de phenom reeks met (mogelijk instabiele) core unlocks en goede overclocks was AMD super, nu overclock in het voordeel van intel is is het verwaarloosbaar.

Bij iedere cpu aankondiging, zowel AMD als intel, is AMD super omdat die op het oude moederbord werkt. Ik had geen AMD maar een intel, dus waardeloos argument. Dat ik mijn corsair h110 van 5 jaar oud (waarvan ik bij verhuis de AMD mount van verloren ben) wel op mijn nieuwe intel kan gebruiken is dan weer geen argument.

Ik heb niet bekeken of het waar is, maar als intel+mobo+oc met oude cooler goedkoper is en aan alles voldoet wst AMD de afgelopen 10 jaar "beter" maakte, waarom dan AMD zo pushen en goed praten?
Als je op een Intel platform zit waar de nieuwere CPU's nog op draaien, dan is er idd geen argument. De kosten voor een volledige switch zijn daarvoor te hoog.

Ik praatte alleen vanuit het oogput van een volledig nieuwe build. Ik zit zelf te kijken naar een 3700x (ik heb nu nog een stokoude PC), een 8c16t voor €330 (inc koeler) is niet iets wat je bij Intel krijgt momenteel bijvoorbeeld voor die prijs.

[Reactie gewijzigd door Khrome op 24 juli 2024 18:08]

Een wel heel marginale case als ze zodanig nek aan nek liggen dat de keuze van moederbord en koeling de doorslag geeft. Nouja, okay, overklokken dan nog maar voor die paar procent extra snelheid doe ik liever een mid-life upgrade voor nog wat meer extra snelheid. Dat kan bij AMD vaak wel en bij intel meestal niet op hetzelfde moederbord. Dan heb je eventuele prijsverschillen van het moederbord er al snel weer uit.

Trouwens, een paar procent overklokken, zou dat niet lukken op een AMD?

[Reactie gewijzigd door mae-t.net op 24 juli 2024 18:08]

en dan vergeet je eigenlijk nog de Intel fanboys. Want ja clock per core is intel nog steeds beter, dus is intel gewoon beter/sterker.

punt uit.

dat is wat ik van de week ook weer hoorde... terwijl het gewoon bullshit is en geld in de sloot gooien is, maargoed..

voor discussie krijg... ja clock is hoger, maar is het nog het geld waarde het verschil?
Ik kocht een pc nu 2 jaar geleden.en heb een intel cpu gekocht mede om.die reden. Een andere reden was dat mn vorige amd pc zo ongelooflijk tegenviel in games (voor de rest prima, opzich) maar singlecore performance was om te janken op de fx8350.

Schijnt wel dat amd nu ongeveer on-par is toch op single core performance?
Ik heb dit jaar nog een intel machine gekocht.. omdat ik een goedkope hackintosh wilde bouwen. helaas dat nu ryzen 3000 compatible blijkt met mac OSX. had veel liever voor AMD gegaan omdat am4 socket toch wel een enorme upgrade path heeft support voor quad tot 16 cores ... en 4 generaties op de zelfde socket.... en bij intel moet je weer een nieuw moederboard kopen. zucht
Het klopt dat AMD het twee jaar geleden nog moest hebben van de multicore performance, Inmiddels betekent "ongeveer on par" al "op veel punten een fractie beter dan intel".
Op gelijke snelheid ( dus bijv 4.0 vs 4.0 is AMD sneller (hogere IPC) enige waardoor Intel hoger uitkomt is dat ze hoger kunnen klokken (4.3 vs 5.1)
Vette inhaalslag hoor van amd.

Kga mn i5je dan nog niet opvoeren met die stock koeling erop dus hehe, dat voordeel pak ik niet mee met mn coffee-lake cores voorlopig
Ik ben benieuwd of er een grafiek is met een gemiddelde core count van Intel en AMD gezet in tijd... Want het gaat nu wel rap.
Hoezo? AMD heeft al een 16-core sinds de eerste Ryzen.
Niet op het mainstream socket.

Ik denk overigens dat als je een grafiek van multicore performance wil hebben dat een random benchmark beter is dan aantal cores, een FX8120 is namelijk in compleet niet te vergelijken met een 3700x
AMD had al ver voor Ryzen gemiddeld hogere core counts, als de performance daar alleen niet beter van werd is dat geen uniek voordeel...

Daarnaast is waarschijnlijk voor het gros van de Tweakers hier een 8 core CPU met hyper threading al zwaar overkill. Het is zeer zeker leuk voor in de toekomst, maar ik zit me op m'n hoofd te krappen wat ik met 12 of 16 cores moet op mijn werkstation de komende 5-6 jaar...
Ligt er totaal aan wat je doet. En welke software je gebruikt. Maar ook al gebruik je een bepaalde software pakket veel die profijt haalt uit een multicore. Of je compileert veel... dan zijn die kosten tegenwoordig makkelijk terug te verdienen. Het is gewoon fijn dat je bijna realtime je programma compiled op een 32 core of straks 64 core. In plaats van eerst altijd 30 seconden of een minuut of meer moet wachten. Of je bent een echte editor met heftige software wat gebruik maakt van zware multicore algorithmes. Want ook in C++ wordt er heftig geinvesteerd in de standard library dat de algoritmes heel simple threaded kan maken, gewoon als optie zonder als programmeur daar veel moeite voor te doen.

Ik heb op mijn werk een dual core i7 laptop en je ergert je er dagelijks aan. Kom je thuis, stap je achter je snelle PC en dan heb je gewoon een rustgevend gevoel dat alles flits flats werkt.

[Reactie gewijzigd door Immutable op 24 juli 2024 18:08]

Dan zou intel van 3(2016) naar 3(2017) naar 5(2018) naar 6(2019) naar 7(2020) gaan ofzo.
AMD zou van 6(2016) naar 6(2017) naar 6(2018) naar 10(2019) naar 10?(2020) gaan.
Even snel uit het hoofd

In threads is het voor AMD wat interessanter:
6(2016) naar 10(2017) naar 10(2018) naar 18(2019)
Ah mooi! Misschien is dit een grafiekje waard, Intel/AMD, cores/threads. En misschien nog een single core performance sausje er overheen. Ik ga puzzelen...
Dat zou wel leuk zijn!
"Ryzen 9 3900X heeft 16 cores" typo in de tekst. Moet zijn Ryzen 9 3950X. Verder baal ik er wel van dat die op de AM4 platform komt ipv de TR4. Nu moet ik of een nieuwe moederbord of een CPU met meerdere cores kopen...
Goed lezen. Treadripper op TR4 komt er ook aan. Gelijk met 3950X.
Ik heb het over specifiek de 3950X die dus NIET naar de TR4 komt. Dus voortaan alleen cpu's met meer dan 16 cores die naar de TR komen.
Ik heb het over specifiek de 3950X die dus NIET naar de TR4 komt. Dus voortaan alleen cpu's met meer dan 16 cores die naar de TR komen.
Ik heb nog geen officiële lineup gezien. Maar de laagste variant is, wat ik begrepen heb:

AMD 100-000000011-12
SP3r2, 1 CPU, 16 cores, 32 threads
Base clock 3.6 GHz, turbo 4.05 GHz (avg)
SystemAMD Sharkstooth (all builds)
MotherboardAMD WhiteHavenOC-CP

Vermoedelijk komend e volgende varianten:
16 core (32T) (4x4)
24 core (48T) (4x6)
32 core (64T) (4x8)

[Reactie gewijzigd door Wim-Bart op 24 juli 2024 18:08]

Dat geeft dan nog wel weer hoop, kan die PCIE lanes echt niet missen met al die NVME's in mijn systeem en dual GPU setup
Er komt ook nog een nieuwe threadripper aan met 64 cores(128 threads). Daarmee kan je de linux kernel hopelijk in 20 seconden compileren hoop ik. _/-\o_
De oude toppers deden het in een halve minuut.
Threadripper is echt een heerlijke compiler beest. En natuurlijk voor alle andere multi-core toepassingen.
En met een super zacht prijsje van nog net geen 2000 euro waarschijnlijk.

[Reactie gewijzigd door Immutable op 24 juli 2024 18:08]

Altijd weer problemen en problemen nu met de yields. Zal me niet verbazen als het straks weer wordt uitgesteld.

Wie weet waren er al problemen bij de lancering van Ryzen 3000
De yields zijn niet het probleem. Er is gewoon een gigantische vraag naar Epyc 2 (Rome). De marges hierop zijn veel hoger dan voor consumentenchips. Dus als AMD kan kiezen een chiplet in te zetten voor Ryzen of voor Rome, rara waar de chiplets eerst heen gaan. Ryzen krijgt ruwweg de slechtere kwaliteit chiplets die bijvoorbeeld een hoger verbruik hebben of minder cores. Het was slim om met 3900x te beginnen, want dan konden ze gewoon afgedankte 6-core chiplets gebruiken.

Ik zie het zelf ook met Rome. AMD raadt ons (een erg groot bedrijf) om op tijd onze Rome chips te bestellen aangezien er veel vraag is.
Er speculatief van uitgaande dat dit klopt (wat ik ook geloof!!!) zou je zelfs kunnen stellen dat de yields zo goed zijn dat er nauwelijks chiplets overblijven om naar de 3900 door te sturen... (kortom nauwelijk afgedankte). Dit zou de enorme tekorten van de 3900x ook meteen verklaren (ik ben er knarsetandend al twee maand en half op aan het wachten).
"De Ryzen 9 3900X heeft 16 cores, 32 threads en een kloksnelheid van 3,5GHz met boost naar 4,7GHz."
Errm dit moet de 3950X zijn.
Geeft ze ook wat meer tijd om de huidige problemen die spelen te verhelpen, de consumer markt is iets verdraagzamer dan de professionele markt :o
Die 3950x ziet er zo aantrekkelijk uit, Maja mijn haswell 6 core moet het nog 1-1,5 jaartje volhouden voor mijn upgrade :'(

[Reactie gewijzigd door Richo999 op 24 juli 2024 18:08]

Voor de duidelijkheid: Ryzen 9 3950X release, is dus uitgesteld naar november dit jaar (ipv sept)

Op dit item kan niet meer gereageerd worden.