Slide toont prijzen goedkopere AMD Ryzen 7000-processors

Er is een slide online verschenen met prijsinformatie over de Ryzen 7 7900, 7700 en 7600. Dat zijn goedkopere versies van de huidige Ryzen 7000-processors met een lagere tdp en lagere maximale kloksnelheid. De processors moeten volgend jaar uitkomen.

De Ryzen 7900 moet 429 dollar kosten, tegen 549 dollar van de 7900X, claimt Videocardz. De 7700 en 7600 kosten 329 en 229 dollar, blijkt uit de slide die uit een presentatie van AMD lijkt te komen. De prijzen liggen daarmee een stuk lager dan de adviesprijzen van de X-versies bij release, maar wel dicht bij de huidige prijzen van de X-varianten. Op dit moment rekent AMD zelf 474, 349 en 249 dollar voor respectievelijk de 7900X, 7700X en 7600X, wat lager is dan de initiële adviesprijzen.

De 7900, 7700 en 7600 hebben behalve een lagere prijs ook lagere tdp's. In plaats van op 170 of 105W ligt de tdp van alle drie de modellen op 65W. De maximale kloksnelheden liggen ook lager. De kloksnelheid ligt op 3,7 of 3,8GHz, tegenover rond 4,5GHz bij de X-versies. De boostkloksnelheden ontlopen elkaar niet veel. De processors moeten volgens een eerder gerucht op 10 januari uitkomen.

Ryzen 7000 7900X 7900 7700X 7700 7600X 7600
Cores en threads 12/24 12/24 8/16 8/16 6/12 6/12
Kloksnelheid 4,7GHz 3,7GHz 4,5GHz 3,8GHz 4,7GHz 3,8GHz
Boostkloksnelheid 5,6GHz 5,4GHz 5,4GHz 5,3GHz 5,3GHz 5,1GHz
Tdp 170W 65W 105W 65W 105W 65W
Adviesprijs 549 dollar 429 dollar 399 dollar 329 dollar 299 dollar 229 dollar
Ryzen 7000 slide. Bron: Videocardz
Ryzen 7000 slide. Bron: Videocardz

Door Arnoud Wokke

Redacteur Tweakers

19-12-2022 • 10:05

124

Reacties (124)

124
124
72
6
0
45
Wijzig sortering
waar ik over struikel is het energie verbruik groei tov de vorige generatie. niet alleen AMD maar oor Intel. zelfde zie je ook bij Nvidia GPU's. krijg het idee dat je zo de standaard PSU rond de 1000w gaat liggen met advies naar 1200w. dat de CPU's nu in aanschaf gunstiger komen te liggen is prima maar het verbruik over de levensduur komt op mij over als fors. zeker bij langdurig verbruik per dag.
Anoniem: 76058 @tja19 december 2022 11:03
Dat stroomverbruik nummer is iets dat je kan negeren als je geen renderjob draait, waarbij je CPU or GPU op 100% draaien.

Kijk, ik ben van een 3900X naar een 13600K gegaan. Volgende benchmarks op 100% moet ik meer stroom verbruiken, en dat kan kloppen, maar weinig mensen draaien hun CPU echt op 100%. Je zag bij gaming op dezelfde settings, dat men verbruik een dikke 20W lager lag, met dezelfde game/setting/os(zelfde windows, geen nieuw install)/zelfde psu, gpu etc. Krachtigere hardware wat dezelfde zaken gewoon sneller kan draaien, gevolg is dat het minder moet turbo omhoog en voila, minder verbruik.

En ik draai een 13600K + 6700XT op 450W voeding. Hoogste dat ik op men stroom meter de boel gezien heb, is met een game dat de GPU 95%+ deed draaien 144Hz/2K en ik had een 280W verbruik.

Het probleem is dat veel te veel reviews onrealistische zaken draaien. Ze draaien cinebench, en ja, er zijn mensen dat zo een werkload moeten hebben, maar 99% van de mensen draaien zo een werkload niet. Te veel testen zijn niet realistisch voor de gewone Jef met de pet. Maar je hebt ze nodig om een gestandaardiseerd vergelijk te kunnen maken met andere merken/series.

Je ziet dezelfde met de GPUs... Een 4090 dat men draait op 4K, met 120fps of whatever, en dat zuipt stroom. Ok ... Dat zuipt stroom want je draait pvd 4K/120fps in een zwaar game. Draait diezelfde kaart op 2K en je stroom verbruik is ineens enorm zuinig want het turbo niet van hier naar hell. Mensen vergeten dat 2K naar 4K, een massive verhoging is van de hoeveelheid pixels het moet renderen, laat staan op 120fps+.

Over het algemeen zijn de theoretisch max en wat mensen echt draaien + de extra marge dat ze op PSUs smijten, onrealistisch. Men gebruikt vaak extra marges want men wilt niet dat mensen een crappy PSU draaien, de boel crasht en men geeft de GPU of CPU de schuld. Gevolg, men geeft een hogere PSU eisen. En dan heb je de "crappy" PSU argument, want een crappy PSU heb je meer marge voor nodig. Maar de meeste merken dat je vind in de winkels zijn goed tot extreem goed merken, waar je zo geen extra marges voor nodig hebt. Is enkel van sommige Chinese no-brand merken dat je zoiets voor kan hebben en zelf die zijn veel beter geworden dan in het verleden.

Grappig is, dat je over koopt van een PSU wegens schrik en dat je stroom verbruik idd slechter is want je draait mogelijk 50W in idle, en 250W in de meeste games, op een 1000W PSU. Gevolg is dat je dan in de slechtere curve deel zit van die PSU en X % minder efficient draait.

Kan het zuiniger, ja? Zeker op de Idle gebied waar AMD hun chiplets PCs constant 70W+ laten draaien en Intel vaak veel beter doet. Er kan veel verbeterend worden daar, met CPUs niet te laten turbo in de hemel, zoals in de P4 tijdperk. Apple hun M1 tonen dat het VEEL zuinig kan, als je je clock beperkt. Ironisch is, AMD en Intel hebben beide zuinig CPUs (under load), weet je wat ze die noemen? SERVER CPU's! Die dingen draaien vaak in veel meer efficiënte curves (lagere frequenties, minder hoge turbo etc) want de klanten daar kijken veel meer naar de stroom verbruik, want die dingen draaien niet idle. En ja, je ziet daar ook 400W CPUs maar dan heb je 96 Cores ook he. De workloads dat ze doen per watt is veel hogere, want meer cores + lagere frequencies = meer werk dat gedaan word per watt dan een desktop CPU.

In de praktijk is de rek uit veel hardware een lange tijd. Men haalde vroeger veel meer rek uit actueel ontwerpen en je zag toen letterlijk 100 a 200% performance verbeteringen per generatie. Maar eenmaal de boel geoptimaliseerd was op hardware gebied, was er enkel de "meer cores/units/cache/whatever", wat meer silica betekende, en ja, men ging de "we hebben kleinere nodes nodig om sneller te worden in hetzelfde energie gebruik ( en oppervlakte)".

De enige manier dat je grote sprongen zal zien in performance en watt, is met total nieuw ontwerpen van een architectural punt. En dat kost jaren, en is moeilijk te doen want dan breek je vaak software. Zelf Apple met hun M1 heeft maar 70% van de software op Arm gekregen, en die hebben een ijzer grip op hun eco systeem.

Het is niet zo simpel om constant verbeteringen te krijgen op hardware zonder toezeggingen te doen op andere punten zoals stroom.
Totdat er een spel is die door z'n opzet hier wél gebruik van maakt, omdat ontwikkelaars een manier vinden de extra prestaties toch aan te kunnen spreken. Dan kon het met je krap bemeten voeding wél een probleem worden.

Daarnaast lijkt het me erg onwaarschijnlijk dat iemand een 4090Ti koopt om spellen met Xbox Series S graphics / framerate te spelen.

Verder niet mee oneens. Nog altijd zijn er baggervoedingen te krijgen, al vraag ik me oprecht af of het werkelijk uitmaakt of men er een 600W of 1500W sticker op heeft geplakt. Qua betrouwbaarheid en stabiliteit zal ik geens van beiden mijn PC toevertrouwen.
Totdat er een spel is die door z'n opzet hier wél gebruik van maakt, omdat ontwikkelaars een manier vinden de extra prestaties toch aan te kunnen spreken. Dan kon het met je krap bemeten voeding wél een probleem worden.
Laat me stellen dat als je een spel op 2K draait, met 144hz, dat gekend is wegens hoe crappig het geoptimized is (7D2D), en je voeding gebruikt niet meer dan 280W aan de power outlet. Dan is een dikke 170W in reserve en de meeste deftige voeding hebben vaak daar nog een extra reserve boven voor pieken.

Dit is het grapje dat Newegg me aanraad van PSU (600 - 699 Watts) voor mijn config. Yea ...600 a 700W, wanneer ik realistisch niet eens 300W heb ;)

Dat is het probleem, die mannen nemen de max van de 13600K met 100% alle cores onder stress, en max 6700XT en smijten daar nog een extra op voor "zeker te zijn", terwijl dat gewoon onrealistisch is.
Mijn 400 watt seasonic platinum voeding gaf toch een crash tijdens gamen met mijn 5900x en 6700xt :/

Kun je geen goedkope voeding noemen!

Heb een 600 watt voeding aangeschaft en nu is het allemaal stabiel.
Dat zegt niets ... Wat van belang is, de watts dat je zat te draaien. Had je bijvoorbeeld je CPU en GPU OC's, ja, dan kom je over de 400W. En niet stabiel. Maar zat je daaronder, dan is het niet normaal dat je voeding niet stabiel was, aka, je had mogelijk een slechte voeding.
Mja, misschien was er iets mis met de voeding al zou dat wel ernstig zijn voor het absolute top model van seasonic :/

Ik moest de cpu en gpu flink onderklokken om stabiel te blijven, stock werkte het maar een paar minuten.
En toch snap ik het wel en vind ik het geen onrealistisch voorbeeld. Jij weet dat je Intel CPU een niet-standaard opstelling heeft die bij jouw gebruik zelden alle cores gelijktijdig aan zal spreken. Als je dan geen benchmarks gaat draaien die dit alsnog doen, is dat geen probleem.

Feit is, Newegg bedient een hoop hobbyisten die, wanneer ze hun systeem bij mekaar hebben geknutseld, even een bench gaan draaien om de stabiliteit te controlleren, of gewoon voor de lol. Jeff met de pet koopt sowieso geen losse voeding of onderdelen bij Newegg, maar een prebuilt systeem bij z'n Microcenter om de hoek. Wat dat betreft snap ik hun aanbeveling dus wel. Ik dacht namelijkd at we het hier vooral over de onrealistische eisen hadden die achterop de GPU boxen staan, die in de regel nog een paar 100W hoger liggen :)
Als gaming dan toch zo belangrijk was... koop dan een 5800X3D op je zelfde bestaande systeem en je had voor een beperkte kost het beste game systeem EN het laagste verbruik...
Anoniem: 76058 @d3x19 december 2022 22:26
Game, sure. Idle? Hehe, nowp ...5800X3D zuipt enorm op idle, in tegenstelling tot een 13600K. Als je zoals ik je PC 10+ uur aan hebt, dan is dat 20W lager gebruik in idle best een leuk verschil op je dag gebruik. En sorry dat ik het zeg maar een 5800X3D is enorm zwakker voor compile jobs, dat is eigenlijk een stap terug zelf tegenover een 3900X, laat staan een 13600K.
Je had het over gaming. En idle hangt af van je moederbord.

20w idle lager is bullshit.

[Reactie gewijzigd door d3x op 24 juli 2024 14:42]

Anoniem: 76058 @d3x21 december 2022 21:05
20w idle lager is bullshit.
En toch is het zo makker ... Ik draai constant een power meter op de outlet. In tegenstelling tot al de mensen dat enkel via software lezen, doe ik het via de echte power gebruik. En ja, moederbord chipset kunnen een verschil geven, maar als je dezelfde hardware draait buiten het MB en CPU, en een 20W lager gebruik hebt. En ja, zelfde windows, gewoon drivers veranderend.

Het probleem met AMD is gewoon dat de Chipset design meer stroom zuipen in idle. Is al lang gekend en als je bijvoorbeeld de 5700G draait, dan heb je ook 15~20W lager gebruik op dezelfde AMD moederbord. Feit dat je dit bullshit vind, zegt meer over je kennis van de betreffende hardware.
Helemaal niet waar. Wat jij hebt is gewoon foute instellingen.

Zeker AMD verbruikt iets meer dan Intel maar dat is maar 2-3w verschil.

Vroeger zat er veel meer verschil op maar dat kwam gewoon omdat Intel achterhinkte op pci-e vlak. Lang heeft AMD pcie4 gehad wat Intel op 3 zat. Nu ook heeft and meer pci-e lanes en dus zit er hoger verbruik in chipset.

En ik heb alle types en generaties hier draaien van am4 trouwens dus weet het wel degelijk.

20w hoger idle verbruik is bullshit en heb je gewoon foute instellingen. Maarja wat is tweakers nog tegenwoordig....

[Reactie gewijzigd door d3x op 24 juli 2024 14:42]

Anoniem: 76058 @d3x22 december 2022 16:22
Verklaar het idle verschil tussen een 5800X en 5700G, beide 8 Cores, beide Zen3, beide 7nm, beide in hetzelfde MB, op dezelfde windows versie, op dezelfde bios dat een 17W verschil heeft in power usage.

Kom, ik wacht op je antwoord...

> Maarja wat is tweakers nog tegenwoordig....

Jaja, de typisch deflective Wat is een ITer dat 25 jaar in het vak zit, dat zen bios altijd tuned, dat meerdere Zen generatie bezat, dat PBO underclocking en voltage underclocking deed met custom curves, core locking, HT disabling enz enz voor de energie consumptie naar onder de halen (op meerdere moederborden). X570 is een dikke 5W meer in idle gebruik dan B550 maar daar stop het als je dezelfde CPUs gebruikt. Je ziet juist dat enorm verschil op de laptop G versies. Daarom dat ik de 15 a 20W gebruik als referentie.

Doe me een plezier en ga effen met jet uitleg naar de HTPC en andere communities. Ze lachen je de deur uit dat je een AMD Chiplet Desktop CPU vergelijkt met een Intel of AND Laptop/Deskified CPU.

O kijk, een Excel van de HTPC community waar men energie consumptie proberen onder controle te houden. Veel AMD nietwaar? Waar is Zen weeral? Juist, de enige in de lijst zijn de laptop monoliet cores, aka de G series. Je vind er geen enkele chiplet versie want die dingen zuipen gewoon meer. Dat is een feit.

https://docs.google.com/s...odvwZpQZKv_NCI/edit#gid=0

Ik merk op dat je niet veel kent van de architect. Mensen hebben al lang gedacht dat het issue was de IO die op de SOC, omdat die draaide op 12nm. Maar nu met de Zen4s en ondanks dat de IO die op 6nm nu zit, is de stroom verbruik nog altijd zoveel meer. Er is een artikel van AMD zelf, waar ze aangeven dat het probleem hem zit met de Infiniti fabric en dat is juist waar veel van dat extra stroomverbruik zit.

Het minste beetje activiteit en het gaat van de 400mhz naar 1800 of what je memory 1:1 draait, en je idle energie gebruik gaat dik omhoog. Intel heeft minder last van dit fenomeen ondanks dat ze hun eigen link hebben met de P/E cores. Daar spaar je minder uit. Het is een gekend issue met chiplet design dat AMD aanvaardbaar vind. En het is niet beter geworden met de tijd, omdat men meer en meer de frequentie omhoog zat te pushen.

Gebruik google en je vind verschillende artikels met metingen hoeveel dat gebruikt op AMDs chiplets. Bij hun laptop versies hebben ze dat probleem niet, omdat alles zo dicht op elkaar zit, wat een lagere voltage op de infinity fabric geeft. (dat is mijn speculatie). De link tussen IF, freq en idle gebruik is enorm merkbaar als je de boel in het oog houd.

Anyway, dit is mijn laatste reply want ik merk dat ik getrolled word gebaseerd aan het "Nee nee, ik geloof dat niet, 20 bla bla typisch response van je.
Mooi verhaal. Je probleem zit helaas nog steeds bij de start....

20w idle meer verbruik op mijn AMD vs de Intel...

Die lijst geeft verschillen van 2-5w yep zeker en vast. Dat het geen hpc wonder is weten we al jaar en dag.

Dat hij sneller actief is. Tsja dat is geen idle meer. Er zitten wel meer fratsen van MS en fine-tuning met Intel. Jaar en dag samenwerking en zelf tegenwerking. Kies maar hoe je alle funding wilt noemen....
Dit komt waarschijnlijk omdat, net als bij videokaarten, de boel ontworpen is een jaar of 2 geleden toen stroom nog goedkoop was. Performance was toen belangrijker. De wereld is nu alleen een klein beetje anders dan 2 jaar geleden. Nu zitten ze dan ook met chips die zeer onaantrekkelijk zijn kwa stroomverbruik.
Processor + moederbord, 240 watt?
GPU : 450 watt?
Monitor en SSDs? 250 watt?

Praat je bijna over 80 cent per uur voor een game sessie.
Dit komt waarschijnlijk omdat, net als bij videokaarten, de boel ontworpen is een jaar of 2 geleden toen stroom nog goedkoop was.
Dat zal wel meevallen want de beste plek in de efficientiecurve bij Ryzen 7000 ligt gewoon ergens tussen de 65W-100W (afhankelijk van het aantal cores, een 16-core zal 150W beter kunnen benutten dan een 6-core). Daarboven schalen de prestaties helemaal niet zo best. Dus het ontwerp is prima geschikt voor juist een wat lager verbruik.

Het is puur dat Intel en AMD al jaren best aan elkaar gewaagd zijn. Meestal is er 1 fabrikant (doorgaans Intel) die een efficiënte CPU had, en die verslaat met gemak de concurrentie (AMD) met een relatief laag verbruik. Maar nu moet het verbuik steeds net weer wat hoger om bovenaan in de grafiekjes te staan. Waarna de concurrentie hetzelfde doet, enzovoorts. En even later heb je CPU's die 250W verbruiken. Negeer die strijd gewoon en koop een non-X of non-K CPU, en je hebt met een moderne CPU een geweldig efficiënt stukje hardware.

Deze non-X-CPU's zijn dan ook erg welkom. Eco-modus heeft maar beperkt effect, lijkt het. Handmatig klooien met curves kan ook nog maar daar heeft niet iedereen zin in, en je leest er weinig over in reviews.

Verder klopt er echt niets van de 250W voor monitor en SSDs, een SSD is juist vele malen zuiniger dan een ouderwetse HDD en die verbruikt echt maar enkele Watt in load, en letterlijk milliWatts (lees: niks) in idle, als de power states een beetje goed hun werk doen. LED-monitors worden juist ook met de jaren zuiniger, dus netto verbruikt dat alleen meer als je een veel groter scherm neemt dan vroeger gangbaar was.

[Reactie gewijzigd door bwerg op 24 juli 2024 14:42]

Nee het was intel fabs die AMD fabs en later Global foundry versloeg.
Het is nu TSMC met AMD die intel moeilijkmaakt.
Was AMD in buldozer tijd al op een zwaar concurrerende foundry overgestapt.
Dan krijg je zelfde als netburst Prescott met 130nm procede voordeel het dan ook niet slecht doet. Tegen achter lopende AMD todat AMD ook hun dieshrink succesvol erdoor heeft.
Diegene die de betere procede heeft kan meeste halen uit hun architecturen.
Stroom is nog steeds goedkoop op in andere delen van de planeet.

Overigens heb ik geen idee waar jij 1000 watt vandaan haalt, mijn complete PC trekt gewoon 450 watt uit stopcontact, en dat is all-in: 27" HDR1000 monitor, RTX2080TI, AMD 5950X en de hele setup is gekoeld met een custom loop. Die 1000 watt lijkt me onmogelijk om te halen tenzij je een nvidia 4090, 7950X en een high-end monitor combineert. Dan ben je dus al iets van 4000 euro kwijt aan hardware... ga je dan echt nog klagen over het verbruik?

De realiteit is dat zowel GPU als CPU niet 100% hun TDP trekken tijdens een game, en een monitor gebruikt geen 250 watt, maar iets van 60 watt. Mijn monitor verbruikt worst-case scenario iets van 150 watt, maar dit is zeer uitzonderlijk (alleen tijdens heldere scenes in HDR) en dit is 1 van de minst zuinige monitoren op de markt.

Met een klein beetje tuning kan je het verbruik van je CPU en GPU drastisch verminderen met slechts een paar % performance verlies. (wat ik ook gedaan heb)

[Reactie gewijzigd door Gamebuster op 24 juli 2024 14:42]

Hij heeft het over de nieuwe cpu's en gpu's deze trekken behoorlijk wat meer stroom dan jouw "oudere"onderdelen.

Waar het bij jou 450w totaal is. Zullen systemen met de nieuwste onderdelen en High end gpu nu makkelijk 700w zullen verbruiken.
Is dat ook echt zo? Verbruikt een 4080 meer stroom per frame dan mijn 2080TI?

Verbruikt een 7900X meer stroom om dezelfde taak te doen dan mijn 5950X?

Ik kan me niet voorstellen. Ook kan je gewoon... niet high-end hardware aanschaffen. Pak eens een 3060 en een 7600 bijv. Daarmee kan je alsnog iedere game aan, maar dan voor veel minder stroom

[Reactie gewijzigd door Gamebuster op 24 juli 2024 14:42]

Verbruikt een 4080 meer stroom per frame dan mijn 2080TI?
Verbruikt een 7900X meer stroom om dezelfde taak te doen dan mijn 5950X?
Je vragen zijn zowel terecht als misleidend. Dat ligt niet aan jou maar aan de industrie.

Als je beide CPU's exact dezelfde taak geeft ("doe deze berekening") dan zal de nieuwere CPU zuiniger en sneller zijn. In plaats van 0.2 seconde duurt het nog maar 0.1 seconde. Vervolgens gaat de CPU staan wachten op de volgende opdracht. Als het idle verbruik van de snellere CPU hoger is dan is het maar de vraag wat zwaarder telt. 0.1 seconde hard rekenen of 0.9 seconde idle. Want niemand zet z'n computer helemaal uit zodra de berekening klaar is. Die getallen zijn uiteraard maar verzonnen voorbeelden in praktijk kunnen de verhoudingen nog extremer liggen. Daar moet ik wel bij zeggen dat moderne processoren steeds beter worden in niet meer doen dan nodig en dus best wel zuinig zijn in idle.

Maar wat doen mensen als ze een betere computer krijgen? Dan gaan ze er meer mee doen. Dan gaan ze opeens hun games op "ultra" spelen of gaan ze hun youtube-videos in 4k editten.

Dat brengt ons nog bij een belangrijk onderscheid: zakelijk en prive. Zakelijke systemen die 24/7 voluit in gebruik zijn die worden steeds efficienter en krijgen steeds meer gedaan per Watt. In cloud omgevevingen wordt het werk van meerdere klanten gecombineerd zo optimaal mogelijk te vullen.
Thuis is dat heel anders. Daar gaat de computer 's avonds om 6 uur aan en 2 uur later weer uit. Ongeacht of er Donkey Kong gespeeld wordt of Cyberpunk2077. Hierbij telt het idle-verbruik en power management misschien wel zwaarder dan efficientie onder belasting.
Het gevolg van een snellere pc kopen zal over het algemeen zijn dat men in dezelfde tijd meer fps genereert en meer taken voltooid. Waardoor je dus een hoger gemiddeld gebruik hebt.
Zijn vraag is meer stroom per frame...
als je dat hoger gemiddeld gebruik over meer frames uit smeert, dan kan het per frame nog steeds het zelfde zijn.
Laat daar nou net gewoon een grafiekje voor zijn in de review hier op tweakers. Ja, de 5950X heeft minder energie nodig voor dezelfde taak dan de nieuwe CPU's.
Ik zie inderdaad een hoger stroomverbruik (~10%) voor een 7950X, maar vervolgens doet-ie wel diverse taken in ~25% minder tijd afronden. Je kan hierbij argumenteren dat de nieuwere chip, ondanks zijn hogere verbruik onder load, zuiniger is: Hij kan nl. meer werk verzetten per watt.

Alternatief is natuurlijk dat je je nieuwe CPU simpelweg meer werk laat verzetten; dan ben je dus ook meer stroom kwijt. Als dat een probleem voor je is, neem je simpelweg een minder high-end model.
Ik vraag me af of we naar dezelfde grafiek kijken ;) De totale hoeveelheid energie voor een vaste taak (stroomverbruik gedeeld door de tijdsduur van het afronden van die taak) is gewoon af te lezen in de onderste grafiek, daarin scoort de Ryzen 5000-serie beter dan de Ryzen 7000-serie.

Het verschil van 10% tussen de 5950X en 7950X zie ik alleen bij de metingen van idle-verbruik, bij all-core load vliegt de 7950X totaal uit de bocht met zo'n factor 2 verschil. Dat heeft dus ook niet zozeer te maken met wel of geen high-end model maar vooral met onzuinige instellingen, namelijk een ongunstige positie in de curve van klokfrequentie vs. verbruik. Daarin zitten de echte high-end modellen (de 16-cores) juist beter dan de mid-range modellen (zoals de 7600X) wegens meer cores op een lagere maximumfrequentie.

Althans, op standaardinstellingen. Met eco-modus gaat het al een stuk beter maar nog steeds worden de Ryzen 5000's niet verslagen. Hopelijk doen de nieuwe 65W-TDP-modellen dat wel.

[Reactie gewijzigd door bwerg op 24 juli 2024 14:42]

Verbruikt een 7900X meer stroom om dezelfde taak te doen dan mijn 5950X?
ja, steve van GN heeft er een mooie grafiek voor gemaakt: https://www.youtube.com/watch?v=s04TOQkzv3c
Ja vooral gpus zijn meer stroom gaan gebruiken. Het gevaar ligt vooral bij extreme kaarten zoals de vega 64. Ze zeiden; die trek max 350 watt, maar er zitten powerspikes tussen van 450 watt. Hele korte flitsen dat hij ineens meer vraagd van je psu.

Volgens youtube tech experts heeft de huidige en afgelopen generatie Nvidia daar veel last van heeft, ook wel Nvidia tax genoemd (100w extra nemen op je voeding).

Maar verder gaande op mijn vega 64 verhaal. Dit maakte mijn 650 watt A tier voeding van seasonic ineens ongeschikt. De psu kon het zelf wel aan maar de kabels waren niet van goede kwaliteit en konden die powerspikes niet aan. Daar testen de techsites in 2017 nog niet op. Dat is inmiddels wel anders en heeft seasonic een refresh op die psu kabels gedaan.

Maar die oudere kabels zijn ook ongeschikt voor de highend Nvidia 3000 en 4000 kaarten.

[Reactie gewijzigd door SactoriuS op 24 juli 2024 14:42]

In de app van Asus (armoury crate) zie ik dat mijn Ryzen 7900X bij gemiddelde games ongeveer tussen de 95 en 105 watt gebruikt. Ik vind het opzich nog best meevallen.
Dat komt natuurlijk omdat 80% van je 7900X aan het slapen is tijdens games
het gaat dan ook over gamesessies ;)

als er geen nood is aan sneller, dan zijn CPU's en GPU's al heel lang zo slim om hun snelheden/actieve cores terug te throttlen om het verbruik te beperken.
Bij een framerate limiet, zullen de nieuwe system wel degelijk minder stroom verbruiken voor de zelfde hoeveelheid fps.
Valt wel mee.

Mijn modale Intel 6600k van destijds verbruikt sowieso 60W meer dan idle wanneer deze de sporen krijgt. Mijn R9 Fury verbruik 235W wanneer deze in volle werking is. Voor datzelfde verbruik heb je nu dus een even duur zijnde 7700 (dubbele aantal kernen, 50% hogere performance per kern) of RX6800, mogelijk zelfs een RX7900XT.

Het grote verschil wat ik in de huidige markt zie, is dat we nu dus hardware kunnen kopen die niet alleen absoluut maar ook in relatieve zin significant sneller is, ten koste van een hoog verbruik. De reden waarom het bestaat is tweeledig: Aan de ene kant is sneller altijd beter, vanuit commercieel perspectief. Ultra high-end vindt altijd een markt, vroeger koppelden we gerust twee of drie GPU's of CPU's in een systeem. Aan de andere kant is het met de vooruitgang in koelingen en voedingen ook gewoon mogelijk, daar waar dat vroeger niet zo ging.

En net als met auto's, waar iedere Youtubert graag poseert met z'n Lamborghini, is ook de exposure van de ultra-high-end hardware wat overtrokken ten opzichte van het marktaandeel. Het is leuk dat alles langs de 4090Ti wordt gelegd, maar in feite zou men eigenlijk de 3060 als baseline moeten nemen als benchmark. De laatste GPU is eerder de norm, niet de eerste.
klopt.
rtx 4090 advies minimale voeding is al 850w + 7900x/7950x dan ga je met HDD/SSD al richting de 1000w als advies. bij 3e partij 4090's is het advies al begin bij 1000w voeding. ik zit 16 uur per dag achter de pc waaronder ook intensief gebruik.
9900k + 3070 verbruikt op 1440p 300 watt op 1080p 200 watt. Toch maar gamen op 1080p.
Maar wel lekker warm... je mag 's winters de gaskosten aftrekken van je stroomverbruik en je hebt nu als alles maximaal draait een 1000W elektrische kachel staan.
Zolang CPUs idle weinig verbruiken en een zeer goede performance/watt laten neerzetten is er geen enkel probleem.Als het hogere stroomverbruik betekend dat je sneller gedaan hebt kan het zijn dat je totale verbruik voor een berekening alsnog lager is.
Maar helaas is dat bij de 7000X-CPU's niet zo, de vorige generatie doet het gewoon beter door de absurde standaardinstellingen.

Ik snap alleen niet waarom het commentaar daarop juist komt op een artikel dat gaat over de introductie van de non-X-CPU's, want die gaan het waarschijnlijk juist fantastisch doen op gebied van stroomefficiëntie.
Twee weken geleden twee nieuwe computers in elkaar gezet op basis van de AMD Ryzen 7950x en ASUS ProArt X670E-CREATOR WIFI moederbord. Met de juiste instellingen in de bios kun je het maximale stroomverbruik van de CPU reduceren van 240 watt naar 110 watt tegen ca. 5-10% performance verlies. Als je de CPU loterij gewonnen hebt en de voltage curve flink kunt optimaliseren, kom je zelfs in de buurt van stock performance tegen minder dan de helft van het energie verbruik.
Puntje van aandacht is het idle verbruik. Deze ligt rond de 40-50 watt voor alleen de CPU. Dat had mijn inziens veel lager moeten zijn.

-edit-
ASUS Armoury Crate geeft een waarde van 40-50 watt
AMD's eigen Ryzen Master tool meld ca. 9 watt.

Ter aanvulling; Bijkomstig voordeel van het lagere energie verbruik is dat de CPU maximaal 65 graden heet wordt, in plaats van 95 graden.
Daar moet ik bij zeggen dat in ieder geval een van de twee builds voorzien is van een 360 mm AIO CPU waterkoeling.

[Reactie gewijzigd door iRob87 op 24 juli 2024 14:42]

In de tweakers review is er ~20 watt gemeten in idle voor de 7950X voor CPU+Moederbord verbruik.

20-30 watt extra ligt buiten error marge. Ik zou eens default bios instellingen proberen om te kijken of je het niet zelf veroorzaakt hebt. Anders even nakijken of je een programma geïnstalleerd hebt staan dat nogal actief is in de achtergrond.
Of je powerplan op gebalanceerd zetten in plaats van hoge prestaties/maximum prestaties. Die staan erom bekend dat ze de cpu niet laten terugkeren naar de laagste powerstate

[Reactie gewijzigd door youridv1 op 24 juli 2024 14:42]

Bedankt voor je opmerking. Ik had de review wel gelezen, maar het deel dat je aanhaalt was me ontschoten.
Zojuist even de verschillende tools naast elkaar gezet. Het lijkt erop dat ASUS Armoury Crate een andere waarde laat zien.
AMD's eigen Ryzen Master tool geeft inderdaad aan dat de CPU idle ca. 9 watt verbruikt.
Dat lijkt me realistischer. Software vermogens metingen zijn sowieso een beetje foutgevoelig. Altijd eerst even verifiëren hoe accuraat je gereedschap is en daarna meten.

Ik gebruik om die reden eigenlijk alleen maar HWInfo64
Ik heb mijn 5950X + 2080TI aan een custom loop met 1 360mm radiator and 3 120mm fans die amper hoorbaar zijn onder max load, simpelweg door hetzelfde te doen: Tuning voor minder stroomverbruik.

Kost me een paar % performance in ruil voor aanzienlijk minder stroomverbruik, minder hitte, en minder herrie. Jammer dat dit in praktijk zo weinig gedaan wordt. Ik kan zo lekker gamen (of werken) zonder koptelefoon en alsnog mijn speakers horen, en dat met een desktop op mn bureau.

Mijn gehele setup (speakers, HDR1000 monitor, PC) verbruikt tijdens gaming iets van 450 watt.

[Reactie gewijzigd door Gamebuster op 24 juli 2024 14:42]

Je kunt bij amd én intel gewoon 1 instelling in de bios tweaken en dan houden ze op met energie slurpen. Je verliest dan maximaal 5% performance, meestal onmerkbaar weinig buiten zwaar renderen.

Had eco mode default moeten zijn? Misschien wel. Maar we kunnen nu inmiddels wel ophouden met onder elk nieuwsbericht over een processor of videokaart WEER dezelfde comment te plakken

En nogmaals, het plafond is gewoon hoog. Deze nieuwe chips doen in 99% van de gevallen nog steeds effciënter hun werk dan voorgaande generaties. Pas hij hoge belasting merk je iets van het hogere grenzen. Er is alleen een stijging in maximaal verbruik, geen noemenswaardige stijging in watt per geleverd werk in 99% van de usecases.

[Reactie gewijzigd door youridv1 op 24 juli 2024 14:42]

AMD: PPT
Intel: PL1/2 (technisch 2 instellingen dus)

Beide processormerken hebben een dynamisch boost algoritme en uit benchmarks is al gebleken dat de je powerlimit heel ver kunt inperken voordat je significante hoeveelheden performance inlevert

In beide gevallen kun je de processors ook undervolten om je performance terug te winnen.

[Reactie gewijzigd door youridv1 op 24 juli 2024 14:42]

dit zijn 65W varianten... zelf in het Core 2 tijdperk zaten we al met zulke TDP.

Mijn 400W PSU kan dit gerust aan. Feitelijk, als je geen GPU nodig hebt, kan een PicoPSU het ook aan.

Dat de GPUs nu, voor de absurd grote, zo hoog liggen is een ander verhaal. Maar er bestaan ook nog GPUs met normale prijzen en TDP, gelukkig! Je moet dan wel afstappen van "ik wil het beste".
Mee eens, alleen zou dat bezwaar juist niet moeten gelden voor deze CPU’s. Dit zijn de 65W versies.
Deze zijn alleen standaard gelimiteerd op 65W TDP. Dus maximaal 88W PPT.
Het kan goed dat AMD bewust hun X SKU's zoveel extra vermogen laat verbruiken om ze eens beter te onderscheiden van de niet X SKU's.

Probleem is dat AMD het weer eens knullig gedaan lijkt te hebben. Als ze gewoon meteen X en niet X hadden gelanceerd dan was het verschil meteen duidelijk. Want wat je nu gaat zien is fors hoger verbruik vs. veel efficiënter waarbij je de ene kan overclocken en de andere kunstmatig kan beperken.
Ik zit al lang niet meer in pc land, maar toen ik dat nog wel deed (2010 laatste gamepc gebouwd) zat je ook al met een 750-850w PSU aan boord. PC's zijn in mijn optiek dus veel zuiniger geworden.
Ik heb gisteren een 5700X gekocht ipv een 5800X puur voor de 40w minder TDP. Je moet toch op alles letten, en die slechts 2-5% minder performance maar 40w minder verbruik is toch een hele stap.
Enkel de high end X versies, de gewone hebben nog de TDP van de eerste ryzens 5 jaar geleden.
Je hebt ook een stuk minder nodig om een spelletje te spelen. Recent een 5600 en RX 6600 build gemaakt. Mijn 10 jaar oude 600 Watt voeding werkt nog prima. Het speelt niet op hoge instellingen i.c.m. het 3440x1440 scherm maar ik heb niks te klagen.
Hoezo noem je Nvidia gpu's specifiek? De nieuwe Radeon generatie verbruikt vaak meer en is minder efficient als je kijkt naar frames per watt.
ik heb mijn ogen op een 4090, AMD ben ik kwa gebruik niet bekent mee.
waar ik over struikel is het energie verbruik groei tov de vorige generatie. niet alleen AMD maar oor Intel. zelfde zie je ook bij Nvidia GPU's.
De nieuwe nvidia gpu's zijn tenminste nog wel efficiënter dan alle oudere gpu's. Dus dat kan je nog wel oplossen door een lagere segment te nemen of een power target in te stellen. Wel achterlijke prijzen overigens.
De vorige generatie verbruikte ongeveer 140 W, deze generatie 170W, dat is 20% meer. WOW.

Bovendien, als je zuinig wil zijn, koop je andere onderdelen, als je top prestaties wil kost dat wat.
volgens mij gaat de kern van mijn post langs je heen.
"waar ik over struikel is het energie verbruik groei tov de vorige generatie", wat is anders de kern van je post?

En wat noem je 'standaard'? Een standaard systeem voor een standaard gebruiker die ook gamed, kan volgens mij nog steeds af met een voedig van 550 Watt of minder. Dan heb je een goede midrange CPU en GPU.

En als ik ff wat rondkijk is de aangeraden PSU voor zelfs een 4090 'maar' 850W, dus waar jij die 20% extra vandaan haalt? (Nog afgezien dat misschien 1% van de mensen zo'n kaart kan of wil betalen)
de kern is dat de nieuwe generatie CPU en GPU meer energie verbruiken dan de vorige generaties en dat dit een trend lijkt die ook andere opmerken. advies qua voeding voor een 4090 begint bij 850w link waar dit voor de 3090 nog 750w was link verbruik rtx 3090 350w, rtx 4090 450w.

850w advies, minimaal maar bij andere advies 1000w

Daar haal ik dus de 20% vandaan, van MSI.

waar iemand zijn centjes aan wil besteden is aan ieder. maar de trend lijkt mij duidelijk.
In je auto gaat straks 70 kWh..
Wat je hier zit is het piek verbruik. Dat wil zeggen: de hoeveelheid stroom die ze trekt (hoe snel je accu leeg is of hoe zwaar de voeding moet zijn). EN ook de hoeveelheid warmte die ze opwekt en weggekoeld moet worden. Daar moet je dan ook de reken-prestaties tegenover zetten. Hoe zijn die? Wat is het vebruik ten opzichte van de performance?

Dat hier meer piek-energie verbruik wordt vermeld houdt naar mijn idee in dat ze ook meer performance biedt en dat mogelijk ook langer kan volhouden.

Voor zover ik kan zien zijn deze cpu-s vooral gericht op de performance met daarbij een wat meer energie verkwistende en warmte genererende stand. Wil je zuinigheid omdat je minder warmte wilt wontwikkelen of omdat je minder energie wilt gebruiken, ga dan voor de laptop-versies.
Maar niemand is verplicht die energie slurpende componenten te kiezen, er zijn genoeg alternatieven die niet zoveel stroom verbruiken, en dan heb je gewoon meer dan genoeg aan een 650 PSU.

Dat hoge energieverbruik komt denk ik door de grote concurrentie tussen AMD en Intel op dit moment, als AMD niet hun cpu's uitbrengen met die hoge wattages, en Intel doet dat wel, schreeuwd Intel van de daken dat ze sneller cpu's hebben, en vice versa hetzelfde.
je kunt ook gewoon geen computer kopen. dan bespaar je het meest.
mijn opo gaat over het toenemende energie verbruik trend. hoe sluit jouw reactie daar op aan ? je bent niet verplicht te reageren.
Ik heb een Coolermaster psu van 1000watt bronze die ik nu al meer dan 10 jaar gebruik. ;)
In het geval van AMD zijn het enkel de X versies met hoger verbruik, voor de benchmark fanboys.
Voor een goede vergelijking moet je naar de prestaties per watt kijken. Ook idle verbruik is belangrijk. Als het idle verbruik hetzelfde of zelfs lager is dan maakt het maximale verbruik ook minder uit, vooral het onder load de prestaties per watt hetzelfde of beter zijn dan de vorige generatie.

Kortom het is allemaal relatief. Dat een nieuw CPU x % meer stroom verbruikt dan de vorige generatie is alleen een probleem als de extra verbruik niet evenredig is aan de extra prestaties.
Super dat er op bijna alle core-hoeveelheden nu ook 65w-opties zijn. Ik zou echt geen cpu kopen die 150w verstookt, totaal onnodig. Nu zijn er nieuwe alternatieven.
Je kunt de X modellen prima in ECO mode draaien. Tweakers heeft er zelfs een review van geschreven review: AMD Ryzen 5 7600X en Ryzen 9 7900X - Mét Eco-Mode en koelertests
Zeker, maar je kunt de non X varianten ook op dezelfde watt en kloksnelheden als de x varianten, dus het is mooi dat ze eraan komen, dezelfde cpu's voor minder geld.
Daar kun je zeker niet zonder meer vanuit gaan. Die chips worden gebinned op hun beoogde doel. Op deze 65W sku's zitten dus energiezuinige chips, wat in processoren doorgaans chips zijn die juist geen hoge kloksnelheden halen.

Dit zag / zie je bij de 2-chiplet SKU's ook altijd, er was steevast 1 chiplet die "hard" kon maar klok-voor-klok meer verbruikte dan de zuinige chipset die dan weer beduidend lager kon boosten.
In mijn geval met mijn ryzen 5 5600 is dit dus totaal niet het geval, die haalt dezelfde kloksnelheden als de x variant, precies hetzelfde verhaal was met mijn vorige ryzen 5 3600, die haalde ook dezelfde snelheden als de x variant, op dezelfde voltages.
Buiten dat dit N=2 is, is het weldegelijk zo dat het verschillend silicon met andere karakteristieken is. Dat je het ‘haalt’ betekent nog niet dat je dezelfde stabiliteitscritetia haalt als waarop AMD certificeert, en bovendien is het zover ik weet onmogelijk hem dezelfde boost- en voltage-karakteristieken als de X varianten te laten volgen, gezien je handmatig aan het overklokken bent.

Als AMD niet zou hoeven binnen om exact dezelfde karakteristieken te waarborgen, zouden ze het uiteraard niet doen. Dat deze efficiency chips voor minder worden verkocht zegt je al genoeg over het feit dat ze ze dus niet in de duurdere SKU’s kwijt kunnen.

Als de chips het hadden aangekund, had AMD ze uiteraard ook naar 5.6GHz laten boosten. Beter voor sales. Single-core boost valt immers ver binnen het TDP. Dit alleen al zegt je voldoende.

[Reactie gewijzigd door Boxman op 24 juli 2024 14:42]

Het is heel makkelijk om de non-x variant dezelfde boost en voltage karkteristieken als de X variant te laten volgen, zet in de pbo settings de mhz offset op +200 mhz, en laat de max tdp op stock, dan is je ryzen 5 5600 precies dezelfde cpu als een 5600x zonder pbo mhz offset.

De 5600x is trouwens ook een 65w sku, net als de 5600 non-x variant, dus het is wel een beetje een ander verhaal dan we nu zien met de 7600x vs 7600 non-x.

[Reactie gewijzigd door Vlizzjeffrey op 24 juli 2024 14:42]

Zucht. Geen zin er echt verder op uit te wijden, dus condenseer ik het even hierin:

Stel je zet de x-variant op +200MHz, gaat de non-x dat dan ook halen en hoe denk je dat voor elkaar te krijgen?

Het is ander silicon. Jij bent in je eentje niet slimmer dan het hele binproces van de multi-miljard coorperatie AMD.
De echte vraag is, is het ander silicon, of is het dezelfde silicon met een betere prijs-prestatie om weer competitief te zijn tegen Intel hun nieuwe lijn.
Het antwoord op die vraag is nu al meermaals gegeven. Het is ander silicon. Binning is geen mythe.
Denk dat de 65W TDP in de praktijk echt wel tegen de 100W aan gaat zitten. TDP is geen harde powerlimiet meer.

Ben wel benieuwd - gezien het geringe verschil van $30 - naar de performance verschillen tussen de 8-core 7700X en de 12-core 7900. Krijg je voor die +10% euro's ook +10% meer performance?
In de praktijk gebruikt mijn 65 watt tdp ryzen 5 5600 nooit meer dan 73 watt, dus het komt in mijn geval aardig overeen.
Dat zal natuurlijk heel erg afhangen waar je de performance nodig hebt.

Op single core is de 7700X op papier met base clock sneller al heeft de 7900 ook wel weer dezelfde boost (toekomstige benchmarks zullen dan wel gaan vertellen wat sneller is).

Op multicore zal 12x 3,7 GHz (44,4 GHz) sneller zijn dan 8x 4,5 GHz (36 GHz) waarbij er er dan vanuit ga dat er geen boost gebruikt wordt op het moment dat je alle cores volledig belast.

Erg benieuwd naar komende benchmarks en het zal mij benieuwen of er dan genoeg winst is t.o.v. een 3700X om een upgrade voor mij te verantwoorden.
en de praktijk toont aan dat je dus helemaal mis bent.... TDP is geen harde power limiet meer idd dat is nu de PPT limiet, maar AMD houd het nog binnen een beperkte rage. Nogal een verschil met Intel om toch maar die hoge benchmark scores te halen for the record. Helaas heeft AMD met De 7000 X series een zelfde idee gebruikt.

de meeste cpu blijven dus netjes binnen de marges, enkel voor benchmarking gaan ze er veelal buiten
Is TPD, zegt alleen indirect iets over verbruik, maar eens zuinigere, non-X varianten zijn voor meeste mensen meer dan snel genoeg!

Ik hoef ook geen CPU die 10% sneller is maar wel 50% meer stroom verbruikt, niet het verbruik zelf is een probleem, dat is meestal een moment opname, meeste tijd is CPU niet volbelast, maar je hebt dan wel weer een moederbord en zwaardere voeding nodig die de hogere piekstromen aankan, en dat maakt je systeem weer extra duur, ben je voor 10% meer piek snelheid, 300 euro of zo extra kwijt, is meer dan kwart budget voor een PC (mijn budget is tussen 750 en 1000 euro voor een PC, weiger om meer uit te geven).
Zo'n CPU verstookt alleen 150 Watt als alle cores vol staan te draaien.
Dat is vrijwel nooit zo. Voor huis-tuin-en-keukengebruik zal een CPU voornamelijk idle zijn.
Ik snap eerlijk gezegd de prijzen van de non-X varianten niet zo goed. Een paar tientjes verschil? Als ik toch al een nieuwe PC ga kopen, dan neem ik ook gelijk een processor erbij waarmee ik ook nog eens van de hitte broodjes mee kan bakken.

De grootste bottleneck blijft toch wel de prijs van moederborden. Dan praten we nog steeds over een vanaf prijsje van 329 euro.
En de prijs van degelijk DDR5 geheugen wat ook flink duurder is dan DDR4. Je bent al snel het dubbele kwijt voor dezelfde hoeveelheid geheugen. 330 voor je moederbord, 200 voor je RAM, blijft amper budget over voor de CPU zelf :+
Er zijn al behoorlijk wat kitjes in prijs gezakt. Je hebt 2x16 6000mhz voor minder dan 200 euro.
Als je 220 euro uit wilt leggen, heb je 6400mhz met een true latency van 10ms uitvoering: G.Skill Trident Z5 F5-6400J3239G16GX2-TZ5S

Voor een paar 10tjes meer heb je dus gewoon DDR5 in je systeem. Alleen het moederbord is dan nog wel flink duurder.

EDIT: Ik zie dat DDR4 enorm in prijs is gedaald. Dus het scheelt wel behoorlijk wat. Maar wellicht is het de ~250 euro meerprijs (ram + mobo) alsnog wel waard als je een nieuw systeem bouwt omdat je later je cpu weer kunt upgraden.

[Reactie gewijzigd door joost00719 op 24 juli 2024 14:42]

Maar als je vandaag alles nieuwe moet kopen is het de meerkost mogelijks wel waard aangezien je anders binnen enkele jaren weer alles kunt vervangen en nu, met AM5, mogelijks een upgradepad hebt binnen enkele CPU generaties.
Precies.
Echter zou ik een bestaand systeem niet upgraden naar AM5. Dan is een 5800X3D misschien interessanter en dan wachten op AM6
Maar als je vandaag alles nieuwe moet kopen is het de meerkost mogelijks wel waard aangezien je anders binnen enkele jaren weer alles kunt vervangen en nu, met AM5, mogelijks een upgradepad hebt binnen enkele CPU generaties.
Hoeveel mensen doen dat in praktijk eigenlijk? Ik vervang mijn CPU's nooit want dat is tegenwoordig nooit meer de bottleneck. Als ik een nieuwe PC wil is dat typisch omdat ik meer RAM wil of een nieuwe connector wil gebruiken (bv M2). Tegen de tijd dat er echt iets te winnen valt op het gebied van CPU wil ik eigenlijk al niet meer investeren in het systeem.

Komt ook nog bij dat een CPU vervangen niet zonder risico is, een keertje uitschieten met je schroevendraaier of de koelpasta kan snel een dure grap worden. Alleen al een CPU-koeler vervangen die met uitgedroogde pasta aan de CPU zit vastgelijmd kan al een uitdaging zijn. Daar heb ik slechte ervaringen mee. Bij een systeem van zeg 5 jaar oud heb ik dus meer de neiging er van af te blijven tot ik in een keer mobo + cpu kan vervangen. Voor de meeste mensen voldoet iedere CPU van minder dan 5 jaar oud in vrijwel alle gevallen.
Niet fundamenteel maar wel praktisch is dat je ook nog eens de júiste CPU moet aanschaffen. Socket is niet het hele verhaal, je hebt ook een compatibele chipset en bios nodig en dat gaat niet automatisch goed.
Als je het stroomverbruik meerekent is de aanschaf van een oudere CPU ook minder aantrekkelijk dan je op grond van de aanschafprijs zou kunnen denken.

Een CPU upgraden zou ik echt alleen doen als ik toevallig de ideale CPU kan krijgen voor een hele vriendelijke 2e hands prijs. Dan nog zou ik me afvragen hoeveel ik er van zou merken in de dagelijkse praktijk.

Toch lees ik onder ieder CPU artikel iets over (bv) de lange levensduur van AM4 terwijl het volgens mij netto nog steeds maar één "upgrade generatie" lang is. AM4 is uit 2017/2018. Als ik zo'n systeem zou moeten upgraden zou ik eerst een M2 SSD willen voordat de ik de CPU ga vervangen. Dan heb je al snel een nieuw moederbord nodig. Of zo'n insteekkaart maar die zijn weer vrij duur in verhouding tot de prijs van een heel nieuw mobo.
Tja, in theorie kun je een nieuw mobo kopen en je oude CPU en RAM hergebruiken maar die optie hoor ik nooit langs komen in de comments.

Misschien ligt het aan mij. Zijn er mensen die wel eens (alleen) een CPU upgraden?
Wel ikzelf heb op een vrij ideaal moment (01/2020) een 2600 gekocht voor €125, met een B550 mobo en ram die 3600 kan. Die werd anderhalf jaar later verkocht voor €90 en vervangen door een 5800X.

Maar dat kan je wat mij betreft alleen hard maken als je écht een capabele placeholder cpu kan scoren en je geen premium moet betalen voor de andere componenten.
Ik heb meer moederborden dan CPU's aangeschaft voor mijn desktops. Verder maximaliseer ik meestal de hoeveelheid RAM in mijn systemen.

Een CPU upgrade heb ik zelf nooit gedaan, omdat ik dat niet zo interessant vind. Maar ik kan wel begrijpen dat het afgelopen jaar veel mensen hun CPU geüpgradet hebben, omdat er eindelijk betere prestaties geleverd worden. Nu gaat het waarschijnlijk weer een jaar of 5 duren, voordat er weer significante prestatieverbeteringen merkbaar zijn.
Dat zal van je gebruik afhangen maar als je echt €250 legt om binnen x jaar je cpu te kunnen upgraden is het waarschijnlijk beter om meteen vandaag de dikste te nemen op AM4 óf het geld op zak te houden voor binnen 5-10 jaar
Het probleem is dat de concurrentie moordend is. 330 voor je moederbord, 220 voor je RAM, dan geef je er al zoveel geld aan uit dat de enige chip die je daar op gooit de dure Ryzen 9, want een Ryzen 5 ga je hier niet opdoen als je moederbord al meer kost dan je chip zelf. Het idee van later upgraden is dan weer wel een groot voordeel, echter moeten we ook niet vergeten dat met AM4 de 5000 serie alleen wou ondersteunen op 500 serie moederborden totdat mensen daar heel boos op werden :+

Als je een i5-13600KF koopt welke nu 299 is in de pricewatch, 100 euro voor het DDR4 geheugen en 180 euro voor een Z690 moederbord en die maakt gehakt van een Ryzen 5, ook van je energierekening :+ . Tegen de tijd dat je de i5 met pensioen doet is het AM5 platform alweer vervangen voor AM6 (AMD heeft gezegd dat ze AM5 zullen ondersteunen tot ten minste 2025)
Het probleem is dat de concurrentie moordend is. 330 voor je moederbord, 220 voor je RAM, dan geef je er al zoveel geld aan uit dat de enige chip die je daar op gooit de dure Ryzen 9, want een Ryzen 5 ga je hier niet opdoen als je moederbord al meer kost dan je chip zelf.
Ik snap het gevoel maar dat zit tussen de oren. Het idee dat je CPU duurder moet zijn dan je mobo is niet meer dan een gewoonte. Uiteindelijk heb je die hele kist nodig. Ik heb een systeem gehad waarvan de voeding duurder was dan de CPU.

Een duur mobo moet geen excuus zijn om een dure CPU te kopen die je niet nodig hebt alleen voor het gevoel. In een game systeem is het overigens heel gewoon dat de GPU duurder is dan de CPU. Misschien kan dat het gevoel een beetje helpen.
Mijn i920 was ook cheaper dan de mobo en vaak neem ik 1st de g-kaart nog over van de vorige build waarbij vaak ook generatie of paar oversla.
Dus vaak is er bij mij ook cpu gpu onbalans, maar dat is niet erg. Het wordt bij de next g-kaart upgrade recht getrokken.
Ik investeer liever meer in de componenten die lang mee gaan.
Monitor case voeding .
Vooral monitor.
Zodra de 3D-varianten er zijn van de Ryzen 7000's wordt latency ook minder een probleem. Meer cache betekent minder cache misses, en minder cache misses betekent minder invloed van hoge latencies en lage bandbreedte op prestaties. Dan kun je ineens gewoon het goedkoopste DDR5-geheugen pakken met 4800MT/s en 16ns latency.

[Reactie gewijzigd door bwerg op 24 juli 2024 14:42]

De grootste bottleneck blijft toch wel de prijs van moederborden. Dan praten we nog steeds over een vanaf prijsje van 329 euro.
Ik heb onlangs een AM5 moederbord gekocht voor 200 euro dus je moet denk ik even je informatie updaten.
Maar ik snap je opmerking op zich wel dat die paar tientjes op een CPU/moederbord combi van dik 400 euro relatief weinig uitmaakt. Je kan het echter ook van de andere kant bekijken. Als je het toch niet nodig hebt waarom zou je het dan uitgeven. Ik ben voor mijn game PC uiteindelijk voor een 7600X gegaan en niet een 7700X. Als je prijs/performance er bij pakt van de CPU+mobo niet per se een hele logische keuze. Maar aan de andere kant, ik heb het toch niet nodig dus waarom zou ik ik een 7700X kopen.
Ik denk dat er mensen zijn die nu ook hetzelfde denken als je de 7600 en de 7600X naast elkaar zet. Het verschil is minimaal. Dus als je toch niet gaat overclocken waarom niet gewoon een 7600.
Die 100 Mhz in de boostklok zal je waarschijnlijk in de praktijk niet snel merken tenzij je benchmarks gaat draaien. De voornaamste vraag zal zijn of de X-versies van de 7600/7700 hun boostclock ook kunnen aanhouden, of dat er daarin een groter verschil is dan dat enkel die 200, respectievelijk 100 Mhz hier aangeven. Die verschillen zijn namelijk verwaarloosbaar.

Die 170€ minder voor een 7600 vs een 7700X maakt het een leuke CPU met het idee het een jaartje of 3 uit te kunnen houden en t.z.t. een mooie X3D CPU te kopen op AM5.
Je kan het ook andersom zien. De stap van een 7600x naar 7700 is hiermee ineens een stuk kleiner geworder, waardoor je juist voor een paar tientjes meer cores krijgt.
Je kan als tientjes kijken of naar procenten. Het gaat hier al snel om tientallen (70 / 299 = 23%). Qua dat is ruim een vijfde minder vind ik een significant verschil.

Ook voor mensen met een wat kleinere buidel is een dergelijk verschil noemswaardig (ook al is het de vraag of mensen die krap bij kas zitten een DDR5 platform kopen).
Nou, "329 euro", de socket AM5 moederboden beginnen bij 185 euro: categorie: Moederborden

[Reactie gewijzigd door lordawesome op 24 juli 2024 14:42]

Groot gelijk dat die mobos goedkoper moeten worden.
Cpu's zijn de laatste jaren beetje duurder geworden, das normaal. Maar die mobos zijn gewoon teveel duurder geworden.
Waar kan ik nog een mobo vinden tussen 100- 150 euros?
Zijn dit dan niet leuke thuis server CPUs. Omdat ze wat lager zijn in het verbruik.
ik vrees van niet, kijk eens naar het idle-verbruik van de X varianten... valt tegen.
Het verbruik van de CPU is het probleem niet, vooral de nieuwe high-end chipsets verbruiken vooral veel. Typisch scoren chipsets met zo min mogelijk features veel beter in idle. Al die (vaak ongebruikte) interfaces voor PCIe, USB, etc. verbruiken allemaal toch wat.

Al verbruiken de CPU's met 2 CCD's (7900X of hoger) idle wel meer dan hun broertjes met 1 CCD, maar voor "thuisservertje" zou ik niet aan 16 cores denken.

[Reactie gewijzigd door bwerg op 24 juli 2024 14:42]

Is dan bijvoorbeeld een core i3-12100 niet veel aantrekkelijker?
Voor iets dat 24/7 aan staat zou ik eerder naar 35W cpu's kijken. Hoge kloksnelheden zijn in veel gevallen niet zo interessant.
Een 65 Watt TDP is aanzienlijk lager dan de X versies.
Ik wacht nog op de A620 moederborden want ik vind de huidige B650 moederborden nog iets te duur voor combinatie met een 6 core CPU.
Ik hoop dat ze de A620 moederborden snel uitbengen.
Ze pieken wellicht wel stuk hoger als ze volledig belast worden. En als je dat lang doet vallen ze wellicht (eerder) terug dan de x varianten om binnen het verbruiks/thermal limiet te blijven.
Ze moeten die chipset prijzen verlagen. Toen koste een x50 tussen de 70-180 euros. Nu minimaal 200+.
En wil je PCIe 5 dan kost het 300+. B650e mag max eigenlijk maar 200 kosten, dan is ie al duurder van vorige generatie.
Spijtig dat AMD niet met een Ryzen 3 7400 komt en dus de markt van de instap-pc's blijkbaar niet meer belangrijk vindt. Daar is nu Intel heer en meester met hun Celeron's en Pentium's. Zelfs een i3-tegenganger heeft AMD niet meer.

Zen 3 heeft enkel de 5400G voortgebracht en dat was een OEM cpu. Zen 4 zie ik dezelfde weg ingaan.

Ik begrijp wel dat AMD i.t.t. Intel een veel beperktere productiecapaciteit heeft en dus de processors produceert waar de winstmarge het grootst is, terwijl Intel alle markten wil en kan bedienen (omzet), maar aangezien 75% van alle computergebruikers voldoende heeft aan een quad core cpu met IGP, zorgt AMD er op die manier wel voor dat gewone consumenten nog altijd niet goed weten dat er naast Intel ook AMD bestaat, want op hun goedkope huis-tuin-keuken-PC hangt bijna altijd een Intel sticker en daar zijn ze tevreden van en dus kopen ze altijd een computer-met-een-Intel-sticker.
Je kunt wellicht beter een goedkope mid-range CPU nemen van de vorige generatie dan een nieuwe budget CPU van de huidige generatie. Dat lijkt toch een beetje de strategie van AMD te zijn. Het heeft natuurlijk ook niet zoveel zin op dit moment om een Ryzen 3 7400 uit te brengen wanneer de AM5 moederborden en het RAM behoorlijk aan de prijs zijn.
Ik ben wel met je eens.
Amd wilt gewoon oude stock cpu's nog verkopen en ook hun ouwe mobo's met 500 serie chipsets.

Waarom hadden ze de nieuwe chipset ook niet gewoon 700 serie kunnen noemen? Ga je full Amd en heb je allees wat begint met 7, cpu 7000, gpu 7000 en chipset 700, in plaats dat alleen chipset 600 is.
Is wel mooier voor je systeem. :D
AMD en Intel hebben chip productie keuzes gemaakt en dan hebben bepaalde producten zin en andere niet.
Met monolitisch i3 design commit je aan markt met eigen fabs. Van het is niet van willen maar dan moet je die markt pakken. AMD chiplet elke sku concurreert met elkaar van ryzen 3 5 7 9 TR-pro tot Epyc. Dus AMD moet preoriteiten stellen.
Dan is low R3 vs Epyc resouces verspilling.
Als commercieel achterlijk.
Als je in de markt ben voor R3 of i3 dan moet je bij intel zijn. Klaar.
Ik als voor keur AMD.
Ipv elk jaar of 2 jaar een R3 i3 upgrade te doen. Gewoon even doorsparen en upgrade cyclus vergroten tot R7 of Treadripper. En dan paar gen overslaan. Zen1 TR hier en die verving een i920. PhenomII X4965 is vervangen door Mac mini en dat was al jaar of meer terug.
DDR5 en vooral moederborden (type micro-ATX) moeten drastisch goedkoper om een doorbraak te forceren. Ik zou zeggen een basic micro-ATX rond de 75 euro en een basic ATX rond de 120 euro en een basic mini-ITX rond de 150 euro is voor mij een psychologische grens.
Komt vanzelf, nu zijn de high end X processoren en bijbehorend moederborden gelanceerd, en de bijbehorende prijs.

Nu de non-X varianten komen, zullen goedkopere moederborden ook snel volgen, en hopelijk ook een instap 610 variant!
Dus eigenlijk 7xxx-X standaard in ECO mode?
Ik heb eigenlijk wat korte vragen over boost snelheden

Wat zijn eigenlijk boost snelheden? M.a.w. in welke use cases komen boost snelheden van pas? Heeft het voordelen bij het gamen? Of iseen boostsnelheid voor simpele kortstondige task? Of kan een CPU met adequate koeling (en geen throttling) boost snelheden voor een langere duur vasthouden? En gelden deze boost snelheden voor alle cores of wordt slechts 1 core "geboosed" Ik gok op 1 core, want anders lijkt het mij bijzonder dat de TDP van een X en Non-X zo extreem verschillen.
Benchmarks zullen ook wel uitwijzen, benieuwd wat het verschil is tussen 5600, 7600 en 7600X


Dat gezegd te hebben. Als de 7600 (non-x) komend jaar nog daalt naar €200 zie ik voor mijzelf een budget/eco gaming desktop voor 2023 :)

[Reactie gewijzigd door seez op 24 juli 2024 14:42]

Ik zou zelf voor een 65 watt CPU gaan in de 7000 serie, maar ik heb meer problemen met de prijzen van de
AM5 moederborden dan de CPU's.
Goedkoopste die ik op pricewatch vind is 185 euro. Dan wil ik een mini-itx formaat met spdif audio poort. dan ga je naar 340 euro, dat vind ik wel een beetje gortig voor een MB. Hopen dat er snel goedkopere varianten komen.

Op dit item kan niet meer gereageerd worden.