De Ryzen 5 5500 lijkt wat specificaties betreft veel op de 5600, maar is gebaseerd op een heel andere chip. Die is eigenlijk bedoeld voor apu's, al is de igpu bij dit model uitgeschakeld. Vooral de gamingprestaties vallen daardoor tegen, maar ook in andere software is het prestatiebeeld soms wisselvallig.
De Ryzen 5 5600 lijkt veel meer op de 5600X en is gemiddeld dan ook maar 5 procent langzamer. Toch heeft de 5600 het zwaar te verduren van met name de Intel Core i5 12400F. Die is gemiddeld simpelweg wat sneller én wat goedkoper. Wel is de AMD-chip zuiniger.
AMD heeft in deze lente eindelijk een aantal goedkopere modellen in de Ryzen 5000-serie geïntroduceerd. De Ryzen 5 5500 en 5600 lijken als je de specificaties bekijkt, vrijwel identiek, met evenveel cores en dezelfde tdp. In onze tests blijken ze toch duidelijk anders te presteren.
Ryzen-droogte in het budgetsegment
De oorspronkelijke Ryzen 5000-serie voor desktops, bestaande uit vier modellen, kwam alweer in november 2020 op de markt. Hoewel we enthousiast waren over de prestaties van de chips, verzuchtten we toen al dat de Ryzens geen 'budgetkoningen' meer waren, nu de instapper al meer dan 300 euro moet opbrengen. In de voorbije anderhalf jaar is de prijs van de Ryzen 5 5600X zo'n 80 euro gedaald en verscheen de iets goedkopere 5600G ten tonele, maar AMD liet de markt onder de 200 euro in feite geheel aan zijn concurrent Intel. Dat deed bij de prijsbewuste kopers toch zeer, juist omdat zij AMD in het pre-Zen-tijdperk de winter door hebben geholpen.
Zes nieuwe modellen moeten een einde maken aan de Ryzen-droogte in het budgetsegment, al zijn de drie goedkoopste nog gebaseerd op oude Zen 2-cores. Van de uitvoeringen met een moderne architectuur zijn de Ryzen 5 5500 en 5600 die we in dit artikel reviewen, de goedkoopste. De 5500 kost op het moment van schrijven 165 euro; de 5600 haal je vanaf 209 euro in huis.
Vrijwel identiek aan de oppervlakte, stiekem totaal anders
Als je de specificaties bekijkt bij de gemiddelde webshop, dan lijken de Ryzen 5 5500 en 5600 alleen van elkaar te verschillen wat hun kloksnelheden betreft. De 5500 heeft een 100MHz hogere baseclock, de 5600 een 200MHz hogere boost. Eén andere spec springt in het oog: de hoeveelheid L3-cache. Die is dubbel zo groot bij de Ryzen 5 5600 en dat is een indicator dat er een totaal andere chip wordt gebruikt.
Een Vermeer-chip met losse core- en i/o-dies zoals gebruikt voor de Ryzen 5 5600 en 5600X (links) en een monolithische Cezanne-chip zoals gebruikt voor de Ryzen 5 5500 en 5600G. Bronnen: AMD, Fritzchens Fritz (Flickr). Bewerking door Tweakers
De Ryzen 5 5600 is technisch gezien namelijk een broertje van de 5600X. Hij heeft dezelfde opbouw, met een i/o-die en een ccd van acht cores, waarvan er zes zijn ingeschakeld. In die ccd zit ook een door alle cores gedeelde L3-cache van 32MB. De Ryzen 5 5500 is daarentegen gebaseerd op de monolithische Cezanne-chip, die we kennen van laptopprocessors en de 5600G en 5700G voor desktops. Die heeft dus de helft minder L3-cache, maar ook slechts de helft van de PCI Express-bandbreedte, doordat alle lanes beperkt zijn tot PCIe 3.0-snelheid. Zowel videokaarten als ssd's hebben dus minder ademruimte.
Zoals je kunt zien aan het ontbreken van het achtervoegsel 'G', is de geïntegreerde gpu waarover Cezanne beschikt, bovendien gedeactiveerd bij de Ryzen 5 5500. Fysiek is die wel aanwezig; AMD kan dit model dus gebruiken om chips van dit type met een defect in de gpu alsnog te verkopen.
Doordat de 5600X al zo lang op de markt is, valt het wel mee hoeveel goedkoper de 5600 zonder X is. Het verschil is op het moment van schrijven 25 euro. De 5500 kost nog eens 40 euro minder; je zou dus kunnen stellen dat ook de prijs een indicatie is dat er meer verschilt dan je op het eerste gezicht ziet. Wat het effect daarvan in de praktijk is, zoeken we op de volgende pagina's uit.
Testverantwoording
We hebben alle courante, enigszins vergelijkbare processors onlangs opnieuw getest. Daarvoor hebben we uiteraard de nieuwste versies van alle software gebruikt, inclusief Windows 11, biosversies voor de moederborden en gpu-drivers.
De mainstreamplatforms geven we 16GB per geheugenkanaal, dus in totaal 32GB. De kloksnelheid stellen we in op de officiële maximumsnelheid, zoals opgegeven door AMD of Intel.
Bij processors met een geïntegreerde gpu draaien we het gros van onze benchmarks zonder extra videokaart, terwijl we cpu's zonder igpu, zoals de meeste AMD Ryzens en Intel F-modellen, combineren met een Nvidia GeForce GTX 1650.
Gametests
Alle gamebenchmarks draaien we in combinatie met een van de snelste videokaarten van dit moment: een AMD Radeon RX 6900 XT. Dat doen we primair in full-hd-resolutie, 1920x1080 pixels, met Medium- en Ultra-settings. We kiezen juist voor de relatief lage full-hd-resolutie om de cpu waar mogelijk de bottleneck te laten zijn. Dit blijft representatief als er in de toekomst snellere videokaarten verschijnen die het knelpunt naar de processor laten verschuiven. Bij hogere resoluties, zoals 4k, ligt de bottleneck doorgaans volledig bij de videokaart. Wel testen we op verzoek twee games ook op een resolutie van 2560x1440 pixels, om te kijken of er op die resolutie nog verschil is tussen processors.
Stroomverbruik
Uiteraard meten we ook het stroomverbruik van de processors. Onze meetmethode daarvoor is gebaseerd op de stroom die door de EPS- en ATX-kabels naar het moederbord loopt en die we onderscheppen met behulp van Tinkerforge-hardware. Door uitsluitend het vermogen van de processor te meten, geïsoleerd van de rest van het systeem, kunnen we een appels-met-appelsvergelijking maken. Daarbij rapporteren we de mediaan van zowel het verbruik via de EPS-kabels, cpu-only, als het totale verbruik inclusief het moederbord. We noteren het stroomverbruik idle, gemiddeld over vijf minuten, en tijdens drie soorten belasting: tijdens een Cinebench R23-run, multithreaded uiteraard, tijdens het renderen van een video in Adobe Premiere Pro en tijdens een game: Metro Exodus op 1080p-resolutie met Ultra-settings.
Welke testgegevens het relevantst zijn voor jou, verschilt naar gelang je gebruiksdoel. Installeer je als gamer bijvoorbeeld toch al een losse videokaart, dan is het vergelijken van alleen het cpu-verbruik de meest logische route. Zou je daarentegen genoeg hebben aan geïntegreerde graphics of moet je cpu's die dat niet hebben, voorzien van een videokaart om beeld te krijgen, dan kan het totale platformverbruik relevanter zijn.
Foto- en videobewerking
Fotobewerking testen we met het Adobe Photoshop CC-pakket, dat zo populair is dat 'fotoshoppen' als werkwoord de Van Dale heeft bereikt. We draaien een opgeslagen 'action', of 'handeling', in de Nederlandstalige versie, die diverse soorten effecten, bewerkingen en transformaties bevat.
In Adobe Premiere Pro CC renderen en exporteren we een videoproject. Het bronproject is een Tweakers Tech Hub-aflevering, bestaande uit 4k-camerabeelden, die we exporteren met een variabele bitrate van 20 tot 40Mbit/s. De speelduur van de video is 13 minuten en 51 seconden.
In DaVinci Resolve renderen we een video opnieuw naar 4k met de H.264-codec. De bronbestanden zijn vier streams van 1080p, die in een mozaïek worden samengevoegd tot een enkele 4k-stream. De bitrate ligt met 80Mbit/s flink hoger dan bij Premiere en uiteraard worden ook weer effecten als kleurcorrectie en camerastabilisatie toegepast.
De Ryzen 5 5600 benadert de 5600X in alle drie de tests zeer dicht; in Photoshop is de 5600X zelfs maar een seconde sneller. De 5500 geeft 7 à 8 procent toe op de prestaties van de 5600.
Video- en audiocodering
Op deze pagina vind je de prestaties tijdens het omzetten van video en audio. De H.264- en HEVC-codecs testen we met de StaxRip-encoder. In beide gevallen converteren we een 4k-mp4-video met een framerate van 60fps, een bitrate van 8Mbit en een bitdiepte van 8bit. In de tweede benchmark converteren we dezelfde video met behulp van de H.265-codec. Beide benchmarks voeren we drie keer uit, waarna we de gemiddelde score noteren. Voor de audioconversie zetten we een FLAC-bestand van een uur om in een WAVE en noteren we de tijd die dit kost.
In de x264-test, waarvan we weten dat die vrij goed schaalt met kloksnelheid, cores en cache, zien we de grootste verschillen tussen de 5600X, 5600 en 5500. De Ryzen 5 5600 laat bijna 11 procent prestaties liggen ten opzichte van de 5600X, de 5500 scoort nog eens bijna 27 procent lager dan de 5600. Met de x265-codec bedraagt het complete verschil tussen de 5600X en 5500 nog geen 6 procent, en is de 5600 amper langzamer dan de 5600X. In FLAC doen de Intel-processors het relatief wat beter, waardoor de 5500 zelfs de Core i3 12100 voor moet laten gaan.
3d-rendering
Cinebench is de benchmarksoftware die hoort bij de Cinema4D-rendersoftware. Je kunt deze benchmark gratis downloaden en eenvoudig zelf draaien, in zowel single- als multithreaded modus. Mede daardoor is hij uitgegroeid tot een van de populairste cpu-tests. We draaien de nieuwste Cinebench 23.
Cinebench blijkt relatief ongevoelig voor de verschillen in opbouw van de diverse Ryzen 5's. In de singlethreaded test zit er nog 9 procent verschil tussen de 5600X en 5500, maar in de multithreaded test verdwijnt vrijwel dat volledige verschil. De 5600X, 5600 en 5500 scoren daar praktisch identiek.
Blender is een opensource-renderengine. Met deze software renderen we het Italian Flat-project, dat je hier kunt downloaden en dat een stuk zwaarder is dan de Barcelona Pavilion-render die we voorheen draaiden.
Ook in Blender zijn de 5600 en 5500 niet veel langzamer dan de 5600X.
Corona Renderer is een renderengine die beschikbaar is in Autodesk 3DS Max en Maxon Cinema 4D. Wij draaien de officiële Corona Benchmark, waarin een voorgedefinieerde scène wordt gerenderd. Je kunt de benchmark zelf gratis downloaden.
De Ryzen 5 5600 is in deze test zelfs marginaal sneller dan de 5600X, al zit het verschil van 2 procent op het randje van de foutmarge. Beide chips presteren vrijwel gelijk aan de Core i5 12400 van Intel. De Ryzen 5 5500 is in deze test een kwart langzamer dan de 5600.
We draaien de AIDA64-benchmarksuite integraal. Daarin komen diverse soorten computeworkloads en encryptiemethoden voor. Waar mogelijk worden instructiesetuitbreidingen als SSE en AVX ingezet. Verder meet dit programma hoe snel SHA-3-hashes kunnen worden berekend. Het hele testparcours draaien we drie keer, om eventuele variatie in resultaten op te vangen.
Zlib
AES
Hash
SHA3
Julia
Mandel
FP32 RT
FP64 RT
AIDA64 - Zlib
Processor
Gemiddelde doorvoersnelheid in MB/s (hoger is beter)
In de AIDA64-tests zijn de verschillen tussen de Ryzen 5's vaak erg klein. De 5600 weet zelfs regelmatig de 5600X te verslaan.
Webbrowsing en compressie
In de populairste webbrowser van dit moment, Google Chrome, draaien we de Jetstream 2-benchmark. Die kun je zelf terugvinden via browserbench.org. Vrijwel alle deeltests worden 120 keer gedraaid en de scores worden gemiddeld en gewogen. We voeren deze benchmark uit in Chrome 99.
Jetstream 2, en browsen in het algemeen, is vrijwel geheel singlethreaded. De 5600 en 5500 leveren daarom significant lagere scores af dan de 5600X.
Met 7-Zip comprimeren we 15GB, ruim drie keer zoveel als voorheen, aan willekeurig gegenereerde data met behulp van de 'fast compression'-instellingen tot een 7z-bestand en noteren we de tijd. We berekenen het gemiddelde van drie runs.
De Ryzen 5 5600 weet zich uitstekend staande te houden in 7-Zip; hij geeft slechts een paar seconden toe op de 5600X. De 5500 is 6 procent langzamer, maar wordt daardoor wel direct ingehaald door de Core i5 12400 en 11400 van Intel en AMD's eigen Ryzen 5 3600.
Games: Far Cry 6
Far Cry 6 is Ubisofts recentste firstpersonshooter in de Far Cry-serie, die al jarenlang draait op de Dunia-engine. Voor Far Cry 6 wordt daarvan versie 2.0 gebruikt.
De Ryzen 5 5600 laat op Medium 10fps en op Ultra 7fps liggen op de 5600X. De Ryzen 5 5500 scoort veel slechter en komt alleen nog boven de Core i3 10100 terecht.
Games: F1 2021
Het verschil tussen de Ryzen 5 5600 en 5500 is enorm in F1 2021. Op Medium-settings ga je van 317 naar 242fps, een afname van 24 procent. Het is het verschil tussen een plek boven en een plek onder in de grafiek. Ook op Ultra scheelt het nog altijd 18 procent. Waar de Ryzen 5 5600 de Intel Alder Lake-processors uit de middenklasse kan bijbenen, is de Ryzen 5 5500 in gevecht met de vorige generatie van Intel.
In Metro Exodus laat de 5600 opnieuw zien dat hij uit vrijwel hetzelfde hout gesneden is als de 5600X. Op Medium is hij 5 procent langzamer, op Ultra zelfs maar 2 procent. De Ryzen 5 5500 is tot wel 18 procent langzamer; hij weet ternauwernood de Ryzen 5 3600 te verslaan.
Op 1440p zijn de verschillen kleiner, maar zeker op Medium-settings blijven de onderlinge verhoudingen nog in stand. Pas op Ultra-settings gaan we echt richting het punt waarop de processor amper nog invloed heeft op de prestaties, al heeft de 5500 het zelfs daar nog moeilijk als we naar de frametimes kijken.
We benchmarken Red Dead Redemption 2, gebruikmakend van de Vulkan-api. Dit is een van de games die we behalve in full hd ook in 1440p-resolutie draaien.
1920x1080 - Medium
1920x1080 - Medium (99p)
1920x1080 - Medium (99.9p)
1920x1080 - Ultra
1920x1080 - Ultra (99p)
1920x1080 - Ultra (99.9p)
Red Dead 2 Redemption - 1920x1080 - Medium - Vulkan
Op 1080p-resolutie met Medium-settings loopt de Ryzen 5 5600 een achterstand van 9 procent op ten opzichte van de 5600X. De 5500 is maar liefst een kwart langzamer dan de 5600X. Op Ultra verdwijnt het verschil tussen de 5600X en 5600 vrijwel geheel, terwijl ook de 5500 nog maar 11fps langzamer is.
2560x1440 - Medium
2560x1440 - Medium (99p)
2560x1440 - Medium (99.9p)
2560x1440 - Ultra
2560x1440 - Ultra (99p)
2560x1440 - Ultra (99.9p)
Red Dead Redemption 2 - 2560x1440 - Medium - Vulkan
Op 1440p-resolutie zien we opnieuw prima scores van de 5600, terwijl de 5500 meer moeite heeft. Alleen op Ultra-settings vindt hij de aansluiting bij de rest van het testveld.
De Ryzen 5 5600 blijft dicht in de buurt van de 5600X; je mist 5 procent prestaties op Medium en zelfs helemaal niets op Ultra. De 5500 doet het veel minder goed en weet op Medium-settings nog net de Ryzen 5 3600 van de vorige generatie voor te blijven. Zelfs op Ultra-settings, waar veel moderne processors tegen een gpu-bottleneck aanlopen, komt hij net niet mee.
Games: streaming
In de streamingtest coderen we een videobestand met de x264-codec, terwijl het spel F1 2021 draait op een vaste snelheid van 60fps, om zo het streamen van gameplay te simuleren. Hiervoor gebruiken we de 'very fast'-kwaliteitsinstelling van de codec, met een bitrate van 6Mbit en een framerate van 60fps. We rapporteren een gemiddelde van drie runs. In feite geeft deze test een indicatie van hoeveel rekenkracht een processor overheeft naast het draaien van een game.
De Ryzen 5 5600 presteert marginaal minder goed dan de 5600X. De 5500 is echter nog duidelijk langzamer dan de 5600G, waardoor hij zelfs onder het niveau van de Ryzen 5 3600 zakt.
Streaming (x264 6Mbit + F1 2021 1080p ultra 60fps)
Om de prestaties van processors in één getal te vatten, hebben we op basis van alle benchmarkresultaten een index samengesteld: de Tweakers CPU Prestatiescore. Elke deeltest telt hierin even zwaar mee. Alleen de igpu-benchmarks hebben we weggelaten, omdat lang niet elke processor over geïntegreerde graphics beschikt. De index is door deze opzet een mix van tests die wel en niet schalen met bijvoorbeeld kloksnelheid, cache, aantal cores, smt/hyperthreading en andere factoren. Het is daarmee een realistische afspiegeling van het moderne softwarelandschap.
Ga je je processor primair gebruiken om te gamen? Dan kun je kijken naar de Tweakers CPU Gaming Prestatiescore, in feite hetzelfde concept, maar dan alleen op basis van de gamebenchmarks in combinatie met een losse videokaart.
Tweakers CPU Prestatiescore
De Ryzen 5 5600 weet de aansluiting bij de bestaande 5600X goed te vinden. Hij komt uit op 174 punten, slechts 4 procent lager dan de 5600X en Intels Core i5 12400. De Ryzen 5 5500 doet het met 156 punten veel slechter; in vergelijking met opnieuw de 5600X laat hij 14 procent prestaties liggen. Daarmee blijft hij maar net de Core i5 11400 en Core i3 12100 voor.
In games komt de Ryzen 5 5500 er nog bekaaider vanaf. In vergelijking met de 5600X loop je ruim 18 procent prestaties mis, wat hem zelfs langzamer maakt dan de Ryzen 5 3600. De Ryzen 5 5600 weet met 5 procent lagere prestaties dan de 5600X nog redelijk in de buurt te blijven. Toch is dat in vergelijking met Intel niet heel goed; de i5 12400 was al sneller dan de 5600X en dat verschil wordt dus alleen maar groter. De Core i3 12100 met vier cores komt zelfs zeer dicht in de buurt van de 5600.
Om je zoveel mogelijk context te bieden, rapporteren we het verbruik via de EPS-kabels (cpu) en via de ATX-kabel (moederbord). Over het algemeen omvat dat laatste verbruik de chipset, het geheugen en waar van toepassing de stroom die de videokaart uit het PCIe-slot trekt, telkens voor zover dat op de 12V-rail gebeurt. Bij sommige platforms wordt een secundaire rail van de processor via de ATX-stekker gevoed, waardoor het interessant wordt om het totale verbruik te bekijken. Het door ons gebruikte socket-1700-moederbord lijkt ook de cpu deels te voeden via de ATX-stekker. De complete meting van cpu en moederbord is dus het representatiefst en daarom tonen we die als eerste.
Stroomverbruik idle
Idle is de Ryzen 5 5500 met zijn monolitische Cezanne-chip wat zuiniger dan de 5600 en aanverwante, op Vermeer gebaseerde Ryzens. De 5600G en 5700G zijn in de meting met moederbord iets zuiniger, maar dat zal geheel voor rekening van de verplichte videokaart bij de 5500 zijn. De igpu is immers uitgeschakeld.
Cpu + moederbord
Cpu
ATX 12V
EPS 12V1
Stroomverbruik idle - CPU + moederbord - Mediaan 5 min.
Onder volle belasting komt de Ryzen 5 5500 uit op 66W; de 5600 laat 68W noteren. Dat is marginaal zuiniger dan de 5600X, maar wel duidelijk minder dan de Intel Alder Lake-chips uit de lagere klassen.
Cpu + moederbord
Cpu
ATX 12V
EPS 12V1
Stroomverbruik Cinebench R23 - CPU + moederbord - Mediaan
In Adobe Premiere Pro loopt de 5600 iets verder uit op de 5500. Opnieuw is dat zeer vergelijkbaar met de bestaande processors die op dezelfde chip zijn gebaseerd: de 5600G en 5700G in het geval van de 5500, en de 5600X in het geval van de 5600.
Cpu + moederbord
Cpu
ATX 12V
EPS 12V1
Stroomverbruik Premiere Pro - CPU + moederbord - Mediaan
Om te bepalen hoe efficiënt een processor werkt, meten we de totale hoeveelheid energie die hij nodig heeft om de benchmark Cinebench 23 MT af te ronden. Hierbij spelen dus zowel de tijd die de processor nodig heeft, en daarmee de prestaties, als het stroomverbruik een rol.
De relatief lage kloksnelheden van de Ryzen 5 5500 en 5600 leiden tot een hoge efficiëntie, zeker omdat deze cpu's het juist in Cinebench vrij goed deden.
Stroomverbruik Cinebench R23 - CPU + moederbord - Totaal
De efficiëntie in games geeft vaak een ander beeld, want dergelijke software belast doorgaans lang niet alle cores zo zwaar als bijvoorbeeld Cinebench. Om hier wat over te zeggen, delen we het vermogen dat de processor vraagt in de game Metro Exodus door de behaalde framerate, steeds op 1080p met Ultra-settings.
Ook in Metro Exodus zijn de Ryzen 5's lekker zuinig. Ze zijn dan wel niet zo snel als veel van de andere cpu's, maar verbruiken minder.
De temperaturen van de processors testen we met een be quiet Dark Rock Pro 4, een van de best presterende luchtkoelers die je kunt kopen. In het luxere segment is hij dan ook een van de populairste koelers in de Pricewatch.
Om te waarborgen dat de geboden koeling altijd identiek is en de temperaturen van verschillende processors dus vergelijkbaar zijn, laten we de ventilatoren van de koeler altijd op volle snelheid (12V) draaien. De gebruikte belasting is een vijftien minuten durende loop van Cinebench multithreaded. We loggen elke seconde de temperatuur van de cpu-package, de kloksnelheid (effectief de allcoreturbo) en het stroomverbruik, allemaal gebaseerd op de sensoren die in de processor zijn verwerkt.
De nieuwe Ryzen 5's worden geen van beide warmer dan 63 graden, wat een keurige temperatuur is. Ook de kloksnelheid is met 4,25GHz voor de 5500 en 4,29GHz voor de 5600 zeer vergelijkbaar. Dat is net wat hoger dan de 5600G en 5600X. De daadwerkelijke kloksnelheden trekken zich dus weinig aan van de specificaties die AMD opgeeft. Dat zagen we ook bij eerdere Ryzens; het Precision Boost-algoritme zorgt ervoor dat processors met dezelfde tdp en evenveel cores ongeveer hetzelfde klokken in multithreaded workloads.
Wat is nu de eerlijkste vergelijking om te maken met AMD's nieuwe Ryzen 5-chips? Voor verschillende vergelijkingen valt wat te zeggen, maar we kiezen op deze pagina voor de Core i5 12400F, de goedkopere versie van de i5 12400 die met een gedeactiveerde igpu wordt verkocht. Verder is hij identiek. Ook geen van beide nieuwe AMD-chips heeft een (actieve) igpu.
Alle drie de processors in onderstaande tabellen hebben zodoende zes cores en twaalf threads. De Core i5 12400F zit wat de prijs betreft precies tussen de Ryzen 5 5500 en 5600 in.
AMD Ryzen 5 5500
AMD Ryzen 5 5600
Intel Core i5 12400F
Configuratie
6C/12T
6C/12T
6C/12T
Prijs
€ 165
€ 209
€ 185
Let op: we houden bij alle percentages op deze pagina rekening met de vraag of een lager of hoger getal beter is. Een positief percentage betekent altijd dat het resultaat beter is en een negatief percentage dat het resultaat slechter is dan dat van de processor waarmee wordt vergeleken.
Processorbenchmarks
Gemiddeld komt de Ryzen 5 5500 iets onder de 12400F uit en blijft de 5600 erboven, maar de AIDA64-tests werken in dit geval wel erg flatterend voor AMD. Voor wie niet de hele dag aan het hashen is, hebben we ook een gemiddelde zonder de AIDA64-tests berekend, en daarin laten de 5500 en 5600 respectievelijk 16 en 7 procent liggen op de 12400F.
Behalve in heel wat AIDA64-tests, is de Ryzen 5 5500 alleen in DaVinci Resolve sneller dan de Core i5. De 5600 voegt daar kleine overwinningen of gelijke spelen in CoronaRender, 7-Zip en MozillaBuild aan toe, maar blijft in verreweg de meeste toepassingen langzamer.
Cpu-benchmarks
Ryzen 5 5500
Ryzen 5 5600
Core i5 12400F
5500 vs. 12400F
5600 vs. 12400F
Cinebench 23 ST
1363cb
1440cb
1715cb
-21%
-16%
Cinebench 23 MT
10742cb
10924cb
12333cb
-13%
-11%
Blender
1044 sec.
981 sec.
931 sec.
-12%
-5%
CoronaRender
140 sec.
122 sec.
122 sec.
-15%
0%
Adobe Photoshop
140 sec.
131 sec.
118 sec.
-19%
-11%
Adobe Premiere Pro
638 sec.
587 sec.
567 sec.
-13%
-4%
DaVinci Resolve
456 sec.
419 sec.
485 sec.
6%
14%
Staxrip - x264
36,11fps
49,14fps
68,52fps
-47%
-28%
Staxrip - x265
16,98fps
17,86fps
19,82fps
-14%
-10%
Flac
154 sec.
147 sec.
145 sec.
-6%
-1%
7-Zip
453 sec.
428 sec.
430 sec.
-5%
0%
Chrome
180,981pnt.
192,206pnt.
233,14pnt.
-22%
-18%
Compile (Firefox)
1631 sec.
1302 sec.
1324 sec.
-23%
2%
AIDA64 - Zlib
654MB/s
678MB/s
652MB/s
0%
4%
AIDA64 - AES
100972MB/s
108175MB/s
92030MB/s
10%
18%
AIDA64 - Hash
22806MB/s
23978MB/s
15492MB/s
47%
55%
AIDA64 - SHA3
2738MB/s
2742MB/s
2377MB/s
15%
15%
AIDA64 - Julia
80669
79866
63034
28%
27%
AIDA64 - Mandel
44653
43995
32397
38%
36%
AIDA64 - FP32 Raytrace
12261
12850
13622
-10%
-6%
AIDA64 - FP64 Raytrace
6532
6837
7079
-8%
-3%
Gemiddeld
-4%
3%
Gemiddeld (excl AIDA64)
-16%
-7%
Gamebenchmarks
In games doet de Ryzen 5 5600 het relatief wat beter dan in de andere soorten software, terwijl de 5500 juist verder terugvalt. Zowel de kleinere L3-cache als het gebrek aan PCIe 4.0-ondersteuning van de Ryzen 5 5500 zal aan dat laatste bijdragen. Gemiddeld is de 5500 19 procent langzamer dan de 12400F en de Ryzen 5 5600 geeft 5 procent toe op de Intel-chip.
Gamebenchmarks
Ryzen 5 5500
Ryzen 5 5600
Core i5 12400F
5500 vs. 12400F
5600 vs. 12400F
RDR2 - 1080p - Med
129,8fps
155,9fps
152,7fps
-15%
2%
RDR2 - 1080p - Ultra
117,2fps
128,5fps
135,4fps
-13%
-5%
RDR2 - 1440p - Med
123,5fps
139,8fps
146,2fps
-16%
-4%
RDR2 - 1440p - Ultra
100,7fps
107,3fps
112,2fps
-10%
-4%
Metro - 1080p - Med
172,3fps
210,2fps
215,6fps
-20%
-3%
Metro - 1080p - Ultra
125,7fps
138,4fps
136,5fps
-8%
1%
Metro - 1440p - Med
160,8fps
178,9fps
176,7fps
-9%
1%
Metro - 1440p - Ultra
106,1fps
112,9fps
111,8fps
-5%
1%
Warhammer - 1080p - Med
200,0fps
241,0fps
254,8fps
-22%
-5%
Warhammer - 1080p - Ultra
113,0fps
120,4fps
121,4fps
-7%
-1%
F1 2021 - 1080p - Med
241,6fps
316,7fps
308,7fps
-22%
3%
F1 2021 - 1080p - Ultra
174,0fps
211,7fps
222,1fps
-22%
-5%
Far Cry 6 - 1080p - Med
92,2fps
109,9fps
132,2fps
-30%
-17%
Far Cry 6 - 1080p - Ultra
78,5fps
91,5fps
112,6fps
-30%
-19%
Streaming (x264 6Mbit + F1 2021)
37,5fps
49,9fps
64,6fps
-42%
-23%
Gemiddeld (1080p excl streaming)
-19%
-5%
Stroomverbruik
Waar de nieuwe Ryzens het wel beter doen, is het stroomverbruik. Zowel idle als onder belasting zijn de 5500 en 5600 zuiniger dan de 12400F, door de bank genomen ongeveer een kwart.
Stroomverbruik
Ryzen 5 5500
Ryzen 5 5600
Core i5 12400F
5500 vs. 12400F
5600 vs. 12400F
Idle
9,0W
12,5W
16,0W
44%
22%
Cinebench R23 MT
66,4W
68,1W
92,0W
28%
26%
Premiere Pro
62,6W
70,9W
83,4W
25%
15%
Metro Exodus
59,2W
68,6W
88,9W
33%
23%
Conclusie
Als de Ryzen 5 5500 en 5600 kort na de andere modellen in de Ryzen 5000-serie waren verschenen, waren we vermoedelijk razend enthousiast geweest. Dat is inmiddels anderhalf jaar geleden en in die tijd is enorm veel gebeurd in de processormarkt. Destijds wonnen de nieuwe Ryzens eenvoudig van Intels 10-serie, die nog teerde op de stokoude combinatie van Intels 14nm-proces en Skylake-architectuur. Inmiddels is de blauwe concurrent twee generaties verder en dat merk je.
Vooral de Ryzen 5 5500 raakt soms eerder verzeild in een gevecht met Intel-chips van een of twee jaar geleden dan met de courante line-up. Doordat hij gebaseerd is op een apu-chip, met slechts de helft van de cache en zonder PCIe 4.0, laat de 5500 het vooral in games afweten. De op papier vrijwel identieke 5600 blijkt een heel ander beestje en is technisch veel meer vergelijkbaar met de 5600X. De prestatieachterstand loopt gemiddeld niet verder op dan 5 procent.
Van de twee nieuwe Ryzen 5's is de 5600 wat ons betreft met afstand de interessantste. Toch heeft ook de 5600 het zwaar te verduren van met name de Core i5 12400F, de igpu-loze versie van de 12400. Die is gemiddeld simpelweg wat sneller én wat goedkoper. Wel is de AMD-chip zuiniger.
Dan hebben we nog het platformargument. Voor AMD's al lang meegaande socket AM4 kun je een veel goedkoper moederbord kopen dan onze goedkoopste aanrader voor socket 1700. Die lange socketlevensduur was lange tijd in het voordeel van AMD, maar nieuwe chips voor AM4 komen er niet meer; deze herfst wordt socket AM5 geïntroduceerd. Daarentegen zal Intels volgende generatie wel nog compatibel zijn met socket 1700. Bovendien zul je voor een AM4-bord dat echt geschikt is voor een upgrade naar een Ryzen 9 toch wat meer moeten uitgeven, wat het prijsverschil weer verkleint.
Hoewel zeker de Ryzen 5 5600 in bepaalde scenario's best een interessante keuze kan zijn, bijvoorbeeld als je al een AM4-bord bezit, vinden we de nieuwe chips geen awardmateriaal. Het is natuurlijk begrijpelijk dat AMD in tijden van schaarste voorrang gaf aan de productie van winstgevendere producten, maar dat maakt wel dat nu een gevoel van too little, too late overheerst.
Als je met een "wij ook" product komt zoals de 5600 ten opzichte van 12400F, dan moet je een argument hebben om de perceptie te wijzigen. Het "platform"-argument, dat terecht werd aangestipt, is er zo één.
Maar veel mensen zullen daar over kijken, want als je prijs/prestatie puur op CPU bekijkt wint de 12400f.
M.i. had AMD scherper gemoeten met de prijs voor de CPU. Als je nu een 5600 + mobo versus 12400F + gelijkwaardig mobo zet, kom je quasi gelijk uit. Daarmee win je geen marktaandeel terug.
Mag ik het jammer vinden dat jullie de 5700X niet meenamen? Tweede meest bekeken CPU in de PW op dit moment...
Mag ik het jammer vinden dat jullie de 5700X niet meenamen? Tweede meest bekeken CPU in de PW op dit moment...
Jazeker, en wij balen keihard met je mee De 5700X is namelijk helaas nog niet gearriveerd in ons testlab (nog steeds onderweg..), vandaar dat ie nog ontbreekt in de testresultaten.
[Reactie gewijzigd door Trygve op 22 juli 2024 15:07]
Als ik vragen mag, zijn dat dan review samples waar je zolang op wacht? Bijvoorbeeld een Steve van Hardware Unboxed koopt interessante cpu's maar ook bijv. moederborden gewoon wanneer zij Day 1 niet gesampled worden maar wel interessant zijn voor de doelgroep.
Is dat niets iets dat het Tweakers Test Lab ook doet?
De vraag is dan eerder of HUB ze uberhaupt niet binnen krijgen. Ze zijn enorm eerlijk en hebben vaak een ongezoute mening die toch wel keihard kan overkomen. Die eerlijkheid wordt niet altijd gewaardeerd door bedrijven waardoor ze al gewoon geen samples krijgen van bepaalde producten en deze zelf 'moeten' kopen
Die vraag vind ik eigenlijk niet eens zo heel belangrijk in dit geval, je wil immers eigenlijk ook een review als deze geen weken na de introductie van de cpu's pas zien en zeker een Sku als de 5700X, die zeker nog potentie heeft nog weer wat leven te blazen in AM4 wil je eigenlijk gewoon een week 1 review van zien.
Wat betreft HUB klopt inderdaad, bijv. Asrock wil hun geen review samples meer leveren voor moederborden, die kopen ze dus inderdaad gewoon.
Vooral voor een ITX build zou je denken pak die AMD, want minder stroomverbruik=minder hitte, maar in de praktijk valt dat allemaal bijzonder mee tijdens het gamen. Daar worden die Intels ook niet zo warm, want ze draaien echt niet continu 100%.
Bij ITX komt de Intel toch een klap goedkoper uit dan de AMD, dat blijft onwennig. Die 12400 met of zonder f is toch een bijzonder goed ding gebleken, maar dat was de 11400f ervoor ook.
Ze draaien niet 100% maar dat geldt idem voor de AMD counterparts. Waar je naar moet kijken is efficiency in dit geval, welke cpu geeft de meeste prestaties per watt en hoeveel wil je maximaal aan warmte genereren.
Ik heb een 450W voeding met een R5 3600 en een 5700 (GPU) en dat gaat prima, allemaal geen monsterverbruikers, maar qua efficiency allemaal best redelijk dus heb toch nog een leuke gaming setup die nu bijna 3 jaar later nog steeds goed meekomt.
Mijn punt sloeg vooral op ITX builds, dat de extra warmte van de CPU in het totaalplaatje redelijk verwaarloosbaar is als je naar verbruik tijdens het gamen kijkt. Die grafieken zitten hier overigens ook gewoon in deze review. De extra warmte van de CPU heeft zo goed als geen effect, dus voor een ITX build hoef je niet meer te betalen voor minder performance vanwege het stroomverbruik in de praktijk.
De 12400F verbruikt ook een stuk meer (en wordt waarschijnlijk ook een stukje warmer), dus je kunt makkelijk het argument maken om de AMD cpu's over te klokken tot ongeveer hetzelfde verbruik.
60W voor de 5500 tov de 88-90W 12400F is namelijk best nog wel een verschil.
Dan vallen de verschillen ineens weg.
Maar goed, de prijzen liggen idd erg dicht bij elkaar.
Ik vind dat "slechte gameprestaties" wel meevallen eigenlijk. Iedere geteste CPU scoort in iedere test ruim boven de 60FPS. Dat geeft aan dat je voor gaming eigenlijk niet meer nodig hebt.
Zijn we terug 15 jaar in het verleden gegaan? Het kan natuurlijk dat jij niet meer nodig hebt maar om algemeen te stellen dat je voor gaming niet meer nodig hebt dan 60fps, vind ik een incorrecte claim.
De 5500 zit trouwens niet altijd onder de 16.67ms.
Maar het is dan ook budgethardware. Om te stellen dat de gaming performance "slecht" is, terwijl je in iedere geteste titel zo'n 100FPS kunt behalen vind ik vreemd.
Als je vroeger een CPU met slechte gameprestaties kocht dan haalde je nog geen 30FPS.
[Reactie gewijzigd door Wolfos op 22 juli 2024 15:07]
Hou er wel rekening mee dat ze deze prestaties halen met videokaart van momenteel €1150 euro.
Terwijl er natuurlijk 'niemand' is deze cpu gaat koppelen aan zo'n videokaart.
Zie bijv. deze review van Gamers Nexus waarbij deze cpu en Intels budget model
gekoppeld worden aan de GPU die normaal gesproken ook aan deze klasse cpu's gekoppeld zal worden door kopers. https://www.youtube.com/watch?v=FQtdXsPw3wg
Dan komt de 5500 er ineens een heel stuk slechter uit, waardoor je eigenlijk kan concluderen dat AMD's eigen budget kaarten (6400/6500 series) zeer slecht zijn afgestemd op hun eigen budget cpu's. Waardoor je, als je een AMD kaart wil, je al weer een tier hoger moet en eigenlijk enkel de 6600 series of hoger kan gebruiken met deze cpu.
[Reactie gewijzigd door Dennism op 22 juli 2024 15:07]
Het komt inderdaad door beperkte bandbreedte, maar juist de high end kaarten hebben er geen last van in combinatie met deze cpu.
De Ryzen 5500 heeft namelijk 16 PCIE 3.0 lanes voor de GPU, echter heeft AMD in al haar wijsheid besloten dat de budget GPU's minder PCIE lanes krijgen, de 6400/6500 series GPU's zijn door AMD slechts uitgerust met 4 PCIE 4.0 lanes, wat in combinatie met een cpu als de 5500 de bandbreedte beperkt tot 4x PCIE 3.0, terwijl een high end GPU als de 6900XT zoals gebruikt in deze review gewoon 16x PCIE 3.0 bandbreedte heeft in combinatie met de Ryzen 5500. De andere budget Sku van AMD, de 6600XT zit er tussen in met 8 beschikbare lanes, ook niet optimaal, maar minder slecht dan de 6400/6500 in combinatie met deze cpu.
Deze ontwerp keuze van AMD raakt dus niet de highend GPU's, daarmee doet deze cpu het relatief goed, zoals ook in deze Tweakers review ziet. Koppel je deze cpu echter aan een Radeon kaart passend bij het prijssegment van deze cpu storten de prestaties helaas in elkaar.
Het is zelfs zo erg dat AMD's eigen budget GPU's beter presteren met een 4 core Intel cpu dan met hun eigen 6 core budget cpu (deze Ryzen 5500).
[Reactie gewijzigd door Dennism op 22 juli 2024 15:07]
Hangt van je doelstelling af. Als je competetief wilt gamen en de hoogst mogelijk FPS wilt, dan test je hier de verkeerde games. Als je een fijne singleplayer ervaring zoekt, speel je geen RDR2 op 1080p medium. En met 1440p ultra is het verschil eigenlijk slechts geneuzel in de marge.
Alleen vind ik het wel behoorlijk lastig bepalen of je jezelf niet in de vingers snijdt met de 99% low en 99.9% low. Liever een stabiele maar iets minder hoge framerate, dan een hoog gemiddelde met meer (en lagere) uitschieters. De conclusie kijkt enkel naar de framerate en daar is er weliswaar een meetbaar verschil, maar merkbaar niet echt.
99% van de mensen hebben echt geen Hz meer dan 60 nodig om competitief te gamen. Dus dat is mijn inziens een excuus om voor 144Hz te gaan.
Echter, er is een veel betere reden om wel meer dan 60Hz te willen: hogere framerate is soepeler en scherper beeld! Ook bij relatief trage spellen vind ik het heerlijk om op 140fps te draaien, niet omdat ik de illusie heb dat ik er beter van speel, maar gewoon omdat het beeld soepeler en scherper is.
Exact dezelfde reden waarom telefoons naar 120Hz gaan: Dat is niet omdat je dan een betere high score voor Candy Crush kan neerzetten, maar simpelweg omdat bijvoorbeeld scrollen dan beter eruit ziet.
Niet gezegd dat dat niet zo is. Een nieuwe muis mogelijk ook. Een ultra widescreen vast ook. Maar dat is niet de reden waarom jij net doodgeschoten werd in die shooter. Dat voordeel is voor veruit de meeste mensen verwaarloosbaar tov de andere redenen waarom je wint/verliest.
Imo is het gewoon een hele slechte reden om een 144Hz scherm te kopen. Dat het beeld gewoon significant mooier is, zou ik een stuk betere reden vinden.
Ook voor @Bliksem B, uiteraard voor iedereen persoonlijk. En om eerlijk te zijn, toen ik naar 144Hz ging merkte ik nou geen gigantische verschillen. Tijd geleden ondertussen ging er wat met nieuwe drivers fout, en besloot Windows dat 90Hz ook prima was. In een MOBA had ik binnen de minuut in de gaten dat er iets niet soepel liep. Oftewel teruggaan naar 60Hz merk ik wel erg hard.
En ik wilde zeggen dat op mijn TV 60Hz prima is, tegelijk bedenk ik nu dat daar beeld interpolatie aan staat . Het zal natuurlijk wel afhankelijk van het spel zijn.
Die interpolatie op je TV merk je waarschijnlijk wel enorm in je input latency. Het oogt dus soepeler, maar door de tijd die nodig is de tussenliggende beelden te berekenen duurt het langer voordat het getoond wordt.
Zal zeker zo zijn ja, maar mijn TV hangt aan mijn PC en:
1. Te lui om instellingen te veranderen afhankelijk of ik een film kijk of een spel speel.
2. Enige wat ik doe op mijn TV is een enkel spel wat ik met de controller speel, wat typisch toch niet de spellen zijn waarbij input lag heel relevant is, vooral met mijn snelheid met een controller .
Dus algemeen valide punt, voor mij niet heel belangrijk.
Alleen is het echt noodzakelijk? Op mijn desktop merk inderdaad verschil tussen 165 en 60hz. Maar naar verloop van tijd let je er niet meer op.
Soms denk je ineens: "heej dit is geen 165hz!" en merk je na het veranderen weer wat je gemist hebt. Maar als je eenmaal aan het werken bent, let je er op een gegeven moment minder op.
Voor mij is het dus nice to have.
Ik speel trouwens ook nog weleens spellen op 30fps op mijn switch en binnenkort mijn steam deck! Toch kies liever meer pracht en praal dan 60fps.
Dat zegt dan wel vrij weinig over of deze cpu's zullen voldoen voor gaming voor de doelgroep, immers zal de doelgroep deze cpu's normaal gesproken niet pairen met een 6900XT van €1100.
Een 5500 zit eerder in het segment waarbij je een 50/60 serie (Nvidia) of een 500/600 serie (AMD) kaart verwacht, terwijl de 5600 in het segment zit waar je in de regel een een 60/70 serie (Nvidia) of een 600/700 serie (AMD) kaart verwacht.
Zeker bij de 5500 vraag ik me af of je bij zo'n pairing nog steeds kan rekenen op een solide game ervaring op 1080P high / ultra waarbij zowe de average FPS maar ook de 1% en 0.1% lows in orde zijn.
Daarnaast is 60FPS ook niet echt 'hot' meer heb ik het idee, ieder game systeem dat ik de laatste paar jaar voor vrienden / kennissen en klanten gebouwd heb (in ieder geval sinds gaming weer 'hot' is vanaf begin corona periode) waren de eisen die neergelegd werden eigenlijk stevast een goede ervaring op 1440P /144Hz met high / ultra settings. Afgezien wat wat builds voor (kleine) kinderen waar de eisen iets lager lagen.
Wat nodig is, is lastig aan te geven, het was ook vaak een kwestie van wat is verkrijgbaar en tegen welke prijs, waardoor eisen nog wel eens naar beneden bijgesteld werden, wanneer niet verkrijgbaar of niet betaalbaar
Ik zou zelf zeggen dat een 70/70 Ti (Nvidia) / 700XT (AMD) serie kaart met een 6 core AMD of Intel chip wel het minimale is voor een redelijk goede 1440P ervaring op high+ settings, dit zal zeker niet altijd het 144hz scherm ten volste benutten in iedere game en je kan zeker niet altijd Ultra draaien, bijv. wanneer je ook Raytracing aan wil of je toevallig enkel de zwaarste games speelt.
Heb je een wat hoger budget dan is een AMD of Intel 8 core cpu (denk nu aan de 5700X / 5800X(3D) of 12700K) een erg mooie cpu voor een 1440P game systeem, zeker wanneer gecombineerd met bijv. een AMD 6800XT of een Nvidia RTX3080 wanneer je DLSS / RTX wil hebben, al is imho de 6800XT de betere 1440P kaart wanneer het prijsverschil dat er hoort te zijn er is. Let wel dat je afhankelijk van de game zeker niet altijd 144 FPS zal halen voor een capped framerate, wil je dat wel dan zal je concessies moeten doen. Maar je zal met een systeem als dit eigenlijk altijd gemiddeld genomen wel een uitstekende 1440P game ervaring hebben.
[Reactie gewijzigd door Dennism op 22 juli 2024 15:07]
Mooi en goed onderbouwd antwoord! De 'juiste balans vinden' is wat ik iets te vaak mis in veel adviezen (o.a. hier op Tweakers), waarschijnlijk vooral omdat het nogal wat nuancering vereist, je uitleg hierboven is naar mijn mening een hele goede basis om die balans (voor 1440p/144Hz op high/ultra) te kunnen vinden.
Heb je een wat hoger budget dan is een AMD of Intel 8 core cpu (denk nu aan de 5700X / 5800X(3D) of 12700K) een erg mooie cpu voor een 1440P game systeem, zeker wanneer gecombineerd met bijv. een AMD 6800XT of een Nvidia RTX3080 wanneer je DLSS / RTX wil hebben, al is imho de 6800XT de betere 1440P kaart wanneer het prijsverschil dat er hoort te zijn er is. Let wel dat je afhankelijk van de game zeker niet altijd 144 FPS zal halen voor een capped framerate, wil je dat wel dan zal je concessies moeten doen. Maar je zal met een systeem als dit eigenlijk altijd gemiddeld genomen wel een uitstekende 1440P game ervaring hebben.
Tenzij ik iets heb gemist zijn er eigenlijk geen games te vinden waarbij je die 2 extra cores nodig hebt om 144 te behalen. Tot heden is het altijd een minimum aantal threads (bijvoorbeeld 10) en daarna telt IPC * frequentie. Een 8c/16thread pakken is gokken op de toekomst.
Tenzij ik iets heb gemist zijn er eigenlijk geen games te vinden waarbij je die 2 extra cores nodig hebt om 144 te behalen. Tot heden is het altijd een minimum aantal threads (bijvoorbeeld 10) en daarna telt IPC * frequentie. Een 8c/16thread pakken is gokken op de toekomst.
Alleen is het juist het IPC wat die 5800X3D tot de beste gaming CPU van het moment maakt. Interessant wordt het mocht er een 6-Core versie van komen, eventueel met nog hogere clocks.
Zeker nu de huidige consoles juist ook op 8 volwaardige cores zitten vraag ik me wel af of je op den duur geen draadjes tekort gaat hebben. Maar dat is wat je zegt koffiedik kijken.
Zeker nu de huidige consoles juist ook op 8 volwaardige cores zitten vraag ik me wel af of je op den duur geen draadjes tekort gaat hebben. Maar dat is wat je zegt koffiedik kijken.
Dat maakt niet zo veel uit.
Hoewel je één singlethreaded load moeilijk kan opsplitsen om multithreaded op veel maar zwakkere cores te laten werken, is het omgekeerde wél mogelijk: als je een last hebt van 8 threads kan je op een CPU met minder threads maar met hogere IPC wel perfect schalen.
Dat zie je ook in benchmarks: een 6c/12t Zen 1 gaat veel sneller CPU bottlenecked zijn vergeleken met een 8c16t Zen 1, dan een identiek aantal met Zen 3 cores. Waarom? Omdat de totale som rekenkracht van 6c12t Zen 3 ongeveer vergelijkbaar is met 8c16t Zen 2. Daardoor is de uitspraak "consoles hebben acht cores dus eender welke 6c12t CPU zal onvoldoende zijn" niet waar; het hangt af of je CPU met maximaal 16 threads (of minder) dezelfde rekencapaciteit heeft: zo ja dan is die CPU voldoende.
Verreweg de meeste games hebben nog geen 8 cores nodig inderdaad, en vaak zelfs nog geen 6, maar de game is tegenwoordig vaak niet het enige wat de processor belast. Denk aan streaming en vele andere mogelijke programma's/processen, dan komen extra cores weldegelijk tot hun recht! Niet dat ik (als ouwe bok) bijvoorbeeld YT of Twitch ga kijken tijdens het gamen, maar ook dat blijkt voor veel gamers heel normaal te zijn...
Het probleem specifiek met de 5500 is ook vooral het feit dat deze over slechts PCIe 3.0 beschikt, i.c.m. met de keuze van AMD om videokaarten uit het lagere segment slechts met 4 lanes uit te rusten. Met PCIe 4.0 systeem allemaal geen probleem maar met de Ryzen 5500 zit je dan met een PCIe 3.0 x4 verbinding, wat in de praktijk met een 6500XT een enorme flessenhals is die 20-30% prestaties kost.
GamersNexus heeft dit uitgebreid getest en het is 'schokkend' hoe slecht AMD haar producten welke normaal gesproken een prima balans zouden kunnen zijn op elkaar afstemt: https://www.youtube.com/watch?v=FQtdXsPw3wg
Ja, die review ken ik, en eigenlijk moet je de 6500/6400 series kaarten van AMD uitsluiten bij een cpu als deze. En inderdaad, dit had AMD, zeker daar het 2 van haar eigen producten betreft, beter moeten doen.
Je wil juist als AMD zijnde dat jouw budget cpu met jouw budget gpu combinatie het beter doet dan Intel's budget cpu met jouw of Nvidia's budget gpu.
Dat een budget cpu van de concurrent beter is met jouw gpu dan dat je eigen budget cpu is natuurlijk slecht te noemen, net alsof AMD's cpu en gpu divisie hier enorm langs elkaar heen gewerkt hebben.
Wauw als de het prestatieverlies zo hoog is (ik ga geen video’s kijken) is dat best wel een een puntje ja, van pcie 3.0. Dan moet je dit dus minstens met een 6600 pairen (een x8 kaart) als je kijkt naar de lineup
De 6500XT is gewoon een waardeloze kaart. Daar hoef je eigenlijk niet meer woorden aan vuil te maken. Heeft te weinig geheugen, waardoor systeemgeheugen erbij moet worden gehaald. Dat is al slecht, maar dan slechts 4 PCIe lanes hebben is gewoon killing.
Dat ligt er maar aan wat voor een systeem je bouwt en wat je eisen zijn.
Geef je 500 euro uit aan een videokaaet, dan zou ik niet beknibbelen op de cpu.
Bouw je een low budget systeem en zet je een oude videokaart erin, dan kan 4 tientjes een aardig verschil maken.
Het was een gechargeerde opmerking, vandaar ook het boze gezichtje erachter. De 6700XT is zeker geen budget kaart maar presteert wel on par met Nvidia kaarten uit 2019 (2070/2070S). Het gemis van DLSS vind ik echter wel groot.
DLSS? wil je met een 6700XT kaart of gelijke 3060ti of 3070 op 4K spelen?
een 6700XT is trouwens vlotjes 10-20% sneller dan een 2070S in 1080p gaming.
daar zit dus je probleem, koop een GPU on par met je verwachtingen en dan heb je geen twijfel of al dan niet er een DLSS versie nodig is of iets anders van schaling...
ik heb 2 game systemen staan voor 1440p 144hz beide op een 6800XT , ik zie het gemis van DLSS nergens.
[Reactie gewijzigd door d3x op 22 juli 2024 15:07]
Ik zit 'nog' op een 2070S (1440p) en zonder deze techniek moet ik teveel frames inleveren. Ik ken eigenlijk geen game die het ondersteund waar ik het niet bij gebruik. CP2077 als voorbeeld is bijna dubbel fps voor een marginaal image verlies. Bij bewegende beelden is het verlies te verwaarlozen. Zonder DLSS is CP2077 niet speelbaar, althans, als je van een strakke 60+fps houdt niet.
Als ik een 3080 had gekocht dan had ik hetzelfde bereikt zonder DLSS maar was ik 1000 EUR lichter en die GPU's vind ik qua wattage buiten proportie. Mijn 2070S blaast nu al een goede 230W bij stevige games.
Ik verwacht dat het voordeel van DLSS voor een groot deel gaat verdwijnen wanneer FSR 2 uitkomt (voor nieuwe spellen en spellen die nog zulke updates krijgen).
Ik vind het veel lagere stroom verbruik in de overweging om voor a of b te gaan ook steeds belangrijker. Naar het milieu is energie ook veel duurder geworden dan 1-2 jaar geleden. Als je een cpu dan 3-5 jaar gebruikt is een verschil van 20% of hoger echt wel merkbaar onder de streep.
Er zijn ook maar heel weinig mensen die hun pc upgraden. Zelf doe ik het graag maar vrienden van mij kopen dan vaak elke 3-5 jaar alles nieuw ipv de cpu swappen voor iets wat er nog op kan.
Dus ja het is een voordeel voor als je dat doet. Maar als je van je zelf weet dat je dat toch niet gaat doen voor 15-25% prestatie winst (want bij Intel passen er maar 2 generaties op een socket) is dat ook geen voordeel en zou ik er nu zeker niet meer voor betalen.
En op AM4 heb je natuurlijk wle de 5950X als upgrade voor productivity en 5800X3D voor betere gaming prestaties.
En je hoef geen super duur bord te hebben om die CPU's stock te draaien. Met pbo als ze meer dan 105-120watt gaan gebruik ja dan wel. Maar binnen het stock tdp zou het geen enkel probleem mogen zijn. En zijn er ook goedkope borden te krijgen die dat prima kunnen.
[Reactie gewijzigd door Astennu op 22 juli 2024 15:07]
De vraag is of je, wanneer de 6-core te krap is, nog baat hebt bij een 5800X3D, of dat deze rond die tijd ook de upgrade niet meer waard is.
Als je nu per sé een systeem moet bouwen is het natuurlijk wel een goede manier niet in één keer veel geld kwijt te zijn. Maar als het een upgrade van een quad core is (zeg Skylake), waar je het eventueel nog wel mee uit kan zingen, waarom niet direct op AM5 overstappen?
Overigens volledig mee eens qua verbruik. Niet alleen vanwege het geld, maar ook simpelweg omdat het minder hitte en dus minder herrie betekent. Hoe stiller hoe beter.
Games gaan niet snel meer gebruiken dan 8 cores 16 threads omdat dat ook is wat is wat de consoles gebruiken. Echter is dat Zen2 met lagere clocks @ 3.6 a 3.8GHz.
Een 5800X3D @ 4-4,5Ghz met een sloot aan extra cache is dan een heel stuk sneller. Bij games met weinig threads aan load is deze geregeld al 15-30% sneller dan een 5800X.
Als je dan alle threads benut kan je makkelijk 50%+ sneller Ijn dan een 5600X worst case zal het in de buurt van de 20-25% zijn en in goede gevallen 70% of hoger (er Inn nu al games waar de X3d soms 60+ sneller is dan de 5800X en die heeft hogere clocks dan de 5600X).
Dat is geen vekeerde upgrade lijkt mij. Het ligt alleen een beetje aan de prijs. Als hij dan net als 7700K CPU's in het verleden 2e hands duurder is dan een Zen4 cpu nieuw is het natuurlijk niet zo interessant.
Games gaan niet snel meer gebruiken dan 8 cores 16 threads omdat dat ook is wat is wat de consoles gebruiken. Echter is dat Zen2 met lagere clocks @ 3.6 a 3.8GHz.
Met consoles heeft het weinig te maken. Die consoles hebben al jaren lang op 8 jaguar cores gedraaid (xbox one) in de tijd dat op de pc 4 cores 8 threads nog niet eens sneller was dan 4 cores met 4 threads.
Kan je na gaan hoe lang het dan duurt voordat de PC daar optimaal gebruik van gaat maken.
Het is natuurlijk ook wel de vraag hoeveel van de 8 Jaguar cores van de consoles gebruikt werden. En sommige optimalisaties willen na het porten naar PC nog wel eens verloren gaan.
Maar inderdaad de HT CPU's waren lang niet altijd sneller.
Wel waren games super goed speelbaar op 4 cores 4 thread cpu's.
Mijn argument klopt dan opzich nog steeds. Je hebt genoeg aan die 8 cores en 16 threads. En de CPU heeft heel veel Cache waardoor veel games een stuk beter presteren. En waarschijnlijk future proof genoeg gezien de specs van de huidige consoles.
Als je nu een systeem wilt kopen dat upgradebaar is, dan is inderdaad AM4 een doodlopende weg, maar nu in een socket 1700-processor en die over een paar maanden alweer upgraden waarna de weg ook doodgelopen is, is ook niet aantrekkelijk. Dus als upgradebaarheid een criterium is, dan moet je je aankoop inderdaad uitstellen en op AM5 wachten. Een AM5-bord gaat je straks evenwel vermoedelijk een lieve duit kosten, maar als het 5 jaar mee kan, is dat te billijken.
Ik kan me niet voorstellen dat van 5500/5600 naar 5800X3D heel aantrekkelijk is, hooguit ga je voor veel kernen en dus de 5950X. Bij Intel eveneens: Je kunt er over een paar maanden een Raptor Lake in stoppen en krijgt vooral wat meer E-kernen. In praktijk zal het dan ook eerder zo zijn dat als je nu iets koopt, dat je weet dat het niet toekomstvast is en dat dit de laatste processor in het moederbord zal zijn. Dan is een moederbord van €55 wel een kleinere kapitaalvernietiging dan een moederbord van €110.
Mijn verwachting op basis op eerder gedrag van AMD (hoe lang zijn de 5700X en 5800X nu al uit?) is dat het nog wel even gaat duren tot AM5 goedkopere CPU's voor z'n nieuwe platform gaat uitbrengen. Nu direct iets kopen lijkt sowieso niet erg gunstig... behalve misschien de echt budget optie... nl de 12100F op een mobootje van 90 eu? Bij die combi is de 6500XT ook minder gehandicapt en daar is dus wel een besparing mogelijk? Gek genoeg is het dus juist de AMD's eigen 6500XT een goed argument om als gamer niet voor 5500 of 5600 te gaan omdat je dan geen pci-e 4.0 hebt?
Wat zou je anders kunnen kopen voor hetzelfde geld als de 6500XT? Wachten op dat er benchmarks van de Intel 13th gen zijn lijkt me iig een zinnig advies. (Lang geleden, maar bv Broadwell was wel een goede opfrisser) Of je moet nu nog echt met een PC uit het stenen tijdperk zitten (overigens ik zelf ben nog tevreden met i5 6600 )
[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 15:07]
LOL... nee net als de BBG van gisteren natuurlijk gaat het uiteraard om de al beschikbare hardware :-) Voor all I know is deze zelfs langzamer dan een GT1030 ?
Inderdaad, to little to late voor AMD, geen pcie 4.0, veel minder cache.
Dan hadden ze hem een veel lagere prijs moeten geven, of gewoon niet uit moeten brengen.
Het is nu een iets snellere 3600...
[Reactie gewijzigd door DennisH82 op 22 juli 2024 15:07]
Ik vraag me af of er veel van zullen zijn. Het zijn 5600G's waar de GPU niet van werkt. Gezien de 7nm yields zullen dat er niet heel veel zijn. Voelt een beetje als de 3300X daar zijn er ook niet veel van geweest omdat het meeste door kon voor een 3600.
[Reactie gewijzigd door Astennu op 22 juli 2024 15:07]
Dit klopt niet, de 5500 is een Cezanne Sku waarvan de GPU niet werkt, zoals ook gebruikt in bijv. de 5600G
De 5600 is een Vermeer Sku met een totaal andere opbouw (zie ook de foto's op pagina 1 dit artikel).
Een 3300X heeft verder ook niet veel met een 3600 te maken volgens mij, een 3600 is volgens mij namelijk altijd een cpu waar in iedere CCX 1 core is uitgeschakeld, dus een 3+3 opstelling, terwijl de 3300X een 4+0 CCD heeft. Een 3600 zou dus v.z.i.w. nooit een 3300X hebben kunnen worden.
De 3100 kan wel weer 'last' gehad hebben van hoge yields die altijd als 3600 door zouden kunnen voor zover mij bekend, omdat de 3100 een 2+2 CCD heeft.
[Reactie gewijzigd door Dennism op 22 juli 2024 15:07]
De G was weg gevallen. Ik weet uiteraard dat het om een totaal andere chip ging was gewoon een typo.
Ja en nee het ging meer om het feit dat er 4 cores defect moeten zijn wil een CPU door gaan voor een 3100 of 3300. En bij de 3300 moet een CCX zo defect zijn dat daar geen 2 cores bruikbaar zijn en er dus maar super weinig waren waar bij dat het geval was. Meestal werkte er gewoon meer want de aantallen 3100 en vooral 3300 CPU's zijn heel laag. Bij verre uit de meeste CPUs waren er gewoon 6 of 8 goede cores. Van de CPU's met 4 defecte cores konden de meeste door als 3100 door idd die 2+2 opstelling. In een heel enkel geval waren er wel 4 goed aan de ene kant maar geen 3 aan de andere kant waar door hij niet door kon als 3600 met 3+3. En ja dat is 4 cores in een CCX wel beter dan hem in 2+2 draaien door de extra latency tussen de CCX'en.
Het ging mij eigenlijk niet om de opstelling maar om de hoeveel kans er is dat een CPU echt een CCX zou hebben waar niet eens 3 cores goed zouden kunnen werken. Omdat dat meer vergelijkbaar is met de kans dat de GPU van een Cezanne APU niet bruikbaar is en uitgezet moet worden.
Hetzelfde zal hier aan de hand zijn. Er zullen maar weinig Cezanne SKU's zijn waarbij de hele GPU niet werkt. Er zijn genoeg SKU's zoals de 5300G waar een deel van de GPU uitgeschakeld wordt. Als AMD het als zo'n CPU kan verkopen zou AMD dat uiteraard doen.
Meestal valt er wel wat te redden door genoeg uit te zetten. Het is ook niet voor niets dat de 5500 net als de 3100 en 3300X pas erg laat op de markt kwamen.
De opvolger van de Cezanne APU's wordt immers al geproduceerd namelijk Rembrandt.
Lang verhaal kort ik vraag me af hoeveel 5500's er gemaakt gaan worden. Ik verwacht dat dat meer vergelijkbaar is met de aantallen van de 3300X of in ieder geval tussen de 3100 en 3300X in. En dus verwaarloosbaar tov het aantal die als 5300G/5600G of hogere door het leven gaan.
[Reactie gewijzigd door Astennu op 22 juli 2024 15:07]
Ligt aan de games die je speelt.
Ik heb bij de games die ik speel merkbaar verschil in prestaties gehad bij de upgrade van een 3600 naar een 5600X.
In games zoals: COD Warzone, Starcraft II, Risk of Rain, Mechwarrior online en stellaris waren de prestaties aanzienlijk beter. Apex Legends daar in tegen draait eigenlijk vergelijkbaar.
Ik cap mijn FPS wel op 143FPS dus kan best dat een 5600X wel sneller is met Apex maar ik had daar geen of weinig dips doordat de CPU niet snel genoeg was meestal was het de GPU. Waar je bij de andere games echt zag dat de GPU Utilization daar beneden ging en de CPU dus de beperking vormde.
Tweakers adviseerde gisteren in de BBG een i3-12100 voor een kantoorsysteem, een quadkerner. Doe mij de 5500 dan maar met 2 kernen extra, spaart nog geld op het mobo ook. Ik denk dat iedere processor zijn toepassingen heeft: Als je spelfanaat bent wil je de 5600 kopen. Dat betekent niet dat de 5500 voor andere doeleinden geen interessante processor is.
[Reactie gewijzigd door dmantione op 22 juli 2024 15:07]
Geen idee waar je op doelt, ik had het niet over upgraden en @N1craM ook niet een de BBG ging over nieuwkoop. Maar wat upgrades betreft, lijkt me dat upgrades van Zen1 of Zen2 naar deze processoren zinnig kunnen zijn?
Zijn die mensen niet al lang over gegaan op een Zen3? Met de 3600 is iig zelfs de 5600 sneu als upgrade voor een gamer. Jammer dat de 10105F (die zit bij mij in een emu systeempje) er niet bij staat, want ook deze zit dus zo te zien met een beetje redelijk geheugen en B560 chipset al net boven de 5500. Als je dan toch al niet future proof gaat zou iig bv een socket 1200 systeem ook een prima alternatief kunnen zijn? Dat is een optie die nu iig nogal vaak over het hoofd wordt gezien. Maar uiteraard niet als je een AM4 moederbord hebt en dus daar iets anders in kan steken.
Edit : Ik zie in tweede instantie bij wat andere spellen dat dat tegenvalt. Dus zoals wat langer is het nuttig iig te kijken wat voor games je speelt en btw ik zag niet dat je op iemand reageerde... dus die context miste ik even.
[Reactie gewijzigd door AtariXLfanboy op 22 juli 2024 15:07]
Geen slecht artikel hoor, maar de minpunten zijn soms toch wel een beetje vergezocht.
Geen igpu
Voor mijn klinkt dan vaak een beetje als "De geteste Ferrari heeft geen trekhaak" of "Jammer dat deze Lambourgini niet in een dieselversie beschikbaar is."
Het is maar hoe je er naar kijkt. Een budget cpu is een stuk aantrekkelijker als er een igpu in zit, een losse en matige grafische kaart kost al snel meer dan 5 tientjes. Ik heb hier een nog een 9400f liggen die ik niet kan gebruiken omdat ik geen graka heb
Gezien de prijzen die AMD vraagt voor de Ryzen 5 en nieuwere CPU's kun je ook niet stellen dat de CPU's onder de "budget" categorie vallen, als zelfs de concurrentie sneller en duurder is (maar wel wat meer stroom verbruik kent).
Een igp heeft toch wel wat voordelen. AMD gaat waarschijnlijk ook weer standaard een IGP meeleveren.
-indien videokaart defect is kun je doorwerken (zeker bij problematische beschikbaarheid videokaarten erg handig)
-offloading naar IGP, denk aan streaming waarbij je de hardware matige encoder gebruikt.
Opvallend dat het ontbreken van de iGPU bij beide CPU's een nadeel is: Alleen de APU's zijn met integrated graphics en de laptop CPU's geloof ik. De normale desktop CPU's zijn nooit met iGPU's geweest. Zou ook wel wat raar zijn, voor een chipfabrikant dat ook zijn eigen GPU's maakt. An sich is het voor AMD dus helemaal niet interessant om een desktop CPU te maken met iGPU.
Dat klopt gewoonweg niet. Die markt is er wel degelijk. Als die er niet was, dan zou Intel geen high-end CPU's met ingebouwde graphics maken. Een 12900 of 12900K verkoopt verhoudingsgewijs beter dan de F-versies, ondanks dat het gros van de gebruikers met zo'n CPU gewoon een videokaart heeft.
Dat die markt er is, is wel duidelijk, maar AMD doet er ook al jaren niets mee, terwijl Intel ook al jaren iGPU's in de dies heeft zitten van de CPU's. AMD had het dus ook al veel eerder kunnen doen, schijnbaar is er dus een reden voor dat AMD het niet doet. Dat is verder prima, maar dat maakt het niet dat het opeens een nadeel is, inmiddels is het common knowledge dat AMD geen iGPU heeft. Het is niets nieuws onder de zon.
Een reden kan zijn omdat AMD ook een eigen graphics divisie heeft, waar Intel nu langzamerhand mee komt. Wie weet gaat de iGPU van de Intel CPU's dan ook wel weer verdwijnen.
Ook het gros van de Intel gebruikers heeft inderdaad een dedicated GPU, wat dus eens te meer het punt bewijst dat een iGPU niet een gemis is als het er niet op zit. Waarom moet AMD daar dan moeite in steken, als het gros toch al een dedicated GPU gaat gebruiken? Ik weet het, daarmee wordt het een beetje een kip-of-ei verhaal, maar dan nog is het wel het overwegen waard of het niet gewoon (eigenlijk) overbodig is. Nu komt het over als: de concurrentie heeft het ook, dus moet AMD het ook hebben, terwijl het gros toch een dedicated GPU gebruikt...
[Reactie gewijzigd door CH4OS op 22 juli 2024 15:07]
Dat AMD een eigen graphics-divisie heeft is toch juist een reden om wél iGPU's in te bouwen? Alle kennis is in huis, en ze kunnen teruggrijpen naar een 6 jaar oude microarchitectuur die, net als hun chipsets en de Infinity Fabric interconnect gewoon door GlobalFoundries gemaakt kan worden op een weet ik veel hoe oud (en dus high yield) productieprocédé.
Als het gros van de klanten die een CPU met iGPU hebben een dedicated GPU gebruiken, is de iGPU toch praktisch overbodig? Bij AMD is de doelgroep redelijk specifiek en is de kans dat daar een dedicated GPU gebruikt wordt nu eenmaal veel groter dan Intel die voor een groter deel van de markt in processoren voorziet, waar cases te bedenken zijn waar een iGPU wel degelijk voldoende is. Denk bijvoorbeeld aan office PC's.
Dat is juist het hele punt, blijkbaar niet, anders zouden er van i9's K-series (bijna) alleen nog maar KF-modellen verkocht worden.
Uiteindelijk is het gewoon een self-fulfilling prophecy, lever al je high end CPU's zonder GPU aan boord en mensen gaan vanzelf wel exclusief systemen mét een aparte grafische kaart bouwen. Ik heb afgelopen 3 jaar 15 PC's op bestelling gebouwd voor mensen (in de muziekindustrie). 100% met AMD-CPU's.
Ik heb letterlijk 14 keer een GT 710 moeten meebestellen. 14 van de 15 hadden dus een systeem zonder videokaart gehad als er ook maar een armzalige iGPU in bijvoorbeeld een 3900XT had gezeten.
Zeker bij de huidige gekte met grafische kaartenprijzen is het denkelijk helemaal niet fout om voor een paar tientjes extra alvast even budget grafische kaart prestaties te halen, b.v. met een 5700G. Wil je later meer, dan kan je als je van de kosten van een nieuw MB+APU+RAM bekomen bent, er altijd nog een leuke grafische kaart bij prikken om mee te gamen. Wel vervelend dat je dan dus inlevert op Cache en PCI ...
Ik vindt PCIe 3 echt niet acceptabel meer voor een nieuwe CPU, aangezien er toch een behoorlijk verschil blijkt te zitten als je deze combineert met een budget videokaart. Zeker omdat AMD zelf het aantal lanes erg beperkt van hun budget-videokaarten.
Ik zou de 5500 dan ook alleen overwegen als je al een PCIe 3 moederbord hebt en deze een goedkope boost wil geven. Op zich is het een prima keuze om een AM4 systeem nog een laatste boost te geven en deze straks te vervangen door de 2e of 3e generatie AM5, wanneer de bugs er uit zijn en DDR5 betaalbaarder is.
Begin dit jaar gelijkaardige afweging gemaakt toen m'n GPU het opgaf en ik videosignaal nodig had. ;-)
Omdat moederbord PCIe 3.0 is, de 3600 vervangen door een 5600G.
Intussen 6700XT GPU; weet niet wat ik zou doen met de APU, en/of wanneer ik die zou vervangen - bv door 5800X3D zodra betaalbaar.
Zodra die Ryzen 5 5600 rond de 150 euro zit is het denk ik een hele mooie upgrade voor mensen die nog op een ryzen 2600 of ryzen 3600 zitten. Voor de huidige prijs is het nog te veel geld vind ik persoonlijk.
Om het energieverbruik van de 12400F een beetje in perspectief te plaatsen (enkele tientallen procenten meer verbruik klinkt als heel veel): zelfs als je 20W meer verbruikt onder full load, voor 8 uur per dag elke dag, bij een energieprijs van 40ct/kWh kom je uit op 0,02*8*365*0,40 = €23.36/jaar
In de praktijk zul je minder full load draaien dan dit met een dergelijke processor, en in vergelijking met de Ryzen's is hij sneller dus eerder klaar met taken en dus draait hij sowieso minder full load.
Het energieverbruik van de 12400F dus als minpunt noemen of als pluspunt bij de Ryzen's vind ik daarmee wel een beetje overtrokken: het verschil is in de praktijk van weinig betekenis volgens mij.