Door Tomas Hochstenbach

Redacteur

Tijd voor een upgrade? - Deel 1

Intel Coffee Lake vs. de nieuwste cpu's

22-06-2022 • 06:01

148

Singlepage-opmaak

Conclusie

Nu we de populairste Intel-processors van ongeveer drieënhalf jaar terug nog eens opnieuw hebben getest, valt eigenlijk pas op hoe enorm de stappen in de processorwereld de afgelopen jaren zijn geweest. Intels huidige 'reguliere' topmodel, de Core i9 12900K, is in drie generaties tijd maar liefst 136 procent sneller geworden dan de i9 9900K in Cinebench, multithreaded. Ter vergelijking, het verschil tussen de Core i7 3770K en 7700K (ook drie desktopgeneraties) was slechts 47 procent.

Nieuwere processors walsen over Coffee Lake heen in multithreaded

Maar dan de hamvraag, wordt het tijd voor een upgrade als je nu nog een oudere Intel-cpu hebt? Het antwoord is genuanceerd en hangt onder meer af van je gebruiksdoel. De nieuwste cpu's zijn ook per core sneller dan bijvoorbeeld die uit de negende generatie Core, maar het leeuwendeel van de prestatiewinst komt uit de toevoeging van extra cores. Zit je nu lang te wachten op een taak die die extra cores goed kan gebruiken, zoals 3d-rendering of videoconversie, dan kun je met een upgrade zo maar een prestatieverdubbeling bewerkstelligen.

Voor andere taken kun je met een i7 of i9 nog prima uit de voeten

Voor taken die meer afhangen van de ipc en kloksnelheid, zoals browser- en kantoorwerk, audioconversie en games, zijn de stappen minder groot. Met een i7 9700K of i9 9900K, en dat kun je prima doortrekken naar een technisch gelijkaardige cpu als de 10700K, kun je zelfs met een moderne high-end videokaart nog goed uit de voeten. Dat geldt eens te meer als je op hoge instellingen of hogere resoluties zoals 1440p of 4k speelt.

Bij de i5 9600K, de hexacore zonder hyperthreading, is het beeld in games wat gemengder. De ene game heeft daar nog genoeg aan, in de andere wordt het toch wat krap. Ruimte 'over' om bijvoorbeeld je gamebeelden te streamen via de processor heb je in ieder geval amper nog. De extra threads van modernere processors komen daarvoor goed van pas.

Vier oude cores trekken het niet meer

Voor nog oudere of lager gepositioneerde processors met maar vier cores begint de klok nu wel echt te tikken. De multithreadedprestaties zijn vanzelfsprekend niet indrukwekkend, maar ook menig game lust anno 2022 toch graag wat meer cores. Vorig jaar gingen we daar in onze test van cpu-corescaling in games nog veel dieper op in, maar als je bijvoorbeeld nog een i7 6700K of i7 7700K gebruikt, neem dan vooral gelijk je cpu mee als je je videokaart gaat upgraden.

Waarnaartoe upgraden?

Stel, je hebt naar aanleiding van deze benchmarks besloten dat je aan een upgrade toe bent, waar moet je dan naartoe upgraden? Daarvoor kun je prima uitgaan van onze aanraders in de Processor Best Buy Guide van vorige maand, want het moederbord moet je hoe dan ook mee vervangen. Je DDR4-geheugenkit kun je waarschijnlijk nog prima meenemen, als die aan je huidige wensen wat capaciteit en snelheid betreft voldoet. Aan de andere kant is DDR4 nog altijd lekker goedkoop, dus upgraden is ook geen straf.

Nu was je waarschijnlijk allang opgevallen dat er 'deel 1' in de titel staat. Volgende week publiceren we dan ook een tweede deel in deze serie, waarin we gaan bekijken hoe de Ryzen 1000- en Ryzen 2000-processors anno 2022 standhouden. Gebruik je dus nog een processor uit die generaties en twijfel je of het tijd wordt voor een upgrade? Check dan zeker volgende week Tweakers even.

Reacties (148)

148
145
59
7
0
73
Wijzig sortering
Als ik zo naar die benchmarks kijk zie ik één hele interessante.....

Prestaties per watt zijn in Gaming benchmarks niet persé in het voordeel van de nieuwe processoren.

De 9600K heeft een betere prestatie per watt dan de 12660K
De 9900K wint het in prestatie per watt van zowel zijn AMD als zijn Intel tegenhanger.
Ofwel: Overclocking zou wel eens kunnen zorgen dat de 9600K en 9900K het gewoon überhaupt winnen van de nieuwere versies.

Al met al zie ik dit niet persé als een vooruitgang. De nieuwere processoren zijn sneller maar verbruiken exhorbitant veel meer energie. Terwijl iedereen zijn mond vol heeft van energie besparing zien we dat in Computerland simpelweg nog niet gebeuren. Daar is het devies meer, meer, meer. Het moge duidelijk zijn dat de toevoeging van E-cores in de 12### series geen enkele toegevoegde waarde heeft voor game systemen.
INtel pushed die AL erg hard in kloks dus die singlethread win is meer zware fab oc.
Met lichte undervolt en wat lagere kloks kom je in betere performance watt range alleen niet de absolute performance. Wat ook mogelijk is de P-cores iets down klokken en e-cores ietje meer.

Als je niet aan e-sports doet of niet maximale wilt om K/D ratio online te maximaliseren
Zijn die agressieve p-core kloks niet zo nodig.
Zen4 gaat ook AVX512 supporten met bumpje in ipc en stuk betere klokschaling dus hoe daar wordt met vermogen.
Grof gezien
Zen4 vs RL
Zen3 vs AL
Zen2 vs 11th
Zen1 vs 10th gen.
Met die Zen1 TR is upgraden voor mij ook niet zo noodzakelijk.
ACM Software Architect @Croga22 juni 2022 07:27
Wat me ook tegenvalt is dat het idle-verbruik zoveel is toegenomen. Mijn i5 9600k is veel zuiniger op momenten dat ie niks staat te doen dan z'n opvolgers.

Voor zover ik me herinner werd vroeger (aka tot de 9600k of 10600k) in ieder geval het verbruik in idle nog steeds een beetje beter, ongeacht of eventueel het piekverbruik dan steeg.

En als je dat ook nog combineert met een upgrade van de videokaart (bijv mijn RTX 2070 naar een 3070 of 3070TI), dan neem het verbruik als het systeem vrijwel niks hoeft te doen nog wat extra toe. En laat ie nou net het grootste deel van de dag niet al te hard hoeven te werken...
Tja, als de PC het grootste deel van de dag nagenoeg staat te niksen en verbruik belangrijk voor je is, zet de PC dan gewoon uit, dan heb je geen verbruik ook...
ACM Software Architect @CH4OS22 juni 2022 08:43
Ik bedoel niet dat ik 'm niet gebruik. Maar hij wordt nou niet bepaald continu op maximale capaciteit belast tijdens mijn reguliere werk.

Dat zijn af en toe wat piekjes (wat compileren, code indexeren of analyseren, etc). Maar het grootste deel van de tijd heeft daardoor effectief weinig te doen, en kan je het - mijns inziens - dus het beste vergelijken met dat idle-verbruik.

[Reactie gewijzigd door ACM op 22 juli 2024 15:43]

Dat zijn af en toe wat piekjes (wat compileren, code indexeren of analyseren, etc). Maar het grootste deel van de tijd heeft daardoor effectief weinig te doen, en kan je het - mijns inziens - dus het beste vergelijken met dat idle-verbruik.
Lijkt me niet dat dit ook de gehele dag door moet gebeuren, toch? En als het voor werk is, dan neem ik aan dat Tweakers hier wel in voorziet en je dat niet zelf hoeft te doen. ;)
Ik denk niet dat het ACM om het geld te doen is, maar om de milieuimpact en warmteproductie (en daaraan gekoppeld eventueel lawaai van fans). Feit blijft dat computers in kantooromgevingen veelal niks staan te doen qua CPU-workload. Zelfs mijn CAD-laptop staat vooral te idlen, maar is zo snel om op het moment dat ik een CAD-model draai, wijzig of überhaupt inlaad, dat binnen enkele seconden te doen ipv minutenlang te rekenen.

En zo zal het met software engineers ook zijn: tijdens het programmeren hebben ze genoeg aan de traagste laptop, maar het compileren moet snel gebeuren. Ook daar zullen snelle computers staan die 90% van de tijd staan te idlen omdat ze gewoon tekst weergeven en verder niks.

Dus als ik naar het verbruik van mijn laptop kijk, geloof ik zo dat het gros komt van "niks doen" en dat wil niet zeggen dat hij al die idle tijd ook uit had kunnen staan, want ik ben dan wel degelijk aan het werk.
Mij gaat het ook niet zozeer om het geld, maar als een PC aan staat, maar niets staat te doen, is al het verbruik (waar het in de discussie immers om gaat) natuurlijk teveel, als je op het verbruik let natuurlijk. ;)

In dat op zicht kan je dan dus best de PC uit zetten, want heb je 0 verbruik. Je kunt dan immers best indexering of compiling doen op het moment dat het echt nodig is. Dan is het verbruik veel lager dan wanneer je een PC maar aan laat staan en verder weinig laat doen, wanneer je wel op verbruik let.

[Reactie gewijzigd door CH4OS op 22 juli 2024 15:43]

Ik denk dat onze definitie van "niks staan te doen" verschilt. Ik bedoel dus een moment als deze, waarop ik vlak voor de pauze even een berichtje sta te typen op T.net. Mijn CPU-verbruik is momenteel 3%, vooral door achtergrondprocessen. Maar uitzetten is vrij zinloos, want ik heb van alles open staan waar ik mee bezig ben en na de pauze ga ik een document aftypen in Word, waarbij mijn CPU ook uit z'n neus staat te vreten. Dat verbruik is zonde en zou lager moeten kunnen.
Maar dan staat de PC toch niet nutteloos aan? Het verbruik is nu eenmaal lastig lager te krijgen, wanneer men wel meer prestaties verwacht (op momenten dat het nodig is). Je zou dan dus kunnen terugklokken en ondervolten, dat scheelt dan misschien nog wel het meeste, zeker wanneer een PC lichte taken hoeft te doen, kan dat vaak waarschijnlijk ook prima op een lagere clockspeed en spanning.

An sich kan het dan ook interessant zijn om ARM-cores wellicht in zo'n CPU te combineren. Nu weet ik niet hoe dat technisch gezien in elkaar steekt met de E-cores bijvoorbeeld in de Intel CPU, maar ik denk wel, als zoiets gecombineerd kan worden, dat je dan ook grote verschillen in verbruik zult zien (bij low-load workloads).
ACM Software Architect @CH4OS22 juni 2022 12:57
Je zou dan dus kunnen terugklokken en ondervolten, dat scheelt dan misschien nog wel het meeste, zeker wanneer een PC lichte taken hoeft te doen, kan dat vaak waarschijnlijk ook prima op een lagere clockspeed en spanning.
Dat is iets wat de moderne CPU's (en biosen en OS-en) zelf ook al automatisch doen. Maar er lijkt minder focus op te liggen voor desktops.

Er staat mij bij dat zo'n beetje tot en met de 9xxx-serie er steeds werd benadrukt dat cpu's sneller en zuiniger waren. Ondertussen is dat weg. Wellicht komt dat doordat de hogere performancelat vereist dat ook de onderkant van het verbruik dan omhoog gaat, maar ik vind het wel zonde van de energie die dan nodig is om 'weinig' te doen :)

En helemaal zonde dat dat in nieuwste processors dan blijkbaar toegenomen is ivt de wat oudere modellen; het omgekeerde zou veel beter passen bij trends in andere producten, de historische trend van cpu's, en de wensen/eisen van 'de maatschappij'.

[Reactie gewijzigd door ACM op 22 juli 2024 15:43]

Dat is iets wat de moderne CPU's (en biosen en OS-en) zelf ook al automatisch doen. Maar er lijkt minder focus op te liggen voor desktops.
In laptops kan het, maar waarom wordt dat dan niet naar de desktop gebracht? Ook daarmee kan een flinke slag geslagen worden, denk ik. Of zoals ik eerder al schreef, zuinigere cores (zoals de ARM-cores) combineren met meer performance cores, een beetje zoals de E- en P-cores (geloof ik dat ze heten?), maar dan dus beter, wat nu dus in de praktijk nog niet echt het geval is.
Er staat mij bij dat zo'n beetje tot en met de 9xxx-serie er steeds werd benadrukt dat cpu's sneller en zuiniger waren. Ondertussen is dat weg. Wellicht komt dat doordat de hogere performancelat vereist dat ook de onderkant van het verbruik dan omhoog gaat, maar ik vind het wel zonde van de energie die dan nodig is om 'weinig' te doen :)
Men (= de consument) will 'across the board' betere performance met het liefst een lager gebruik, maar dat gaat nu eenmaal niet. In het verleden heeft (in elk geval Intel) inderdaad altijd in de marketing performance + verbruik meegenomen, hoe men dat tegenwoordig doet, geen idee, ik ben nog niet in de markt voor nieuwe hardware en mijn i7 7700k volstaat (voor de games die ik speel) nog prima.
En helemaal zonde dat dat in nieuwste processors dan blijkbaar toegenomen is ivt de wat oudere modellen; het omgekeerde zou veel beter passen bij trends in andere producten, de historische trend van cpu's, en de wensen/eisen van 'de maatschappij'.
Ergens heb ik ook een beetje het gevoel dat het altijd een beetje wisselend is. Nu ligt de focus op performance, straks (bij de komende generaties) wellicht weer het verbruik. Niet vergeten dat de 9000-serie de derde generatie Skylake is en dus meer kon focussen op verbruik, waar men nu weer op een nieuwe architectuur zitten. Dus nu kan men dat vervolgens weer verbeteren.
Nee, sorry, je kon je reactie ook lezen zoals je eerste reactie:
Tja, als de PC het grootste deel van de dag nagenoeg staat te niksen en verbruik belangrijk voor je is, zet de PC dan gewoon uit, dan heb je geen verbruik ook...
Maar ik snap wat je bedoelt: als hij niks staat te doen, zet hem dan gewoon uit (doe ik verbazingwekkend vaak met mijn laptop: even dichtklappen en hij blijft dagen standby als het moet), maar het idle verbruik als je er op aan het werken bent, is inderdaad jammer dat dat steeds hoger wordt.
Gezien nu een nieuwe architectuur wordt gebruikt (in elk geval bij Intel), zullen wellicht de verbeteringen qua verbruik nog gaan komen? Niet vergeten dat de 9000-serie ook de derde generatie Skylake is. Een i7 7700 verbruikt volgens mij ook een stuk meer dan een 9700, bijvoorbeeld.
ACM Software Architect @CH4OS22 juni 2022 09:40
Dat is juist het punt, de cpu wordt in de praktijk maar weinig echt belast. Dus z'n idle-verbruik is in die zin belangrijker voor het totaal opgenomen vermogen, dan de efficiëntie waarmee ie die zware taken kan uitvoeren. En ik vermoed dat dat voor de meeste computergebruikers geldt.

Ongeacht of de kosten ergens vergoed worden, vulde ik op Croga aan dat ook het idle-verbruik dus (relatief) flink hoger is. En los daarvan is die 9600k mijn privécomputer, die ik voor thuiswerken en overig privégebruik heb. En ja, ook zo nu end an voor wat gaming, dan wordt ie wel aardig belast :P
Helemaal eens met je redenatie. Dat was voor mij indertijd de reden dat ik de 9600KF kocht.
Als ik zie dat dat de 12600 het dubbele verbruik heeft in idle. Wat de meeste pc in een huishouden/bedrijf meestal draaien. En een i3 12100 zelfs afgerond 4 keer hoger verbruik heeft als een 9600K maak ik mij wel zorgen. Verbaas ik mij over het zoveel hogere idle verbruik.

Zeker omdat men nu in de 12 serie zuinige cores hebben ingebouwd. Zou je verwachten dat het totale idl verbruik lager zou zijn.
ACM Software Architect @Sinester22 juni 2022 12:51
Ik ben programmeur, er draaien hier wel degelijk applicaties die zwaar kunnen zijn.

Maar er zit een verschil tussen belasten en zwaar belasten... Hier wordt ie wel belast, maar toch vooral heel beperkt ivt z'n maximum. Terwijl ik dit zit te typen komt ie nauwelijks boven de 10% uit en de klokfrequentie varieert een beetje tussen de 1,5Ghz en 2,6GHz (base is 3,7Ghz, turbo kan tot 4,6Ghz).

[Reactie gewijzigd door ACM op 22 juli 2024 15:43]

Ik heb wel een laptop met een wat oudere Intel (8e gen) maar nu ben ik alleen aan het typen op Tweakers, en heb ik wat werk zaken open staan, niks echt zwaars

CPU = schommelend tussen de 25-40% (Base 1,80Ghz, werkelijke snelheid rond de 2,5Ghz)
Ik zie hem eigenlijk nooit onder de 20% behalve als ik dus echt niks open heb staan
maar ik hoop dat je dan ook beseft dat vooral het idle stroom verbruik komt van de hogere PCI-e standaard en peripherals er rondom. Doe gerust verder op je oude moederbordjes en CPU maar kom dan niet af dat er toch een merkelijk verschil is in performance op "lees niet lege systeem benchmarks" maar dat een alledaags gebruikt systeem een veel hogere belasting heeft en dat de performance winst van de laatste generatie mobo vooral in IO zit. Net dat kost dus verbruik.
Je snapt niet wat idle is. als je een pagina op internet leest is je PC ook nagenoeg continu idle. misschien dat er een core actief met andere dingen maar zeker niet alle cores. grootste deel van dat je de computer gebruikt is er geen grote CPU en kunne de cores dus idle staan (ook al is het een enkele seconde)
Oh ik snap heel goed wat idle is. Ook als je een 'low-load'/lage workload hebt. ;) Zie ook CH4OS in 'Tijd voor een upgrade? - Deel 1 - Intel Coffee Lake vs. de nieuwste cpu's' bijvoorbeeld. :) Zou mooi zijn als je 'soorten' cores kon combineren, Intel heeft dan wel de E-cores (geloof ik dat ze heten), maar blijkbaar zijn die dus niet zuinig genoeg. Zou dus mooi zijn als je dus voor workloads verschillende soorten cores aan boord hebt, zoals ARM-cores voor de lage workload die extra zuinig zijn.

Dan kan je ARM pakken voor workloads die weinig van een PC vragen zoals het typen van een brief, browsen, video kijken etc. En de zwaardere loads (encoding, decoding, compiling en weet ik wat nog meer) op de performance cores kan loslaten.

Net zoals een laptop nu kan schakelen van GPU wanneer je een dedicated GPU en een GPU in de CPU hebt zitten. Maar dan dus van cores. ;)

[Reactie gewijzigd door CH4OS op 22 juli 2024 15:43]

Dit is een zorg die ik al langer heb.
Bijvoorbeeld de RTX 3000 series zuigt energie.
En de geruchten zijn dat de 4000 nog veel meer energie wil.
Daar zit een limiet aan van hoeveel een consument aankan.
Want hoe meer energie, hoe meer warmte. Mijn kamer heeft al bijna geen verwarming meer nodig in de winter, laat staan zoals nu in de zomer, is het elke dag best warm op mijn kamer vanwege mijn computer.

Over enkele generaties heb je gewoon airconditioning nodig op je kamer anders kan je het niet koelen.

Gelukkig gaat dit voornamelijk om GPU's en dan voor de top kaarten, de gemiddelde consument heeft nog niet snel last van dit probleem.

Hiervoor denk ik wel dat we de vorm van GPU's moeten herdenken voor de nabije toekomst, een teken dat de GPU's een andere vorm moeten hebben valt te zien aan de GPU sag. GPU koeling is te groot en zwaar.
GPU's moeten een een andere vorm krijgen met een speciale plek in de computer waar het alle ruimte heeft. Met een dedicated riser die uit de achterkant of zijkant van het moederbord zou komen of iets dergelijks.
Totale energieverbruik is inderdaad flink gestegen. Over performance per watt hebben ze het ook vaak, maar dat valt voor standaard instellingen wel mee. Als je een gtx 1080 nu vervangt door een rtx 3060 ti. Ga je er ongeveer 25% op vooruit in performance en is het tdp 10% hoger.
Als je naar een 3060 gaat, is performance vergelijkbaar en ga je naar een 5% lager tdp.
Undervolten is een goede optie die steeds toegankelijker wordt, maar de meeste mensen zie ik dit niet doen.
Ja, ze worden efficiënter qua performance per watt, maar het is niet alsof ze zich net als auto's aan een snelheidslimiet moeten houden*: ze worden in games continu op 100% belast en verbruiken dus gewoon meer energie. Ik voel me precies zoals @Moortu omschrijft: na de 2000-serie zijn de RTX'en flink meer energie gaan verbruiken en de 4000-serie doet daar nog een flinke schep bovenop.


* Wat ik hiermee bedoel: er is niemand die zijn huidige GTX1080 vervang door een RTX3060 Ti voor de hogere efficiëntie. Die nieuwe GPU gaat gewoon die 25% meer performance leveren en 10% meer energie slurpen. Al zet je alle settings op het oude niveau, dan perst hij er gewoon meer frames uit. Dus de efficiëntie is verbeterd, maar we betalen gewoon in kWh's en niet in aantal frames/kWh ofzo :P
Je hebt helemaal gelijk. Ik bedoelde het ook meer als een vergelijking tussen efficiëntie. Er wordt vaak geroepen dat die veel beter is en als je grafiekjes kijkt (opgegeven door amd en nvidia) lijkt dat ook zo.
Maar omdat je inderdaad in de meeste gevallen een gpu tot zijn maximum belast wilde ik een vergelijkbare performance nemen tussen een nieuwe en iets oudere kaart.
En mij valt het op dat framerate/watt tdp maar heel beperkt beter is geworden dan.
Zelf heb ik wel het idee dat de 30 serie makkelijker te undervolten is, waardoor het verbruik behoorlijk kan afnemen zonder op performance in te leveren.
Persoonlijk had ik voor het vergelijken de M processors van Apple ook nog wel willen zien. Maargoed, die kun je natuurlijk niet als vervanger in je systeem schroeven plus het is ARM. Wel hebben die een goede performance per watt. Ik was er wel benieuwd naar geweest als referentie :)
Deze coffee lake is toevallig de laatste en snelste Intel chip in de MacBook Pro. Mijn ervaring daarmee komt overeen met de conclusie, voor dagelijks gebruik nog prima maar wel een hete energieslurper. Dit artikel onderstreept goed waarom Apple zijn eigen CPUs is gaan gebruiken. Performance per Watt is alleen maar slechter geworden.

Ik kwam net deze benchmarks tegen tussen deze Intel generatie en de M1.

[Reactie gewijzigd door machiel op 22 juli 2024 15:43]

Kort een stukje over de MT en ST performance van AL tegenover de M1 pro: https://youtu.be/X0bsjUMz3EM?t=776.

Conclusie:
- In MT is de M1 7% sneller op 35W, maar de AL cpu's verslaan de M1 al vanaf 45W en kunnen nog een stuk harder daarna.
- De M1 is wel aanzienlijk zuiniger in ST, daar komt dan ook een groot deel van de winst uit.
Die resultaten leken me wel zodanig skewed dat deze vermelding extra in de verf gezet mag worden:
Before you see the results, you should know that some benchmark suites are memory-intensive, some are CPU-intensive, and some have no benefits with multi-core processing because of its overhead or its difficulty for utilizing. It means that M1 can have an advantage over the desktop-class multi-core Ryzen processor even though the core count is lesser.
Veel van die tests zijn single-threaded (of in ieder geval erg weinig threads) waarbij de goede single-core performance van de M1 én de geheugentopologie naar voor komt. De M1 is goed, maar niet zó goed dat die altijd 2x sneller is dan een 3900X.

Hier is een ander overzicht van Phoronix. Getest met Asahi Linux wat soms beter, soms slechter is dan macOS.
De 8-core M1 hangt vaak ergens rond een 10600K.

[Reactie gewijzigd door Arrigi op 22 juli 2024 15:43]

Videoreviews zijn vaak echt niet handig om snel even resultaten te vergelijken. Er staat niet eens duidelijk om welke CPUs het gaat bvb.De gelinkte Amazon pagina noemt een Ryzen 5600X.. in een laptop. Houdt echt geen steek.

https://www.notebookcheck...-on-purpose.541475.0.html is dan beter. Zelfde modellen en een M1 Air in een tekstversie. In single-thread zijn de 1185G7 en M1 vergelijkbaar. In multi-thread zit die AMD 4680U ook mooi bovenaan.

Terwijl is de AMD 5000-reeks al gepasseerd en zitten we aan een 6000-reeks. Een 6800U 25-40% sneller single-thread en 30-50% sneller multi-thread dan de genoemde 4680U.

Om maar te zeggen: neem geen jaar oude data van een product dat toen al met een oudere CPU uitkwam. Vergelijk nú tussen de producten die je misschien wil kopen.

Apple heeft een goed product én zit minstens een node voor op de concurrentie maar het is niet alsof de rest van de markt hopeloos achterloopt.
Zo'n snellere processor is ook eerder klaar met zijn taak om weer naar idle te gaan.
Da's leuk maar als hij eerder klaar is omdat hij veel meer stroom verbruikt dan helpt dat niets in de totale berekening.
Daarom moet je kijken naar de totale energie die verbruikt is voor de berekening en niet zozeer naar het vermogen, maar dat is niet gedaan.
Om te bepalen hoe efficiënt een processor werkt, meten we de totale hoeveelheid energie die hij nodig heeft om de benchmark Cinebench 23 MT af te ronden. Hierbij spelen dus zowel de tijd die de processor nodig heeft, en daarmee de prestaties, als het stroomverbruik een rol.
Daar is dus juist wel naar gekeken.
Anders is het geen efficiëntietest,
De 9900K wint het in prestatie per watt van zowel zijn AMD als zijn Intel tegenhanger.
Volgens welke definitie van tegenhanger?
Als game performance het belangrijkst is, is de AMD Ryzen 7 5800X3D zowel sneller als zuiniger.
Ofwel: Overclocking zou wel eens kunnen zorgen dat de 9600K en 9900K het gewoon überhaupt winnen van de nieuwere versies.
Waar volgt dat uit?
De efficiency gaat rap omlaag bij overklokken.
Volgens welke definitie van tegenhanger?
Als game performance het belangrijkst is, is de AMD Ryzen 7 5800X3D zowel sneller als zuiniger.
Volgens de definitie die Tweakers hier gebruikt..... Wat mij betreft is de context van een reactie op een artikel altijd het artikel zelf. De 5800X3D is hier niet getest en kan dus in deze context ook niet als vergelijkingsmateriaal gebruikt worden.
Waar volgt dat uit?
De efficiency gaat rap omlaag bij overklokken.
Vandaar dat het als hypothese gesteld wordt. De efficiency gaat omlaag bij overclocken. De vraag is of de efficiency zo ver omlaag gaat dat bij dezelfde performance de performance/watt vergelijking in het voordeel van de nieuwe door zal slaan. Daar ben ik nog niet zo zeker van.
Volgens de definitie die Tweakers hier gebruikt....
Ah, dan zegt het meer over de keuzes die Tweakers heeft gemaakt dan over de CPUs van AMD en Intel..
Ik heb een 9600k een paar jaar geleden nieuw gekocht.Ik ben er nog dik tevreden mee.Daarom ben ik geen fervente gamer die een dikke videokaart in zijn systeem heeft zitten, ik gebruik gewoon de onboard videokaart en die voldoet nog altijd.Tevens zijn de huidige videokaarten veel te duur om een nieuwere te kopen.Ik speel ut99 en daar is mijn systeem nog goed genoeg voor.En af en toe doe ik ook surfen over het internet, en daarvoor is mijn computer wel een beetje verouderd, ik kan nog upgraden naar i7 en i9.Voor zoals ik hem gebruik zie ik niet veel nut om een moderner systeem te kopen.
Ik snap de verbazing niet, het was duidelijk dat Intel op korte termijn een antwoord moest geven op AMD en Apple zonder dat daadwerkelijk een volledig nieuw ontwerp gereed is en de enige manier dan om meer performance eruit te halen hogere clocks is.

Naar mijn idee hebben ze dit best slim opgepakt met E/P cores en scheduling, max boostruimte waar winst te behalen valt en de rest offloaden naar E cores om temperatuur te beheersen.

Voor mij niet heel erg interessant, aangezien voor 60-90% van de tijd baseclock voldoende is (en ik verwacht dat dit geldt voor het gros van het publiek), met een Ryzen of M1 zijn het andere factoren als verbruik en warmte die mij meer voordelen leveren dan een tijdelijke boost.
Terwijl iedereen zijn mond vol heeft van energie besparing
Dat is kroegpraat.
zien we dat in Computerland simpelweg nog niet gebeuren.
Omdat 1fps extra ook kroegpraat is.
@Tomas Hochstenbach
De temperaturen van de processors testen we met een , een van de best presterende luchtkoelers die je kunt kopen. In het luxere segment is hij dan ook een van de populairste koelers in de Pricewatch
Wat is dan de beste luchtkoeler die jullie getest hebben ? De be quiet kan in jullie tabel te zien de meest high-end cpu 12900 KS niet goed genoeg koelen (hoge tdp) , is er een air koeler die het kan of zijn voor die cpus AIO's beter ?

Bij Koeling noteer je trouwens : Koeling NZXT Kraken X62 in je tabel ? reviews: Tijd voor een upgrade? - Deel 1 - Intel Coffee Lake vs. de nieuwste ...

[Reactie gewijzigd door Gipsy King op 22 juli 2024 15:43]

Voor de 12900KS zou ik zeker waterkoeling adviseren ja. In onze i9 12900KS review hebben we ook wat extra tests met waterkoeling gedraaid.

En dat laatste klopt ja, alle prestatiebenchmarks doen we standaard met waterkoeling zodat we zeker weten dat koeling nooit de prestaties van de geteste processor beperkt. Alleen de temperatuurtest doen we met de DRP4.
Wat was de thermal paste en kamer temp voor de test. Mijn 9900k word nooit 82 graden met dezelfde koeler.
Ook de vcore is belangrijk. Veel borden in deze generatie zijn uiterst slecht. Mijn MSI bord gaf standaard 1.39v terwijl de 9900k voor 4.7 ghz all core maar 1.25v nodig heeft bij een slechte sample. Er komt een hele hoop niet overeen met mijn 3+ jaar lange ervaring.
Een van de betere (of beste volgens Gamers Nexus) is de Arctic Freezer II 360mm :)
Zelf ook al verschillende klant systemen mee gebouwd deze zou ik zeker aanraden voor de 12900 KS
- Foto- en videobewerking
- Video- en audiocodering
- 3d-rendering
- Compute en compile
- Webbrowsing en compressie
- Games

Wat ik mis in dit rijtje, zijn CAD applicaties. En waarom zie ik die graag apart behandeld worden: veel CAD software leunt nog zeer zwaar op single threaded processor performance. Klinkt erg ouderwets (en dat is het IMHO ook), maar hoge klokfrequentie tellen hier zwaarder dan welke multi-core technologie dan ook. En ondanks dat mijn CAD station hier is uitgerust met een i9 9900K (max. 4,95 GHz), zit ik met Solidworks toch vaker dan me lief is naar die verrekte zandloper te kijken.
ACM Software Architect @RRRobert22 juni 2022 08:40
Er zitten ook een paar single-thread benchmarks bij. Die zouden een indicatie moeten kunnen geven hoe het voor jouw applicaties zal gaan. Zoals je in de single-versie van Cinebench en Jetstream kan zien scoort de 9900K daar toch aardig onderaan.

Het hangt uiteraard voor een deel af van of jouw applicatie eventuele nieuwe instructies kan gebruiken en baat heeft bij meer cache. Maar helaas kan de redactie niet alles testen. Ik zie er bijvoorbeeld ook niet bij hoe lang het duurt om static analysis op een grote codebase uit te voeren, iets waar ik nog best wel op moet wachten.
Ah, dank voor de verwijzing. Nu weet ik niet of CAD te vergelijken is met web browsing ( ;) ) maar de vergelijking met Cinebench single threaded is wel zinvol. En zoals men in de tekst ook concludeert, is de verbetering van een i9 9900K pas echt significant geworden met de Alder Lake generatie Intel processors.
dit miste ik ook al. voor mijn gevoel zijn die oude pentium 4's net zo snel met CAD werk als de nieuwer multi-core.
Grapjas.

Ik neem aan dat je zelf ook kan bedenken dat een Pentium 4 bij lange naar niet in de buurt komt van een Core-i whatever?!

https://www.cpubenchmark....d-G7400T/1127vs1961vs4882

Pentium 3.0 Ghz vs 3e gen Pentium (Core-i based) vs 12e gen Pentium (Core-i based)

Score:
556
1602 (3x sneller)
2603 (5x sneller)
reviews: Intel Core i5 12400 - Goedkope Alder Lake zet 5600X buitenspel

In deze eerdere review (4-jan.-'22) staat het idle-CPU verbruik van een Intel i5-12400 op 0,98 Watt,
in deze nieuwe review staat het idle-CPU verbruik van deze zelfde CPU op 5,78 Watt.., waar komt dit verschil vandaan?
Ander moederbord en ander geheugen (dat was een test met DDR4, dit met DDR5). Maar daarbuiten is deze test natuurlijk ook met een nieuwer OS qua updates, nieuwe BIOS-versie, nieuwe drivers, nieuwe versies van de gebruikte programma's etc. Juist dat dingen kunnen veranderen is de reden dat we regelmatig compleet opnieuw testen, en niet zomaar oude resultaten vergelijken met nieuwe benchmarks :)
Dank voor je update Tomas!, toch wel heel groot verschil dan met eerdere setup. Bij het meten van idle-CPU -waarden verwacht je niet dat een ander moederbord, DDR4 -> DDR5, OS, drivers etc. zo'n groot verschil maken.
Zijn de test-resultaten dan wel indicatief voor wat een gebruiker mag verwachten?

Sowieso is het nu veel slimmer om bij DDR4 te blijven als je nu upgrade, dus dat lijkt me momenteel relevanter.
Het zal allemaal best. Ik heb hier nog een desktop met Intel I7 uit 2012 en die is nog snel zat voor me. Heel wat anders dan in de jaren negentig, als je toen een PC kocht werd hij een jaar later al aan alle kanten ingehaald.
Hier nog een all core OC van een 3770k en eerlijk gezegd begin ik nu pas te merken dat hij af en toe wat trager wordt. Maar eigenlijk moet met name de videokaart geupgrade worden maar die zijn onbetaalbaar.
Haha, same, zit op een 3770k en ben nu net van een 760gtx 2gb naar een x570 8gb geswitched qua videokaart en ik begin nu 't einde van de 3770 in zicht te krijgen.

Ik gebruik mijn pc voornamelijk om m'n dj sets te streamen, kan door die graka switchen nu wel van 720 streamen naar 1080. Maar van 30 naar 60 fps is wel echt to much voor deze setup.

Maar met 4 fullhd cams, een fullhd visualiser en de licht software is dit mobo+cpu echt wel op z'n max aan 't trekken. Heb wel de 760 in m'n andere pc gedaan (daar draait m'n dj software op, die kwam van een nog tragere passieve kaart, en dat verschil is goed te merken)
Dan heb je gewoon ook niet heel hoge eisen. Ik heb ook heel lang gedaan met mijn oude 2500K uit 2011, maar op een gegeven moment liep ik toch tegen issues dat tijdens bepaalde games het ging hakkelen omdat de cpu load tegen 100% liep. Dat was dan wel als ik in de achtergrond bv nog een video stream open had staan. Ben toen naar een ryzen 2600 en ondertussen een 5600G gegaan en die zijn toch echt veel sneller.

Klopt trouwens wel dat het heel lang geduurd heeft voor er significante verbeteringen waren maar die zijn er ondertussen dus toch echt wel.
Dan heb je gewoon ook niet heel hoge eisen.
Dat klopt, ik gebruik ook nog regelmatig een 2010 i3-530 en 2012 i5-3570, maar ik speel niet de nieuwste spellen.
ik heb ook 2 jaar geleden mijn game pc maar eens vervangen. Ik had ook een 2500k en ongeveer 3/4 jaar geleden kwamen toen de eerste spellen uit die ik niet meer kon spelen omdat het gewoon niet krachtig genoeg was.

Nu heb ik een Ryzen 3600 en een 3070 TI dat gaat voorlopig nog wel even goed.
Bedankt voor deze informatie! Ik vroeg me recent nog af hoe relevant mijn 9900k /32GB ram/ rtx2080 build is aangezien die al weer 4 jaar oud is. Gaat dus nog wel even mee zo te zien :D

[Reactie gewijzigd door r0y89 op 22 juli 2024 15:43]

De 9900 en de 2080 zijn nog geen 4 jaar oud?
Scherp.. komt inderdaad uit 2018!
Nou, zat je er een maand of 3 naast. Dichter bij 4 dan bij 3 jaar. ;)
Ik game op een 9700k op 1440p. Mooi om te zien dat het nauwelijks uitmaakt. Nog even wachten dus.
Heb ook 1440 en 4K daar kan dus ook 720p en 1080p op gegamed worden. Met Vega56 is eerder de bottleneck dus denk ook eerder aan nextgen g-kaart upgrade van maximaal onder de 300watt wat dan rond de midrange komt. Is 4K ook goed te doen en al helemaal 1440p
Als ik gemiddeld minimaal 20% performance meer wil qua games prestatie score dan moet mijn 9900k geupgrade worden naar een 12900k. Qua prijs/prestatie is dat volledig oninteressant, wachten op een nieuwe generatie dus.
Hoe kan het dat de 9700k beter is in games dan de 9900k in games?
Hyperthreading. Als je HT uitzet op een 9900k dan gaan de prestaties licht omhoog. Dit is uitgebreid getest op hardware.info
de game benchmarks van de AMD zijn consistent zeer laag hier bij tweakers en uit balans met de intel cpu tov andere review sites voor far cry 6....

https://www.techspot.com/article/2339-far-cry-6-benchmarks/
https://www.techpowerup.c...k-test-performance/4.html
https://www.eurogamer.net...n-7-5800x3d-review?page=4

[Reactie gewijzigd door d3x op 22 juli 2024 15:43]

Je eerste twee links gaan over vergelijkingen tussen videokaarten, dat lijkt me niet heel relevant? Eurogamer vergelijkt wel verschillende processors, maar doet dat met een Nvidia-kaart, dus dat er dan wat anders uitkomt dan in onze test met een 6900 XT is logisch. Bovendien zijn de framerates in hun test juist lager en niet hoger dan de onze, ook voor de 5800X3D bijvoorbeeld.
de eerste 2 links geven duidelijk weer dat er andere frames opgemeten worden door andere reviews

de resultaten van eurogamer zijn dan ook een pak lager voor allemaal, ook voor de intel cpu van de laatste generatie. In de tweakers test is het alsof voor de Intel de max fps genomen zijn en voor de AMD de gem fps.
Leuk dat jullie oud en nieuw vergelijken, ben benieuwd hoe de aankomende generatie in verhouding zal staan tot deze resultaten.

Als trouwe sandy bridge (i5 2500k) gebruiker denk ik echter dat zo'n beetje alles wel een enorme upgrade zal zijn.

Op dit item kan niet meer gereageerd worden.