Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 228 reacties

Meer factoren

Als we puur naar de ipc of instructions per cycle kijken, in dit geval aan de hand van enkele bekende en minder bekende synthetische benchmarks en een enkele praktijktest, lijkt het er inderdaad sterk op dat de processorontwikkeling, althans bij Intel, behoorlijk vaart heeft geminderd, zo niet stil is komen te liggen. Afhankelijk van de benchmark zien we verbeteringen in de dubbele cijfers rond de introductie van de Nehalem-architectuur, met Sandy Bridge-processors als bekendste voorbeeld. Daarna slinken de prestatieverbeteringen tot onder de tien procent, met regelmatig geen of een marginale verbetering, zeker bij de laatste generaties.

Voor de ticks van Intels productiecadans is dat niet gek; bij een die shrink hoef je nu eenmaal weinig verandering op prestatiegebied te verwachten. Bij de tocks zien we echter ook nog maar weinig verbetering, zeker toen Intel begon met refreshes en optimalisaties in plaats van echte tocks. Het gevolg is dat we al sinds Haswell of Broadwell behoorlijk stil lijken te liggen.

Dat is enerzijds natuurlijk ontegenzeggelijk waar, maar desondanks zijn er wel degelijk verbeteringen geweest. Misschien niet in de pure rekenkracht zoals gemeten in ipc, maar meer in de zaken rondom en toch ook in de processor. Zo hebben we veel meer geheugenbandbreedte gekregen met eerst de stap naar ddr3 en later naar ddr4. Verder zijn er tal van hardwarematige ondersteuningen toegevoegd voor codeer- en decodeerwerk zoals encryptie. Ongetwijfeld het belangrijkste is echter dat de gpu is geïntegreerd. Daarin is behoorlijk geïnvesteerd, wat die-oppervlak en wat ontwikkeltijd betreft. Waar concurrent AMD ten tijde van Llano en Trinity nog kon bogen op een flinke voorsprong, is die inmiddels bij- en ingehaald door de processor graphics van Intel.

Bij de Lynnfield-introductie werd de Northbridge met pci express 2.0- en ddr3-geheugencontroller in de processor geïntegreerd en werd de turbotechniek geïntroduceerd. Bij de Clarkdale-generatie werd de gpu in de processor geïntegreerd, toen nog als los stukje silicium in de package en bij Sandy Bridge werd de gpu echt in hetzelfde silicium als de cpu-cores geïntegreerd en werd de turbo verbeterd. Ivy Bridge zette een stap naar een geïntegreerde pci express 3.0-controller en met de introductie van finfets en bij Skylake werd de geheugencontroller geüpgradet naar een ddr4-controller. Op beveiligingsgebied, denk bijvoorbeeld aan encryptie en bescherming tegen ongewenste code, is ook flink aan de weg getimmerd, met onder meer MPXSGX en EDB in de nieuwste platforms. Ter illustratie willen we nog graag een encryptiebenchmark de Crypto-test van Geekbench, laten zien.

Geekbench 4 - CPU Benchmark - Single Crypto
Processor in punten (hoger is beter)
14nm Skylake
**********
3.708
14nm Kaby Lake
**********
3.668
14nm Broadwell
*********
3.282
22nm Haswell
********
3.121
22nm Haswell Refresh
********
3.116
22nm Ivy Bridge
*******
2.730
32nm Sandy Bridge
*******
2.606
32nm Clarkdale
****
1.519
45nm Lynnfield
133

Daarnaast zijn de kloksnelheden, en dan vooral turbo's, aangepakt. Waar processors voor de Core i-serie nog geen turbo's hadden, zijn die daarna steeds geavanceerder geworden en is het dynamisch aanpassen van kloksnelheden steeds verbeterd. Ook de randapparatuur - we noemden geheugen al even - is in de loop der tijd veranderd. Zo hebben we ondersteuning voor nvme-ssd's gekregen, zijn usb-poorten en netwerkaansluitingen sneller geworden, en worden componenten steeds verder geïntegreerd. Als laatste, voor desktopliefhebbers minder relevant, maar voor laptops fantastisch, is het energiegebruik drastisch aangepakt en zijn processors niet alleen iets sneller, maar vooral ook veel zuiniger en veelzijdiger geworden.

Lees ook de gebruikersreviews

Populaire gebruikersreviews Alle gebruikersreviews over:

Intel Core i7-7700K

Intel Core i7-6700K

Intel Core i7 3770K

Intel Core i7 4770K


Door Willem de Moor

- Reviewer

Willem werkt sinds 2008 bij Tweakers en heeft een voorliefde voor wetenschap en een passie voor hardware. Deze combinatie gebruikt hij bij het schrijven van zijn verhelderende achtergrondartikelen, maar komt hem ook goed van pas bij het testen van de nieuwste processors, ssd's en laptops. Zijn informatie haalt Willem het liefst uit de eerste hand bij de fabrikant, ook als dat betekent dat hij daarvoor naar Taiwan moet vliegen.

Moderatie-faq Wijzig weergave

Reacties (228)

Gaaf artikel! Leuk dat jullie er zo diep induiken!

Wel één kritische noot:
Met SuperPi rekenen we pi uit tot op één miljoen cijfers achter de komma, waarbij vooral de floating-point-unit in de cpu wordt gebruikt
SuperPi leunt zwaar op oude X87 code, dat in normale applicaties zo goed als nooit meer voorkomt, wat hier vooral getest wordt is de X87 unit in de Intel CPU's die sinds Sandy Bridge al niet meer is aangepast.
Daarom schaalt deze test niet vergelijkbaar met de floating point test in Geekbench 4, omdat je eigenlijk legacy code op legacy hardware aan het testen bent. (Het schaalt wel leuk met kloksnelheid, daarom is het populair bij het overclocken)

AMD heeft de X87 unit al gedumpt(/uitgeschakeld) in Bulldozer (2011: http://www.xtremesystems....s-Episode-2-(SuperPI-x87) ) en Intel gaat het in de volgende generatie dumpen (2019: http://semiaccurate.com/f....php?p=278462&postcount=1 ) .

Het is aannemelijk dat Zen geen dedicated X87 unit heeft (omdat het gewoon verspilling is van ruimte) en daardoor in deze specifieke legacy instructies 30% tot 50% langzamer zal zijn, het is dus belangrijk om SuperPi niet te verwarren met floating point performance, want dat is het dus niet.

[Reactie gewijzigd door Toettoetdaan op 16 februari 2017 10:11]

Intel die x87 dumpt? En de basis daarvoor is een ongefundeeerde post op 1 of ander italiaans forum, zonder onderbouwing?

Toegegeven, x87 is niet efficient, zelfs niet op Intel. Maar ruimte is simpelweg geen probleem op moderne CPU's. x87 is antiek en doe je met een handjevol gates.
tzal wel met ucode worden opgevangen naar nieuwe instructies.
Dat is een goeie..las SuperPI idd als een verkapte FPU test!
Goed punt. Ik vind het hoe dan ook slecht om te benchmarken op zeer specifieke functionaliteit, want daar worden de CPU's zelf ook vaak niet voor geoptimaliseerd. Je wil juist de real-life performance weten in games, servertoepassingen, rendering etc.
Inderdaad een gaaf artikel. Ik mis echter een belangrijk aspect; energie verbruik. Iets waarin juist de laatste tijd veel focus op zou moeten liggen en waar volgens mij het grootste voordeel ligt voor 14nm chips.
Dit artikel toont maar weer eens aan dat Sandy Bridge de laatste "grote" sprong vooruit was qua performance. Daarna hebben enkel het energieverbruik en igp noemenswaardige sprongen vooruit gemaakt. Alle overige verbeteringen zijn voornamelijk kleine zaken die in de meeste benchmarks niet naar voren komen.

Zeker vanwege de hoge overclockbaarheid van (bepaalde) Sandy Bridge cpu's kan ie nog steeds prima meekomen. Mijn eigen 2600k draait nu al ruim 6 jaar op 4,5 GHz en er is nog steeds geen behoefte om te upgraden. Iets wat mij althans nog niet eerder is overkomen met dit soort computeronderdelen.
De scope van dit onderzoekje is eigenlijk te beperkt om uberhaupt iets te concluderen.

Ik kan mij bijvoorbeeld al niet vinden in de keuze om al het geheugen terug te clocken. De geheugenbandbreedte heb je nodig op het moment dat de rekenkracht toeneemt, niet voor niets zijn we van een paar duizend MB/s naar tienduizenden MB/s gestegen. Juist de nieuwste generaties blijken onwijs veel profijt van sneller geheugen te hebben. Op mijn eigen budget Skylake (G4400) kwam ik op 5% verschil in winrar door 2400 Mhz geheugen te gebruiken in plaats van 2133 Mhz. Dat is ongekend, zeker omdat het "real world" is.

Ik snap de gedachtegang van het isoleren van de cpu maar het geheugen is simpelweg niet los te denken van de prestaties van een cpu. (Draai maar eens een synthetic op 1 reepje ram waardoor je bandbreedte halveert).

Met andere woorden door deze keuze ga je al morrelen aan de rekenkracht, en dus aan de ipc, voor je uberhaupt gaat meten. Een veel logischere keuze is om gewoon de aangeraden snelheden te gebruiken. Zo was dat DDR3 1333 Mhz voor Sandby Bridge en DDR3 1600 Mhz voor Ivy Bridge. Deze getallen staan gewoon op de website van Intel.

Tweede punt is de selectie van de benchmarks, daar valt altijd over te discussiëren, dus dat laten we maar even zo.

Derde punt is dat de grootste verschillen juist aan de onderkant van de markt hebben plaatsgevonden. In 2011 zaten de Celeron sandby bridge cpu op 1 core met 1.6 GHz. Anno 2017 is het traagste model een dualcore met 2.9 GHz. Los van de IPC toename praten we dan al bijna over een factor 4 toename van rekenkracht (2x zoveel cores die bijna 2x sneller zijn). Ook wat stappen hoger zie je verschillen; de Pentium reeks werd met Skylake al verschrikkelijk snel (3.3+ GHz) en recentelijk hebben we zelfs een Hyperthreading Pentium dualcore gezien. Dat je naar cpu's als de 2600K kijkt is prima, maar daarmee beperkt je natuurlijk wel heel erg de scope van je onderzoek.

Begrijp me niet verkeerd, we hadden verder kunnen zijn. Veel 'verbeteringen' zijn te vinden in de IGP (welke een steeds groter oppervlakte inneemt, wat dus ten koste gaat van rekenkracht) en stroomverbruik. Dit is niet volledig de schuld van AMD. De PC markt krimpt al jaren en wat Intel betreft zijn/waren laptops de toekomst. Het is dan niet vreemd dat je de voorsprong op dekstop gebied een beetje tempert en gaat werken aan de mobiele tak.

Om een lang verhaal kort te maken:
De titel "prestatie van 10 Intel generatie vergeleken" strookt niet met het onderzoek en door de vreemde keuze mbt de geheugen snelheden kunnen de resultaten wat mij betreft de prullenbak in (vervelend van de moeite maar het is niet anders).

Ik raad sterk aan de tests opnieuw uit te voeren in combinatie met het geheugen zoals aangeraden door Intel. Misschien nuanceert dit het IPC beeld. Let dan meteen ook even op de moderne instructie sets. Kijk eens naar deze Dolphin test . Daar zie je bijna een verdubbeling van Sandby Bridge naar Skylake.

[Reactie gewijzigd door sdk1985 op 16 februari 2017 13:55]

Dit artikel toont eigenlijk alleen maar dan de performance per thread niet hoger dan 30% is gestegen wanneer men dezelfde memory snelheden gebruikt. In het echt is dat natuurlijk niet zo en zijn de snelheden hoger dan in deze test. Verder worden de instructie optimalisaties in nieuwere cpu's ook niet gebruikt, dus het is eigenlijk een leuke test, maar het zegt niks over de real-life performance winst.
Het artikel heeft totaal geen rekening gehouden met verbruik.
Reken je de snelheid naar verbruik terug zijn de stijgingen veel groter dan wat men hier nu opgeeft.
Door dat niet mee te nemen is het hele artikel voor mij waardeloos en nietszeggend.
Maar de meeste desktopgebruikers zullen ook niet echt serieus rekening houden met het verbruik. En zelfs dan misschien wel vooral in de context van wat voor voeding er nodig is en hoeveel geluid een bijpassende koeler maakt.

De "rekenwerk per watt"-metriek is vooral interessant op het moment dat een significant deel van je budget op gaat aan stroomkosten en/of je op de limiet zit van hoeveel energie je kan gebruiken. En ook die beide scenario's zullen voor de meeste thuissituaties niet echt relevant zijn.

Sowieso is bij normaal gebruik vooral het idle-verbruik relevant, omdat je PC meestal meer idle zal zijn dan actief.
En met 22 cent per kWh mag je nogal flink doorstoken wil je een nieuwe processor van ¤250,- verantwoorden qua besparing van stroom.
Precies.
Ik heb pas een nieuwe pc samengesteld.
Ik heb gekozen voor een I3-7100 en niet voor een I3-7100T
51Watt of 35Watt en prijs verschil van 20 euro.

Om even wat makkelijker te rekenen.
zeg 15 watt verschil, en je pc staat 4 uur per dag aan.
Dan spaar je ongeveer 5 euro per jaar.

Het prijs verschil tussen deze 2 CPUs is ongeveer 20 euro, dus waarom een "zuinigeren" pc met een lagere snelheid open als je pas het er uit gaat halen na 4 jaar. ( bij 4 uur per dag )

Bij 24 uur per dag aan is het verschil ongeveer 30 euro, dan zou je dus in het eerste jaar 10 euro overhouden.

keuzes keuzes.. :-)
Dat verschil van 16 Watt ga je niet merken, alleen als je de core 100% gebruikt. Ik vermoed dat mijn skylake i7 in idle haast een vergelijkbaar verbruik heeft als je i3. Wel heb ik mijn i7 met alle cstates tot c8 aanstaan waardoor het voltage naar 0.12v zakt in idle.
En elke kWh aan stroom scheelt een kWh aan gas in de winter!;) Onderaan de streep is het financieel meestal niet interessant om extreem zuinige apparaten te kopen.
Alleen jammer dat elke KWh warmte door electra geproduceerd bijna 3X zo duur is als gas. :-(
Dus mag je 1/3 van de prijs van een kWh stroom af halen. Dat is zijn punt. Niet dat je je huis moet verwarmen met computers. :+
Voor een cpu betekend minder verbruik dat deze efficiënter met energie omgaat. Het vermogen per watt bepaald uiteindelijk hoeveel vermogen je uit en energie kan halen.

Als je oude en nieuwe cpu's wil vergelijken zul je dus gewoon moeten kijken naar de efficiency en dat doe je dus ook met energie.

Dat stroomkosten voor jou misschien nog laag zijn of niet relevant doet niet ter zake bij een goede vergelijking.
"Als je oude en nieuwe cpu's wil vergelijken zul je dus gewoon moeten kijken naar de efficiency en dat doe je dus ook met energie."

Dat is juist het punt, dat speelt totaal niet. Als je een zeer specifieke toepassing hebt waar je een X hoevelheid stroom mag gebruiken dan heeft dat zin, maar voor de rest maken die paar watt's meer of minder echt niet uit op het totaalplaatje. Zelfs bij het samenstellen van servers werk je toch naar een specifieke TDP en die is vaak overschat door Intel om zich in te dekken, dus dan ga je alsnog niks merken van een 22nm naar 14nm overgang. Het is dan toch echt de performance per euro/dollar, niet het stroomverbruik.
Je gaat er net als anderen van uit dat omdat energie niet veel kost het niet uitmaakt.

Apart want kijken we naar auto's dan worden die steeds zuiniger en krijgen daarnaast vaak nog meer pk's. Toch kijken we allemaal naar zuinig omdat benzine, diesel meer kost.

Bij een mobile telefoon willen we dan allemaal sneller maar verbruik moet omlaag want dan doen we langer met on ze accu. apart want ook daar kost die energie even veel als voor jou desktop. Maar is de accu de beperking.

Voor servers kijk je juist wel weer naar energie. Je wil per kast zo veel mogelijk snelheid tegen juist minder energie, want meer energie betekend meer koelen. Afgezien van het stroomverbruik.

Als energie dus meer kost mag je kijken naar efficiency maar als het minder kost niet. Beetje krom
Uiteindelijk blijft het er om gaan welke snelheid haal je uit x energie.
Die vergelijking wordt hier niet gedaan en dan lijkt het alsof de snelheid maar weinig is toegenomen terwijl het tegendeel waar is.
Bij dit soort dingen is het een beetje hetzelfde als het energielabel op allerlei producten.

Als je nu een A-label apparaat hebt, is het maar zeer de vraag of een vroegtijdige investering in een A+++-apparaat echt zinvol is. Waarschijnlijk niet.

Uiteraard hangt e.e.a. af van de hoeveelheid die er daadwerkelijk gebruikt wordt. Als je met die vervanging binnen de verwachte levensduur van je A+++-apparaat het geld er weer uit hebt, dan moet je het zeker serieus overwegen. Maar meestal zal het lagere verbruik vooral een bijkomend voordeel zijn en waren er andere reden om de boel te vervangen (kapot, voldoet niet meer, etc).

Maar met puur een upgrade van je processor (van de generaties in dit artikel) zal je - uitzonderingen daargelaten - misschien enkele tientallen kWh's per jaar besparen. Het totale systeem vervangen kan natuurlijk nog best veel besparing opleveren, zeker als er nog onderdelen in zitten die ook bij idle veel verbruiken (oude videokaarten, sommige hdd's, ccfl-monitoren, e.a.). Maar de kosten stijgen dan natuurlijk ook.
Als het dan over het verlagen van je energieverbruik gaat, zijn er wellicht oplossingen die meer rendement opleveren.

Bij computers die 24/7 aan staan is het sowieso interessant om te kijken of het ook gewoon uit of op standby kan op de momenten dat er geen gebruik van wordt gemaakt, dat geeft een grotere besparing met minder investering.

Maar lang verhaal kort: dit zijn typisch het soort besparingen die je moet meenemen als het om een specifieke reden echt nodig is of als je toch al met vervanging bezig bent. In dat laatste geval is het veel eerder de moeite en/of meerprijs waard om een zuinigere versie van iets op te zoeken. Zeker als die zuinigere versie ook (daardoor) minder hard slijt.
Je hoort mij ook niet zeggen dat je moet gaan vervangen voor het stroomverbruik dat zal idd niet rendabel zijn. Bij sommige koelkasten die 24/7 draaien kan dat sneller rendabel zijn in vergelijking met model van 10-20 jaar geleden.

Punt ging mij puur om de snelheid die die niet veel zou zijn toegenomen, hetgeen dus gewoon niet klopt omdat de snelheid gemeten naar energieverbruik wel aanzienlijk is toegenomen.
Je hebt helemaal gelijk dat de efficientie is verbeterd. Maar als je puur naar de clock-voor-clock snelheid kijkt van 1 core, dan is er blijkbaar niet echt een hele spectaculaire verbetering te zien.

Maar daarnaast is de cpu in zijn totaliteit in veel gevallen sowieso wel sneller geworden. Bijvoorbeeld door hogere core- en turbosnelheden. Doordat er meer instructies parallel kunnen en/of er betere branch-prediction is. Doordat er instructies zijn toegevoegd (zoals voor encryption en video-decoding). En zo nog veel meer.

Of hij kan al dat werk met minder energie doen.
Het was jaren terug al bekend dat men uit een single core niet heel veel meer kon uithalen. De snelheidswinst komt uiteindelijk uit meerdere cores. c.q dat meerdere cores nu hetzelfde verbruiken als vroeger 1 core en daarbij een hele grote factor sneller zijn.

Als je deze onzin vergelijking op gpu's zou doen komt er ook weinig verbetering uit. gpu's hebben intern ondertussen ook meer single core systemen.

Een single core kun je iets optimaliseren of via verhogen van snelheid maar de grens is al langer bereikt.

Ook in de arm markt gaat het van single naar dual naar quad cores toe en hogere kloksnelheden en minder verbruik c.q hetzelfde verbruik maar X% meer snelheid.
"Je gaat er net als anderen van uit dat omdat energie niet veel kost het niet uitmaakt."

Nee, omdat het juist echt niet uitmaakt. Als jij 1 kopje thee zet verbruik je al meer dan het verschil in verbruik tussen een i5 van 4 jaar terug en een i5 nu per dag. Draai je de wasmachine 1x extra dan ben je de besparing per maand al weer kwijt.

Je bent echt spijkers op laag water aan het zoeken omdat de krimp naar 22 en toen naar 14 nm nou eenmaal een lager verbruik als bijkomstigheid heeft. Ja dat is leuk, maar je merkt het niet in je totale verbruik. Daarvoor moet je echt naar een geheel lichter platform gaan, bijvoorbeeld naar een NUC die in z'n geheel de besparing oplevert. Maar dan nog vind ik het knap als je daarmee een noemenswaardige besparing kan halen. Wat trekt jouw monitor als je die 1 uur langer gebruikt?

Ja natuurlijk als je het vergelijkt met een tower van vroeger met rotational disks, DDR1 of 2, een < 80% efficiente voeding, een dikke GPU kaart, ja dan maakt het verschil. Maar dat komt doordat je al die genoemde factoren weghaalt, niet omdat Intel's cpu's nou zo enorm veel stroombesparender zijn.

[Reactie gewijzigd door Lekkere Kwal op 16 februari 2017 15:55]

Als energie dus meer kost mag je kijken naar efficiency maar als het minder kost niet.
Hier sla je eigenlijk de spijker op zijn kop. Er zijn nog veel meer variabelen die ze zouden kunnen meenemen. Zoals prestaties per milimeter 'die'. Of prestaties per euro gerelateerd aan toenmalige koopkracht (zou een leuke zijn!!). Of... Noem maar op.

De meeste vergelijkingen zijn niet interessant, waarvan energie bij een desktop er een van is. Een processor verbruikt al zo weinig dat het gewoon niet uitmaakt. Net zoals de grootte van socket of aantal pinnetjes niet uitmaakt.

Als het nou om enkele euros per dag gaan, dan ga ik je echt helemaal gelijk geven. Dan wordt het een boeiende variabele. Nu niet.
Je gaat er net als anderen van uit dat omdat energie niet veel kost het niet uitmaakt.
In een gemiddeld huishouden merk je geen verschil tussen een Sandy Bridge of een Kaby Lake.
Apart want kijken we naar auto's dan worden die steeds zuiniger en krijgen daarnaast vaak nog meer pk's. Toch kijken we allemaal naar zuinig omdat benzine, diesel meer kost.
Aan auto's worden andere eisen gesteld. Het gaat om gemak. Je wilt niet te vaak aan de pomp staan. Daarnaast merk je het verbruik van een auto direct in je portemonnee en nog meer met de stijgende brandstofprijzen. Een andere overweging is het verminderen van de uitstoot.
Bij een mobile telefoon willen we dan allemaal sneller maar verbruik moet omlaag want dan doen we langer met on ze accu. apart want ook daar kost die energie even veel als voor jou desktop. Maar is de accu de beperking.
Ook hier gaat het om gemak. Je wilt je telefoon kunnen gebruiken zo gauw je opstaat en tot je weer gaat slapen. Niemand maakt zich druk over het verbruik vanwege de (lage) kosten.
Uiteindelijk blijft het er om gaan welke snelheid haal je uit x energie.
Uiteindelijk gaat het om gemak. Zeker als de kosten te verwaarlozen zijn of de investering niet opweegt tegen het rendement.
ik ben dan dus geen gemiddeld huishouden.
oke ik gebruik al snel een 5000kWh (dit is hoog doordat ik ook een wamtepomp heb.), maar wek daar een 4500kWh zelf van op. dus totaal is dan een 500kWh per jaar.

als ik de zelfde processor als ik nu zou hebben ook aan de vrouw geef.
ik haswel i7, vrouw core-2-duo oud bakie.
dan bespaar ik per jaar toch 250kWh, en dat is 50% van mijn rekening. (na gemeten met plugwise een maand lang.)

ik zit er toch wel aan te denken om dit onzinnige gebruik aan te gaan pakken. kosten ach de vrouw mag wel iets kosten, krijg er genoeg voor terug. ;)
Op zich niet gek om zo'n oud systeem te vervangen, maar die 250kWh kost je uiteindelijk zo'n 50-60 euro per jaar.
Verder betekent vervangen dat er daarna iets anders ook stroom gaat gebruiken, als dat uiteindelijk dan 150kWh gaat gebruiken bespaar je slechts zo'n 20-25 euro per jaar ;)

Maar voordeel van vervangen is in dit geval waarschijnlijk wel dat je ook gelijk een systeem kunt regelen dat veel makkelijker uit (want start snel op) of in (diepe) slaapmodus gezet kan worden en je op die manier wel echt serieus winst boekt :)
250kWh kost maar 45¤ per jaar (0,18ct per kWh is een normale prijs.)
maar de pc gaat wel een jaar of 5 mee, dus 225¤ is nog niet zo een slecht begin om te gebruiken.
(het was het verschil tussen de die 2 pc's, dus vervanging levert ook echt 250kWh op mits precies de zelfde PC als ik nu gebruik. ;) )

nu is mijn haswell echt niet speciaal energie zuinig, en als ik dan kijk wat mux voor elkaar krijgt,
mux' blog: 8.5W core i3-systeem: het bewijs!
pfff 8,5W, daar kom ik vast niet onder, maar dan moet het mij toch minimaal wel lukken om een PC voor mijn vrouw in elkaar te zetten die nog wel 2x zo zuinig is als mijn haswell.
dan ga ik wel over een 325¤ per 5 jaar.

dan moet er nog wel wat geld bij gelegd worden,
maar de vrouw heeft dan wel iets wat flink sneller is als een core-2-duo.

maar goed de vrouw levert ook diensten waar je op de wallen al snel heel veel meer voor betaalt per jaar. }>
dus kosten is zo terug verdiend. :P
Het artikel heeft nergens iets over performance per watt gezegd. Het enige wat ze hier wilden vergelijken is de ipc. Verbruik is zeker belangrijk, maar niet het doel van deze vergelijking.
dat maakt de vergelijking dus totaal zinloos.

Naar de toekomst toe kun je ook voorspellen dat het per core niet veel beter zal worden. Over 10 jaar is 1 single core misschien 30% sneller dan een sinlge core nu. Echter ondanks 30% sneller zal deze dan misschien wel nog een keer 50% zuiniger zijn.

Juist multicore en verbruik van alle cores samen is waar het uiteindelijk om draait en wat de snelheid bepaald.
Dat eerste ben ik niet met je eens. Ik denk dat je wel degelijk iets uit deze grafieken kan halen, maar het is ook zeker waar dat andere factoren nog een grote rol spelen (zoals warmte). Dus Intel is misschien minder hard qua ipc gegaan, maar ze zijn qua efficiëntie veel verbeterd.
Wat denk je dat het doel van dit artikel is? Dat is namelijk een essentieel aspect. Het doel is niet processorkracht vergelijken.
Dat is in het echt dus wel zo:
http://www.techspot.com/n...aw-bandwidth-numbers.html

"Verder worden de instructie optimalisaties in nieuwere cpu's ook niet gebruikt"
Okey, je praat hier niet over optimalisaties maar over nieuwe instructie sets. Optimalisaties in instructiesets zouden juist WEL door deze test gezien moeten worden.

Daarnaast vindt ik je uitlating wat matig onderbouwd, welke instructiesets mis je in deze test en waarom?
Ik heb geen zin om een heel verhaal te schrijven waarom iets wel of niet goed is, ik zeg gewoon dat nieuwe CPU's wel meer voordelen hebben dan alleen de instructies per cycle in een benchmark. Kijk bijv. naar VMCS shadowing voor nested virtualisation dat er pas met Haswell in geïntroduceerd is. De schaalbaarheid van de geheugencontroller heeft heel veel voordelen voor de throughput met sneller geheugen. Er zijn genoeg applicaties die hier baat bij hebben, omdat het zorgt voor een veel stabielere stroom aan data.

Als het gaat om gamen zou je met een oude 920 nog prima uit te voeten kunnen als je die flinkt overclockt met een oude D0 stepping gaat dat perfect. Alleen wordt dat ding heel erg warm en krijg je een bromtol in je PC als je niet uitkijkt. CPU's zijn sowieso niet meer echt de bottleneck in veel gevallen, en het inzetten op verbruik door Intel vind ik logisch en wenselijk ipv alleen maar meer performance wat de meeste mensen niet nodig hebben.

En dan heb ik het nog niet eens over de voordelen die nieuwe moederbord chipsets met zich meebrengen. M.a.w. je moet je niet blind staren op deze tests en denken dat er weinig is gebeurd in de afgelopen jaren.

[Reactie gewijzigd door terracide op 16 februari 2017 10:12]

Een 920 begint inmiddels wel steeds meer richting de bottleneck kant op te gaan. Draai hier al 7 jaar op 4.2ghz, maar als je niet voor top performance gaat is het zeker nog een steady platform als je het hebt liggen.
Voor de Socket 1366 gebruikers die meer multi-thread performance zoeken: De Xeon 5650 (6 cores) zijn goedkoop te vinden, ebay of zelfs op sallandautomatisering.
"Kijk bijv. naar VMCS shadowing voor nested virtualisation dat er pas met Haswell in geïntroduceerd is."
We praten hier over consumenten of pro-sumer cpu's. Niet over professional use. Denk dat ik alle virtualisatie toch wel redelijk onder professioneel mag rangschikken.

" Er zijn genoeg applicaties die hier baat bij hebben, omdat het zorgt voor een veel stabielere stroom aan data."
Er is eigenlijk nog nooit aangetoond dat een insane hoeveelheid bandbreedte voor consumer prosumer toepassingen enig nut heeft. Ik neem je opmerking dan ook maar aan als "straight out of thin air".

"Als het gaat om gamen zou je met een oude 920 nog prima uit te voeten kunnen als je die flinkt overclockt met een oude D0 stepping gaat dat perfect. "
Zoals Wasmachinator ook aangeeft ga je daarmee toch al op bottlenecks zitten. Uit mijn hoofd mede door nieuwe (mede) op gaming gerichte instructiesets.

"CPU's zijn sowieso niet meer echt de bottleneck in veel gevallen"
Zolang je in de buurt zit van de huidige serie EN niet inzet op SLI of Crossfire(x) en niet inzet op CPU-Raid (also known as "Onboard Raid"), ja.

", en het inzetten op verbruik door Intel vind ik logisch en wenselijk"
Dus jij koopt een CPU voor een paar honderd euro en vindt het wenselijk dat het grootste deel van de R&D er in gaat zitten om je electriciteitsrekening te verlagen met een paar tientjes (max) van zijn totale levensduur?! Sorry, maar die logica ontgaat iedereen met een klein betere economie scholing volledig. De ROI van een nieuwe processor kopen, voor deze wijzigingen is daarnaast zo slecht dat ik er geen cijfer aan zou willen (of kan) geven.

"En dan heb ik het nog niet eens over de voordelen die nieuwe moederbord chipsets met zich meebrengen"
Intel loopt anders nog gigantisch achter met nieuwe chipsets. USB 3.1 is volgens mij bij intel nog niet eens native ingebakken en PCI-E 2.0 voldoet al jaren. :')

"M.a.w. je moet je niet blind staren op deze tests en denken dat er weinig is gebeurd in de afgelopen jaren."
Ik geloof zeker wel dat er een en ander gebeurd, maar voor de consument heeft dit 0,0 nut. Wat intel overigens inter-alia ook toegeeft door te zeggen dat alle efficiency aanpassingen eigenlijk enkel bedoeld zijn voor mobile en datacentre use.
ik begrijp niet precies waarom je het als je missie zit om alles te proberen te weerleggen wat ik zeg... maar als je er blij van wordt... prima hoor.

We hebben het over een mening, die kan niet goed of fout zijn. Ik vind dingen schijnbaar anders dan jij. Jij vind dat we als maatschappij niks hebben aan het feit dat we met honderden miljoenen gebruikers straks de helft aan energie verstoken onzin. Waarschijnlijk vind je de klimaat problemen ook "out of thin air" gegrepen. En dan mag je vinden. Maar ik kan me voorstellen dat bedrijven als Intel hier anders tegenaan kijken.
Wow, alles is ineens een mening als je in het nauw gedreven wordt?

Denk je echt dat Intel deze r&d zet (zonder pr) inzet for the greater good?

Maargoed, ik koop een cpu voor mezelf, niet voor moederaarde.
in het nauw gedreven....? Kerel stop eens met dit gedoe, we zijn geen kleuters toch? Ik heb geen zin in online ruziemakerij wat nergens over gaat. Get a grip.
Wat ik idd voor de volledigheid nog mis (en nog graag zou willen zien) zijn dezelfde benchmarks maar dan met alle cores actief en geheugen op normaal. Maar d'r zijn ook andere websites die dat waarschijnlijk wel hebben - het is alleen even zoeken.
Een upgrade naar kaby lake geeft rond de 30% vooruitgang indien je nog een sandy bridge
hebt, is toch niet verkeerd?
Op stock klopt dat. Maar omdat Sandy Bridge vrij goed en makkelijk overclocked, zie je na overclock weinig terug van die 30% verbetering.
En zoals al gezegd: 30% verbetering tussen Sandy Bridge en Kaby lake (meer dan 6 jaar tussen release) is erg weinig als het verschil tussen Sandy Bridge en zijn voorganger (1 jaar!) al 20% is.

Dit is ook een van de redenen waarom veel mensen hopen dat AMD echt een comeback kan maken. CPU's worden maar weinig sneller, maar de snelheid en hoeveelheid data die verwerkt moet worden groeit wel erg snel. Video is bijvoorbeeld van 1080p naar 4k gegaan. Een datastroom die ruwweg 4x meeer van je processor eist om te bewerken. Maar als je processor dan slechts 1,3x zo snel wordt, zie je waar de schoen wringt. Gelukkig zijn er oplossingen als proxy media (4k video omzetten naar lagere 1080 of 720p, zodat het makkelijker bewerkt kan worden) maar dit is alles behalve een ideale oplossing. Als we gemiddeld elk jaar ~15% verbetering hadden gezien, dan hadden we nu 2x zo snelle processors, en zou GTA V bijvoorbeeld ook een stuk minder bottleneck hebben. Of juist "voller" kunnen zijn met mensen/auto's.
Maar als je processor dan slechts 1,3x zo snel wordt, zie je waar de schoen wringt.
Dat zegt natuurlijk ook niets, het de/encoden van video is iets waar extra instructiesets voor zijn en voor geoptimaliseerd is. Ik denk dat je dat niet terug ziet in de gebruikte benchmarks.
Video is bijvoorbeeld van 1080p naar 4k gegaan. Een datastroom die ruwweg 4x meeer van je processor eist om te bewerken. Maar als je processor dan slechts 1,3x zo snel wordt, zie je waar de schoen wringt.
Behalve dat Kaby Lake voor HEVC/h265 content, zijnde vrijwel alle 4k content, een native encoder aan boord heeft die hem op dat punt 10+ keer sneller maakt dan z'n voorgangers: https://www.pcper.com/fil...w/2016-11-21/kbl-hevc.png

Dat is natuurlijk ook precies het punt dat de 'rauwe' hoeveelheid instructions per cycle totaal niet indicatief is voor de 'kracht' van een systeem. Er zijn maar heel weinig real-world scenario's te vinden waarin een Kaby Lake systeem slechts 30% beter scoort dan een Sandy Bridge systeem.

Al die real-world scenario's worden aan de lopende band door de hele wereld gebenchmarkt, leuk dat Tweakers nu eens een keer de kracht van de rauwe instructiestamper tussen de trucjes analyseert :)
Niet in alle gevallen. Daarnaast is een 30% verbetering na meer dan 6 jaar eigenlijk gewoon triest en mijns inziens het geld niet waard. Want het is niet alleen de cpu, ook het moederbord en geheugen moeten vervangen worden. Een behoorlijke kostbare upgrade voor een performance boost van 10-30%.

Vergelijk die 6 jaar eens met de cpu's tussen 1999 en 2005. Dan zie je hoe klein de sprongen geworden zijn...
inderdaad, en die kosten die je moet maken, voor een beetje winst, NEVER
Heb sinds kort een Xeon x5650 oc (12 x 4.1)
En ik ga heel goed mee, msi gtx1070 z game erin :)
Alles op ULTRA met battlefield 1, nu ben ik aan het sparen voor de predator (Z35 scherm).
Ik koop volgend jaar of in 2020 wel een AMD, intel upgrades vind ik persoonlijk een lachertje.
Ik wil CPU power en geen GPU power waarvoor ik betaal en echt NADA voor terug krijg

[Reactie gewijzigd door andriesh op 16 februari 2017 10:50]

Ik vind dat het artikel zich te veel focusd op enkel cpu power

Je mag wel niet vergeten dat er een GPU in zit die wel enorm veranderd is.
De cpu bv van kaby lake kan youtube filmpjes afspelen met maar 1% cpu verbruik.

Voor PC's is dat niet super belangrijk (behalve de frame rates in spelletjes)
Maar Voor laptops maakt dit het verschil uit tussen 4 uur batterij of 10 uur batterij

Sinds de GMA950 (De eerste integrated GPU) is er echt heel veel veranderd, eigenlijk is er veel meer veranderd aan de internal gpu's dan aan de CPU
Ze beginnen aardig in de buurt te komen van apparte mobiele graphische kaarten.
Je ziet dat er niet veel (zo goed als niks) veranderd is tussen skylake en kabylake, maar dat komt omdat de grootste veranderingen op de GPu gebeurd zijn .

De GMA950 bijvoorbeeld had maar 10% van de kracht van een apparte nidea mobile graphic card van die tijd.
Maar ondertussen met kaby lake is dit verschil veel kleiner geworden, namelijk 65%
Dus nu bied de igpu, 65% van de kracht aan, als je ze vergelijkt met de huidige mobile graphic cards van nvidia (het verschil word dus kleiner)
Kaby lake is daardoor ook de eerste igpu die je vlotjes 3D spelletjes laat spelen op een laptop (als je de details en resolutie laag genoeg houd)

Ik denk dat naast de kracht vand e CPU, intel zich meer op power consumption en gpu heeft geconcentreerd.
Want dat is waar de grootste veranderingen bij elke generatie gebeurd zijn.


Edit: Ik was nog iets belangrijks vergeten:
Naast de cpu power,gpu en energy consumption hebben we er sinds skylake/kaby lake ook internal features bijgekregen zoals native USB 3.1 NVME ,etc...

[Reactie gewijzigd door sebastienbo op 16 februari 2017 09:10]

Ik vind dat het artikel zich te veel focusd op enkel cpu power

Je mag wel niet vergeten dat er een GPU in zit die wel enorm veranderd is.
De cpu bv van kaby lake kan youtube filmpjes afspelen met maar 1% cpu verbruik.
Dit is ook iets waar Intel heel doordacht mee bezig is.
Kaby lake is inderdaad de meest capable chip van Intel voor 4K (streaming) media, zowel encoding als decoding.
Youtube gebruikt de VP9 codec. Alleen kaby lake kan deze hardwarematig decoderen. Echter had Intel al lang deze codec aan een eerdere chipgeneratie toe kunnen voegen. Ze hebben die heel stapsgewijs en doordacht gedaan, zodat ze Kaby lake nu kunnen laten zien als een "media wondertje" terwijl het geen haar beter is dan skylake verder, en skylake is op zijn beurt misschien 5% beter dan broadwell als je geluk hebt.
Bij Intel proberen ze echt het onderste uit de kan te halen, dat is wel duidelijk.
Als je zelf een GPU in doet van NVIDIA bijv. de GTX1080 dan neemt die toch de HW decodering over of niet?

Dan is de IGP toch eigenlijk overbodig voor mensen met een dedicated VGA.
Als het scherm aangesloten is aan de dedicated GPU, ja. Maar je kan ook een setup hebben met meerdere schermen en daar dan 1 van op het moederbord via de intergrated chip and zal op dat scherm de igpu het werk doen.
Natuurlijk is dat waar, maar ik en vele met mij zitten niet te wachten op de igpu van intel. Zeker handig voor een laptop maar voor een processor review op tweakers lijkt het me gepast om de gpu daar buiten te laten.
AMD komt nu met processoren zonder igpu en kan deze voor een mooie prijs aanbieden inclusief dubbel aantal cores.
Heel leuk die integrated graphics maar ik gebruik ze nooit, sterker nog ik heb een laptop met haswell en pc met hasswel beiden hebben dedicated gpu de laptop zal schakelen tussen integrated en me quadro maar me pc is een xeon zonder igpu, want de igpu maakt de chip onnodig duur en groot.
De native functies (USB 3.1 NVME ,etc) zijn gedreven door de markt, als intel de enige speler was hadden we die functies echt niet gezien in huidige moederborden.
Zie verhaal van AMD -64.
In den beginne wilde ik ook iGPU loos CPU.
Maar gezien mijn interesse in C++AMD Cuda OpenCL en Directcompute.
Is een extra GPU een GPGPU coprocessor.

Nu nog te vaak met dgpu onbenut. Maar kan je toch ook rekenen tot de CPU teraflops wat nu nog niet benut wordt.

Had iNtel nog deal met nVidia en bouwden ze een nVgpu aan intel.
Dan is het of je dedicated PhysX gpgpu hardware in de CPU hebt.
Een beetje respectloos tegen de auteur. Het artikel stelt vanaf het begin dat het om ipc gaat, en stelt niet alleen meermalen dat de kracht van een CPU niet alleen te maken heeft met ipc, maar zet er zelfs een benchmark bij die een gigantisch verschil laat zien.
[quote]
Als laatste, voor desktopliefhebbers minder relevant, maar voor laptops fantastisch, is het energiegebruik drastisch aangepakt en zijn processors niet alleen iets sneller, maar vooral ook veel zuiniger en veelzijdiger geworden.
[quote]

Waarom zou het energieverbruik voor desktop minder relevant zijn, alsof je op een desktop dus maar oneindig energie kan verbruiken.

Cpu's worden ontwikkeld voor laptop, server en desktop. Men ontwikkeld geen cpu voor desktop en denk schijt aan verbruik hup snelheid omhoog.

Er is in dit artikel totaal niet gekeken naar de snelheid per watt waar het juist om gaat.
Zo heel groot zal het verschil niet zijn voor een gemiddelde desktopgebruiker. Alleen bij het draaien van een zware applicatie maakt het uit, maar hoeveel procent van de tijd zal hij dat doen, gemiddeld over een jaar? En buiten de zomer wordt de verbruikte energie niet weggegooid, maar draagt die enigszins bij aan de verwarming van de kamer. Maar sowieso zal het energieverbruik van een gemiddelde desktop bij iemand thuis in het niet vallen bij b.v. verwarming, douche, wasmachine, auto, vakantievlucht. Dus ik denk echt dat dit minder speelt. Er zijn natuurlijk uitzonderingen.
Cpu's worden ontwikkeld voor laptop, server en desktop. Men ontwikkeld geen cpu voor desktop en denk schijt aan verbruik hup snelheid omhoog.

Er is in dit artikel totaal niet gekeken naar de snelheid per watt waar het juist om gaat.
Performance per watt is helemaal niet relevant voor desktops, tenzij het socket voor de CPU niet beter gekoeld zou kunnen worden, denk aan de FX9590, waar je toch wel een flink blok op moet gaan zetten. En daarbij is de perf/watt echt wel omhoog gegaan, maar de package TDP's van CPUs hebben over de jaren steeds meer van dat TDP gereserveerd voor de GPU.

Kaby Lake bewijst JUIST dat Intel schijt heeft aan perf/watt op de desktop, want dat is alleen maar een clockbump geweest met een hogere package TDP.

Het is eerder zo dat de groeimarkt mobile is en dat er één architectuur voor de hele CPU markt wordt ingezet. Dan is het wel handig als die zuinig is voor mobile. Desktop is al jarenlang geen groeimarkt meer, maar als het dat wel was, dan hadden we daar een performance-optimized CPU gezien, ipv een perf/watt optimized architectuur. We lossen dat dus op met een boost clock en slechte TIM :P

[Reactie gewijzigd door Vayra op 16 februari 2017 11:44]

En dat is juist heel jammer van Intel.

Ze zouden meer moeten investeren in snelheid. Daardoor worden bijv. servers sneller, supercomputers sneller en kunnen we misschien uitvindingen sneller onderzoeken of andere onderzoeken.

Het gevolg ervan is dat de desktop versies van die chips ook sneller worden.

[Reactie gewijzigd door goovy75 op 16 februari 2017 14:37]

Waarom? Performance in server wordt gehaald met clusters, schaalvergroting dus. Alle segmenten daaronder kunnen prima uit de voeten met één of twee CPU's op een bordje.

Perf/watt verbeteringen schalen ook door op server. Investeren in perf/watt is dus dubbel prijs: performance stijgt en schaalt mee met het aantal CPU's dat je gebruikt. Als je puur op performance zou schalen stijgt het energiegebruik gelijk of zelfs onevenredig met de prestaties en wordt 'server' dus duurder bij gelijke prestatie, en hoe langer je ermee werkt.

[Reactie gewijzigd door Vayra op 18 februari 2017 10:21]

Je stipt alleen mobile aan maar de server markt idem hecht veel waarde aan perf/watt. Want al die stroom weer naar buiten krijgen is ook een probleem.

En dat zijn de twee grootste markten. Mobile en servers, beide hechten meer aan perf/watt en daarom zet Intel er op in
Voor iNtel is Desktop minder interessant. Zij kijken naar wat zal de grootse groei markt zijn.
Daarnaast is een 30% verbetering na meer dan 6 jaar eigenlijk gewoon triest
30% verbetering in 6 jaar is heel goed. Vooral als je bedenkt dat het hier alleen om de IPC gaat en andere verbeteringen nog buiten beschouwingen zijn gelaten.
Vergelijk die 6 jaar eens met de cpu's tussen 1999 en 2005. Dan zie je hoe klein de sprongen geworden zijn...
Hier zit het probleem. Het is nu niet slecht. Het ging toen belachelijk snel.
Technologieën en Industrieën zijn net mensen, in het begin groeit alles snel, met soms enorme groeistuipen, maar op een gegeven moment worden ze volwassen.
De verbetering is er als je kijkt naar een single core, die dan misschien 30% in 6 jaar is. Feitelijk is er eerder een 300% verbetering als je kijkt naar wat gebruikt een cpu uit 2010 aan energie en hoeveel snelheid heeft de cpu nu met dezelfde energie in 2017.
Verschil is dat je toen waarschijnlijk 1 of 2 cores had en nu 4 die hetzelfde gebruiken maar veel meer presteren.

Op single core niveau zal de snelheid niet veel meer stijgen dus daarom is men al jaren overgestapt of meer cores die uiteindelijk minder verbruiken.

Kijk je naar gpu is dat daat ook precies zo. Snelheid neemt toe door meer cores.
Ik heb hetzelfde dilemma. Ik heb een Lynnfield i7-860. Ik gebruik die voor algemene taken en speel niet de nieuwste games. Ik ben tevreden met de game kwaliteit maar zou best beter willen. Voor de rest heb ik niet echt te klagen hoewel sneller en vlotter altijd welkom is, maar niet tegen elke prijs. Vervanging kost minstens een processor plus koeler, geheugen en moederbord. ik ben er ook nog niet uit welke (Intel) processor ik zou moeten nemen i3, i5 of i7? Videokaart zou ik ook willen upgraden, maar wellicht alleen die maar upgraden naar een nvidia 1050ti of 1060. Ik heb nu iets uit de nvidia 6xx serie.
Wat voor mij de doorslag gaf is NVME SSD, de powerstate in Windows 10 en de algehele responsiness.

ik doe de pc aan en is binnen 5 seconden(bios logo duurt het langst) op mijn desktop. Hierna kan ik de stroomknop indrukken en blijft hij in een slaapmodus. C8 powerstate geloof ik. Druk hem weer in en kan gelijk inloggen.

dus sneller booten, in windows de powerstate en de 3500mb lezen en 2000mb schrijven snelheid op de ssd. Heb je nou ook nog een Thunderbolt monitor dan wordt ie ook ondersteunt op de Z270 chipsets.
En dan is het nog niet eens relevant of het een super high end nvme ssd of sata ssd is.
De bootsnelheid en het starten van applicaties/games gaat bij beide uitvoeringen even snel. (kopieren van bestanden is een ander verhaal natuurlijk).

Voorbeeld: http://www.tomshardware.c...s-ahci-sata,4137.html#p13
Een 30% vooruitgang in synthetische benchmarks en beperkt tot de CPU is wel degelijk verkeerd... Een CPU dat 30% sneller rekent maar waarbij de rest van het systeem (denk inderdaad aan moederbord, geheugen enz enz) maar een paar procent sneller loopt resulteert in een systeem dat misschien voor de gebruiker 15 of 20% sneller is, oftewel voor een gebruiker niet te merken in het dagelijkse gebruik... Dus nee, dan is een upgrade inderdaad niet interessant...
Mijn ervaring over de afgelopen 25 jaar is toch wel snel dat een CPU letterlijk minimaal 50% sneller moet zijn tov van wat je vervangt om de gebruiker überhaupt het gevoel te geven dat het systeem als geheel sneller is en sneller aanvoelt...
Vroeger ging dat zeker makkelijker, als je van een 486DX2 naar een Pentium 100 ging, of van een Pentium 2 300 naar een Pentium 3 550 ging. Maar ook wel van een oudere Dual-Core op 2,33 Ghz naar een Quad-core van 3.2+Ghz... Maar de afgelopen 4-5 jaar zijn inderdaad die verschillen echt marginaal geworden met een nieuwe CPU generatie die 10% sneller is dan de vorige...
Ik heb precies het zelfde. Vele jaren geleden een 2600K gekocht en die zit er nog steeds in. Dit laat mooi zien dat er al die tijd weinig reden tot upgraden is geweest.
Bij mij zelfs nog een Lynnfield, die al 7 jaar prima werkt en snel is. Ssd helpt natuurlijk ook. Wat mij vooral verbaasd is dat je bij overstap nu van lynnfield naar een laptop of mini desktop, je helemaal niets wint aan snelheid, alleen in stroomverbruik en dat na 7 jaar!
https://youtu.be/wfoI-m-3vOk

In plaats van synthetic benchmarks hier ook een vergelijk in gaming en op 4 cores. Ik vind het interessant.

[Reactie gewijzigd door procyon op 16 februari 2017 09:32]

Hoeveel jaar heb je jouw 2600k al als ik vragen mag
Die van mij zit er al 6 jaar in, bij release gekocht. Nog geen reden gezien om te upgraden. Nieuw socket dus mobo, dus geheugen is een performance increase van +/- 30% niet waard.
Ik heb een 3570K sinds om en nabij release (had zelfde prijs als de 2500K)

Tenzij je meer geheugen bandbreedte nodig hebt(ddr-4) is er gewoon geen rationele rede om te upgraden.

Misschien RyZen voor meer threads. Maar dat is helaas bij intel gewoon onbetaalbaar.
Ik heb een 2600 van rond de 4 jaar oud, draait nog steeds als een zonnetje (en ik game best wat)
ik heb de 2500 non k en die draait nu ongeveer een jaar met 16gb ram en een gtx 1060. ik denk dat die van jou en mij nog we 5-10 jaar verder kan
Ik heb vorig jaar mijn 2500K ter aarde moeten bestellen.. :'(
Maar die had ook wel 5 jaar overgeclocked in mijn pc gezeten. Moet zeggen dat ik toevoegingen als USB3.1 en M2 slots wel een hele vooruitgang vind met mijn 6600K, maar voor de prestaties had ik nog lang niet heoven te vervangen.
8GB in mijn P2-X4-965 heeft het future proof gemaakt en met 4 cores kom je er nu nog aardig mee door. Ondertussen zijn SSD belangrijkste upgrades en de G-kaarten.

Gezien de beperkte vooruitgang paar jaren terug voor 32" 1440P monitor gegaan

Uit eindelijk komt die drang toch om te upgraden. En de tijd is binnenkort.
Same, de CPU is echt niet de bottleneck bij mijn thuisgebruik; als ik een upgrade doe dan zal het voor de GPU zijn.
En dan is er single core vergeleken. Quad core kun je die 4Ghz op je buik schrijven en is het verschil nog kleiner.Grootste probleem is dat 6,8 of 10 core nog niet de norm is. Intel had nooit aan die GPU hobby moeten beginnen.
Markten en daarbij horende eisen veranderen. Zoals ik al vaker geschreven heb, is er bij de gemiddelde consument weinig vraag naar extra performance. Het gros van het consumeren gaat via smartphones en tablets en ook zijn veel diensten naar een cloud gegaan, waarbij de vraag naar rauwe performance nog minder is geworden.

Waar wel vraag naar is, zijn laptops met een accuduur en dikte vergelijkbaar met een tablet. Daar is Intel naar toe aan het werken en dit is ook aan al hun cpu's te zien de laatste 5 jaar. Een verbeterde igp is om die reden ook belangrijk.
maar daar hebben ze dan weer de M en U serie voor. De K, Q, X serie verzorgt toch een ander segment en hoort gepaard te gaan met ontwikkelingen op GPU gebied. Consumenten die 500-1200,- neerleggen voor Tier1 GPU's zijn écht niet op zoek naar U/M serie CPU's.

Het is niet zozeer een veranderende markt vanwege de consument, maar vanwege gebrek aan concurrentie. AMD liep voor wat betreft APU's, maar was in mijlen nergens te bekennen op het high-end segment. Innovatie en grote sprongen in performance waren niet nodig. Marginale sprongen waren voldoende om jaarlijks een CPU tegen premium tarieven te slijten. Je ziet het nu al met de komst van Ryzen dat Intel antwoord door een extra Tick uit te brengen.

Ryzen hoeft niet beter te zijn dan het top segment van Intel, 5-10% performance verschil, maar 500,- goedkoper is voldoende om consumenten over te halen en Intel te forceren weer grotere sprongen te gaan maken ( of prijzen te verlagen ).
Als je een K versie hebt kun je alle recente quadcore's makkelijk over de 4 Ghz krijgen.

Heck de meeste 2500K's draaien nu al jaren op 4.5 ghz.
Mijn 3570K draait nu een jaar of 3 op 4.4 Ghz.

Dat ze geen betaalbare 8-core hebben gaat ze binnenkort veel klanten kosten.
Eigenlijk toont dit artikel dat juist helemaal niet aan, want het kijkt alleen naar IPC. En dan lees je ook de verbetering niet helemaal eerlijk:

Sandy Bridge had opeens een 19% IPC verbetering. Maar als je nu kijkt naar de generaties ná Sandy Bridge, dan zit daar ook rustig 19%. Dus als je nu op Sandy Bridge zit, en je vond dat destijds een goede upgrade, dan had je nu allang op Skylake moeten zitten. Tussen Sandy Bridge en Skylake zit namelijk óók al 23% en ten tijde van Broadwell zat je al op een evengrote sprong (18%) als wat er met Sandy Bridge mogelijk was.

De reden dat Sandy Bridge het lang volhoudt is niet omdat Sandy Bridge zo'n grote sprong vooruit was, het is omdat applicaties niet zoveel zwaarder zijn gaan leunen op IPC in de afgelopen tien jaar, het is juist omgekeerd (meer cores, OooE etc.). Tel daarbij op dat we in deze jaren ook naar 'quadcore is mainstream' zijn gegaan voor desktops, en dat clocks nu al op een baseclock draaien die ten tijde van Sandy Bridge 'een OC' heetten, en er is écht wel een flink snellere CPU beschikbaar vandaag de dag. De goede uitleg is dus vooral 'dat jij die snelheidswinst niet nodig vindt'.

En dan hebben we het nog niet eens gehad over instructiesets en zaken als hardwarematig decode/encode, Hyperthreading, en het reeds in het artikel genoemde overstappen naar ddr3 en betere chipsets.

[Reactie gewijzigd door Vayra op 16 februari 2017 11:31]

De enige reden waarom mijn 2600k nog goed mee kan komen is vanwege het feit dat het een zeer goed overclockbare processor betreft. Vanwege de hoge kloksnelheden die te behalen vallen, worden een boel verbeteringen in de IPC van latere generaties grotendeels te niet gedaan.

Natuurlijk is een stock 7700k stukken sneller dan een stock 2600k en is een upgrade in dat geval wel degelijk te rechtvaardigen. Wordt het echter een stock 7700k tegen een (flink) overgeclockte 2600k wordt het een compleet ander verhaal. En wordt het een behoorlijk dure upgrade voor relatief weinig winst.
En dan praat je inderdaad over perf/Watt.

Een i7-7700k kan je ook heel gemakkelijk op 4,9Ghz. zetten. Alleen is dat het je geld waard.

Het probleem is ook de game industry. een i2600k kan heel goed mee omdat games daar ook goed op draaien. In de game industry is de snelste winst te behalen met SSD en GPU. Misschien dat daar de noodzaak voor een cpu wat minder is.

Maar als je 4k gaat spelen zou denk ik de i2600k sneller bottlenecken dan de i7-7700k.

Een processor koop je in principe ook niet voor maar even.
Volgens mij is de GPU eerder de bottleneck op die resolutie dan de CPU.
Precies andersom.

Draai nu maar eens een Valley benchmark op 1080p met je fonkelnieuwe GTX 1070 of 1080. Je gaat op een Sandy Bridge i5 zwaar bottlenecken op CPU, terwijl dat een benchmark is die 'niet op de CPU leunt'. Omdat je GPU nu zoveel FPS kan produceren, wordt de CPU de nieuwe bottleneck.

Bij het verhogen van de resolutie, gaat de load op de CPU juist *naar beneden* omdat een CPU elk frame berekeningen moet doen. Zijn er minder frames, dan heeft de CPU dus meer tijd om dat te doen. 4K resolutie verschuift dus per definitie in verhouding meer werk naar de GPU.

Dát is ook precies de reden dat een hoge clock en IPC zo belangrijk is voor gaming. Op zeer hoge FPS worden zelfs zaken als je systeemgeheugen weer bottlenecks. En het verklaart ook waarom de Sandy Bridge nog meekomt voor gaming tot aan 60 fps/hz (wat het gros van de 'gamers' gewoon heeft staan): als het in 2010 werkte, werkt het nu net zo prima, het blijven 60 frames.

[Reactie gewijzigd door Vayra op 18 februari 2017 10:27]

De reden dat Sandy Bridge het lang volhoudt is niet omdat Sandy Bridge zo'n grote sprong vooruit was, het is omdat applicaties niet zoveel zwaarder zijn gaan leunen op IPC in de afgelopen tien jaar, het is juist omgekeerd (meer cores, OooE etc.).
Sandby Bridge houdt het niet lang vol, de 2500K en de 2600K houden het lang vol. Die processoren waren uitzonderlijk goed. Voor circa 220 euro had je bij launch een 2500K. Je kreeg dus een unlocked cpu voor een prikkie. Het mooie daarvan is dat je de multiplier kon verhogen zonder echt over te clocken. Hierdoor draait elke 2500K met gemak op 4.4 GHz in combinatie met de "auto" settings.

Die snelheden heb je overigens anno 2017 ook echt wel nodig. Rond launch stelde ik al vast dat je met de standaard clocks (3.3 - 3.7 GHz) een cpu bottleneck had in f1 2011. Dat is de laatste jaren alleen maar erger geworden. Des te meer omdat de gpu's zo veel sneller zijn geworden. Vergeet niet dat je die 3.7 GHz alleen maar haalde bij belasting op één core. Ging een game een beetje threaden dan zakte je terug naar 3.4 GHz. Uberhaupt heb je tegenwoordig meer rekenkracht nodig. Met mijn GTX 1070 is ook mijn overgeclockte 2500K in games als Battlefield One de bottleneck geworden. Met 119 fps op Ultra 2560x1080 is er nog geen probleem, maar een nog snellere gpu lijkt geen nut meer te hebben.

Wie destijds een ander model uit de Sandby Bridge reeks heeft aangeschaft (celeron, Pentium, i3 maar ook i5 2400, 2500) gaat er nu gigantisch op vooruit door een vergelijkbaar geprijsd model uit de Skylake/Kaby lake reeks te pakken. Sterker nog veel gamers die deze "fout" hebben gemaakt zijn met Haswell (2014) alweer geupgrade naar een 4670K.

Wat mij betreft is het dus een misvatting dat Sandby Bridge zo lang mee gaat, het zijn echt alleen tot de unlocked quadcores die het goed blijven doen.

[Reactie gewijzigd door sdk1985 op 16 februari 2017 14:15]

Mijn desktop heeft een Core 2 Q9550 en het verbaasd me elke keer weer hoe dat nog draait in deze tjid. Had je "vroeger" een PC die zo oud was dan kon je daar echt weinig meer mee en ergerde je je er altijd aan. Nu zit er wel 8gb ram in maar gewoon nog 2 draaitafeltjes in stripe.... niets SSD.

Mijn tablet heeft een i5 3337 en ook daar heb ik weinig reden voor upgraden gezien nog. Windows is lichter geworden (10 tov 8) dus deze komt ook nog prima mee.

Nog even een jaar wachten en dan is er vast een upgrade die de moeite (en het geld) waard is ;)
Hier ook een Q9550 maar dan met Revodrive X3 bevalt nog prima.
Even de Ryzen afwachten en dan nieuw systeempje bouwen.
Ik denk dat je met 8GB aan RAM een goede keuze hebt gemaakt destijds. Ikzelf had tot halverwege vorig jaar nog een Q8200 staan. Weliswaar met een lichte OC, maar op 2.8 GHz blijft het een gehandicapte versie van jouw processor. Erger nog was dat ik ben ingestapt op 2 GB, en heb geupgrade naar 4x1 GB DDR2. Dat was een systeem wat het upgraden niet meer waard was.

Daarnaast heb ik nog een laptop staan met een i5 2450m processor. Ondanks verse installatie van Windows en 8GB aan RAM merk ik gewoon dat dat beestje inmiddels niet meer mee kan komen. De combinatie van CPU en GPU heeft moeite om video content af te spelen. Ik denk dat dat ook wel bevestigt dat vooral aan de software (video coded) kant de tijd zeer zeker niet heeft stil gestaan, en dat dat inmiddels pijnlijk duidelijk kan worden op oudere platforms die geen hardwarematige support in de rekenkernen ingebouwd hebben, en die het op brute kracht ook nauwelijk bij kunnen benen.
Vreemd, ik had dat gevoel juist bij Haswell. Ja die heb ik een (i5 4440), hoezo? :) Al was Sandy Bridge idd een grotere stap.

Maar ik merk ook dat ie nog prima meekan. Ik bereik bijna nooit 100% load voor mijn >3 jaar oude CPU.
Ik heb een Bloomfield i7 920, 8,5 jaar oud... Komt ook maar amper boven de 50% load uit tijdens full HD gaming incl. high settings (Doom, Witcher 3, ...). ;)

Voor 4k video rendering zal het geen optimale CPU zijn, maar blijft een indrukwekkend feit dat de hardware zolang mee kan.
Ook een I7 920 hier. Inderdaad, ik verwacht nog eerder te moeten upgraden omdat het moederbord een keer faalt dan dat ik echt power te kort kom. Dan kom je op het punt dat je gaat upgraden omdat de rest van de componenten zo oud zijn (maar nog perfect werken).

Sterker nog - ik zou nog een keer van 6 naar 12 GB geheugen kunnen upgraden; SSD erin. Die sata 300 bus neem ik voor lief... de GTX 680 gaat hier ook nog prima mee.

Eigenlijk zou het mooi zijn om de tien jaar hiervoor eens te pakken Tweakers; ik weet dat nu alleen IPC meegenomen word; maar het is wel bijzonder als je ziet wat een grote veranderingen er zijn geweest in die 10 jaar :).
Energieverbruik is zelfs slechter geworden! Zie TDP voor Ivy Bridge bvb: 3770k -> 77w en van de Kaby Lake 7700k -> 91w. Als beide CPU's dezelfde TDP hadden en dezelfde frequenties zou het verschil misschien 5-10% zijn wat diep triest is na 5/6 jaar ....
@Mazewing Ben het helemaal met u eens ik heb ontzettend veel spijt gehad van de upgrade van de 3770k naar de 6700k het verschil is amper merkbaar..
Het enige waar je kan zien dat het iets sneller zou moeten zijn is die domme nietszeggende benchmarks. Heb soms zelfs nog steeds het idee dat de 3770k prettiger en vlotter liep met sommige software.
Wat mij betreft mag Intel gaan stoppen met het standaard een zwakke gpu in te bakken in de top modellen, Ik zie liever een GK model met igpu en een XK model voor high performance zonder die onzin. Uiteraard zullen er ook mensen zijn die weinig of oudere spellen spelen die hebben genoeg aan de igpu. Terugkomend op het topic vind ik het nagenoeg ook nu niet de moeite waard om de nieuwe generatie aan te schaffen. Zelfs de nu al aangekondigde 2066 serie kan mij niet echt bekoren. Alweer een kleine 7% ipc vooruitgang en dat is het... niets om het spul voor te kopen.

Het begint erop te lijken dat Intel in een dead-lock zit of dat het ze gewoon niets uitmaakt omdat AMD geen serieuze bedreiging vormt voor Intel. Uiteraard moeten we niet vergeten dat de pc markt aan het slinken is en dat Quallcom een zeer grote concurrent is geworden omdat we steeds mobieler worden. Op die tablet/telefoon markt is Intel niet echt overdadig aanwezig

@Vayra u hecht teveel waarde aan ipc. Feit blijft dat een dual core vaak wat minder soepel aanvoelt in gebruik en een quad core heerlijk vlot is ongeacht wat je tegelijk doet, Dan komen we op hyperthreading .... tsja ik merk er nooit wat van, ik heb voor de grap HT uitgezet en niemand die het merkt of klaagt ... het heeft letterlijk helemaal geen invloed.
Het zal misschien wat uitmaken voor bepaalde render software maar voor 85% van de bevolking is het amper tot nooit gebruikt iets, om een voorbeeld te geven ik heb een nuc met een dual core met ht ..... het ding voelt aan als een dual core en de HT geeft je absoluut niet dezelfde vlotte en soepele beleving als een 4 echte cores cpu.

[Reactie gewijzigd door rschwartnld op 16 februari 2017 12:40]

Zelfs niet overclockbare Sandy Bridge cpu's doen het nog prima. Mijn non-K 2600 draait nu nog steeds helemaal top op zijn standaard 3.9 GHz, kan nog steeds meekomen in alles wat ik er mee doe. Zeker omdat sandy bridge de laatste grote stap was zie ik er het nut niet van in om nu over te stappen naar een nieuwe generatie. Nieuwe CPU betekent nieuw MoBo en RAM, en das een hoop geld.
Wel eens DNS Server geïnstalleerd met de verschillende cpu's? Ik wel:
Sandy Bridge @ 3.6ghz: +/- 5min (cinebench score: 2000)
Skylake @ 4ghz: 45 sec (cinebench score: 800)
Deze benchmarks voeren alleen maar berekeningen achter elkaar uit terwijl in een echte omgeving veel meer factoren meespelen.
Ook bij processoren is het niet perse zo dat de beste processor veel instructies per cycle uitvoert, maar vooral of hij in staat is zijn rol in het systeem goed in te vullen.

Daarbij is de kloksnelheid wellicht wat minder belangrijk op het moment. De data doorvoersnelheden zijn omhoog gesprongen, het geheugen is sneller, de GPU's zijn een stuk beter, SSD's zijn mainstream en zorgn voor veel meer snelheidswinst dan een snellere processor ooit kon verzorgen.

De beste manier om een systeem sneller te maken is niet om rucksichtlos de kern zo snel mogelijk te maken, maar het systeem te 'debottlenecken' en na decaden van processorsnelheden waren er andere zaken nodig.

Een raceauto kan nog zo'n krachtige motor hebben, zonder de juiste banden kan de kracht niet op het wegdek worden overgebracht en heb je helemaal niets aan al die paardenkrachten.

Daarnaast is met het uitbreiden van het aantal cores en het gelijktijdig processen van diverse zaken natuurlijk wel een enorme stap gemaakt. Daarnaast denk ik dat een stukje van de kritiek op het feit dat we een oligopolie, neigend naar monopolie hebben laten ontstaan terecht is. Ook vanuit commercieel oogpunt is er weinig nodig om de concurrentie voor te blijven.

[Reactie gewijzigd door Spanky79 op 16 februari 2017 09:51]

"Daarnaast is met het uitbreiden van het aantal cores en het gelijktijdig processen van diverse zaken natuurlijk wel een enorme stap gemaakt."

Nope niet sinds de originele I7. Die waren er al als quadcore met 8 threads. En een hexa-core extreme edition liet lang op zich wachten en kwam nog voor de 2500/2700K uit.

Intel heeft omdat ze geen concurrentie hadden gewoon duimen zitten draaien.
Point taken, er is wel iets gedaan, maar niet al te veel....inderdaad is de concurrentie ver te zoeken.
Juist.

En ik denk dat de meeste mensen nu ook denken dat Intel het rustiger aan gaat doen.
Minder performance winst voor maximaal cashen. Ze zorgen iedere x voor dat ze een stapje voor AMD blijven en dus mensen een reden geven om de CPU's te kopen.

Ik denk zelfs dat mensen binnen Intel hebben gezegd om het wat rustiger aan te doen want als ze eenmaal een hele snelle hebben zullen minder mensen na deze cpu upgraden en dus verliezen ze "klanten per jaar" dat is namelijk waar aandeelhouders naar kijken. Ze willen gewoon ieder jaar weer zoveel klanten hebben.
Leuk om te lezen dat er een lichte voortgang wordt geboekt maar ik mis toch een beetje de vergelijking in verbruik in de tabellen!
pagina 2, eerste alinea:
Natuurlijk kunnen we tien generaties processors niet in een en hetzelfde moederbord prikken, en zelfs het geheugen is in de desbetreffende periode veranderd van ddr2 via ddr3 in ddr4. Om die reden voeren we ook geen energiemetingen uit; daarvoor verschillen de platforms simpelweg te veel.
Deze verschillen in platformen, zeker ook het type/doorvoersnelheid van het geheugen, hebben evengoed invloed op de prestaties van de CPU. Je hebt uiteraard geen andere keuze, maar het argument dat je het energieverbruik niet kan vergelijken vanwege de verschillende platformen, terwijl je prestaties wel vergelijkt ondanks deze verschillende platformen, lijkt me niet bijzonder sterk. Als de moederborden van min of meer hetzelfde kaliber zijn (qua opties etc), evenals de overige componenten, dan zou een vergelijking in verbruik toch goed mogelijk moeten zijn (zeker aangezien een stressed CPU met stip het meeste verbruikt). Bovendien kun je niet zonder het platform, dus is het goed om te weten wat het totale stroomverbruik heeft gedaan over de jaren.
Deze verschillen in platformen, zeker ook het type/doorvoersnelheid van het geheugen, hebben evengoed invloed op de prestaties van de CPU. Je hebt uiteraard geen andere keuze, maar het argument dat je het energieverbruik niet kan vergelijken vanwege de verschillende platformen, terwijl je prestaties wel vergelijkt ondanks deze verschillende platformen, lijkt me niet bijzonder sterk. Als de moederborden van min of meer hetzelfde kaliber zijn (qua opties etc), evenals de overige componenten, dan zou een vergelijking in verbruik toch goed mogelijk moeten zijn (zeker aangezien een stressed CPU met stip het meeste verbruikt). Bovendien kun je niet zonder het platform, dus is het goed om te weten wat het totale stroomverbruik heeft gedaan over de jaren.
Klopt inderdaad dat er meer factoren zijn welke van belang zijn. Maar over het algemeen bevestigen de resultaten wel mijn gevoel dat de vooruitgang qua performance behoorlijk gelimiteerd is. Ja er zijn zaken sneller geworden, maar wanneer je initiële investering en prijzen van upgrades naast elkaar zet, dan is het niet echt een vooruitgang en lijkt het wel dat de werkzaamheden van Intel voornamelijk gericht waren op verkleinen van chips en energie optimalisatie maar niet echt op performance. Geen concurentie blijkbaar.

Eigenlijk hadden de mensen het beste gewoon "Sandy", "Haswell", "Skylake" kunnen aanhouden (wat mijn strategie ook was op Skylake na) of "Sandy", "Haswell", "Ryzen".

Deze beperkte test geeft dus aan dat het verstandig was om op AMD te wachten in plaats van een investering in "Kaby" of "Skylake" .
Tsja, we gaan door de pareto, waarin de laatste 20 procent vooruitgang/optimalisatie, 80% meer inspanning vergt. Tijd voor hybride systemen met lineaire processoren en q-bits.
Het kan ook zijn dat de rek er een beetje uit is en zolang de MHz-en niet omhoog kunnen richting de 10GHz is alleen nog de IPC aan te passen. Maar tja, wanneer alle instructies straks op 1 clock zitten dan houdt het ook op en moeten we naar andere methodieken.

Oveigens nog steeds vreemd dat we processoren op een clock laten lopen en dat deze niet "free running" zijn.
Precies, ik vermoed dat we wel tegen de fysieke grenzen lopen van deze vorm van technologie. Als je ziet hoe moeilijk het wordt om nog kleiner te gaan in lithografie is het tijd voor iets nieuws.
Nou het probleem is dat bij elke dieshrink de klok beter schaalt maar de TDP per core wordt ook groter als je de klok ceiling haalt.
Er was ooit punt 80286 dat CPU Passief gekoeld waren en de klok ceiling lang bereikt werd voordat je TDP problemen kreeg .
Nu wotdt 100Watt snel gehaald terwijl de klok nog gretig door gaat.
Met klok en TDP en Vcore is het dat cores een sweetspot hebben waar performance TDP optimaal is. Dat is bij een redelijk lage klok.
klok en TDP en Vcc is niet lineair. Meer performance is dan meer cores. Naples 32 cores

Het probleem is dat om optimaal van many cores gebruiken je software goed onafhankelijk deelbaar moet zijn voor veel cores. Dat is het probleem.
Duidelijk, sowieso interessant wat een nieuwe technologie ons gaat brengen. Want niet alleen mbt tdp zit men tegen de grenzen aan volgens mij, op een gegeven moment is de lithografie ook wel bijna aan zijn grenzen.
Meer cores is inderdaad een oplossing, maar niet alles is parallel uit te voeren waardoor de grens toch de clock+ipc is wat straks toch een beperking zal opleveren. Het is harstikke leuk wanneer een CPU 32 integers parallel kan berekenen binnen een enkele clocktick. Maar soms heb je liever 1 zelfde berekening binnnen de helft van die tijd.

Dus meer cores, ja leuk, betere ipc per core, ja leuk. Maar zolang de clock niet omhoog gaat dan houdt het gewoon op.
T.net had natuurlijk voor de processoren die het ondersteunen Intel Power Gadget kunnen gebruiken, om zo het energieverbruik van vijf generaties Core processors (de helft van de generaties in de test) in kaart te brengen. Zelfs met de nodige waarschuwingen ("de tool van Wc-eend adviseert Wc-eend") kan dat interessante resultaten opleveren over wat er de laatste jaren nu eigenlijk verbeterd is qua energieverbruik. ;)

[Reactie gewijzigd door The Zep Man op 16 februari 2017 07:20]

Ik ga ervanuit dat wanneer je de mogelijkheid hebt op sneller en/of zuiniger geheugen of andere opties, dat je die ook effectief gebruikt.

Een nieuwe generatie maakt dus meestal nieuwe en zuinigere technologie mogelijk.
Dus ook al is het totaalverbruik maar een indicatie, dat laat toch goed zien hoe hoog bijvoorbeeld het piekverbruik is tijdens een stresstest.

Ook vraag ik me af hoe groot de impact van het geheugen op het verbruik is.

Een simpele verwijzing naar een stukje tekst haalt mijn gevoel niet weg dat ik die vergelijking mis.
Ik vind zuinigheid misschien wel minstens even belangrijk en interessant.
Krijg een beetje het gevoel dat je impliceert dat ik de tekst niet heb gelezen.
Nou ja het gaat om resultaat. Een CPU is nu eenmaal ook afhankelijk van platform en als consument gaat het erom wat totaal plaatje doet. En speelt alles mee.
Ook vind ik het erg jammer dat ze maar 1333MHz geheugen gebruiken voor de Core i7-5775C, wanneer de minimale snelheid voor een Core i7-5775C 1600MHz is, als je de bottleneck weg wil hebben van langzame geheugen gebruik je snellere geheugen, al helemaal met een CPU die unlocked is.

Ik gebruik 2400MHz DDR3 geheugen met mijn Core i7-5775C, en heb hem nu op 4.0GHz lopen.

Ben blij dat ik voor de Core i7-5775C ben gegaan, gaat mijn Z97 met Core i7-5775C met 2400 MHz RAM nog lekker lang mee.

[Reactie gewijzigd door AmigaWolf op 17 februari 2017 03:29]

Ik heb een sterk vermoeden dat dit gevoel omtrent de technologische stilstand van CPU's mede wordt veroorzaakt doordat de gemiddelde huis-tuin-en-keukengebruiker zich in het verleden enkel heeft blind gestaard op de processor bij de aanschaf van een computer. Er zijn zo veel andere componenten die veel belangijker zijn voor een vlot systeem. Hoe veel rappe Core i5' en i7' laptops zijn er vroeger niet verkocht met een 5400rpm of zelfs 4200rpm harde schijf ? En dan maar klagen dat het apparaat langzaam was...
Veel bedrijven hebben zich daarmee ook onbewust ook in de vingers gesneden.

Dan koopt het bedrijf nieuwe laptops en dan kiezen ze niet SSD, maar voor 16GB mem ipv 8GB.
Waarschijnlijk voor kostenbesparing en onkunde. Want het kan zo maar 40 uur extra productiviteit opleveren per jaar per medewerker.
Afhankelijk wat de mensen doen is de traagheid toch vaak te vinden in te weinig geheugen dan dan 100MB/s lezen/schrijven van een moderne HDD niet genoeg is.
Leef jij in een sequentiële wereld? Mijn I/O is grotendeels random en dan kom je op een HDD eerder aan 2MB/s. Als je dat al haalt.
moet je eens kijken wat Seagate heft gedaan met hun 3,5" disks,

Acces tijden van 4 ms op 7200 rpm, alsof je een 15K SCSI /SAS disk in je system hebt zitten.

HDD technology heeft niet stil gestaan. Je trekt nu met gemak 1200 IO uit een 8 disk JBOD system met die Seagate disks. Als je dat langs de prijs van SSD legt is NLSaS ineens een stuk beter dat SSD.
Een jbod van 8 schijven in een laptop 8)7
Daarenboven stort zelfs je jbod performance in, wanneer je simultaan taken gaat uitvoeren.

Gewoon een degelijke ssd altijd beter. Disks zijn alleen nog goed. Voor massa-opslag

[Reactie gewijzigd door klakkie.57th op 16 februari 2017 12:09]

Daarom in mijn zakelijke laptop een 256GB SSD met een 1TB HDD 7200 rpm en 16GB geheugen.
Maar dan heeft de laptop geen DVD-Rw |:( kosten besparing? beetje jammer als je praat over een laptop van 3000 euro.Maar omdat ik hem echt nodig heb ik nu zon extern ding jammer.
Geen kosten besparing.
Ruimte besparing

Wel jammer dat je er 3000 euro voor neerlegt
Heb er hier in huis 2 staan met 128 GB SSD 1TB HDD en een quadcore 8 threads ivy bridge processor.

Daarnaast 2 vergelijkbare gebouwd voor kennissen.
Kosten om en nabij de 1000 euro per stuk,

Asus N56. Aparte SSD inbouwen ipv. de HDD. dan de DVD vervangen door de HDD.
Nee geen ruimte besparing het betreft hier een HP Zbook 17" ruimte zat de voorbereiding zit er zelfs.

Nee niet zelf betaald het werk natuurlijk.
Voor een laptop van 3000 euro zou je verwachten dat er nog ergens plaats was voor een msata of m.2 ssd, had mijn oude (~4jaar) laptop van 1300 euro ook.

En mag ik vragen waar je nog dvd's voor nodig hebt? Pure interesse.
Ik heb al bijna 5 jaar lang alle dvd spelers in huis uitgefaseerd, er is geen 1 meer te vinden. Hoogstens in een doos op zolder.
En ook nooit nodig gehad.
Soms komt het voor dat bepaalde specialistische hardware nog een schijfje wil hebben en iso's mounten werkt bij ons niet altijd ivm beveiliging i.v.v. firewalls enz.
Ook leuk als de app wel installeert van iso maar toch de originele cd/dvd-rom wilt zien op de plaats van waaruit de app is geïinstalleerd, dwz vanaf de schijfletter van de iso.

'Kopiëerbeveliging' bah.
1200 iops is naar SSD-maatstaven belachelijk weinig. Een enkele moderne SSD doet dat met een factor 100 beter (kijk in de pricewatch maar eens bij de populairste nvme-SSD's).
en wat kost een aray van 32 tb van die disken ,


precies heel veel euros
Bedenk maar eens eerder wat een array kost die de ordegrootte van 100.000 iops haalt, want dat is waar de discussie over ging. Ik heb totaal geen interesse in mijn OS installeren op een array van 32TB, en ik hoef mijn massa-opslag niet op SSD's. Gebruik van beiden waar het handig is is betaalbaar, en levert de prestaties waar het nodig is.
wat doe jij dan dat 100k iops trekt op jouw pc?

met kleine files haalt hij dat ook lang en na niet mag je ook blij zijn als je de 1000 haalt

[Reactie gewijzigd door Scriptkiddie op 16 februari 2017 23:15]

Nou, ik doe vrij weinig dat 100k iops haalt op mijn pc, want ik heb geen moderne SSD. Al vermoed ik dat ik met een nieuwe SSD best wat prestatiewinst op databasewerk ga zien. Dat gaan HDD's sowieso niet doen...

En je moet overigens juist belachelijk veel met kleine files (of ops) doen om juist aan die hoeveelheid iops te komen. Sequentieel data doorvoeren kan een HDD ook wel (al winnen SSD's dat tegenwoordig ook ruim).
alleen heeft een normale user geen 100000 io nodig maar wel de 4 tb data , dus is een traditinele disk vask een betere bang for the buck zeker nu die op 15k plus snelheden zitten. dat 10 sec sneller booten merk ik toch niet bij de koffie automaat
Het gaat niet om die 100MB/s schrijven lezen, maar om al die kleine bestanden.
Bijvoorbeeld, de laptop is opgestart en langzaam krijgen alle witte blanco pictogrammen op je bureaublad alle icoontjes. En daarna denk je dat je kan beginnen maar hij is nog niet klaar. Als klap op de vuurpijl krijg je nog ff heel kort de melding te zien 'Explorer not responding'

Je ziet het nog steeds, mensen gaan even koffie drinken als ze opnieuw opstarten.
Of ze gaan iets anders doen wanneer de laptop aan het updaten is.

Ook het starten van apps gaat enorm veel trager.

Hier denk je tegenwoordig niet meer bij na, alleen als je nog met een HDD werkt.
En dat zijn er nog genoeg!
Ik ben het toch met elmuerte eens, Na het switchen van werkgever ging ik van 4 ->8 gb geheugen op een Latitude E5540 -> E5550, beide met core i5, en het gruwelijke wachten is ineens toch een heel stuk minder. Windows 7 of 8 met minder dan 8g geheugen is gewoon geen doen. Beide systemen hebben een sshdd, met 8g ssd en de rest hdd. Uit ervaring weet ik dus wat meer geheugen doet met je responsiveness van het systeem. Helaas heb ik inderdaad nog niet zo'n slimme it-afdeling dat ze eindelijk voor een echte ssd gaan :'( , tegen die tijd ga ik écht genieten van een snel systeem op het werk.
Van 4 naar 8, ben ik het ook eens. Maar van 8 naar 16 op dit moment minder.
De keuze 8 naar 16GB of een SSD zou een makkelijke moeten zijn.

Een office medewerker kan daar makkelijk mee uit de voeten.
4 of 8 GB maakt op het moment natuurlijk al een significante impact. Met een beetje multitasking zit je al vrij snel tegen de limiet van een 4GB systeem aan te hikken, daar is nog geen grote software suite voor nodig.

Maar als je geen grote zaken doet in Excel en verder vooral Outlook open hebt staan met wat PDF files en een browser, dan lijkt het me sterk dat je verschil merkt tussen 8 of 16 GB aan RAM. Wat dat betreft heeft FireStarter natuurlijk wel een punt :)
Ja, totdat je al je data uit de cloud of de servers gaat vissen en het enige dat je zelf houdt zijn je basis applicaties. Dan is opeens die SSD alleen maar nuttig voor het opstarten, en laat dat nou net iets zijn dat vaak niet meer nodig is, want iedereen klapt de laptop gewoon dicht en later weer open (hibernate).

Het gros van de gebruikers benut beide niet (16 GB én SSD).

[Reactie gewijzigd door Vayra op 16 februari 2017 11:36]

Dat klopt, maar je device zal wel een SDD hebben.

Ik ben wel eens benieuwd hoe een iPhone 7S zou functioneren als er een HDD in zou zitten :)

Tere traag waarschijnlijk. Dit geldt voor laptops ook.
@elmuerte
Nee hoor tenzij je over windows 7+ pc's praat. Daar merk je wel verschil tussen 4 of 8 Gb
16 Gb of meer is nog steeds overkill in meeste thuis computers, maar bijna iedereen die ik ken heeft minstens 8 Gb. De grootste winst die er te behalen valt is nog steeds de schijven. Ook al zijn de huidige ssd's best wel snel ... de software en dan vooral de games halen dit heel rap weer onderuit. Ik zelf heb een x4 nvme m2 ssd als boot en 2 enterprise 500Gb ssd's voor de spellen maar zelfs met 1100 MB/s blijft het laden van moderne spellen nog behoorlijk traag. Het ligt natuurlijk niet allemaal aan de schijven. Van spellen weet ik dat heel veel vertraging bewust door de ontwikkelaars zijn ingebakken om jou zeer lang naar de bagger reclames te laten kijken. Als je net als mij een truukje hebt gevonden om die ellende te omzeilen gaan sommige ontwikkelaars zover dat ze het spel aanpassen zodat jij weer gedwongen bent 3 minuten naar hun bagger te moeten kijken.
Maar uiteraard komt ook het formaat van de te laden bestanden als grootste boosdoener uit de bus lappen van meerdere gigabytes aan data is niet meer vreemd.
Daarom zie ik inmiddels de meeste spellen die ik heb minstens 8 GB ruimte innemen maar de betere nemen zelfs al ruim 40 GB in beslag of meer en al helemaal als je mods gaat toevoegen zoals bij skyrim, sins of solar empire en dergelijke.
Het probleem is nu dat er een handiger oplossing moet komen voor de nvme ssd's zodat ze toch weinig ruimte innemen maar ook goed gekoeld en nog belangrijker genoeg pci-e lanes krijgen. Daar bovenop komt dan ook nog eens dat de snelste nvme ssd's als je ze in raid0 zet al vrij snel je pci-e bussen tot de max belasten. De huidige pci-e bussen blijken dan niet meer snel genoeg om al dat geweld te verwerken.
Maar goed mogelijk word het met de Intel optane caching opgelost
Absoluut, bij mij ook een flinke bron van frustratie en dan ben ik al blij dat ik door andere werkzaamheden niet meer zoveel zware programma's tegelijk open hoef te hebben (deel van het probleem is dat we nog wat applicaties hebben die ons dwingen nog 32 bit Windows te draaien dus ik heb altijd geheugen te kort). Ik zit zelfs in de niche waar readyboost met een snelle USB3.0 stick al aardig helpt. Maar het is ook niet alleen de letterlijke tijd die je op de computer zit te wachten, het is ook de demotivatie die er uit vloeit. Als je niet lekker door kunt werken dan wordt je geestelijk ook afgeremd en heb je er al snel geen zin meer in... Ik ben geloof ik dit jaar aan de beurt om mijn werk laptop te vervangen en ondertussen leveren ze wel systemen met SSD's, kan niet wachten.

Wat betreft het artikel bevestigt het wel weer mijn gevoel bij elke cpu generatie dat ik maar weinig reden zie om mijn 2500K te vervangen... Ik heb hem niet eens overgeklokt moet ik zeggen, dat kan dus ook nog.
Stilstand was er omdat AMD geen alternatief was.
Als men eens kritisch zou kijken wat men nou eigenlijk écht nodig had, was AMD altijd een prima alternatief.

Indien ik voor een bepaald bedrag zou kunnen kiezen tussen een Intel CPU + HDD of een AMD + SSD, dan wist ik het wel. Dan ging ik toch mooi voor de AMD oplossing. Simpelweg omdat dit voor mijn computergebruik ruimschoots voldoende is. Voor wat surfen, social media en filmpjes kijken heb je helemaal geen high-end CPU nodig.
Ik heb beide, maar wanneer ik mijn FX afzet tegen mijn i7 is de i7 gewoon performanter. Maar inderdaad het is wat je er mee doet. Mijn i7 is beter met Gamen, mijn FX blijkt beter te performen als Virtualisatie host.
De processor is de primaire krachtbron van je PC die allerlei randzaken aanstuurt, als je daarop bezuinigd snij je jezelf sowieso in de vingers, want een processor upgrade of vervang je na een aantal jaar minder makkelijk dan de overige componenten.
En ja, SATA-600 SSD's worden ook makkelijk gebottlenecked, zelfs met m'n 3930K, alhoewel ze in dat geval toch wel snel genoeg zijn zonder het echt te merken in de praktijk.
Dat was vele jaren geleden zo. Vandaag de dag is eigenlijk iedere processor rap genoeg om basistaken probleemloos uit te voeren. Ik merk met mijn taken (beetje surfen, filmpjes kijken, administratie bijhouden) namelijk amper verschil tussen de twee laptops die ik nu heb (Core m7-6y75 en Core i5 2450m) en de vorige die ik jaren geleden had (AMD Turion64 X2).

[Reactie gewijzigd door Titan_Fox op 17 februari 2017 07:12]

Maar iedereen voelt dat verschil anders aan. ;)

En nee het is nog steeds een actualiteit, het ligt er maar net aan wat je met je PC doet.
Er zijn zo veel andere componenten die veel belangijker zijn voor een vlot systeem.
Dan kom je enkel uit op een SSD en de rest wordt dan grotendeels irrelevant voor basis taakjes waar niet eens echt veel GPU of RAM kracht/hoeveelheid voor nodig hebt.

Maar met dingen als bestanden inpakken voor backups heb je veel meer CPU kracht nodig, en genoeg geheugen op basis van de instellingen.
Zo is het ook met video's encoderen, converteren of aanpassen, daar heb je vaak maar weinig GPU kracht voor nodig, en een redelijke HDD is dan afdoende.
In sommige gevallen heb je bijvoorbeeld voor het afspelen van video's hetzij via streamen ook geen goede GPU acceleratie, dan ben je opnieuw aangewezen op de CPU, ik zie veel CPU's 4K op 60FPS op bijvoorbeeld YouTube nog niet eens trekken, kan je nog een mooie GTX1080 hebben.

Waarschijnlijk nog wel een van de meer veeleisende taken als games zal je ook zeker veel beter af zijn met een Quad i7 uit de recente reeks met een GTX1060 bijvoorbeeld dan een i5 2500K met een GTX1080, want zelfs de recentste i5's lopen op sommige games op hun tenen of tegen het limiet en veroorzaken hierdoor zware stutters.
Daarbij wordt 12GB+ RAM daarbij in nieuwere spellen ook steeds belangrijker.

Dus vooral als je wat meer doet dan enkel wat internetten en 720p/1080p video's streamen is het nog altijd belangrijk, maar mensen weten pas wat ze tekort komen als ze er tegenaan lopen en het snellere hebben ervaren.

Dus ik vind het persoonlijk helemaal geen slechte zaak de processor als krachtbron voorop te stellen met daarnaast snellere opslag, maar de andere randzaken zullen de basis-gebruikers minder last van ervaren als het budget is, maar 3-4GB RAM is dan ook wel het minimum.
Nadeel is echter van veel van die kant en klare systemen is dan wel de voedingskwaliteit en de moederborden qua expansiemogelijkheden.

Persoonlijke (recentere) ervaringen:
E4600/2GB/GTS250/Brakkecuda 7200RPM 320GB SATA2
Q9550/4GB/GTS250 1GB/Samsung HD502HI 500GB SATA2
i7 950/6GB(nu 12)/GTX460(nu 560)/Samsung HD103SJ 1TB SATA2(nu 256GB SSD)
i7 3930K/16GB(nu 32)/GTX460(nu 780Ti)/Samsung HD103SJ 1TB SATA2(nu 256GB SSD)

En in alle gevallen had ik de CPU kracht genoeg nodig en soms loopt zelfs die laatste op zijn tenen...

Zo ook een HP ProBook 450 G2 gebruikt met dual core i7 4510U (3,0Ghz) i.c.m een 750GB WD Black HDD/8GB RAM en AMD R5 255M, nou en of dat die CPU nog steeds aan het bottlenecken was, zelfs voor het laden van webpagina's of multi-tasken, kreeg het zelfs voor elkaar dat ding voor dik 2 uur 100% vast te laten lopen op hetzelfde scherm voordat het ding weer reageerde.
Kan in dat geval sneller werken en multi tasken met een desktop i5-4570 (3,2Ghz) met 4GB RAM en intel HD graphics op een Brakkecuda 7200RPM 500GB HDD...
Single core score in Cinebench van een aantal cpu's is erg laag volgens mij?.Een 4770 zou zon 170-180 punten moeten scoren volgens mij?.

Edit allemaal op 3Ghz. Ben zeer benieuwd naar de AMD resultaten, volgens mij hebben die zo goed als geen winst per clocktick gehaald de afgelopen ~10 jaar.

[Reactie gewijzigd door Tortelli op 16 februari 2017 07:22]

Binnen bulldozer zijn de winsten per generatie juist veel groter als bij Intel in de zelfde periode.

Maar met 32nm VS 14nm finfit is er niet tegen op te boksen. Dus de core werd te smal en de kloksnelheid bleef te ver achter om goed te kunnen concurreren.

Het is ook nogal raar om dat nu te gaan testen, 2 weken voor AMD met een enorme klapper van en CPU aan komt.
Bulldozer kon ook niet tegen sandy bridge op.
Nog steeds niet als je de moeite neemt de sandy bridge te overclocken.

Sandy bridge was ook 32nm
alle iNtel 32nm met alle AMD 32nm tellen. Van de eerste oer bulldozer tot wat in 9390 wordt gebruikt.

Als iNtel een procedé uitrolt. Met geen druk van concurrent die de grootste moeite heeft om blij te blijven. Is hun eerste release op betere procedé toestand, dat mogelijk al op 80% potentie draait.
Terwijl een late rushed out Procedé 60% draait. Gezien eerste bulldozers de klok target niet haalden. Is al eerste indicatie dat AMD problemen had met de procede.
Daar hebben ze ondertussen de 8370 en de 9390
Erg leuke review! Alleen jammer dat er geen gamebenchmarks zijn gedraaid. Zo kun je makkelijk zien of het de moeite waard is om te upgraden of niet.
dan zul je toch eerder een gamesite moeten raadplegen..... wat tweakers helaas niet is.... er word teveel gekeken mbt game's, en niet naar het echte tweaken zelf van hard/software en combi's van deze 2.. ;-)
De titel suggereert dat alle CPU's middels het tick-tock model gemaakt zijn. Kaby Lake is echter de eerste CPU dat niet ontwikkeld is volgens dat principe. (bron).

Wel tof om eens te zien wat het verschil nu is in performance, tussen 10 verschillende generaties.
Dit maakt ook goed duidelijk dat het steeds lastiger wordt om meer performance uit een CPU te persen, als de snelheid ook niet echt veel harder omhoog kan, zoals vroeger ten tijde van de Pentium 2, 3 en 4 nog wel kon.

[Reactie gewijzigd door CH40S op 16 februari 2017 10:11]

Er is ook al een "Haswell refresh" geweest. Kaby Lake is dus niet de eerste generatie die hier van afwijkt. Overigens kan je dat gewoon opmaken uit de tabel. :)
Dit maakt ook goed duidelijk dat het steeds lastiger wordt om meer performance uit een CPU te persen, als de snelheid ook niet echt veel harder omhoog kan, zoals vroeger ten tijde van de Pentium 2, 3 en 4 nog wel kon.
Pentium 4 was op gelijke kloksnelheid langzamer als pentium 3. Het was dat de laatste met de toenmalige technieken niet meer hoger te klokken was. Coppermine en Coppermine T eindigden (juli 2000, juni 2001) op 1133MHz en Tualatin (december 2001) uiteindelijk 1200, 1260, 1333 en 1400 MHz..De Netburst-architectuur van de P4 was juist bedoelt om hoog te klokken en begon met 1400Mhz en 1500MHz (november 2000) en ging snel omhoog. Daaarmee liepen echter ook het energieverbruik en de warmteontwikkeling uit de hand waardoor de opvolger van de P4 uiteindelijk weer een doorontwikkelde P3 was.
Toch enigszins vreemd onderzoek. Nu is het dus bij de beperkte set van test waar naar rauwe processing power per core wordt gekeken niet veel verschil te zien. Wat vrij logisch is bij het kijken naar de instructies per core waar geen aanpassingen voor zijn in een instructieset. Dan is bijna enkel de kloksnelheid van invloed.

Echter had men juist hierin de performance per watt moeten meenemen. En juist doordat die flink gestegen is, en de die shrink is het mogelijk om meer cores in een desktop te verwerken zonder dat er meer stroomverbruik is dan bij de eerste core generatie. Uiteindelijk is de performance per CPU flink toegenomen.
Zoals ik hierboven al heb vermeld:

3770K -> 77w
7700K -> 91w

Als je de frequenties gelijk trekt is er amper verschil in performance en alleen maar meer verbruik ...
Jij hebt het over TDP, dat is niet het verbruik en ook niet performance per watt.
Deze tweakers test/onderzoek is gewoon fout en incompleet en geeft geen representatief beeld.
Wat je zegt is waar maar waarom hebben ze de TDP verhoogd? Dat doen ze niet als de CPU minder vebruikt lijkt mij...
Vroeger was de kwaliteit van koelblokken en ventilator minder dan tegenwoordig is en eenvoudig en betaalbaar kan (met minder herrie).

De TDP geeft enkel aan hoeveel energie het koelblok moet kunnen afvoeren die voor de betreffende CPU gebruikt wordt. Het is dus een eis van Intel dat jouw koeler hieraan voldoet om de CPU onder een bepaalde werktemp. te houden dat ervoor zorg draagt dat de gegarandeerde performance met turbo behaald kan worden zonder instabiliteit en verlies van garantie.

Het zegt dus 0,0 over het werkelijk verbruik van de CPU en dit had tweakers dus ook moeten meten of overnemen van vele sites die dergelijke testen al eindeloos gedaan hebben.

Vroeger werden dus de processoren veel heter dan nu, dat vond men destijds geen probleem. Kijk maar eens naar jouw oude AMDtjes als je die gehad hebt? koeler was niet beet te pakken, je had gelijk brandwonden. Tegenwoordig kan je makkelijk na zware belasting een koeler beetpakken.

[Reactie gewijzigd door n00bs op 16 februari 2017 12:46]

Mooi bericht, leuk om te lezen!

Wat ik mij wel afvraag is wat het effect van integrated graphics nu is op de performance van een processor. Ik zelf ben desktop gebruiker en heb dus altijd een losse gpu. Hadden de laatste cpu's sneller/zuiniger/goedkoper kunnen zijn zonder die feature?


Om te kunnen reageren moet je ingelogd zijn



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True

*