Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 137 reacties

De tick-tock-cadans die Intel jaren wist vol te houden en waarbij een nieuwe processorarchitectuur, of tock, werd gevolgd door een verkleining van het productieproces, of tick, blijkt sinds enige generaties niet meer haalbaar. In plaats daarvan zagen we al bij 22nm-Haswell-processors een tweede of refresh-generatie, terwijl aan een die-shrink naar 14nm gewerkt werd. Die kwam met Broadwell-processors, Intels eerste 14nm-generatie, in september 2014. De tock van 14nm, Skylake, kwam elf maanden later en bracht verbeteringen in de microarchitectuur van de processors.

Met de opvolger van Skylake komt er geen nieuwe architectuur, maar een refresh van de 14nm-generatie. Kaby Lake heeft een vrijwel ongewijzigde microarchitectuur en wordt nog steeds op 14nm geproduceerd. Toch is Kaby Lake net iets meer dan puur een refresh van Skylake en daarom krijgt het ook een eigen codenaam in plaats van simpelweg 'Skylake Refresh'. We kunnen Kaby Lake echter wel grotendeels als refresh van Skylake zien en zo behandelen we het dan ook. We zetten de verbeteringen en aanpassingen ten opzichte van Skylake op een rijtje en laten de nieuwe functies de revue passeren.

Introductie: stapsgewijs

De eerste producten van de Kaby Lake-generatie zijn, net als bij de Broadwell-introductie, enkel geschikt voor mobiel gebruik. De desktopmarkt krimpt nog altijd en de grootste winsten op het gebied van energiegebruik en integratie zijn op de mobiele markt te halen. De Kaby Lake-processors worden ontwikkeld voor zeer dunne laptops, 2-in-1-apparaten en kleine, compacte pc's, zoals nucs en compute sticks. De eerste reeks Kaby Lake-processors bestaat dan ook uit zes laptopprocessors: drie uit de U-serie en drie uit de Y-serie. Daarmee bedient Intel laptops met processors met tdp's van 4,5 tot 15W, en alle processors zijn dualcores met hyperthreading-ondersteuning en uiteraard een ingebouwde gpu. De eerste producten met deze zevende generatie Core-processors moeten in september al verkrijgbaar zijn; die worden ongetwijfeld op de IFA in Berlijn aangekondigd.

De zes processors hebben de volgende specificaties, over de gpu's zijn nog geen details vrijgegeven:

Y-series Core m3-7Y30 Core i5-7Y54 Core i7-7Y75
Cores/threads 2/4 2/4 2/4
Kloksnelheid 1GHz 1,2GHz 1,3GHz
Turbosnelheid 2,6GHz 3,2GHz 3,6GHz
Geheugen 2x ddr3l 1600MHz
2x lpddr3 1866MHz
2x ddr3l 1600MHz
2x lpddr3 1866MHz
2x ddr3l 1600MHz
2x lpddr3 1866MHz
Prijs 281 dollar 281 dollar 393 dollar
U-series Core i3-7100U Core i5-7200U Core i7-7500U
Cores/threads 2/4 2/4 2/4
Kloksnelheid 2,4GHz 2,5GHz 2,7GHz
Turbosnelheid 2,4GHz 3,1GHz 3,5GHz
Geheugen 2x ddr3l 1600MHz
2x lpddr3 1866MHz
2x ddr4 2133MHz
2x ddr3l 1600MHz
2x lpddr3 1866MHz
2x ddr4 2133MHz
2x ddr3l 1600MHz
2x lpddr3 1866MHz
2x ddr4 2133MHz
Prijs 281 dollar 281 dollar 393 dollar

In januari, ongetwijfeld met de CES in Las Vegas als achtergrond, volgt de volgende reeks processors van de Kaby Lake-generatie. Intel zal dan niet alleen desktopprocessors aankondigen, maar ook de high-end sku's voor laptops, zoals de HQ-serie quadcores en de H-serie. Ook overklokbare K-processors en modellen voor zakelijke toepassingen, zoals Xeons voor servers en workstations, volgen dan.

Verbeteringen: 4k

Een van de grootste en, wat de opbouw van de processors betreft, een van de weinige verbeteringen, is de vernieuwde media engine. De gpu is op zichzelf vrijwel onveranderd en gebaseerd op de Gen9-architectuur, die bij Skylake werd geïntroduceerd. Dus de execution units, verdeeld in slices en subslices, verzorgen de grafische rekentaken. Het zijn generieke verwerkingseenheden en voor specifieke taken is het efficiënter om aparte blokken te bouwen die alleen die taak kunnen uitvoeren. Dergelijke dsp's zijn zuiniger en hebben als bijkomend voordeel dat het grootste deel van de gpu uitgeschakeld kan blijven. In zijn processors heeft Intel dergelijke dsp-blokken om bijvoorbeeld video te decoderen. Bij het kijken naar een film kan zo hardwarematig video worden gedecodeerd met een decode engine. De rest van de gpu of cpu hoeft dit dan niet in software te decoderen, wat meer rekenwerk en dus energie zou kosten.

Kaby Lake energiezuiniger

De decode engine in Kaby Lake is vernieuwd en ondersteunt nu nieuwe codecs voor de weergave van video. De processors konden uiteraard al 4k weergeven, maar nu is er ondersteuning voor 4k-videomateriaal dat gecodeerd is met de hevc-10bit- of vp9-codecs. Eerstgenoemde hevc-codec is ook bekend als h265 en wordt voor onder meer blu-rays en Netflix-streams gebruikt. Onder andere YouTube gebruikt de vp9-codec voor zijn 4k-streams.

Kaby Lake media transcodingKaby Lake media engineKaby Lake media engine-verbeteringen

Naast de decode engine voor 4k-hevc- en vp9-video zijn ook de processing engine en display engine voor video geschikt gemaakt voor efficiëntere verwerking van videostreams. Het resultaat van de aanpassingen is de mogelijkheid om met een veel lager energiegebruik 4k-video te bekijken. In demonstraties liet Intel een zesde generatie Core-laptop zien, die ongeveer 50 procent cpu-belasting toonde tijdens het afspelen van 4k-video, terwijl een zevende generatie Core-laptop slechts vijf tot tien procent cpu-load toonde. Dat moet leiden tot laptops die ruim negen uur 4k-hevc-content kunnen streamen. Vp9-content van YouTube zou 1,75 maal zo lang afgespeeld kunnen worden. Een testsysteem zou zonder de hardwarematige vp9-ondersteuning vier uur video kunnen afspelen, terwijl een Kaby Lake-systeem zeven uur zou halen. Daarbij werd een laptop met een Core i7-6500U vergeleken met een laptop met Core i7-7500U, beide met een 4k-scherm en een 66Wh-accu.

Behalve voor decodering is de Kaby Lake-gpu ook geschikt voor het coderen van video. Door middel van Intels Quick Sync-functionaliteit kan 4k getranscodeerd worden. Daarbij kun je kiezen uit twee instellingen: een snelle FF-mode die van de fixed function of dsp gebruikmaakt, en een instelling die betere kwaliteit biedt en van de gpu gebruikmaakt. Die laatste is vanzelfsprekend energie-intensiever.

Het verbeterde mediablock bestaat uit drie fixed function media engines: de multi-format codec of mfx, de video quality engine of vqe en de scaler en format converter of sfc. In de mfx zijn onder meer de coderings- en decoderingsfunctionaliteit voor hevc 8- en 10bit, en vp9 toegevoegd, en is de ondersteuning voor wireless display verbeterd. Ook zijn hier de verbeterde fixed function mode voor quicksync en de beter presterende oavc-decode-functie ondergebracht. In de vqe is ondersteuning voor hdr toegevoegd. De media engine ten slotte, moet in staat zijn om maximaal acht 4k30p-avc- of -hevc-streams gelijktijdig weer te geven en voor hogere kwaliteit 4k60p worden streams tot 120Mbit/s ondersteund. Een 4kp30-steam kan op een Y-serieprocessor getranscodeerd worden met tweemaal de realtime-snelheid, mits van avc naar avc geconverteerd wordt, bij het transcoderen van avc naar hevc gebeurt het in realtime. Op de U-serie processors gebeurt dat op respectievelijk driemaal en tweemaal de realtime-afspeelsnelheid.

Het 14nm+-procedé

Het is niet ongebruikelijk dat er gedurende de levensduur van een technologienode, in dit geval de 14nm-node, steeds betere chips met steeds hogere opbrengsten gebakken worden. Dat is ook het geval bij de inmiddels derde generatie 14nm-processors. Intel kon immers al oefenen met Broadwell en Skylake. Het procedé is volgens de fabrikant inmiddels zo ver doorontwikkeld dat Intel spreekt van een 14nm+-procedé, of 14Plus. Heel concreet over de verbeteringen en aanpassingen die dat met zich meebrengt, is het bedrijf echter niet; het blijft vaagheid troef.

Een van de verbeteringen die Intel voor 14nm+ claimt, is een verbeterd vinontwerp, wat de prestaties zou verhogen. Vanaf 22nm-processors maakt Intel gebruik van finfets, ofwel transistors met een of meer hoge kammen voor de gates. Hoe groter de oppervlakte van die gate, des te betere prestaties van de transistors mogelijk zijn. De vinnen in Kaby Lake-transistors zijn hoger en hebben dus een groter oppervlak. Ook de spanning of strain in het silicium van het channel, dat voor een betere mobiliteit van de elektronen zorgt en dus beter geleidt, is vergroot. Ten slotte is het ontwerp van de processors hand in hand gegaan met verbeteringen in het productieproces. Dat kan volgens Intel leiden tot een verhoging van de prestaties met twaalf procent.

Kaby Lake 14nm Plus

Daar wringt de schoen een beetje, want Intel laat cijfers zien waarin een i7-7500U inderdaad twaalf procent beter presteert in Sysmark 2014 dan een i7-6500U. Die laatste draait echter op maximaal 3,1GHz, terwijl de Kaby Lake-processor maximaal 3,5GHz aantikt. Dat snelheidsverschil zou de prestatiewinst al volledig kunnen verklaren. Bij kort-intensieve workloads, Intel noemt ze 'bursty', zou het verschil tussen de Skylake- en Kaby Lake-processors oplopen tot negentien procent, een verschil dat niet door de hogere clocks te verklaren is. Of toch wel? De Speedstep-technologie is namelijk ook weer aangepast en verbeterd. Speedstep neemt het schakelen tussen verschillende powerstates uit handen van het besturingssysteem en handelt dat in hardware af. Dat kan het veel sneller dan bijvoorbeeld door Windows, dus kan een Speedstep-processor veel sneller naar hogere powerstates schakelen en ook sneller terugschakelen.

Kaby Lake verbeterde speedshift

Los van hogere kloksnelheden en sneller opschakelende turbo's zijn er weinig architecturele veranderingen in Kaby Lake. Met het meer gerijpte procedé zijn hogere kloksnelheden met dezelfde tdp's mogelijk, maar het idle-verbruik zou vrijwel onveranderd zijn. Tegen de toch al lage lekstromen kan weinig meer gedaan worden. Het idle-verbruik zou 40 tot 50mW bedragen, voor zowel de Skylake als de Kaby Lake-generatie. De grootste verandering lijkt vooralsnog de ondersteuning voor 4k-content met hevc- en vp9-codecs te zijn. Zodra we laptops met de nieuwe generatie in handen krijgen, kunnen we dat testen. Dat moet ons tevreden stellen tot we in januari met de desktopprocessors kunnen spelen.


Door Willem de Moor

- Reviewer

Willem werkt sinds 2008 bij Tweakers en heeft een voorliefde voor wetenschap en een passie voor hardware. Deze combinatie gebruikt hij bij het schrijven van zijn verhelderende achtergrondartikelen, maar komt hem ook goed van pas bij het testen van de nieuwste processors, ssd's en laptops. Zijn informatie haalt Willem het liefst uit de eerste hand bij de fabrikant, ook als dat betekent dat hij daarvoor naar Taiwan moet vliegen.

Moderatie-faq Wijzig weergave

Reacties (137)

waarom zou je een i3-7100U kopen als de i5-7200U dezelfde prijs heeft met betere specs? Er staat geen verbruik, maar aangezien het beide U-series zijn, lijkt me dat er geen groot verschil op kan zitten
It’s worth noting that the Core i3-7100U also has a different implementation of the integrated chipset, or rather a cut down version (it’s still the same silicon underneath). The Core i3 loses RAID, a couple of USB 3.0 ports, PCIe 3.0 support (from the chipset, more on that later) and SATA ports.

This brings up a couple of things. First, I find it interesting that the m3 variant does not share this cut down feature set, meaning that the m3 products will still support RAID, PCIe 3.0 x4 storage and the like. Also, the fact that the Core i3-7100U and Core i5-7300U are the same price means that it is more of a platform play. With this cut down feature set, it requires a different platform design: an OEM cannot easily adjust the number of USB 3.0 ports on their motherboard and chassis just for one variant of a CPU, especially when the regular design supports both the Core i5-7300U and Core i7-7500U. As a result we might start to see fewer Core i3 variants on the market, except in devices where the limitations have little impact (ultrabooks).
Pure strategie van Intel dus. De i3 oninteressant maken, waardoor fabrikanten of voor de betere i5 gaan, of voor de Core M processors gaan.

Bron: Anandtech
Over de grafische mogelijkheden is nog niks bekend gemaakt. Wellicht heeft de i3 variant op dat vlak betere specs dan de i5 en vraagt intel daarom dezelfde prijs...??
Alleen de clockspeed zou hoger kunnen liggen. Voor de rest hebben ze allemaal de HD620 met 24EUs.
interessant nieuws, want dit zijn toch relatief simpele features die weinig met de standaard "brakke cpu dus verpatsen als budget" te maken hebben. Je kan bovendien nog steeds rond een i5 een mobo met mindere specs (laten) bouwen om de kosten te drukken, dus uit dit oogpunt is er nog steeds geen positief punt om voor een i3 te kiezen (als OEM of eindgebruiker) als de prijs hetzelfde is. Als ze iets doen, dan is het wel OEM's wegjagen/op kosten jagen door de i3 prijs kunstmatig hoog te houden en hun wafer retail value op te krikken
Hoewel de TDP identiek is, vermoed ik dat dat i3 iets zuiniger gaat zijn. En de fabrikanten gaan toch een meerprijs rekenen voor i5 vs i3. Ongeacht de inkoopprijs.
Ik denk warmteproductie en misschien ook het verbruik. Warmteproductie kan interessant zijn voor mobile devices. Je ziet dit volgens mij ook terug in de Surface Pro 4, waar de kleinste processor niet actief gekoeld hoeft te worden. Scheelt toch weer een ventilator, geluidsproductie, stofophoping en iets wat niet stuk gaat.
Misschien dat er meer goede chips zijn en minder met tegenvallende prestaties die dus als i3 over de toonbank gaan?
waarschijnlijk, gezien hun yields beter zijn, maar ik kan me niet voorstellen dat grote OEM's dit zomaar pikken
Jammer dat er schijnbaar zo weinig meer gedaan kan worden aan het stroomverbruik. Dit is op mobiele apparaten veelal een achilleshiel. Naar mijn weten, maar ik kan het fout hebben, hebben alleen de producten van apple een zeer lange accuduur, al hebben de air modellen ook een verouderd tn scherm met vrij lage resolutie. Dit zal denk ik ook meespelen met de lange accuduur.
De processoren zijn tegenwoordig al enorm zuinig, zeker als ze terug geschroefd worden in snelheid! Het grote verschil zit hem gewoon in het OS en alle applicaties zelf. Hoe gaan ze om met hun energie, gaan applicaties zelf minder energie vragen? Mijn laptop kan met gemak 2 uur langer mee onder Windows dan onder Linux. Die laatste kan vast getweaked worden, maar out of the box settings maken een enorm verschil!
Grootste energiebesparing zit hem in netwerkverkeer en schermtijd.

Mijn telefoon (OPX) gaat prima een week mee op een acculading als ik wifi, mobiele data, GPS en bluetooth uitgeschakeld heb en hem enkel als 'telefoon' gebruik (en dus eigenlijk alleen het scherm aan heb wanneer ik bel/gebeld word.. of de wekker zet).
Wat dat betreft is er dus weinig verschil met telefoons van vroeger; hiermee bedoel ik dus: als je hem enkel gebruikt als 'mobiele telefoon'.

Ik moet dan ook zeggen dat, hoewel meer accuduur natuurlijk altijd mooi is, ik op het moment niet ontevreden ben over de huidige smartphones. Ze kunnen net zo zuinig zijn als telefoons van vroeger als je ze enkel als telefoon gebruikt.. maar ze kunnen ook zo enorm veel meer.. wat dan wel ten koste gaat van accuduur maar ja in principe kan elke smartphone een dag van 'normaal' gebruik makkelijk aan... en dat allemaal in een telefoon die niet veel groter of zwaarder is dan een oude Nokia 3310!

De ontwikkelingen op (mobiele) CPU/GPU gebied en het afschuiven van steeds meer taken naar DSP's terwijl wel steeds meer geconsolideerd word in dezelfde package (CPU/GPU op een die en het komt eraan dat ook geheugen hierbij toegevoegd word) heeft zeer zeker een enorme invloed gehad hierop.
Op een gegeven moment krijg je natuurlijk te maken met diminishing returns betreffend optimalisatie en ik denk dat we daar toch redelijk snel tegenaan zullen lopen de komende jaren maar daar is niks mis mee, we hebben dan gewoonweg het maximale rendement gehaald en moeten dan kijken naar alternatieve fundamentele manieren van berekenen (van silicon afstappen? optische pathways en transistors? bit opslag in de vorm van spin/alignment ipv elektrische lading? alternatieve accu technologieŽn word ook erg veel onderzoek naar gedaan)
Klopt, cpu's zijn al lang niet meer de beperkende factor. Batterijen zijn relatief zwak en beperken onze vrijheden het meeste.

Indien batterijen 10x meer vermogen kunnen opslaan in een gelijk volume zouden we veel krachtigere smartphones en smartwatches hebben omdat intel en co dam meer ruw vermogen kunnen inzetten. Zelf met deze 14nm tech valt ontwikkelde warmte best wel mee. Intel zou zich meer moeten bezig houden met batterijtechnologie want dat dat beperkt hun toepassingsgebied enorm.

Daarna volgt schermtechnologie. Indien schermen flexibel zouden zijn en krasbestendiger dan zag uw smartphone er helemaal anders uit.

Ik vraag mij soms af of het mogelijk is of de technologische vooruitgang sneller kan gaan dan ze nu gaat wetende dat technologische vooruitgang deels comsumenten gedreven is omdat massaproductie steeds veel tijd vraagt om deze op de aarde te verdelen. Maar toch, leuke denkoefening. Stel we krijgen 100.000 chipset ingenieurs for free, wat dan :)

Het valt me trouwens op dat chipsets krachtiger worden maar dat software niet per definitie meer power vraagt.
"Het valt me trouwens op dat chipsets krachtiger worden maar dat software niet per definitie meer power vraagt. "

Dat is relatief denk ik.

De SMS 'app' is functioneel natuurlijk vrij weinig veranderd de afgelopen 10 jaar, maar de SMS app op jou huidige android/ios telefoon verbruikt toch wel degelijk meer cpu/gpu kracht dan die op je oude 3310. Alles ziet er gelikter uit, je hebt tegenwoordig emoticons, mooie gespreks'bellen', een tree-structuur voor bericht'conversaties' en natuurlijk niet te vergeten die mooie 'smooth' interface effecten.

Als er meer reken kracht beschikbaar is ga je nou eenmaal vanzelf toepassingen daarvoor bedenken in dezelfde trend als een programmeur die vandaag de dag er niet naar omkijkt om een grote database in een keer in het geheugen in te laden waar dat vroeger wel anders was... Je past je programmeer technieken en je app/programma's aan op wat mogelijk is met de huidige techniek/hardware.

software vraagt op het moment niet zo veel meer power omdat de 'huidige' populairste toepassingen voor een smartphone nou eenmaal vrij simpele dingen zijn:
- beetje communiceren
- beetje filmpjes/streams kijken
- beetje browsen
- beetje simpele spelletjes spelen zoals angry birds of bejeweld of candy crush of zo
Het gros van de dingen waar een smartphone 'gemiddeld' voor gebruikt word gebruiken nog niet de helft van de beschikbare CPU/GPU kracht.
Natuurlijk zijn er ook wel mensen die intensieve 3d games spelen maar dat is een relatief verwaarloosbare groep.

Ik voorspel dat de eerstvolgende echte intensieve toepassing voor smartphones een PROPERE 'assistent' AI zal zijn, a la Siri of Cortana, maar dan iets wat daadwerkelijk intelligentie heeft en niet een verzameling 'truukjes' is. Op het moment echter zijn smartphones nog niet krachtig genoeg om zoiets vloeiend te draaien (en daar komt dan nog eens bij dat er nog niemand een ontworpen heeft die ook daadwerkelijk werkt)
Intel zou zich meer moeten bezig houden met batterijtechnologie want dat dat beperkt hun toepassingsgebied enorm.
Intel is een chipbedrijf; zelfs als ze morgen besluiten een miljard in batterij-technologie te pompen, dan nog zijn we jaren verder voordat ze voldoende kennis in huis hebben gehaald om daadwerkelijk iets bij te dragen. (Nou ja, het kan wel sneller... maar dan moeten ze bestaande experts wegkopen bij andere bedrijven, zodat we netto nog steeds niks opschieten.)
Stel we krijgen 100.000 chipset ingenieurs for free, wat dan :)
De hoogste werkloosheid ooit onder chipset-ingenieurs? :p
Misschien erg off-topic, maar op mijn Haswell laptop kom ik met Arch Linux en daarop TLP geinstalleerd een heel eind. Zonder TLP zit ik op ongeveer 15W stroomverbruik idle volgens powertop, met TLP zo rond de ~8W. (van het hele systeem dan, volgens de batterij)
https://wiki.archlinux.org/index.php/TLP

Het probleem hier is, zover ik weet, dat Linux zelf niet aan de knoppen voor power management zit, daarintegen is Windows altijd actief bezig met het monitoren en bijstellen van het stroomverbruik.

Maar inderdaad zoals je zegt, het ligt ook sterk aan de programma's die je draait. Zo zorgde GNOME Shell altijd voor een ~3% load op mijn processor zodat hij amper in slaap ging, maar KDE Plasma heeft dit weer niet.

Toch mooi dat Intel ook van hun kant hier een duwtje in de rug geeft. Alle kleine beetjes helpen :)
Helaas is windows altijd aan de knoppen voor energiemanagement. Zo is er nog steeds geen gedegen software om hybride GPU setups echt fatsoenlijk te kunnen gebruiken. Waarom denk je dat Macbooks zo veel beter accuduur hebben met de high end apparaten met dGPU?
Macbooks gebruiken een heel ander systeem voor Optimus of PowerPlay (of hoe het nu ook heet bij AMD).

Ze zijn gelijk in dat de GPU ook echt uitgezet word als hij niet gebruikt wordt. Daar houd het ook ongeveer op.

"Normale" Optimus werkt door middel van het kopieren van frames. Op Linux, met Bumblebee, werkt het als volgt:
Wanneer je een programma opstart met Bumblebee ("optirun/primusrun [programma]") word er een tweede X sessie gemaakt, die je niet kunt zien (zie het als 2 canvassen). Deze tweede X sessie word enkel gebruikt voor de app die met Bumblebee wordt gedraaid.
Wanneer er in de 2e sessie een nieuwe frame word gerenderd, word deze door Bumblebee gekopieerd naar de 1e X sessie, welke het weer netjes op zijn plek zet en er een compleet beeld van maakt.

"Apple" Optimus werkt heel anders. Apple gebruik eigen hardware voor het wisselen tussen de twee GPUs. Wanneer Mac OS X detecteerd dat er een bepaalde load op de GPU staat, zal het automatisch wisselen tussen de twee kaarten door ze in principe om te wisselen.

Bovendien is het vergelijken van het mechanisme van een Apple laptop met een normale laptop het vergelijken van appels met peren (no pun intended). Als dit de enige verschillende factor was zou ik zeggen ja, maar er zijn erg veel factoren die ervoor zorgen dat een Mac meer energie efficient is, vooral het OS. (ook uit benchmarks blijkt dat als je Windows op een Macbook zet, de accuduur er erg onder lijdt)
Dat is ook niet zo heel gek. Windows via bootcamp maakt standaard gebruik van de dGPU. Zit ik met een powerhungry Amd R9 M370x (in verhouding met IGP) in word te tikken. Scheelt een aantal uren aan batterij (ongeveer 3).

Komt ook nog eens bij dat windows niet de volledige ssd snelheid kan gebruiken (scheelt rustig 500MB/s sequentieel) en fan profielen volledig naar de bertverderrie zijn.

Dat OSX echt hardwarematig switched weet ik. Daarom staat er in systeeminformatie (het kleine venstertje "over deze mac") altijd maar 1 videokaart genoemd: de kaart die actief is.
Eerste keer dat ik van TLP hoor. Zal het eens proberen. Mijn laptop gaat voor mijn gevoel al aardig lang mee, maar alles is mooi meegenomen natuurlijk.
TLP gaat erg ver in de mogelijkheden. Zo heb ik bijvoorbeeld ingesteld dat mijn CPU voor maximaal 60% gebruikt mag worden op de batterij, dat USB apparaten automatisch in slaapstand gaan (behalve de muis), en dat verschillende andere hardware die je niet on-the-go nodig hebt (Ethernet adapter et al.) gewoon uitgezet worden.

Voor alle opties kun je hier de handleiding eens doorlezen: http://linrunner.de/en/tlp/docs/tlp-configuration.html
https://wiki.archlinux.or...XPS_13_(2015)#Powersaving

2.3W. Op arch haal je toch duidelijk minstens hetzelfde of betere batterij prestatie tegenover windows. Ik denk dat de meeste problemen veroorzaakt worden door bv wifikaarten of audiokaarten die geen powersaving support hebben in de kernel. Ik vraag me af hoeveel de devs daaraan kunnen doen.
Yep, als je er een beetje moeite in stopt kan je echt heel ver komen. 2.3W is wel heel erg netjes, ik zal eens kijken of er voor mij ook nog iets weg te snoepen valt :)
(al staat er niet bij of dat dit met een DE draaiend is of niet. In de console draaien een stuk minder processen dan met een DE)

Windows heeft nog wel eens de neiging om processen op te gaan starten (indexeren e.d.) die best wat CPU vragen, dat helpt ook niet. Maar volgens mij worden dat soort dingen tot een minimum gebracht als het systeem op batterij draait.
Ik gok in een window manager aangezien dat maar een paar mW vraagt (bspwm 1.88mW) en anders xfce/lxde/lxqt. Als je plasma draait vind ik het al heel knap als je onder de 10W komt ;), helemaal als je pulseaudio draait. maar dit gaat nu wel erg offtopic.
Mijn laptop kan met gemak 2 uur langer mee onder Windows dan onder Linux. Die laatste kan vast getweaked worden, maar out of the box settings maken een enorm verschil!
Jammer om toe te geven maar dat verbaast me eigenlijk niet. Er moet maar 1 slecht geschreven shell script draaien, en dan is er uiteraard nog de kwestie "drivers".
Het probleem zit in mijn ogen ook meer aan de accu kant.
Het is ongelofelijk knap dat er "maar" 15Watt nodig is om een dergelijk chip met zoveel transistors zijn werk te laten doen. Let wel, ook nog eens op maar 14nm!

De accu's daarentegen zijn sinds de komst van Lithium-Ion nog weinig veranderd/verbeterd in capaciteit. Al is de wetenschap hier wel erg hard mee bezig maar het wil nog niet echt vlotten.

PS. Mijn MacBook Pro Retina 15Inch met i7 gaat zo'n 7 a 8 uur mee op een volle lading. (geen video's afspelen)
Dat komt mede door de veel grotere accu (99,5Wh) ten opzichte van andere laptops (60-75Wh) en al helemaal als dit een verwijderbare 3Cell variant is (45Wh). Zelfs in combinatie met een redelijk zuinige pentium dualcore haal je niet vergelijkbare resultaten. De pentium is gewoon veel te lang veel te hard aan het werk om nog efficiŽnt genoeg te zijn.
Er zit toch in Apples ook gewoon een intel proc tegenwoordig? Als er dan al verschil in stroomverbruik is, dan is het een softwarefeature, geen hardware.
Dat valt best mee, Apple gebruikt in haar Mac Books behoorlijk grote interne accu pakketten. Waar de meeste non-full metal body laptops een verwijderbare 54 Wh of 68 Wh (of iets dergelijks) accu hebben, hebben de duurdere Mac Books tegen de 100 Wh li-ion accu's onder de alu-motorkap.

Ot: Ik zit momenteel nog met een oude 2500K overgeclockt op 4.6 GHz en deze komt nog redelijk mee met de grote jongens. Ik zit nu alleen te twijfelen tussen deze Kaby lake of de nieuwe 10 nm Cannon lake die in 2017 (voor desktop waarschijnlijk 2018) uitgebracht wordt. Niet alleen zakt de TDP dan enorm maar ook kan ik features zoals nvme m.2 ssd's en DDR4 eindelijk benutten!

@Hoi3344

Klopt. Mijn redenatie was niet helemaal correct geformuleerd. Ik doelde meer op het feit dat een upgrade van mijn 2500K mij deze opties zou geven. Deze features zijn uiteraard ook prima te gebruiken bij de huidige Intel 6xxx CPU chipsets. Maar wellicht is het toch niet helemaal een slecht idee aangezien Intel voor Cannon lake een nieuwe chipset zou kunnen uitbrengen. Er waren de laatste tijd al geruchten rondgegaan over PCI-e 4.0 en native USB 3.1 (Thunderbolt?) support.

[Reactie gewijzigd door Jhonny44 op 31 augustus 2016 11:35]

Ik zit in dezelfde situatie als jij. Ik heb een 2500K op 4,5GHz lopen en wilde deze zomer eigenlijk upgraden naar een 6800K. De recente berichten over Zen hebben mij echter doen besluiten om nog even te wachten. De verschillen tussen Sandy Bridge en de laatste intel platformen kunnen in sommige gevallen behoorlijk zijn, maar na lang denken vind ik het kwa geld nog niet waard. Ik vermoed dat AMD er aan het einde van dit jaar voor gaat zorgen dat de prijzen omlaag zullen gaan/we eindelijk het tijdperk van mainstream=quadcore gaan verlaten.
Zit in exact dezelfde situatie maar dan met een 2500K die een flinke overcock nu heeft. Toch merk je wel dat per clocktick de huidige Intel CPU's een pak sneller zijn.

Ik vind de prijzen van Intel nu ook schandalig hoog voor de verbeteringen die ze hebben doorgevoerd. Dus eigenlijk wacht ik op de AMD zen CPU's waarbij de engineering samples op gelijke clocksnelheden aardig competitief lijken tegenover Intel.
Correct. De laatste 15" retina heeft 99,5 Wh (niet watt/h!) aan batterij. Daarnaast heeft OS X een aantal CPU en GPU optimalisaties die windows niet heeft of maar matig via third party software (nVidia Optimus bijvoorbeeld).
De huidige generatie voldoet toch ook aan de eis voor NVME M.2 ssd's en DDR4 RAM geheugen? Ik wil eigenlijk een nieuw systeem aanschaffen met 512GB SM961 en 16GB DDR4 3400mhz, maar als jij zegt dat deze niet goed ondersteunt worden, kan ik dus beter wachten? Zoals ik weet moet dit toch gewoon goed gaan?
http://www.apple.com/macbook-pro/specs-retina/
Als je iemand corrigeert; gebruik dan een bron,

het is dus zeker wel bijna 100.
15" Built-in 99.5-watt-hour lithium-polymer battery
13" Built-in 74.9-watt-hour lithium-polymer battery
Jammer dat er schijnbaar zo weinig meer gedaan kan worden aan het stroomverbruik.
Verbruik is juist de laatste generaties erg verbeterd, en sinds Sandy Bridge hebben we dan ook voornamelijk zuinigere en niet echt snellere CPU's gekregen.
hebben alleen de producten van apple een zeer lange accuduur, al hebben de air modellen ook een verouderd tn scherm met vrij lage resolutie.
Ik neem aan dat je het over de Apple laptops hebt, en die hebben allemaal Intel CPU's.
Aan de CPU zal het dus zeker niet liggen.
Euhm, met 25% verbetering in performance per watt. Da's netjes.
En speciale DSP's voor video decoding bijna 2x zo zuinig.
Dus als ik het goed begrijp komen de Intel Kaby Lake desktopprocessors pas in januari 2017?
Zo lijkt het. Dit lijkt me dť kans voor AMD om terug te komen met Zen. Dit riekt wel wat naar luiheid van Intel, wat logisch is gezoen het gebrek aan concurentie. Ik kijk uit naar begin 2017!
Luiheid?

Eerder een gebrek aan visie en een bedrijf dat in dubio is. Klassieke x86 moet je het niet van hebben.
De indeling van supercomputers en consument lijkt weer terug zijn gekomen met de vraag naar chips met heel hoge output. En met die chips ga je echt niet whatsappen en internetten.

VR vraagt gruwelijk veel output en daar kan Intel niet aan voldoen. Mobiel heeft Intel nog steeds moeite en al zouden ze er in slagen om te leveren, dan ga je achter de feiten aan lopen, software is allemaal ingericht op ARM.


En er zijn genoeg signalen waarbij Intel moet afvragen of ze in huidige vorm bestaansrecht hebben,
computer en tablet zakt ten favoure van smartphone,
Microsoft met zijn hololens die een totaal andere partij aantrekt voor de ontwikkeling van een chip,
nieuws: HoloLens heeft speciaal gemaakte 24-core hpu aan boord
We hebben net gezien dat de verkoop van tablets achterblijft en ze (nog) niet de verwachte vervanging van laptops en desktops zijn geworden. Ik zie smartphones nog steeds "smarter" worden, maar even mijn financiŽle administratie in Excel bijwerken doe ik echt honderd keer liever op mijn laptop; net zoals een game spelen zoals Football Manager; een fotoboek maken; lange e-mails schrijven; tekstverwerken en zoveel andere dingen. Intel heeft wat mij betreft voldoende bestaansrecht in een markt die zich bewezen heeft in het dagelijks leven van de consument.

[Reactie gewijzigd door Jorgen op 30 augustus 2016 17:47]

@boven
https://getsuperbook.com

Was een kickstarter project en het doel was behaald. Microsoft heeft een soortgelijk principe met continuŁm, alleen is dat opgeteld duurder, maar ook niet bijster realistisch omdat zo weinig telefoons op Windows draaien. Toestellen die het ondersteunen kosten ook nog eens veel geld.

Er is niet alleen een belangrijke stap gezet, je hebt verschillende high-end toestellen die niet onder doen van een reguliere desktop.
Ik weet niet of de gemiddelde tot high-end telefoon in staat is om Football Manager met meerdere competities en 60k spelers te draaien. ;)

Dan nog, dan heb je dus een domme laptop staan. Weliswaar voor een fractie van de prijs, maar dan nog. Ik zie de potentie, maar ik denk dat ik nog even een paar generaties oversla.
60K maar? Serverside neem ik aan?

Ik weet niet precies wat football manager voor type architectuur heeft, maar voor 60K spelers heb je toch een leuke server nodig hoor.

Client side kan dat dus makkelijk als er een server achter draait.
Ik neem aan dat het over 60.000 virtuele voetballers gaat die in 2500 virtuele teams spelen. Dat is client-side best te behappen, ook op een mobiele telefoon. We vergeten te gemakkelijk dat een Gigahertz processor ruwweg een miljard instructies per sconde per core verwerkt. Dus als je 1250 wedstrijden wil simuleren, en elke wedstrijd kost je 10.000 instructies, dan heb je op een single-core smartphone 1/80 van een seconde nodig. Dat is praktisch instantaan.
Ah zo. Ja zelfs al zou je dan scheids en lijnrechts meetellen en de bal simuleren en dan ook nog alles opslaan dan houd je nog heel veel ruimte over. Ik dacht dat het om 60K spel spelers ging met 60K teams.

Dan komt er ook service overhead en persistency en alles bij kijken en dan gaat ineens wel hard. API's en webservices draaien op een smartphone wordt niet wat. Komt toch een hoop bij kijken.
Ik heb het natuurlijk over de x86 markt, daar gaat dit artikel namelijk over.

Overigens ben ik met je eens dat intel ij denorige segmenten achter de feiten aan huppelt, maar datbis wat mij betreft off-topic.
Nou, ik zie de smartphone de desktop de komende jaren nog echt niet vervangen.
99,99% van de dingen die ik op mijn pc doe zijn (nog) niet op een tablet/smartphone te doen. :)
Laptops zullen wel in enkele jaren vervangen worden waarschijnlijk, door 2-1 producten als de surface lijn. In china zjin ze al in opkomst, allemaal gebruiken Intel (net als de high end surface apparaten). Ik zelf heb behoorlijk interesse in zo een product en als ze (voor een leuke prijs) in Nederland ook goed verkrijgbaar zijn, dan zie ik een nieuwe surge komen in het verkoop van 2-1 tablets.

Smartphones aan de andere kant blijft natuurlijk een ding opzich. Snel wat chatten, wat opzoeken etc. is het perfect voor maar je kan er idd niet op werken (wat je wel kan met zo een 2 -1 product, zie surface of anders chinese producten als Chuwi enz).
Tegen dan is Zen uit en als AMD de beloftes kan waarmaken dan krijg je sowieso meer voor je geld of je nu voor Zen of Kaby Lake gaat.
Jammer dat Intel alweer de, zeer matige, "U" reeks voortzet. Qua batterijduur maakt het tegenwoordig niets meer uit want bij laptops voorzien van een U processor stoppen fabrikanten gewoon kleinere accu's in. 8)7
Zo zijn de inmiddels stokoude maar wel echte quad core i7 2630QM en 2670QM nog steeds ver buiten bereik van een i7 4500/4510U terwijl beide machines nieuw ongeveer evenveel hebben gekost.

Een prijs van 393 dollar voor een dual core Kaby Lake is dan ook ronduit belachelijk te noemen.
Ik krijg de afgelopen 2 jaar het gevoel dat Intel langzamerhand de weg kwijtraakt door gebrek aan enige concurrentie van AMD. Prestatiewinst tov. de vorige generatie remt af en de prijzen schieten omhoog (BW-E).

[Reactie gewijzigd door Martin900 op 30 augustus 2016 16:37]

Je vergelijkt totaal verschillende processor reeksen met elkaar, de high-performance QM reeks vs. de low-power U reeks....
Je hebt gelijk dat de performance niet veel gestegen is sinds Sandy Bridge, maar de prijzen zijn ook niet veel veranderd, als je CPU's in dezelfde reeks vergelijkt.
Zeker?
Ik weet zo niet waar ik het vergelijk over de jaren heen vandaan moet halen hoor. Maar dat zou betekenen dat mijn Yoga 13, die destijds 1.099§ kostte, voor 25% CPU-prijs was. Dat vind ik toch een beetje moeilijk te geloven...
Als het gaat om een Yoga 13 met Core i7-3517U of Core i7-3537U is kan dat best kloppen, de listprise van de 3537U is 346 dollar
De i5 u series van die generatie was rond de 225 dollar

[Reactie gewijzigd door Zer0 op 30 augustus 2016 21:50]

225 vs 281 is nog steeds een significant verschil, niet?
Wellicht dat Lenovo kortingen weet te bedingen, maar goed.
Mjah, afweging zuinigheid/prestaties/prijs?

De "matige" U serie biedt een mooie balans tussen kracht en zuinigheid, daardoor heb je een zeer compacte machine waarmee je toch nog een hoop kan doen. Minder energie, minder koeling nodig, kleinere batterij voor alsnog prima prestaties, etc.

Als ik elke dag een laptop mee moet nemen heb ik er liever een die alles prima doet, en nog te tillen is, dan 1 die alles net sneller doet (en voor veel taken boeit dat voor geen meter of merk je het amper tot niet) en een factor 2 groter en zwaarder is.

Zelfde met de NUC die ik nu heb met i5-6260u... Deze aangeschaft als vervanging van een i5-6500 en ja, vooral met sommige dingen merk je het maar ondertussen werkt alles nog steed sprima en 9 vd 10 dingen die ik doen helemaal soepel. Maar ondertussen heb ik wel een prachtig mini-kastje ipv een toch grotere itx/micro-atx/whatever kast.

Voor mij de concessies in prestaties absoluut waard op dit moment.
Zolang je geen plebtuim hebt en er een redelijk ssdtje in zit, is het al prima genoeg voor de meeste taken.
ddr5 wat moet ik me hierbij voorstellen ?

die intel speedshift technology is wel een interesante, vooral voor veel reken power(waneer nodig), maar toch energie zuinig zijn.

vaak is namelijk het terug throttle het gene wat je erg merkt, dit zou dus de oplossing kunnen zijn

[Reactie gewijzigd door itcouldbeanyone op 30 augustus 2016 15:07]

Goeie vraag. Men is bezig met ddr5, maar ik vind het vreemd dat er wel nog ddr3 staat maar geen ddr4.

ddr5 zou er tegen 2020 komen. https://be.hardware.info/...-komt-in-2020-op-de-markt

Dus die ddr5 is volgens mij te voorbarig, lijkt mij een foutje.

[Reactie gewijzigd door abusimbal op 30 augustus 2016 15:19]

Ik geloof dat ze hier misschien suggereren naar GDDR5 voor het video geheugen van de IGP.
Ik dacht dat de iGPU het RAM deelde met de CPU en dus gewoon de ramsticks in het moederbord gebruikte? Daarom ziet men ook een fps boost als het RAM overclocked wordt als er gebruik gemaakt word van een APU.
Ik mis informatie over Intel Optane. Zie: https://tweakers.net/nieu...voor-optane-geheugen.html
Intel Optane is veel sneller dan een SSD en werkt alleen met Kaby Lake (of nieuwere) cpu's.
Ik denk dat de Intel Optane drives erg duur (of te duur) zullen worden. Toch wacht ik nu nog even op Kaby Lake (en Optane en Zen) voor de aanschaf van een nieuwe game pc.

[Reactie gewijzigd door Tjeerd84 op 30 augustus 2016 15:46]

Intel Optane is veel sneller dan een SSD
Soort Lucky Luck, sneller dan zijn schaduw.. :P
Intel Optane is SSD techniek. Daarnaast zullen de eerste Optane en QuantX producten (beide zijn gewoon merknamen voor 3D XPoint memory) NVMe gebaseerd zijn en dus ook op de huidige (en oudere) CPU's werken.
Kaby Lake heeft afaik ook geen specifieke "Optane support", alleen is er bij het ontwerp van de Kaby Lake chipsets rekening met meer bandbreedte gebruikende devices zoals Optane SSD's en NVDIMM's gehouden.
Ik heb me er nog niet zo in verdiept inderdaad. Je hebt gelijk hoor :)

Dat laatste dacht ik ergens gelezen te hebben. Dat de Intel Optane SSD niet met een Skylake samen kon. Het gaat misschien alleen om het Intel 200-series platform?
Ik mis eigenlijk informatie over Thunderbolt in het artikel. Zit er niet een flink verschil tussen Kaby Lake en de voorganger juist op Thunderbolt gebied?
neen ik denk het net, de Alpine Ridge controller kunnen ze nog steeds separaat op het bord zetten, in de CPU zit hiervoor niets.
Ik dacht dat met Kaby Lake die Alpine Ridge controller niet meer nodig is omdat TB3 nu standaard in de chipset mee komt.
Dat zou top zijn...hopelijk maakt het de chipset dan niet duurder waardoor alle boards weer duurder worden...en hopelijk maken ze ook geen opdeling tussen chipsets met deze functionaliteit en chipsets zonder deze functionaliteit.
Is er al ergens een goed artikel over die nieuwe chipsets?
Ik vind het wel jammer dat de ontwikkelingen op de processormarkt zo bescheiden zijn. Aan de andere kant is het misschien wel een teken van volwassenheid. De techniek is zo uitgerijpt dat er verder niet veel verbeteringen meer nodig en mogelijk zijn. Wat dit betekent voor sites als Tweakers, die het toch moeten hebben van technologische vooruitgang, laat zich raden. De tijden van opwinding rond 'the next big thing' lijken voorbij.
Dat is natuurlijk onzin. Talloze applicaties en games zijn wel degelijk gelimiteerd aan de CPU. Waar je GPU's bijna eindeloos kan scalen (SLI etc.) kan dit simpelweg niet bij CPU's door meer cores toe te voegen.

Niet persoonlijk bedoelt hoor maar ik wordt soms ziek van reacties dat CPU's niet meer sneller hoeven gaan.

Wie bepaald wat genoeg is? Er zijn tegenwoordig bv al 120, 144, en zelfs hogere refreshrate schermen. Menig game is al ver gebottlenecked door de CPU voordat deze frames uberhaupt gehaald kunnen worden.

Dus ja, totdat er een fundamentele verandering plaatsvind (efficienter programmeren, meerdere cores bij elkaar voegen om 1 thread af te handelen) is meer snelheid altijd gewenst.
Hoezo kan dat niet, cores toevoegen op een CPU? De Xeon zit volgens mij op 22 cores/socket.

Qua refreshrate is helder wat er nodig is. 60 Hz stabiel. Daarboven is marketing.

En nee, je kunt geen cores samenvoegen voor 1 thread. Dat is namelijk al de definitie van een core: de verzameling van Execution Units die samen 1 thread uitvoeren. Volgens mij zit Intel tegenwoordig al op 7 EU/core. De grote innovatie van de eerste Pentium was 2 EU's op 1 chip, precies omdat alle bestaande x86 software single-threaded was.
Kant Lake krijgt verder nog native usb 3.1 gen 2 ondersteuning waar men bij skylake nog een een aparte controller nodig had. Dat is wel een flinke verbetering!
Het wordt klaarblijkelijk steeds lastiger voor Intel om vooruitgang te boeken - als ik dit artikel zo lees, is er weinig reden om meer te betalen voor deze generatie processoren t.o.v. de vorige als het je gaat om bijvoorbeeld software development (sneller compilen) of gamen (hogere FPS/resoluties of meer power voor simulatie). Als je veel doet met videobewerking, dan maakt het wellicht wat uit. Anders kun je net zo goed de vorige generatie kopen, aangenomen dat er een prijsverschil gaat zijn. Of is dat te kort door de bocht?
Pas (juni '16) een i5 6500 gekocht, was toen een tientje duurder dan de 5500
Als je kijkt naar maximum performance wel, maar doordat de performance per watt steeds blijft zakken gaat de accuduur wel steeds vooruit, en dat is waar het meerendeel van de markt om vraagt.

Er is natuurlijk ook een markt waar peak performance wel belangrijk is: servers en workstations, en daar stoomt Intel nog volop door met de komende 28-core Skylake-EX, die de 24-core Broadwell-EX vervangt, die zelf weer de opvolger was van de 18-core Haswell-EX, etc. Da's ook hard nodig want IBM en vooral Oracle zitten niet stil.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True