Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 88 reacties
Submitter: player-x

Intel brengt pas in 2017 processors uit die op een 10nm-procedé zijn gemaakt. Volgend jaar verschijnen de Kaby Lake-processors. Dat zal de derde generatie zijn die op 14nm is geproduceerd, waarmee een einde komt aan Intels tick-tock-strategie.

De directeur van Intel, Brian Krzanich, maakte de aanpassing aan 'tick-tock' bekend tijdens de presentatie van de kwartaalcijfers, blijkt uit de transcriptie van Seeking Alpha. De tick-tock-cadans hield in dat Intel het ene jaar op een nieuwe chiparchitectuur overstapte en het volgend jaar het productieprocedé verkleinde. Elke twee jaar stapte Intel dus op een kleinere nm-generatie over. "De laatste twee technologietransities wezen aan dat onze cadans momenteel eerder op 2,5 jaar ligt dan twee", zegt Krzanich.

De chipgigant heeft daarom besloten in de tweede helft van 2016 een derde 14nm-generatie uit te brengen met de naam Kaby Lake. Deze zal gebaseerd zijn op de Skylake-architectuur. De eerste Skylake-processors komen waarschijnlijk in augustus uit. Kaby Lake zal ten opzichte van Skylake 'belangrijke prestatieverbeteringen' bieden, claimt Krzanich.

De 10nm-generatie van chips waar Intel onder de noemer Cannonlake aan werkt, verwacht het bedrijf in de tweede helft van 2017 uit te kunnen brengen. Het einde van de tick-tock-methode toont aan dat het steeds moeilijker wordt de Wet van Moore-leidraad te volgen. Deze 'wet' schreef versimpeld weergegeven voor dat de transistordichtheid van chips elke anderhalf tot twee jaar verdubbelt en het bleek een drijvende kracht om zo snel mogelijk op kleinere procedés over te stappen. Elke overstap brengt voordelen op gebied van zuinigheid met zich mee en het maakt de chipproductie op grote schaal ook goedkoper. Aan de andere kant wordt het mogelijk maken van kleinere nodes steeds duurder.

De kwartaalomzet van Intel kwam uit op 13,2 miljard dollar, omgerekend momenteel rond 12 miljard euro. Dat is 5 procent lager dan in dezelfde periode vorig jaar. De winst bedroeg 2,7 miljard dollar, 3 procent lager dan vorig jaar. Van die winst was 70 procent toe te schrijven aan inkomsten uit de datacenter-, geheugen- en internet-of-things-takken. Die compenseerden daarmee tegenvallende inkomsten uit chips voor desktops en laptops. Intel kampt al langer met de gevolgen van de afgenomen pc-verkoop wereldwijd. Krzanich verwacht in de tweede helft van 2015 verbetering door de komst van Skylake en Windows 10.

Update, 14.45: De cfo van Intel zegt in dezelfde toelichting op de cijfers dat Intel probeert ASML's euv-machines bij de 7nm-productie in te zetten. Afhankelijk van hoe goed die productie verloopt, verwacht het bedrijf weer een 2- of 2,5-jarige tick-tock-cadans in te kunnen zetten.

Lees meer over

Gerelateerde content

Alle gerelateerde content (22)
Moderatie-faq Wijzig weergave

Reacties (88)

Dat is dan het einde van Moore's Law. Nu dachten ze obv Moore's law dat 5nm het kleinst mogelijke procede zou kunnen zijn, maar volgens mij is dat al wel doorbroken (https://en.wikipedia.org/wiki/5_nanometer)
Nee hoor, dit staat compleet los van Moore's Law. Moore's Law zegt dat het aantal transistors grofweg elke twee jaar verdubbeld. Ondanks dat er niet naar een kleiner procédé gegaan wordt kan het aantal transistors gewoon nog verdubbeld worden. De chip wordt dan alleen fysiek groter...
Volgens mij stappen ze af van tick-tock niet alleen door de grenzen van de fysica, maar simpelweg ook omdat de concurrentie en pak minder hevig is geworden. AMD is niet meer zo concurentieel op high-end cpu's als 10 jaar geleden.

En waarom miljarden blijven aan R&D als je toch al de krachtigste cpu's hebt?

Zolang we maar niet in een Microsoft met IE situatie komen hoeft dit ook niet zo erg te zijn.
omdat AMD niet meer de belangrijkste tegenstander is. er is een andere markt waar meer geld te verdienen is en daar is een ander bedrijf heer en meester namelijk Qualcomm.
Om de atoms geschikt te maken voor mobiel gebruik hebben ze alle troeven nodig. Intel heeft al een enorme inhaal slag gemaakt. kijk maar naar de Asus zenfone 2 , maar het moet nog een echte door braak maken.
, maar simpelweg ook omdat de concurrentie en pak minder hevig is geworden. AMD is niet meer zo concurentieel op high-end cpu's als 10 jaar geleden.
dat betwijfel ik ten zeerste omdat just nu AMD van plan is 14nm uit te brengen volgend jaar. dat bekend dat ze voor het eerst (tijdelijk) gelijk zullen lopen met intel. met een jump van 2 process nodes (van 32/28 naar 14nm) zouden zelfs AMD's huidige ontwerpen concurrerend kunnen zijn op de high end na.

nu intel 10nm uitstelt zal de periode van gelijkheid flink worden verlengt, wat grote kansen betekend voor AMD om marktaandeel te winnen (zeker nu ze ook aan de productie capaciteit kunnen komen om aan een veel grotere vraag te kunnen voldoen).

de voornaamst reden dat intel de snelste cpu's heeft is hun voorspring in het productie process. daar gaan ze zichzelf echt niet zomaar vrijwillig vertragen, zeker niet nu hun grootste concurrenten aan een inhaalslag bezig zijn door de handen in een te slaan.

[Reactie gewijzigd door Countess op 16 juli 2015 20:47]

Die was in feite in 2004/2006 al beëindigd. Sinds die tijd is het wel weer een beetje opgetrokken, maar niet meer de ~50% per jaar: http://preshing.com/20120...threaded-cpu-performance/

Waarschijnlijk waarom Windows 10 ook nog steeds high end 2004 systemen (met NX) ondersteunt na al die jaren.
Die was in feite in 2004/2006 al beëindigd. Sinds die tijd is het wel weer een beetje opgetrokken, maar niet meer de ~50% per jaar: http://preshing.com/20120...threaded-cpu-performance/
Dat artikel gaat over single-threaded CPU performance. Moore's Law heeft daar niks mee te maken gat maar puur over de transistordichtheid. De eerste zin van het Wikipedia artikel is daar heel duidelijk over:
"Moore's law" is the observation that, over the history of computing hardware, the number of transistors in a dense integrated circuit has doubled approximately every two years.
En het bijbehorende plaatje laat zien dat Moore's Law tot ver voorbij 2006 stand houdt.
Je hebt gelijk. Maar het verkleinen van transistors is natuurlijk niet alleen hobby, maar is bedoeld om resultaten te krijgen. Bij processors is dat gewenste resultaat vergrote rekenkracht. Als je dus ziet dat er geen of weinig vergrote rekenkracht is, dan is dat een sterke aanwijzing dat de effectiviteit steeds minder wordt.

En 'Moore's law' wordt ook bij andere vakgebieden gebieden genoemd waar het niet zo zeer om transistors gaat: http://www.genome.gov/sequencingcosts/
Bij processors is dat gewenste resultaat vergrote rekenkracht. Als je dus ziet dat er geen of weinig vergrote rekenkracht is, dan is dat een sterke aanwijzing dat de effectiviteit steeds minder wordt.
Er is wel degelijk vergrote rekenkracht, omdat het aantal cores op één chip de laatste jaren is toegenomen. De performance per core mag dan aan het stabiliseren zijn, maar met 8 keer zoveel cores heb je alsnog 8 keer zoveel rekenkracht tot je beschikking.

Dat de single-threaded performance minder en minder groeit is al jaren bekend. En hoewel sommige mensen dat heel graag met Moore's Law willen verbinden is dat gewoon echt niet waar die observatie over gaat.
Buiten dat om heeft het verkleinen van het productie procedé enorme voordelen voor de chip fabrikant. De stap van 28 naar 14 nm betekent namelijk dat je twee keer zoveel transistoren kwijt kan op hetzelfde materiaal. Oftewel je kan of twee keer zoveel CPU's produceren of krachtigere processoren.
Daarnaast verlaagt een kleiner pocedé het energie verbruik (en dus de warmte productie) berhoorlijk en zijn de yields hoger doordat er minder materiaal verloren gaat. AMD heeft dat probleem met de phenoms opgelost door defecte quadcores als triple cores te verkopen (wat een behoorlijk slimme zet is als je het mij vraagt).
ze zitten nu nog op 14nm en dat gaat dus voorlopig zo blijven, en ik denk dat men idd aanloopt tegen de begrenzingen van de haalbaarheid, euv is nog niet klaar voor massaproductie en ik vermoed dat men de mogelijkheden van de huidige lithografie-methode een beetje heeft overschat, en deze bij massaproductie gewoonweg te lage yields opleverd.

ik ben nu toch wel benieuwd of ze dan misschien gaan over stappen op een tick tock tock
Deze 'wet' schreef versimpeld weergegeven voor dat de transistordichtheid van chips elke anderhalf tot twee jaar verdubbelt en het bleek een drijvende kracht om zo snel mogelijk op kleinere procedé's over te stappen.
De wet van Moore stelt toch dat de prijs van een transistor elke anderhalf 2 jaar dubbel zo laag wordt? Dat wil niet per definitie zeggen dat ook de transistordichtheid verdubbeld...
eigenlijk zegt het dat het aantal transistors dat in een betaalbare chip kan worden gestopt elke 18 maanden tot 2 jaar verdubbelt.

maar dat is niet te doen zonder de transistordichtheid flink op te schroeven. doe je dat niet worden de chips te groot en daarmee de yields lager en de kosten hoger.
In augustus de volgende generatie ... Nu begin ik meer en meer te voelen om toch nog even te wachten voor ik mijn laptop van een upgrade voorzie. Iemand een idee hoe groot de prestatieverschillen gaan zijn?

[Reactie gewijzigd door Blokker_1999 op 16 juli 2015 08:29]

Voorlopig beperkt, speciale features gaan de interessantste updates vormen vermoedelijk, zoals betere DirectX-12-ondersteuning, nog iets bredere registers, en meer van dat soort grappen. Voeg daarbij nog wat algemene dingen, en je kijkt tegen 10-15% betere prestaties per prijs-model aan. Niets spectaculairs, maar goed, waarom zouden ze ook?
Niets spectaculairs, maar goed, waarom zouden ze ook?
Da's idd een goeie opmerking; CPU's zijn al jaren lang (eigenlijk sinds Core 2) de bottleneck niet meer, en upgrades voegen weinig toe voor de niet-power users. Ik mag volgend jaar een nieuwe laptop uitkiezen voor m'n werk, maar als ik zo om me heen kijk zal het qua CPU echt geen grote update worden.
[...]


Da's idd een goeie opmerking; CPU's zijn al jaren lang (eigenlijk sinds Core 2) de bottleneck niet meer, en upgrades voegen weinig toe voor de niet-power users. Ik mag volgend jaar een nieuwe laptop uitkiezen voor m'n werk, maar als ik zo om me heen kijk zal het qua CPU echt geen grote update worden.
Mee eens, ik draai nog altijd op een 7 jaar oude Q6600 waarvan ik merk dat de CPU echt mijn prestaties niet beperkt.

De grootste bottlenecks zitten nog altijd in geheugen, I/O, GPU en de verbindingen daartussen. Ik merk bijvoorbeeld dat mijn DDR2 geheugen echt te langzaam is geworden voor veeleisende toepassingen, ook al houdt mijn CPU het makkelijk bij.
Als het geheugen zo een bottleneck zou zijn waarom hebben we dan geen GDDDR5 achtige performance geheugenmodules?

Er is groot verschil tussen DDR3/4 en GDDR5 in opbouw en functies. DDR3/4 heeft hele lage latency en strikte timing en kan snel kleine hoeveelheden data verwerken maar heeft slechts 2Gb/s bandbreedte. GDDR5 heeft enorme bandbreedte 28Gb/s en kan enorme hoeveelheden data verwerken maar heeft hoge latency. Een ander nadeel is de prijs van GGDR5.

Misschien iets maken dat beide technieken combineerd....
Als het geheugen zo een bottleneck zou zijn waarom hebben we dan geen GDDDR5 achtige performance geheugenmodules?
Latency, die bij GDDR5 weer behoorlijk hoog is en waardoor je weer zit met 'te laat aankomende' aanvragen (en je eigenlijk hetzelfde probleem blijft houden)

Je throughput is wel enorm hoog, maar daar heb je weinig aan als je data veel verandert of je vaak op verschillende plekken in het geheugen moet zijn, dan wordt je geheugen-latency weer de beperkende factor. Dat kun je wel gaan bufferen (in de Northbridge bijvoorbeeld) maar dat gaat weer ten koste van throughput. Kiezen of delen.

Dat is precies de reden voor L2 en L3 caches die weer een veel lagere throughput en latency hebben, maar een beperkte capaciteit. De truc is om zoveel mogelijk een blok ter grootte van je cache-size in één keer in te laden of weg te schrijven, en voor de rest alle bewerkingen binnen het cache-geheugen proberen te houden.

GDDR5 is voor grafische kaarten weer wel erg nuttig, omdat bij GPU's (dat zijn feitelijk gewoon DSP's) de gegevenstoegang redelijk lineair is, en het aantal random-access bewerkingen klein blijft.
Ik merk bijvoorbeeld dat mijn DDR2 geheugen echt te langzaam is geworden voor veeleisende toepassingen, ook al houdt mijn CPU het makkelijk bij.
Vraag: hoe merk je dit? Ik heb eigenlijk geen idee wat er gebeurt als je RAM te traag is. :?
Systeem reageert langzaam maar je merkt dat je CPU/GPU niets aan het doen zijn en je geheugen niet 100% vol zit.

Tegelijkertijd is je harde schijf als een malle aan het swappen om de stortvloed aan geheugentoegang op te vangen die het geheugen zelf niet bijhoudt.

Als je merkt dat je tijdens het werken of gamen dus enorm veel page-faults krijgt terwijl je geheugen niet vol lijkt te zijn, dan kunnen je geheugen en NB de rest van het systeem niet meer bijhouden.
Het OS (die dat CPU usage % berekent) kan het verschil niet zien tussen een CPU die 90% van zijn tijd op het RAM loopt te wachten en een CPU die rekenintensieve taken doet en waarbij RAM niet de bottleneck is.

Tenzij je de performance counters van je CPU in de gaten houdt (good luck op windows!) kun je het verschil niet zien tussen CPU of memory als bottleneck.
Systeem reageert langzaam maar je merkt dat je CPU/GPU niets aan het doen zijn en je geheugen niet 100% vol zit.

Tegelijkertijd is je harde schijf als een malle aan het swappen om de stortvloed aan geheugentoegang op te vangen die het geheugen zelf niet bijhoudt.
Als je geheugen 100% vol zit is dit geen indicatie van RAM wat te traag is.
[...]


Als je geheugen 100% vol zit is dit geen indicatie van RAM wat te traag is.
Dat is precies wat ik probeer te zeggen, als je een traag systeem hebt terwijl je geen 100% CPU of geheugen in gebruik hebt, dan zit het probleem ergens in de verbinding daartussenin.

Je kan ook page-faults krijgen door een geheugen wat te langzaam is, doordat de aangevraagde pagina wel in het geheugen aanwezig is, maar te laat uit het geheugen weer bij de CPU aankomt.

Dan loop je geheugen-cycles te verspillen én I/O cycles omdat je OS in de tussentijd dezelfde pagina alweer uit de swapfile aan het halen is.

Zoiets kan ook vorkomen bij een bijna leeg geheugen en een idle CPU.
Reply op Stoney3K: Je weet dat swappen een soort van last resort is als het werkgeheugen (vrijwel) helemaal vol zit? Een systeem gaat niet swappen naar een factor duizend langzamere harde schijf over een trage bus als SATA wanneer er nog ruimte is voor allocatie in RAM. Daarnaast, je KAN een page fault krijgen bij te traag geheugen, maar alleen als het geheugen de door het moederbord gedicteerde frequentie en latencies niet aankan. Je processor weet prima dat, gegeven geheugenfrequentie x en latencies y, het exact z clockcycles duurt voordat een lees of schrijfoperatie naar ram afgehandeld is. Als het ram gewoon volgens specs (langzaam of niet) werkt, resulteert dit niet in een page fault.

[Reactie gewijzigd door Monochrome op 16 juli 2015 11:25]

Reply op Stoney3K: Je weet dat swappen een soort van last resort is als het werkgeheugen (vrijwel) helemaal vol zit? Een systeem gaat niet swappen naar een factor duizend langzamere harde schijf over een trage bus als SATA wanneer er nog ruimte is voor allocatie in RAM.
Dat is bij een write natuurlijk wel zo, maar bij een read niet, en ook niet bij het overschrijven van een al bestaand geheugengebied.
Daarnaast, je KAN een page fault krijgen bij te traag geheugen, maar alleen als het geheugen de door het moederbord gedicteerde frequentie en latencies niet aankan. Je processor weet prima dat, gegeven geheugenfrequentie x en latencies y, het exact z clockcycles duurt voordat een lees of schrijfoperatie naar ram afgehandeld is. Als het ram gewoon volgens specs (langzaam of niet) werkt, resulteert dit niet in een page fault.
Mogelijk niet in een hard page fault (ofwel, uitzondering/interrupt in de CPU), maar het OS kan wel prima van mening zijn dat ie de data niet op tijd binnen heeft en dus maar aan het swappen slaan.

Natuurlijk is het ene OS daarin een stuk slimmer dan het andere, dat merk je bij langzamer geheugen wel in het performance-verschil tussen Linux en Windows.

Windows is redelijk fanatiek als het om onnodig swappen van ongebruikte data gaat (ook als het geheugen nog niet vol zit), terwijl het onder Linux pas gebeurt wanneer het hoort - als er anders processen om zeep geholpen moeten worden omdat het geheugen op raakt.
[...]


Dat is bij een write natuurlijk wel zo, maar bij een read niet, en ook niet bij het overschrijven van een al bestaand geheugengebied.
[...]


Mogelijk niet in een hard page fault (ofwel, uitzondering/interrupt in de CPU), maar het OS kan wel prima van mening zijn dat ie de data niet op tijd binnen heeft en dus maar aan het swappen slaan.

Natuurlijk is het ene OS daarin een stuk slimmer dan het andere, dat merk je bij langzamer geheugen wel in het performance-verschil tussen Linux en Windows.

Windows is redelijk fanatiek als het om onnodig swappen van ongebruikte data gaat (ook als het geheugen nog niet vol zit), terwijl het onder Linux pas gebeurt wanneer het hoort - als er anders processen om zeep geholpen moeten worden omdat het geheugen op raakt.
Het is zelfs zo erg dat als je de swapfile uitzet terwijl je 8 gb geheugen hebt, sommige spellen simpelweg niet meer of nauwelijks werken. Ze gaan in het ontwikkelen van een spel erblijkbaar van uit dat dit altijd "aan" staat. Dit is ook zo bij oudere spellen dus zeg nu niet dat 8 gb te weinig is.
Page faults krijg je niet door te traag geheugen, maar door te drage disk.
(Hard) page faults krijg je als een page niet in RAM maar op disk staat.
Zomaar over de "niet" heen gelezen. I stand corrected :)
Daarom staat er ook: "niet 100% vol zit"
Voor de volgende significante versnelling van je systeem moet er denk ik een heel grote stap gemaakt worden in geheugentechnologie. Het accessen van geheugen kost nu zo'n 400 tot 600 cycles van je CPU. Dat effect wordt beperkt door chaches (L1, L2 en L3 al tegenwoordig) en allerlei trucs waarmee de CPU probeert te voorspellen welk geheugen hij binnenkort nodig gaat hebben om dat alvast maar binnen te halen. Dat lost het basisprobleem uiteindelijk niet op: geheugen is traag. Je hebt er veel van tegenwoordig, maar ten opzichte van de CPU is het intens traag.

Programmeurs kunnen daar overigens wel rekening mee houden, maar het huidige paradigma om software te schrijven past slecht bij de technieken die nodig zijn om om te gaan met deze beperkingen. De gamingindustrie is hier overigens verder mee dan gemiddeld.
Voor de volgende significante versnelling van je systeem moet er denk ik een heel grote stap gemaakt worden in geheugentechnologie.
Ter info:
Intel is hier samen met Micron sinds 2011 aan bezig, Micron en partners noemen het "Hybrid Memory Cube" (HMC, bij AMD heet een soort gelijk principe HBM), en het is al gebruikt in de Xeon Phi. Deze technologie levert 5x de bandbreedte van DDR4 / 15x die van DDR3.

Geheugen wordt nu gestapeld, vroeger moesten aan de zijkanten van al die laagjes "draadjes" vastgemaakt worden - niet zo efficient. Tegenwoordig kan men in de geheugenlagen zelf "gaten" maken en daardoorheen verbindingen maken, dat principe heet TSV en is sinds kort in massaproductie bij Samsung.
Bandbreedte is niet het grootste probleem. Dat is latency. Als de core een bepaald geheugenadres opvraagt en het daar 400 of meer cycles op moet wachten, dan is dat gewoon te lang. Ik hoop dat daar een keer een oplossing voor gevonden gaat worden. Maar het zeker een interessante ontwikkeling!

[Reactie gewijzigd door ATS op 16 juli 2015 10:58]

Grote onzin. Er blijven altijd bottlenecks, ligt maar net aan wat voor software je gebruikt en of het deugdelijk geschreven is.

Plenty of games die zijn gebottlenecked door de CPU. (als voorbeeld)

[Reactie gewijzigd door Marctraider op 16 juli 2015 20:32]

De laptops gaan een flinke sprong in snelheid maken. De desktops een kleine.

Deze conclusie kom ik door het TDP te vergelijken. 14nm laptop cpu gaan meer stroom verbruiken.
Je bedoelt dat ze theoretisch harder zouden kunnen omdat TDP omhoog gaat. Echter is zeker bij laptops het TDP al niet meer de grote factor, maar de geinstalleerde koeling. Tussen verschillende modellen met dezelfde basis-hardware kunnen fikse verschillen zitten, gewoon omdat de koeling veel beter is, waardoor de CPU vaker op hoog verbruk gaat, omdat ie niet puur TDP-gestuurd is, maar ook temperatuur-gestuurd.

Daarnaast is er nog iets heel belangrijks dat TDP bepaalt: de ingebouwde GPU. Ik kan me zo voorstellen dat Intel hard inzet op de grafische prestaties van hun nieuwe stuk silicium, en dat verhoogt de theoretische TDP, terwijl je tijdens zwaar Excellen (of heel hard surfen :P ) geen snelheidsverbetering hebt. Alleen als je gaat gamen zul je dan meer stroom verbruiken...
windows en excel zijn juist alleen op igpu bij laptops. dus dat merk je heel duidelijk.
Zet je intergrated graphics driver maar is uit.
Goed punt, maar dat zegt hij niet echt. Excel gebruikt maar een klein deel van de capaciteit van je iGPU, dus daar zal je weinig verschil merken. Bij toepassingen die de hele iGPU aan spreken zal het verschil in verbruik groter zijn omdat nieuwere iGPUs groter zijn en meer verbruiken.
Zoals FreezeXJ al aangaf, kan dat snelheidsverschil voor een groot deel in de IGP/GPU zitten.

En als je dit artikel leest wordt dat alleen maar aannemelijker:
http://www.guru3d.com/new...ed-to-broadwell-gt3e.html

Het is dus maar de vraag waar je op doelt met "flinke sprong", CPU of GPU. Ik verwacht een veel groter verschil bij GPU dan CPU.

Ik ben zelf wel blij met de snellere GPU, de CPU zelf is veelal niet de bottleneck zoals al eerder aangegeven. Ik ga een Intel NUC aanschaffen zodra er een met Skylake komt. Een all-in-one kastje en snel genoeg om moderne games op low te draaien. Dat zal erg handig zijn om mee op pad te nemen als je niet zoveel grafisch geweld nodig hebt.

[Reactie gewijzigd door A Lurker op 16 juli 2015 16:39]

Voeg daarbij nog wat algemene dingen, en je kijkt tegen 10-15% betere prestaties per prijs-model aan.
Volgens mij zat dat eerder rond de ~5% per jaar qua betere prestatie. Misschien dat er inderdaad benchmarks tussen zitten die 10-15% halen, maar daar staan er een hoop tegenover die maar 1-3% halen.
Uiteraard verschilt de score per benchmark, sommige oude software (die nog nooit van vectorisatie of AVX gehoord heeft) zal veel minder merken van de verbeteringen dan bijvoorbeeld zware rekenkundige tests, of games. Daarnaast heb je alsnog de updates in ouder spul, waardoor je eigenlijk (zoals Tweakers soms doet) alle benchmarks op alle hardware tegelijkertijd moet uitvoeren om het verschil goed te zien.

Hoe dan ook is het een redelijk zinloos punt, 10% snelheidsverschil is meetbaar, maar voor mij niet merkbaar. Pas bij 50% begint het enigszins interessant te worden...
Nee het enige wat we weten is dat de zelfde mensen van de core 2 duo er op zitten(deze zorgde voor grote verbetering). Maar hoeveel beter weten we niet. Die 1 maand wachten kan vaak genoeg nog wel(dan weten we in ieder geval of ze stuk sneller zijn.)
Het zal voornamelijk grafisch en energietechnisch een verbetering zijn ten opzichte van de huidige generatie.
Gaat over ongeveer 10% prestatie verschil tegenover over broadwell, maar als je bedenkt hoe kort broadwell uit is en skylake tegenover haswell legt, gaat het over zo'n 20% tegenover haswell, dat is wel mooi natuurlijk.
Als je een laptop koopt zonder discrete GPU dan is het wachten waard, de IGPU krijgt een upgrade.

Maar op het CPU gebied gebeurt eer weinig.
Als je video's kijkt zou ik wachten. Skylake krijgt hardware ondersteuning voor h.265/HEVC.
Intel heeft gewoon te weinig concurrentie. Het is goedkoper om bestaande technologie verder uit te melken, dan te investeren in nieuwe technologie.
Intel wordt momenteel verpletterd door de concurrentie. In desktops hebben ze het rijk alleen, maar de wereld is veel meer dan enkel desktops. Op mobiel vlak moeten ze keihard werken om niet in de kantlijn te verdwijnen.

Bedenk daarbij dat desktops "snel genoeg" zijn. De échte uitdaging bestaat eruit om platte mobiele apparaten te verheffen tot het prestatieniveau van een desktop en ondertussen het verbruik gevoelig te verlagen. En dit alles op een platform (mobile Wintel) dat zijn leven niet zeker is, in een race tegen de klok voordat ARMdroid hetzelfde doet, in een markt die vervelend dicht bij de smartphonemarkt ligt waarin Intel een marktaandeel van ongeveer nul procent heeft.
Inderdaad. Samsung is samen met IBM al bezig met 7nm schaal.

http://arstechnica.com/gadgets/2015/07/ibm-unveils-industrys-first-7nm-chip-moving-beyond-silicon/

Ze hebben het daarbij over een surface area reduction van 50% tov 10 nm technology. Target datum 2017-2018. Men heeft het hier over SiGe chips voor voldoende electron mobility. Zou intel dat ook al gebruiken op 10 nm schaal?

Deze schaal groottes blijven mij verbazen. De Si-Si atoomafstand in silicon is 0.233 nm. Dus dat zijn maar 30 Si atomen naast elkaar op 7 nm schaal. En dan moet je daar nog een transistor van maken. En niet 1, maar miljarden en deze ook allemaal nog verbinden.
Dit begint steeds meer op molecular design te lijken. Waarbij je elk atoom op de juiste plaats moet krijgen voor een werkend geheel.
De waarheid steekt wel iets complexer ineen dan dat. Het is namelijk al even zo dat de afmetingen die gegeven worden door fabrikanten (14nm, 10nm, 7nm) al lang niet meer slaan op de daadwerkelijke transistorgrootte, maar eerder een duiding zijn voor de generatie.
Dat is leuk en vast wel waar, maar dit gaat daadwerkelijk over desktopprocessors en niet over mobiele processors. Skylake architectuur processors worden niet in mobiele toepassingen gebruikt, en de opvolger zoals het artikel al zegt (Kaby Lake) waarschijnlijk ook niet.

Voor Mobiele toepassingen hebben ze Atom processors van bijv. de familie Merrifield, Moorefield en Slayton.

En in het artikel staat het volgende, wat de daadwerkelijke reden zal zijn voor de vertraging:
Het einde van de tick-tock-methode toont aan dat het steeds moeilijker wordt de Wet van Moore-leidraad te volgen.
dan moet je toch nog eens opnieuw beginnen te lezen, dit gaat over processors en over ticktock dat gaat niet alleen maar over desktop cpu's... ja die worden hier als voorbeeld genoemd en dat is logisch want mainstream is intel natuurlijk vooral bekend van de core i3/5/7 maar het gaat veel verder dan dat..

en de markt voor computers / desktops gaat om de taken die je met een desktop doet (lees: emailen skypen, browsen tekstverwerken (en in mindere mate, gamen), die markt word weldegelijk bedrijgt door de tablet/ convertibles markt. en ik kan je garanderen dat intel het enorm zwaar zal krijgen als iemand met een arm-core komt die de pentium g620 voorbijstreeft.
want dan zou het zomaar eens gedaan kunnen zijn met de alleenheerschappij van intel en x86 op de thuispc markt.
Nee, we lopen gewoon tegen de limieten aan van wat er mogelijk is. Intel investeerd nog altijd volop om toch over te kunnen stappen naar kleinere en zuinigere procedes. Enkel zo kan men de concurentie met bijv. ARM SOCs aangaan.

Op de high-end markt is er inderdaad geen echte concurentie meer, maar de stappen die men zet in de embedded markt hebben ook voordelen voor die high-end markt;
Op de high end markt is er juist nog wel concurrentie, het is het desktop-segment waar niemand Intel wil/kan beconcurreren.
Jep dit was te verwachten. In het high-end segment zijn ze alleenheerser dus waarom snel innoveren?

Nadeel lijkt me alleen wel dat dus steeds meer mensen dan maar even wachten omdat er een nieuwe generatie aankomt ipv de huidige kopen. Wel logisch want een huidige redelijke high-end CPU kost tegenwoordig een klein vermogen ....
Nadeel, dat is toch juist de balansfactor? Kortom, als Intel langzaam wordt of veel te duur, snijden ze zichzelf uiteindelijk in de vingers, want afname beperkt zich dan. Ik geloof er niet zo in dat binnen deze markt een monopolypositie heilig of gevaarlijk is.

En verder, een beetje onzin, high-end CPU's waren altijd al behoorlijk geprijsd. Het is niet dat het opeens 2x duurder is geworden nu AMD minder/niet meer concurreert in dit segment. Verder zijn AMD's prijzen naar verhouding ook gestegen, hun laatste high-end FX zijn bijvoorbeeld duurder dan de high-end uit het Phenom II X6 tijdperk. Waarom dan per se naar Intel wijzen? Dat snap ik niet.
Weinig concurrentie hebben ze al jaren, dus ik kan me eigenlijk niet voorstellen dat heeft meegespeeld in deze keuze. Ik denk vooral dat ze steeds dichter komen bij wat natuurkundig mogelijk is en het daardoor steeds moeilijker wordt jezelf te verbeteren.
Lijkt me eerder een probleem van het aanhinken tegen de fysische limieten dan wel het gebrek aan concurrentie. Zuinigere procedes zijn uitermate belangrijk in de mobiele markt (denk aan tablets, smartphones, smartwatches, enz.) en net daar is de concurrentie moordend (ARM). Intel heeft er net alle baat bij om zo snel als mogelijk over te stappen op zuinigerre procedes.

Zie bijvoorbeeld ook de berichtgeving rond ASML en IMEC (bijvoorbeeld hier en hier). Uit deze berichten blijkt dat ASML alle zeilen moet bijzetten om machines te ontwikkelen die chips op een kleiner procede kunnen produceren. Fabrikanten als Intel hebben deze machines nodig om chips te kunnen produceren.
Echt Intel is een cheapskate, ze geven in het eerste kwartaal maar een kleine 3 miljard dollar aan R&D uit.
Krzanich verwacht in de tweede helft van 2015 verbetering door de komst van (...) Windows 10.
Alle PC-gerelateerde fabrikanten verwachten verbetering door Windows 10. Alsof men een nieuwe PC koopt om een béter geoptimaliseerd OS aan te kunnen.

Wat op termijn de verkoop van performante PC's kan doen groeien, is VR, want VR is zowat het enige dat een moderne PC niet noodzakelijk kan slikken. Maar Windows...?
Zakelijk gebruik en huis-tuin-en-keuken gebruik vormen verreweg het grootste deel van de markt. En voor die markt segmenten biedt VR niet zo veel. De adaptatie in die segmenten zal traag zijn.

Bovendien Is de limitatie voor VR niet zo zeer de cpu, maar veel meer de gpu. Om een krachtigere gpu in een systeem te hebben Is een upgrade van de cpu net zo min een vereiste als voor een nieuwe Windows versie.
Dat weet ik, ik bedoel dat VR het enige is dat je met een stevige tower in 2015 níet kunt, en dus de enige reden om een nieuwe te kopen. Ik verwacht inderdaad geen massale adoptie van VR, maar er is gewoon geen andere reden denkbaar om te upgraden.

Zelfs gewone games zullen niet snel een upgrade vereisen omdat de vooruitgang op grafisch gebied wordt afgeblokt door consoles. Games met systeemeisen die een pak boven de specs van een console liggen zijn geen bleeding edge (meer) maar gewoon slechte ports.

Dan is er nog 4K, maar ik vermoed dat 4K zal worden ingehaald door VR voor gamers, en zakelijke gebruikers kan de schermresolutie geen fluit schelen.

Upgrades zullen in de toekomst van andere formfactors moeten komen: convertibles, toekomstige oprolbare schermen, de unificatie tussen PC en smartphone, enz. Men zal wellicht meer geneigd zijn om van een laptop naar een Surface te gaan dan van een laptop naar een andere laptop.

[Reactie gewijzigd door Enai op 16 juli 2015 10:47]

Ik zou nu eigenlijk wel eens een goede processor willen zien zonder ingebouwde gpu.
Eentje die bijvoorbeeld op 5 Ghz kan bollen per core.
Er zijn een aantal goede processors zonder ingebouwde gpu, zoals de Xeon, SPARC, POWER, etc. Maar wat wil je met al die snelheid op 1 core doen, als je geheugen het toch niet kan bijhouden? De trend is om voornamelijk extra compute units bij te plaatsen, extra cores, meer threads-per-core, en veel cache.
Ik zou het raar vinden als RAM geheugen de bottle neck zou zijn .
Want dan zou ik bij DDR3 -1600Mhz met een i7 4790K@4GHz
dezelfde prestaties krijgen al ik de processor zou "under clocken" naar bv 3 Ghz?
(ps ik kan de juiste clock snelheden niet om in te stellen,maar dit dient als voorbeeld)
Zou Intel moeten wachten tot dat UEV echt goede yields brengt zodat ze de Tick-Tock strategie weer kunnen toepassen?

Ben blij dat de technologische ontwikkeling nog steeds door blijft gaan.
Zit nog met een i3770s in mijn system.
Volgend jaar of jaar daarop toch maar weer eens kijken of ik het kan upgraden.
er wordt in het algemeen verwacht dat Kaby Lake eigenlijk gewoon een "Skylake Refresh" is.

Cannonlake zou geschrapt zijn en vervangen zijn door Icy Lake, met een latere release date.
Hmmz, even m'n alu hoedje opzetten.

Dan vraag ik me af wat de reden voor de uitstel is. Is de techniek nog niet functioneel genoeg voor de volgende generatie? Of stellen ze die uit zodat ze nog een jaar extra kunnen cashen op een 'tussen-generatie'? Wanneer er nog geen functioneel gameplan ligt voor na de 10nm kan ik het goed begrijpen dat ze het allemaal willen uitstellen. Op deze manier hebben ze een langere periode een stijgende lijn qua performance. Marathon ipv sprint zeg maar.
Als je het zo bekijkt lag het wel voor de hand dat Moore's Law niet eindeloos juist zou zijn. Als je de grafiek van transistorgrootte/dichtheid tov tijd ogv Moore's Law zou uitzetten zal er altijd een vermenigvuldigingsfactor van * 1/x in zitten, waardoor je een afvlakkende lijn richting de nul zou zien ('limiet nadert naar 0') . Immers transistoren kunnen nooit '0' groot zijn, en de energie en moeite om een procedé te verkleinen zou omgekeerd evennredig groter worden (vrijwel 'limiet richting oneindig').

De grafiek van verkeining zal waarschijnlijk ook een eind kennen, daar waar het breakevenpoint ligt van de investering om te verkleinen tov het voordeel ervan, of op het moment dat er fysiek niet meer verkleind kan worden.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True