Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 90 reacties
Submitter: witeken

Intel lijkt zijn tick-tock-naamgeving vaarwel gezegd te hebben. Het chipbedrijf gebruikt nu de aanduiding 'process-architecture-optimization' voor de cycli van opeenvolgende processorgeneraties. Intel past de cyclus van drie stadia in ieder geval toe bij 14 en 10nm.

Dat Intel zijn tick-tock-cadans losliet, was al bekend. In zijn jaarlijkse Form 10-K-document over de financiële situatie, waarover Motley Fool bericht, meldt het bedrijf nu echter officieel een cyclus in drie stappen te hanteren. Dat houdt in dat er na de overstap naar een nieuw procedé een nieuwe architectuur komt, gevolgd door een generatie waarbij die architectuur geoptimaliseerd is.

De tick-tock-cadans hield in dat Intel het ene jaar op een nieuwe chiparchitectuur overstapte en het volgende jaar het productieprocedé verkleinde. Elke 2 jaar stapte Intel dus over op een kleinere nm-generatie, maar inmiddels is dat eerder 2,5 tot 3 jaar geworden. Wel wil Intel jaarlijks een nieuwe processorgeneratie blijven uitbrengen.

"We verwachten de tijd waarbinnen we onze 14nm- en komende 10nm-procestechnologie inzetten te verlengen, om onze producten en procedés te optimaliseren en tegelijk tegemoet te kunnen blijven komen aan onze jaarlijkse cadans voor marktintroducties", schrijft Intel.

De mededeling ligt in lijn met geruchten dat Intel drie processorgeneraties op 10nm introduceert: Cannonlake, Icelake en Tiger Lake. Ook de 14nm-processors beslaan drie generaties; na Broadwell en het huidige Skylake volgt later dit jaar Kaby Lake. Het loslaten van tick-tock toont de moeilijkheid aan om de Wet van Moore in stand te houden. De grenzen waarbinnen de huidige immersielithografie economisch rendabel in te zetten is, komen in zicht met komende procedés, maar aan de machines voor de volgende techniek, extreem ultraviolet, wordt nog volop gesleuteld.

Intel werkt samen met het Nederlandse ASML aan die machines en verwacht ze bij de 7nm-productie in te kunnen zetten. Niet bekend is of een tick-tock-cadans dan weer binnen handbereik ligt. Ook na 7nm komen nieuwe moeilijkheden voor verdere verkleining om de hoek kijken. Intel zal het daardoor naar verwachting steeds meer moeten hebben van optimalisaties aan de architectuur voor processorverbetering, in plaats van verkleining van de nodes.

Intel tick-tock PAO

Moderatie-faq Wijzig weergave

Reacties (90)

Het loslaten van tick-tock toont de moeilijkheid aan om de Wet van Moore in stand te houden. De grenzen waarbinnen de huidige immersielithografie economisch rendabel in te zetten is, komen in zicht met komende procedés, maar aan de machines voor de volgende techniek, extreem ultraviolet, wordt nog volop gesleuteld.
Het valt wel een beetje mee met die moeite om de wet van Moore vast te houden. Al jaren hoor je niks anders dan dat het einde van die wet nou wel in zicht komt, maar dat komt vooral vanwege de kortzichtigheid van diegene die zulke voorspellingen doet. Wat steevast gebeurt is dat men naar de toekomst kijkt met de kennis van nu; dus met de HUIDIGE kennis en technieken komt het einde in zicht zodat over pak-hem-beet 5 jaar de groei er wel uit is.

Sure, maar in die 5 jaar zitten we niet stil natuurlijk en onderzoeken we weer andere manieren om de groei erin te houden. Andere kleur licht, ander bakprocedé, andere wafers, you name it. En voilá! De wet is weer wat opgerekt.

Precies dit vertelde Jos Benschop, Senior Vice President Technology bij ASML, in een uitzending van "Met de kennis van nu".

Luister hier

[Reactie gewijzigd door P_Tingen op 23 maart 2016 11:21]

Het probleem is dat voor dit soort onderzoek honderden miljoenen, danwel miljarden nodig zijn.
Nu kan je dat investeren als je een groeiende markt hebt, maar als de PC markt krimpt dan zijn zulke bedragen niet meer te rechtvaardigen.
De wet van Moore is dus ten onder gegaan, niet door de techniek, maar eerder door marktaandeel.
nieuws: Marktonderzoekers: pc-markt blijft slinken

[Reactie gewijzigd door GoT op 23 maart 2016 15:51]

Nog steeds staatcer op elk bureau een desktop/ laptop, al Dan niet En met een dikke server erachter.
Kan de mobiele divisie de wet van Moore niet blijven voortzetten, dat is wel een groeimarkt.
Intel beperkt zich niet tot de PC markt. Bovendien zet Intel 55 miljard om met een EBITDA van 23.58 miljard. Dat is nogal een winstmarge...

Het tempo is overigens inderdaad uit de groei, in 2011 zaten ze nog op 54 miljard met een ebitda van 23.38 miljard. Dat zit erg dicht bij de cijfers van vorig jaar.

Aan de andere kant hebben we in bepaalde markten van Intel in die jaren nu ook niet echt iets bijzonders gezien. De laatste grote klapper blijft Sandy Bridge in 2010. Ik heb eigenlijk het idee dat ze momenteel proberen een niet TE goed product te lanceren (zoals ze met de 2500K deden in 2010, die dingen gaan nu nog mee alsof ze nieuw zijn).

[Reactie gewijzigd door sdk1985 op 23 maart 2016 22:17]

Denk dat het eerder komt omdat Intel bij elke 'nieuwe' architectuur steeds minder performance er uit weet te persen.

Skylake bijvoorbeeld 6% performance winst per clock tegenover vorige arch.

Waardeloos dus.

[Reactie gewijzigd door Marctraider op 23 maart 2016 17:38]

Tja, alleen gaat de wet van More over het aantal "transistoren" en niet over de performance gain.

https://nl.wikipedia.org/wiki/Wet_van_Moore

[Reactie gewijzigd door Alfa1970 op 23 maart 2016 21:10]

zo heb het ook bij auto's.mensen willen steeds beter, ongeacht of het al goed werkt. er zullen op alle voorbeelden wel hoe dan ook wel verbetering optreden
Hoe deden ze dat nu bij geheugen?
Daar gebruiken ze toch 3D nand?
Hoe lang zou het duren, voordat die techniek zich laat gebruiken voor CPU's?
Op mij komt dit heel gek over om er nog een ronde optimalisatie aan toe te voegen.
Ik kan de insteek begrijpen, maar als je iemand uitlegt dat je miljoenen uitgeeft aan een bepaald proces, en dat je pas na twee reeksen te hebben uitgebracht pas gaat denken aan optimalisaties... Denk dat ze een ongelooflijke flater slaan met deze term. Ik zie het al gebeuren dat grotere bedrijven alleen de laatste serie willen hebben.

Ze hadden een andere term moeten verzinnen.
"You don't know what you want until you see what you don't want".

Optimalisatie is niet mogelijk in een closed-loop proces. Optimalisatie is alleen mogelijk met hulp van de markt. En dus doen ze alle mogelijke optimalisaties intern in die eerste twee stappen maar pas als er feedback is van echte gebruikers kunnen ze de meest zinvolle optimalisaties doen.

"Probe - Sense - Respond" -> Cynefin framework
En dat is juist precies mijn punt.

Met deze term geef je juist aan dat de eerste twee series nog beter kunnen, en dat die verbeteringen pas in de laatste fase wordt meegenomen. Serie 3 bied je de beste waar. Terwijl de tick en tock ook beter presteren dan hun voorganger.

Marketing-technisch moeten ze een andere naam verzinnen. De term optimalisatie laat te weinig aan de verbeelding.
Je kijkt naar de drie generaties alsof ze op zichzelf staan, maar ze staan natuurlijk samen in een grotere reeks. Dus ja, serie 3 is beter dan de vorige 2, maar zelfs serie 1 was al beter dan de nummer 3 uit de voorgaande serie. En de nummer 1 uit de volgende reeks zal weer beter zijn, want op kleiner procedé.

Of het marketing-technisch verstandig is kan ik niet zeggen, ik ben techneut, geen marketeer :)
Natuurlijk is het wel goed om het zo te noemen, waarom zou iemand anders de betreffende cpu kopen als die niet beter zou zijn dan de volgende.
De eerste generatie heeft de nieuwere en snellere architectuur, de 2e het kleinere energiezuinige procédé en bij de 3e zijn alle foutjes er echt uit en zal als het goed is dus nog sneller en energiezuiniger zijn.

Het argument dat je dan gaat wachten op de laatste stap is onzin, dan kun je net zo goed nog een jaar wachten op de nieuwe architectuur of nog een jaar op het kleinere procédé enz. Er komt toch elk jaar iets op de markt wat nieuwer en sneller is.
tick-tock-tack dan maar?
eerder tick-tock-katjing

Vooral die laatste stap zal kassa zijn. Weinig aanpassen, veel verdienen

[Reactie gewijzigd door divvid op 23 maart 2016 21:18]

Niet helemaal waar. Nu viel die optimalisatie meestal samen met de process stap.
Men introduceerde een chip op kleiner procédé en had tegelijk een hele hoop tweaks en improvements doorgevoerd. Daarna kwam een nieuwe architectuur met grotere changes.
Nu zal men die stappen dus blijkbaar opsplitsen.
Ze zullen als ze het procédé verkleinen ook nog wel optimaliseren en dan bij de laatste stap nog meer optimaliseren, iets wat ze nu niet doen omdat ze dan al een nieuwe architectuur hebben de heel veel beter is.
Als je zo gaat denken dan kun je je hele leven blijven wachten... er komt altijd wel weer iets beter in de toekomst.als je een bepaald jaar een nieuwe cpu nodig hebt dan bestel je de snelste van het moment. Ook al weet je dat er volgend jaar weer een betere versie is... maar dat weet je ook als je de Samsung Galaxy-smartphone s7 of een iPhone koopt. Zo zit de markt nu eenmaal in elkaar
Daarnaast is het ook nog zo dat de eerste stap los staat van de andere twee.
De eerste stap is alleen een verkleining van de vorige architectuur.
De optimalisatie stap slaat alleen op het optimaliseren de architectuur van het jaar ervoor volgens mij.
Ik denk dat de optimalisatie voort komt uit ervaring met zowel de nieuwe architectuur als het nieuwe process; die combinatie kan misschien voor elke generatie anders zijn?
Juist niet, juist de Process processors zullen relatief het beste zijn, ze hebben immers zonet een verbetering in architectuur, een optimalisatie én een die schrink gehad!
Daarna komen de nieuwe processors met de nieuwe architectuur.
In de Tick-Tock presteerde de Tock generatie altijd beter dan de Tick, terwijl die op dezelfde dikte was gebaseerd. Soms verbeterde de prestatie met een "Tock" zelfs meer dan bij de verkleining van de "Tock's". Nu de grenzen van de lithografische techniek in zicht komt gaat de ontwikkeling van nieuwe generaties toch meer kosten. Dat kan je beperken door een extra stap toe te voegen, waardoor je een machine voor drie generaties processoren kan gebruiken.
Welke stap de grootste verbetering in prestatie zal leveren valt moeilijk te voorspellen. Een optimalisatie kan flinke winst opleveren, maar als het voorgaande ontwerp al goed was valt de winst door optimalisatie tegen.
Tick, tack, tock?
Klopt wel precies als je je die I, A, O pakt.
I = introduction (van process?)
A = architecture
O = optimization
Tic, tac, toe?

Klinkt als..., plus de "e" in "toe" is extra.

Ik denk dat de wet van Moore langzaamaan op zijn beloop is. Wat je namelijk de laatste jaren ziet, is dat de techniek tegen fysische wetten aan loopt. Het niveau van enkele elektronen/atomen komt/is in zicht. We hebben de tri-gate transistor gezien, waarbij het ontwerp niet puur planair is, wat een gevolg hiervan is. Op het moment dat de elektronische schakelingen één atoom dikte in het ontwerp hebben, dan is de enige rek nog andere atomen gebruiken, wat erg beperkt is. Daarna kan er wat gespeeld worden met een paar factoren, maar de rek is dan gewoon uit.

EUV (extreem ultraviolet) zal hier, naar verwachting, weinig aan toevoegen. Het grote verschil zit in de kortere golflengte van de straling (welke dicht bij röntgenstraling zit), waarbij kleinere ontwerpen (beter) gemaakt kunnen worden. Maar die straling verkleint de atoomdiameter niet...noch andere fysische wetten waar tegenaan wordt gelopen, dus of er moet iets fantastisch revolutionairs bedacht worden, maar ik verwacht dat de wet van Moore uitgerekt wordt totdat die-shrinks niet meer kunnen.
Het nm-getal kan gelijk blijven terwijl de transistordichtheid per oppervlak toch omhoog gaat.

Bijvoorbeeld door meerdere lagen op elkaar te stapelen, 32 lagen kan binnenkort voor geheugen. En als je de transistor-dichtheid op "moederbord"-niveau bekijkt, loopt deze ook nog gewoon door door de overgang van Norh/Southbridge en tig aparte kaarten naar alles geintegreerd op 1 SoC.

Dus de transistordichtheid per oppervlak voor het gehele systeem loopt nog wel steeds op.

Verder geeft het nm-getal aan wat de kleinste afmetingen zijn die gebruikt worden in de CPU. "14nm" kan dus vziw betekenen dat:
• 10% van de CPU op 14nm is,
• 40% op 20nm en
• 50% op 28nm.

Door nu het proces te optimaliseren, kan Intel mogelijk een groter deel op 14nm gemaakt worden, misschien 50%, en loopt de dichtheid toch nog op, zonder dat de kleinste details kleiner worden.

Verder kunnen veel analoge gedeelten nu ook bij de SoC bijgetrokken worden, bijv. door gebruik van RF-SOI.
Als het waar is, zouden het valide punten kunnen zijn. Maar ik kan niet inschatten in hoeverre ze opgaan. Hoe weet je of bijvoorbeeld maar 10% op 14nm wordt ingezet. Het is toch één lithografisch proces?

Daarnaast; Transistorpaden naar een derde dimensie brengen is niet hetzelfde als het aantal transistoren per oppervlak verhogen. Er zijn verschillende grootheden die de snelheid van een CPU bepalen. Schakeltijd en afstand tussen transistoren zijn belangrijke factoren daarin; De potentiële afstandswinst van meer lagen transistoren op elkaar lijkt me een ingewikkelde puzzel om tot snellere rekenresultaten te komen.

Je kunt misschien nog iets efficiënter paralelliseren, maar ook daar is een grens aan; Uiteindelijk moet er ergens A+B worden uitgerekend en dat proces heeft vooral baat bij snellere kloktikken.
De node, in nm, gaat over een enkele laag, anders heeft het inhoudelijk geen waarde. Het is nu al lastig, omdat afhankelijk van het type elektronica er gemaakt wordt, verschillende nodes gebruikt worden: geheugen en processorkernen worden in principe niet met dezelfde node gemaakt, puur omdat de bouwsteentjes waaruit processorkernen en geheugen bestaan, andere technische beperkingen hebben (zoals lekstroom, yield).

Dat de transistordichtheid omhoog gaat bij meerdere lagen: ja, maar dan wel in 3 dimensies, in plaats van in 2. Maar dat is niet per se meer/minder bij een dieshrink, dus dat is en blijft een redelijk vast gegeven. Daar zal de focus wel meer op gaan liggen zodra in 2d de rek er uit is, maar ook daar zitten we al met fysiek/natuurkundige beperkingen, zoals de afvoer van warmte.

Dat de nm de kleinste dichtheid per chip is: klopt, maar ook dat maakt niet uit voor het vergelijk. Er mag redelijkerwijs verwacht worden bij een die-shrink van 75% (28nm-14nm), dat de "grotere" chipdelen relatief mee zullen gaan.

Alleen zullen die verhoudingen in de toekomst waarschijnlijk wel veranderen, zodra de race om nm-precisie op zijn beloop is.
tick, tack, toe? :+
Tick, Tock, Tweak.
Dit is het ritme van de regen!
(NEEEE! K3! |:( |:( |:( )
Wat ik me als leek afvraag: is het perse nodig om steeds maar naar een kleiner productieprocedé over te stappen? Is er niet meer winst te behalen op de architectuur zelf? Ook omdat je op een gegeven moment sowieso tegen de grenzen van wat fysiek mogelijk is aanloopt.

[Reactie gewijzigd door Haan op 23 maart 2016 09:34]

Kleinere processen zijn om een aantal redenen nodig:
- Mogelijkheid om meer transistoren op hetzelfde oppervlak te krijgen
- Lager energieverbruik
- Goedkoper productie proces (minder grondstof nodig om dezelfde processor te maken)

Dus ja, een kleiner proces is zeker nodig. Om andere redenen dan dat een andere architectuur nodig is maar nogsteeds nodig (daarnaast is het een enabler voor andere architecturen).
Ik heb het idee dat CPU's steeds duurder worden met elke generatie
Ik zit ondertussen bijna 30 jaar in "de business" en ik kan je vertellen: Al 30 jaar lang blijven computers grofweg hetzelfde kosten.

In 1991 verkocht ik computers in een winkel en de prijs van een computer lag toen grofweg tussen de 1000 en 2000 gulden.
Op dit moment kost een volledige computer grofweg tussen de 500 en 1000 euro.
In alle tijd daar tussenin zijn die prijzen niet verandert.

CPUs worden niet steeds duurder. CPUs kunnen steeds meer. Aan de bovenkant komen er nieuwere processoren bij. Maar in het prijs segment waar computers al tientallen jaren zitten worden CPUs gewoon steeds sneller.
Wrong.

1. Inflatie meegerekend: 1000 HFL * 1,02^25 = 1640 HFL
2. Tweakers BBG basissysteem: 350 EUR

Computerhardware is zeker wel goedkoper geworden.
Ik heb niets gezegd over inflatie. Ik heb gezegd dat de prijzen hetzelfde zijn gebleven.

350 euro is zo'n 800 gulden. Tel daar een scherm bij op en je zit aan dezelfde 1000 gulden van begin jaren 90.
Als je het over kosten hebt dan kun je inflatie niet negeren. Als je gemakshalve uitgaat van gemiddeld 2% inflatie per jaar tussen 1991 en 2016 dan zit je al op 1,0225 = 1,64 oftewel 64% inflatie totaal. Dan kost een computer tussen 1000 en 2000 gulden oftewel tussen 454 en 908 euro ineens tussen 745 en 1490 euro. De gemiddelde pc tegenwoordig gaat voor een fractie van die prijs over de toonbank. Voor een kleine 1500 euro heb je nu een hele dikke game-pc met alles erop en eraan die niet te vergelijken is met de pc's van 25 jaar geleden. Dus ik sluit mij er bij aan dat pc's in de afgelopen 25 jaar steeds goedkoper zijn geworden.
Als je het over kosten hebt dan kun je inflatie niet negeren.
Ik heb het zojuist gedaan, dus het kan. Ik zie geen enkele reden waarom ik het niet zou kunnen negeren.

Als het over kosten gaat kun je inflatie heel eenvoudig negeren. Kosten is slechts een getal in een vacuüm.
Als het over waarde gaat kun je inflatie niet negeren aangezien dat over relativiteit gaat.
Ik kan me niet herinneren dat je begin jaren negentig iets fatsoenlijks kon kopen van rond de 1000 euro, scherm meegerekend. Het was het dubbele.
In de zomer van 1991 verkocht ik IBM 486SX computers voor Fl. 1500. Ik twijfel er geen seconde aan dat Paradigit soortgelijke systemen verkocht voor Fl 1000 of minder.

En dat is in de tijd dat ook de 386DX nog verkrijgbaar was.
Rond 1990 gingen de prijzen juist heel hard naar beneden, ik kocht m'n eerste complete systeem voor 2700 gulden met een 286 12Mhz met 40Mb harddisk 1MB geheugen beide floppies (5.25" en 3.5") bw monitor en Trident 256K videokaart. In 1991 een nieuwe moederbord met AMD386 en 4MB geheugen met inruil van de oude voor 500 gulden.

Daarna werd het langzamer steeds goedkoper tot zo'n 10 jaar geleden. Nu lijkt het inderdaad wel weer langzaam aan duurder te worden (vooral omdat de onderkant aangevuld wordt met in verhouding slome CPU's).
Kan wel kloppen, maar de 486SX was wel een budgetmodel. Het was een uitgeklede versie van de 486DX (zonder FPU). En mijn 486DX kwam toen inclusief 8 MB RAM op 3500 gulden - een vergissing in de offerte, want volgens de prijslijst had die 4200 gulden moeten kosten.
Ik kan me niet herinneren dat je begin jaren negentig iets fatsoenlijks kon kopen van rond de 1000 euro, scherm meegerekend. Het was het dubbele.
Een Amiga 500 was goekoper en was zeker wel een fatsoenlijke computer toen, en een jaar later (1992) kwam de Amiga 1200 uit en die was ook goedkoper dan ¤1000, die koste in Amerika $599,- en in Duitsland 648 DM en in Engeland £400,- die was ZEKER wel een fatsoenlijk computer, beter dan de meeste PC's toen, vooral in het grafische werk en zo.

https://archive.org/strea...hing_GB#page/n21/mode/2up

https://de.wikipedia.org/wiki/Amiga_1200

[Reactie gewijzigd door AmigaWolf op 24 maart 2016 15:33]

Maar vergelijk je het met RAM dan zie je daar wel een behoorlijke daling van de prijs naast een grote stijging van het geheugen.
Intel vraagt ook gewoon grof geld voor wat de chips fysiek kosten om te produceren. Maar al die r&d moet ook gewoon betaald worden en als je bij de eerste zit in het nieuwe proces, dan is dat grof geld. Zelfde is gedeeltelijk ook het geval bij Apple's iPhone, daar vragen ze relatief van de constructiekost (BOM) relatief veel geld, omdat ze dat kunnen.
Op de markt van telefoon chips (SoC's) zijn de prijzen die smartphone fabrikanten betalen per mm2 een stuk lager dan wat intel vraagt voor vergelijkbare (low/mid/high-end) CPU's.
En de laatste jaren is het heel hard merkbaar dan een nieuw/kleiner proces erg veel geld kost en eigenlijk alleen nog maar haalbaar is voor de grote spelers die veel geld en grote volumes kunnen halen. Dat is vooral Intel, TSMC (bv Apples laatste SoC) en Samsung. Al de andere (Globalfoundries, ST, etc.) kunnen niet even snel een concurrerend process klaar hebben. En dan merk je dat de fabless semiconductor bedrijven mooi achteraan aansluiten bij de groten (vooral TSMC) om hun chips te krijgen. Daarmee dat de MediaTek's (fabless) van deze wereld achteraan in het rijtje bij TSMC aansluiten en dus altijd wat later dan Apple (en Samsung ook) de laatste nieuwe technologie hebben voor hun SoC's. Wat maakt dat ze perfect kunnen concurreren met last-gen (28nm) technologie op mid en low range vlak (waar ze erg goed in zijn), maar in mindere mate in het high-end segment, waar je wel een groot nadeel hebt als je niet op het laatste nieuwe proces zit in tegenstelling tot de concurrentie.
2000 gulden voor een computer? Ik weet nog dat de eerste harddisk (10MB) 6000 gulden kostte.
En de eerste SSD was ook veel duurder dan wat ie nu kost. Natuurlijk is de prijs bij initiele introductie hoog, dat zie je bij alles. Early adopters betalen de volle mep, en het product wordt nog niet massaal geproduceerd. Ik heb nog 250 gulden betaald voor een 40MB hdd, en dat was in die tijd een gangbare grootte. Daaruit valt op te maken dat de prijs dus gigantisch is gekelderd in een korte tijd. Je fl. 6k voor een harddisk is dus geen reële prijs.

[Reactie gewijzigd door .oisyn op 23 maart 2016 11:28]

We zijn hier prijzen van gemiddelde computers voor thuisgebruik aan het vergelijken he. Toen die harddisk van 6000,- gulden uitkwam, bleef ik nog lekker floppy's wisselen, net zoals ik nog een tijdlang op een traditionele harde schijf werkte toen de eerste SSD's verschenen.
Lijkt me handig dat te onderzoeken.. inflatie meegerekend valt t allemaal wel mee
Dat valt wel mee in mijn beleving, ooit betaalde ik rond de 450 gulden voor een Pentium 200 MMX (ik schat 1997), op dat moment een subtopper. Omgerekend naar euro's kom je dan rond de 200 euro (inflatie even negerend), dezelfde prijzen zie je terug bij de i5's in de pricewatch.

[Reactie gewijzigd door oef! op 23 maart 2016 10:29]

Lager energie en grondstoffen gebruik geld voor de uiteindelijke processor. Als je echter de energie die nodig is voor de productie (en die van de machines) meerekent, kan het verschil over de hele levensduur best negatief uitvallen.
De grondstofkosten voor één processor zijn nu al erg laag. Daarop bezuinigen zet geen zoden aan de dijk.
daarom is het juist belangrijk dat ze doorgaan op deze manier, haal eerst de grens van fysiek haalbare en ga dan optimalizeren.
Waarom jaren verspillen in optimalisatie terwijl je toch naar een kleinere architectuur gaat uiteindelijk.
Een kleiner productieprocedé betekent dat transistors steeds kleiner worden waardoor er steeds meer en meer transistors op een silicon DIE worden geperst. Kleinere transistors kunnen sneller schakelen en verbruiken dan ook minder stroom. Hierdoor kan je in theorie dezelfde architectuur sneller en efficiënter laten werken (zuiniger). Bovendien ben je minder grondstoffen kwijt; 99.9999% puur silicon is duurder dan goud in soortgelijk gewicht..

Zoals HADES2001 al aangeeft is het handig om eerst de fysieke grens te behalen om vervolgens architecturen verder te optimaliseren. Een kleiner productieprocedé biedt altijd de meest voordelen dankzij minder stroomverbruik (= meer headroom qua temperaturen) en er passen 'meer' nuttige features op een chip.

[Reactie gewijzigd door stin00 op 23 maart 2016 09:46]

Helaas wat betreft minder stroom niet meer beneden 20nm; hoe kleiner de MOSFET hoe hoger de quantum-mechanische lekstroom. Dus hoe 'hoger het verbruik per nm' . Bij gelijkblijvend transistor ontwerp ( FinFET, zonder FD SOI, nano-wire of quantum well) las ik net, komt de lekstroom bij een uitgeschakelde transisor van 5nm op 98%. Dat is als een uitgeschakelde lichtschakelaar waarbij het licht blijft branden terwijl het donker moet zijn. Met de hele trukendoos open komt het gelukkig weer goed, maar de relatie voor 1 geschaald ontwerp voor verbruik vs grootte is dus niet lineair, meer een parabool met dal rond 20nm. Helaas kan ik niet het hele betaal- artikel lezen en ben redelijk leek op dit gebied, dus hoop dat ik de abstract goed heb geïnterpreteerd.

http://scitation.aip.org/...l/105/8/10.1063/1.4894217

[Reactie gewijzigd door kidde op 23 maart 2016 22:52]

De afgelopen 20 jaar is gebleken dat het makkelijker was naar een kleiner procedé over te stappen dan puur te focussen op architectuur. De Pentium Pro uit 1996 was gemaakt op 600nm schaal en had 5.5 miljoen transistoren (zie wikipedia). De laatste Skylake architectuur is op 14nm schaal en heeft 1400-2000 miljoen transistoren.

Natuurlijk is de architectuur intussen ook veranderd. Er is tegenwoordig meer cache, meer instructies (64-bit) en een geintegreerde GPU, om maar een paar simpele voorbeelden te noemen, maar deze zijn ook mede mogelijk gemaakt door een kleiner procedé.
Kleiner procede is meer procesoren per waffer dus goedkoper te maken.
Dit betekend meer winst, al word het wel duurder om er te komen.
Bak je Skylake op 32nm dan is die chip natuurlijk sneller dan een SandyBrigde processor. Architectuur is sneller. Energie verbruik zal ook lager liggen, maar niet veel lager dan dit nu het geval is. Daarbij krijg je dan een veel grotere chip. Chips van Intel consumenten processors zijn de laatste jaren in oppervlakte ook kleiner geworden; er zit dus meer transistors in door de kleinere transistors maar Intel heeft besloten dat de chips niet meer cores nodig zijn (CPU/GPU cores) wat de chip fysiek groter maakt.
Architectuur draait om het zo goed mogelijk benutten van de electrische elementen op de chip. Je gaat dus proberen zo goed mogelijk om te springen met je transistoren door te sleutelen aan dingen als instructieset, cache, aantal cores en het globale ontwerp hiervan.

Een belangrijke factor is het aantal transistoren, 'meer is beter', en je kunt op hetzelfde productieprocede niet simpelweg meer en meer transistoren toevoegen, dan zou je chip veel te groot worden. Uiteindelijk is architectuur en optimalisatie dus een redelijk eindig process als je bij hetzelfde productieprocede blijft.

Verkleining van productieprocede en architectuur gaan hand in hand, (vandaar ook de modellen die Intel hanteert) aangezien je steeds meer transistoren op je chip krijgt biedt dit ook mogelijkheden tot verbetering in je architectuur, denk aan complexere instructies, kortere afstanden op de chip, en ook simpelweg meer cores is makkelijker te realiseren.
"De mededeling ligt in lijn met geruchten dat Intel drie processorgeneraties op 10nm introduceert: Cannonlake, Icelake en Tiger Lake. Ook de 14nm-processors beslaan drie generaties; na Broadwell en het huidige Skylake volgt later dit jaar Kaby Lake. Het loslaten van tick-tock toont de moeilijkheid aan om de Wet van Moore in stand te houden". Daarnaast natuurlijk ook het feit dat ze eenzaam aan kop staan, dus de noodzaak om echt haast te maken en de concurrentie voor te blijven is een beetje verdwenen ...
Inderdaad. Er is geen reden om nog flink te investeren in nieuw spul, want ze hebben totaal geen incentive of concurrentie op de desktopmarkt.

AMD laat ergens in 2017 pas Zen zien... Dat betekent dat de markt nog een heel jaar op zijn gat kan liggen.
En jij denkt dat Intel stil zit omdat AMD niets te bieden heeft? Stel ZEN is het magische succes en hun 200 euro kosten cpu is sneller als een i7 6700k. In zowel singel als multicore. Denk je dan echt dat Intel ineens een blik CPU's kan open trekken en de nieuwere ineens super veel sneller kan maken? Ik denk van niet. Ze zitten gewoon tegen limieten aan. Huis tuin en keuken cpu's is niet het enige waar Intel cpu's voor maakt.
Absoluut.

Net zoals Nvidia ook pas de Ti uitbrengt nadat AMD met hun topkaarten komt.
Die liggen gewoon op reserve, te wachten tot het nodig is.
En daarom hebben ze een roadmap waar ze 9/10 keer redelijk op gelijk lopen? Die 980ti is gewoon een gehandicapte titan x. Die hadden ze dus al liggen. Maar waarom heeft nvidia dan nog geen 960ti die de strijd aan gaat met de r9 380x? Of zoals het er nu naar uit ziet pascal later als polaris?
Lekenvraag: waarom willen ze meer rekenkracht per se verkrijgen met optimalisaties en kleinere procedés? Waarom niet een nieuwe soc die 2x de oppervlakte heeft van de huidige socs en er dan gewoon 2x zoveel transistors op plaatsen? De grootte van processoren lijkt me redelijk arbitrair.
Omdat dat erg duur wordt in productiekosten. Opeens kun je maar de helft van de processors uit een wafer halen.
Erger dan dat. Niet alle processoren werken, je hebt af en toe een defect. Als je processor twee keer zo groot wordt, dan verdubbelt de kans op een defect ook. Stel dat je eerst 100 processoren hebt per wafer, met 5 defecten [er wafer, dan is je netto opbrengst 95 werkende CPU's. (95%). Dezelfde wafer met 5 defecten, maar met dubbel zo grote CPU's levert je maar 45 werkende CPU's op. Het rendement is nu dus maar 90% (45/50). En als we naar absolute aantallen kijken is het teruggelopen van 95 naar 45, meer dan een halvering.

Om die reden moet je CPU zo klein blijven dat het grootste deel van de CPU's op een wafer nog werken. Hoe betrouwbaarder je technologie, hoe groter je CPU mag zijn.
Warmteontwikkeling
Warmte wordt langs alle kanten afgevoerd, of er nu een koeler zit of niet. Wanneer de chip groter wordt kan de warmte van een veel groter oppervlak in het midden veel minder makkelijk worden afgevoerd.

Tenminste, dit heb ik ooit ergend gehoord.
Koeling, meer uitval (groter oppervlakte is lastiger om foutloos te maken), hoger energiegebruik, kosten van de silicium, om een paar redenen te noemen.
Volgens mij is dat precies wat ze al doen om die dure Xeon CPUs met die vele kernen te maken.
Mi. nergens voor nodig, kijk (delid) maar eens onder één willekeurige moderne IHS hoe groot de DIE is, zit nog genoeg ruimte over om de DIE wat groter te maken.
Het was al enige jaren duidelijk én het is goed nieuws voor de geldbewuste consument: de performance CPU-revolutie van de jaren '90-2000 is tot een einde gekomen. Vroeger kon je elke 2-3 jaar een serieuze upgrade van je PC doen, vandaag is het na 5 jaar nog niet echt nodig.

Een tragere evolutie is saai voor tweakers, maar een zegen voor wie niet voortdurend z'n geld wil uitgeven en toch nog wil mee kunnen.

Zelf zit ik met een i7 2600K uit 2011. Ik overwoog de upgrade naar de Skylake 6700K, maar de real life benchmarks hebben me geleerd dat dat weinig de moeite is. Saai, maar fantastisch!

[Reactie gewijzigd door TheBlackbird op 23 maart 2016 11:34]

Mag ook wel worden gezegd: eindelijk een naamgeving die minder irritant te interpreteren is. Zelfs ik had nog altijd af en toe 'zitten we nu in het jaar van de tick, of de tock -- en voor welke periode stond de tick/tock ook alweer? even fact check op wikipedia'. Ik heb geen tijd om me constant met de exclusieve creatieve lingo bezig te houden van elk individueel bedrijf.
Dit is juist goed voor de consumenten. Dankzij de extra ''stap'' kunnen we langer vasthouden aan de cpu die we aanschaffen. :9
Ik vraag me af, als ze de iGPU er uit laten, dan is er toch ook meer ruimte voor extra transistors?
Daarmee zou je de architectuur kunnen verbeteren.

Of is er dan nog een andere bottleneck dan het aantal transistors?
Ik kan me voorstellen dat de kabel afstand ook wel voor problemen kan zorgen...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True