Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 13 reacties

Samsung komt met een vierde generatie 14nm-chips en derde generatie 10nm-chips, zo heeft het bedrijf aangekondigd. De chips moeten betere prestaties bij gelijkblijvend verbruik mogelijk maken. Bij 7nm gaat Samsung van euv-lithografie gebruikmaken.

Begin dit jaar startte Samsung met zijn tweede generatie 14nm-chipproductie en het bedrijf werkt aan de derde versie, maar het bedrijf heeft nu al een vierde generatie in het vooruitzicht gesteld. Het bedrijf maakte de Exynos-soc van de Samsung Galaxy S6 op het 14LPE-procedé, terwijl opvolger 14LPP voor de soc van de S7 en midrange-socs ingezet werd. De derde generatie, 14LPC, wordt voor goedkopere socs en internet-of-things-apparaten ingezet en de vierde 14nm-productie, 14LPU, moet de prestaties bij gelijk verbruik verbeteren.

De productie op 10nm is pas half oktober begonnen maar het bedrijf kan nu al zeggen dat er een tweede en derde generatie komt. De tweede generatie, 10LPP, moet de prestaties met 10 procent verbeteren bij gelijk verbruik. De derde generatie, met de naam 10LPU, verkleint vooral het oppervlak van chips, volgens Samsung. In het tweede kwartaal van 2017 maakt Samsung de process design kits voor de nieuwe procedés beschikbaar aan zijn klanten.

Bij 7nm gaat Samsung euv-lithografie inzetten, de opvolger van de huidige immersielithografie om structuren op silicium te beschrijven. ASML is bezig om de chipmachines op basis van euv, oftewel extreem ultraviolet licht, gereed te maken voor de massaproductie. Door de kleinere golflengte kunnen deze machines voor kleinere structuren bij de chipproductie zorgen dan met immersie-lithografie mogelijk is. Daarmee kunnen ze overstappen op kleinere procedés en ook de komende decennia zuinigere en snellere chips blijven maken. De nanometer-aanduiding is afgeleid van de kleinste structuren die beschreven worden, maar er zijn verschillende manieren om dit te meten.

Wanneer Samsung chips op 7nm gaat maken is niet bekend. Het bedrijf is in een felle race verwikkeld om op steeds kleinere procedés over te stappen maar dat is steeds moeilijker. Intel had voorheen een tick-tock-cadans om afwisselend een nieuw procede en een nieuwe architectuur door te voeren voor zijn processors, maar vanaf de huidige Kaby Lake-generatie heeft het bedrijf daar een optimalisatie-stap aan toegevoegd: het is de derde generatie op 14nm.

Moderatie-faq Wijzig weergave

Reacties (13)

De vraag is meer wanneer we van die inmiddels nutteloze nanometer-beschrijving afstappen. Op dit moment zijn de kleinste features die ze met '14 nm' maken ongeveer 18-20 nm, maar elk proces wordt wel anders genoemd. Daarnaast verschilt 14 nm van TSMC nogal van Intels 14 nm, en in alle gevallen wordt er daarna nog mee gespeeld, waardoor er eigenlijk niks logisch meer aan is.
Voor een langere uitleg, zie onder andere hier.
Afgezien van dat het vaak geen verhouding tot de realiteit heeft, zijn deze NanoMarketing (nm)-termen juist zeer nuttig!

Vroeger kon AMD bij gelijke frequenties betere prestaties leveren dan bij Intel, dus vonden ze "equivalenten" uit: een Athlon 2400+ kwam in de buurt van een 2.4gHz Intel Pentium nogwat, maar iedereen begreep wel dat dit niet gelijk was. De wereld was simpel, meer herz of een hoger AMD nummer was beter.

En wat hebben we nu? 100'en ondoorzichtige Intel-namen van CPU's, bedacht door marketing ("iSomethingMeaningless" zegt Charlie van S|A standaard), vaak willekeurig gekozen waarbij klanten geen idee hebben wat ze kopen, en nog tientallen meren en bruggen, en werkvoertuigen: Kaby Lake, Skylake, Salt Lake, CannonLake, Ivy Bridge, Sandy Bridge, zus bridge en zo bridge, Excavator, Bulldozer, PileDriver en ga zo maar door: Het zegt me geen ene iota. Het is ook bewust verwarrend, met al die meren bijvoorbeeld weet niemand meer wat wat is en vroeg of laat ga je ze door elkaar halen. ARM maakt er helemaal een bende van: Eerst de A8, toen A9, toen A15, Dan de A7 en A5, dan A12 geloof ik, dan A53, A72 en A73. Procestechnologisch noemt Intel de FinFET processen in huis bijv. P1272 en P1274, dat zijn nou ook niet echt veelzeggende namen gerelateerd aan de realiteit.

Wat is er dan nu beter, dan processen gewoon een 1ste, 2de en 3de generatie 14nm proces noemen, zelfs al zou de 14nm nergens op slaan? En je hebt een volledig ander onvergelijkbaar proces, FD-SOI, dus daar hang je ook gewoon een Nano-Marketing nummertje aan voor waar het ongeveer mee overeen zou moeten komen, 22nm of 12nm dus. Een kleiner getal is gewoon beter, niet noodzakelijk kleiner, en een nieuwere generatie is ook beter. Dat maakt het leven van een Tweaker toch een stuk simpeler? Met andere woorden: Het is het meest doorzichtiche marketing-naamgevings schema tot nu toe en ik ben er blij mee.

Persoonlijk ben ik wel voorstander van de equivalent-nummers van Scotten Jones, maar er zijn bepaalde Tweakers die dan helemaal over de flos gaan waarbij ze zelfs moeten vloeken, omdat ze beweren dat van die nummers geen drol klopt, dus NanoMarketing is gewoon het doorzichtigste en beste wat we hebben!

[Reactie gewijzigd door kidde op 4 november 2016 00:06]

Alleen jammer dat de nummers in de praktijk helemaal niets betekenen. Een ARM CPU op 28nm is veel en veel zuiniger (maar natuurlijk ook trager) dan een Intel Core i7 op 14nm, maar een Atom op 14nm kan dan weer zuiniger en toch ietsje sneller zijn in sommige tests.

Kortom: Je mag het dan wel een doorzichtige manier van aanduiden vinden, maar het slaat gewoon nergens op. Die AMD Athlon-naamgeving was tenminste nog relateerbaar aan de Intel-producten (en klopte ook min of meer), maar met de huidige nm-naamgeving ben je zowel aan het liegen over de realiteit als maak je volledig onzinnige vergelijkingen onder dezelfde noemer. Dat is mijn insziens geen ideale situatie, hoe 'duidelijk' de naamgeving ook mag lijken...
Als je verschillende chipontwerpen op hetzelfde procede bakt, dan presteren ze toch ook niet gelijk? De een is sneller, de andere zuiniger, een andere heeft de beste prestaties per Watt, de ene neemt de meeste ruimte in, de ander is maar een fractie van de oppervlakte, etc.
Exact, dus waarom is het dan beter of handiger om chips op basis van hun procédé in te schatten? Kijk naar recente GPU's: AMD heeft met Polaris op 14nm eindelijk ongeveer dezelfde energie-efficiëntie te pakken als nVidia al had op 28nm met hun Maxwell-kaarten van twee jaar geleden. Ook hier zegt het nm-getal dus niets over performance of energie-efficiëntie.

Ofte: Ook het procédé is even nietszeggend als alle marketingtermen die de fabrikanten op ons afvuren.
Ach, wat maken die nanometers eigenlijk uit? Het gaat om de prestatie van het geheel. En voor CPUs is de 'nm-waarde' een soort aanduiding van het geld/moeite die in de productie wordt gestopt.
Maar koop je een camerasensor, dan is dat vaak op een wat 'grover' proces. Omdat het niet uitmaakt. En het staat er dan ook niet bij.
Overigens is het een standaard om een 'node' (nm-waarde) aan te bieden in verschillende soorten, bijvoorbeeld performance en low power, en dan op een later moment met een performance+low power variant te komen.
TSMC laat goed ziet wat voor verschillen je kan verwachten (hier op het uitontwikkelde 28nm proces: http://www.tsmc.com/engli...undry/technology/28nm.htm
Daarmee kunnen ze overstappen op kleinere procedés en ook de komende decennia zuinigere en snellere chips blijven maken.

Is het niet heel optimistisch om te zeggen dat euv-litografie de komende 20+ jaar zuinigere en snellere chips gaan maken? Mag toch hopen dat we over een jaar of 15 andere technieken gebruiken met bijvoorbeeld grafeen of iets anders in die richting.
Dat is het hem juist,
486 DX was de chip die transistor op 1000 nm had met een snelheid tot 150mhz waarbij voor het eerst 1mln transistoren werden gebruikt.
Is al weer 27 jaar geleden en echt veel is er niet veranderd.
Kleiner, sneller, en meer, meer, meer.
Hetzelfde zie je ook bij ARM en GPU.

Mondjesmaat komt fpga om de hoek kijken dat met een ander principe werkt en mede daardoor zuiniger is. Dat de techniek aanwezig is om kleiner te produceren is interessant, maar echte slagen zullen worden gemaakt als er andere type chips worden gebruikt. Ligt dus niet alleen aan materiaal.
...
Mondjesmaat komt fpga om de hoek kijken dat met een ander principe werkt en mede daardoor zuiniger is....
Bedoel je met FPGA de programmeerbare (systeem)chips? Die bestaan al heel wat jaren, en ikzelf gebruik ze wanneer ik een (legacy) SoC of systeem wil emuleren/repliceren.Philips Healthcare past FPGA's toe in vervangende systeemborden van 20+-jaren oud medisch apparatuur en diverse andere fabrikanten/systeembouwers met langdurige serviceverplichtingen gebruiken voor allerhande doeleinden FPGA's. Voor prototyping zijn ze ook verrekte handig, omdat ik voor een groot deel een (ander) hardwaresysteem kan programmeren naar een ASIC of FPGA.

Zo kun je met een FPGA-chip een complete Amiga500-systeem emuleren (is ooit een inkoopactie geweest), was de Transmeta Crusoe meer een FPGA-like CPU (en ook een hele zuinige!)....FPGA komt allang niet meer om de hoek kijken, en is ook niet per definitie zuiniger dan een CPU. Een FPGA (of enig ander programeerbare IC) is waarschijnlijk zuinig en efficiënt binnen zijn beoogd werkgebied, maar zijn toepasbaarheid is ook maar beperkt.

Daarbij komt dat ik je reactie op jeroentje710 niet echt bergijp? Want in welke hoek moet ik naar andere type chips kijken of zoeken? ASIC, FPGA of andere SoC-oplossingen? Elk type IC heeft zijn eigen doelgebied waarin die tot zijn recht komt.

Volgens mij heb je het eerder over de architectuur, en dan is er weldegelijk heel veel veranderd. Diezelfde 486DX4 van jou met de huidige productietechnieken opgeschaald (naar de transistorcount van een actuele Atom) slechter presteren dan moderne CPU's. We hebben tegenwoordig multicore, simultaneous multithreading, predicitve read ahead caching, controller integratie, SoC-ontwikkeling, quantum computing etc. Allemaal ontwikkelingen in de laatste 30 jaar waardoor de huidige (SL) Pentium een "ander type" chip is geworden, dan de 1995 Pentium. En daarom kan een ARM SoC "opeens" zuiniger, sneller en beter lijken dan een x86-AMD64 CPU. De ontwikkeling maakt een bepaald type beter. Welk type beter is, staat niet op voorhand vast.
De progressie moet op andere vlakken worden gezocht omdat er namelijk geen grote stappen zijn gemaakt. De extra functies en andere oplossingen zijn vaak gepaard gegaan met hoger verbruik.
http://www-cs.intel.com/p...pdf/epi-trends-final2.pdf
Relative to the i486 processor, the Pentium 4 processor (Cedarmill) delivers approximately 8 times the scalar performance (2.5x the IPC at 3x the frequency), but consumes 38 times more power.
...
As a result of micro-op fusion and other techniques, each core in the Core Duo processor delivers almost 8 times the scalar performance of the i486 processor while consuming only 8 times the power of the i486 processor. Thus, the Core Duo processor achieves roughly the same EPI as the i486 processor!
We hameren nog steeds voort op die core-duo.

Het idee van kleiner produceren <=> zuiniger klopt in mijn optiek niet,
het is sneller maar performance is redelijk stabiel gebleven en wanneer men niet tot verkleinen was overgegaan hadden we in de winter waarschijnlijk geen extra verwarming nodig gehad.

Oplossingen kunnen/moeten worden gezocht op andere vlakken. Een mooi voorbeeld is de hevc-encoder/decoder. Verbruikt praktisch niets maar je kunt wel op een simpele smartphone filmpjes op hoge resolutie bekijken.
Intel gaat beginnen om fpga op een Xeon te monteren dat iets meer flexibiliteit bied dan een asic.

En het probleem is niet uniek voor intel, ARM loopt tegen hetzelfde probleem met een harder stijgend verbruik tov prestaties. Verschillende heethoofden hebben al de revu gepasseerd en er worden met vreemde oplossingen gewerkt zoals 4+4 om het verbruik maar binnen de perken te houden.
(edit: schaalverkleining is oa om warmteontwikkeling tegen te gaan en om meer te kunnen produceren per wafer...Deze mening/overtuiging van me moet je even in het achterhoofd houden)

Ik hoop dat ik je goed begrijp ivm de HEVC-toevoeging...ook het concept van toevoegen van dergelijke functie's is niet nieuw. Zo had je de integratie van de 387 in de 486, on-die cache, code morphing, (memory) controllers, IGP/APU, instructiegrootte (4-128 bits) etc.

Er werd en er wordt nog steeds naar verbetering gezocht op andere vlakken, anders dan de transistorverkleining en verwerkingssnelheid/clock. Dit is al aan de gang sinds de transistoren en diodes in elektronika voorkomen.
De progressie moet op andere vlakken worden gezocht omdat er namelijk geen grote stappen zijn gemaakt. De extra functies en andere oplossingen zijn vaak gepaard gegaan met hoger verbruik.
http://www-cs.intel.com/p...pdf/epi-trends-final2.pdf

[...]
We hameren nog steeds voort op die core-duo.
...
En het probleem is niet uniek voor intel, ARM loopt tegen hetzelfde probleem met een harder stijgend verbruik tov prestaties. Verschillende heethoofden hebben al de revu gepasseerd en er worden met vreemde oplossingen gewerkt zoals 4+4 om het verbruik maar binnen de perken te houden.
Asymmetrische multicores zijn toch een oplossing, die jij juist extra belicht? Je noemt het een vreemde oplossing, maar de HEVC encoder/decoder, de FPU, APU/IGP, on-die geheugencontroller, SMP etc. zijn als oplossing niet wezenlijk anders dan de integratie van een tragere, zuinige core. ARM heeft nu eenmaal een andere architectuur, waardoor Speedstep-achtige oplossingen nog niet mogelijk zijn.

Plus: een Core Duo met een veelvoud van 486-aantallen schakelingen, die toch maar 8x zoveel verbruikt bij gelijke EPI vind je niet indrukwekkend? Ook al zijn we tientallen jaren verder?

Misschien zit het productieproces qua ontwikkeling tegen een azeotroop aan, waardoor vernieuwingen niet direct grote prestatiesprongen laten zien. Ik verwacht dan ook geen schokkende vernieuwingen, omdat er in het verleden ook geen schokgsgewijze ontwikkeling heeft plaatsgevonden sinds de IC.

En een laatste noot: De integratie van een FPGA in een CPU hoeft niet te betekenen, dat een voorheen softwarematige (CPU)bewerking ook sneller of beter verloopt in de nieuwe FPGA-unit. Sterker nog: ik verwacht dat elke low en mid end met dedicated hardware voor die ene specifieke taak minstens net zo goed presteert, maar als systeem wel meer energie verbuikt..

[Reactie gewijzigd door ProjWorld op 4 november 2016 20:40]

Interessant wordt het bij kleinere formaten dan 7nm. De uitdaging is om de effecten van quatumtunneling dan nog effectief tegen te kunnen gaan. Misschien is het natuurkundig maximum van een FET daar bereikt.
Men had nooit kunnen denken (en zeker Gordon Moore zelf niet, zoals hij dat een tijd geleden nog zei!) dat er zulke kleine transistoren kunnen worden gemaakt. In die tijd waren het nog 20 micrometer chips, een factor 1000 groter. Die waren ook nog door te rekenen met relatief simpele wiskunde, bij FETs kleiner dan 2 micrometer wordt de wiskunde al exponentieel gecompliceerder.
Aangezien de acro mist: LPU = Low Power Ultimate

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True