Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

'Chipfabrikanten kampen met tegenvallende opbrengsten op 10nm'

Door , 54 reacties, submitter: AnonymousWP

TSMC en Samsung hebben naar verluidt te maken met tegenvallende yields bij het produceren van 10nm-chips. Hierdoor zouden producten die in het eerste kwartaal van 2017 met chips op 10nm-formaat zouden verschijnen vertraging op kunnen lopen.

Volgens bronnen van DigiTimes heeft TSMC bestellingen lopen van merken als Apple, HiSilicon en MediaTek. Apple zou naar verluidt in maart 2017 met nieuwe iPads willen komen, maar deze zouden door de lage opbrengsten vertraagd kunnen worden. De bronnen geven verder aan dat in het tweede kwartaal van 2017 de eerste chips voor de volgende iPhone geproduceerd worden.

Ook Samsungs chipfabriek lijkt last te hebben van tegenvallende opbrengsten op het 10nm-procedé. Dit zou ertoe geleid hebben dat Qualcomm zijn plannen voor 2017 moest bijstellen. Het bedrijf was aanvankelijk van plan om meerdere socs op 10nm te laten produceren, maar houdt het nu naar verluidt alleen bij het aanstaande topmodel, de Snapdragon 835. Goedkopere chips, zoals de Snapdragon 660-serie, zouden op 14nm-formaat worden geproduceerd. Samsung kondigde in oktober aan dat het is begonnen met de productie van 10nm-chips.

TSMC had vorig jaar aangekondigd dat de eerste 10nm-chips vanaf eind 2016 beschikbaar zouden zijn. Volgens het bedrijf zou het kleinere formaat een prestatiewinst van 15 procent moeten opleveren bij hetzelfde verbruik of bij dezelfde prestaties een verbruiksafname van 35 procent.

Intel heeft ook moeite met het perfectioneren van het 10nm-proces. In 2015 maakte het bedrijf bekend dat het af zou stappen van de gebruikelijke 'tick-tock'-generaties, waarbij de ene generatie een nieuwe architectuur introduceerde en de opvolgende generatie de architectuur op een kleiner formaat werd geproduceerd. Als resultaat hiervan is de nieuwe Kaby Lake-generatie de derde op een rij die op 14nm wordt gebakken. Volgens experts is er in de praktijk weinig verschil tussen het 14nm-procedé van Intel en het 10nm-procedé van andere fabrikanten. De eerste 10nm-chips van Intel moeten in de tweede helft van 2017 verschijnen.

Reacties (54)

Wijzig sortering
"Volgens experts is er in de praktijk weinig verschil tussen het 14nm-procedé van Intel en het 10nm-procedé van andere fabrikanten. De eerste 10nm-chips van Intel moeten in de tweede helft van 2017 verschijnen."

Hoewel het er even achteraf staat geeft het wel aan dat het vergelijken van processen tussen fabrikanten lastig blijft. Het is een beetje als Ghz vergelijken tussen processors als maat van snelheid.

Het is dus lastig om te zeggen welke fab nu voorloopt op de andere, en wat nu daadwerkelijk het verschil is tussen bijvoorbeeld 10 en 14nm.
Inderdaad, die termen zijn voornamelijk nanometermarketing.
Wat je zegt klopt niet. Intel loopt gewoon een stap voor. Intel produceerd namelijk gewoon al op 14nm wat vergelijkbaar is met de 10nm productie van de andere fabrikanten ;)
Enkel is het nogal onduidelijk wat de individuele fabrikanten precies bedoelen met die "14nm" of "10nm", wat men precies meet is wel wat onduidelijk en ook niet goed vergelijkbaar.

Dus ja: nanometermarketing.
Eerder andersom, tsmc ect. lopen iets achter, en ook dan maar half.

De transistors zelf zijn gewoon 14nm bij Samsung en tsmc. Alleen de BEOL lijkt meer op 20nm waardoor je de dichtheid van 20nm hebt, maar alle andere eigenschappen redelijkerwijs 14nm genoemd mogen worden.
Het blijft een knap staaltje techniek,dat ze steeds kleiner,zuiniger en sneller worden.
Grappig dat de wet van moore tot 2011 gold en we zijn inmiddels al bijna in 2017 en ik denk dat het nog wel even stand houd, met de komst van euv-lithografietechniek worden de procédé nog kleiner.
Volgens de planning start de massaproductie op 7nm in 2017, waarop 5nm in 2019 volgt.


De Taiwanese chipfabrikant heeft deze week zijn plannen voor de bouw van nieuwe fabrieken bekendgemaakt, die ingezet gaan worden voor de 5nm- en 3nm-processen. In 2022 moeten de fabs klaar zijn. "Ons huidige plan is om EUV-lithografie breed toe te passen voor het 5nm-procedé, maar dat is wel afhankelijk van de beschikbaarheid van de technologie", zegt een woordvoerder daarover.
(Bron Hardweareinfo)

Kort stukje over het maken van wafers.
https://nl.hardware.info/...e-cpu-geproduceerd-wafers
Grappig dat de wet van moore tot 2011 gold en we zijn inmiddels al bijna in 2017 en ik denk dat het nog wel even stand houd, met de komst van euv-lithografietechniek worden de procédé nog kleiner.
Optimisme is mooi, maar mag ik vragen waarop je het baseert? ASML heeft de grootste moeite om EUV aan de praat te krijgen (zoals jouw eigen citaat zegt "dat is wel afhankelijk van de beschikbaarheid van de technologie"; met andere woorden "als die machines tenminste gebouwd kunnen worden"). En het artikel waaronder je post gaat er nou juist over dat 10 nm toch echt wel even lastiger is dan verwacht. Dat zijn wat mij betreft (helaas!) juist twee redenen om te denken dat Moore's Selffulfilling Prophecy ("Moore's Law" is een compleet verkeerde benaming) nu dan toch eindelijk tegen zijn eind aan begint te lopen.

Bovenstaande overigens met alle respect voor de technici van ASML en alle anderen die hier iets mee te maken hebben. Massaproductie draaien met nauwkeurigheden van 100 nm is al een compleet bezopen idee... hoe ze dat ooit voor elkaar hebben gekregen!? Dat 10 nm toch echt wel behoorlijk moeilijk is, tja, nogal logisch. Steeds verder verkleinen is leuk, maar vroeg of laat zal het toch echt ergens een keer op moeten houden.
Ik snap je punt, maar veel mensen zijn zo negatief over Asml en dat er zo veel geld erin word gepompt zonder resultaten, maar er zijn al EUV machines verkocht die al kleinere wafels kunnen maken alleen de aantallen vallen nog tegen en er zit nog wat vervuiling in, maar dat zijn dingen die nog verbeterd kunnen worden.

https://www.bright.nl/bri...leutel-tot-snellere-chips
Vervuiling is toch helemaal niet erg. Dirty by design is de toekomst.
Er moet gewoon een compleet andere manier gebruikt gaan worden, maar de huidige methodiek is niet afdoende genoeg meer. Zoals je zegt deze techniek houdt een keer op, transport netwerk met stroompjes is niet toereikend genoeg meer dus ze zullen vast heel hard bezig zijn met fotonica processors.
FTR, Moore's Law is weldegelijk correct.
Het woord Law wordt hier op een hele specifieke manier gebruikt, namelijk als label voor een geobserveerd fenomeen dat min of meer universeel blijkt te kloppen (binnen bepaalde grenzen).
Een ander voorbeeld van het gebruik van Law op deze manier is bv de Idealized Gas Law, oa afgeleid van de eerdere Laws van Boyle en Gay-Lussac.
Een ander voorbeeld van het gebruik van Law op deze manier is bv de Idealized Gas Law, oa afgeleid van de eerdere Laws van Boyle en Gay-Lussac.
Dat vind ik geen goede vergelijking. Moore's "Law" is in die zin vergelijkbaar, dat beide worden ontdekt door observatie, maar daar houdt het ook meteen op. Natuurwetten gelden van zichzelf, vroeger, nu en in de toekomst, of we het nu leuk vinden of niet. Voor Moore moeten technici hun uiterste best doen om de wetmatigheid in stand te houden (en we weten dat het vroeg of laat op zal moeten houden).

Het bouwen van fabs, het ontwikkelen van machines (ASML's wafersteppers zijn het bekendst, maar er is nog veel meer nodig) en het ontwikkelen van nieuwe (families van) chips duurt meerdere jaren. Als je ontwerpt met de maatstaven van vandaag, dan loop je hopeloos achter op het moment dat je product klaar is. Hierin is de electronica-industrie compleet anders dan nagenoeg alle andere industrieën: bij het ontwerp van een brug rekent de architect (naar ik aanneem) met de sterktes van de materialen die vandaag de dag beschikbaar zijn. Een chip wordt ontworpen voor een productieprocedé dat op dat moment nog helemaal niet bestaat!

In de praktijk is het iets ingewikkelder dan simpelweg "Moore's Law", maar in principe geldt het volgende. ASML bouwt machines die in het jaar x op y nm kunnen produceren omdat ze weten dat alle fabrikanten tegen die tijd op dat procedé willen zitten. De fabrikanten ontwerpen daarop omdat ze weten dat ASML dat aan zal kunnen bieden. Met andere woorden, de hele industrie houdt dit (als je er goed over nadenkt: absurde) tempo vast, omdat de hele industrie er vanuit gaat. Vandaar mijn keuze voor "Moore's Self-fulfilling Prophecy".
Maakt niet uit, Wirth's Law houdt sowieso beter stand. Momenteel vooral fanatiek met Websites en webapps. Wordpress is zo'n heerlijk Wirth bewijs.
Dankje voor het linkje hoe zn wafers gemaakt wordt.
Dankjewel voor de link. :)

Heerlijk lees voer.
Over de link, het silicium word niet gegoten maar uit gesmolten staat langzaam draaiend omhoog getrokken aan de dunne streng op de foto. Dit is belangrijk voor het vormen van de structuur. Vandaar de vorm van de andere plaatjes. Een ingot is meer een gegoten voorwerp zoals een staaf goud of zilver. Fijne feestdagen allemaal en corrigeer mij ook als het nog beter kan.
Je hebt helemaal gelijk.
Het artikel gaat er niet echt op in en houd het voor het gemak denk ik op gegoten.

Het word in een machine eerst gesmolten, daarna word er een pin in het gesmolten cilicium gezakt, deze draait dan langzaam rond en word tegelijk omhoog getrokken waardoor zich een ignot vormt, beetje moeilijk om het duidelijk uit te leggen, misschien help het filmpje hieronder. (skip naar 2:00)
Het hele filmpje is trouwens heel interessant om te kijken. ;)

https://youtu.be/aWVywhzuHnQ
Het lijkt er toch steeds meer op dat het verkleinen van chips niet meer goed lukt, of in ieder geval flink in tempo afneemt. Zorgt dit er dan ook voor dat hardware niet meer krachtiger zal worden in de toekomst?
er zijn bij het verkleinen van de productieschaal altijd wel problemen in het begin, maar daar is tot nog toe altijd een oplossing voor gevonden. Het is nu gewoon even afwachten tot dit voor 10nm ook het geval is.

Zelfs al kan het proces niet meer verkleind worden (wat al een aantal keren gedacht is), dan komt er wel een nieuwe techniek die er voor zorgt dat we weer verder kunnen. Als het écht niet meer gaat (limieten van het fysieke/economisch haalbare), dan zal er weer in de breedte gedacht worden door grotere/(nog)meer cores te gaan gebruiken
Tot nu toe hebben meerdere cores plakken geen soelaas gegeven voor het voornamelijk single threaded coding principe. Als het zò makkelijk was dan zaten we allemaal nu wel op 8 of 16 cores..

Wat mij meer benieuwd is, als ze straks nog kleiner kunnen maken, weten ze uberhaupt nog wel wat met al dat oppervlak te doen? De helft van de die bestaat al uit de iGPU, en een groot gedeelte van de cpu bestaat al uit duplicate cores en cache. Maar een beetje cache vergroten en meer cores bied uit zichzelf geen noemenswaardige prestatiewinst op.

Of gaan ze gewoon cheap en nog kleiner oppervlak?

[Reactie gewijzigd door Marctraider op 23 december 2016 18:29]

De next step is HBM2 of HBM3 op de APU.
Ipv 64 byte Cache line
128 byte.
Nog grotere caches en breder.

Er is ondertussen een punt berijkt dat voor meeste taken huidige PC snel genoeg zijn.
Voor daar waar performance belangrijk is is SMP crussial om CPU vollediger te benutten.

Dev migreren daar wel naar toe , want het kan ook niet anders. Multithreading vereist methodieken op software architectuur en orogrameer paradigems.
Software ontwikkelen op manier met parralelisatie in gedachte .

iNtel heeft nu 10 core extreem edition. In de toekomst kan nog meer cores worden vooral als de concurentie op gang komt en men performance vooral met meer cores kan vergroten. Op huidige proscessen is 32 cores ongeveer de grens. Wat eerst voor servers toegepast gaat worden. Consumenten toepassingen is de migratie te langzaam .Om nu met 16 cores desktop versies te komen.
Nog grotere caches en breder.
Jaren geleden had ik een pdf van IBM gevonden (ben hem kwijt...) wat je met 1 miljard transitoren zou kunnen doen.
Artikel concludeerde dat op een gegeven moment heel diepe pipelines met speculatieve executie geen succes zou zijn vanwege energieverbruik (Je gebruikt uiteindelijk slechts 1 pad, terwijl met iedere branch die je ook in je diepte hebt je de speculatie verdubbelt. Dit gaat hard: 1 van 2, 3 van 4, 7 van 8, 15 van 16 berekeningen is nutteloos. Dit was dus ook de reden dat de intel P4 uiteindelijk zo'n waanzinnig verbruik had en daarmee niet echt bruikbaar in laptops).
De conclusie was dat een enorme cache met meerdere 'kleine' CPU's de beste oplossing zou zijn. Dit omdat cache het enige is wat de CPU (enigszins) bij kan houden.
De grap is dat je nu inderdaad ziet dat we multi-miljard transistor CPU's hebben en dat dat eigenlijk dus 'normale' CPU's zijn met enorme caches...
Helaas lijken software-ontwikkelaars en hardware-ontwikkelaars op gescheiden werelden te leveren.

Het is makkelijk om daarbij Apple te roepen,
maar consoles zijn ook mooie voorbeelden waarbij hardware tot het uiterste wordt gepushed en er het maximale uit wordt geperst. En dat levert vaak mooie resultaten op.

Het zou mooi zijn als hardware-producenten meer zouden bijdragen aan de ontwikkeling van het OS zodat hopelijk er ook een versnelling plaatsvind in de ontwikkelingen van software.
Mij lijkt het alsof de multicores pas echt van de grond kwamen omdat de GHz race tegen z'n limieten liep en er nog steeds honger is naar meer performance.
Multicore cpu's hebben ook een sterke nood naar schaalverkleining. Schaalverkleining betekent, naast voordelen mbt de nodige energie en performance, ook meer structuren op dezelfde oppervlakte.
Feit is dat de techniek alsmaar complexer wordt, met alle problemen vandien. De ontwikkeling en integratie van nieuwe technologieën duurt ook alsmaar langer.
nee, de ghz-race was omgegooid door een radicaal nieuw chipontwerp nml de core-technologie die eerst in de centrino's tot uiting kwam, het duurde nog een tijdje vooraleer de dual en quad-cores begonnen op te komen en pas de laatste jaren begint het aantal cores echt op te lopen
een radicaal nieuw chipontwerp
De eerste Core processoren waren geen 'radicaal nieuw ontwerp', maar (ongeveer) een P3 core met een P4 bus interface, zoals SG al schreef.
Zie https://en.wikipedia.org/wiki/Pentium_M
Dat denk ik niet. Mij lijkt core niet meer dan van oorsprong een door ontwikkeling van latere PIII architecturen zials de Tulatin maar dan sterker gericht op de mobiele markten. De Netburst P4 Prescot fiasco heeft iNtel de Israelische R&D voor deze mobilietak verschoven naar desktop om Als vervanging van de Netburst deadend..

Dus doorontwikkeling met als basis het conventionele beleid.

Op zich is de keuze van Net burst ook te volgen als beleid van aantal stages de pipelines hebben.
PIII het er weinig dus schaalde slechter op klok. Thunderbird ging daar ruim voorbij.
AMD chips hadden meer stages maar Netburst sloeg alles kwa Ghz manie. Maar met de nextgen Prescott doken de lek stroom problemen op.

RyZen kan je ook zien als volgen CPU architectuur heeft iNtel de sweetspot te pakken en haald gross vsn potentie daar al uit. Dus als je op save speeld ga je voor conventioneel en vergelijkbaar beleid.

Dus goed verklaarbaar dat Zen veel weg heeft kwa bekeid tov iNtel.

Dus Centrino is de conventionele weg waar intel op terug kwam na Netburst faal.
Want Tulatin op 130nm was ook niet slecht tov Prescot. Maar mocht niet met Prescott concureren.
Ik herinner mij nog dat men in de jaren 90 voorspelde dat rond 2000 de structuren op chips niet meer kleiner gemaakt konden worden. Ik vind het al heel wat dat men nog zo lang met de oude technieken zover kon komen.

Voor nog kleinere structuren zal men waarschijnlijk toch naar EUV moeten overschakelen. Kassa voor ASML! Als zitten hier ook weer beperkingen aan. Op een gegeven moment houd het op met silicium.

In theorie kan je nog wel veel kleiner gaan, maar dan moet je op atomair niveau transistoren gaan bouwen.

[Reactie gewijzigd door ArtGod op 23 december 2016 17:07]

Oude technieken? Elke verkleining is een nieuwe techniek...
Zelfs met EUV beginnen we toch akelig dicht bij de afmetingen van een enkel atoom (enkele tienden nanometer) te komen dus daar houd het verhaal wel zo'n beetje op qua kleiner gaan, ik ben erg benieuwd naar wat de toekomst gaat brengen :)
Tja, we komen dicht bij de grenzen van wat met de gebruikte technologie mogelijk is. Een chip word per transistor ook duurder en ze plakken nog steeds meer transistors op een chip. En dan nog de slechte yield Goedkoper gaat het voor ons dus ook niet worden.
Zijn er dan ook andere technologieën? Ik heb me er nooit in verdiept. Maar ik dacht dat er maar 1 manier was.
Volgens mij zou dat EUV moeten zijn, ASML is druk bezig met het bouwen van deze machines die doordat het compleet anders werkt dan traditionele immersie techniek, nog kleinere cirquits kunnen maken (belichting met extreem uv licht in vacuum met het verdampen van tin druppeltjes voor het focussen van het licht).

In de loop van 2017 willen grote clubs als TSMC en Samsung deze machines gaan gebruiken dus ergens einde 2017 zal dat operationeel gaan zijn denk ik
In essentie is het gewoon dezelfde technologie: een masker afbeelden op een wafer. Enkel is dit een behoorlijke evolutiestap doordat men naar nog kleinere golflengtes gaat (EUV dus) en dat er behoorlijk wat uitvindingen gedaan moesten worden om het mogelijk te maken.

Dus dankzij EUV kunnen we de huidige technologieschaling wat langer volhouden - tot er dus iets revolutionair anders komt.
Op elke slak zout leggen is ook een vak, ja, je bent nog steeds een masker aan het afbeelden op een wafer maar daar houden de vergelijkingen wel zo'n beetje op.

Dat begint al met de complexiteit van de noodzaak van een vacuum (euv licht word anders geabsorbeerd) en dat er in dat vacuum wel residu van de tindruppels moet worden afgevoerd.

Overigens zijn/waren er wel pioniers bij een bedrijf in Delft die gesubsidieerd onderzoek doen naar etsen zonder masker maar met een soort elektronen kanon. Geen idee hoe het daar mee staat.
Mijn punt is dat de lithografische processen in basis al jaren hetzelfde zijn. Enkel worden er telkens weer manieren gevonden om te verkleinen: double-patterning, immersielithografie, verkleining van golflengte en ga zo maar door.

En ja, wat ASML doet met EUV is echt een huzarenstukje: in basis is het een verkleining van golflengte maar die heeft gigantisch veel consequenties: manier van licht opwekken, speciale spiegels, geen lenzen meer kunnen gebruiken, vacuum en tin-afvalproblemen, reflecterende maskers in plaats van filterende maskers en ga zo maar door. Maar in basis is het dezelfde techniek: lithografie.

En aliberto vraag juist of er andere technologieen zijn... hele lange termijn quantumcomputers, koolstof nanontubes, *dat* zijn andere technologieen.
Of, waar je zelf mee komt: Mapper, met elektronenbundels belichten in plaats van een lichtbron door lenzen/spiegels leiden. Helaas lijken die nog niet echt groot succes te hebben - wat wel jammer is, want het zou voor kleinere aantallen gigantisch interessant kunnen zijn.
In de wereld van de chips bedoelt men met technologie meestal de lengte van de gate. Men zegt dan bijvoorbeeld: "de nieuwste CPU's van intel worden gemaakt met 14nm-technologie"
(http://www.intel.com/cont...ntel-14nm-technology.html)

Maar je kan ook spreken over de technologiën die nodig zijn om zo'n chips te maken en dan gaat het over:
- De gebruikte halfgeleidermaterialen
- De lithografietechniek bv EUV
- De diameter van de wafers: 300mm, 450mm

Of over de verschillende transistorvormen: finfet, gate-all-around,...

Kortom: technologie is in de wereld van de chips een breed gebruikte term
In de toekomst gaan we naar 3D-processors: meerdere dies op elkaar gestapeld, gescheiden door een laagje grafeen voor koeling.
er zijn bij het verkleinen van de productieschaal altijd wel problemen in het begin, maar daar is tot nog toe altijd een oplossing voor gevonden. Het is nu gewoon even afwachten tot dit voor 10nm ook het geval is.
Moah. Die problemen zijn telkens grooter en het duurt ook steeds langer voordat zo'n procede op gang komt.
Je ziet dit vrijwel direct terugkomen in zaken als groei van pocessorperformance over de jaren heen. We zijn redelijk vast komen te zitten. CPU's worden niet veel sneller meer. GPU's groeien maar matig door in hun performance.
dan zal er weer in de breedte gedacht worden door grotere/(nog)meer cores te gaan gebruiken
Dat is een groot probleem omdat lang niet alle problemen zich makkelijk laten paralleliseren. We hebben al vrij lang multicore cpu's en de softwarewereld weet zich maar moeizaam aan te passen.
CPU's worden niet veel sneller meer.
Dat worden ze wel, maar in het consumenten segment is er weinig vraag meer naar meer cpu snelheid, en wordt de focus dus verlegd naar zuinigere cpu's en grotere gpu's. Bij server en HPC chips (en mobile) gaat de performance verbetering nog altijd in hetzelfde tempo door. Kijk bijvoorbeeld naar de performance van Xeon chips, SPARC, POWER, en parallelle units als de Xeon Phi, Tesla, etc.

[Reactie gewijzigd door Dreamvoid op 23 december 2016 17:37]

Ja, ik had moeten nuanceren dat het om snelheidswinst vanwege kleiner procedee gaat.
[...]
Dat worden ze wel, maar in het consumenten segment is er weinig vraag meer naar meer cpu snelheid, en wordt de focus dus verlegd naar zuinigere cpu's en grotere gpu's. Bij server en HPC chips (en mobile) gaat de performance verbetering nog altijd in hetzelfde tempo door. Kijk bijvoorbeeld naar de performance van Xeon chips, SPARC, POWER, en parallelle units als de Xeon Phi, Tesla, etc.
Zeker niet. De gevolgen van het haperen van de Wet van Moore zijn ook bij serverchips goed merkbaar. De Skylake-processoren voor servers gaan veel meer energie gebruiken dan we nu gewend zijn. Koop maar vast een extra waterkoeling voor je serverruimte, want met lucht gaat het het je niet meer lukken. Dat zijn de gevolgen als je meer rekenkracht moet leveren zonder dat er miniaturisatie is.

Ik zie de stagnatie op de consumentenmarkt vooral als een gevolg van gebrek aan concurrentie.
Consumenten hebben wel vraag naar meer snelheid, alleen niet in de vorm van meer cores, maar snellere cores.
Voor servers maakt dat minder uit, meer cores is voor de meeste dingen gewoon beter/sneller.
Helaas kunnen ze de cores (OOK voor servers) niet veel sneller meer maken.
Dus de groei bij de serverkant komt vooral van meer cores.

Het is moelijk cijfers te vinden, maar als ik hier kijk, heeft een 1 jaar oude Xeon E3-1240v5, een score van 2240. En een 6 jaar oude E3-1240v1 een score van ca 1849, dus een whopping 20% meer.
Ze kunnen het gewoon niet.
De Xeon-1240 is een wat slecht voorbeeld, dat is een feitelijk een consumentenchip (inclusief IGP), waar de vooruitgang in stroomverbruik is, niet in performance.

Als je wilt zien wat Intel werkelijk doet in serverland, dan moet je een Xeon E7-8890 v4 (de snelste Broadwell-EX, uit 2016) vergelijken met een Xeon E7-8870 (de snelste Westmere-EX, uit 2011).

Als je dan bv de SAP SD benchmark neemt (dat is min of meer waar deze dingen voor gemaakt worden): een 4-socket E7-8890v4 systeem haalt ongeveer 225.000 punten, een 4-socket server met E7-8870v1 doet rond de 58.000 punten, dat is toch een factor 4 sneller, in 5 jaar.

Zo'n zelfde trend kan je bv ook voor de SPARC chips doen. De performance race gaat gewoon door, daar waar er behoefte aan is.

[Reactie gewijzigd door Dreamvoid op 23 december 2016 19:22]

SAP SD benchmark test niet alleen de processor maar ook storage. Snelheid van storage is tussen 2011 en 2016 nogal toegenomen door SSD's. SAP SD benchmark geen goed beeld geeft van de voortgang in processor technologie.
Nou je ziet dat op 8-socket systemen de scores vrijwel dubbel zijn tov 4-socket, dus I/O lijkt niet echt de bottleneck te zijn.
Inderdaad zijn serverchips tegenwoordig veel sneller, dat ontken ik ook niet.
Maar ik wilde juist aangeven dat dat voor een groot deel ligt aan het aantal cores, waar serversoftware zoals databases, inderdaad goed gebruik van kan maken.
Consumenten hebben weinig aan extra cores (want die draaien geen SAP), maar hebben behoefte aan snellere cores, snelle singlethread performance. En daar is de rek er al een tijdje uit.
Zo bekeken, de benchmarks die je noemt zijn per core niet 4x zo snel, maar 1,6x zo snel (wat voor een deel vast ook aan de enorme vooruitgang op het vlak van PCIe SSDs ligt).
Dus ook de top-end server chips hebben consumenten niet bijzonder veel aan, zolang hun software geen gebruik kan maken van die 24(!) cores.
192 cores he, dit zijn 8-socket machines :)

Maar idd, parallelisatie is lastig en er zit een einde aan wat je met een single core kan doen zonder te hoge temperaturen te halen. Overigens is dat niet specifiek iets van Intel (of gebrek aan concurrentie, wat in deze thread ook wordt gesuggereerd), je ziet over het hele spectrum aan chiptoepassingen dat de uarchs van Apple, Oracle en IBM ook min of meer op dezelfde complexiteit/IPC per core aftoppen.

[Reactie gewijzigd door Dreamvoid op 23 december 2016 22:40]

Bij zeer goed paralelliseerbare server taken is het meer performance per watt.

En daarbij 10.000 cpu 25watt of 5.000 van 50watt bij dezelfde volume. Niet zo een probleem. En als die 10.000 meer performance geven
Een ander probleem is de efficiëntie van veel software. Er wordt gewoon nauwelijks aan optimalisatie gedaan. Op zich niet erg voor 1 pakket, maar funest voor de hele stack
Soms gaan optimalisatie ten kosten van onderhoudbaarheid. En aangezien het laatste toch het meeste geld kost, gaan we meestal voor de snelste weg.
Ja, je kunt dingen optimaliseren, maar de complexiteit van programma's en de verschillende lagen is ook erg toegenomen. Maar je kunt moeilijk oude technologieën met nieuwe vergelijken, mede omdat de vereisten (beveiliging, compatibiliteit, opties) mee zijn gegroeid. Waarbij vroeger juist de geheugen géén bottleneck was, wordt dat, gek genoeg, steeds meer. Het is namelijk zo dat de tijd dat de CPU nodig heeft om iets uit de geheugen te laden op is gelopen tegenover de snelheid van het behandelen van instructies. En raad eens wat er steeds meer wordt gebruikt? :9
Voor sommige dingen ja, maar het valt mij altijd weer op dat als je ff iets anders naar de code kijkt dingen soms véél efficiënter en korter kunnen. Dat laatste krijgen developers geen tijd meer voor, als het maar werkt en duidelijk is, ook al is het niet efficiënt.
In games geeft data driven en script aandeel juist een enorme performance hit.
De eerste keer dat Epic scriptengine implementeerde was dat factor 10.
Bij games is efficiente productie team die game assets en game logic in effiente work flow productie kunnen produceren belangrijker dan top notch performance waarbij heel veel hardcoded is in de engine layer.

En ook code management is belangrijk. Voor architectuur is hoge mate van ontkoppeling beter voor managen van de code waarbij directe koppelingen pointers tussen modules hoge performance voordeel geven. Maar voor beheer van de. Code minder is.

Dus het is niet altijd performance wat de klok slaat ook in performance intensieve software. Er zijn meer factoren die grotere invloed hebben op software architectuur.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*