Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 36 reacties

In de volgende generatie Westmere-processors voor servers wordt het aantal ondersteunde threads mogelijk van zestien naar twintig uitgebreid. Daarvoor zouden tien fysieke cores nodig zijn, twee meer dan bij de huidige processors.

De acht cores van de huidige generatie Westmere-EX-processors zouden met twee fysieke cores worden uitgebreid, waarmee het aantal threads dankzij hyperthreading-technologie op twintig zou komen. Dat zou kunnen worden opgemaakt uit de documentatie van een presentatie die Intel in augustus houdt. Volgens de titel van het document, 'Westmere-EX: A 20 Thread Server CPU' zou Intel tijdens het Hot Chips 22-symposium in Palo Alto nieuwe serverchips bespreken. De 22e editie van het Hot Chips-symposium, dat wordt georganiseerd door de Standford-universiteit, vindt van 22 tot 24 augustus plaats.

De presentatie wordt gegeven door Dheemanth Nagaraj en Sailesh Kottapalli, beiden chipontwerpers bij Intel. Intel kondigde al eerder aan het aantal cores van zijn 32nm-Westmere-EX-processors uit te gaan breiden. In mei sprak de chipfabrikant nog van twaalfcore-Xeons, met hyperthreading goed voor 24 threads. De 32nm-Xeons met codenaam Westmere-EX, een die-shrink van de Nehalem-architectuur, zouden in servers met vier processors moeten worden gebruikt, wat het aantal fysieke cores per server met de nieuwe serie naar veertig zou uitbreiden.

Moderatie-faq Wijzig weergave

Reacties (36)

Een apart aantal 10 cores. Ik ben benieuwd naar de opbouw van de chip. Er zal wel een rede voor zijn om er 10 te pakken en niet 12.
Intel heeft op dit moment een aardig voorstand op AMD wat productieproces betreft en kan aardig meelopen wat snelheid betreft.

AnandTech IT heeft een goede vergelijking gedaan en er zijn bepaalde situaties waarbij de server CPUs van AMD een zeer goed alternatief zijn, maar gemiddeld genomen kwam de Intel reeks er beter uit.

Nu komt AMD binnenkort met de Zambezi en Interlagos versies uit, maar Intel wil gewoon de huidige voorsprong met een klein beetje vergroten. Op die manier maximaliseren ze natuurlijk de winst en laten ze ruimte over voor een verbeterde versie.

Voor de consument is deze situatie nadelig, als AMD geen productieproces achterstand had (via de GlobalFoundries opzet is dat wel een stuk beter geworden), dan was de situatie al anders geweest. Intel heeft gewoon een veel hogere marge op hun produkten en dat ligt voornamelijk aan het produktieproces. De yields die Intel op 32nm behaalt zitten zeer dicht tegen het ideaal aan, en ze zijn al bezig met grootschalige 22nm produktie (voor SSDs eerst, maar dat is omdat een simpel proces als NAND zich beter leent voor initiële massa produktie), terwijl AMD net op gang begint te lopen met 32nm.
  • 22nm = 484nm²
  • 32nm = 1024nm²
  • 45nm = 2025nm²
  • 65nm = 4225nm²
  • 90nm = 8100nm²
Als het exact zelfde ontwerp gebruikt wordt, dan blijft de 'die' dus relatief gelijk aan het produktieproces, en in de bovenstaande tabel kan je dus zien dat de financiële winst elke keer ongeveer verdubbelt.

Er komen bijkomende kosten bij natuurlijk, de apperatuur, lage yield in het begin, etc. Maar uiteindelijk bij een groot volume zijn die kosten snel terugverdient en is het pure winst (wat dan weer de kosten dekt voor de volgende verkleining).

Maar als je concurrent dus zeg maar dezelfde prestaties levert, is het financieel gezien slimmer om eerst met hogere winst (je kan namelijk meer chips maken) een 10-core model te verkopen wat 25% sneller is, en daarna pas met een 12-core komen die 50% sneller is. Intel liet al zien dat ze op dit moment al in staat zijn om een 80-core monster te bouwen, en zeg dat ie dan 1000x sneller is wat er nu op de markt is. Als Intel dan volgend jaar niet in staat is op een 160-core monster te bouwen klapt ineens hun hele verkoop markt in elkaar en riskeert ook Intel dat ze failliet gaan.

Deze kleine verbeteringen hebben dus zeker een goede achterliggende reden. Het is natuurlijk niet altijd in het belang van de consument, maar daarom is het goed dat we dus concurrentie van AMD hebben. Dat houd de voortgang van een nieuw model in gang en de prijzen onder druk.
Ik had ergens gelezen dat AMD 32nm overslaat en direct aan 28nm begint.
Ging dat niet alleen over GPUs?
Het lijkt mij ook vrij mogelijk dat het wel 12 cores zijn, maar ze voor de yields er maar 10 standaard aanzetten (en dan eventueel een X of Extreme edition achtige CPU met wel alle cores aangezet.

Maar - dit ziet er wel uit als een degelijke opvolger voor mijn dual quadcore van drie jaar oud :) Hopelijk werken deze ook in single-socket 1366 moederborden, kan ik dan na jaren weer eens een single-cpu systeem hebben, lekker stil :D

[Reactie gewijzigd door Webdoc op 21 juni 2010 11:25]

De huidige Westmere-EX processors gaan in socket 1567, dus dat zullen deze waarschijnlijk ook gaan doen. Je hoeft dus niet te proberen om deze in je S1366 moederbord te duwen ;)
Ik gok dat ze er momenteel 12 niet op zouden krijgen. Of het is marketing, eerst een van 10 uitbrengen, daarna een van 12, daarmee rek je de levensduur van de lijn behoorlijk op.
Wat ik me wel afvraag.... Sommige slechte software gebruikt gewoon maar één thread. Bijvoorbeeld Delphi 2007 gebruikt bij het compileren maar één thread. Op een dualcore systeem zie je dan een belasting van 50 procent en duurt het effectief langer dan op een singlecore met een iets snellere core (maar wel maar één). Dan gaat dat soort software op een proc als deze dus maar max. 10 procent benutten? Mmmm....
Tijd voor een update van de compiler dus.
Een makkelijke manier om dit soort pakketten sneller te maken is om meerdere source files tegelijk te compileren.
Waarom is 10 een apart aantal? Zijn er ergens dergelijke (al dan niet natuurkundige) regels vastgelegd over het aantal cores dat een CPU moet hebben? Als je 10 cores een vreemd aantal vind, dan zou je hetzelfde kunnen zeggen van 12 cores. Dat aantal is namelijk ook niet echt ergens op gebaseerd. Logische aantallen anders dan gewoon een veelvoud van twee zijn verdubbelingen, dus: 2, 4, 8, 16, en daar valt 12 ook buiten de boot. Maar dergelijke stappen zal technisch/financieel wel niet mogelijk zijn, anders deden ze het wel. 10 is juist een heel logisch aantal als veelvoud van 2.

[Reactie gewijzigd door ravenamp op 22 juni 2010 11:30]

Een machine met 40 cores... Welkom in de toekomst net als in de jaren 60, 70, 80, 90, 00 en 10 hebben we nu in de jaren 20 echte mainframes met tot wel 100 cores die allemaal een dele van een veel groter proces uitvoeren. Alleen hebben we er veel langer over gedaan en hebben we nog steeds enorme problemen om de failover, redundancy en reliability van deze systemen in de buurt te laten komen van de nog steeds bestaande mainframe systemen die al sinds de jaren 60 laten zien hoe het ook kan.

Ik snap dat Intel deze kant op beweegt maar waarom kijken ze niet heel erg veel beter naar de mainframe wereld. Natuurlijk is het voordeel van de Intel technologie dat het gebaseerd is op realtime processen waar een mainframe over het algemeen in batches werkt maar toch. Heel erg veel van de technieken die in de mainframe wereld standaard zijn zouden dit soort machines heel erg goed kunnen helpen om veel betrouwbaarder te worden dan de huidige oplossingen.
Ik werk met zo'n beetje alle processoren en systemen die op dit moment op de markt zijn maar als ik kijk naar een leuke IBM kast met een paar honderd processors of een rij van die kasten met duizenden processoren die al weer 8 jaar lang gewoon hun ding doen zonder ook maar een enkele outage. Natuurlijk klapt er wel eens een onderdeel uit maar het heeft nog nooit tot een failure van het systeem geleid. En ik vergelijk dit met een van de vele Intel/AMD systemen dit eigenlijk ieder jaar wel een reboot nodig hebben omdat het OS geupgrade wordt, er meer geheugen bij gestoken wordt, een processor vervangen moet worden etc, etc dan vraag ik me toch af waarom doen we nog steeds zo moeilijk?

Ik denk dat als Intel niet in de richting van veel betere moederborden gat waar je on te fly geheugen bij kunt prikken CPU's toe kunt voegen of onderdelen kunt vervangen dan komen we al snel op een punt uit waar je eigenlijk niet meer veder kunt groeien met het aantal processoren per systeem gewoon omdat het te groot wordt en de downtime die komt kijken bij een simpele upgrade gewoon niet meer acceptabel is voor de meeste bedrijven.
1) Memory management van een mainframe is behoorlijk traag en op die manier totaal niet geschikt voor alle soorten processen te draaien.

2) Downtime ten gevolge van een upgrade is verleden tijd door virtualisatie. Elk zelfrespecterend systeembeheerder draait zijn servers virtueel. Moet er ergens iets gewijzigd worden dan wordt alles netjes verplaatst en kan je HW werken uitvoeren. Load balancing is ook een handig bijkomend voordeel. Enkel de middelmatige bedrijven die geen geld hebben voor virtualisatie kennen dit probleem, maar zij moeten ook niet zeuren over downtime.
nieuws: Chipfabrikant Tilera introduceert eerste cpu met 100 cores

het gaat niet om het aantal cores, het gaat erom wat je ermee doet.
voor de meeste programma's is een quad, of zelfs een dualcore al overkill.
Intel's succes en de ondergang van de mainframe business is simpel uit te leggen: Mainframes zijn onbetaalbaar duur voor wat ze bieden.

Waarom heeft een mainframe bijvoorbeeld zulke grote aantallen cores? Simpel: de cores zelf zijn bijzonder traag. Ik druf niet precies aan te geven wanneer de per-core performance van x86 CPU's hoger werd, maar het zal ergens in het 486/Pentium 1 tijdperk zijn geweest.

Ook voor failover en reliability betaalde je de hoofdprijs. Heel vaak was het simpelweg voordeliger om twee x86 machines te draaien. Ok, misschien faalde er 1, maar dan nog had je sneller resultaat.

Het probleem van IBM (want dat is de enige overgebleven speler) was nog te overzien in de tijd dat x86 tot single-core machines beperkt was. Maar nu x86 ook on-chip ECC heeft gekregen, multi-core ontwerpen, snelle I/O met SSDs, en bovendien ook nog het snelste geheugen (DDR3) is alleen de hogere prijs nog een verschil.
Ik blijf het vies vinden : cores * 2 als ze hyperthreading ondersteunen. Hyperthreading zorgt op een core niet voor een volwaardige extra thread. Zeer misleidend.
Maar is wel sneller als de software het ondersteund, dus zo slecht is het nog niet, zolang t maar werkt!
Vraagje he, als de software het NIET ondersteund betekend het dan dat het trager werkt dan als HT uit staat ?
Theoretisch gezien kan HyperThreading Technology (HTT) voor 30% meer performance zorgen. in de praktijk is dat maximaal meestal maar zo'n 17%.
Helaas kan HTT er inderdaad ook voor zorgen dat een CPU in bepaalde programma's minder presteert.

[Reactie gewijzigd door Ghost Dog op 21 juni 2010 14:42]

Dit is niet helemaal waar.

Ik crunch en als ik HT aanzet zie ik toch wel zo'n 50% snelheids winst.
Ondertussen is in de meeste server OS'en een scheduler ingebouwd die het verschil maakt tussen fysieke cores en Hyper-Threaded logical cores. De scheduler zorgt er zelf voor om de logical of de fysieke cores te gebruiken naar gelang de schaalbaarheid van de applicaties. Hierdoor is met de huidige versie van HyperThreading en de laatste OS'es wel degelijk een grotere workload te bedienen dan zonder HT.

Let op, dit gaat wel om Server chip niet om een desktop chip ....
we hoeven normaliter gesproken eigenlijk niet meer dan 4 "kernen" dus neem een 8 of 16 core processor, bind de kernen in paren of viertallen en je krijgt een quad-core met gruwelijk veel nuttige snelheid?.
En hoe zie je dit voor je?

De reden dat veel programma's niet om kunnen gaan met meerdere kernen, is omdat elke berekening die het programma laat uitvoeren, afhankelijk is van de uitkomst van de berekening die het daarvoor heeft laten uitvoeren.

Als je 2 of 4 kernen samen neemt om er één virtuele kern van te maken, zit je alsnog met het feit dat er 4 berekeningen naast elkaar worden uitgevoerd, tegelijk dus. Als je programma alleen kan werken als alle berekeningen achter elkaar worden uitgevoerd, kun je van die 4 kernen er maar 1 gebruiken, dus van je virtuele kern kun je maar 25% gebruiken.

Er zijn tegenwoordig steeds meer programma's die 2, of zelfs 4 cores ondersteunen. Deze kunnen dus 2 of 4 berekeningen tegelijk laten uitvoeren, omdat ze zo zijn geprogrammeerd dat die 2 of 4 berekeningen niet afhankelijk zijn van elkaars uitkomst. Neem je dan echter 8 of 16 cores, worden er alsnog maar 2 of 4 gebruikt, tenzij het programma ook met 8 of 16 cores kan werken. Dit komt echter nog maar weinig voor... (op de consumentenmarkt dan)

Kortom, het is niet mogelijk om meerdere kernen samen te nemen om er één virtuele kern van te maken, omdat een eigenschap van een kern is dat alle berekeningen achter elkaar worden gemaakt, en niet tegelijk. Ook al koppel je meerdere kernen, deze eigenschap zul je dan nooit krijgen.

Maar toch, ik geef toe, het idee is leuk :9
Ik heb eigenlijk geen idee of dit mogelijk is. Maargoed ik dacht aan een 8-core die dan 4x2 of 2x4 berekeningen maakt, omdat de keren samen zijn gebonden..

Zoals je zelf zegd: Er zijn tegenwoordig steeds meer programma's die 2, of zelfs 4 cores ondersteunen. Deze kunnen dus 2 of 4 berekeningen tegelijk laten uitvoeren, omdat ze zo zijn geprogrammeerd dat die 2 of 4 berekeningen niet afhankelijk zijn van elkaars uitkomst.

Dan gaat dit toch juist wel op? (mischien sla ik de plank wel helemaal mis, het is ook idd meer een idee, maar ben wel benieuwd :P)
Intel heeft net als AMD (of elke chip bakker) niet altijd goede yields. De heet hoofden van intel waren nou niet echt bepaald voorbeeld van goede yields. Bij een die-shrink verbruikten ze net zoveel energie en werder nog heter.. En vroeger (wat generaties terug) was het ook niet altijd feest.
De echte threadmachine is nog altijd de Sparc. De ultrasparc T2 bv. is een octocore met 8 threads per core. Er zjin natuurlijk afwegingen gemaakt maar als je echt veel draadjes wilt hebben, dan is dit nu reeds mogelijk.

De idee van een mainframe is niet zozeer rekenvermogen maar wel op I/O en betrouwbaarheid. Eender welk onderdeel mag stuk gaan, de machine blijft verderwerken. Dit vereist dus dat alles, inclusief CPU's, hotswappable zijn. De Westmeres van Intel zijn hiervoor niet geschikt denk ik.
12 cpu's op 32nm zal te warm zijn zker :?
Het zou ook kunnen dat de toegepaste strategie lijkt op die van AMD : slechte 12-core modellen relabelen als 10-core modellen. Zo heb je wat meer fouttolerantie op die gigantische Die.

Dat dat dan ineens als het topmodel gemarket wordt, zal waarschijnlijk liggen aan het feit dat de yields erg laag liggen.

[Reactie gewijzigd door successor op 21 juni 2010 11:26]

Denk niet dat het dat is hoor. Dan zou men toch ook 12-core's op de markt brengen. Men zal toch geen producten gaan maken waarvan men weet dat er geen enkel exemplaar zonder fouten zal gemaakt worden. Hexacores zijn toch ook gewoon processors met zes cores op, en niet octacores waarvan er 2 zijn uitgeschakeld.

Minder cores = minder transistors = makkelijker te maken. Dat is volgens mi het enige dat je er achter moet zoeken.

[Reactie gewijzigd door Phate_13 op 21 juni 2010 11:30]

Of de hoeveelheid werkende 12 cores is ver beneden verwachting. Wellicht dat ze de goed werkende 12 core modellen verzamelen en uitgeven op een later moment...
de yields van 6-core processoren zijn goed, je gaat me niet vertellen dat de yieds van 12-core processoren zo veel tegen gaan vallen dat ze allemaal worden verkocht als 10-cores

en anders verkoop je een aantal 12-cores voor boven de €1000, benchers blij, intel blij

overigens, een hexacore bestaat ook maar uit 2 aan elkaar geplakte tripple cores: dat is ook niet bepaald een macht van 2..
Intel's hexacores zijn native, single die, dus geen aan elkaar geplakte triplecores. Hetzelfde geldt voor de hexacores van AMD.
Aangezien Intel bekend staat om ze goede yields verwacht ik niet dat ze nu ineens de AMD tactiek gaan gebruiken, helemaal omdat ze het dan waarschijnlijk al eerder hadden gedaan!

Maar volgens jouw theorie kunnen ze dus ook al tijden deze CPU maken maar door slechte yields enkel 8-cores hebben uitgebracht (manke 10-cores) en nu verkopen ze de goede 10-cores die ze hebben opgespaard :P

[Reactie gewijzigd door watercoolertje op 21 juni 2010 11:38]

Minder cores = minder transistors = makkelijker te maken. Dat is volgens mi het enige dat je er achter moet zoeken.
Gigantisch wilde gok, geen idee hoeveeel waarheid er in zit: Beschouw een 3x4 matrix, met dus twaalf plaatsen. Steek in tien plaatsen cores (met L1 en L2 cache) en vul de overige twee plaatsen met L3 cache. Naast L3 cache moet er ook nog ergens een memorycontroller bijgedumpt worden.
Op die manier krijg je een mooie rechthoekige of vierkante die, iets wat over het algemeen wenselijk is.
Zo heb je wat meer fouttolerantie op die gigantische Die.
Intel kennende is dit geen gigantische die maar twee dies van een Westmere EP.
Het zou ook kunnen dat de toegepaste strategie lijkt op die van AMD
De strategie van AMD tot op heden is dat ze een processor op 1 die bakken maken.
Niet meer. De 12 cores zijn gewoon 2 hexacores. AMD heeft al lange tijd terug toegegeven dat het vasthouden aan alles op 1 die een strategische fout is geweest waardoor men achter liep op Intel. Nu doet men dus hetzelfde als intel. Single die als het kan en tussen door twee dies combineren om het maximale uit een ontwerp te halen en competitief te blijven.
niet als het 12 atom cpu's zijn

de juiste benaming is trouwens core

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True