Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 30 reacties

Intel heeft op de International Supercomputing Conference een nieuwe processor-architectuur onthuld. Chips met de Many Integrated Core-architectuur krijgen meer dan 50 individuele cores en worden met een 22nm-proces geproduceerd.

Intel richt zich met MIC op wetenschappelijk onderzoek waarbij veel parallelle berekeningen moeten worden gedaan. Ook is de architectuur volgens de fabrikant goed bruikbaar bij het doorrekenen van financiële modellen en weersvoorspellingen. Intel heeft niet bekendgemaakt welke instructieset wordt gebruikt, maar het gaat vermoedelijk om een afgeleide van de x86-set. Het bedrijf zegt namelijk dat voor MIC-chips dezelfde algoritmen, tools en programmeertechnieken kunnen worden gebruikt als bij Intel Xeon-chips. Een team bij CERN had maar twee dagen nodig om een complexe benchmark, geschreven in C++, naar de nieuwe architectuur te porten.

Het bedrijf wil de nieuwe processors in supercomputers als aanvulling op zijn Xeon-chips inzetten. Volgens Intel zou het gros van de berekeningen op de oudere Xeon-chips gebeuren, waarbij de MIC-processors taken afhandelen die goed parallel kunnen worden uitgevoerd. De eerste development kits worden momenteel onder de naam Knights Ferry naar ontwikkelaars gestuurd.

De MIC-architectuur is gebaseerd op verschillende projecten die Intel had lopen, zoals de Single Chip Cloud-processor en het Larrabee-project. Dat laatste was Intels poging om een videokaart te ontwerpen op basis van een groot aantal x86-cores op één chip. Die ambitie heeft het voor de komende paar jaar op de lange baan geschoven.

Moderatie-faq Wijzig weergave

Reacties (30)

Ik ben benieuwd naar de layout van de CPU. Is deze 2x 5x5 of 6x8 +2 want 50 is geen perfect vierkant. Ik neem overigens aan dat deze cores geen out-of-order pipeline kennen om de cores klein te houden en hiermee hoogstens te vergelijken zijn met de P5 architectuur.
Er staat een foto van de chip op de intel site:
http://download.intel.com...mages/Aubrey_Isle_die.jpg

Daaruit zou ik afleiden dat hij uit drie rijen cores bestaat, met 10, 12, en weer 10 cores, voor een totaal van 32.

Nog wat meer details overigens, te vinden in de keynote presentatie die ze hebben gegeven gisteren: (pagina 34)
http://download.intel.com..._2010_Skaugen_keynote.pdf

* 32 cores, 1.2 GHz
• 128 threads at 4 threads / core
• 8MB shared coherent cache
• 1-2GB GDDR5

Maar het moet dus op dit moment gezien worden als een accelerator architecture, dus iets wat net als je GPU naast je CPU zit en waar je bepaalde computationele taken naar kan offloaden.
Ten eerste is er naast de cores ook nog wat ruimte nodig voor gedeelde dingen en ten tweede gaan ze er vast vanuit dat niet alle cores werken en rekenen ze er dus op dat ze een paar moeten uitschakelen (tenzij het losse dies zijn). En als laatste 10x5 is ook heel goed mogelijk het hoeft namelijk echt niet vierkant te zijn en de afzonderlijke cores hoeven ook niet vierkant te zijn.
Intel richt zich met MIC op wetenschappelijk onderzoek waarbij veel parallelle berekeningen moeten worden gedaan
Waarom word deze 50-core CPU ook niet voor de consument op de markt gebracht? Als het toch x86-based is, moet dat toch gewoon draaien met de gangbare OS-en?

De meeste OS-en onderstenen middels multithreading toch ook parallele berekingen op de diverse cores. Lijkt me dan dat die er toch ook van zouden kunnen profiteren?

Of is de prijs zo hoog dat het niet interessant is voor consumenten o.i.d.?
x86-based != x86
Hoeft niet zo te zijn, een Chrysler Crossfire was Mercedes SLK based, werken alle Mercedes onderdelen op de Chrysler of omgekeerd??
Neen, dat gaat dus niet!!
Met dit is het net zo, dus zal de normale x86 pc er niet mee willen werken.
Als iets ergens op gebaseerd is, wil niet zeggen dat het gelijk is/onderling uitwisselbaar.
Ligt er maar net aan wat ze gebruiken van die instructieset.
Snuggere opmerking van een ICT-er :P
Snuggere opmerking van mij die geen symbolen snapt :+ :o

[Reactie gewijzigd door DaLoona op 1 juni 2010 09:05]

Jij bent wel ICT-er? Vast geen programmeur ;)

On-topic: ik zie absoluut geen nut voor de consument in zo'n product. Sterker nog: ik zie juist meer in een omgekeerde trend: gecentraliseerde rekenkracht en alleen domme clients (=cloud computing).

Niet iedereen heeft ten alle tijde veel rekenkracht nodig, dus is het eigenlijk zonde om lokaal zoveel te hebben. Beter kun je dit centraal houden, dan heb je opeens nog maar 60-70% van de totale rekenkracht nodig (ruwe schatting).
Klinkt leuke als we dadelijk allemaal op glasvezel zitten en supersel met die snelle server verbonden zijn. Dan kun je online photoshopen, video's bewerken enz.

Tot die tijd is de oude snelle eigen pc nog steeds de beste oplossing.
Maakt niet uit, het is nog vroeg :P
!= betekent NOT EQUAL TO..... Over snugger gesproken ;)

http://www.cplusplus.com/doc/tutorial/operators/

[Reactie gewijzigd door humbug op 1 juni 2010 09:02]

Ik denk dat een consument weinig heeft aan dit soort processors, software is misschien wel multithreaded maar je ziet zelfs bij 2 procs (8 cores) de efficiŽntie per core afnemen volgens mij...

Ik zat zelf juist de denken aan web/database servers aangezien die veel onafhankelijke connecties afhandelen

Iemand met meer kennis hierover?
Elk denkbaar systeem die veel handelingen tegelijk zouden moeten uitvoeren hebben hier baat bij. :) De handelingen zouden dan niet al te zwaar moeten zijn, omdat ik niet verwacht dat elke core te vergelijken is met een hedendaagse high-end singelcore cpu.
Die handelingen moeten aan de andere kant net wel vooral uit berekeningen bestaan, dus wel 'zwaar' voor de cpu.
Voor veel taken vermoed ik dat de doorvoersnelheid van het geheugen, netwerk of harde schijf anders de bottle-neck zal zijn, waardoor extra cores toevoegen weinig meerwaarde zal bieden.
Ja inderdaad zoiets dacht ik ook... soort van zoals die sun procs (het idee niet de architectuur)


Mjaah mijn website krijgt nog niet zoveel bezoekers dat hij hier profijt van kan hebben haha

[Reactie gewijzigd door Mellow Jack op 1 juni 2010 08:59]

De instructiechipset is ( zoals te lezen ) een afgeleide van de x86. Dus niet x86, waardoor de x86 waarschijnlijk niet zullen draaien.
Verder zal de toegevoegde waarde van zoiets niet zoveel zijn voor de consument, en word het waarschijnlijk ook veel te duur.
Waarom word deze 50-core CPU ook niet voor de consument op de markt gebracht? Als het toch x86-based is, moet dat toch gewoon draaien met de gangbare OS-en?
Of je een bepaald OS op een systeem kan draaien ligt natuurlijk aan veel meer dan alleen de instructieset. Alle gangbare multicore/multithreading software gaat uit van een coherent shared memory bijvoorbeeld, en ik moet nog zien dat deze processor dat zal ondersteunen. Dit is in ieder geval niet het geval bij de Intel SCC, en dit is mijns inziens ook waar het heen zal gaan met toekomstige manycore architecturen. Het is gewoon niet schaalbaar om geheugen (binnen redelijke tijd) gesynchroniseerd te houden tussen zoveel cores.

Ik moet zeggen dat het me wel verbaasd hoe snel Intel nu met deze architectuur komt, en er ook meteen alweer gesproken wordt over het versturen van development kits naar ontwikkelaars. De SCC borden zijn namelijk nog steeds niet geleverd - die zouden oorspronkelijk in Mei/Juni komen maar volgens mij is dit alweer vertraagd. (Ik hoop er binnenkort een te hebben voor mijn onderzoek)
Ik denk dat je dit overdrijft. Zowel Windows als Linux hebben al een tijdje NUMA (Non-Uniform Memory Access) ondersteuning. NUMA betekent dat niet alle cores direct bij alle geheugen kunnen, en je hebt gelijk dat zoiets met 50 cores lastig kan worden. Anderzijds, met 50 cores op 1 chip zit je sowieso met het probleem dat ze 1 socket delen, en alle communicate over die ene socket naar het geheugen moet. Je hebt dus al een fysieke bottleneck, maar ook een goede mogelijkheid om een uniform geheugen model te faken.
Nee ik overdrijf niet, want dit is exact wat het geval is bij de SCC. Daar kan je niet zomaar zonder ingrijpende veranderingen namelijk Windows of Linux op het gehele systeem draaien, en de kracht van alle cores exploiteren. De SCC heeft namelijk geen cache coherency - er wordt alleen maar een enkele address space gedeeld en vier memory controllers. Je kan wel op elke core afzonderlijk Linux draaien. (en in theorie ook wel Windows lijkt me - maar ik heb daar nog niets over gehoord). Het is wat dat betreft heel wat anders dan een NUMA systeem.

Wat je over NUMA opmerkt is wel waar; dat is prima ondersteund door Windows en Linux, maar niet echt relevant hier.Sowieso zal NUMA op een x86 architectuur in het algemeen altijd CC-NUMA zijn, dus NUMA met cache coherency. Een goed voorbeeld hiervan zijn bijvoorbeeld multi-socket AMD Opteron systemen, waar elke socket zijn eigen memory controller heeft en elke core geheugen van een andere socket kan benaderen via de Hypertransport bussen (dus Non-Uniform). Tussen de caches van de cores zorgt het MOESI cache coherence protocol er dan weer voor via messages over de Hypertransport bussen dat de data voor alle processoren up to date blijft. Dit is dus exact het zelfde als wat ik bedoelde met 'coherent shared memory'. Daar heb je dan ook weinig speciale OS ondersteuning voor nodig om er uberhaupt op te kunnen draaien; je haalt er alleen wel heel veel voordeel uit als je OS zich er van bewust is dat het op een NUMA architectuur draait, omdat het dan slimmer om kan gaan met het plaatsen van processen en data over de verschillende processoren en memories.

Overigens heb ik inmiddels wat meer informatie gevonden in de keynote presentatie van Intel (zie een reactie van mij iets verder hieronder), en het blijkt dat de MIC in tegenstelling tot de SCC wel degelijk cache coherency implementeerd. Maar dat neemt niet weg dat ik nog steeds van mening ben dat dit in de toekomst niet meer haalbaar zal zijn, als we misschien wel duizenden cores op een chip gaan hebben.

Het bleek ook dat de MIC als een co-processor accelerator architectuur geimplementeerd is, dus eerder vergelijkbaar met de hedendaagse GPU's. De vraag over wat voor OS je er op gaat draaien is dan dus ook niet relevant, want dat draait dan nog steeds op je klassieke x86 multicore CPU. De toegevoegde waarde van de MIC is waarschijnlijk dat het volledig via de klassieke manier te programmeren is omdat het volledige x86 cores bevat, en dat je niet 'moeilijk' hoeft te doen met bijvoorbeeld je code herschrijven binnen de beperkingen van CUDA.
Waarom word deze 50-core CPU ook niet voor de consument op de markt gebracht? Als het toch x86-based is, moet dat toch gewoon draaien met de gangbare OS-en?

De meeste OS-en onderstenen middels multithreading toch ook parallele berekingen op de diverse cores. Lijkt me dan dat die er toch ook van zouden kunnen profiteren?
Multicoreprocessing is nog niet zover doorontwikkeld voor de consumenten PC als je wel zou denken - er zijn nog te veel programma's en taken die meer baat hebben bij weinig snelle cores, en ik denk dat dit veel niet-al-te-vlotte cores zijn. Netto zal hij wel sterker zijn dan gangbare CPU's, maar om ze volledig te benutten zul je toch speciaal geoptimaliseerde software moeten hebben.
Waarschijnlijk een veel te hoge prijs, waardoor het niet interessant zou zijn om dit voor consumenten uit te brengen.

[Reactie gewijzigd door Redblader op 1 juni 2010 08:39]

echter voor studios zoals Dreamworks of pixar
zou dit een wonder zijn om op te renderen (neem ik aan.)
ook clothsimulations en particles zouden dan echt realtime gepreviewed/rendered kunnen worden,. of in elk geval veel dichterbij komen,

en die studios geven dan echt niet om de prijs...
(zeker als het stroomkosten scheelt)
Ik denk toch dat die meer baat hebben bij technologieŽn als Cuda, waar ze honderden ipv vijftig 'cores' ter beschikking hebben voor het renderen.
Zou het onderzoek naar de Larrabee chip toch nog resultaten gaan opleveren ?
De MIC wordt dan wel geen graphics chip, maar de many-core parallelle verwerking die Larrabee zou hebben komt toch in de MIC terug. Dus het onderzoek naar de Larrabee wzou best een betrekking kunnen hebben op deze MIC.
Zoals dus ook in het artikel staat ;)
Dit is een kleine stap naar de toekomst.

Maar dat de instructieset x86 based is, is geen goed idee.
Men had beter direct voor een vernieuwende set gekozen,
mss hun mislukte Itanium uit de kast gehaald?

Nu zal de tijdswinst minimaal zijn, omdat er nog geen (echte) parallele code bestaat.
Als deze cpu dat dan nog wel ondersteunt.

Multi cores zijn maar een trukje om de limieten van de huidige cmos technologie te omzeilen, geen parallel code.
Het nadeel van een nieuwe ISA is dat je een nieuwe compiler nodig hebt. Wat is precies het technische voordeel?

Multi-core chips behoren tot de meest parallelle hardware die bestaat. Dat heeft geen bal met de huidige CMOS technieken te maken. Je vergelijking met code is ook onzin; hardware en software kun je niet zo vergelijken. Bovendien, parallelle code is alleen uitvoerbaar op een MIMD architectuur zoals multi-core; SIMD-parallelle hardware kan geen parallelle code uitvoeren. Voorbeeld: SSE; 1 instructie tegelijk.
Je hebt een ISA die de littekens heeft van de x86 architectuur.
In de toekomst zijn er ook nieuwe compilers nodig...

Multi-core chips bestaan omdat men een single core niet sneller kon maken, limiet van CMOS ( grootte, frequentie, ...)

Een mooie paper over de toekomst: The HIPEAC Vision
Denk niet dat we voordeel zien voorlopig van zoveel "x86 " cores op een thuis computer.
Elk process op je computer heeft dan zo goed als zijn eigen core. Voor een snelle game/work computer heb je denk ik een 4-6 tal snelle cores nodig en verder misschien het hetzelfde aantal daar van cores op halve snelheid daarvan 8-12 ipv 50
Een team bij CERN had maar twee dagen nodig om een complexe benchmark, geschreven in C++, naar de nieuwe architectuur te porten.
En wij als tweakers hebben schijnbaar geen belang bij de resultaten? :/
De werkelijke benchmark resultaten zullen nog anderhalf jaar op zich laten wachten, wegens een defect aan een CERN mainframe.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True