Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 175 reacties

Intel heeft een processor met maar liefst 48 cores gepresenteerd. De cores zijn gegroepeerd in 24 paren die ieder over een eigen L2-cache beschikken. De cpu's worden in een zeer kleine serie uitgebracht en zijn alleen voor onderzoek bedoeld.

De chip werd vrijwel geheel in Europa ontwikkeld en geproduceerd, terwijl chipontwerp normaal aan de Amerikaanse onderzoekslabs van Intel is voorbehouden. In het Duitse Intel Lab in Braunschweig werd de many-core chip niet alleen ontworpen, maar ook getest en gevalideerd. De processor, die de omschrijvende naam single-chip cloud computer of scc kreeg, wordt volgens een 45nm-procedé gebakken. De cpu telt 48 cores, een record voor reguliere IA32-chips, en is opgebouwd uit ruwweg 1,3 miljard transistors die een oppervlak van 567 vierkante millimeter beslaan.

De 48 cores zijn ingedeeld in 24 dualcore-'tegels', die naast de twee rekenkernen met ieder hun eigen L2-cache uit een message buffer en een router bestaan. De message buffer zorgt voor de communicatie tussen de cores op een tile en de router verzorgt de uitwisseling tussen verschillende tiles, waardoor een mesh-netwerk met een bandbreedte van 256GB/s ontstaat. Zes tiles delen een geheugencontroller, die met z'n vieren samenwerken om maximaal 32GB ddr3-geheugen aan te spreken. Elke core heeft 384kB geheugen en de cache kan softwarematig tussen cores gedeeld worden, waardoor de vertragende invloed van synchrone caches tussen cores verdwijnt.

De 48-koppige processor werkt als netwerk van 4x6 eenheden, ieder met twee cores. Een fijnmazig energiemanagement beperkt de vermogensopname, die schommelt tussen 25 en 125W. De spanningen kunnen per vier tegels van dualcores geregeld worden en de kloksnelheid van elke tegel kan individueel geregeld worden en op die manier op de uit te voeren taak afgesteld worden. Ook de spanningen en frequenties van de on-die netwerkrouters en de geheugencontrollers kunnen individueel geregeld worden.

De processors zullen enkel voor onderzoeksinstellingen beschikbaar komen: Intel zou er slechts ongeveer honderd produceren. Onder meer de TU in Zürich werkt met Intel Labs samen en ontwikkelde Barrelfish, een op Linux gebaseerd besturingssysteem dat op de SCC draait. Middels verschillende demonstraties liet Intel zien hoe de SCC functioneert; hierbij werden onder meer het energiebeheer en de mpi getoond, en werden applicaties voor vloeistofdynamica en distributed javascript gedraaid.

Hoewel de processor primair bedoeld is voor onderzoeksinstituten om de volgende stap naar processors met meer cores voor te bereiden, zullen sommige technieken ook naar consumentenversies van processors doorsijpelen. Ook blijft Intel werken aan processors met nog meer cores: de huidige techniek zou zich al laten schalen tot cpu's met 256 cores aan boord.

SCC testopstelling SCC chip-layout SCC die SCC performance monitor
Moderatie-faq Wijzig weergave

Reacties (175)

1 2 3 ... 6
Waarom brengt men deze ook niet gewoon op de markt, ipv hem alleen voor onderzoekers te produceren?

Lijkt me namelijk op zich handig voor een virtualisatie met bijvoorbeeld VMware, omdat je daar per fysieke CPU betaalt, en niet per core. Dus hoe meer cores op één CPU hoe voordeliger en aantrekkelijker het word.

Alleen is 32 GB RAM wel een beetje weinig voor een 48-core CPU, waarom is dat niet hoger? Er zijn nu al systemen die 128 GB aan kunnen, dus dat lijkt me toch vrij eenvoudig?
Het grootste hindernis om deze chip voor het grote publiek beschikbaar te stellen is dat hij ondanks zijn x86-cores toch niet werkt als een normale desktop/server-processor, in ieder geval op één heel belangrijk punt: cache-coherentie.

Een normaal systeem zorgt er automatisch voor dat alle cores gegarandeerd met de nieuwste versie van de data in het geheugen werken. Deze chip doet dat niet, waardoor het bijvoorbeeld voor kan komen dat Core #12 een nieuwe waarde wegschrijft, maar Core #32 ondertussen vrolijk door blijft rekenen met de oude waarde.

Het is niet moeilijk om te zien dat er problemen kunnen ontstaan als progammeurs hier geen rekening mee houden (wat ze voor normale x86-systemen en zelfs voor de andere manycore x86-architectuur die in ontwikkeling is - Larrabee - nooit hebben gehoeven). Daarom zal het praktisch nut van deze chip beperkt blijven tot Microsoft, VMware, Red Hat, etc. hun software aanpassen om danwel softwarematig coherentie af te dwingen, danwel potentiele coherentieconflicten volledig te voorkomen. Tot dat gebeurt heb je er buiten het lab weinig aan.

[Reactie gewijzigd door Wouter Tinus op 2 december 2009 21:41]

ik neem eigenlijk aan dat dit larrabee is.
48 cores en veel andere overeenkomsten
Nee dit is niet Larrabee, die is namelijk wel cache-coherent en werkt met een relatief simpele ringbus in plaats van met dit programmeerbare meshnetwerk.
Een normaal systeem zorgt er automatisch voor dat alle cores gegarandeerd met de nieuwste versie van de data in het geheugen werken.
Geen enkele x86 processor zorgt daarvoor. Als dat wel het geval zou zijn, zou je performance direct instorten, omdat elke write dan gesynchroniseerd en naar andere caches gekopieerd zou moeten worden.

[Reactie gewijzigd door superskippy op 2 december 2009 22:10]

Integendeel, daar zorgt iedere x86-processor voor. De implementatie die jij voorstelt is wat naief en inefficient. In werkelijkheid is het niet nodig om de data naar alle caches te kopieren, maar alleen om de andere cores te laten weten dat er naar een bepaald geheugenadres geschreven is, zodat ze *als* ze dat adres gecached hebben en opnieuw willen gebruiken, ze eerst de nieuwe data zullen opvragen.

De MOESI en MESIF protocollen die respectievelijk AMD en Intel gebruiken in hun huidige producten zijn nog stukken slimmer dan wat ik hier net vertel. Gekoppeld met trucs op om communicatie tussen verschillende sockets te beperken - voornamelijk door bij te houden wie welke data gebruikt - is het redelijk goed schaalbaar. Maar het blijft natuurlijk blijft ver van 'gratis' in termen van performance om dit te doen, zeker met tientallen of honderden cores, vandaar dat Intel nu experimenteert met een chip die het niet doet.

[Reactie gewijzigd door Wouter Tinus op 2 december 2009 22:58]

Waarschijnlijk omdat:
- de individuele cores niet echt 'je-van-het' zijn.
- de productie-kosten per CPU te hoog liggen.
- wellicht virtualisatie-technieken niet ingebouwd zijn.
- etc.
VMWare heeft meer last van het "switchen" tussen cores... Als je 1 cpu aan 1 machine toekent is dat al een heel groot voordeel...

Virtualisatie technieken zijn alleen maar een ander instructiesetje... En misschien een memorycontrollertje veranderen, maar de Cores zelf hebben hier vrij weinig mee te maken.
Inderdaad, gezien de oppervlakte van deze cpu en de warmteontwikkeling van 48 Penryn of Bloomfield cores kun je gerust zeggen dat dit uitgeklede cores zijn. De prestaties per core zullen dan ook niet om over naar huis te schrijven zijn. Raar dat hier geen melding van wordt gemaakt, alleen van de X86 compatibiliteit. Dat laatste zegt niks op zichzelf.

Dit is een promo stunt, misschien om AMD's Magny Cours ("many cores") wat minder goed te doen overkomen? Die cpu gaat het namelijk goed doen in het 2 socket segment volgens Anadtech: http://it.anandtech.com/IT/showdoc.aspx?i=3681&p=3

EDIT: is het Larrabee?

[Reactie gewijzigd door v0dka op 3 december 2009 10:55]

En wat dacht je dan van het marketing verhaal. Als ze eenmaal iets dergelijks uit brengen voor de gewone consument, is dat geen slimme zet. Dat zou de verkoop dermate in de war schoppen. Waarvoor zou Intel anders de "Tic-toc" strategie aanhouden? Als ze nu al 48 cores voor consumenten op de markt brengen, dan is het niet meer zinvol om met 20 of 32 (of welk lager getal dan ook) cores aan te komen.

Zoals ze het nu dan alles stapje voor stapje verbeteren, zorgt er voor dat Intel over 50 jaar ook nog bestaat (en ook nog steeds kan blijven door ontwikkelen/verdienen).
Ik denk dat de grootste reden is dat de 8- 12- 16- 24- en 32- core cpu's nog niet (genoeg) uitgebuit zijn. Daar valt nog veel meer te verdienen voor intel.

[Reactie gewijzigd door ravenamp op 3 december 2009 14:05]

Ja inderdaad, ik denk dat het een grote samenzwering is van Intel, AMD, ARM, Sun en IBM om lekker consumenten uit te persen en te laten betalen voor oude techniek, terwijl er in werkelijkheid al lang veel betere technologie bestaat die achtergehouden wordt omdat er zo meer geld verdient kan worden.

Waarschijnlijk is de CIA ook nog ergens betrokken, die hebben natuurlijk al wel toegang tot de echte cutting-edge technologie!

...

Of je bent gewoon een idioot als je echt gelooft dat het überhaupt mogelijk is om dit soort technologie commercieel te gebruiken, en dat een bedrijf als Intel iets achterhoudt voor z'n klanten. |:(
Hoe bedoel je, 'waarom brengen ze 'm niet op de markt'?
Welke markt? De markt voor fanatiekelingen die er $50.000 voor willen neertellen? Als jij dat hebt liggen, en je contacteert Intel, dan is er vast wel iets te regelen hoor. Dus in die zin istie al op de markt.

En natuurlijk niet nee, is deze niet op de markt voor mediamarkt-computers - letterlijk niemand zou er eentje kopen aldaar.
Lijkt me namelijk op zich handig voor een virtualisatie met bijvoorbeeld VMware, omdat je daar per fysieke CPU betaalt, en niet per core. Dus hoe meer cores op één CPU hoe voordeliger en aantrekkelijker het word.
Lezen, graag.

Hij heeft het erover dat deze processor voor VM's geschikt zou kunnen zijn, niet voor elke jan-boeren-lul. Het is iets naïef om te denken dat Intel zo'n processor op de consumentenmarkt zet.

Wildhagen's idee lijkt me trouwens nog best haalbaar ook; ik kan me indenken dat er bedrijven zijn die grote hoeveelheden Virtual machines hebben draaien, die met zo'n processor veel gemakkelijker te beheren zijn. Of de kosten voor de hardware vergelijkbaar zijn is een tweede.
Grote hoeveelheden VM's gebruiken is tot daar aan toe, maar denken dat een chip als dit daar verbetering in zou brengen is denk ik enigsinds verkeerd ingeschat. Het lijkt erop dat deze chip meer bedoelt is als een vorm van extreme multithread omgeving dan voor vele individuele processen zoals bij VM's het geval is.

Zeker als je kijkt naar het feit dat bij huidige VM omgevingen de bopttleneck niet de processor is, maar alle overige delen (RAM maximalisatie op bv 32GB, 4GBit netwerk poortjes en dan nog de max van de fiberchannels naar de EVA's bijvoorbeeld, daar zit je redelijk snel aan al. En dat niet alleen, een chip als dit gebruiken voor grootschalige virtualisatie op een enkel systeem is een gigantisch risico omdat je dan direct vele VM's afhankelijk maakt van een single point of failure.

Desalniettemin een erg intressant project van intel waarvan we zeker nog veel technieken terug gaan zien. Leuk overigens om te zien dat Intel blijkbaar zoveel vertrouwen heeft in de multicores en zich nouwelijks meer bezighouden met de performance per klokslag.
3 machines in gebruik nemen, vmotion erop en weg is je single point of failure. Bedrijven met normale cpu`s hebben misschien een blade server met 20 nodes om hetzelfde te bereiken.

Overigens heb ik nog nooit een cpu in een werkende pc kapot zien gaan. Het risico met 6 cpu`s in 1 systeem is zelfs vele malen groter. (6 cpu`s, 6 koelers etc etc)

Ik zie alleen maar verbeteringen, hoewel het natuurlijk onbekend is hou deze cpu performt en of er uberhaupt hardware extensies inzitten voor VM`s (ben de naam ff kwijt)
Hm hm hm, ik geloof dat er wereldwijd een markt was voor 6 computers, was iemand van IBM ofzo die dat zei...
Ik ben het wel met je eens op zich maar je deed me heel even aan die quote denken :)
En jij denkt serieus dat VMware hun pricing niet gaat aanpassen als iedereen op eens ipv 6 licenties (4 quadcores) 1 licentie gaat kopen?
niemand die serieus vmware doet gaat zo'n single point of failure nemen :)
Meer dan 1 server in een cluster? Ik heb echter het vermoeden dat zo een CPU met bak een stuk duurder zal zijn dan die al die quadcores met licenties bij elkaar...
VMWare pricing gaat nu al van een max. aantal cores uit (ik meen 6 voor de normale versies, enterprise plus en advanced 12 cores). Als je meer cores hebt zul je al weer meer licenties moeten hebben.
How does this policy affect my licensing costs on servers with less than 6 cores per processor?
When upgrading your hardware to multi-core technology, you do not need to pay additional licensing fees for a processor with up to 6-cores per processor. For example, if you purchase a two-socket server with each socket populated with a 6-core processor, you need to purchase only two processor licenses of VMware vSphere or related products for that server.

How does this policy affect my licensing costs on servers with 8-cores per processor?
When upgrading your hardware to a server with 8-cores per processor you may upgrade your license or purchase a new license for VMware vSphere Advanced or Enterprise Plus that allows you to deploy the applicable software on up to 12-cores per processor.

[Reactie gewijzigd door Sake op 2 december 2009 20:41]

Met andere woorden: Je mag er nog niet eens VMware op draaien, aangezien ze nog geen licentie model hebben voor meer dan 12 cores ;-)
"with less than 6 cores" <> "up to 6-cores"
Less than 6 is 5. Gewoon een dikke taalfout dus. Of is het weer eens Maandag ochtend?
Denk dat het maandag morgen is.
De vraag is "als je een server hebt met minder dan 6 cores...." Het antwoord is "Als je een server hebt met 6 cores of minder ...."

Klopt dus gewoon.
Intel heeft in een presentatie waar ik ooit bij was verteld dat ze uiteindelijke naar een systeem willen gaan waar een klant meer cores krijgt naar mate hij/zij meer geld uitgeeft. Klokfrequentie, cache etc. worden dan een minder belangrijk verkoopargument.

De presentatie is al een tijdje geleden, en inmiddels begint deze opzet al duidelijker naar voren te komen met hexa- en octacores in de pipeline.

Door nu spontaan een 48-cores proc. op de markt te brengen zouden ze hun eigen verkoopstrategie gedeeltelijk onderuit halen aangezien er tussen 4 en 48 cores nog een hoop zit. ;)
Het is ook niet echt een processor waar je veel zal mee kunnen doen. 4 nehalem cores verbruiken 130W. Moest er 48 cores inzitten met dezelfde kracht dan is dit gewoon niet haalbaar. Waardoor (momenteel nog) het enkel mogelijk is om (max) 4-cores en 6-cores te maken. Die wel (ongeveer) dezelfde kracht hebben met eenzelfde verbruik.
Een 48-core is gewoon nog belange niet haalbaar op dit moment.

Deze CPU heeft (MOMENTEEL) totaal geen nut voor consumenten. Een 6-core daarentegen heeft dat momenteel nog een beetje.
Zes tiles delen een geheugencontroller, die met z'n vieren samenwerken om maximaal 32GB ddr3-geheugen aan te spreken

dus in totaal 4x32 is 128
GB

[Reactie gewijzigd door johnkessels87 op 3 december 2009 17:51]

6 Tiles van 2 cores = 12 cores.
Deze 12 cores delen een geheugencontroller samen met zijn vieren om 32GB aan te spreken. 12x4=48 cores.

Dus totaal is gewoon 32GB. Let op de nadruk van samen en delen.

Edit: O ja en het is duidelijk dat 4x32 = 128GB

[Reactie gewijzigd door penetreerbeer op 3 december 2009 13:29]

Er zijn (als ik het goed lees) 4 groepen van 6 tiles die allemaal hun eigen geheugencontroller hebben en 32GB RAM hebben. Dus houdt het in dat het 4x32GB is 128GB in totaal. Of uiteraard 32GB voor 12 cores. ;)

Edit, wat inhoudt:
16GB voor 6 cores
8GB voor 3 cores
2,66GB voor 1 core en ik geloof niet dat jij meer als 2,66GB per core in je pc'tje hebt zitten ;)

[Reactie gewijzigd door Makine_31 op 3 december 2009 13:05]

VMware, moet het niet zo zeer van cpu kracht hebben, geheugen is zeker zo belangrijk, dus een module waar 32 gb op gaat zou op dat gebied interesanter zijn :).
ik dat de yield van een dergelijk monster niet commercieel haalbaar is. Nu worden de kapotte chips niet gebruikt, hierbij zitten ze aan de buren vat en kun je ze gewoonweg niet dumpen.
Met 24 dual-cores kan je toch gerust een paar defecte uitschakelen? Ok, dat vergt ook weer heel wat circuits om arbitraire cores te kunnen omzeilen, maar het lijkt me verre van onmogelijk. Zeker voor Intel.

Ik denk dat het grootste probleem de single-core prestaties is. Het is niet eenvoudig een chip te lanceren die, per core, trager is dan een voorganger.
Dat geeft me een idee: maak een mobo met twee sockets; de een voor een single-, dual- of quadcore cpu met zeer goede single core prestaties, en de andere socket voor zo'n many-core cpu voor applicaties die er volop gebruik van kunnen maken. Het OS draait op de few-cores en besteedt elke taak die daar geschikt voor is uit aan de many-cores. Alleen ik vraag me af of dat zin heeft, voor taken die echt goed paralel uitvoerbaar zijn wordt steeds vaker een gpu gebruikt.

[Reactie gewijzigd door Bonez0r op 3 december 2009 17:22]

of je neemt een normale hedendaagse cpu (duo, quad, i7) en combineert dat met een gpu, die eigenlijk uit heel veel kleine cores bestaat. en je gebruikt de gpu als polycore
Waarom zou het commercieel niet haalbaar zijn. Ze produceren een zut, zien wat de yields zijn en bepalen daar een prijs op.
Als er bedrijven zijn die het willen kopen, waarom niet, Intel kan er best geld aan verdienen.
Ik denk dat intel beter kan bepalen of iets voor hun rendabel is... denk niet dat jij het beter weet
Ach kom, 567mm2, dat is vergelijkbaar met NVIDIA's G200, en die deed het commercieel en qua yields (ondanks alle bullshit van Charlie) ook prima. Daarbij zou Intel voor deze chip veeeel hogere prijzen kunnen vragen dan NVIDIA voor de G200, minstens 10x hoger, dus reken maar dat het commercieel haalbaar is.
- er is geen software voor
- jij kunt hem toch niet betalen
Wat denk je van rendering en videobewerking software? dat zijn taken die zeer goed paraleliseerbaar zijn dus die zijn zeker gebaat bij 48 cores
Ferrari brengt hun F1wagen toch ook niet op de markt. Maar ze gebruiken de technieken wel in hun andere auto die rijke tiesten dan kopen.
Hm, geen bronartikel, dus kan het niet checken?
256GB/s = 256Gigabyte per seconde.. bij maximaal 32GB geheugen :o sick!
Maak ik nou een rekenfout, of heeft ie meer bandbreedte dan max geheugen?
Ik begrijp dat je ook met pci-express enzo nog wat bandbreedte afsnoept, maar gaat ie die 256GB/s echt gebruiken?
Hm, geen bronartikel, dus kan het niet checken?
Lang niet elk artikel op Tweakers.net heeft een andere site als bron. Waarschijnlijk zijn ze gewoon bij de presentatie geweest, of hebben op een andere manier contact gehad met Intel hier over :)
Er zijn wel een aantal bronartikels te vinden op internet hoor.
Bijvoorbeeld:
http://www.xbitlabs.com/n..._Core_Microprocessor.html
http://news.cnet.com/8301...ubj=news&tag=2547-1_3-0-5

[Reactie gewijzigd door Malantur op 2 december 2009 21:09]

hmm, opzich wel veel, maar mijn core i5 haalt ook meer dan 12GB/s met 4GB geheugen kan ie dus zijn hele geheugen in 300ms uitlezen..
Reken dan nog eens ongeveer 0,4ms per kloktik (gerekend op 2,5GHz), en dan staat je processor dus 750 kloktikken uit zijn neus te eten, terwijl hij op de volledige data wacht.

Goed, ondertussen kan hij al wel weer wat doen, maar mijn punt is dat meer in dit geval wel beter is. :)
Mits de data uit het geheugen snel genoeg aangeleverd wordt.
In het artikel staat dat de 256GB/s de verbinding tussen de tiles is, oftewel de communicatie tussen de cores.

Aangezien er 4 geheugen controllers zijn, 1 voor elke groep van 6 core, verwacht ik quad of zelfs octa channel, wat een maximale geheugenbandbreedte tussen de 35 en 70GB/s geeft ofzo, afhankelijk van de geheugensnelheid.

Binnen de core denk ik dat je die 256GB/s wel goed kunt gebruiken, mits de software er gebruik van maakt. En op zich valt het wel mee, de 5870 heeft met zijn l1 cache een totale bandbreedte van 1TB/s en de bandbreedte van het werkgeheugen op een videokaart gaat ook al richting en voorbij de 200GB/s,

Maar voor de thuisgebruiker is een verbinding van enkele GB/s met het werkgeheugen nu meer dan zat. Daarom heeft DDR3 ook weinig prestatiewinst ten opzichte van DDR2.
ik hoop dat die 48cores cpu over een paar jaar ook in de commercieele markt komt. dat lijkt me echt super _/-\o_
In 10 jaar zou je best eens 10000 cores kunnen hebben. Daar worden nu nl. al compilers voor gebouwd. Althans, zeker in een onderzoeksinstituut op een moederbord.
Zo zei men 10 jaar geleden dat we over 10 jaar op de 10 GHz zitten, om maar een voorbeeld te noemen. Meer cores erbij plakken is leuk, maar het is eigenlijk niet heel erg revolutionair. We zitten ondertussen een core race ipv een GHz race.

Dus wellicht dat we over 10 jaar in een andere race zitten en vind men een X aantal cores maar weer ouderwets. Dus ja, ik hoop hoop dat we over 10 jaar op z'n minst een fundamentele revolutie hebben op CPU gebied.

Zelf geloof ik nogsteeds meer in het gebruik van licht in een CPU ipv electronen. Dit lost zowel het warmte probleem als het stroomverbruik op, zoals het er nu naar uitziet. Maar ja, ik heb makkelijk praten he ;)

[Reactie gewijzigd door silentsnake op 3 december 2009 10:01]

mischien hebben we over tien jaar eindelijk quantum computers en zitten we in een quark race :D
Ik zou liever zien dat ze over 10 jaar met iets fundamenteel anders komen dan verder blijven doorgaan met maar meer en meer en meer cores.
Ik snap wat je bedoelt, maar zo is het toch ook gegaan met het aantal transistors op de single cores. Pas toen de limiet van singlecores in zich kwam is men daadwerkelijk na gaan denken over alternatieven.
Volgens mij valt er nog vrij veel performance winst te halen (helemaal nu er geschikte software aankomt) met multi-cores. Sowieso is er veel geld gestoken in deze trend en ze zullen dan ook niet snel weer iets compleet nieuws gaan introduceren.

De ware revolutie (optische computers) gaat nog wel even duren ben ik bang.
Zoals in het artikel beschreven staat, zullen technieken die voor deze processor gebruikt zijn, doorsijpelen naar consumenten CPU's. Eerst moeten de technieken uitvoerig getest en geoptimaliseerd worden zodat de yields omhoog gaan.

Je wil niet weten wat het kost om zo'n CPU te ontwikkelen. Reken maar op een bedrag van minimaal 7 cijfers.
hoe snel zal dit lopen? mhz of 500 per core om de stroom binnen de perken te houden. 3ghz per core zal dit niet gaan halen waarschijnlijk.
Waarom niet? Lukt nu toch ook met een quad-core? Dat ligt denk ik meer aan de toevoer van stroom. Maar idd zal het met alle cores op 3Ghz wel wat watts vragen, maar onmogelijk lijkt het me niet.
Waarom niet? Lukt nu toch ook met een quad-core?
Omdat clocksnelheid van heel wat meer afhankelijk is dan van alleen stroomverbruik en hitte. Complexiteit van de chip is minstens net zo belangrijker, en veel eerder een limiterende factor, zeker bij complexe chips als deze.

Niet dat ik daarom wil zeggen dat deze chip geen 3GHz gaat halen, misschien lukt dat makkelijk.
De voorloper van deze processor was nochtans een 80 core op 3GHz hoor. De techniek is ondertussen weeral 2 jaar verder en de cores gehalveerd. Ik schat de kans zelfs groot in dat dit beestje op 3GHz zijn werk doet!
hoe snel zal dit lopen? mhz of 500 per core om de stroom binnen de perken te houden. 3ghz per core zal dit niet gaan halen waarschijnlijk.
Waarom niet? Hoeveel stroom er verbruikt wordt ligt helemaal aan het energieverbruik (complexiteit/rekenkracht) van de individuele cores.
Sick. Dat s natuurljk te kort. Dit is me een technologie, dit zijn cores die echt vooruitstrevend zijn, onderdelen die te snel zijn voor de rest van de computer. Iig goede vooruitgang, vraag me alleen af hoeveel zo'n grapje gaat kosten.
dit zijn cores die echt vooruitstrevend zijn
Dat valt best mee. Zo extreem geavanceerd zijn die cores echt niet. Het is niet veel meer dan een dikke processor met 48 cores. Alleen dat laatste is een hele prestatie binnen het vermelde energieverbruik, dat wel.

Maar de rest is niet bijster vooruitstrevend. Één zo'n tile haalt het bij lange na niet bij de Bulldozer core waar AMD aan werkt. Die processor mag dan met 16 threads / 8 cores wel een stuk minder groot zijn, de bouwstenen van die processor zijn qua management een stuk geavanceerder.
nieuws: AMD onthult details over Bobcat- en Bulldozer-cpu's
Ik bedoelde natuurlijk, dit zijn processors die echt vooruitstrevend zijn.
Het is een processor met een compleet nieuwe methode om te communiceren tussen de cores. Hierbij vergeleken is de manier waarop AMD 12 cores aan elkaar plakt "ouderwets" te noemen. Ik zeg niet dat deze methode beter is dan wat AMD (of Intel) nu gebruikt, het is een testchip geen uitgekristaliseerd en bewezen ontwerp. Maar intel probeert hier dus een nieuwe strategie uit.

Het is een beetje vreemd om een chip die een nieuwe manier van communiceren introduceert niet vooruitstrevend of geavanceerd te noemen. Als Intel erin slaagt de restrictie die de communicatie tussen cores nu oplegt weg te nemen, liggen opeens veel grotere multicore architecturen in het vooruitzicht. En dan is het de vraag of het nog echt van belang is of een core een super hoge IPC heeft of dat simpeler maar zuiniger cores (a la Sun T1/T2) efficienter tot een krachtige chip gecombineerd kunnen worden. Maar dat is voor later. Eerst maar eens zien of dit experiement slaagt.
Wat me opvalt is de enkele en eenvoudig koeler die erop zit, ik zou toch verwachten met zoveel power dat er een mega koelblok op zou staan. Dat valt reuze mee, lijkt een stuk kleiner dan op mijn X2-6400 (125 Watt ;) ) dus dat hebben ze wel goed voor elkaar.
Maar ik denk idd dat de "kracht" per core wel meevalt en zo dus niet te veel energie slurpt..
Ik kan nergens vinden dat dat Barrelfish op Linux gebaseerd is. Sterker nog, er staat dat het written from scratch is. Iemand daar meer informatie over?
Hier lees je er meer over .
onderaan de page staat: Barrelfish is released under the 3-clause BSD-style Open Source licence.
BSD is voorloper van allerlei kernels/ OS- sen waarbij free-BSD een broertje is, en linux pas na unix verschijnt.
Deze intel processor is bewust heel simpel van opzet om parallelle OS-sen in -naar ik veronderstel- floating processen te brengen.

Als je de computingwereld bezig ziet, dan valt op:
- dat meer gigaherz niet het doel meer is.
- Dat één OS opgevolgd is door hypervisors en VMware.

Deze verleggen de grens tussen soft en hardware; hoe minder OS ertussen hoe sneller.

Niet dit baksel van Intel is nieuws, maar wel dat Barrelfish zijn potentie mag proberen hierop.
Dit is nonsense :)

[OS geschiedenis 101]
Unix is ontwikkeld door AT&T. Na een tijdje besloot de Berkeley universiteit een broertje van Unix te maken waar AT&T geen copyright op bezat. Dit werdt BSD waar later o.a. FreeBSD en OS/X uit voort kwamen.

tijden de jurische discussies tussen AT&T en Berkeley onstonden er andere projecten die ongeveer hetzelfde probeerde te bereiken. Het GNU project met de Mach kernel faalde en Linux had behoefte aan tools. De combinatie van die GNU tools met de Linux kernel heeft het OS opgeleverd wat we nu GNU-Linux behoren te noemen.
[/OS geschiedenis 101]

Het feit dat Barrelfish is uitgebracht onder een BSD licentie betekent automatisch dat het niet linux gebaseerd is aangezien het dan GPL zou moeten zijn (of de kernel niet zou moeten raken wat een beetje vreemd is.)

Ook zijn meer gigahertz nooit het doel geweest in de computer wereld. Snellere hardware was het doel en de simpelste manier om dat te bereiken zonder de instructieset te veranderen was een hogere kloksnelheid. Echter er zijn verschillende pogingen geweest om op andere manieren de snelheid te verhogen. Denk aan de introductie van RISC chips. Zowel de 286, 386, 486 Pentium en de Pentium Pro waren trouwens sneller bij dezelfde kloksnelheden als hun voorganger.

En tenslotte is het niet nieuw dat op 1 machine meerdere OSen tegelijkertijd kunnen draaien. Dit was al lange tijd een functie van mainframes. PCs waren bedoeld om werkzaamheden van 1 enkele persoon decentraal af te handelen. 1 OS tegelijkertijd is dan logisch. Tegenwoordig worden ze weer meer en meer gekoppeld en veranderen ze steeds meer terug in de domme connected terminals die ze oorspronkelijk hebben vervangen. Servers worden dus weer belangrijk en je ziet dan ook meer en meer functies uit de highend servers (mainframe, mini computers) doorsijpelen naar de budget IA32 gebaseerde servers. Inclusief de optie om applicaties en zelfs OSen parallel te draaien. Eigenlijk zie je dus een complete cirkelbeweging en zijn we bijna weer terug bij af :)

Maar op zich is het inderdaad geen nieuws dat Intel een nieuwe experimentele chip bouwt. Dat zal wel vaker gebeuren. Nieuws is dat de chip niet in de VS ontworpen is, de daadwerkelijke opbouw van de chip en dat de chip "publiek" verkrijgbaar is. Laat dat nu net allemaal in het artikel staan ;)
Voor hedendaagse alledaagse software lijkt het me toch beter om een dual- of quadcore te hebben met normale moderne architectuur, maar dan op 10GHz ofzo. Dus 3x zo snel zonder dat er meer cores nodig zijn. Een 48-core is natuurlijk leuk voor sterk geparalelliseerde algoritmen, maar de praktijk wijst uit dat dat (op het moment) meer uitzondering dan regel is.
Dat is ook de reden dat Intel geen haast maakt met het op de markt brengen.

Dit is 48-core op lage snelheid, en de enigste toepassing die daar werkelijk gebruik van kan maken zijn servers. Voor de consument heeft dit geen nut, tenzij die zich bezighoud met HPC.

Daarom wil Intel dus vooral universiteiten voorzien van deze chip, de studenten daar zijn de toekomstige software ontwikkelaars. Als die nu ervaring opdoen met een 48-core monster, dan komt er steeds meer multi-thread geoptimaliseerde software uit, zodat het kip-en-het-ei verhaal weer rond is.

Het is daarom goed dat er concurentie is, want AMD is bezig met hun 12-core Magny CPU voornamelijk bedoeld voor servers en via een Quad-Socket moederbord zit je dan ook op 48-cores. Echter de kosten van 4x CPU en duur quad-socket moederbord zijn hoog en er zijn multi-thread markten die graag een goedkope hoge core CPU zien, zoals webservers. Als deze 48-core CPU echter in klein volume wordt gemaakt en een belabberende yield heeft, dan kunnen de kosten echter hoger liggen, dat zal ook wel één van de redenen wezen voor deze lab-only uitgifte (al blijf ik het jammer vinden).

De 10Ghz dual-core kan je trouwens vergeten, die strijd is al lang opgegeven, omdat het simpelweg met de huidige technieken niet haalbaar was. Optische CPUs zijn echter ook in ontwikkeling, dus de Hertz race is zeker niet over.
Ik bedoel niet dat het per se 10GHz moet zijn, maar vooral dat huidige applicaties (dus nog zeker een jaartje of 5 te gaan) veel meer voordeel halen uit minder cores die veel sneller zijn, dan een heleboel cores die steeds ongeveer evensnel als hun voorgangers zijn. De manier waaróp die cores sneller gemaakt worden, is niet zo boeiend. Zij het door betere architecturen, zij het door hogere frequenties, maar dat doet niets af aan het feit dat meer dan 90% van de applicaties out there geen kont heeft aan meer dan twee cores, terwijl diezelfde applicaties wél zouden profiteren van snellere cores.
Daarom zijn er (op het moment) voor consumenten ook geen CPU's op de markt met meer dan 6 cores. (daar wordt op het moment door de meeste toepassingen bar slecht gebruik van gemaakt, daar heb je gelijk in) Echter zal in de toekomst denk ik wel steeds meer gebruik worden gemaakt van meerdere cores. Je ziet nu al zo lang dat er tegen een barriere aangezeten wordt zo rond de 3,0 Ghz dat ik betwijfel of er ooit 10Ghz gehaalt wordt op een single core. Lijkt me voor wartme ontwikkeling en stroomgebruik ook niet ideaal. Als we niet de hoogte in kunnen dan maar de breedte in.
Weet iemand op wat voor kloksnelheid die procs loopt?
De vorige SSC die Intel introduceerde had 80 cores en een kloksnelheid van 3GHz, wat neer kwam op 1 TFlops aan rekenkracht.
Maar zoals zo vaak herhaald moet worden: kloksnelheid op zich maakt weinig uit, de architectuur is ook van belang (bijvoorbeeld het aantal IPS, Instructies Per Seconde). Deze cores zijn redelijk hard gestript om transistors uit te sparen, dus qua architectuur zal dit op geen bal trekken.
De vorige Intel massive multicore chip was ook geen x86 ontwerp, maar had per core alleen 2 FP pipelines. Eerder een GPGPU ontwerp, dus.
Dat maakt niet uit. Onderzoekers kunnen wachten. 100 Mhz is snel genoeg. Maar wat belangrijk is, is dat er dan elke kloktik, elke 10 ns 48 instructies uitgevoerd kunnen worden. Hoe vind je elke kloktik 48 nuttige instructies ?
neem aan dat het geen cores zijn die individueel top performers zijn als bv de i7.
is dit niet meer vergelijkbaar met een SunSPARC T2 processor, meer gemaakt op multithreaded apps ipv hoge per core performance?
Ja dat moet wel, zou wel mooi zijn een 48xi7core met een TDP (zoals die nu is voor 4 cores XD) van 130Watt. En dat allemaal met maar het dubbele aantal aan transistors :)

Dus nee vrij onmogelijk nog, volgens mij dan ;)
De CPU heeft een IA32 instructie set. Ook wel bekend als Itanium. De consumenten cpu's hebben x86 (32 bits) en x64 (64 bits ook bekend als x86-64)instructie sets.
X86 en IA32 zijn door Intel ontwikkeld.
X64 is door AMD ontwikkeld.
Met IA32 wordt gewoon Intel Architecture 32bit bedoeld, oftewel de 32bits x86-architectuur die sinds de 80386 in gebruik is. Itanium is IA64.
Ter aanvulling, X64 is eigenlijk AMD64, wat door intel word overgenomen als EM64T. AMD64 is een aanvulling van de IA32 instructieset van Intel.
Waarom gilt vrijwel iedereen hier "omg wauw 48 cores hoe hard gaat dat dan" terwijl sun al een paar jaar geleden de Niagara CPU (T1/T2) op de markt zette (zoals R1 hierboven gelukkig ook al opmerkt). Die CPU (T2) kwam eind 2007 op de markt en heeft 8 cores die ieder 8 threads tegelijk kunnen verwerken, dus 64 threads tegelijk. De cpu van Intel is ongetwijfeld veel krachtiger (de T2 heeft redelijk wat beperkingen) maar het valt me vaak tegen dat mensen alleen de mainstream lijken te volgen en helemaal uit hun plaat gaan als daar iets 'extreems' aangekondigd wordt, terwijl er elders in de markt al lang soortgelijke technologie wordt toegepast.
Omdat Intel hip is.. en dichter bij de consument staat dan Sun Microsystems. Sun == serverspul.. Intel == consument & serverspul... Dus. :) Da's logisch.

Hoe dan ook. Er is toch wel een verschil tussen threads en echte cores... Doe mij maar echte cores.. Mijn oude P4 3ghz met HT was p03p :) Relatief dan.
Ik begrijp je reactie wel, maar ik wilde maar even aangeven dat het misschien helemaal niet zo gruwelijk is als de meeste mensen lijken te denken. Ik zou het waarderen als men eens om zich heen keek in plaats van altijd met veel gemak over hetzelfde te jubelen ;)

En ja ik ben met je eens dat echte cores waarschijnlijk wel beter zullen presteren dan een vorm van hyperthreads, maar dat zal echt van de toepassing afhangen. Destijds versloeg zo'n Sun T2 op 1.4 gigaherz de Xeon en Opteron servers met groot gemak in de Specweb en andere benchmarks (zie dit artikel op tweakers)
Jajah.. Je hebt helemaal gelijk.

Maar dat artikel.. Dit zijn puur serverplatformen.. waar het bij de intel veel meer gaat om de toekomst van multi-core en softwareontwikkelingen.. De performance/watt is in de omgeving van webserver geweldig met de T2, maar de Intel van dit artikel heeft volgens mij dit (hoofd-)doel niet. Bovendien wordt de vergelijking getrokken met CPU's die veel minder threads hebben dan de T2.

Als de intel in de vergelijkingstest met de T2 soortgelijk scoort dan is het wel geweldig, want de performance/watt ligt dan nog gunstiger. Ik denk niet dat dit zo zal zijn, aangezien het hier om 48 cores gaat.. en niet om 64 threads.. Die threads zijn echt voor de simpele dingen.. de (relatief) simpele cores (t.o.v. bijv. Core i-reeks) zijn een voorloper van volwaardige cores met gunstige stroomschakelingen en een bredere inzet (schat ik).
Najah.. het kan zeer goed zijn dat de Intel octatetraconta-core toch sneller is dan de T2, aangezien het toch allemaal wat 'verser'/nieuwer is... maar die dingen vergelijken is een anachronisme in de CPU-wereld. Daarnaast is er geen massaproductie van de Intel... de Sun T2 heeft wel een volwaardige productielijn.

Ik wil maar zeggen dat Intel toch goed bezig is. Nu Microsoft en alle andere grote spelers op de software-markt en hoppa.. er is pure schaalbaarheid in prestaties voor de toekomst.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True