Chipfabrikant Tilera introduceert eerste cpu met 100 cores

Chipfabrikant Tilera heeft vier Tile Gx-processors voor servers aangekondigd waarvan een model honderd cores heeft. Het verbruik van de 'centicore'-processor zou onder volle belasting 55 watt bedragen, terwijl een 16-core 15W verbruikt.

De nieuwe Tile Gx-familie bestaat uit servercpu's met 16, 36, 64 en 100 cores en volgens de fabrikant zelf is dit laatste model 's werelds eerste processor met 100 cores. De belangrijkste onderdelen van de architectuur van de chips zijn volgens het bedrijf de tweeweg iMesh-interconnects tussen de cores die de noodzaak van een bus elimineren en de Dynamic Distributed Cache, die er voor zorgt dat de lokale cache van elke core door de gehele chip gedeeld kan worden. Dit zorgt ervoor dat de chips relatief eenvoudig te schalen zijn op een manier zoals Intel die ook gebruikt voor zijn teraflops-testchip.

Elke core van een Tile Gx-cpu kan over 32KB L1 I-cache, 32KB L1 D-cache en 256KB L2-cache beschikken en de hoeveelheid L3-cache kan oplopen tot 26MB. De maximale kloksnelheid van de op 40nm geproduceerde chips ligt op 1,5GHz en ondersteuning voor 64bit-verwerking is aanwezig. De 100-core-variant verbruikt 55W terwijl de 16-core-versie een verbruik van 15W heeft tijdens gebruik. Tilera richt zich met de chips op specifieke servertoepassingen die baat hebben bij de aanwezigheid van zoveel mogelijk cores. De fabrikant heeft daartoe onder andere MySQL en Linux-applicaties als Apache en Memcached geport naar zijn Tile-architectuur.

Overigens zal de Tile GX-chip met 100 cores pas in 2011 op de markt komen. De overige varianten worden volgend jaar verwacht en de prijs zal beginnen bij 400 dollar, terwijl de duurste versie mogelijk 1000 dollar gaat kosten.

Tilera Tilera 2 Tilera 3 Tilera 4

Door Olaf van Miltenburg

Nieuwscoördinator

26-10-2009 • 12:54

53

Reacties (53)

53
53
36
2
0
2
Wijzig sortering
prachtig prachtig prachtig dit, en prijs valt nog wel mee!
dat ligt eraan hoe goed ze presteren ;) Het is voor servers specifiek en op dit moment gok ik niet zo interessant voor consumenten die (game)performance willen.
Ze geven wel met dat plaatje aan dat ze een heel veel core cpu hebben maar met 55 watt kan ik me haast niet voorstellen dat deze beter presteert dan een goede i7 of Phenom II.

[Reactie gewijzigd door SouLLeSSportal op 23 juli 2024 03:30]

Dat hangt er van af wat je wilt natuurlijk...

Wat ruwe rekenkracht betreft denk ik dat deze chips best wel eens zouden kunnen verliezen, maar als je nu eens een webserver neer zet die niet 100 maar 10000 sessies tegelijk moet af handelen dan denk ik dat met een chip die minimaal 100 threads tegelijk kan verwerken je toch een heleboel betere performance neer zal zetten dan met een i7 of Phenom II.
De tijd dat 1 CPU alle verschillende taken aan kon zijn al lang verledentijd. Nu hebben we een GPU, een sound chip, een chip voor physics, een chip voor I/O, een chip om meerdere GPU's als een GPU te laten samen werken en dus ook een chip voor de desktop en een aantal chips voor de server afhankelijk van het geen deze server moet doen.

Ik denk niet doat je veel aan zo'n chip zal hebben in een Oracle machine en ook voor een MySQL machine vraag ik me af of het nut zal hebben. De meeste databases waar ik mee gewerkt heb hebben niet zo zeer een CPU tekort als wel een gebrek aan voldoende snelle I/O. Zelfs als je er +100GB aan geheugen in hangt dan nog kun je niet compenseren voor het gebrek aan I/O op je disks. Pas als je die bottleneck weg neemt en het geheugen maar groot genoeg maakt wordt het weer interesant om meer CPU power aan een database te hangen.
De tijd dat 1 CPU alle verschillende taken aan kon zijn al lang verledentijd. Nu hebben we een GPU, een sound chip, een chip voor physics, een chip voor I/O, een chip om meerdere GPU's als een GPU te laten samen werken en dus ook een chip voor de desktop en een aantal chips voor de server afhankelijk van het geen deze server moet doen.

Maar je moet wel even bedenken wat de reden is van al die verschillende processing units. De CPU, GPU, sound chip, etc hebben allemaal hun eigen architectuur. Afgezien van de CPU zijn alle chips dedicated hardware die bijna niets anders kunnen dan dat waar ze voor gemaakt zijn (uitzonderingen daargelaten met CUDA op een GPU). Omdat alles in hardware is kunnen ze dat ontzettend snel (of ontzettend goedkoop). Probeer je CPU maar eens Crysis te laten renderen, als het technisch al zou kunnen moet je blij zijn als je meer dan 1 FPS haalt.

Echter in dit geval heb je een cpu welke 100 cores bevat, met allemaal dezelfde architectuur. De reden om hierbij dus te kiezen voor een cpu op basis van veel cores heeft te maken met limieten van elektriciteit en warmte etc. Als je namelijk een CPU met enkele core zou maken die evenveel gigahertzen heeft als alle cores van deze CPU samen dan zou ie op 150GHz moeten lopen.

En ik weet niet hoe jij verder ruwe rekenkracht van een CPU berekent maar in mijn boek is dat juist rekenkracht per core vermenigvuldigt met het aantal cores. En daarin gaat deze CPU dan ook uitmuntend scoren. Dat je deze theoretische rekenkracht alleen haalt met zeer threaded applicaties is een ander verhaal. Dat gezegd hebbende denk ik niet dat een enkele core in een Core i7 25x zo snel is als een enkele core uit deze CPU. Dat zou ook raar zijn, anders is het ook weinig nieuws en kun je beter een Core i7 in je server stoppen.

[Reactie gewijzigd door A Lurker op 23 juli 2024 03:30]

Ik denk dat het best eens mogelijk zou kunnen zijn dat een enkele Core i7 core 25x zo snel is als een enkele core van deze chip.
De tijd dat 1 CPU alle verschillende taken aan kon zijn al lang verledentijd. Nu hebben we een GPU, een sound chip, een chip voor physics, een chip voor I/O, een chip om meerdere GPU's als een GPU te laten samen werken en dus ook een chip voor de desktop en een aantal chips voor de server afhankelijk van het geen deze server moet doen.
doet me denken aan m'n oude trouwe comodore 64......
Anoniem: 64607 @divvid26 oktober 2009 15:57
Waarom wordt divvid weg-gemod: Hij maakt een duidelijk statement hier. (Ik wist het zelf niet, maar) de commodore 64 had voor geluid een aparte chip de bekende SID, een aparte chip voor de video-weergave en twee afzonderlijke chips voor I/O. Oftewel de processor was voor geluid, video en I/O alleen het sturende 'orgaan' net als nu. De tijd dat de CPU alle verschillende taken aan kon zijn dus inderdaad al HEEEEL lang verleden tijd...
De stelling van Rob Coops gaat dan ook een beetje scheef, er is nog nooit een 'echte' pc geweest waarbij alle taken door 1 cpu werden afgehandeld. Zoals jij al aangeeft had de commodore 64 al dedicated chips voor bepaalde taken... Gaan we heel ver terug in de tijd okay, dan kom je systemen tegen welke eigenlijk niet meer dan een veredelde rekenmachine waren, maar dergelijke systemen had men ook niet in de huiskamer staan. Zo hadden computers ten tijde van de eerste maanlanding dezelfde rekenkracht als een goede rekenmachine... dat staat zelfs niet in verhouding sinds de computer ook voor thuis te gebruiken werd.
En niet alleen de Commmodore 64, maar bijna alle andere architecturen ook. De MSX2 heeft zelfs hardware-accelerated blitting, en de Amiga ook denk ik.
Het is volgens mij ook niet echt een drop-in replacement. Op de site van Tilera is niets te vinden over welke instructieset deze processoren bevatten. Het kan x86 zijn (onwaarschijnlijk), of SPARC, ARM, MIPS of nog iets anders. Linux is er in ieder geval al wel naartoe geport. :)

[Reactie gewijzigd door Jaap-Jan op 23 juli 2024 03:30]

De fabrikant heeft daartoe onder andere MySQL en Linux-applicaties als Apache en Memcached geport naar zijn Tile-architectuur.
Ze lijken dus hun eigen "Tile" architectuur te hebben...
Tile en ARM dus een hoop van je apps zullen er niet echt lekker op draaien (als je ze al aan de praat krijgt)

daarbij komt nog dat je waarschijnlijk ook bij hen software-licenties of support-contracten moet afnemen

[Reactie gewijzigd door dasiro op 23 juli 2024 03:30]

Ze hebben een ARM licentie, dus goede kans dat ze de ARM ISA gebruiken.
Three years ago, Tilera had licensed SGI's MIPS-based C/C++ compilers for the Tile chips, which is why I think Tilera has also licensed some MIPS intellectual property to create its chip design, but the company has not discussed this. (bron: http://www.theregister.co...era_third_gen_mesh_chips/ )
Het verschil is echter dat dit meer CPU's zijn voor dedicated toepassingen. Een i7 of Phenom II is veel veelzijdiger, maar je betaalt dus ook voor functionaliteit welke je niet gebruikt.
Ik vind dat de titel niet klopt. NVida had laatst een gpu geintroduceerd voor in de server omgeving. Aangezien een gpu uit minicores is gebouw (240SP) waren zij het eerst mee. Zowel de gpu van nvidia als de cpu in de artikel zijn sterk in specifieke handelingen, vind ik de vergelijking opgaan. Dit vermeld ik erbij, omdat straks paar mensen zullen zeggen dat je een cpu met een gpu vergelijkt.
gpu cores hebben geen volledige functie dus tellen ze niet als cpu.
deze cpu is gemaakt om een volwaardig OS te draaien, een GPU draait geen OS.
gpu cores hebben geen volledige functie dus tellen ze niet als cpu.

"volledige functie" .. dat is een term die je zal moeten definiëren voordat je hier mee kan gan argumenteren.

Tilera adverteerd niet met wat voor instructieset deze processor werkt. Het lijkt erop dat het geen x86 is, dus de vraag of deze processor volledig is, is nog maar de vraag.

Misschien moet je deze zelfs bijprikken zoals je dat met een GPU doet.
"dus de vraag of deze processor volledig is, is nog maar de vraag"

Die Tilera CPU kan een OS draaien, een GPU niet. Dan is deze CPU in ieder geval meer volledig dan een GPU.
Het gerucht gaat dat Fermi van NVidia een OS zou kunnen draaien in theorie.
http://www.fudzilla.com/content/view/15940/34/
Fermi is ook niet echt een gpu, het is gemaakt voor wetenschappelijke berekeningen.
maar in general-purpose tasks heb je nog steeds een echte cpu nodig, aangezien dit soort chips uiterst beroerd zijn om simpele taken te vervullen.

nvidia verkoopt ook machines in combinatie met echte cpu's, je zal in de toekomst best special-purpose linux er op kunnen draaien (maar zoals dat al zegt, het kan alleen maar gespecialiseerde functies uitvoeren)
je kan hier een OS op draaien, ik heb nog geen gpu dat zien doen.
en het is een RISC chip.
Ze zijn dan toch de eerste met een 100 core CPU?
GPU is toch wel wat anders, ook wel uitgebouwd uit meer, maar tjah geen CPU he.
Verder kun je op of aanmerking aan het artikel ergens anders melden Namelijk hier
Zo kan je nog wel even door gaan, ATi heeft bijvoorbeeld een GPU welke ook applicaties kan draaien d.m.v. Stream, en deze heeft 1600 shaders/cores.
De GTX280 heeft 240 ALUs die verbasterd zijn tot cores door de NVIDIA marketing afdeling. In realiteit bestaat de chip uit 10 Thread Processing Clusters die ieder weer bestaan uit 3 SIMD processors die Streaming Multiprocessors genoemd worden en bestaan uit 8 ALUs (1 instructie werkt op 8 data elementen). Deze SMs zou je cores kunnen noemen (ze hebben namelijk een complete frontend, maar delen hun caches weer), waarmee de GTX280 dan dus 30 cores zou hebben.

De aangekondigde Fermi chip heeft "maar" 16 cores met ieder 32 ALUs. Het is dus niet zo dat NVIDIA het aantal cores maar blijft opschalen, het aantal ALUs echter wel.
Dit zijn ook GPU cores dus geen volwaardige CPU. Hoewel er wel x86 op moet kunnen draaien denk ik niet dat je er een OS op kunt draaien.
Wat een onzin artikel. De Fermi heeft ten eerste maar 16 cores en is helemaal niet geschikt voor het draaien van een webserver aangezien de cores SIMD processors zijn met 32 ALUs. Om SIMD effectief te gebruiken moet je een data parallel algoritme gebruiken, en dat is bij webserver nu juist niet het geval (tenzij je ze grafische dingen laat genereren ofzo).

Voor een webserver is het verbergen van memory accesses belangrijker dan brute rekenkracht. Je wilt dus zo veel mogelijk simpele cores met meerdere hardware threads per core zodat in het geval van een cache miss een andere thread door kan gaan met werken. Sun's Niagara processor is hier specifiek voor ontworpen.

Intel's Larrabee GPU zou geschikter zijn voor het draaien van een webserver, omdat deze zal bestaan uit 32 cores waarbij er 4 threads tegelijk werken op een core. Helaas heb je dan nog steeds niks aan de grote vector unit die iedere CPU met zich mee draagt.
Anoniem: 196662 26 oktober 2009 13:02
Blijkbaar een hoop uitval als ze 28core's moeten laten vallen. Das +25% dat wegvalt :/
Dat viel me ook al op, ja. Van 64 naar 100 is een erg rare stap. Maar ja, misschien valt dan toch de performance winst per cpu tegen terwijl ze willen zeggen dat het (bijna) linear schaalt :)
Ligt aan het ontwerp:
4*4=16
6*6=36 (dus niet 32)
8*8=64
10*10=100 (dus niet 128)
64 is 8*8, 100 is 10*10. Niet zo vreemd dus. Het zijn ook allemaal 2D arrays van kleine processortjes. Dus ik denk dat 100 nog lang niet het limiet is. Als ze zouden willen zijn chips met 1000+ processorkerntjes ook wel mogelijk :)

edit: laat....

[Reactie gewijzigd door M2M op 23 juli 2024 03:30]

De term cloud computing krijgt hier een iets andere betekenis. ;-)
Waar haal jij vandaan dat er 128 cores opzitten en er 28 "wegvallen"?

Ik zie op het plaatje ook gewoon 10*10 cores.
Waar haal je dat vandaag?
Ik kan nergens uit opmaken dat er 28 cores uitvallen, verder zie ik gewoon 10 x 10 cores, dus geen 128 of iets dergelijks.

[Reactie gewijzigd door JordyOnrust op 23 juli 2024 03:30]

Als je goed kijkt zie je een logische reeks 4x4, 6x6, 8x8 en 10x10 cores. Geen enkele uitval dus.
Op zich vind ik de multicore technologie wel leuk. Het is ook een redelijk logische stap. Onze hersenen zijn zelf bijvoorbeeld niet zo heel snel in informatie verwerken ware het nit dat ze heel heel veel informatie parallel oppikken. Computers deden (en doen) nog steeds vrij serieeel info verwerken. Dat doen ze veel sneller met onze hersencellen individueel maar lang niet zo veel gaat daarbij parallel. De komst van Multicore veranderd dit en trekt het gelijk.

Of 100 cores daarbij in de buurt komt met onze hersenen betwijfel ik.
Onze hersens werken daarentegen met 4 a 5 miljard cores op 200 Herz (niks Megaherz)

En dat geheel draait maar op een efficientie van 10%

5 miljard keer 200 = 1000 Gigaherz - 90% = 10 Gigaherz.

Maar dan ga je er wel vanuit dat de processor in je PC 100% efficient is, echter geld meestal dat 10% van je processor efficientie verloren gaat.

tel ik nu 100X 1,5 Ghz dan verpomt dit ding dus 150 Gigaherz aan informatie... en is ie dus ruim 10X sneller dan een set mensen hersenen.....

help...... I'm geeking out!!!!!!!!!!!!!!!!!!!!!!!!!!
En hoe zit het met L2 and L3 cache? :Y)
Joepie 100 cores!

Maar eh.... Is erg specifiek gemodeleerd...

Denk niet dat Windows (xp - 7) het trekt, laat staan dat de processor een Game goed zou draaien als alles dedicated is aan 1 taak, en dan, 1,5 GHz kan problemen geven als je game van de 100 cores er slechts 1 of 2 terbeschikking zou krijgen voor zijn berekening

Ik denk dan ook dat je als thuis gebruiker geen ruk aan dat ding hebt, en dat de vergelijking met de AMD en Intel processoren die is afgebeeld dan ook onzin is.
Net als de claim dat intel/AMD onzuinig is omdat er veel meer rekenprocessen lopen...
Eigenlijk kun je een server CPU niet vergelijken met een desktop/ laptop CPU de eisen die aan de CPU gevraagt worden zijn ook anders.

Overigens, stel dat je deze CPU straks koopt en Windows 8 zou voor de deur staan, we weten immers al dat MS weer flink bezig is... is het dan niet slimmer een 128bit CPU van te maken/kopen aangezien er al wordt gezegd windows 8 zal "128bit only" worden
Waar haal jij het vandaan dat deze CPU bedoeld is voor thuisgebruik?

Dit is een CPU die speciaal ontwikkeld is voor gebruik in servers. Zoals eerder opgemerkt is de kans sowieso groot dat deze CPU niet eens de x86 instructieset ondersteunt, maar een andere instructieset. Windows desktop kan momenteel alleen op processors met een x86 instructieset werken.

Daarnaast vraag ik me ook vanaf waar je vandaan gehaald hebt dat windows 8 "128 bit only" wordt, het lijkt me sterk dat MS hiervoor aan het ontwikkelen is als er nog geen CPU's voor consumenten zijn die dit ondersteunen. En al zouden er al 128 bit cpu's zijn, lijkt het me nog sterk dat MS ondersteuning voor alle voorgaande architecturen laat vallen, dan snijden ze zich ineens heel erg in de vingers wat betreft backwards compatability, iets waar MS al jaren flink mee loopt te pronken dat ze nog apps uit '95 ondersteunen.
Al is het zeer beperkt.
en de vraag is hoe efficient het gaat werken, het blijft een feit dat een gpu architectuur niet erg geschikt is om een os op te draaien. Een gpu heeft namelijk moeite met het uitvoeren van veel compleet verschillende threads. Zoals drahca al aangaf hoe je effectief maar 16 cores over op een fermi, ik meende dat het zo was dat alle alu's uit een enkele SM maar aan 1 taak tegelijkertijd kunnen werken.

De tilera cpu zal natuurlijk net als fermi ook niet geweldig snel presteren zonder geoptimaliseerd os. Er zijn echter toepassingen waarbij een cpu met 100 kleine core's beter presteert dan bijvoorbeeld FERMI terwijl de laatste waarschijnlijk meer Gflops zal hebben.
Als je bijvoorbeeld een applicatie draait met 200 erg lichte maar dedicated threads welke en vaste tijd actief zijn zal een I7 er 8 tegelijkertijd kunnen uitvoeren. De tilera cpu zal dan 100 threads uitvoeren en dan de volgende 100 threads terwijl de i7 8 steeds 8 threads uitvoert.

Bovenstaande situatie komt natuurlijk niet veel voor maar het kan wel en er zal dus een markt voor zijn, ook in de webserver wereld zie ik zoals eerder gezegd mogelijkheden voor een cpu met 100 "trage" cores. Je kan dan wel 99 virtual hosts draaien welke bijvoorbeeld allemaal beschikken over 1,5 ghz.
Je moet het zien als een voertuig met 100 wielen. De meeste mensen hebben daar niks aan. Boodschappen doen kun je wel vergeten want je kan het ding nergens parkeren. Maar voor sommige toepassingen is het enorm handig. (we noemen zo'n ding een trein).
Als ze nou ff 3d kubussen maken, gaat het nog sneller
Wordt een beetje heet in het midden van de kubus dan he. :)
Hoe wou je dat effectief gaan koelen.
Zoals ergens in een reactie ook al staat gaat het naar alle waarschijnlijkheid NIET op een x86 compatibele processor. Het is vast ARM of MIPS architectuur.
Dus ik denk dat er niet een MS$ operating systeem op gaat draaien...

Dit zou toch ook wel in het artikel (ook op Tweakers) vermeld mogen worden vind ik.
windows is voor wetenschappelijke computers toch niet belangrijk, x86 worden haast ook niet gebruikt vs PPC's/Sparc etc vanwege een te lage precisie.

wetenschappelijke projecten gebruiken al jaren BSD, en tegenwoordig ook linux en zelfs OS X (windows is een kleintje in deze markt)

[Reactie gewijzigd door stewie op 23 juli 2024 03:30]

Op dit item kan niet meer gereageerd worden.