Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 53, views: 21.626 •

De Amerikaanse firma Calxeda heeft op de Ubuntu Developer Summit een server gedemonstreerd die voorzien is van energiezuinige ARM-processors uit zijn EnergyCore-serie. In de server waren 48 quadcore ARM-cpu's geplaatst.

Het prototype van de ARM-server, Greenbox geheten, draaide een LAMP-stack in combinatie met het onlangs uitgebrachte Ubuntu Server 12.04 LTS. De server telde 12 EnergyCards van Calxeda. Op elke EnergyCard zijn vier quadcore ECX-1000 ARM Cortex A9-cpu's geplaatst. In totaal had de experimentele server een capaciteit van 192 cores.

Calexeda's Greenbox

De fabrikant stelt dat elke EnergyCore-processor minder dan 5W verstookt en dat deze cpu's daarmee aanzienlijk zuiniger en goedkoper zijn dan de serverprocessors van Intel en AMD. Ook claimt de firma dat zijn ARM-serverarchitectuur zeer goed schaalbaar is; clusters van duizenden processors per serverrack zouden mogelijk zijn.

Calxeda, dat zijn ARM-serverproducten samen met HP nog dit jaar op de markt hoopt te brengen, wilde op de Ubuntu Developer Summit aantonen dat bestaande software probleemloos op zijn hardware kan draaien. Daarnaast verwacht de firma dat een aantal populaire Linux-distributies voor servers, met name CentOS en Red Hat, binnen korte termijn ook op Calxeda-hardware zal werken. Het bedrijf durft zelfs de voorspelling aan dat over circa drie jaar 40 procent van alle Linux-serverhardware op ARM-architectuur zal zijn gebaseerd.

EnergyCore van Calxeda

Reacties (53)

gaat veel sneller op gpu's, is dus ook niet interessant om te doen op deze dingen.
Deze servers zijn bedoeld voor (http) servers met lage load per gebruiker maar heel erg veel gebruikers.

Ik ben erg benieuwd naar performance/watt van deze dingen.
Verder is het jammer dat het nog A9 cores zijn en op welk procede dit gemaakt is kan ik ook niet vinden.

[Reactie gewijzigd door Vburen op 8 mei 2012 20:01]

Kan jij of iemand anders mij eens uitleggen waarom het voordeliger is om een drukbelaste webserver te draaien op 192 low-power cores ipv zeg 12 krachtige Xeon cores? Een Xeon core is veel sneller klaar met een thread en kan daarna gewoon een andere gebruiker serveren toch? Het lijkt me dat een Xeon core wel een stuk of 10 threads kan afhandelen in de tijd dat een ARM core er met 1 bezig is..
wanneer een http server dan 'idle' is (of gedeetelijk idle), dan kan een gedeelte plat gelegd worden. je kan het gevraagde rekenkracht beter regelen met 192 cores dan met 12.

erg jammer dat het geen a15 is. dit is een leuke stap voor uit! (vorig jaar wilde china toch een server-farm met tegra 3's bouwen?)
Toch heeft het zijn redenen. Xeon cores zijn inderdaad een heel stuk sneller, maar dat is niet het enige wat telt. Het hangt er ook vanaf hoeveel verschillende threads je cores moeten doen. Hoe meer threads, hoe minder effecient de CPU wordt.
Ze worden inderdaad sneller af gewerkt maar of ze het werk 16 keer sneller gaan doen hangt af van wat ze moeten doen. Als het iets is waar veel gewacht moet worden op bijvoorbeeld data uit het geheugen, dan kan een server zoals deze gemakkelijk sneller zijn. Als het wat zwaardere zaken zijn dan kan een Xeon veel sneller zijn, het zal er vanaf hangen.

Bovendien is het gebruiken van meerdere zwakkere CPU's al langer bezig, nu nog voornamelijk atoms, maar als dit doorgaat kunnen die ARM's best intressant worden.
En toch doet dit me sterk denken aan de UltraSparc T2 en T3 processoren.
Ook heel veel threads (64 per chip) voor relatief weinig stroom, toen ook gepresenteerd als ideaal voor webservers.
Maar nooit een echt groot succes geworden.
Prijs telt ook mee, en het feit dat je op een x86, x86-64 (en voorheen op ia64) gewoon Windows kon draaien waarmee vrijwel iedere systeembeheerder het beheer kan doen in plaats van een unix-specialist. Verkijk je niet op dat laatste, ik ken genoeg mensen die geen verstand hebben van Unix e.d. en dus per definitie voor een Windows-oplossing zouden gaan. De Ultrasparc is echt een unix-bak, van de ossen die er op kunnen draaen zijn Linux, Solaris, FreeBSD, NetBSD en OpenBSD de belangerijkste.
Kan jij of iemand anders mij eens uitleggen waarom het voordeliger is om een drukbelaste webserver te draaien op 192 low-power cores ipv zeg 12 krachtige Xeon cores? Een Xeon core is veel sneller klaar met een thread en kan daarna gewoon een andere gebruiker serveren toch? Het lijkt me dat een Xeon core wel een stuk of 10 threads kan afhandelen in de tijd dat een ARM core er met 1 bezig is..
Als een Xeon core 10 keer zo snel is als 1 van deze ARM cores, dan zijn 12 Xeon cores 120 keer zo snel als 1 ARM core. 192 ARM cores zijn 192 keer zo snel als 1 ARM core, en dus sneller dan jouw 12 Xeon cores. Bovendien betwijfel ik een beetje of een Xeon core 10 keer zo snel is als een ARM core (een factor 6 lijkt me realistischer), maar het zou interessant zijn om benchmarks te zien.

Ik ga er bij bovenstaande wel van uit dat het probleem in kwestie parallel genoeg is, maar dat is bij webservers meestal wel zo.
volgensmij reken jij verkeerd want als jij zegt dan 1 xeon core 10x zo snel is als 1 arm core dan betekent dat : 12 Xeon cores == 120 ARM cores nou is dat dus allebei /4 (per cpu dus)
3 Xeon cpus == 30 ARM cpu's


Quote:

dan zijn 12 Xeoncores 120 keer zo snel als 1 ARM core.

na het 5x hebben te gelezen snap ik eindelijk wat je bedoelde, maar dan nog is het niet logisch om zo te redeneren?

[Reactie gewijzigd door Themperror op 8 mei 2012 21:19]

Toch even het power/watt sommetje maken. 48 cpu's van 5W is 240W. Daar kun je 2 octacore Xeons op laten draaien. Die zouden dan per cpu 24x zo snel moeten zijn als deze ARM, dus 12x zo snel per core. Dat gaat de xeon niet redden, zeker niet met alle virtualisatie overhead. De hierboven genoemde factor 6 lijkt me al vrij hoog omdat het afhandelen van http requests IO limited is, niet CPU limited.

[Reactie gewijzigd door Sir Isaac op 8 mei 2012 22:29]

Getallen:

192 * 5 watt = 960 watt

de TDP van de snelset xeon ligt rond de 130 wat, dus voor hetzelfde vermogen kun je

7 tot 8 snelle xeons draain.


die moeten dus 26 104 keer zo snel zijn. om even veel verwerkingskracht te hebben als deze server. Nou zal dat voor bepaalde toepassingen wel zin hebben zijn, maar ik verwacht als ik naar wat cortex benchmarks kijkt dat ze maar 4 tot 10 maal zo snel zijn.

Dus als je een taak hebt die goed op te delen is (vele kleine webrequest), dat de cortex server efficienter is.

/edit:
oops rekenfout, het is niet 5 watt per core, maar 5 watt per cpu met 4 cores.

[Reactie gewijzigd door leuk_he op 8 mei 2012 21:07]

TDP Is toch bedoelt om het koel benodigde koelvermogen aan te geven en niet het stroom verbruik van een processor ?

Stroom berekeningen doen met TDP waarden is volgens mij niet echt realistisch,
CPU's worden in een TDP groep geplaatst alleen maar om aan te geven waar je maximaal rekening moet houden bij het koelen van deze processor.

Zie bijvoorbeeld de TDP van de E8200 en de E8600, deze hebben allebei een TDP van 65W
TDP is een MARKETINGWAARDE. Er is under full load werkelijk niet 1 processor meer die zich aan de TDP waarde houdt.

Dat geldt net zozeer voor ARM processoren als ook PC processoren.

Zo heb ik hier een clustertje met L5420's op papier 50 watt. In werkelijkheid eet 1 node under full load al snel 170 watt, dat is met psu's met keurmerk goud certificaat. in deze betekent dat dat die zijn dus 92% efficient op die temperatuur en dat wattage (daar is het op gekocht).

GPU's, die vreten al helemaal veel meer dan hun TDP aangeeft.

Je praat hier over een 'moederbord' als ik het zo mag noemen dat hier dus enorme datastromen moet verwerken voor 48 hoofdletter K processoren.

Afgezien de $100k+ die het gaat kosten zo'n machientje naar ik gok, zo niet vet meer, is het juist bandbreedte dat veel stroom vreet.

Dus die 5 watt per kaart, zelfs al zou een kaart dat halen, dan heb je vervolgens geen keuze in psu. Vast weer een pokkeding, want ze ZOUDEN voor een server eens iets zuinigs neerzetten. Vast weer een $30 voeding en dan 4 ervan om 2 kilowatt te leveren in totaal.

Zeker 10 watt verlies per kaart als je fiks bandbreedte door de machine pompt, misschien meer. Dus ik zou eerder rekenen op rond de 800-1000 watt dan 400 watt bij deze machine. Dus die eerste berekening was zo gek nog niet.
Jouw uitleg is dus in feite hetzelfde als was NogooD zei ;) De TDP is Thermal Design Power oftwel het vermogen waarop de koeling voorzien/ontworpen moet zijn. Dit zegt inderdaad niet alles over stroomverbruik.
Nu er zijn 0 technische voordelen aan deze ARM rig, maar er is 1 belangrijke: wat concurrentie, hoe miniem ook, voor intel.

Probleem is vaak dat dit soort machientjes met veel kaarten vaak megaduur zijn omdat elk onderdeel los apart met vette winst verkocht dient te worden.

Er is werkelijk geen applicatie sneller op deze ARMs dan op de bestaande processoren.

Ook is het moeilijk om te claimen dat dit energiezuiniger is. 48 aparte voedinkjes, terwijl het kaal al 240 watt aan TDP is. We praten alles bij elkaar over enorme verliezen. Reken maar snel op 800-1000 watt voor dit machientje.

Dus qua verbruik is het toch wel gelijk aan een 8 socket PC.

Stel je zou het zelf kunnen bouwen deze machine, dan heb je nodig 48 kaarten. Stel je hebt de goedkoopste kaarten, die doen al snel 200 dollar, cpu erbij en RAM zit je snel op $1k per ding. Zelfs al bouw je 't zelf dan nog kun je 't never nooit niet ver onder de $400 per kaart krijgen, alle andere kosten, zoals van je apparatuur om 't te bouwen, niet meegeteld.

Praat je al over $48k aan kaarten als je dit koopt Deze specifieke kaart vast megaduurder.
Zal vast niet onder de $100k - $200k weggaan volledig geconfigureerd.

Voor die prijs krijg je ook een 8 socket Xeon systeempje overigens, of megagrote clusters inclusief de kosten voor de stroom voor de komende 10 jaar van zo'n clustertje.

Op ebay ligt voor $200 een volledige rackmount ready node met 8 cores @ 2.5Ghz. Maar een handvol is al sneller dan dit. Qua stroomverbruik ligt dat per saldo nauwelijks hoger dan dit.

En dat is precies hier het probleem: het is niet zo efficient noch zo snel als een GPU voor wat snel is op GPU's. Het is takketrager dan een Xeon systeempje om over een cluster nog te zwijgen en het is stinkend duur,

terwijl in werkelijkheid deze machine WEL net als een cluster zich gedragen gaat.

Maar goed, de legers wereldwijd zullen er wel vast weer wat van inslaan, omdat het MISSCHIEN, op onderzeeboten o.i.d. bruikbaar is. Met nadruk op het woord MISSCHIEN.

[Reactie gewijzigd door hardwareaddict op 9 mei 2012 10:07]

Mooie post vol stroman argumenten.

- Je neemt aan 240 W aan TDP en je neemt aan enorme verliezen om zo op 800-1000W voor een machine te komen. En dan kom je tot de conclusie dat dit net zoveel is als een 8-socket PC. Allemaal gebaseerd op aannames.

In werkelijkheid geeft Calxeda een TDP voor een kaart met 4 quadcores van 25W, met 12 modules dus 300 W en met de duidelijke nadruk op zuinigheid zie ik geen enkele reden waarom je die 300W zou verdriedubbelen door inefficientie in de voeding.

- Vervolgens neem je zelfverzonnen prijzen voor zelfbouw aan om daaruit de prijs voor een compleet voorgeconfigureerd systeem af te leiden. Heel toevallig net zoveel als je 8-socket PC.

- Dan ga je een nieuw ontwerp vergelijken met een achterhaalde architectuur via een eBay handelaar. Garantie? Efficientie? Ruimtegebruik? Appels, peren? Een dual quadcore L5420 is langzamer dan een enkele i7-2600 met dezelfde TDP (100W).

Misschien, met nadruk op het woord misschien, moet je eens wat minder aannemen en wat meer appels met appels vergelijken.
Hierbij kan ik me iets bedenken als de push berichten naar onder andere mobiele platformen en bijvoorbeeld Twitter en Facebook achtige platformen. Nog meer van dit soort dingen waarvoor dit geschikt zou zijn?
Ze verbruiken dan ook maar een fractie per core van wat een fusion of atom core verbruikt.
Ze zijn inderdaad een stuk trager per core, maar een Atom verbruikt dan ook 12,5 watt per core en niet 1,25 wat dus 10 keer lager is terwijl de rekenkracht ongeveer een kwart is. Dus efficientie is 2,5 keer zo hoog per watt.
het verbruik verschilt flink per Atom: http://ark.intel.com/products/family/29035

Tussen de 0,65 en 13 watt.
Daar kun je beter met FPGAs of GPUs tegenaan knallen, ARM absoluut niet.
Leuk, 48 quadcores, maar wat voor clock draaien ze op? Hoe doet hij het met LINPACK?
Up to four ARMģ Cortex™-A9 cores @ 1.1 to 1.4 GHz
Bron
Daar (^^) kan je nog wel wat er over vinden :p Staat trouwens ook in het nieuwsbericht.
Dit is echt nutteloos om linpack op te draaien, want een cluster die dezelfde performance heeft en wel vet meer stroom verbruikt, is wellicht nog niet 1% van de prijs van deze machine.

Ik gok deze machine rond de $100k - $200k.

Voor $200 kun je clusternodes kopen op ebay. Linpack is een ongelooflijke kneuze benchmark want die heeft nauwelijks bandbreedte nodig. Zelfs de ingebouwde netwerkkaarten kun je nog gebruiken ervoor. Infiniband maakt maar factor 2 uit ofzo, terwijl de latency van infiniband (one way pingpong latency) al snel factor 500 beter is dan de ingebouwde netwerkkaarten en qua bandbreedte hikken we aan tegen EFFECTIEF wat je door een 1 gigabit ingebouwde supergoedkope netwerkkaart krijgt versus infiniband over factor 100+ verschil.

2e hands infiniband DDR ligt er al voor $70-$80 op ebay van mellanox.
Mellanox switch erbij voor 24 ports doet ook zo'n $350 ofzo.

Dus je bent factor 10 sneller voor 10% van de kosten van deze machine en het is vrij simpel om een cluster te bouwen voor maar 10% van de prijs van waar de overheid zijn computers voor inslaat, die toch factoren sneller,, factor 10 is no problem voor matrixcalculaties, sneller is dan wat de overheid heeft staan bij bijvoorbeeld SARA.

Die kun je simpel verslaan met 10% van het budget van wat zij hebben.

Stroom is dan wel een grotere kostenpost, maar heh, daarom zet je het bij een grote fabriek neer die al megaveel stroom verbruikt en supergoedkoop inslaat...
"Het bedrijf durft zelfs de voorspelling aan dat over circa drie jaar 40 procent van alle Linux-serverhardware op ARM-architectuur zal zijn gebaseerd."

Ik veronderstel dat bovenstaande quote slaat op de desktop hardware. Veel van de linux software draait toch reeds op de ARM architectuur, waar het dan vooral gaat over embedded systemen.

Nu vind ik dit wel een interessante ontwikkeling. Indien dit verder ontwikkeld kan worden kan veel processing gedaan worden door kleinere systemen en is het eenvoudiger voor high processing units te maken. Ik vraag mij wel af performance is van dit systeem. Het systeem mag dan wel goedkoper en energiezuiniger zijn dan een Intel of AMD systeem. Als je voor dezelfde processing power bijvoorbeeld maar een dual-processor Quad-core Intel nodig heeft dan is het natuurlijk niet interessant naar kosten en energie zuinigheid.

Wat mij wel interesseert is wat zij willen zeggen met :

"Ook claimt de firma dat zijn ARM-serverarchitectuur zeer goed schaalbaar is; clusters van duizenden processors per serverrack zouden mogelijk zijn"

Zouden we hier dan een soort van "super" pc kunnen bouwen en dat dan bijvoorbeeld een hele rack 1 OS is met 2048 ARM processors. Dan is het natuurlijk noodzakelijk om degelijke multi-threaded schedulers te hebben en ook de code aanpassen zodat deze over zo veel processors kan verspreid worden.

Interessante ontwikkeling!
Het OS aanpassen voor meerdere cores is het probleem niet.

De software aanpassen voor gebruik op meerdere cores wel.Photoshop bijvoorbeeld gebruikt geen honderden cores, en met de meeste videobewerk software kan je dat ook vergeten. De meeste standaard desktopsoftware heeft zelfs moeite om meer dan een core te gebruiken.

Voor servers is het leuk. Veel connecties met weinig load (vandaar dat je een paar jaar terug atom servers zag). Maar als workstation is het 3x niets. Daarvoor moet er nog veel te veel gebeuren aan de software.

[Reactie gewijzigd door Darkstone op 8 mei 2012 20:14]

Inderdaad mag het duidelijk zijn dat dit alleen interessant is voor (web)servers.
Een desktop PC heeft juist het omgekeerde nodig, minder cores maar hogere snelheid per core.
Zelfs een extreme gamer die ook diverse andere programma's op de achtergrond draait, heeft in de praktijk "slechts" 4 tot 8 cores nodig, afhankelijk van wat je doet.
Een game zal normaal gesproken nooit meer dan 2 cores tegelijk aanspreken en zoals Darkstone al aan geeft zijn er maar weinig programma's die meer dan 1 core (kunnen) gebruiken.
Ik zie dan persoonlijk ook weinig verschil in performance tussen mijn 4 en 8 core systemen, behalve als ik echt heel veel threads tegelijk draai of videoconversie doe waarbij al mijn cores tegelijk gebruikt worden.
Het bedrijf durft zelfs de voorspelling aan dat over circa drie jaar 40 procent van alle Linux-serverhardware op ARM-architectuur zal zijn gebaseerd.
En ik durf daar toch wel hele grote vraagtekens bij te zetten. De meeste servers waar ik mee te maken heb zijn ofwel behoorlijk stevige servers, of ze zijn allang gevirtualiseerd. Virtualisatie staat op ARM nog redelijk in de kinderschoenen, en hoewel daar best verandering in kan komen denk ik dat de komende jaren x86 daar toch echt de standaard zal zijn.

Bij de meeste servers komt de parallelisatie niet van de applicaties die meerdere cores benut - maar juist van een applicatie die veel gebruikers tegelijk afhandeld, waarbij het proces voor die gebruiker vaak vastzit op 1 core. Qua snelheid ben je dus in een hoop gevallen wel gebaat van een cpu met een hoge kloksnelheid, en ook daar zit nou niet de sterkste kant van ARM.

Om die reden zou ik huiverig zijn om een dergelijk systeem te gebruiken voor een LAMP opzet. Ik ken persoonlijk geen PHP programmeurs die hun web apps multithreaded maken, en MySQL hangt ook vaak op 1 core wanneer er inserts/updates worden gedaan. Er zijn natuurlijk situaties waarin je dit prima kan gebruiken, maar het is zeker niet een blinde keuze dat dit sneller zal zijn.

Waar je een dergelijk systeem wel goed voor in kan zetten zou bijvoorbeeld een Varnish caching cluster zijn, of in een storage server. Beide kunnen vaak wel goed gebruik maken van een hoop (niet al te snelle) cores, en dan heb je het grote voordeel van een laag stroom verbruik.

Voor beide wil je dan eigenlijk een hele hoop geheugen in zo'n machine stoppen, en hoewel ze niet echt veel info daarover geven, lijkt het erop dat ook dat moeilijk gaat worden met de ECX-1000:
72-bit DDR controller with ECC support
32-bit physical memory addressing
Supports DDR3 (1.5V) and DDR3L (1.35V) at 800/1066/1333 MT/s
Single and dual rank support with mirroring
Het lijkt me juist wel nuttig om dit op een LAMP stack te draaien.

Klopt, de meeste PHP applicaties zijn niet multithreaded, en ook inserts e.d. zijn vooral single threaded. Echter, per connectie is het wel voordeliger, want dan heb je 1 core per user en dus minder overhead van het wisselen tussen de verschillende users.
Om die reden zou ik huiverig zijn om een dergelijk systeem te gebruiken voor een LAMP opzet. Ik ken persoonlijk geen PHP programmeurs die hun web apps multithreaded maken, ...
In een traditionele LAMP-setup verdeelt de webserver inkomende requests over de beschikbare processoren. Daar heeft de PHP-programmeur niks mee te maken. Met 192 cores kunnen er simpelweg 192 request tegelijk afgehandeld worden.
en MySQL hangt ook vaak op 1 core wanneer er inserts/updates worden gedaan. Er zijn natuurlijk situaties waarin je dit prima kan gebruiken, maar het is zeker niet een blinde keuze dat dit sneller zal zijn.
Voor update-heavy gebruik kan dat een probleem zijn, al vermoed ik dat daar ook het nodige aan te tunen valt. Maar voor een zware setup kan het sowieso interessant zijn om je database op een andere machine te draaien. Eentje met weinig snelle processoren bijvoorbeeld.
Voor beide wil je dan eigenlijk een hele hoop geheugen in zo'n machine stoppen, en hoewel ze niet echt veel info daarover geven, lijkt het erop dat ook dat moeilijk gaat worden met de ECX-1000:
Waar maak je dat uit op? Ik zie alleen "32-bit physical memory addressing", maar dat is een beperking per processor, niet voor het gehele systeem; er staat physical, niet logical (of virtual). 32-bit is 4GB per processor, of 1GB per core. 192GB max voor het systeem uit het artikel, lijkt me meer dan genoeg.

Ik kan in de gelinkte pagina's niks terugvinden over een beperking op de totale hoeveelheid geheugen, dat zou wel interessant zijn om te weten.
De clue zit hem er in dat de webserver software voor elke gebruiker de php scripts apart opstart. Dus voor elke gebruiker wordt er een aparte webserver thread gebruikt.

En ook Mysql is multithreaded al is dit eerder beperkt vanwege locking issues op de tables.
Maar in grote en zware omgevingen gaat men de DB server sowieso op aparte hardware draaien en eventueel verdelen over meerdere servers in een loadbalancing setup.

Met andere woorden voor sommige toepassingen zijn heel veel zwakke cores goed
Terwijl voor andere toepassingen juist heel zware single cpu's de betere oplossing zijn.
Ik ben benieuwd naar de performance en wat ze ongeveer gaan kosten.
192*5=960w is alsnog niet weinig, dus het is alleen winst wanneer ze sneller / even snel zijn als de concurrentie.
Maar dit klinkt wel erg goed zeg!
Er zitten 48 Quadcore processoren in deze server, dus het verbruik is 48*5W = 240W. Dit zou overeenkomen met twee grote intelprocessoren.
Het enige is dat de applicaties wel goed multithreaded moeten zijn, anders kan je beter een intel server nemen.
Designed from the ground up with a focus on energy efficiency, the EnergyCore ECX-1000 consumes as little as 1.5W per processor. Equipped with an integrated on-chip fabric switch and management engine, a quad-core SoC – paired with 4GB DRAM – enables a server node that consumes only 5W at typical max utilization and ½ watt when idle.
Source: Calxeda - EnergyCore ECX-1000 Series

Dus 4 ECX-1000 per kaart * 5W * 12 kaarten = 240W
Zal vast hier en daar nog wat overhead in zitten, dus wellicht 280-300W typical max. Wat wellicht veel interessanter is, is die halve watt idle.
Je bedoelt 48 x 5 watt.
Het is geen 5 watt per core maar 5 watt per quadcore cpu.
Totaal stroomverbruik ligt dus ongeveer gelijk aan een dual xeon sixcore.
fout - een dual xeon sixcore hier zit op zo'n 400 watt verbruik ongeveer effectief.

En deze machine met 48 aftakkingen en 48 bandbreedtes zal enorm veel stroom voor die bandbreedte vreten, dus reken snel op 800 - 1000 watt als je fiks streamed van en naar alle modules.
volgens mij kun je niet lezen... er stond dat het om qaudcores ging en dat die 5wat per cpu is en niet per core...
elke EnergyCore-processor minder dan 5W verstookt
dat is dus nog geen 200watt, ergo het equivilent van een flink dual socket system...
192*5=960w is alsnog niet weinig, dus het is alleen winst wanneer ze sneller / even snel zijn als de concurrentie.
Het is niet 5W per core, maar 5W per (4-core) processor. In totaal dus 48*5 = 240W!

In het gelinkte artikel staat dan ook:
The cluster we are running is a Calxeda EnergyCard prototype in a 2U chassis that supports up to 48 quad-core nodes at under 300 watts, with up to 24 SATA drives.
Alleen al het feit dat geen enkele processor van actieve koeling voorzien is, zegt al genoeg :)
Scheelt weer parasiet verbruik :) Iet's waar niet veel mensen aan denken.
Zou ik wel in de kelder willen hebben. Kun je leuke dingen mee doen.
en daar het zo'n 100k+ euro , wacht BTW erover voor jou, 121k euro minimaal gaat kosten en je dan kunt kiezen tussen een Porsche of deze machine, dan vermoed ik dat er dan een Porsche in je keldertje staat.

Die overigens ook direct gejat gaat worden.

Inbrekers komen wel af op dit soort machines - met name ook wegens het soort militaire software dat er meestal op draait.
"Het bedrijf durft zelfs de voorspelling aan dat over circa drie jaar 40 procent van alle Linux-serverhardware op ARM-architectuur zal zijn gebaseerd."

Ik heb de eerste ARM processoren midden jaren '80 zien komen en hoe mind boggling ik indertijd de technologie vond (en was) het sloeg niet aan. ARM's worden nu wel gebruikt maar vooral onzichtbaar. Het zou mooi zijn als een klein 30 jaar na dato het als nog gaat lukken. De architectuur van deze processoren is zoveel malen eleganter dan de AMD's en Intels.
Ook staan kwijlen bij de Acorn Risk-pc op de HCC beurs? ;)
de uitspraak letterlijk van deze heren is natuurlijk volslagen onzin, want ARM is te duur als je het clustert op deze manier omdat de heren wel vet willen verdienen.

de meeste servers zijn juist relatief goedkoop. Wel ECC vaak, maar echt goedkoop, terwijl het ook snel moet zijn.

Als je nu zegt dat ubuntu als distributie de grootste is of gaat worden voor servers, dan is dat een statement van een heel andere orde grootte :)

Deze bak heeft ARMs met ECC. Ik hoor niks over de PRIJS hiervan.

$100k? oh wacht nee ze willen vast VET verdienen.

Meestal is zo iets als dit DUURDER dan een 8 xeon volledig geconfigureerd.

Dus ik reken al op dan zo'n $300k, want een Xeon volledig geconfigureerd op 8 sockets zat op zo'n $200k.

Zo prijzen ze zich altijd uit de markt.
Wat mij opvalt is dat iedereen het hier heeft over de het vermogen en 'performance per watt' onder full load. Als ik erover nadenk dan lijkt het mij heel onwaarschijnlijk dat jij je webserver of wat dan ook altijd op 100% belast. Waarschijnlijk zal ook hier de 80/20 regel gelden en zal hij 20% van de tijd over de 80% load mogen komen, maar zal hij de rest van de tijd daar lang niet aanraken.
Dan wordt dus de schaalbaarheid zonder belasting interessant. Dan heb je 192 cores die minimaal 0.5 W verstoken. En zou je dus eerder moeten kijken hoe krachtigere cores terugschakelen in vermogen als ze niet volledig worden belast. Dat lijkt mij een minmaal net zo belangrijke component om de uiteindelijke verstookte energie te bepalen.
ja kijk de performance per watt gaan ze met dit clustertje in 1 box wel winnen. No doubt about. Ze verzinnen wel een meetlat waarbij ze als eerste over de finish daar komen.

Maar het probleem is dat voor bijna alle software 8 nodes clustertje L5420 van $200 van ebay al stuk sneller is. Ja dat zijn 16 sockets @ 64 cores.

Dat zou ongeveer zelfde snelheid moeten zijn, maar dan natuurlijk vreet zo'n 8 node clustertje meer STROOM.

Dus het enige verkoopargument voor deze machine is zijn stroomverbruik.

Nu hoor je in met name telecom veel mensen altijd mekkeren over hoe belangrijk stroomverbruik is, maar bij grote orders als het puntje bij het paaltje komt gaat het toch vooral om de PRIJS en is stroomverbruik gewoon iets wat bij de kostprijs wordt opgeteld.

Dus voor deze machine houd je erg weinig toepassingen over.

Overigens ik moet veel fantasie hebben om een volledige quadcore ECX1000 op 1.4Ghz sneller te laten wezen dan een enkele 2Ghz core van een core2.

Helemaal vergelijkbaar is het nog steeds niet, want core2 had al DDR2 ram en deze cortex A9 arm heeft alleen superoud DDR ram, dat zegt meer over de performance van zo'n quadcore A9, want je pakt de RAM die bij de prestatie past van de core.

Dus mijn vermoeden is dat 1 quadcore A9 voor de meeste software ongeveer zelfde presteert als 1 core op rond de 2.0Ghz van een core2.

Dus 48 nodes is dan ongeveer gelijk aan een 48 core, core2.
Leuk allemaal dat rekenwerk tussen Intel of Arm CPU's, maar waar het om gaat is energiebesparing en/of de data die door de aansluiting gepompt moet worden.
Het is niet efficiŽnt om een hele snelle processor te hebben die moet wachten tot hij zijn data kwijt kan, dat is als met een snelle auto door de stad scheuren en telkens moeten wachten voor rood, veel beter is wat langzamer te rijden en de groene golf te pakken.
Ik kan mij geen idealer serverpark voorstellen dan een die weinig stroom verbruikt en geen hoge kosten aan koeling en onderhoud vergt.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6DestinyAssassin's Creed UnityFIFA 15Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox OneAsus

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013