Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 58 reacties

HP wil servers met ARM-cpu's gaan maken, beweert Bloomberg. Het bedrijf zou samen met Calxeda werken aan chips voor de servers. ARM-processors zijn weliswaar efficiŽnter, maar over het algemeen veel minder krachtig dan x86-cpu's.

ARM LogoBloomberg zegt op basis van twee anonieme bronnen te weten dat HP ARM-cpu's in servers wil gaan gebruiken. Geen van beide bedrijven wil de berichtgeving van Bloomberg bevestigen, maar volgens het agentschap werkt HP momenteel samen met de start-up Calxeda aan ARM-cpu's voor de servers. Chipfabrikant Calxeda, waarvan ARM gedeeltelijk eigenaar is, werkt al langer aan ARM-cpu's voor servers.

ARM-cpu's zijn veel energiezuiniger, maar minder krachtig dan x86-cpu's. Om die reden worden ze tot nu toe vooral gebruikt in apparaten waarbij energiezuinigheid belangrijker is dan performance. De oplossing is om een groot aantal cores in te zetten. Zo werkt Calxeda aan een manier om 120 quadcore-ARM-cpu's te laten samenwerken, waardoor een server over 480 cores zou kunnen beschikken.

Moderatie-faq Wijzig weergave

Reacties (58)

Het is niet zo zeer een probleem dat deze dingen minder krachtige zijn dan de x86 chips omdat voor veel taken een x86 simpel weg overkill is. Virtualisatie is een oplossing maar met het probleem dat je dan als een machine faalt een veel groter probleem hebt omdat een hele reeks applicaties uitvalt.

Bijvoorbeeld een grote website met honderdduizend of meer bezoekers per dag heeft geen behoefte aan een hele krachtige frontend server, deze dingen zijn vaak hele simpele systemen die heel erg veel threads tegelijk kunnen verwerken. Oracle maakt bijvoorbeeld dit soort chips. Nu is een chip maken niet een makkelijk iets en heeft HP in het verleden al bewezen dat ze in middels echt niet meer weten hoe dat moet (Itanium is een goed voorbeeld hier van). Dus de stap naar ARM is helemaal geen gekke. Het voordeel is dat ik inderdaad een server met 480 cores kan maken die niet meer vermogen op neemt dan een server met 8 x86 cores. Op die manier kan ik op eens een heleboel meer threads tegelijk verwerken wat juist voor bijvoorbeeld een grote website van groot belang is.

En als ik op die manier bijvoorbeeld van de 10.000 frontend servers er 7000 uit kan zetten en toch een zelfde aantal threads kan verwerken zonder dat ik meer energie verstook en zonder dat ik meer warmte produceer dan kan ik aardig wat geld besparen.
Bedrijven zo als Google, Microsoft, Facebook, Yahoo, Akamai, etc zijn allemaal zeer geÔnteresseerd in dit soort besparingen. Voor een klein bedrijf is het veel minder interessant omdat de misschien 3 machines die ze hebben draaien als frontend eventueel vervangen zouden kunnen worden door een kleinere server maar de totale besparing is dan zo minimaal dat het simpel weg niet echt de moeite is.
Je neemt nu voor het gemak aan dat je een server met 8 x86 cores in dezelfde dichtheid en power-envelope kunt gebruiken als die 480 ARM-cores?

Laten we voor het gemak aannemen dat dat klopt, dan nog kunnen die 2 intel processoren (Core i7 2600k) samen zo'n 256.600 MIPS verwerken. De Cortex A7 komt op 2850MIPS en dat is vast voor de quad-core versie, dus daar zitten er dan 120 van in een server, kom je uiteindelijk op 342.000MIPS.

Dat is inderdaad meer, maar dan negeren we even dat je in werkelijkheid 12 Intel cores vrij goedkoop in 1U servers kunt krijgen en dat die 480 MIPS cores mogelijk niet in een 1U-server zitten :)

Al met al kunnen dergelijke systemen best interessant zijn, maar vergeet niet dat de cores uit de serverprocessoren in de x86-wereld wel aanzienlijk krachtiger zijn dan die van ARM. Ook bij jouw voorbeeld van Sun/Oracle hangt het heel erg van je doel af, wil het een betere keus zijn. Niet alleen de software, maar ook de overige hardware (zoals nic's, geheugen, etc) moet extreem schaalbaar opgezet zijn wil je efficient van al die cores gebruik kunnen maken.
De keus tussen veel (langzaam) werk tegelijk, of minder taken maar wel per stuk sneller af kunnen handelen is altijd vrij moelijk :)
En dan nog zit je met het probleem dat MIPS score je alleen een soort van theoretisch maximum performance geeft - het zegt alleen over hoe snel de cpu instructies *kan* uitvoeren, maar niets over hoe het efficient de pipeline gevuld kan houden met de instructies die je *wil* uitvoeren.

[Reactie gewijzigd door Dreamvoid op 27 oktober 2011 15:22]

Het voordeel is dat ik inderdaad een server met 480 cores kan maken die niet meer vermogen op neemt dan een server met 8 x86 cores.
Dit lijkt me wel heel optimistisch, of je moet wel *extreem* laag geklokte simpele ARM cores gebruiken.

[Reactie gewijzigd door Dreamvoid op 27 oktober 2011 14:26]

Nu is een chip maken niet een makkelijk iets en heeft HP in het verleden al bewezen dat ze in middels echt niet meer weten hoe dat moet (Itanium is een goed voorbeeld hier van).
Wat heeft HP te maken met de itanium. Ik dacht toch echt dat de itanium een chip van Intel was
[...]


Wat heeft HP te maken met de itanium. Ik dacht toch echt dat de itanium een chip van Intel was
Fout gedacht. ;)

Zie Itanium.
The architecture originated at Hewlett-Packard (HP), and was later jointly developed by HP and Intel.
Architectuur is van HP, later voortgezet door Intel & HP
http://en.wikipedia.org/wiki/Itanium
De oorspronkelijke Itanium-architectuur is volledig ontworpen door HP. De uiteindelijke Itanium producten zijn ontworpen door een samenwerking van HP en Intel waarbij Intel steeds een grotere rol is gaan spelen, maar vooral de eerste generaties hadden nog behoorlijk veel in gemeen met het HP ontwerp.

[Reactie gewijzigd door knirfie244 op 27 oktober 2011 14:19]

Energie kosten zijn de grootste kosten van een server.

Over de levensduur van een server betaal je tegenwoordig meestal meer aan stroom dan aan aanschaf. Hiervoor is dus weldegelijk een grote markt. Zeker als ze het schaalbaar maken.
Nu haal je twee dingen door elkaar. De aanschafkosten en de gebruikskosten. In veel gevallen kiezen bedrijven bewust voor hogere gebruikskosten en lagere aanschafkosten. Aanschafkosten moet je namelijk ergens vandaan halen en niet iedereen heeft grote bedragen beschikbaar. De gebruikskosten zijn hoger maar dat is enkel een verlaging van de marge. Tijdens gebruik verdien je tenslotte ook aan de investering.

Hoge aanschafkosten en lagere gebruikskosten klinkt heel mooi maar is gewoon een flink extra investeringsrisico. Misschien dat men bij vervanging als het systeem zich al bewezen heeft gaat kijken naar de gebruikskosten en wegen aanschafkosten minder zwaar, maar ook dan is een overstap op een andere architectuur niet echt de meest voor de hand liggende stap.

De kostenvoordelen mbt tot stroomverbruik moeten dus heel erg groot zijn om mensen over de streep te trekken. En ik denk dat voor de meeste bedrijven dat niet het geval zal zijn. Ja voor de Facebooks, Google e.d. waarschijnlijk wel. Maar dat blijft een niche markt.
Stroomverbruik valt tegenwoordig toch heel erg mee.
Men vergeet heel erg vaak dat je vroeger 20 servers nodig had waar je er nu nog eentje nodig hebt. Energie kosten zijn dus relatief goedkoper worden.
Interessant, de rek is inmiddels ook wel uit de x86 architectuur. In ARM zit nog veel potentieel voor toekomstige ontwikkeling.
x86 is geen architectuur he - het is een instructieset. Je kan met dezelfde instructieset radicaal andere architecturen bouwen (kijk maar naar wat AMD en Intel allemaal doen).

Maar voor Intel zijn de ARM producenten nu duidelijk het grootste gevaar. Intel's concurrenten op x86 (VIA en AMD) zijn klein en financieel zwak, maar de ARM producenten (Samsung, Apple, Renesas, TI, nVidia, LG, STM, Qualcomm) zijn andere koek, en hebben gezamelijk een veel groter R&D budget. Geen wonder dus dat ARM zich technologisch erg snel ontwikkelt.

[Reactie gewijzigd door Dreamvoid op 27 oktober 2011 14:21]

Veel groter budget?

Het is moeilijk inschatten wat voor R&D budget Apple heeft voor ARM producten. Maar al die andere bij elkaar hebben ongeveer dezelfde jaaromzet als Intel, en dus een vergelijkbaar R&D budget. Echter maken al deze fabrikanten een gigantisch schala aan totaal verschilllende producten waar het R&D budget over verdeeld moet worden.

Daarnaast gebruiken, Apple, Samsung, STM, TI, LG, Renesas, Broadcom, etc grotendeels de architectuur ontwerpen van ARM via licenties, er gebeurt bij deze bedrijven relatief weinig ontwikkeling voor ARM.

De enige twee die wel het nodige aan ARM ontwikkeling doen (naast ARM dan) zijn nVidia en Qualcomm. Qualcomm maakt alweer een poosje hun eigen ontwerpen gebaseerd op ARM's v7 instructieset, echter lopen ze (waarschijnlijk als gevolg hiervan) ondertussen achter op de concurrentie.

nVidia is een iets ander verhaal. nVidia heeft een flink budget en ziet veel toekomst in de ARM markt en steekt er dus ook het nodige R&D budget is (mischien zelfs meer dan ARM zelf). nVidia's is wel al bezig met eigen ontwerpen maken, echter duurt het nog even voordat we deze gaan zien. De huidige Tegra's (1, 2) zijn nog volledig gebaseerd op ARM's ontwerp, de komende Tegra 3 is nog steeds grotendeels een Cortex A9 met wat kleine aanpassingenen. De Tegra 4 wordt een A15 architectuur (met vermoedelijk nog wat meer aanpassingen). De eerste echte nVidia ontwerp/architectuur op basis van ARM's instructieset word de Tegra 5 of 6, en kunnen we de pas rond de overgang 2012/2013 verwachten.

Al-in-al is het R&D budget dat aan ARM besteed wordt waarschijnlijk een heel stuk kleiner dan het budget dat Intel heeft.


Tevens ben ik het ook niet echt eens met de stelling dat ARM zich sneller ontwikkeld. Als je kijkt naar wat Intel in de afgelopen jaren heeft gedaan van de energie slurpende P4 naar de zuinige i3/i5 processors dan is daar ook een hele hoop gebeurt.

@Dreamvoid - Klopt, maar processors vormt een behoorlijk groot deel van hun omzet, en logischerwijs gaat er dus ook een groot deel van het R&D budget naar x86. Intel maakt veel minder verschillende type producten dan de meeste fabrikanten in dat rijtje (nVidia uitgezonderd).

[Reactie gewijzigd door knirfie244 op 27 oktober 2011 16:18]

Intel's R&D budget lijkt enorm, maar is ook niet alleen x86 chip ontwerp - het is ook procestechnologie, productie, en hun verdere business in netwerk/wifi/etc chips.
Maar al die andere bij elkaar hebben ongeveer dezelfde jaaromzet als Intel, en dus een vergelijkbaar R&D budget.
Je post klopt verder wel maar wanneer gaat iedereen nou eens begrijpen dat bijv Samsung enorm (maar dan ook enorm) groot is. Iedereen lijkt zich suf te staren op de aandelen beurs en de manier waarop die bedrijf daar worden gepresenteerd. Dit geeft een compleet verkeerd beeld. Als je Samsung vergelijk met Intel en bijv Apple dan is Samsung 100% zeker de grotere. Ze moeten hun investeringen wel verspreiden over enorm veel zaken waardoor het R&D budget wel past in jou verhaal (in de zin van dat Intel meer in R&D stopt dan Samsung op proc gebied)
nVidia is een iets ander verhaal. nVidia heeft een flink budget en ziet veel toekomst in de ARM markt en steekt er dus ook het nodige R&D budget is (mischien zelfs meer dan ARM zelf). nVidia's is wel al bezig met eigen ontwerpen maken, echter duurt het nog even voordat we deze gaan zien. De huidige Tegra's (1, 2) zijn nog volledig gebaseerd op ARM's ontwerp, de komende Tegra 3 is nog steeds grotendeels een Cortex A9 met wat kleine aanpassingenen. De Tegra 4 wordt een A15 architectuur (met vermoedelijk nog wat meer aanpassingen). De eerste echte nVidia ontwerp/architectuur op basis van ARM's instructieset word de Tegra 5 of 6, en kunnen we de pas rond de overgang 2012/2013 verwachten.
Ik kam me niet voorstellen dat NVidia op termijn van het ARM Core design van ARM zal afwijken.
Om drie redenen:
1) Hun absolute kracht ligt in de GPU
2) Als er fouten in het eigen design zitten waardoor een bepaalde instructie niet goed werkt zal dat ik een gezamenlijke core op een af andere manier opgelost worden. Als je maar een minderheid van de markt bedruipt zal dit niet standaard opgelost worden.
3) Het is duurder om zelf de core te ontwerpen, het is ook maar de vraag hoeveel performance je zal winnen.
x86 is geen architectuur he
Vertel dat maar tegen Intel.

Larrabee: A Many-Core x86 Architecture for Visual Computing
http://software.intel.com/file/18198/
Precies mijn punt: Larrabee is de architectuur, x86 de instructieset. Nehalem, Sandy Bridge, Bulldozer, K10, Bonnell (=Atom)...allemaal architecturen die dezelfde instructieset gebruiken.

[Reactie gewijzigd door Dreamvoid op 27 oktober 2011 15:12]

Waar komt de wijsheid vandaan dat de rek uit de x86 architectuur is. Tot nu toe zie ik x86 chips alleen maar sneller en zuiniger worden. Gedeeltelijk omdat ze steeds kleiner geproduceerd kunnen worden en natuurlijk omdat het ontwerp steeds hogere snelheden met multicores mogelijk maakt.

Intel heeft ook al jaren terug wat voorbeelden laten zien van cpu's met 80 of meer cores de rek is dus nog lang niet uit x86.
Omdat, ik weet dat uit betrouwbare bron, ze niet lager kunnen dan 9nm met die ets machines die de wafers maken.
nou dat heeft meer met een fysieke boundery te maken. dacht dat ze 5 draadjes isolatie nodig hadden en 4 draadjes om data te transporteren. Als ze het kleiner maken kreeg je problemen met redunantie en overspraak van je kanaal ernaast.

Sorry, sorry, heb me 1,5 nm vergist max is 7,5 nm :)

Nou ben nog even verder wezen zoeken mijn data is dus ook al ahcterhaald, sinds vorig jaar is het mogelijk nog kleiner te gaan, maar dit is op basis van grafeen. de isolatie van grafeen is beter dan sillicium, dus zal nu iets lager liggen maar niet veel.

[Reactie gewijzigd door masgreece op 27 oktober 2011 14:57]

En dat geldt netzogoed voor ARM. Momenteel ontlopen ARM en de verschillende x86 architecturen elkaar niet zoveel wat betreft performance/watt. De Atom doet het waarschijnlijk net ietsjes slechter dan de Cortex A9, maar de low-power i5 processors doen het weer een stukje beter.
ARM-processors zijn weliswaar efficiŽnter, maar over het algemeen veel minder krachtig dan x86-cpu's.
Nergens op gebaseerde onwaarheid. ARM-processors verbruiken minder en zijn minder krachtig. Ik heb nog geen enkele review/test gezien waaruit blijkt dat ARM (aanzienlijk) efficiŽnter is.

@Stephmeister - EfficiŽntie en verbruik zijn niet hetzelfde. EfficiŽntie van processors is het best uit te drukken in performance/watt, hoe je de performance uitdrukt is vraag 2. De meest x86 processors hebben een hoog verbruik, maar zijn ook zeer snel, ARM is (vergeleken met x86) zeer traag, maar verbruikt ook weinig.

[Reactie gewijzigd door knirfie244 op 27 oktober 2011 16:23]

"Ik heb nog geen enkele review/test gezien waaruit blijkt dat ARM (aanzienlijk) efficiŽnter is."

Toch word x86 nagenoeg niet gebruikt voor mobiele devices vanwege hun energie verbruik. Lijkt mij dat ze dat doen vanwege de efficiŽntie.
Efficientie (zeker tussen verschillende platformen) kun je het beste uitdrukken in instructies/vermogen, ofwel hoewel instructie verwerkt een CPU per watt.

Laat beide processors Pi uitrekenen met 1miljoen cijfers achter de komma. Als je vervolgens de tijd deelt door het vermogen kun je dus aangeven welke van de twee per beste (en dus meeest efficient) is per watt.

Mijn leaseauto, een Peogeot 207 1.4VTI weet slechts 95 theoretische PK's te gegenereren. De auto van mijn broertje een Seat Leon 310 (limited) edition weet uit een 2 liter blok 310 PK's te persen. En ondanks dat de Seat meer brandstof nodig heeft, is deze wel efficienter. Daarbij heeft de Seat met 50km/h in z'n 4 ook minder toeren nodig dan mijn Peugeot..

Echter is het verleden waren ARM processors nou niet echt efficiŽnt met floating point berekeningen dus misschien is dat niet zo'n goede test. Maar je kunt ook kijken hoeveel HTTP requests een processor per seconde kan verwerken..

Wat je ook niet moet vergeten is dat misschien 1 ARM processor minder energie verbruikt, maar is dat ook nog het geval als je bijvoorbeeld 4 tot 6 ARM procs nodig hebt om het vermogen van een Xeon te evenaren?

Maar als je veel simpele taken parallel moet uitvoeren (zoals een webfarm) kan een ARM server wel degelijk een toegevoegde waarde hebben..
En ondanks dat de Seat meer brandstof nodig heeft, is deze wel efficienter.

Lijkt me een nogal tegenstrijdig zin vindt je niet?
Als je met beide 50 rijdt zal de 207 vermoedelijk minder verbruiken.
Met hogere snelheden waarbij de 207 op z`n max komt heb je wel kans dat de Leon zuiniger is omdat deze daarvoor ontworpen is.
Hierbij geld hetzelfde principe als bij ARM x86: Beide zijn met een ander doel ontworpen.
ARM zuinig
X86 rekenkracht

Bij de auto`s
207 Doorsnee auto
Leon racemonster
Niemand_Anders,

Maar het idee van ARM juist is om een zo simpel mogelijke instructies-set te hebben. Te verwerken instructies per watt is dus niet echt een uitkomst aangezien sommige x86 instructies veel meer werk verzetten dan sommige ARM instructies.
Echter is het verleden waren ARM processors nou niet echt efficiŽnt met floating point berekeningen dus misschien is dat niet zo'n goede test. Maar je kunt ook kijken hoeveel HTTP requests een processor per seconde kan verwerken..
Momenteel hebben de Cortex A8 en A9 een optionele VFPv3 unit. Langzaam met floating point is nu verleden tijd.
Ze hebben ook nog een optionele vector unit in de vorm van Neon.
"Nergens op gebaseerde onwaarheid. ARM-processors verbruiken minder en zijn minder krachtig. Ik heb nog geen enkele review/test gezien waaruit blijkt dat ARM (aanzienlijk) efficiŽnter is."
Dan heb je de ontwikkeling van ARM-processoren dus niet gevolgd.
Het Arm ontwerp is juist door zijn basale eenvoud heel goed te aan te passen aan elk soort toepassing. Intel daarentegen maakt hoogst gespecialiseerde chips die taken heel efficiŽnt kunnen uitvoeren door speciale instructies, maar ook veel overhead meedragen. Al met al zal het elkaar niet veel ontlopen voor server toepassingen.

Maar dat is niet het belangrijkste!

Arm hoeft niet zuiniger te zijn dan intel. Ook niet even te zuinig te zijn. Wat je gemakkelijk over het hoofd ziet is dat Intel een hele hoge winstmarge heeft op highend processoren. Dat maakt het voor Arm fabrikanten heel gemakkelijk deze markt te penetreren, want die zijn gewend aan lagere winstmarges. Daardoor kunnen ze een prijsprestatie verhouding aanbieden die beter is dan die van Intel. Intel kan daar als marktleider niet op reageren met prijsverlagingen, want dat is veel te kostbaar. Zo moeten ze lijdzaam toezien dat Arm aan de onderkant van de markt begint te knabbelen, zoals ze ook zullen moeten toezien dat dit straks op de netboekmarkt gaat gebeuren. Intel kan de strijd niet aangaan zonder zijn eigen producten te kannibaliseren, daar zit het probleem voor hen. Een luxe probleem, maar toch een probleem.

Alleen als ze zo een superieure processor weten te maken dat deze het prijsverschil kan rechtvaardigen kunnen ze anderen uit de markt houden. In geval van Arm kan dat wel eens lastig zijn. De Arm processoren worden snel veel krachtiger, multicore en zijn erg energiezuinig. Een potentieel gevaarlijke concurrent op de wat langere termijn, denk ik, zeker als afnemers als Google en Facebook er brood in gaan zien voor hun grote farms. Voorlopig is zo ver nog niet.
Logisch verhaal, maar de vraag is dan: waarom gaat het ARM wel lukken om Intel het leven zuur te maken op de servermarkt, waar het met MIPS, SPARC en POWER niet is gelukt?

[Reactie gewijzigd door Dreamvoid op 28 oktober 2011 00:32]

Dat weet ik niet, maar de Alpha is mislukt omdat HP die aan de kant heeft geschoven (misschien omdat ze de Itanium al hadden). Behalve technische gronden, kan de marketing van de architectuur dus soms ook meespelen.
Ik heb nog geen enkele review/test gezien waaruit blijkt dat ARM (aanzienlijk) efficiŽnter is.
Beter opletten dan, Calxeda laat 480 cores op minder dan 600 Watt draaien.

Haalt Intel dat? Nee, verre van.

Overigens is het niet performance/watt waar ARM het veel beter doet dan Intel, maar met name aantal prestatie per vierkante meter (dit is het hele idee achter 'physicalization', de omgekeerde versie van 'virtualization').

Natuurlijk komt volgend jaar de Cortex A15 op de markt. Wat heeft Intel op de roadmap staan? Ook iets dat 40% zuiniger is dan de voorganger? Vziw niet echt.

Heeft Intel al een hybride SoC met kleine en grote cores waarbij geswitcht kan worden naar zuinigere cores binnen 20 msec? Vziw: Nee, niet echt.

Zijn Intel processoren binnen 2 jaar iets van 100% sneller geworden in floating point? Vziw: Nee. ARM processoren wel (A15 tov. A8).
Prima maar dat zijn nog twee procedee sprongen en ASML heeft dus nog tijd zat om daar iets aan te doen. Daarnaast die shrinkage natuurlijk weinig over de processor techniek. Volgens mij worden de laatste jaren juist weer sprongen gemaakt in X86 land. Ten tijde van de P4 was het kommer en kwel maar sindsdien heb je de AMD Opteron sprong en de i3,i5,i7 etc sprong gehad.

Intel wordt wel wat afgeleid door hun gedoe omtrend Atom en dat is wat mij betreft een wat te halfslachtige aanpak. Niet zuinig genoeg en niet snel genoeg, zeker nu windows ook naar ARM gaat. Maar wie weet dat hun geplande synergie van Atom en I over een paar maanden serieus succes op gaat leveren
Volgens mij gaat het ook niet op de rek van een x86, maar om energie zuinig toch veel requests te kunnen afhandelen.
Was het ook niet facebook die aan het kijken was naar ARM?

Facebook zelf rekend weinig (voor de webservers dan), die willen eigenlijk alleen maar zo snel mogelijk content van A naar B verplaatsen.
Als je dat energie zuiniger kunt doen, dan scheeld dat enorm op de kosten van een grote data center.
Ik denk dat facebook nog wel aardig rekend, voor al het connectie berekenen tussen mensen daar gaat waarschijnlijk aardig wat power inzitten. Zeker als je een paar stappen doet.
Zoals ik aangaf, de webservers zelf rekenen weinig. Je kunt je natuurlijk voorstellen dat ze Cassandra niet op de webservers draaien maar op backend servers.
Alsnog zou ik me kunnen voorstellen dat ze Cassandra op ARM willen zetten.
Als je de tabel in dit document over ARM Cortex A8 vs Atom mag geloven

http://caxapa.ru/thumbs/2...tomarchitecturalandbe.pdf

dan is de Atom tot 2 keer efficiŽnter bij floating point en de ARM tot wel 6 keer efficienter bij integer bereking. De meeste servers doen weinig floating point berekeningen. Maar het hangt er dus nu redelijk vanaf waarvoor je de server in gaat zetten.

Verder is de processor maar een deel van je stroom gebruik. Als er een Atom in de server zit dan gaat waarschijnlijk de meeste stroom nu al op aan de infra er om heen (netwerk en storage).

[Reactie gewijzigd door PuzzleSolver op 28 oktober 2011 14:26]

Als je de tabel in dit document over ARM Cortex A8 vs Atom mag geloven

http://caxapa.ru/thumbs/2...tomarchitecturalandbe.pdf

dan is de Atom tot 2 keer efficiŽnter bij floating point en de ARM tot wel 6 keer efficienter bij integer bereking. De meeste servers doen wijnig floating point berekeningen. Maar het hangt er dus nu redelijk vanaf waarvoor je de server in gaat zetten.

Verder is de processor maar een deel van je stroom gebruik. Als er een Atom in de server zit dan gaat waarschijnlijk de meeste stroom nu al op aan de infra er om heen (netwerk en storage).
Floating point ios leuk voor mp3tjes te converten// etc of te zippen en te rarren.. of foto bewerking... Voor servfer doeleinden is atom echt niet bedoeld...
ZIP/rar is integer, geen FP. Aan de andere kant, de rekenbewerkingen die Shell doet op geologische metingen zijn wel weer 95% FP; daar heb je dus dikke servers voor nodig die goed zijn in FP.
Precies, en exact daarom, omdat de Cortex A8 zo langzaam was met floating point, is ie vervangen door de A9!

Die natuurlijk ook al oud nieuws is en vervangen is door de A15.
Interessant, de rek is inmiddels ook wel uit de x86 architectuur. In ARM zit nog veel potentieel voor toekomstige ontwikkeling.
Helemaal mee eens.
De CISC instructie set en de erfenissen uit het verleden maakt de x86 onnodig complex.
De ARM heeft inderdaad meer rek, de core is veel minder complex. Er kunnen nog 64 extensies in. Er zullen meer cores op een die passen voordat er koelingsproblemen optreden.
de AMD bulldozer heeft HP denk een extra zetje gegeven.
"ARM-processors zijn weliswaar efficiŽnter, maar over het algemeen veel minder krachtig dan x86-cpu's."

Ik vermoed dat deze servers ideaal zijn voor webserver achting toepassingen waar IO snelheid veel belangrijker is dan pure rekenkracht.
480 ARM cores in 1 server is dan wel weer pure rekenkracht.

50 Intel cores passen gewoon niet in 1 server (De voeding alleen al zal niet passen, laat staan het vloeibare stikstof koel systeem)

Sorry 't past wel.
Bedankt voor de updates hieronder.

[Reactie gewijzigd door Jaco69 op 27 oktober 2011 22:07]

Sorry? Intel heeft al een werkende 80 core chip laten zien in 2007.

Als het om fysieke cpu's gaat, SeaMicro heeft een 10U server laten zien met 512 Intel Atom cpu's.

[Reactie gewijzigd door Tijger op 27 oktober 2011 14:11]

Modulair Atom based server
Is al te kooop

http://www.datacenterknow...res-into-its-atom-server/

768 Cores in een 10U serverrack
Wat een onzin. 50 cores is niet enorm gebruikelijk, maar sowieso is er de Intel E7-serie met maximaal 10 cores en de AMD 6100-serie met maximaal 12 cores. Bij alle grote merken kan je servers kopen waar er daar 4 van inzitten, soms in 1U soms in 2U.

Dus 40 intel of 48 AMD cores in 1U is helemaal niet zo ongebruikelijk met x86-systemen. Met blade-servers kom je eventueel nog wat hoger qua dichtheid.

Al met al hebben die servers uiteraard geen magere voedingen (1000-1500Watt redundant is niet ongebruikelijk), maar ze werken over het algemeen domweg met luchtkoeling.
met ARM hoef je niet op intel te wachten :+
met ARM hoef je niet op intel te wachten :+
Ik verwacht wel dat AMD er op in gaat springen in 5 jaar :*)
Voorlopig pure theorie ;) Tegelijkertijd heb ik net een paar servers in een datacenter ingericht met ieder 24 intel cores. En er zijn ook 8 sockets Intel machines (voor in totaal 48 cores per machine) ;)

Mijn probleem is meer dat het nog best lastig is een 24 core machine zwaar te belasten. Veel meer rekenkracht hebben de meeste mensen op dit moment dan ook niet echt nodig.
x86 kun je dus breed inzetten en sommige cpu's alleen voor speciale taken. Niet verkeerd op zich maar de markt is qua grote dan ook niet zo groot voor dat soort server.

Uiteindelijk zullen we zien hoe snel 120 quad core arm cpu's zijn in vergelijking tot andere hardware.
precies, lijkt me eerder een concurent voor sun dan voor intel.
Nieuwe windows versies (ik neem even aan dat de server versies ook mee gaan) gaan ook op ARM draaien, dus denk dat het een directe concurrent van Intel gaan worden
Er zijn een heleboel services die je met gemak op een dergelijk lage performance systemen kunt draaien.
(gedistrubueerd) monitorring
SMTP server
(LAN) DNS server

Die draaien op een hexacore 100Gig systeem met 15Kschijven is een enorme overkill
precies, dat draai je lekker in virtual machines, liefst heel veel tegelijk op ťťn...jawel...krachtige server die zo weinig mogelijk ruimte inneemt in je dure gehuurde rack :)
Virtual Machine? Tssk, sommige mensen zien VM's als de enige methode om op 1 computer 2 programma's te draaien. Het is de 21ste eeuw, elk OS kan dat zonder hulp. Een 20GB image alleen zodat je een 2 MB servertje kunt draaien, waanzin,
Ben benieuwd of dit zal aanslaan, Atom word ook zins dit jaar door sommige fabrikanten toegepast in servers. Als je echt maar 1 lichte taak wilt uitvoeren is, maar anders kan je denk ik betere zoveel mogelijk taken in ťťn krachtige server onderbrengen. En zoveel kost stroom nu ook weer niet van 1 servertje, ga je niet ineens rijk van worden. :)

Offtopic/
Staat gewoon drie keer hetzelfde in dit nieuwsbericht, zo krijg je ook wel drie alinea vol waar je normaal maar krap ťťn alinea mee vol krijgt. :)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True