Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 15 reacties

IBM wil de Blue Gene/P architectuur benutten om webapplicaties te serveren. De energiezuinige en makkelijk schaalbare supercomputers maken snelle capaciteitsuitbreiding en gereduceerde koel- en installatiekosten mogelijk.

De supercomputers van IBM, de Blue Gene/P serie in het bijzonder, kunnen in de nabije toekomst voor internettoepassingen worden ingezet. In plaats van specifiek voor de smp-machines geschreven software, zouden de machines voor webapplicaties standaard software moeten gebruiken. De Blue Genes zouden dankzij dit zogeheten Kittyhawk-project breder ingezet kunnen worden en een nieuwe concurrent voor de nu in webapplicaties gebruikelijke clusters kunnen worden.

IBM logoBig Blue ziet de relatief energiezuinige supercomputers als concurrentie voor de clusters waarop websoftware wordt gedraaid. Niet alleen zou een Blue Gene zuiniger zijn dan een verzameling 'normale' servers, ook zouden de smp-machines betrouwbaarder zijn en beter opschalen. Standaard is websoftware echter niet geschreven om de Blue Gene-architechuur, met zijn nodes van Powerpc-processors, optimaal te benutten. De onderzoekers van IBM proberen met het Kittyhawk-project dit probleem op te lossen door eigen soft- en firmware te schrijven waardoor de workload van webapplicaties netjes over de nodes van de Blue Gene verdeeld wordt.

Voor de Kittyhawk-tests had het team de beschikking over een systeem met 4096 Powerpc-processors met in totaal 2TB geheugen. De processors waren in nodes van vier cpu's georganiseerd, met 32 nodes per blade en 32 blades per serverrack. In de tests bleek de Blue Gene/P redelijke scores te halen: de Specjbb2005-test, een Java-benchmark, werd afgerond met 9565Bops per node bij gebruik van 256 nodes. De in het systeem aanwezige 2TB ramgeheugen werd als ram-disk gebruikt, maar via de dubbele 10GBps-ethernetaansluiting waarover elke blade beschikt, is externe opslag eenvoudig aan te spreken.

Blue Gene/P blade met 32 nodes
Moderatie-faq Wijzig weergave

Reacties (15)

Daar is over nagedacht en het kan.
In Blue Gene/P the service actions will be more finite.
They will only affect the specific hardware that is being serviced. A good example of that
would be the same procedure, replacing a compute node. Now this process will only affect
partitions (and jobs running on them) that include the specific node card that contains that
compute node rather than the whole midplane.
Erg handig aangezien webservers bij uitstek belang hebben bij veel cpu's (veel connecties tegelijk). Al vraag ik me wel af hoe betaalbaar dit gaat worden.

Wel lekker schaalbaar systeempje dit.
Same here, wat ze hier beschrijven als test-omgeving is iets waar volgens mij 99,9% van de webhosters nooit mee in aanraking komt. Tenzij een gigantische hoster denkt over te stappen naar een nieuwe data-center is dit toch wel vergezocht imo. Het zou interessanter zijn als ze deze technieken ook op relatief kleine schaal zouden kunnen toepassen.
---edit---
@Nickystyle, ik denk dat google juist een uitzondering op de regel is door zijn afmetingen, die zouden zich kunnen veroorloven om ipv een gigantisch serverpark met tich verschillende servers wat ze nu beschrijven.

[Reactie gewijzigd door n4m3l355 op 6 februari 2008 15:34]

dat lijkt misschien zo maar IBM zelf bijvoorbeeld heeft zoveel servers in gebruik voor zijn eigen webservices. het is bijne niet bij te houden. Ze hebben echt niet alleen een luizig servertje of clustertje met www.ibm.com daar op:)
Ze hebben massa's informatie die bijna allemaal voor bijna iedereen beschikbaar is via een webbrowser.

En niet alleen IBM heeft zoveel servers in gebruik, er zijn beel vrote bedrijven waar dat zo is. Dus niet alleen enorme hostingbedrijven hebben hier baat bij:)
en zo'n bedrijf als google o.i.d. heeft die niet een belang bij dit soort systemen, want die gebruiken toch veel servers?
Same here, wat ze hier beschrijven als test-omgeving is iets waar volgens mij 99,9% van de webhosters nooit mee in aanraking komt.
Virtualiseer een paar servertjes en je hebt een enkel apparaat wat ongeveer de benelux aan servercapaciteit kan voorzien. Het kan interresant zijn voor zeg een cooperatie hosters (oid) gezamelijk te werken en operationele kosten binnen de marge te houden.

[Reactie gewijzigd door Toontje_78 op 6 februari 2008 15:56]

Uhm,

"speciaal voor smp machines geschikte programma's"

Webservers zijn bij uitstek geschikt om op brute smp machines te draaien, je hebt immers een overvloed aan paralelle requests die het uberhaupt nodig maakten dat je meer cpu cycles nodig had.
weet iemand of je deze 'nodes' los van elkaar uit en aan kan doen? dit zou anders namelijk betekenen dat je de hele server opnieuw moet opstarten waarbij dus heel veel website offline gaan.
Hoe kan zo'n duur apparaat nou op tegen dual quad-core Xeon servers die voor een paar duizend euro over de toonbank gaan? Zie Google. Die hebben niet een X aantal zeer grote supercomputers maar een grid van vele kleine (zeer) goedkope servers.
En ik geloof dat de stroomrekening van Google alleen in NL al ongeveer 1 miljoen per locatie is. Nou, als zo'n super pc'tje de helft aan electriciteit verbruikt heb je het er zo weer uit dacht ik :)

Om nog maar niet te spreken over het feit dat dit een stuk beter schaalt dan een Xeon parkje...
tuurlijk niet, ik geloof dat Microsoft al een tijdje geleden server support voor PPC heeft gedropt.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True