Microsoft introduceert Windows HPC Server 2008 R2

Microsoft heeft het bijgewerkte Windows HPC Server 2008 R2 op de markt gebracht. Het server-OS, dat is bedoeld voor het high performance computing-segment, kan onder andere zware rekenklussen over clients verdelen.

Het geüpdatete Windows HPC Server 2008 R2, dat overweg kan met duizenden processor-cores, kan met bestaande Windows-managementtools worden beheerd, zo stelt Microsoft. Ook is het compatibel met zakelijke software van Microsoft, waaronder Active Directory, SharePoint Server en Microsoft Office.

Nieuw in de R2-release is dat het server-OS optimalisaties heeft meegekregen voor het doorberekenen van complexe spreadsheets van Excel 2010. De server kan via het bedrijfsnetwerk bovendien gebruikmaken van processortijd in aangesloten clients. Hiervoor moet agent-software op een Windows 7-systeem worden geïnstalleerd. Een nog uit te brengen servicepack moet het ook mogelijk maken om rekenklussen aan publieke cloudomgevingen uit te besteden.

Microsoft heeft op de desktopmarkt weliswaar een dominante positie, maar in de servermarkt moet het opboksen tegen Linux. Circa 90 procent van de vijfhonderd snelste supercomputers draait op het opensource-OS. Microsoft stelt echter dat uit benchmarks blijkt dat zijn server-OS ruwweg even snel is als Linux. Ook claimt Microsoft dat Windows HPC Server voor bedrijven, over een periode van vijf jaar gerekend, 32 tot 51 procent goedkoper is.

Inmiddels heeft Cray, een bedrijf dat supercomputers bouwt, aangekondigd dat het Windows HPC Server 2008 R2 gaat ondersteunen. De Cray CX1-iWS, een systeem dat met maximaal 96 cpu's circa 5 tflops kan behalen, is leverbaar met Linux of Microsofts nieuwe hpc-OS. Concurrent SGI heeft laten weten dat het Windows HPC Server 2008 R2 met zijn Octane III supercomputer gaat meeleveren.

Door Dimitri Reijerman

Redacteur

22-09-2010 • 09:42

51

Reacties (51)

51
50
36
1
0
0
Wijzig sortering
Wow, dit is nog eens cool... het werd tijd dat er een soort SETTI@Home voor zakelijk gebruik kwam... ik vraag me alleen af hoe je als programmeur je voordeel haalt uit een systeem als dit.. zijn er automatische implementaties of moet je specifieke zaken implementeren?
Dit soort systemen voor clustering en grid-computing bestaan al tijden. Microsoft's HPC Server is bijvoorbeeld de opvolger van Microsoft Windows Compute Cluster Server 2003. Apple heeft al jaren Xgrid, en voor Linux bestaan diverse oplossingen. Sommige applicaties hebben hun eigen oplossingen bedacht, zoals bijv 3D Studio Max het renderen van individuele frames kan uitbesteden naar de kantoor-pc's die idle zijn. Zelf heb ik wel eens distcc gebruikt, waarmee je het compilen van C code kunt distribueren.

Het Open Grid Forum probeert standaardisering tussen verschillende grid-computing platforms te organiseren, wat hard nodig is.

Applicaties dienen er wel voor geschikt gemaakt te worden. Net zoals multi-threading in CPU's vereist clustering dat een job opgesplitst kan worden in taken die niet te zeer van elkaar afhankelijk zijn. Maar waar bij multi-threading de CPU nog vrij veel data in het geheugen kan delen tussen taken, worden die bij clusters meestal verpakt in een soort stand-alone pakketje, geschikt voor de gebruikte cluster architectuur, geupload naar een Node en onafhankelijk van elkaar verwerkt door die Node. Die Node moet dus over alle benodigde data beschikken.
"Microsoft heeft op de desktopmarkt weliswaar een dominante positie, maar in de servermarkt moet het opboksen tegen Linux. Circa 90 procent van de vijfhonderd snelste supercomputers draait op het opensource-OS. Microsoft stelt echter dat uit benchmarks blijkt dat zijn server-OS ruwweg even snel is als Linux."

Alleen een klein verschilletje....linux servers zijn gratis... :+
Linux servers zijn niet gratis, de software is veelal gratis maar er moet wel vaak worden betaald voor enterprise support contracten en linux techneuten zijn vaak ook een stuk duurder.
Ik bedoel alleen maar te zeggen dat het opzich vrij logisch is dat je eerder voor Linux kiest dan voor Windows! ;)
Snap ik maar in het geval van de super computers waar het in het artikel over gaat gaat dat niet op. Waarom zou je immers bezuinigen op een Windows licentie bij een systeem met 96 cpu's ;) Die apparaten draaien gewoon Linux omdat het toch beter perfomt, stabieler is en meer customizable.
Zeker als je al een team ontwikkelaars hebt die ervaring hebben met Windows.. Dan zijn de licentiekosten een schijntje vergeleken bij de omscholing.
Misschien als je alleen op korte termijn kijkt en niet op lange termijn. Omscholing is natuurlijk maar een eenmalige investering. Echter is het in de huidige markt wel zo dat er gewoon veel meer windows ontwikkelaars rond lopen.
Wat zijn Windows ontwikkelaars ?
Timmermannen, ze maken ramen voor in je huis.
Goed punt, wat niet iedereen hier zal begrijpen...
Omscholen moet je ze zowiezo: je kunt niet zomaar 'even' een cluster aware applicatie bouwen alleen maar omdat je ook C# spreekt. En ik durf te stellen dat het goedkoper is om een cluster-aware programmeur van Windows naar Linux om te scholen dan dat het is om een Windows programmeur een goed cluster-aware programmeur te maken.
Het is alleen vrij logisch als je geen verstand hebt van zaken en je niet verder kijkt als de licentiekosten voor het OS. Gelukkig doen goede besluitvormer dit niet en kijken ze naar de total cost of ownership. Hierin zit ook een stukje continuïteits waarborging waarin support contracten zitten.
Idd, Voor zover ik weet is de TCO van linux meestal hoger dan die van Windows. Dat linux meestal gekozen wordt voor super computer lijkt me dan meer om de reden dat je linux kan strippen tot er enkel overblijft wat je nodig hebt. Met Windows is dit toch minder het geval.

als je even logisch nadenkt dan weet je ook dat op een supercomputer die in de miljoenen kan kosten die licintie van windows helemaal niets is.
En waarop is jouw kenniis gebaseerd? Een onderzoek van MS zelf is meermalen weerlegd. Laten we het erop houden dat linux vaak goedkoper is, maar windows een uitgebreider ecosysteem heeft.
Overigens kun je voor een paar duizend al een supercomputer / renderfarm oid in elkaar knutselen.
Een supercomputer die op POWER architectuur functioneert is sneller dan een supercomputer die op x86 werkt (met hetzelfde aantal cores / hz). Windows werkt alleen maar op x86.

ARM is ook een architectuur die voor supercomputers gebruikt kan worden. Je denk dan misschien: maar dat is een zuinige, maar dat neemt niet weg dat een zuinig supercomputer niet aantrekkelijk kan zijn.

MIPS en RISC zijn beide ook erg goed in computeren, en Sparc kan er ook wat van. Dan heb je nog custom CPU's en ASIC's.

Al met al kan windows maar 1 ding: x86, en Linux, kan alles, want dat kan je zelf regelen.
Nu zeggen sommige snotneuzen dan: ja, maar als je Linux kernel gebruikt om een nieuwe architectuur direct van een kernel te voorzien, dan kan je net zo goed een eigen kernel schrijven. Maar dat is onzin, want de kernel is veel meer dan slechts een dingetje voor een architectuurtje. De stukjes die arch-specific zijn pas je aan, de rest gebruik je zoals ie is. Dit soort zaken zijn onmogelijk met windows, om dat je de source code niet hebt. Een supercustom systeem werkt alleen als je ALLES zelf kan regelen, en dat zal met windows nooit en te nimmer kunnen in closed-source vorm.
Zo zeer logisch vind ik dat nog niet. Een beetje enterprise met een HPC-omgeving draait niet op Ubuntu en hoopt niet op "support uit de community".
Dat Microsofts berekeningen niet ten nadele van hun product is, oogt logisch. Maar ik kan me prima voorstellen dat er situaties bestaan waarin een Microsoft-omgeving de voorkeur heeft.
Linux servers zijn niet gratis, de software is veelal gratis maar er moet wel vaak worden betaald voor enterprise support contracten en linux techneuten zijn vaak ook een stuk duurder.
In de regel beheren Linux/Unix techneuten wel effe een stuk meer servers dan hun windows tegenhangers. Dat is mijn (praktijk) ervaring althans.
"in de regel" vs "mijn (praktijk) ervaring" is natuurlijk een redelijk tegenstrijdige uitspraak ;)
Niets is gratis, Linux kán goedkoper zijn, maar ook duurder :-)
Hangt van je kennis af. Met kennis is windows duurder, zonder kennis hangt de totale prijs af van wat je wil doen.
Ik ken een bedrijf waar ze een jaar of 5 geleden ook wat vlotte IT'ers hadden die stonden te roepen dat linux gratis was, beter schaalbaar, ... Dus alle oracle db's overgezet van Windows naar Linux (we spreken over een 30-tal databases die bijna allemaal verspreid staan over meerdere servers). Nu 5 jaar later blijkt dat de kosten gigantisch veel hoger liggen dan verwacht. Iemand heeft het eens uitgerekend, omscholing, maintenance, ... en al meegerekend hadden ze net zo goed 15 jaar MS kunnen betalen. Zolang duurt het alvorens het Linux systeem goedkoper wordt. Dat wil zeggen dat het nog minstens 10 jaar duurder zal zijn dan hadden ze bij MS gebleven.
/quote
Ook claimt Microsoft dat Windows HPC Server voor bedrijven, over een periode van vijf jaar gerekend, 32 tot 51 procent goedkoper is.
/quote

Ik vraag mij erg af hoe dat berekend is.

Als ik dat vergelijk hier met mijn bedrijf, waar 0 windows servers draaien.
dat toch goedkoper is dat mijn 10 debian servers die al 5 jaar draaien zonder kosten.
Ik zou die berekeningen wel eens willen zien.
alleen al aan licentie kosten op 100+ gebruikers spaar ik al zat.

kom MS laat de berekeningen eens zien, i.p.v die aannames..
Een bedrijf wat 10 Debian-servers draait is niet echt het doelpubliek voor Windows HPC Server; dat zijn bedrijven die al een supercomputer hebben of een cluster van een paar honderd systemen.
[off-topic, maar wel grappig bedoeld]
Als in jouw bedrijf 0 windows servers draaien, dan is ook daar Windows goedkoper dan Linux.
[/off-topic, maar wel grappig bedoeld]
Maar als je het idee hebt een omgeving te hebben waar een serverpark van 10 servers al 5 jaar draait zonder kosten dan denk ik dat het verstandig de afdeling boekhouding een nieuwe pc of mac te geven, want ergens gaat er iets fout in de berekening.
Microsoft stelt echter dat uit benchmarks blijkt dat zijn server-OS ruwweg even snel is als Linux.

Lees ik hier een bevestiging dat Linux altijd al sneller was dan Windows als server in ieder geval, zou dit ook voor de desktop gelden dan? Aangezien de linux kernel hetzelfde in de server is als in de desktop (correct me if im wrong)

edit: zo niet, dan moet de desktop kernel van windows desktop sneller zijn dan de windows server kernel

[Reactie gewijzigd door morrowyn op 26 juli 2024 19:07]

Tsja.. wat moet je hier nu op antwoorden??

A ) Een linux kernel kan van alles meegebakken hebben wat je zelf wil. Maak je de kernel compacter, dan zal bepaalde functionaliteit waarschijnlijk sneller draaien. Als er bepaalde niet-optimale code in een kernel onderdeel zit, dan zal dit natuurlijk weer het proces vertragen.
B ) Een kernel doet honderden dingen. Het ligt er maar helemaal aan waarop je test. Disk access, USB recognition, etc. etc... Als Disk Access sneller is voor NTFS op Windows dan op Linux, wat zegt dat dan?

Een zwak onderdeel in de call stack (of meerdere zwakke onderdelen) kan een hoop performance schelen. Ik denk dat de traagste factor vaak niet zit in de kernel, maar in de laag erboven.

Hetgene waar Microsoft op reageert is op 't feit dat altijd het gerucht de ronde is gegaan dat Linux altijd beter presteerde dan Windows.
Het punt zit er in dat Windows ontwikkelaars (= mensen die op het Windows platform ontwikkelen) vaak minder inzicht hebben in de optimalisatie. Bovendien stopt 't op gegeven moment ook ergens met tweaken, want dan kom je in de kernel welke niet open source is.
Mede om die reden doet Microsoft 1x per maand een workshop met een bedrijf om hun applicatie te optimalizeren.

'Sneller' is heel moeilijk te definieren op zulk hoog nivo.

[Reactie gewijzigd door Anoniem: 91961 op 26 juli 2024 19:07]

Op de desktop is snelheid het probleem niet.

Compatibiliteit, en gewenning is een veel groter probleem voor linux desktop OS'en.
Ik snap echt niet waarom je dit zou willen gebruiken - de open source tools die beschikbaar zijn voor het programmeren van parallelle systemen zijn fantastisch en vrij beschikbaar op linux. Nu ben ik niet precies bekend met welke mogelijkheden dit systeem heeft (en ik moet er niet aan denken windows te moeten gebruiken natuurlijk :-)), maar ik gebruik parallel python en numpy op lisa.sara.nl en dat is echt een heel simpel en makkelijk op te zetten systeem.
HPC lijkt me nou typisch zo'n toepassing waarvoor het een enorm voordeel is als al je componenten open zijn - de gebruikers zijn geen secretaresses maar wetenschappers en ingenieurs van wie je wel wat know-how op computergebied mag verwachten dunkt me.
Anoniem: 80466 @ThjK22 september 2010 10:55
Ik neem aan dat je voor een Windows HPC systeem met Visual studio 2010 kan developen. De performance delen in C++ met ondersteuning voor paralelle processors en besturing/controle software in een GUI
Anoniem: 176273 22 september 2010 11:39
Er zijn weinig dingen die je niet met Windows kunt doen, er zijn legio aan zaken die NIET mogelijk zijn in linux/unix. Wel is het zo, dat als het OS praktisch niets kan, het wel stabieler is, wat op zich logisch is.

Kijk maar Linux en Unix, FreeBSD is mooi voorbeeld van erg stabiel OS, maar kan feitelijk geen moer, leuk als router of DNS of andere netwerkrollen. Als volwaardige server (Zoals windows de alleskunner) is het gewoon een kansloos os'je.

Windows is gewoon goed, en kan veel meer dan de meeste andere osén.
Dit is voor desktop gebruik zeker zo maar op gebied van server software gaat het toch al snel de andere kant op.
Windows servers is leuk om Office Application zaken op te regelen maar het zwaardere werk gaat een *nix OS beter af.

Om over migratie trjecten enzo maar niet te spreken want dan is windows helemaal kansloos.
Hoe zit het met updates van dit OS? Moet je iedere maand downtime inplannen om de boel te herstarten?
Ik denk niet dat je dergelijk cluster direct aan internet hangt of zelfs aan een normaal LAN. Hooguit het management deel hangt aan het LAN.
Wat hebben updates met een internet connectie te maken? Hiervoor bestaat toch zoiets als WSUS!?
Patches zijn vaak niet noodzakelijk als er geen dreiging (internet) is.
Wat een onzin. Patches zijn altijd nodig [punt].
Een groot deel van de bedrijging komt van binnenuit (bv het hele "bring your own laptop" geneuzel). Je wil toch niet dat Jan de stagiere het hele rekekencluster down kan halen.

Ow. en dat geld uiteraard ook gewoon voor Linux of welk ander OS je er tegen aan gooit.
Het zijn bedrijven geen hobbybob clubjes.... Tijd is geld...
je wilt zeggen dat jan de stagair met zijn laptop in hetzelfde subnet hangt als je rekencluster?
Normaal gezien is er wel een scheiding tussen de verschillende netwerken binnenin je bedrijf.
Hierdoor kun je er dus weg mee komen dat je patches uitstelt tot een optimaal moment.
Ik denk dat je een internetverbinding toch nodig zult hebben aan zo'n cluster voor de nog uit te brengen optie:

Een nog uit te brengen servicepack moet het ook mogelijk maken om rekenklussen aan publieke cloudomgevingen uit te besteden.

Tenzij je dan met een USB stick naar je client/management pc en je rekencluster blijft rennen.

*edit: Ik bedenk mij net dat die "publieke cloudomgeving" vast Azure zal worden. Wedden?
:Y)

[Reactie gewijzigd door Elmo_nl op 26 juli 2024 19:07]

Microsoft heeft in 2008 uitgebreide inspanningen gedaan om het aantal noodzakelijke reboots te beperken. Maar desalnietemin zal ook deze Windows versie gereboot moten worden bij bepaalde updates.
Aangezien dit soort server gewoonlijk in rekenclusters worden opgenomen en goed beheerd worden, hoeftd at geen probleem te zijn.

[Reactie gewijzigd door the_stickie op 26 juli 2024 19:07]

Downtime kan makkelijk ingepland worden in zo`n cluster. Als er batches van servers worden geupdate dan kan de rest doordraaien. Daarna kan de volgende batch etc. Het cluster zelf gaat dan nooit down. Hier heeft Microsoft wel over nagedacht.

Daarnaast zullen deze rekenwonders ook niet heel snel op het internet of publiek netwerk aangesloten worden. tevens is dit een redelijk uitgeklede versie van 2008 R2. Hierdoor zijn de updates beperkter.

Als ze zit een beetje goed aanpakken en het is qua aanschaf inderdaad goedkoper dan Linux. Kan Microsoft een paar procent terug pakken maar vermoed dat dit heel gestaag gaat. mede doordat er nog maar weinig van bekend is of het inderdaad sneller is. Tests van Microsoft zelf zijn meestal niet zo representatief :)
ik herstart niet eens mijn thuis desktop (windows 7) elke maand -_- in welke tijd leef jij?
Ik ga er even vanuit dat hij in dezelfde tijd leeft als Microsoft, waar de laatste jaren sprake is van een maandelijkse patch-tuesday, en waar alleen strict noodzakelijke updates tussendoor komen. Helaas is het nog steeds zo dat er met grote regelmaat updates verspreid worden welke je wellicht best kunt installeren zonder reboot, maar welke pas actief zijn ná een reboot.
Deze reboot kun je best uitstellen, maar bovendien is het zo dat je na de installatie van een update die een reboot nodig heeft een aantal andere functies niet meer mogelijk zijn, zoals het toevoegen van roles en/of role-features.
Dit geldt zowel voor server 2008, 2008R2 als Windows 7. Niet rebooten kan dus, maar heeft wel degelijk gevolgen.
(Er zijn natuurlijk maanden waarbij er geen reboots nodig zijn, maar dat is zeker niet de regel)
Het is natuurlijk aan eenieder om te beoordelen of de aangeboden updates ook daadwerkelijk gewenst zijn voor installatie, maar in de meeste gevallen is wél installeren veiliger dan niet doen.
Ik zet mijn desktop eigenlijk altijd netjes uit (en zelfs de stekker eruit) omdat ik in een tijd leef waarin energie niet onbeperkt is! Dus restarts, no problem.
Ik vraag me alleen af of dit wel een oplossing is voor grote omgevingen. Daar is het namelijk vrij normaal dat het allemaal maatwerk is.

En de Linux kernel kan je makkelijk aanpassen, bij Microsoft zal dat bakken met geld kosten. Dus denk ik dat het niet zo snel de markt zal veroveren.
Ik vraag me af of er al lijsten bestaand van software die deze techniek ondersteund.

Ik zou het op zich best mooi vinden als je ook normale clientsoftware gebruik kunt laten maken van deze techniek. Als het systeem ook van client naar client mogelijk is, dan zou het ook voor de normale thuisgebruiker mooi zijn.

Bijvoorbeeld een netbook, die op drukke moment even wat power kan lenen van een normale desktop pc.
Doorrekenen van complexe Excel sheets? WTF??? Welke idioot maakt zijn Excel sheets zo groot en ingewikkeld dat je er een HPC server voor nodig hebt?

Op dit item kan niet meer gereageerd worden.