Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 61 reacties
Bron: C|Net

Op C|Net lezen we dat de eisen voor het gebruik van Windows Datacenter Edition versoepeld zijn. Deze high-end serverversie was enkel verkrijgbaar wanneer zeer specifieke hardware gebruikt werd. Bovendien waren bedrijven die een dergelijk systeem in gebruik wilden nemen verplicht dit te laten bouwen en ondersteunen door gelicensieerde systeembouwers als IBM en Unisys. Deze week meldde IBM echter dat klanten niet langer verplicht zijn onderhoudscontracten aan te schaffen en dat ook hardware die door IBM goedgekeurd wordt gebruikt mag worden. Bovendien mogen klanten en resellers nu ook hun eigen Datacenter-servers bouwen in plaats van voorgeconfigureerde systemen te bestellen. Volgens analisten is deze versoepeling een reactie op de vraag van klanten om gemakkelijker en goedkoper toegang te krijgen tot de Datacenter-editie van Windows, iets wat alleen maar positief kan zijn voor Microsoft. Bovendien ontstond er door de strenge voorwaarden een soort van paradox.

Doos Windows Datacenter EditionKlanten die behoefte hebben aan het gebruik van Windows Datacenter waren immers verplicht zich bij de hand te laten begeleiden en konden geen initiatief nemen, alhoewel het net die klanten zijn die de nodige kennis in huis hebben om dergelijke systemen te onderhouden. Bedrijven die tot nog toe weerhouden werden van stap naar Datacenter te maken vanwege de prijs kunnen dat nu doen voor ongeveer twee derde van het oude bedrag doordat ze niet langer verplicht zijn ondersteuning bij te kopen. Volgens een woordvoerder van IBM is het echter niet alleen Microsoft dat aan een opmars in de high-end-servermarkt bezig is, ook Linux zit momenteel in een stijgende lijn.

Moderatie-faq Wijzig weergave

Reacties (61)

Ik zal maar weer eens de Linux <> Windows discussie aanzwengelen...

1) Linux draait op alle hardware, vanaf een enkele P2-233 met 64 MB tot en met een supercomputer met 2560 processoren en 2 TB geheugen, als het moet.
2) Het draait als server zonder grafische schil, als je dat wenst
3) Als het moet, draait het ook mt een grafische schil.
4) De kernel schijnt in staat te zijn om elk mogelijk aantal processoren te besturen.
5) Het besturingssysteem is extreem goedkoop: voor 59 euro kun je al een set hebben met vele CD's en een aardige handleiding.
6) Je bent niet verplicht om een kinderoppas in te huren om te zien of je instellingen wel goed staan...

Ik ben niet echt een fan van Linux/Unix op de desktop om verschillende redenen, maar ik zie het graag op servers, zeker vanwege sommige van de bovenstaande punten.

Windows DataCenter edition voldoet voor zover ik weet aan geen enkele van deze punten. Er zit een limiet op het aantal processoren, je moet specifieke hardware hebben, je hebt ALTIJD een grafische interface.... en als laatste kon je blijkbaar ook nog niet eens met je OS doen wat je zelf wilde, maar moest je het laten doen door anderen. Je hebt dan dus een enorm serverpark, dat je echter zelf niet echt in beheer hebt.

Als ik een groot systeem zou willen draaien, zou ik niet voor Windows DataCenter kiezen, al was het maar dat ik mijn eigen systeem zelf onder beheer zou willen hebben. Daarnaast kan ik dan ook nog eens kiezen tussen verschiillende fabriekanten, en die nemen wiens voorwaarden mij het beste aanstaan. (Kiezen uit verschillende distributies dus.)
Ik ben dagelijks met linux betrokken ben er fan van maar hoe jij dat linux met 2560 processoren kan draaien en met 2 TB aan geheugen kan ook pas sinds de release van de 2.6 kernel. En die is nog niet eens ingeburgerd of als stable erkent voor productiebedrijven door bijvoorbeeld debian die toch wel als graadmeter gebruikt kan worden als het gaat om veiligheid en stabiliteit.

We moeten wel reeel blijven he.
Stable of niet, geaccepteerd of niet, als je het zou willen, KAN je het wel. Met Windows kan het gewoon NIET. (Zover ik weet dan.)
@opagrover: Als ik als manager zou horen dat Datacenter alleen wordt geleverd als je er heel specifieke hardware hebt zou ik ook gaan twijfelen... dat getuigd alleen maar dat het product eigenlijk helemaal niet zo schaalbaar is als MS zegt

(dat zeggen ze hier: http://www.microsoft.com/netherlands/windows/server2003/datacenter.asp)
De reden dat Datacenter alleen op specifieke hardware wordt geleverd, is omdat er garanties worden gegeven over beschikbaarheid van het complete systeem.
Dat is uiteraard alleen mogelijk wanneer men absoluut zeker is dat de hardware perfect is.
Datacenter Edition is geoptimaliseerd voor de nieuwste hardware en wordt geleverd in een 32-bits en een 64-bits uitvoering. Het besturingssysteem is dus uitermate flexibel en schaalbaar.

@metaalmannetje: ik ga nog meer twijfelen als ik die tekst op die url lees. Die conclusie die ze daar trekken is erg onlogisch, w'rom zou een os wat op 32 bits en 64 bits systemen kan draaien per definitie schaalbaar zijn? :?
Omdat je minder snel tegen de 32bit limieten aanloopt wat betreft geheugen. (Wat bij grote servers toch n van de eerste limieten is waar je tegenaan loopt)
En daardoor schaalt het dus beter.

De conclusie is dus helemaal niet onlogisch.
linux draait niet alleen op 32 en 64 bits x86 systemen, zoals windows. linux draait ook op powerpc, sparc, en al die andere rare architecturen die je meestal alleen tegenkomt in bedrijven. dat klinkt toch een stuk schaalbaarder dan windows. "het is wel schaalbaar, maar dan moet je wel intel of amd kopen, en niet van die trage processoren ook, want onze gui vreet er een groot deel van op"

iedereen die nu zit te denken die datacenter edition aan te schaffen raad ik aan toch eens naar een linux oplossing te kijken.
Iedereen die zit te denken aan windows datacenter edition heeft jouw advies niet nodig, maar heeft zelf mensen met meer kennis in huis.

(En die weten ook dat het wel of niet Intel of AMD kopen helemaal niets met schaalbaarheid te maken heeft)
Of het theoretisch nou wel kan of niet, als het niet stabiel is wil je het niet. Iedereen die Datacenter draait doet dat niet omdat het een leuke hobbyserver is... Je draait Datacenter of Enterprise Server omdat jouw bedrijf afhankelijk is van deze server.. en die moet dus wat kunnen verduren en goed blijven werken. Als je als systeembeheerder aan het management uit moet leggen dat het wel retecool is dat hij met 600 processors draait, maar hij nog wel eens crasht, dan heb je een probleem
Wat betreft of kernel 2.6 stabiel is of niet: het is stabiel verklaard, maar nog niet iedereen wil eraan. Er zijn nog altijd mensen die op 2.2.x kernels draaien ipv 2.4.x, omdat ze vinden dat een 2.2 kernel meer volwassen is. Dit is hetzelfde als NT4/Win2K/Win2K3 op je server: Win2K3 is ook nog niet stabiel in dat opzicht.

Wat betreft de specifieke hardware eisen: ik heb laatst de datacenter editie illegaal gedownload en getest in VMWare. Waardeloos draaide dat, het ondersteunde niet eens mn VMWare geemuleerde NIC (AMD PCNet PCI) :P De "normale" enterprise editie ondersteunde wel gewoon alle geemuleerde hardware.
MS stelt dus niet zomaar eisen aan je server, ze hebben gewoon support voor onderdelen die ze niet wenselijk vinden in een server eruitgesloopt.
Dat is toch niet meer dan logisch? Als je garanties moet geven qua beschikbaarheid, dan wil je toch zo min mogelijk ballast mee leveren?
En dan de opmerking over het testen binnen VMWare... Wat moet ik daar op zeggen...
Draai je ook XP op een Pentium II 233MHz met 32Mb geheugen?
reactie op: 70070540

VMware ESX server 2 ondersteunt tot en met 16cpu's, ik denk niet dat het op zo'n systeempje zooo langzaam draait dus ik vindt jou vergelijking nogal krom ;)

VMware server 2 is compleet pakket dat zich totaal onafhankelijk installeert op een hardeschijf als een linux distro. Deze bevat natuurlijk ook een (voor VMware aangepaste) linux kernel.

bron
Wat hij bedoelt is dat je met patches je een heel goed clustering systeem kan bouwen.
Voor Windows hoef je geen 4 universitair-opgeleide sysadmins in te huren die het zaakje draaiend houden. Windows draait gewoon en blijft draaien. Daarbij, als er iets geconfigged moet worden, heb je die 4 sysadmins niet allemaal nodig. Ik kan het zelf ook wel op een Windows server.

En wat dacht je van de integratie met Windows desktops? Dat is op een Windows server 328974234x zo goed geregeld als op een Unix bak. En kom nou niet met "dan moet je dit en dat op de client instellen" want dat gaat niet als je 5000 clients hebt. Dat gaat alleen als je een client policy vanaf de server op de clients uitrolt en dat kan een Windows server weer alleen. En had ik al wat gezegd over het filesystem? Dat je per gebruiker of per groep kan aangeven wie wat wel en niet mag? Dat kan Unix k al niet...

Dus eigenlijk is Unix gewoon hetzelfde als Windows, alleen kan er praktisch niemand mee omgaan :P
Dat hoor ik vaker als pro-windows argument, dat elke idioot het kan beheren, maar ik wil helemaal geen idioot met z'n poten aan mijn server.
Dat er een GUI voor is wil niet zeggen dat je niet moet weten wat je doet, wat windows doet is mensen het idee geven dat ze weten wat ze doen, terwijl dat niet het geval is, de hoeveelheid win32 worm en virii laat zien hoe een geweldig succes dit wel niet is.

Ennuh, een rechten systeem in het FS ... dat had Unix al voordat windows bestond ...
Dat valt erg mee
een linux bak heeft een stuk minder onderhoud nodig veel mensen zonder universitare opleiding kunnen heel goed met linux overweg.
en aangezien je een puurder systeem hebt geen grafische schil bijvoorbeeld.
Kan je minder problemen verwachten.
Nee Linux wint op alle treinen.
en dan nog iets een bedrijf wat zich een beetje serieus neemt betaald liever 4 systeembeheerders dan dure licentie kosten en onderhouds contracten :)
Dan heb jij dus nog nooit van UNIX gehoord behalve wat je windows vriendjes voorblaten.
Dat JIJ niets van unix snapt wilt nog niet zeggen dat anderen dat dan ook niet snappen. Er zijn genoeg mensen zonder een universitaire titel die heel goed meerdere unix systemen tegelijk beheeren. Maar HET grote verschil met heel veel MSCE geschoolde beheerders is dat mensen die met UNIX werken gewoon moeten weten wat ze doen en niet gedachtenloos een knopje gaan indrukken. En kunnen ze dat niet dan blijven ze er gelukkig met hun poten vanaf.
Verder had unix al een systeem om met gebruikers en groepen om te kunnen gaan toen bill nog qdos moest rippen voor zijn dos omgeving. |:(
Access Control Lists voor het EXT3 filesystem zitten in linux kernel 2.6.
En jij denkt dat je voor een Datacenter systeem geen goed opgeleide mensen nodig hebt?
Tja, als jij er wat GUI-click stagiairs op los wil laten weet je duidelijk niet waar je over praat....

Een OS is een OS, een MS beheerder die Unix te 'ingewikkeld' vind heeft imho uberhaupt te weinig technisch inzicht om zich beheerder te mogen noemen.

Dat je je specialiseert is logisch, maar kom niet aan met 'te ingewikkeld' !
5) Het besturingssysteem is extreem goedkoop: voor 59 euro kun je al een set hebben met vele CD's en een aardige handleiding.
En vervolgens vragen we de buurjongen om het te onderhouden, dan houden we het helemaal vrijwel gratis \o/

Doe ff realistisch, de prijs van software boeit geen mens op dit soort servers. Een Unix- of Linux-systeembeheerder krijg je nog immer niet onder de 100 euro per uur, een MCSE'er pik je tegenwoordig voor 40~50 euro per uur op bij Origin, PinkRoccade, CMG of wherever, en bedrijven als Philips, Oce, ASML of zo die dit soort datacenters ontplooien zetten er een team van minimaal 4 eigen MCSE'ers fulltime op om het te beheren. For the record, met een modaal salaris kosten 4 man een bedrijf ongeveer 20000 euro per maand, terwijl 4 Unix-experts je intern als je ze al kunt krijgen 40000 euro per maand kosten. Lekker boeiend ja dat de software 10000 euro goedkoper was :D

Ik zou het trouwens bijna vergeten, maar een gemiddelde database-cluster kost wat hardware en supportcontracten betreft op dit moment ongeveer 100000 euro (ja dat zijn 5 nullen), dat is dus exclusief software.
@AdV:
Wat ongelooflijk zielig dat Linux fanboys nog steeds geen betere argumentatie hebben dan:
* Wel of geen GUI. Alsof dat ook maar enigzins relevant is... Heeft absoluut totaal geen invloed op prestaties.
* Prijs van het OS. Alsof dat relevant is bij servers waarvan de hardware een paar ton kost! Ja, daar hebben we het hier over, niet het PC'tje dat bij iemand thuis staat!
Als je goed had gelezen, dan had je ook zien staan:
"Ik ben niet echt een fan van Linux op de desktop."

Met andere woorden: ik kies het beste gereedschap voor de taak die er gedaan moet worden. Voor de desktop is dat op het moment Windows, en op de servers is dat Unix/Linux.

Windows is een desktop-besturingssysteem dat de wanabee-server uithangt. Linux is een server-besturingssysteem dat pretendeert een desktop te zijn.... beiden hebben tekortkomingen op het gebied waarvoor ze eigenlijk niet ontworpen zijn.

@curry: hoeveel houden de beheerders zelf over? Zelfs als je die 100 euro als bruto ziet, en de Linux sysadmin zou 40 euro per uur overhouden, dan zou hij 6400 euro per maand verdienen. Dat is een erg hoog bedrag voor een netwerkbeheerder.
Met andere woorden: ik kies het beste gereedschap voor de taak die er gedaan moet worden. Voor de desktop is dat op het moment Windows, en op de servers is dat Unix/Linux.
Dat is onzin. De NT-kernel kan alles wat er van een server gevraagd wordt, er is niets wat een Solaris- of AIX-server met Oracle kan wat Win2k of Win2k3 met SQL Server niet kan, en daarom worden ze allebei veelvuldig gebruikt binnen grote bedrijven. Het is Linux juist wat nog geen volwaardig alternatief voor dat soort servers kan bieden: PostgreSQL en MySQL zijn nog niet volwassen genoeg om 24/7 clustered replicating distributed failoverende systemen op te draaien.

Voor een pure webserver heb je gelijk, daar is Linux de simpelste en goedkoopste oplossing voor, maar dat is niet wat we in het bedrijfsleven onder Server met hoofdletter S verstaan. Binnen de grote Hollandse multinational waar ik nu werk bijvoorbeeld draaien alle intranet-webservers Unix tegen Win2k SQL Servers, met intranet-webapplicaties op Win2k IIS.
Windows is een desktop-besturingssysteem dat de wanabee-server uithangt. Linux is een server-besturingssysteem dat pretendeert een desktop te zijn.... beiden hebben tekortkomingen op het gebied waarvoor ze eigenlijk niet ontworpen zijn.
Zoals? Leef je uit :)
@curry: hoeveel houden de beheerders zelf over? Zelfs als je die 100 euro als bruto ziet, en de Linux sysadmin zou 40 euro per uur overhouden, dan zou hij 6400 euro per maand verdienen. Dat is een erg hoog bedrag voor een netwerkbeheerder.
Een MCSE'er verdient op dit moment ongeveer modaal salaris, oftewel 33000 per jaar. Dat is 2550 per maand bruto, waar je door werkgeverslasten zo'n 40% bij op mag tellen, dus 3600 euro per maand exclusief benefits zoals leaseauto, ziektekostenverzekeringen of spaarplannen. Break-even uurtarief zou dus rond de 25~30 euro per uur liggen, gecompenseerd voor 25 vakantiedagen al snel 35. Reken vervolgens cursuskosten erbij die ook inproductieve dagen opleveren en je zit op de 40, en ga ervan uit dat je de medewerker niet continu verhuurd hebt (bankzitten tussen opdrachten) en je moet een ~50 euro vragen om quitte te spelen als bedrijf. Op een tarief van 60 euro zit dus een 20% winst gemiddeld bij een modaal salaris.

Een expert Unix-beheerder is zeldzamer en dus duurder, duurder om middels cursussen opgeleid te houden en de vraag vanuit de markt is lager, ergo hoger risico op bankzitten. Reken maar na.
Ik vind jou opmerking zeer zwart/wit. Er sinds enige jaren o.a. Oracle voor Linux. Op moment ik een mission-criticle applicatie heb, ga ik hem echt niet onder een WIN systeem draaien.

Daarnaast heb en hou ik de indruk dat een Linux webserver (ik heb het nu over prive) stukken soepeler draait dan een Windows server. Het betekent in de praktijk dat je uit je hardware niet het maximale haalt betreffende performance.
Ik begrijp het probleem met die personeelskosten niet zo. De meeste Admins werken tegenwoordig toch remote vanuit India?
Een Unix- of Linux-systeembeheerder krijg je nog immer niet onder de 100 euro per uur
:9~ :9~ :9~

Wie betaalt er zoveel?? Ik ga meteen solliciteren...
Kosten van personeel is iets anders dan salaris. Allereerst kost jij een bedrijf een stuk meer dan wat er als bruto loon op jou loonstrookje staat. Denk dan aan bv pensioenpremie, ziektekosten een auto e.d.

Daarnaast zijn er verschillende soorten systeembeheerders. De mensen die denken dat ze er verstand van hebben en mensen die ik inderdaad bij een bedrijf met een paar honderd werknemers het systeem zou laten beheren. Het bekende kaf en koren verhaal. ;)

Tot slot lijkt het mij dat in het bovenstaande verhaal externe systeembeheerders van CMG, Getronics e.d. worden bedoeld en die bedrijven vragen gewoon een hoop.
1 muisklik met je IE op de verkeerde link en je security is naar de vaantjes.

Prima argument toch? Nog los van de vraag of je een grafische schil nodig hebt op een database-server, en of je CPU-cycles wilt verspillen aan het standaard teletubbie-theme wat je tegenwoordig met alles krijgt.

Overigens zijn er bij Microsoft intern ook mensen die twijfelen aan het nut van een GUI op alles.
Een domme admin kan bij Unix/linux ook een verkeerd commando geven en de boel om zeep helpen.

Stommiteiten van admins kan je zowiezo niet veel aan doen. Daarmee is het dus geen goed argument.

Zelfs een onervaren admin maakt die klik op die verkeerde link niet. Laat staan een admin van Windows datacenter edition. (Die zowiezo geen IE opstart op een productieserver)
Slecht argument dus.

Een GUI is zinvol om informatie overzichtelijker aan te bieden om daarmee fouten te vermijden. In die zin is het ook bij servers zinvol.
Een grafische schil heeft altijd invloed op performance.

Een gratis os t.o.v. een hele dure is altijd mooi.

Je kunt dat geld gebruiken voor beter hardware of andere zinvollere dingen.
Ja. In theorie heeft een grafishe schil altijd invloed op de performance. Maar de theorie is niet belangrijk, het is de praktijk die telt.
De meeste servers worden van afstand beheerd. Ook windows servers. En dus zit die GUI niets te doen en kost ie ook geen performance.
Dat er toevallig wat extra MB in de pagefile op de schijf staat is totaal niet interessant.
daarbij, linux is vaak ook efficienter. Natuurlijk zou google niet op windoze kunnen draaien, omdat die daarvoor wat te veel systeempjes hebben, maar als het kon zouden ze ook een flink percentage meer systemen moeten hebben om dezelfde prestaties te hebben.

check it out, de laatste slackware (nieuwste kernel, laatste KDE met vette themes en andere eyecandy) draait heerlijk op mijn 1 ghz 512 mb athlon, wanneer ik rond de 30 webpages open heb, the gimp, email/chat/p2pdownload en word. XP (al een paar jaar oud!!!) is bij 1/3 daarvan al niet meer vooruit te branden. en longhorn word nog slomer... sorry hoor, maar dan houd ik het bij linux. Elke KDE release is sneller - voor versie 4.0 word weer gemikt op een performance verbetering - "applications will have executables about 10% smaller, will start up 20% faster, and will consume about 15% less memory compared to Qt 3."

kde 3.2 is ook rond de 30 % sneller dan 3.1, 3.1 is ook zoiets sneller dan 3.0 - en toch komen er steeds meer en meer features in. doet me denken aan windows - NOT!!!

ofwel - prijs mag een reden zijn, controle (over je eigen software!) en veiligheid kunnen van belang zijn, maar bij supercomputers zullen het de prestaties zijn die de doorslag geven. en dat is in het voordeel van linux.
1) Linux fans verkondigen al vele jaren dat linux op alle hardware draait, van de simpelste desktop tot die computer van je met 2560 processore en 2TB geheugen. Maar als je het vervolgens in de praktijk probeert valt dat ineens vies tegen. Zoals iemand anders al meldde moet je daar wel een recente kernel voor hebben. (Maar daarvoor werd het net zo hard verkondigd door de fans)
Theoretische verkondigingen heb je niets aan voor je datacenter. Daarvoor moet je zekerheid hebben.
Zekerheid heb je pas als je het getest hebt.
Vandaar dat er bij Windows datacenter limieten gesteld zijn. Die limieten zijn namelijk de configuraties waarmee het getest is. (Dat is dus niet perse de theoretische limiet van het OS)

2) Of je een gui uit kan schakelen is geen zinvol argument. Je server beheer je remote en dan kost die gui geen prestatie. En die zeldzame keer dat je wel op de server zelf wat doet heb je een gui om informatie overzichtelijker op het scherm te krijgen zodat je minder fouten maakt.

3) Gelukkig kan je op linux ook de gui aanzetten. Maar is geen zinvol punt als je het hebt over de verschillen tussen linux en windows.

4) "schijnt" in staat te zijn. Zie 1)

5) Prijs van de software is niet interessant voor een datacenter, zolang het zo'n nietig onderdeel van de totale kosten blijft. (Dat geldt dus voor windows net zo hard)

6) Waar heb jij die kinderoppas dan voor nodig? Als ik m'n instellingen configureer dan veranderen ze niet zomaar.

Ik zie dus 6 punten die interessant zijn voor mensen die thuis zitten te hobbyen op hun desktop.

Als je nou een discussie wilt aanzwengelen naar aanleiding van datacenter edition, probeer dan argumenten te vinden die van belang zijn voor serieuse servers.
Ik zal maar weer eens de Linux <> Windows discussie aanzwengelen...
Moet dat nu altijd weer keer op keer :r
Voor Linux is er namelijk ook een flinke lijst van nadelen te noemen (het rechtensysteem, .., ..), en inmiddels kunnen door tools als Webmin ook noobs een Linux server met gemak beheren (DNS, Web, ..).
Ik heb ook nooit gesnapt wat de Datacenter editie nou voor meerwaarde biedt boven een Enterprise Server editie... En ls ie meer zou kunnen, waarom zou z'n kleinere broertje dat dan niet kunnen?
De meerwaarde zit niet echt in de hardware limieten die wat anders zijn.
De meerwaarde zit in de garanties die Microsoft in combinatie met een hardware leverancier geeft over availability.
Maar als je hoge garanties wil beloven dan zitten daar ook verplichtingen aan vast voor zowel leverancier als afnemer. Anders is dat nogal zinloos.

Blijkbaar zijn nu de verplichtingen minder geworden. (En waarschijnlijk daarmee de garanties van Microsoft ook)
wat de Datacenter editie nou voor meerwaarde biedt boven een Enterprise Server editie
Ten eerste de hoeveelheid geheugen en processoren, maar verder zit er ook database beheer software bij en in de Datacenter server versie van Windows 2000 zat ook de Resource Manager bij (!), een utilitie om er voor te zorgen dat proces A max. 30% processortijd krijgt en proces B max. 20% etc. ipv wat de processen zelf willen. Bij Windows 2003 kun je de Resource Manager ook al op de Ent. editie laten lopen.
Datacenter heeft ondersteuning tot op 64 cpu`s geloof ik....

enterpice 4
Ja fijn, maar ik vraag me dan dus af waarom Enterprise dat niet zou kunnen.
Ja fijn, maar ik vraag me dan dus af waarom Enterprise dat niet zou kunnen.
natuurlijk kan enterprise ook 64 CPU's aan, in weze kan iedere variant van windows XP en windows 2003 dat. Het is maar precies welke opties ze bij de build meegeven.

Microsoft wint er helemaal niets mee als ze voor de prijs van enterprise, of erger nog, voor de prijs van advanced server, een superzware variant meeleveren, die ze net zo goed voor een paar dollar meer kunnen verkopen. Da's gewoon: hoe meer functionaliteit je wenst, hoe meer je betaald voor die functionaliteit. Aangezien bedrijven die dergelijke infrastructeren opzetten echt wel wat pegels op voorraad hebben voor die projecten, is dat geen probleem.
Ik vind deze newspost een beetje anti-microsoft met behoordelingen in het faveure van Linux/UNIX (mooi woord :))

Waarom maakt niet iedereen het beste van het OS dat hijzelf kiest. Een bedrijf kiest het OS wat het beste in hun ogen voldoet voor de taak/taken waar hij voor staat. Microsoft laat in mijn ogen nu merken dat ze concurrentie zien in UNIX/Linux, wat alleen maar gunstig is voor de consument, Microsoft basher of Pinguinhonkballer.
(who didn't seen that flash-game? :( :P )

[edit]
typo
Het is niet Anti-Microsoft (TM), we vragen ons alleen af waarom er interesse bestaat voor Windows op dat soort systemen...

Het leuke van Windows is dat het een soort van iedereen-kan-schilderen pakket is (jeweetwel, met van die vakjes die je dan moet inkleuren) waardoor je geen Grootmeesters in dienst hoeft te hebben op het moment dat het allemaal niet heel nauw komt. Maar als je zelf Grootmeester bent, en je moet een meesterwerk maken, dan zou ik toch liever voor een los doek en palet kiezen..
Om mij ook maar even te mengen in het hele Microsoft vs. Linux debacle, als je als bedrijf zijnde dit soort servers gaat deployen dan heb je het niet meer over je standaard MCSErtje of *NIX fanaat.

Dit zijn systemen die een uptime garantie moeten kunnen afleveren van 99,9999% en hoger. Die MCSEer van 50 eurotjes per uur weet echt niet wat hij hier mee aan moet. Dat geldt ook voor de gemiddelde *NIX beheerder. Niet voor niets is HAC (High Availability Clustering) een expertise apart.

Je hebt het hier niet meer over NNF (Next, Next, Finish) installaties. De implementatie trajecten kosten vaak al enkele tonnen tot miljoenen. Dat is inclusief de implementatie van de software die er uiteindelijk op moet draaien. En de software kosten zijn peanuts vergeleken met de consultancy kosten die hiervoor berekent worden.

Niet voor niets worden dit soort systemen niet even per 10 besteld omdat je ze op voorraad wil hebben liggen in het geval dat. (Wat bij grote bedrijven vaak wel gebeurt met de low-end servers).
Als we het hier over zo'n specialistisch iets hebben, wat doet Microsoft dan in die markt?? Waar MS goed in is, is bestaande technologieen in een "Next, Next, Finish" vorm verkopen. Waarom zou een clustering specialist dit willen?

Als ik clustering specialist was die een server-cluster met uptime van langer dan een jaar moest neerzetten zou ik kiezen voor een UNIX systeem waarop alles te customizen is, inclusief kernel.

Voor zover ik het nu begrijp bestaat de Windows Datacenter markt puur bij de gratie van het tekort aan UNIX clustering specialisten. Klopt dat?
Nee, MS wil gewoon naar grotere systemen doorgroeien.
Veel MS klanten hadden vroeger genoeg aan een 4 weg systeempje maar lopen nu tegen beperkingen van de hardware aan. Dan zijn er natuurlijk een paar opties, ofwel je migreerd naar iets anders ofwel MS levert je een systeem dat wel weer voldoende groeipotentie heeft voor een paar jaar. Voor veel bedrijven is de laatste optie gewoon eenvoudiger en goedkoper.

Maar ook voor deze servers heb je specialistische kennis nodig die de standaard MCSE-er gewoon mist. De salarissen van mensen die dit soort systemen beheren zijn dan ook een stukje hoger dan die van standaard windows of Unix systeembeheerders.
Ook volkomen terecht natuurlijk, de kosten van een uurtje uitval van dit soort systemen zijn zo hoog dat het nogal stompzinnig zou zijn om te besparen op de kwaliteit van het personeel

edit:

Trouwens waarom zou je alles willen customizen.
Liever juist niet, het systeem moet een bepaald niveau halen en niet crashen. Het is bij dit soort systemen onzinnig om te proberen elke laatste procent aan performance eruit te halen. Op een bepaald moment wordt het risico op een crash gewoon te groot. Dan kun je beter 20% meer uitgeven voor een zwaarder systeem wat overcapaciteit heeft dan dat het systeem er een paar keer per jaar uitligt.
Vergeet niet dat meestal deze systemen weliswaar een bak met geld kosten, maar dat dit nog steeds peanuts is vergeleken met de kosten als een groot bedrijf een paar uur plat ligt
.
Veel MS klanten hadden vroeger genoeg aan een 4 weg systeempje maar lopen nu tegen beperkingen van de hardware aan
De vraag naar power groeit dus harder dan de ontwikkeling van de hardware. Dat betekent dat computerclusters binnenkort ook niet meer voldoen. Wat dan?
Trouwens waarom zou je alles willen customizen.
Misschien wel omdat:

* Je zelf wil uitmaken welke hardware je gebruikt.

* Je bijvoorbeeld niet exact dezelfde FTP/mail/Web/Etc server wil hebben draaien als iedereen, waardoor je gevoelig bent voor virussen/exploits die het voorzien hebben op de meest gebruikte server software

* Je een eigen kernel wil bakken die bijvoorbeeld de root gebruiker zo weinig mogelijk rechten geeft waardoor root exploits veel ongevaarlijker worden.

* Omdat je niet exact dezelfde kernel wilt hebben draaien als iedereen, ook weer om bovengenoemde reden. Kan je een hoop gepatch en downtime schelen.

Om er maar eens een paar te noemen.
De vraag naar power groeit dus harder dan de ontwikkeling van de hardware. Dat betekent dat computerclusters binnenkort ook niet meer voldoen. Wat dan?
Het is niet zo zeer de vraag naar computing power maar meer de vraag naar uptime dat dit soort ontwikkelingen stuwt. Computing power heeft er wel mee te maken maar vaak in mindere mate dan uptime.
Misschien wel omdat:

* Je zelf wil uitmaken welke hardware je gebruikt.

* Je bijvoorbeeld niet exact dezelfde FTP/mail/Web/Etc server wil hebben draaien als iedereen, waardoor je gevoelig bent voor virussen/exploits die het voorzien hebben op de meest gebruikte server software

* Je een eigen kernel wil bakken die bijvoorbeeld de root gebruiker zo weinig mogelijk rechten geeft waardoor root exploits veel ongevaarlijker worden.

* Omdat je niet exact dezelfde kernel wilt hebben draaien als iedereen, ook weer om bovengenoemde reden. Kan je een hoop gepatch en downtime schelen.

Om er maar eens een paar te noemen.
Zie o.a. mijn reply op je vorige posting voor een antwoord. Dit soort systemen heeft vaak een support team van meerdere beheerders, vaak heb je het over tussen de 5 en de 10 man. Allemaal verantwoordelijk voor een gedeelte van het systeem. Er komt namelijk veel meer bij kijken dan alleen maar een server die beheert moet worden.

Sleutelen aan dit soort servers of het nou *NIX of MS Data Center is doe je niet "EVENTJES"

Exploits en virussen zijn wel een gevaar voor dit soort systemen maar niet op de manier die jij hier aangeeft. Een HAC systeem is een backend systeem wat in de regel NOOIT toegankelijk is vanaf een publiek netwerk. Je draait er geen DNS of FTP servertje op. Vaak zijn het servers die ingezet worden voor bedrijfs kritieke applicaties.
Als we het hier over zo'n specialistisch iets hebben, wat doet Microsoft dan in die markt?? Waar MS goed in is, is bestaande technologieen in een "Next, Next, Finish" vorm verkopen. Waarom zou een clustering specialist dit willen?
Bijvoorbeeld om de kosten voor de te gebruiken applicatie verder terug te dringen door ipv een maatwerk applicatie gebruik te maken van bestaande applicaties waar goede kennis van op de markt is. Dit kan heel veel geld schelen t.o.v. maatwerk applicaties.
Als ik clustering specialist was die een server-cluster met uptime van langer dan een jaar moest neerzetten zou ik kiezen voor een UNIX systeem waarop alles te customizen is, inclusief kernel.
Daar ga je al de fout in. Als je dit soort applicaties moet gaan gebruiken dan bak je je eigen kernel niet meer, bij unices zoals solaris, aix of hp-ux heb je ook niet de mogelijkheid om je kernel te recompilen. De reden daarvoor is die 99,9999% uptime garantie.
Voor zover ik het nu begrijp bestaat de Windows Datacenter markt puur bij de gratie van het tekort aan UNIX clustering specialisten. Klopt dat?
De reden dat Windows Datacenter bestaat is dat er voldoende vraag is naar een windows platform op dat niveau, niet omdat er niet genoeg unix specialisten. Vergeet niet dat er waarschijnlijk minder Windows Datacenter experts zijn dan unix HAC experts. De verschillende Unices hebben jaren ervaring op dit gebied, microsoft niet.
Ben nu toch wel nieuwsgierig;

Kost dat?
Datacente was een speciaal gebouwde versie die inderdaad allen ondersteuning biedt voor specifiek daarvoor geselecteerde hardware.
Als ik hierboven lees dat iemand klaagt omdat zijn illegaal gedownloade versie geen ondersteuning bood voor zijn NIcje dan weet je meteen op welk niveau deze discussie gevoerd wordt.

Datacentre is niet voor de hobbyist en de kosten van het systeem zijn peanuts vergeleken met d eopbrengsten van een dergelijk systeem.
Dat de hardware eisen soepeler worden komt enerzijds dor ontwikkelingen binnen ms die een bredere en betrouwbaarder driversysteem hebben en anderzijds door meer geschkte hardware die makkelijk verkrijgbaar is.

De instabiliteit van windows kon altijd voor 60% toegeschreven worden aan slechte hardware of gammele drivers.
Dat Linux meer hardware zou ondersteunen is volslagen klets.
Iemand die een computer bestuurd zoals deze waar windows smp op draait (512 gb ram 64-way smp)
Zal toch echt wel weten wat ie doet. Wat het beste is voor het bedrijf en om de clients zo goed mogelijk aan te sluiten.

Want bedrijven laten zich echt niet door n00bs advidseren over een systeem dat minimaal een ton kost.
En dan laten ze het vervolgens ook niet door n00bs beheren.
Ik heb dat document even doorgelezen, en qua processors wordt er alleen gerept over Intel processors. Zou een opteron nou wel of niet toegelaten worden in datacenters?

Zo snap ik ook wel dat deze wereld door bejaarde mannetjes wordt beheerdt die als laatste ervaring een K6 van AMD hadden. IDD schijtproc's.
Zelden zulke onzin gehoord als dat jij hier loopt te verkondigen.

Dus omdat Open Source niet concureert op basis van vendor locking producten wordt er geen geld verdiend.

Ik durf wel te stellen dat als er meer Open Source applicaties waren mensen juist meer geld zouden kunnen verdienen.

En dat de producten beter afgestemd werden op de klanten hun wensen. Open Source dwingt je tenslotte om naar de wensen van je klanten te luisteren anders gaan ze naar de concurrentie.
Jij verkoopt hier onzin. Als er morgen een bug in Linux zit waardoor je hele serverpark vastloopt, bij wie ga je dan verhaal halen? Als dat bij Microsoft gebeurt krijg je wel support, komt er zelfs hoogstwaarschijnlijk iemand langs om alles te fixen.

Als je dat bij Linux voorhebt krijg je een jongetje van 16 met een snor (om ouder te lijken) en melkwitte huid langs die vervolgens cola en pizza vraagt en zich opsluit om het probleem op te lossen.

Linux is gewoon niet professioneel. Punt.
Super. Helemaal mee eens!
Toevallig; Ik heb een tijdje geleden nog bij je in je profiel een reactie gestuurd.
Ze proberen iets te doen wat opensource alang al doet.
alleen het broodnodige erin compileren.
Het lullige is dat je dus nooit een custum compile kan hebben met M$ datacenter
en dat kan wel met linux,
Linux kan je door de opensource code helemaal optimizen voor je persoonlijke hardware.
en met clusters is dat dus ideaal!
Dit is dus ook precies waarom windows het zal afleggen.
De markt economie zal er uiteindelijk niet onder leiden.
Expertise zal altijd nodig zijn om de systemen te besturen of te maken.
De markt zal er eigenlijk aleen maar puurder door worden.
2 eeuwen terug had je de hoefsmit , de boer , de bakker , de metselaar , de vleeshouwer , de sheepbouwer , etc.
Iedereen heeft zijn eigen kunde.
en daar zal dus ook de marktwerking ontstaaan.
Het OS kan gratis zijn de Support niet.
en aan de support kan worden verdient.
Worden iters dan brodeloos? nee dus
want je zal het systeem moeten custumizen.
er zullen altijd custom made aplications bestaan.
Microsoft probeert vast te houden aan een oud verkoop model wat steeds minder zal worden geslikt.
Zeker als het om bedrijven gaat die zelf de controle willebn hebben betreffende security etc etc. want bij M$ weet je nooit of de CIA geen 8ter deurtje heeft ingebouwd. , bij linux heb je die controle wel.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True