Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties
Bron: Microsoft

Microsoft schrijft in een persbericht de huidige samenwerking met Fujitsu verder uit te gaan breiden. Het doel is om klanten te helpen bij het bereiken van hogere niveaus van betrouwbaarheid, schaalbaarheid, prestaties en waarde voor mission-critical omgevingen, aldus Microsoft. Concreet komt dit er onder andere op neer dat er samengewerkt zal worden op het gebied van de ontwikkeling rond Fujitsu's komende server voor Windows Server 2003 en het toekomstige Windows Longhorn Server. Daarnaast zal Microsofts .Net-software in Fujitsu's IT-infrastructuren geïntegreerd worden.

Fujitsu logoIn 2007 moet de samenwerking uiteindelijk resulteren in een omzet van ruim 6 miljard euro naar aanleiding van Fujitsu-verkopen, die mogelijk zijn gemaakt door de integratie van Microsoft-technologieën. Aangezien deze producten als gevolg van de samenwerking aanzienlijk lagere operationele kosten zullen hebben, wordt de haalbaarheid van investeringen in de technologieën vergroot.

Moderatie-faq Wijzig weergave

Reacties (55)

microsoft zal never nooit niet een mission critical systeem met windows 2003 of longhorn kunnen maken. De architectuur is helemaal niet gemaakt om mission critical te kunnen zijn.

loze uitspraak dus, ik denk dat de woordvoerder van die conferentie meer schade ermee aangericht heeft (ongeloofwaardig bericht) dan dat het goed was.

//edit ik dacht dat het wel duidelijk zou zijn waarom de nieuwe windows 2003 en longhorn niet mission critical genoeg zijn


reden 1 vaak last van virussen
reden 2 updates gaan vaak gepaart met reboots
reden 3 upgrades (hardware) gaan altijd gepaard met reboots
reden 4 blue screen of death zouden geen mogelijkheid moeten zijn.
reden 5 systemen waar windows 2003 en longhorn op zullen draaien zijn van zodanige kwaliteit dat je per definitie geen mission critical systemen kunt bouwen. ( hele x86 architectuur is er niet op gemaakt!, denk aan bugs in de processoren, te lage peformance=, etc...)

en zo kan ik doorgaan.

//edit 2

ik zie dat niet iedereen begrijpt wat mission critical is. Mission critical systemen zijn systemen als de computers in een nucleaire reactor, computers aan boord van een vliegtuig, nasa space shuttle computers etc...

Bedenk wat voor soort hardware gebruikt wordt voor dit soort systemen. Ik kan je garanderen dat dat geen pentium 4 systemen zijn. (dacht zelfs dat de pentium de laatste proc was die door de nasa test is gekomen)

Bedenk dus ook dat ook als je eens in de 5 jaar downtime hebt van 5 minuten, dat dat al teveel is (5 minuten de computer van de reactor niet nodig hebben, je hebt al een meltdown)

mensen denk bij mission critical aan totaal verkeerde dingen, en dat wil microsoft juist zo graag.

Mensen die het zo graag over de bank willen hebben, banken draaien hun backbone ook niet op microsoft. Die dingen zijn zo oud dat ze niet eens weten hoe het werkt, dus laat staan dat het windows is :)
Het klopt helemaal wat je zegt, maar de meeste beheerders, met name de MSCE-ers, weten daar helemaal niets van. In marketing smijt Microsoft naar hartelust met termen als "mission critical". Punt is alleen dat "mission critical" een loze kreet is zolang het geen concrete invulling heeft. Als je ermee bedoelt dat een server minimaal een uptime van 7 dagen haalt, dan zijn ook veel Microsoft produkten mission critical. Echte professionals waten weten dat het begrip meer inhoudt, maar dat ontkracht niet de waarheid van de Microsoft marketing in combinatie met hun eigen ideeen van "mission critical".
Ik ben het helemaal met je eens, ik dacht toen ik de titel las.."ze willen toch niet windows gaan draaien in een embedded systeem", embedded systems wat over het algemeen vaker voor "mission critical" system wordt gebruikt moet klein en efficient zijn. en niet robuste en groot zoals windows dat is.. omdat de kans op fouten dan veel te groot is.

maargoed volgens mij gaat het meer om mainframes/servers die een belangrijke taak hebben in een netwerk. tenminste zo lees ik het in het artikel
Under the expanded global alliance, Fujitsu and Microsoft will combine Fujitsu's mainframe expertise and systems with Microsoft's latest Windows Server 2003 and Microsoft® .NET software to enable customers to implement flexible, trustworthy enterprise infrastructure and applications that support business objectives and processes in a highly efficient and effective way.
Al hoewel in mijn woordeboek server een synoniem is voor linux, en workstation gelijk is aan windows.
Dan heb jij een slecht woordenboek, komt zeker ook geen UNIX in voor?
oftewel als een bedrijf zo'n "msce-er" in dienst neemt die zich om laat praten door verkoop praatjes in plaats van keiharde technische gegevens, om een mission critical systeem te kopen kiezen onderhouden dan heeft dat bedrijf zowiezo al geen idee waar ze mee bezig zijn en hebben ze waarschijnlijk ook geen mision critical systeem nodig.

kan het verkeerd hebben maar lijkt me een enigsinds logische redenatie
Niet als flame bedoeld, maar kun je deze bewering met argumenten onderbouwen?
Gepost door Rick van Hattem - woensdag 30 juni 2004 - 01:08 ]ik denk dat hij bedoeld dat windows niet zo heel geweldig om kan gaan met hot-pluggable hardware
Het gaat echter zeer goed hot-plugable USB bv of firewire gaat over het algemeen goed als je de juiste installatie procedure volgt, SCSI en andere interne apparatuur gaat over het algemeen ook goed het soms eerder de hardware die faalt.
Gepost door justice strike - woensdag 30 juni 2004 - 01:01
reden 1 vaak last van virussen
reden 2 updates gaan vaak gepaart met reboots
reden 3 upgrades (hardware) gaan altijd gepaard met reboots
reden 4 blue screen of death zouden geen mogelijkheid moeten zijn.
reden 5 systemen waar windows 2003 en longhorn op zullen draaien zijn van zodanige kwaliteit dat je per definitie geen mission critical systemen kunt bouwen. ( hele x86 architectuur is er niet op gemaakt!, denk aan bugs in de processoren, te lage peformance=, etc...)
oke even advocaat van de duivel gespeeld en MS met Linux /Unix vergelijken op basis van jou redenatie

waar MS het meeste last van heeft is dat zijn OS zijn kernel en "userland" gecombineerd heeft. hiermee bedoel ik dat een slecht geprogameerde applicatie een BSOD kan genereren (systeem crash) of dat een virus heel makkelijk Systeem rechten kan verwerfen

1) zie bovenstaande kernel uitleg. daarnaast is MS het grootst dus 1 van de meest grote doelwitten met "hit me"op zijn buik & rug.
2) updates op bijna elk OS gaan gepaard met een reboot als het om systeem veranderingen gaat Linux of Unix ontkomt hier ook zelden aan (kernel recompile) het kan wel on-the fly maar dan kan je ook porblemen verwachten
3) zie vorige redenatie, wat jij bedoelt is drivers die aangepast moeden worden. maar dat doe je eigenlijk niet met mission critical systemen.
4) zie kernel uitleg.
5) het x86 kan prima deze taak invullen, sterker nog waarom zouden *nix machines en ook MS machines een (redelijk) lange uptime hebben? zolang je het op 1 taak richt en (bv DHCP) en niet te veel andere meuk erbij doet is het niet onwaarschijnlijk dat je het 3-4 jaar kan laten draaien.

Daarnaast zijn mission critical systemen er meestal in cluster vorm dus als er 1 wegvalt door bv hardware upgrade, systeem update of iets anders, dat de 1 of meerdere andere servers de taak/load op zich neemt en verder gaat.


het nadeel van MS betreft linux/unix op het gebied van Mission Critical systemen (bv bank transacties) is dat MS teveel Crap heeft draaien wat niet ter zake doet. zoals een media player, Internet Explorer, games, maar ook de GUI (Grafische User Interface) meedraait. wat bij een *nix server allemaal weggelaten kan worden. en daar dus op die 1ne taak gerichte specifieke software geinstalleerd kan worden en het overbodige verwijderd.

Daarnaast als bij *nix een applicatie crasht/hangt kan je die zonder het systeem te rebooten weer herstarten door een "killall -9 HUP <appnaam>" wat
het hele appicatie killt en weer restart, bij ms betekend dat meestal een reboot.

Dus MS is meer een "zwaargewichtig" overdone te veel resource vretend OS met als nadeel een slechte basis namelijk de kernel die door software vanuit gebruikers software plat gehaald kan worden.

edit:

wat tik foutjes eruit gehaald
wie heeft het hier over linux? Als ik zeg dat x86 niet geschikt is wil dat niet zeggen dat x86 met linux opeens wel geschikt is. Bedenk wel dat mission critical systems (echte mission critical systems dus niet die webservers die alleen een lange uptime hebben maar bijvoorbeeld computers in een nucleaire reactor) Embedded custom osses draaien, op speciale hardware. Daarmee kunnen ze ook makkelijker een uptime garanderen die vele malen hoger is dan elk ander software hardware combo (van de plank dus zoals linux of windows)

hotpluggable slaat op kritieke hardware zoals raid kaarten, processoren en/of geheugen. Ik zie niet gauw een mission critical systeem usb hardeschijven gebruiken oid
Ik denk bij deze dat zowel Linux/UNIX systemen als MS-Windows systemen niet geschikt zijn, daar beide soorten besturingsssytemen niet ontworpen zijn voor real-time toepassingen.

Binnen deze systemen moeten real-time eigenschappen, zoals een garantie van de responstijd, in het OS meegenomen worden, zodat het kritieke proces niet zomaar geblokkeerd wordt omdat een ander proces wat CPU-tijd vraagt.
door pyro1979 - woensdag 30 juni 2004 - 12:24
Ik denk bij deze dat zowel Linux/UNIX systemen als MS-Windows systemen niet geschikt zijn, daar beide soorten besturingsssytemen niet ontworpen zijn voor real-time toepassingen
Binnen Windows en Linux/Unix is het mogelijk om een bepaald proces absolute voorrang te geven *nix is daar nog veel harder in dan MS
- In *nix wereld is dit door middel van Nice Level (aardigheids nivo)
- MS noemt het CPU prioriteit (zie taskmanger rechter-klick op process) echter bij MS heb ik minder vertrouwen.

Ik denk dat beide een zeer goeie poot hebben om op te staan de 1 wat beter als de ander. Maar een gespecificeerd apparaat (hardware +OS in 1 )is natuurlijk erop gemaakt.

PS Mission critical Hardware is natuurlijk zo redundant als de pest ik heb systemen gezien waar MS of *nix product op draait waarbij je elk product on the Fly kan vervangen. maar ja daar betaal je wat voor. en alles is dus van CPU(board) tot Hot-Swap HD
ik heb het over Linux, het is een vergelijking.

je kan het ook met MIPS/RISC CPU vergelijken. het moet wel voor iedereen begrijpenlijk blijven. indien je dat als uitgangspunt erbij zet dan was mijn reactie heel anders geweest.

X86 of andere hardware kan best mission critical aan. anders wordt het niet Door NASA gebruikt in de o.a space-shuttle.

en bij Mission Critical systemen denk ik ook altijd aan redundant misschien wel in 4 of 10voudige backup. en het ligt ook idd aan de hardware.
@ tomatoman
Microsoft heeft bij de ontwikkeling van Windows beslissingen genomen die slecht zijn uit oogpunt van veiligheid en betrouwbaarheid, maar goed zijn uit maketing en easy-to-use oogpunt.
-De registery.
-Intergatie van brouwser, email client, media player, en OS.
-Het gebrek van overzicht over welke files en settings van het OS en welke van 3rd party tools zijn.

Er zijn er meer. Wie vult me aan?
ik denk dat hij bedoeld dat windows niet zo heel geweldig om kan gaan met hot-pluggable hardware
Met Microsoft Datacenter Edition kom je al een heel eind. Dus met een nieuwe versie van Microsofts OS moet mission critical goed mogelijk zijn.

reden 1) Virussen zijn aanvallen van buitenaf en worden veroorzaakt door downloads en of run van een bestand dat een virus bezit. Een server gaat zelf geen bestanden downloaden en ook niet uit zichzelf een bestand starten. Tegen virussen kun je je zeer goed wapenen.

Reden 2) Mission critical systemen bestaan uit meerdere geclusterde servers. Dus zelfs als een server door een update opnieuw opgestart dient te worden draait de rest door en merken de gebruikers niets.

Reden 3) hiervoor geldt dat er steeds meer hot-pluggable hardware is. Indien toch een herstart nodig is dan geldt hetzelfde als bij punt 2, de overige servers houden het zaakje in de lucht.

Reden 4) elk operating systeem kan hangen. Ik heb op mijn Windows XP systeem nog nooit een blue screen of death gehad. In mission critical omgevingen wordt alleen certified hardware gebruikt en zal men geen software gebruiken welke niet uitvoerig is getest.

Reden 5) zie punt 4, de systemen zijn volledig gecertificeerd. Microsoft garandeerd met Windows Datacenter Edition reeds 99.999% uptime. Daarbij: elk stukje software of hardware is door mensen bedacht en gebouwd en zal dus altijd fouten bevatten.
reden 1) Virussen zijn aanvallen van buitenaf en worden veroorzaakt door downloads en of run van een bestand dat een virus bezit. Een server gaat zelf geen bestanden downloaden en ook niet uit zichzelf een bestand starten. Tegen virussen kun je je zeer goed wapenen.
[tussen in werpsel]
Ehm, er hoeft maar een malloot op je netwerk met een besmette computer te komen en je hele interne netwerk ligt aan gort... dan heb je niks aan je firewalls[/tussen in werpsel]
Helaas, het hele DCOM kan aardig lek zijn en daardoor is het mogelijk om remote bestanden te runnen.
Voorts draaien er veelal onnodige services (maar dat is een algemeen feit, onafhankelijk van het Windows platform) met onnodige hooks deep into het systeem.

Vrijwel alle services draaien onder het systems account, dus zodra er ook maar een klein gaatje is in een service (remote buffer overflow wat een cmd.exe aan een poort bind voor remote access bijvoorbeeld, zoals slammer, red alert nimda etc.... al was de payload iets meer dan een cmd.exe starten en binden aan poort xxxxx) heb je volledige controle over het systeem.

Vergelijk dit met de privilege escalation op UNIX/*nix systemen: Meeste services worden zo ontworpen en ontwikkeld dat ze met een hele beperkte rechtenset (user/group nobody, chroot etc) uit de voeten kunnen. Dus je hebt hooguit een nobody/nobody shell... en als het meezit heb je dan nog niet eens een shell maar een DoS, zonder dat dat de hele bak meesleurt .. slechts de service killed... of ff een hoge load veroorzaakt maar niet al te rampzalig dat je meteen moet rebooten ofzo...

(owja, en laat ik het dan maar niet hebben over wormen en ander gespuis die eenmaal binnen je netwerk al je servers kunnen besmetten... ligt je hele datacenter op z'n gat... ooooooooeh! Daar kan geen virusscanner wat aan doen ....)
Reden 5) zie punt 4, de systemen zijn volledig gecertificeerd. Microsoft garandeerd met Windows Datacenter Edition reeds 99.999% uptime. Daarbij: elk stukje software of hardware is door mensen bedacht en gebouwd en zal dus altijd fouten bevatten.
Zo kan ik het ook zeg maar..... gooi er genoeg servers tegen aan met fail-safe/fail-over procedures en er kunnen wel wat machientjes uitvallen... tot bijvoorbeeld de master loadbalancing server uitvalt (of is dat ook gedistribueerd? dat weet ik helaas niet...).

Maar goed, meeste bedrijven hebben niet de resources om 5 servers neer te zetten die de boel van elkaar overnemen ... dus alleen de kapitaalkrachtigen kunnen zo'n fijne 99,999% uptime Windows DCE aanschaffen....

Kan microsoft het ook met minder resources ... ? Want als ik zie hoe vaak het bij ons bedrijf plat ligt .... en als ik dat dan vergelijk met m'n eerdere ervaringen met andere platformen ... (jaja, het unix vs windows kamp ;) )
Een gewone gebruiker hoort niet dusdanig open toegang te hebben tot mission critical servers dat deze onnodig verkeer naar deze servers kan sturen. Neemt net weg dat elke extra veiligheid er eentje meer is...

Het is in de praktijk echter wel een groot probleem. Met geeft kapitalen uit aan de beveiliging van de internet koppeling, maar houdt geen rekening met problemen van binnenuit. En daar komen de meeste problemen vandaan...
erhm er zijn al 1000en voorbeelden van mission critical servers die op microsoft draaien, zelfs in de grootste ondernemingen. BV perfect voorbeeldje uit eigen land: de abn amro bank die zelfs al mee draait sinds nt4 met sql7. Dus om nu te gaan schreeuwen dat ms nooit geschikt zal zijn voor mission critical systemen is ronduit dom. Verder bestaat de goede hardware er ookal tijden voor neem een voorbeeld aan unisys met de ES7000 of de HP superdome... Het gaat er hier gewoon om dat fujitsu een nieuwe lijn begint in samenwerking met MS, het feit of ms systemen geschikt zijn voor mission critical applicaties hoef je echt niet aan te twijfelen... :Z
erhm er zijn al 1000en voorbeelden van mission critical servers die op microsoft draaien, zelfs in de grootste ondernemingen. BV perfect voorbeeldje uit eigen land: de abn amro bank die zelfs al mee draait sinds nt4 met sql7. Dus om nu te gaan schreeuwen dat ms nooit geschikt zal zijn voor mission critical systemen is ronduit dom.
Zit je zelf ook bij de ABN? Ik kom daar met regelmaat, en er is daar echt absurd vaak storing. Van niet werkende pinautomaten, tot werkstations die overal MS-ISA errors geven, mogelijkheid om Pinpasjes te activeren doet het niet, etc, etc, etc. Prima bank verder, maar ze hebben echt absurd vaak computerstoringen als ik het vergelijk met andere banken.

Om nog maar niet te spreken over het Internet bankieren van hun.
ik heb meer dan een jaar bij de backoffice gewerkt, daar ging het niet om pin automaten maar (mission critical, daar ging het over he) beurssystemen waar 100en miljoenen euros doorheen gingen...
Het is dan ook bij geldautomaten van de ABN AMRO waar ik geregeld een BSOD zag in plaats van "Voer uw pas in"...
reden 1 vaak last van virussen
Een mission critical systeem is wat anders dan een thuis pc-tje. En zelfs een thuis pc-tje is prima virus vrij te houden.
reden 2 updates gaan vaak gepaart met reboots
Een mission critical systeem bestaat uit veel meer dan 1 pc-tje. Een reboot is dus geen bezwaar, het systeem draait gewoon door.
reden 3 upgrades (hardware) gaan altijd gepaard met reboots
Zie punt 2
reden 4 blue screen of death zouden geen mogelijkheid moeten zijn.
reden 5 systemen waar windows 2003 en longhorn op zullen draaien zijn van zodanige kwaliteit dat je per definitie geen mission critical systemen kunt bouwen. ( hele x86 architectuur is er niet op gemaakt!, denk aan bugs in de processoren, te lage peformance=, etc...)
Inderdaad... www.microsoft.com ligt er om de 5 minuten uit vanwege alle problemen......
Sorry ik vind je reactie net iets te kort door de bocht.
Zou je aan kunnen geven dat een server met windows 2003 oid erop geen last zou hebben van virussen, je geeft alleen aan dat een server "wat anders dan een thuis pc-tje" maar ik zie niet in waarom dit systeem bijvoorbeeld bij het serveren van een website (meestal niet echt missioncritical maar goed) geen last zou hebben van iets als het code-red virus.
Ik vind dat wanneer je uitspraken wilt doen over de mate waarin een OS missioncritical is dat je redundatie buiten beschouwing moet laten. Zie mijn post beneden.
Inderdaad www.microsoft.com ligt er niet om de 5 minuten uit maar is wel vaak zat down geweest, nu is dat voor deze website niet zo erg alleen is het andere koek wanneer het het systeem is dat een vliegtuig aan de grond moet zetten (ik noem maar iets).
Ik denk dat iedereen die in deze discussie meedoet ff goed moet nadenken over wat de ander bedoelt met "mission critical", zorgen voor een goede uptime van je webserver is toch anders kritiek als een embeddedsysteem waar mensenlevens mee gepaard zijn.
Onzin, microsoft.com wordt op Windows 2003 gehost en gecached door Akamai die inderdaad wel Linux gebruiken.
Bedenk dus ook dat ook als je eens in de 5 jaar downtime hebt van 5 minuten, dat dat al teveel is (5 minuten de computer van de reactor niet nodig hebben, je hebt al een meltdown)

De reactors die ik ken draaien op PLC's en dergelijke industrieële meuk. Er draaien gewoon Windows Server bakkies langs voor het meten van data.
Dus weet niet of jij je een Windows 2000 server voorstelt met een PCI kaartje erin die een kern-reactor aanstuurt .....
:Z
Wat is ' Mission Critical ' eigenlijk? Dat vroeg ik mij eigenlijk af en Google helpt een beetje::
http://www.google.com/search?hl=en&lr=&ie=UTF-8&oi=defmore&q=define:Mi ssion+critical
reden 1 vaak last van virussen
reden 2 updates gaan vaak gepaart met reboots
reden 3 upgrades (hardware) gaan altijd gepaard met reboots
reden 4 blue screen of death zouden geen mogelijkheid moeten zijn.
reden 5 systemen waar windows 2003 en longhorn op zullen draaien zijn van zodanige kwaliteit dat je per definitie geen mission critical systemen kunt bouwen. ( hele x86 architectuur is er niet op gemaakt!, denk aan bugs in de processoren, te lage peformance=, etc...)
Doordat mission-critical systemen, gezien het feit dat ze mission-critical zijn, niet aan het Internet zullen hangen:

Reden 1: geen last van omdat het niet aan het Internet hangt en omdat er maar een paar mensen toegang hebben tot zo'n systeem en die zijn slim genoeg om te weten dat ze zo'n systeem niet met alles mogen voeden

Reden 2: waarom updaten zolang alles goed werkt? beveiligingsupdates zijn meestal ook niet nodig omdat de exploits waar deze updates betrekking op hebben niet voorkomen omdat zo'n systeem niet aan het Internet hangt

Reden 3: door clustering, wat altijd gebeurd als iets mission-critical is wordt dit opgevangen en is dus niet erg

Reden 4:BSOD's worden alleen nog maar veroorzaakt door brakke software en bagger drivers, de certified hardware en certified drivers reduceren dit nogal. Zoals ook eerder vemeld... clustering voorkomt totale uitval

Reden 5: Dikke onzin, Windows NT4 heeft al een C2 (veiligheids) certificaat behaald. 2K en 2003 zijn 'build' op NT technology dus ook hier zit je mis.


Laat nu maar eens een aantal echte redenen zien. Ik denk dat Windows 2003 server zich prima leent voor mission-critical systemen. Maar dan moet je ook niet met 1 lullig servertje aan komen zetten. Dan verwacht je toch minimaal 2 load balanced servers (natuurlijk met redundant psu) met een shared raid 5 diskarray + backup diskarray. En dat dan geclustered met 2 load balanced servers met shared raid 5 diskarray + backup diskarray...

Het liefst het clustertje over 2 leased lines op 2 fysiek verschillende locaties met UPSjes...
Bedenk wat voor soort hardware gebruikt wordt voor dit soort systemen. Ik kan je garanderen dat dat geen pentium 4 systemen zijn. (dacht zelfs dat de pentium de laatste proc was die door de nasa test is gekomen)
Dat klopt en dat heeft niet met de processor te maken maar eerder met de storingsfactoren eromheen die er teveel invloed op kunnen uitoefenen. Ik weet niet of ze het inmiddels hebben aangepast maar de Discovery heeft lange tijd gebruik gemaakt van 486 DX 33 processoren voor allerlei onboard processen :)

Ik denk overigens niet dat de eerste generatie Pentium (60 en 66Mhz) door de NASA wordt/werd toegepast vanwege de FDIV bug.
Ik weet niet of er een officiële instantie is die de enige juiste definitie van 'mission critical' heeft.
Maar volgens mijn boerenverstand hangt het er vooral vanaf wat je 'mission' is. Voor veel organisaties is een downtime van 5 minuten in 5 jaar een perfect uitgangspunt voor de processen die voor hun missie van kritiek belang zijn. De minder belangrijke processen (het maken van de personeelskrant, om een overdreven voorbeeld te geven) mogen dan draaien op systemen die wel af en toe vastlopen maar veel betaalbaarder zijn.
Wow, ik ben onder de indruk van je reactie. Vooral de argumenten zijn absoluut overtuigend.
Dit is ook een reactie op tomatoman:
Dan zal ik justice strike ff helpen: Een argument is het feit dat Microsoft systemen voortdurend moeten rebooten. Zelfs de nieuwste versies maken dat je nog veel moet rebooten. Aangezien er zeer regelmatig beveiligingspatches geinstalleerd moeten worden, komt ook rebooten geregeld voor. Dit past niet bij wat ik onder "mission critical" versta.
En zo zijn er nog wel meer argumenten te bedenken, vooral t.a.v. veiligheid en architectuur.
... het feit dat Microsoft systemen voortdurend moeten rebooten.
Zo'n feit vind ik dat niet. Mijn xp computer reboot ik echt niet elke dag, en de machines op de zaak al helemaal niet.

Maar goed, zouden ze voor deze Mission Critical versies geen aanpassingen maken die de meeste argumenten omverhalen? Zoals hotpatchen ofzo mogenlijk maken?
Een scheduled reboot hoeft voor een mission critical systeem niet zo'n ramp te zijn. Daar kan je omheen werken. (clusters etc)

Maar eerst zul je duidelijk moeten definieeren wat een mission critical systeem is, want anders zit je in het luchtledige te praten. (Zoals hier al fanatiek door een stapel mensen gedemonstreerd wordt)
*Vraagt ban aan voor een aantal FP onderwerpen:

Windows
Linux
Beveiligings lekken
Problemen met OS

HOUD NOUW EENS OP MET DIE EINDELOZE DISCUSSIE, OPEN EEN F*CKING TOPIC OFZO.

Waar zijn de post gebleven waar mensen informatie geven en wat links posten om meer te weten te komen
Je hebt wel een punt, maar wat moet T.net doen?
Ow, dat gaat over Windows/Linux: geen verslaggeving over?? Dat is wel een beetje kort door de bocht, censuur is niet goed, kijk maar naar China. T.net heeft volgens mij altijd een zo breed mogelijk spectrum gehad voor berichtgeving.
Misschien nog erger: stel dat er geen bericht meer komt over een beveiligingslek, wat dan? Allemaal lekker zitten kniezen zoals met Blaster/Lovsan het geval was?
Je hebt gelijk, wat betreft de reacties: vooral MS- en Tux-bashing. Ik dacht ook wel even: Windows Mission Critical, eerst zien dan geloven, maar ik heb helemaal geen ervaring met Windows Server (al helemaal niet met die extreem dure versies als DataCenter) dus ik denk enkel dat het een beetje hoog gegrepen is.
Toch staan er wel veel interessante posts tussen, hoor maar natuurlijk zit er verschriikelijk veel onzin tussen. Misschien tijd dat T.net de gebuikers op gezond verstand wijst, niet door censuur maar door eerst lief te vragen om niet zo ver off-topic te gaan tijdens het bashen, daarna waarschuwingen als het niet werkt en uiteindelijk kan je censuur toepassen, maar niet op de onderwerpen (wel op de reacties: alle reacties die bashend overkomen of die te ver van het onderwerp liggen).
Het ging mij niet om de post maar die doelloze discussies over welk OS beter is bla bla bla
Wellicht kan je ook een topic starten over censuur?
Ik ben het trouwens eens met Armageddon_2k, dat het hier niet de bedoeling was de discussie MS-Windows vs. Open-Source Linux aan te wakkeren.

Zelfs ik geef toe dat Linux, al dat mijn persoonlijke voorkeur verdient die ik hier niet verder ga toelichten, niet geschikt is voor Mission Critical systemen (zie eerdere post).
Andere admins ervaring buitengelaten, Win2k3 kan gemakkelijk als 'mission critical' gebruikt worden. Zoals al eerder was opgemerkt worden in dat soort situaties vaak clusters gebruikt om niet van hardware afhankelijk te zijn.

Win2k3 en schijnbaar nu ook Longhorn kunnen gemakkelijk in dit soort clusters worden opgezet, zie het maar als RAID5 bij hardeschijven, waarbij het ook geen probleem is als 1 of meerdere hardeschijven er mee stopt.

Zelf op één systeem zijn mijn persoonlijke ervaring altijd goed geweest. De uptime op mijn P3-1Ghz XP box waar ik alles op doe, zit gemiddeld ver boven een maand. Toevallig nu net op 13 dagen, omdat ik de systeem BIOS had geupdate, maar daarvoor was het 72 dagen. Tuurlijk het zou mooi zijn als je niet voor bepaalde updates hoeft te rebooten, maar dat wordt ook steeds minder en zelfs volgens nieuwsberichten nog minder zodra Microsoft versie 5 van windowsupdate klaar heeft.

De Win2k3 servers die ik beheer maak ik me al helemaal niet druk over, de keren dat ik reboot is vaak omdat ik te lui ben om uit te zoeken welke services gestopt/gestart moeten worden om de nieuwe updates te laten werken, en dan niet alleen de MS updates, maar ook van 3rd party software, zoals Mail/DNS/Firewall/etc. Maar als ik één server plat lig dan merkt de buitenwereld daar dus niks van, omdat de andere servers in dezelfde cluster rustig doordraaien. De echte problemen liggen voor mij meer in routers en backbone providers.
Maar als je servers in aan cluster zet.. en zijn het toch geen "mission-critical" systemen meer.

Omdat het, zoals je zelf al zegt, niet uitmaakt als er eentje down gaat.
dan is het totale systeem mission critical, niet een node van het cluster.

het gaat erom dat de service (mail) beschikbaar blijft.
Wat voor soort "mission critical" bedoelen we hier eigenlijk? Bol.com die wil garanderen dat klanten altijd bij de site kunnen bestellen? Microsoft die wil dat mensen hun site kunnen bereiken tijdens de zoveelste ddos? Een grote bank die zijn data-centra heeft verspreid over 5 steden voor het geval er een ramp komt? De regering van de USA die in geval van een grote nucleare aanval in staat wil zijn om te vergelden? Een robot die naar mars word gestuurd en die na een x aantal jaren in een koud vacuum en harde landing moeten overleven? Allemaal "mission critial" maar toch heel erg verschillend.
De echte term 'mission critical' stamt meer vanuit de tijd van bijvoorbeeld de ruimtevaart, de eerste Appolo raketten hadden meervoudige computer systemen. Je wilt namelijk niet dat als er één dingetje fout gaat, dat het dan ook meteen over is. Er waren verscheidenen backup systemen die het direct konden overnemen zonder dat de feitelijke functie werdt onderbroken, bijvoorbeeld het bedienen van een stuur-raket. En soms waren er backups voor de backup.

Dat is waar het nu in deze tijd ook op neerkomt, sommige taken moeten blijven doorgaan, ook als de hardware er mee stopt. Dus wordt er redundantie ingebouwd, RAID5 voor de opslag en clusters voor de computers, zolang de betreffende taak maar blijft doorlopen.

En wat die taak nu ook is, zolang de kosten die verloren worden als het niet werkt groot genoeg zijn, dan wordt er vaak ook genoeg aan besteed om dat te voorkomen.

Grapjes daargelaten van een BSOD op een hartmonitor }> is er een steeds grotere markt in het bedrijfsleven waarbij het belangrijk is dat hun database of wat dan ook 100% uptime heeft, en Microsoft wil dus graag van die lucratieve markt een graantje meepikken.

Kijk maar naar de financiële wereld, een 99.999% uptime zou betekenen dat je alsnog iets meer dan 5 minuten in het jaar plat ligt. Op een grote beurs als New York of London praten we dan in die korte tijd toch over een gigantisch bedrag wat verloren gaat. Dus er is dan ook zeer veel geinvesteerd in een zero-down systeem, oftewel 'mission-critical'.
Even de precieze betekenis van missioncritical buiten beschouwing latent:
Ik vind eigenlijk wanneer je gaat bekijken in welke mate een systeem "missioncritical" is, dat je redundantie buiten beschouwing moet laten. Wanneer je uptimes gaat vergelijken tussen verschillende OSen (of verschillende Hardware) moet je toch kijken naar één computersysteem? Anders is er geen zinnige uitspraak over te doen, dan is elk systeem wel te bestempelen als "missioncritical", ik kan rustig 50 systemen met windows 95 draaien en voor 99,99 garanderen dat er altijd wel eentje draait.
Het enige dat telt is of de mission critical service beschikbaar is voor de klant/gebruiker.

Als je dat voor mekaar krijgt met 50 systemen met Win95 dan kan dat een net zo valide oplossing zijn als een mainframe.

Dan kan je wel zeuren dat het 50 systemen zijn, maar als het z'n werk net zo goed doet, wat is dan het probleem? Waarom zou je het dan buiten beschouwing moeten laten?

Het probleem is dat jij dus niet kijkt naar de mission critical applicatie, maar naar de stabiliteit van één enkele machine. En dat is gewoon een totaal andere discussie. Kan ook best interessant zijn, maar niet bij een discussie voor mission critical applicaties
Ja uiteindelijk wel natuurlijk.
Maar hierboven worden er allerlei discussies gevoert over welk operating system geschikt is voor kritieke processen. Bij het beoordelen of een OS geschikt is bereken je kansen en moet je een individuele computersystemen met elkaar vergelijken. Anders kun je geen uitspraken doen over de bruikbaarheid van het OS in een kritiek proces.
En jij gaat er ook vanuit dat elke mission critical aplicatie gebouwd word met een cluster, dit is onzin, het is namelijk afhankelijk van het soort aplicatie dat draait.
Mission critical betekent niet per se dat het systeem 100% up is! Het betekent dat de service, en da's wat anders dan het systeem, langdurig beschikbaar en op voorspelbare wijze reageert op systeemonderhoud. Dus als je weet dat het systeem down moet is dat niet erg, als het systeem maar draait op het moment dat het noodzakelijk is.

Patches zijn ook op mainframe's noodzakelijk, en die rebooten ook, al heet het dan IPL. En daar zijn service windows over afgesproken, meestal zaterdag op zondag nacht en zo.

Dat MS dit aankan is zonder twijfel waar. Zoalng je het systeem maar als zodanig gebruikt. Dus weinig veranderingen, voorspelbare applicaties, en geen gepiel met het systeem. Ik heb bij bedrijven gewerkt waar de NT4 services, die mission critical waren, 99.9999 beschibaar waren. Toegegeven, het waren clusters van 10 systemen die allemaal dubbel waren uitgevoerd, maar toch. En dat met NT4, kun je nagaan dat dit met longhorn wel verbeterd zou kunnen worden.

Overigens heeft MS al met Unisys een dergelijke systematiek ontwikkeld voor de ES7000 servers.
Patches zijn ook op mainframe's noodzakelijk, en die rebooten ook, al heet het dan IPL. En daar zijn service windows over afgesproken, meestal zaterdag op zondag nacht en zo.

Mission Critical is bijvoorbeeld de System/360 die IBM in Boca Raton heeft staan. IPL in 1969. Sindsdien 100% available. Dat is tenminste een systeem waar je van op aan kunt. Hoewel het inmiddels een museumstuk zal zijn geworden.
kan dit in het licht van dit bericht gezien worden ?? http://www.tweakers.net/nieuws/33052/
of dit bericht http://www.tweakers.net/nieuws/32601/
een "mission critial" systeem is in mijn ogen de taak die een systeem uitvoert, onafhankelijk van de hardware en software waardoor dit mogelijk gemaakt word.

een e-mail systeem als exchange of SQL is tegenwoordig voor de meeste bedrijfen al de status "mission critial", denk aan een accountant kantoor die zijn boekhoudingspakket gebasseerd is op SQL, geen sql dan bijv 50 of meer mensen die chinees gaan leren.
exchange voor bijvoorbeeld een handelsonderneming, geen mail, 80%minder handel, etc etc.

in de punten die 'justice strike' noemt zou een cluster van 2 of 4 nodes al een uitkomst zijn.
elke node is hierbij dan een win2k3 ent. server.

een cluster maakt simpelweg een virtuele machine aan die geserveerd worden door1 vd nodes, het onderhouden van 1 node is dan geen enkel probleem, omdat de virtuele machine naar een andere node verhuist kan worden dmv een druk op de knop, of door een hardware, software failure, automatich gebeurd.
met deze oplossing zijn bijv security updates geen probleem meer, bij het updaten van een SQL server, of Exchange server komen nog andere zaken naar voren waardoor het beter is dit in de service uurtjes te doen, daar deze pakketen minder gevoelig zijn voor updates, en meestal geen reboot vereisen voor een updates, is er ook minder impact op de 'mission' van t pakket.

/offtopic
verder timmert microsoft aan de goede weg wat betrouwbaarheid in mijn ogen, men moet namelijk niet vergeten dan een gemiddeld iemand nog niet de helft aan mogelijkheden gebruikt die er in windows en/of office zitten, doordat je er alle kanten mee op kan is het ook een complex product geworden en zijn fouten nu eenmaal niet te vermijden. (los van de discussie dat ze vaak sneller moeten zijn met patches, etc)
/ontopic

denk alleen dat microsoft hier niet strikt genomen 1 vaste partner nodig heeft, maar beter kunnen richten op platvorm onafhankelijk 'goed' product.
Met longhorns minium systeem vereisten zijn alle servers aan vervanging toe...

Longhorn lijkt me ook niet bepaald een ideale basis voor een serverplatform.. de processorkracht / ram kan ook wel voor nuttige dingen worden gebruikt, zoals betalende klanten

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True