Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 19 reacties
Bron: Real World Technologies

Op Real World Technologies is een artikel verschenen over de geschiedenis van het mainframe. Het stuk is bedoeld als algemeen overzicht en begint met een algemene uitleg van het fenomeen. De schrijver geeft een overzicht van de architectonische ontwikkelingen vanaf het begin van het mainframe in de jaren '60. Een aantal bijzondere eigenschappen, zoals het mainframe I/O channel, opslag via DASD en de methode LPAR om zogenaamde "virtuele machines" te maken, worden in dit artikel uitgelegd. Als er naar een reden wordt gezocht waarom het mainframe nog steeds populair is wordt de term RAS genoemd:

IBM 360 mainframeRAS (Reliability, Availability, and Serviceability) is a term IBM often uses to describe its mainframes. By the early 70's IBM had realized that the market for commercial systems was far more lucrative than that for scientific computing. They had learned that one of the most important attributes for their commercial customers was reliability. If their customers were going to use these machines for critical business functions, they were going to have to know they could depend on them being available at all times. So, for the last 30 years or so IBM has focused on making each new family of systems more reliable than the last. This has resulted in today's systems being so reliable that it is extremely rare to hear of any hardware related system outage.
Moderatie-faq Wijzig weergave

Reacties (19)

echt fascinerend hoe computers veranderd en gegroeid zijn door de jaren heen. ik ben benieuwd wat mensen over 20 jaar over onze pcs van nu zeggen :)
Mainframes worden nog veel gebruikt hoor... Zeker in Banken, maar eigenlijk ook in de meeste grote bedrijven. Reliability is zeker 1 belangrijke factor, maar ook scalability speelt mee samen met robuustheid en performance.

Bij ons is het trouwens wel al meermaals gelukt mainframes op hun kop te laten gaan :+

[reactie op hierna]
Het gaat wel degelijk over hardware-crashes hoor! Het probleem is dat de boel hier niet al te goed werd geïnstalleerd. We hadden een volledige ontdubbeling van de systemen (syplex heet dat als ik het goed voorheb, maar ik kan wel fout zijn) behalve de schijven/data. Alles was ook aangesloten op power-backup... behalve de schijven/data...

En dan tijdens de eerste de beste stroompanne stonden de krachtige mainframe-processors op volle toeren lucht te bakken...

Moraliteit: Zelfs de meest betrouwebare hardware krijgen we hier plat! :)
[/reactie]
Maar bij banken hebben ze nog een systeem dat nog betrouwbaarder is: Compaq Himalaya (Tandem) Die gaat echt vrijwel nooit down en is compleet dubbel uitgevoerd :)
Dit wordt bijvoorbeeld gebruikt voor geldautomaten en grote transacties.
Allemaal leuk en aardig, die dubbele uitvoering, maar als een systeem maar over één processor draait ( wat toch nog regelmatig gedaan wordt ), dan schiet het natuurlijk niet echt op.

Geef mij maar een IBM, met elke lpar over meerdere processoren verdeeld.

;) ik ben bevooroordeeld, ik weet het. Ik heb iets tegen Tandem en zeker tegen Compaq. Heb altijd met IBM gewerkt.
Ik heb al meerdere malen meegemaakt dat er een Tandem-systeem uit lag door een defecte processor.
Enne 7/24 beschikbaarheid niet haalbaar vanwege de applicaties heeft natuurlijk nix met de hardware te maken!

Bij ons zijn de IBM's alleen volledig uit de lucht als de kast zelf omgebouwd wordt naar een nieuwer model of bij een volledige stroomstoring. Dat laatste dus als er kortsluiting veroorzaakt wordt, tussen welke stroomvoorziening dan ook en het mainframe, maar dan ligt de Tandem er ook uit.
Stratos maakt PC's die driedubbel uitgevoer zijn, 3 pc's dus die met speciale hardware elkaar op kritieke punten controleren.
De kans dat op 1 specefiek tijdstik 2 verschillende computers een fout maken is nihil, als een van de computers een fout maakt wordt dit geraporteerd en met de ander 2 gelijke resultaten doorgewerkt
hmm, dan is het een bagger geconfigureerde Tandem, normaal gesproken moet dat allemaal gerecovered worden..

en ja, als er ergens kortsluiting optreedt dan houdt het met een single Tandem systeem ook wel op, al zijn de meeste sites met Tandem wel zo uitgevoerd dat ze gebruik maken van een take-over systeem... en die staat meestal in een ander gebouw, zoals wij het ook hebben geconfigureerd..

oh ja, de Tandem zelf heeft nog wel backup power supply.. dus dan draait deze nog wel een aantal uur door..

het feit blijft.. de IBM kan nog niet tippen (op bepaalde toepassingsgebieden) aan een Tandem... dat denken ze hier binnen de bank wel, maar helaas wijst de praktijk anders uit...
hey! dat moest ik zeggen :)
ik weet niet hoor, maar ik heb nog geen enkele Tandem op 1 processor zien draaien, dat kan namelijk niet eens...

en als je het internet een beetje gaat afstruinen naar artikelen, dan komt een Tandem er toch echt wel beter uit qua scalability/reliability en integrety :)

alles kan hotswap worden vervangen, en er is nog geen enkele Tandem op deze hele aardkloot uitgevallen door een hardware malfunction..

hier binnen de bank hebben we ook een IBM Parallel Sysplex staan, maar daar is geen 7/24 beschikbaarheid haalbaar, applicatief gezien...
Heee Cliffie :P :>
Dat zal dan waarschijnlijk softwarematig zijn. Hierbij heb je bij je programmering van systeemsoftware zodanige zaken uitgevoerd dat ie plat gaat. Verkeerde programmering is natuurlijk niets tegen bestand.
Ook mainframes worden nog regelmatig ge IPL'ed (gereboot). Meestal doordat de klanten zelf software ontwikkelen waar dusdanig fouten in zitten dat je bijvoorbeeld geheugen lekken krijgt.

De reliability (RAS) gaat over de hardware, hiermee wordt met name aangegeven hoe zeker een mainframe is. (er zijn verhalen van mainframe's die na in fik te hebben gestaan en vol met water te hebben gezeten toch weer normaal opstarten en goed functioneerden).
Apa heeft het volgens mij over iets dat IBM Parallel Sysplex noemt: de mogelijkheid om meerdere machines op te nemen in een groter geheel, waarbij je dat geheel weer op kan delen in LPARs.

Als je dan ook nog de capaciteit die een LPAR krijgt dynamisch gaat toewijzen dan wordt het heel leuk: applicatie 1 in LPAR A heeft meer CPU nodig? Dan halen we die even tijdelijk weg bij LPAR B waar applicatie 2 uit z'n neus staat te eten.... Dit is denk ik een van de meest geavanceerde technieken om je machine zo goed mogelijk te benutten.

Verder mag er ook wel wat aandacht aan de I/O capaciteit van een zSeries machine worden geschonken. Aan een machine hangt vaak een aantal channel controllers die niets anders doen dan een setje schijven aansturen. Uiteraard asynchroon, en een systeem kan een aantal van die controllers in parallel aanspreken. Disk I/O kan dan opeens heel snel gaan, zeker als je je in- en uitvoerbestanden een beetje slim neerzet.

Ook qua scheduling is er bijzonder geavanceerd spul. OPC bijvoorbeeld, iets waarmee je je batchprocessing tot in detail kunt plannen, volgen en bijsturen.

Tot zover dit nostaligsiche uitstapje, nu weer aan de slag met J2EE :)
Inderdaad apa (lees nog eens: RAS = stabiliteit, met (virtuele) flexibele linuxservers = dat we hetzelfde bedoelen ;)

Oh ja, Tux Rulez :Z
RAS + de flexibiliteit van linux = de toekomst als je het mij vraagt...

Jammer dat het artikel zich alleen op de historie/werking van het mainframe richt, en niet daaropvolgend over de huidige toepassingsmogelijkheden zoals 100den virtuele servers naast elkaar draaien.

Maar wie ben ik ? Zei de ;)
RAS + de flexibiliteit van linux = de toekomst als je het mij vraagt
Het gebeurt tegenwoordig steeds vaker dat mini-computers en zelfs mainframes op *NIX gaan draaien... Als web-servers of db-servers kunnen die bakken ook al fungeren tegenwoordig.

Je mag Linux stabiel vinden, maar als je het vergelijkt met hetgeen op de mainframes draait, dan doet *NIX het maar heel magertjes hoor... De OS'en voor die machines worden heel weinig ge-update en als dat gebeurt, dan gaat er altijd jaaaaaaaaaaren test-tijd aan vooraf.

Mainframes behandelen bij ons nu nog vooral batch-processen... En als ik het over batchprocessen heb, dan heb ik het over een paar 100en miljoenen transacties die iedere nacht moeten verwerkt worden per applicatie en heb ik het over een paar 100en applicaties...

Het is vaak zo dat het resultaat van 1 job (want zo heet dat op mainframes) als input moet dienen voor de volgende job. Als een job die in het begin moet draaien dus faalt, dan kan de rest ook niet draaien. Dat betekent vaak uren vertraging die een groot bedrijf al snel een paar miljoen kunnen kosten. Dat is de reden dat mainframes in zo'n bedrijven voor zo'n kritiek jobs nog veel gebruikt worden.
Dit is ook de opstap voor volgende uitgebreidere artikelen aldus de schrijver:

Quote: "In this article I will provide a brief history of the mainframe, with an emphasis on features that make a mainframe unique. I will not attempt to cover the architecture in any technical detail at this time; the intent is simply to set the stage for future articles."

over linux: dit is ook n leuke toepassing: http://www.tweakers.net/nieuws/12430 :P
LOL - 0letje te weinig zie ik :D... En te snel met mijn reaktie :Z....Ben dan ook benieuwd naar het vervolg !!
En de onderstaande zin moest ik toch wel twee keer lezen.

So it’s now possible to run a 32-bit application in 24-bit addressing mode under a 31-bit operating system running on 64-bit hardware, any questions? Good.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True