Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties

IBM heeft een presentatie gegeven over zijn nieuwe mainframeprocessor, de z6. De chip is losjes gebaseerd op de architectuur van de Power6, maar heeft meer dan genoeg unieke features om van een nieuw ontwerp te kunnen spreken.

IBM System-z 800 mainframeDe z6 is een 65nm quadcoreprocessor van 434mm≤ met 991 miljoen transistors aan boord. De chip werkt op Socket 8765, draait op snelheden boven de 4,0GHz en biedt een totale bandbreedte van 182GB/s uit onder meer vier geheugencontrollers.

Iedere core heeft 192KB L1-cache en 3MB L2-cache direct geÔntegreerd, wat verder wordt aangevuld met een gedeeld extern L3-cache van 24MB, dat eventueel naar 48MB vergroot kan worden. De pipeline en bepaalde rekeneenheden van de z6 zijn op die van de Power6 gebaseerd, maar er zijn ook grote verschillen tussen de twee; zo hebben ze om te beginnen al een heel andere instructieset.

Nieuwe features in de z6 zijn onder andere de optie om hardwarematig om te gaan met decimale floating point-getallen - een belangrijke feature voor software in de financiŽle sector - en speciale hardware voor taken als compressie en encryptie. De processor kan tot 240MB/s inpakken en 8,8GB/s uitpakken. De snelheid van encryptie loopt van 290 tot 960MB/s, afhankelijk van of er voor DES-, SHA- of AES-encryptie wordt gekozen.

De betrouwbaarheid van de z6 gaat ook nog een stap verder dan die van de Power6. Zo controleert de chip op meer dan twintigduizend plaatsen of er geen fouten zijn opgetreden bij het opslaan, versturen of verwerken van data. Vrijwel iedere fout kan opgelost worden: de core zal eerst proberen zijn eigen state te herstellen en de actie zelf opnieuw uit te voeren, maar als dat niet lukt is het ook nog mogelijk om de taak door een andere chip over te laten nemen, allemaal zonder dat de software er iets van hoeft te merken.

Over het stroomverbruik van dit monster is niets bekendgemaakt, maar het is geen geheim dat zelfs mainframes met een bescheiden aantal processors aan boord al enkele duizenden watts verorberen. Het mag dus duidelijk zijn dat deze chips hun prestatie/watt-verhouding niet aan de kant van de watts proberen te verbeteren, maar juist aan de kant van de prestaties. Blijkbaar slaagt de fabrikant daar goed in: recent maakte IBM bekend dat een van zijn mainframes de taken van 250 gewone x86-processors kan overnemen, maar tussen de tien en de vijftig keer minder energie verbruikt.

IBM z6
De IBM z6-processor van dichtbij.
Moderatie-faq Wijzig weergave

Reacties (55)

Wat ik vreemd vind is waarom IBM de Cell niet gebruikt?
Strikt gezien kan de Cell CPU met zijn DSP's toch enorme voordelen bieden in een mainframe omgeving? Volgens mij lijkt het dan ook goedkoper dan een Z6 verder te ontwikkellen niet? (Ik dacht dat IBM zelfs een 6Ghz versie van de Cell had...)

IBM promoot de Cell trouwens zelf als een CPU om high-performance applications op te draaien...
The Cell BE processor is a chip consisting of nine processing elements (note the PS3 has one of them disabled, and one of them reserved for system use, leaving seven processing units at your disposal). The main processing element is a fairly standard general-purpose processor. It is a dual-core PowerPCģ-based element, called the Power Processing Element, or PPE for short. The other eight processing elements, however, are a different story.

The other processing elements within the Cell BE are known as Synergistic Processing Elements, or SPEs. Each SPE consists of:

* A vector processor, called a Synergistic Processing Unit, or SPU
* A private memory area within the SPU called the local store (the size of this area on the PS3 is 256K)
* A set of communication channels for dealing with the outside world
* A set of 128 registers, each 128 bits wide (each register is normally treated as holding four 32-bit values simultaneously)
* A Memory Flow Controller (MFC) which manages DMA transfers between the SPU's local store and main memory

[Reactie gewijzigd door Ryaka op 17 oktober 2007 10:40]

Zal waarschijnlijk onderandere iets met betrouwbaarheid te maken hebben. Deze processors moeten dag en nacht volle bak gegevens produceren. Dan kies je eerder voor een betrouwbare oplossing dan de allersnelste, die ook bijna een soort van cell processor is (4 cores).

[Reactie gewijzigd door Who Am I? op 17 oktober 2007 10:42]

4 dezelfde core's ja, de cell processort heeft specifieke core's voor specifieke taken.
IBM announced April 25, 2007 that it will begin integrating its Cell Broadband Engine Architecture microprocessors into the company's line of mainframes.
Bron

Terwijl ze wel al bladeservers leveren met de Cell

[Reactie gewijzigd door Behzo op 17 oktober 2007 10:44]

Wat ik vreemd vind is waarom IBM de Cell niet gebruikt?
Volgens mij is dat vooral vanwege de differentiatie financiele / wetenschappelijke toepassingen zoals hierboven aangegeven:

Cell-processors zijn meer geschikt voor in 'supercomputers': Applicaties waarbij snelheid de grootste bottleneck is (volgens Wiki). Een Cell processor is vrij traag als het aankomt op double-precision floating point bewerkingen (blijkt uit benchmarks), maar heeft met name massale parallelle rekencapaciteit om de onderlinge invloeden van enorm veel elementen op elkaar te kunnen uitrekenen. Dus de Cell is bijvoorbeeld geschikt voor berekeningen zoals 'vele botsende deeltjes' (botsingsimulatie, kernexplosie-simulatie), multidimensionale transformaties (stromingen in de oceaan of klimaatverandering-verwachting). Hierbij werkt alle hardware op een moment (meestal) aan hetzelfde probleem. Als zo'n computer het een dag niet doet is het niet zo erg zoals Wouter T. zegt, dan doe je je simulatie gewoon morgen. Omdat snelheid belangrijk is, maak je graag gebruik van de nieuwste snelheids-optimalisaties, zowel in hard- als software.

Mainframes zijn ontworpen voor toepassingen waarbij betrouwbaarheid de doorslaggevende rol speelt, en ze moeten vaak backwards compatible zijn om oude programma's te kunnen draaien. Ze verwerken data die nu verwerkt moet worden en daarbij niet een dag kan wachten. Duizenden klanten die bij winkels staan te pinnen willen immers niet een dag op de transactie wachten (dus belastingdienst, postbank internetbankieren of UWV zouden ze ook goed kunnen gebruiken ;) ). Er wordt dus veel gebruik gemaakt van bewezen (ouderwetse) technologie. Ook moeten ze vaak verschillende 'takken' van transacties doen op hetzelfde moment, zoals bij ERP. De hardware van een mainframe kan dus op een moment met verschillende 'soorten' taken bezigzijn.

De Cell is daarentegen juist ontworpen om 'nieuwe' speciaal voor de Cell aangepaste programma's te draaien; reden waarom op de IBM webpagina tientallen artikelen staan over hoe optimaal gebruik te maken van de Cell bij het porten / programmeren van je programma's naar / voor de Cell architectuur.

[Reactie gewijzigd door kidde op 17 oktober 2007 16:18]

Strikt gezien kan de Cell CPU met zijn DSP's toch enorme voordelen bieden in een mainframe omgeving?
Als je de betrouwbaarheid van een spelcomputer in je mainframe wil, sure. En dat is maar de eerste van vele bezwaren.

[Reactie gewijzigd door Wouter Tinus op 17 oktober 2007 10:50]

Wat is dat nou weer voor reactie. Dat de cell OOK in de ps3 gebruikt wordt, betekend niet dat hij daarvoor ontwikkeld is. De xbox gebruikt een x86, DUS alle x86 processors zijn niet betrouwbaar volgens jou.

IBM is zelfs bezig een nieuwe 'supercomputer' (de roadrunner) te ontwerpen met zowel opterons als cell; zouden ze vast niet doen als de cell niet betrouwbaar was:
http://en.wikipedia.org/wiki/IBM_Roadrunner
Ik zeg niet dat hij niet betrouwbaar is, ik zeg dat hij niet betrouwbaar genoeg is voor een mainframe. Wat zou jij kopen als bedrijf dat tientallen miljoenen schade oploopt als de computer ook maar een keer plat gaat: een chip kopen die is ontworpen voor games, beeldverwerking en hier en daar een wetenschappelijke simulatie, of een die op 20.000 plaatsen errors checkt en vrijwel iedere denkbare fout naadloos kan opvangen? Welke van de twee vertrouw je meer om niet een dag, week of maand stabiel te blijven, maar meerdere jaren aan een stuk door, onder volle belasting?

[Reactie gewijzigd door Wouter Tinus op 17 oktober 2007 14:22]

Een x86 is niet betrouwbaar (genoeg). Vandaar dat chips als de Power6 en itanium al extra trucs qua betrouwbaarheid hebben en mainframe processoren nog verder gaan. Een x86 gebruik je als je het niet erg vind als de server zo nu en dan uitvalt. (failover bla die bla) Is dat wťl een probleem moet je geen x86 gebruiken. Gegeven dat ook een Cell niet gebouwd is voor betrouwbaarheid, geldt hetzelfde voor de cell.
De Cell processor kan wel gebruikt worden als special purpose processor. Voor algemene taken en IO is de cell veel minder geschikt. Bovendien werkt het meest gebruikte besturingssysteem z/OS niet op een Cell processor. Dat is toch wel een vereiste :)
Linux draait er toch op :p Verder is de cell idd niet helemaal geschikt voor algemenere taken, maar mogelijk wel als co-processor te integreren.
Ik dacht dat een floating-point getal altijd decimaal was... Guess not :?
Helaas, floating point is niet geschikt voor berekeningen met geld.
0.75 + 0.75 kan als floating point het resultaat 1,499999999999 opleveren.
Binnen Java en .NET dien je daarom voor geldberekingen BigDecimal cq decimal te gebruiken.
BigDecimal heeft ook het voordeel dat meer bits gebruikt wordt voor het getal zelf en minder voor de positie van de decimal-point.`
Hier staan wat praktijkvoorbeelden:
http://www.extremeoptimiz...etConceptsAndFormats.aspx
Tel maar eens 1000 keer 0.1 op in Excel. (niet =1000*0.1, maar in vakje A1001 een sum van A1:A1000) en kijk dan eens ver achter de komma van A1001, kom je vanzelf op 99.9999999999986 ipv 100.
Nou heb jij een oude Pentium 60 met reken bug? Bij mij kom ik toch echt op 100

edit je hebt gelijk als ik het aantal decimalen op 12 of hoger zet

[Reactie gewijzigd door toet-toet op 17 oktober 2007 12:33]

Klopt helemaal, als ik de afronding uitzet kom ik op 99.999999999998600000 uit :)
In openoffice krijg ik na 60x al de 1ste afrondingsfout op het 14de decimaal. Na 65535 optelling zit er al een verschil van 0.00000000631 in.

Waarschijnlijk kan dit bij berekeningen met object van atomen e.d. een onacceptabele rekenfout opleveren.
Die van jou wel, die van de computer zijn binair. Gevolg is dat machten van 10 (decimaal) niet met een oneindige precisie te representeren zijn in de computer. Omdat financiele zaken allemaal in decimale getallen worden gedaan, kan ik me voorstellen dat het voordelig is hardwarematig met decimale getallen te kunnen rekenen. Dat scheelt afrondingsfouten. 3.25% rente of 3.24% (of wat voor afrondingsfout dan ook) scheelt een heleboel geld voor een bank die een omzet van 1000 miljard heeft.
Nope. Een normaal floating point getal is binair. Het ziet er zo uit:
1.x maal 2 tot de macht y
x en y zijn binair opgeslagen. Getal voor de punt is altijd 1 (0.0 is speciaal gecodeerd)

14 => 1.75 maal 2 tot de macht 3. De .75 en 3 worden opgeslagen. De .75 is in binair .11 (1 * 1/2 + 1 * 1/4 = 0.75).

Een probleem is bijvoorbeeld 1.9. Decimaal .9 is niet om te schrijven naar een mooi binair getal. Het begint met 111001...
Als je maar 4 bits gebruikt, dan wordt het getal opgeslagen als 1.875 (1 * 1/2 + 1 * 1/4 + 1 * 1/8 + 0 * 1/16 = 0.875). Je hebt dus een afrondingsfout.

Afrondingsfouten zijn niet belangrijk in de wetenschap. Exact bestaat daar niet. Je kijkt naar het aantal significante cijfers.

In de financiele wereld zijn afrondingsfouten wel gevaarlijk. Je kan daar dus niet met de normale floatingpoint getallen werken.
kan ook in het exponent zitten...
Damm klinkt erg goed. Zouden ze deze ook beschikbaar stellen voor supercomputers ? Of is dit echt alleen maar voor mainframes ?
Supercomputing: Cell i.c.m. Opterons...
IBM heeft een andere chipserie speciaal voor supercomputers. De z6 is daar helemaal niet zo geschikt voor. Bij supercomputers draait alles om goedkope en efficiente flops, bij mainframes gaat het om ultieme betrouwbaarheid, virtualisatie, I/O, ongeacht kosten en stroomverbruik.
Logisch dat 1 mainframe 250 x86-servers kan overnemen. Mainframe werkt altijd 100% en een x86 server 5%. Met virtualisatie wordt de vergelijking heel anders. 40 Virtuele servers op een nieuwe 4CPU x86 server haal je gemakkelijk, en dan heb je nog maar 6 machines nodig. Dan wordt dat tussen de 10 en 50 keer minder energie vertaald in .25x tot 1.25x zoveel energie. Oftewel 4 zo zuinig tot 1.25x zo veel!

Intel en AMD zijn dan toch eindelijk al goed bezig. Nog gebruik maken van de nieuwe zuinige processoren en net als bij het mainframe de schijfcapaciteit op een SAN zetten en Intel/AMD wint het op zijn sloffen.

Echter is een mainframe voor andere doeleinden te gebruiken (meer transactie-gericht dan applicatie-gericht bij Intel/AMD) en gaat nooit down (1 keer per 37 jaar of zo). Hoewel dmv virtualisatie dat in een paar jaar ook wel wordt gerealiseerd.
Euh... ik denk dat als een een aantal x86 server wordt ingezet voor het werk wat de mainframe doet deze ook een flinke load van 100% zullen hebben. Ze hebben het hier niet over file- of webservertjes... Het gaat hier over zo veel en betrouwbaar mogelijk GB/s verwerken dus die beestjes rusten nooit.

Als jij een x86 server hebt die maar 5% belasting heeft doe je toch iets economisch fout. Maw, dat ding heeft geen nut.
Ik vrees dat de virtualisering in de x86 wereld nog een lange weg te gaan heeft, gelet op de vele performance problemen die zich alhier voordoen.... Da's een leer EN ontwikkel proces van jaren .... Daar hebben ze op het mainframe zo'n dikke 10 jaar overgedaan ....
Volgens mij is virtualisatie op de x86 voor verschillende soorten 'server'taken best lastig, omdat de x86 - met name de nieuwere - hoog geoptimaliseerde instructiesets gebruiken, die niet zo algemeen zijn. Echter, om verschillende soorten 'server'taken te kunnen draaien op virtuele servers, lijkt me een meer algemene RISC instructieset makkelijker / beter.
Waarom zouden mainframes dood moeten zijn?
Argumenteer je statement is en geef ook aan wat het vervangen zou moeten hebben.


Ik zou ook wel graag zo'n ding in m'n huis hebben staan :)
Mainframes zijn inderdaad nog lang niet dood. Wat je wel ziet is dat steeds meer bedrijven, ondanks de nog steeds grote techinsche voorsprong, de overstap maken naar een ander platform. Meestal is deze move cost driven, maar ook het gebrek aan geschikt personeel is voor veel organisaties een groot probleem. Het bedrijf waar ik werk beschikt maar over een klein aantal mensen met kennis van dit platform. Het merendeel van deze mensen is ouder dan 50 jaar.

Als er niets verandert aan het aantal mensen dat wil werken op dit platform, dan zal het toch van zelf uitsterven.
Het merendeel van deze mensen is ouder dan 50 jaar
Inderdaad, same here. Maar da's goed nieuws voor mijn marktwaarde want ik moet nog minimaal 30 jaar tot mijn pensioen en de aanwas van nieuwe mensen is inderdaad minimaal.

Echter uitsterven zal het nooit om deze reden. In de landen met de grootste mainframe klanten worden al op highschools, colleges e.d. gewoon "mainframe-les" gegeven om zo systeem programmeurs op te leiden. In NL lijken scholen hier echt niet zo voor te PORren (no pun inteded ;) ) te zijn, omdat in Nederland niet veel mainframe klanten zijn. Maar banken zullen nooit hun mainframes de deur uit (kunnen) doen omdat er gewoon geen vervangend platform is.

De tijd dat COBOL de enige taal op het mainframe was is lang voorbij, Java, XML zijn ook gewoon te draaien (bijv. i.c.m. Websphere).
Cost driven naar een ander platform ? 4 / 8 / 20 of 200 miljoen transacties ?
1. Het maakt op een mainframe qua personeel bijna niet uit ==> 4, 8 of 12 processors is transparant voor zo'n box, evenals memory en grotendeels ook voor je I/O subsystem.
2. Vloerruimte en koeling is dus ook geen probleem (zo groot als een bureau)
3. Gebrek aan geschikt personeel ? Onzin: Mensen met een goede basisopleiding heb je binnen 1 tot 2 jaar opgeleid, waarna ze uiteraard verder kunnen uitgroeien door de jaren heen tot echte specialisten.

Uiteraard zijn er ook nadelen op te noemen, echter een deel daarvan kan worden weggenomen door de komst van dit nieuwe type (mede afhankelijk van de prijzen)
Totdat je de electriciteit rekening krijgt... Heb je enig idee hoeveel zo'n ding weegt? Daarvoor zal je eerst je vloer moeten verzwaren, krachtstroom naar je huis laten trekken en een flinke airco aanschaffen. En als je dat allemaal goed geregeld hebt, zal je eerst nog om moeten leren gaan met die machine. Reken maar dat windows vista oid hier niet op draait ;)

Snap trouwens ook niet waarom je een minframeprocessor in je huis zou willen hebben staan(liggen). :P

[Reactie gewijzigd door Who Am I? op 17 oktober 2007 10:39]

Wat draait er uberhaupt op zoiets? Speciale versie van Linux / Unix, of een of ander tropisch os?
Je kan er verschillende besturingssystemen op draaien die allemaal onder controle draaien van de PR/SM "Hypervisor".
Voorbeelden zijn:
z/VM
z/OS
Linux (al wordt er meestal voor gekozen om deze weer onder de z/VM hypervisor te draaien aangezien deze de hardware beter uitnut en je uiteindelijk meer performance overhoud ondanks de extra virtualisatie laag)
En dan heb je 't geluid nog wat zo'n ding produceert, lijkt me ook niet echt lekker op je slaapkamer :)
Dit maakt zoveel lawaai niet, dat diskenrek dat ernaast komt daarentegen :D
Zeker nog nooit naast de airco van een mainframe gestaan?
Omdat mainframes gestorven zijn omdat ze vrijwel altijdt op het fenomeen algehele bedrijfstoring uit draaiden en in de praktijk het toch altijdt traag werken was. Ooit eens werden er bijna vanaf elk middelgroot bedrijf mainframes in tegenstelling to de huidige servers gebruikt, je kunt dus wel degelijk stellen dat mainframes gestorven zin omdat ze vrijwel overal eruit gewerkt zijn omdat er teveel pratische problemen aan vast zaten (denk eens maar eens aan software en hardware upgrades).

IBM was volgens mij de grootse mainframebakker dus nogal wiedes dat zij het fenomeen graag weer terugzien (the good old days).

[Reactie gewijzigd door fevenhuis op 17 oktober 2007 13:31]

Je bedoelt practische problemen, zoals 1 machine upgraden inplaats van op 100, dat soort werk? ;)
"Omdat mainframes gestorven zijn "

HuH ??? wie zegt dat waar staat dat??

"omdat ze vrijwel altijdt op het fenomeen algehele bedrijfstoring uit draaiden"

Ow?? wie zegt dat waar staat dat??
MF heeft de grootste betrouwbaarheid
crappy appilation programming perhaps not platform specific??

"en in de praktijk het toch altijdt traag werken was."
Ik wil wel eens zien wat er sneller 100GB aan data verwerkt MF of PC


"Ooit eens werden er bijna vanaf elk middelgroot bedrijf mainframes in tegenstelling to de huidige servers gebruikt,"

middel grote bedrijven gebruiken S36/S38 of iets dergelijks (main frame had toen min 200m floor space nodig

"je kunt dus wel degelijk stellen dat mainframes gestorven zin omdat ze vrijwel overal eruit gewerkt zijn omdat er teveel pratische problemen aan vast zaten (denk eens maar eens aan software en hardware upgrades)."

Is nie tMF specific. (b.t.w software geschreven in 1964 voor een ibm MF draait nog steeds op de huidige Z9 machines)

"IBM was volgens mij de grootse mainframebakker dus nogal wiedes dat zij het fenomeen graag weer terugzien (the good old days)."

en zijn ze nog steeds en ja er wordt geprobeert steeds meer werk voor het MF rendabel te maken.


fevenhuis hou je bij je leest!!!
En wat wil je er dan op doen... Leuke COBOL apps draaien onder Z/OS?
Linux... met heel veeeeel }:O }:O }:O :+
Totdat je je energie rekening krijgt, zoals het artikel al zegt gebruiken ze veel stroom
Beetje offtopic, maar willen de mannen van IBM niet eens een 3DMark score neerzetten die alle patsende overclockers met hun LN≤ e.d. eventjes de mond snoert :D

Dat zou fantastisch zijn, maar wel een beetje overkill.
Volgens mij is het niet eens mogelijk om een normaal vga kabel in te douwen. Wat vind je daar van.

Dat ding heeft geen beeldscherm nodig :D
Dat klopt. Maar een SuperPI ofzo zou inderdaad wel eens grappig zijn. Gewoon om de "normale Tweaker" te laten zien hoeveel geweld dit is. Dat zegt meer dan een SPEC getal.
Pfft gewoon even een GeForce4 MX440 in een pci slot douwen en dan 3DMark draaien in software mode :+
Heeft de z6 nou 4 op 6 cores? Zover ik in de layout kan zien 4.. Maar z6 is wel een toepasselijke naam. =P
Zoals in het verhaaltje staat is het een quadcore processor. De 6 komt omdat hij afgeleid is van de Power6 en de z komt omdat hij eigenlijk "enhanced" is om te voldoen aan de z-architecture van de IBM's mainframes. (Waarbij de z staat voor "zero downtime")

@SiErRa: Een z9 heeft ook PCI sloten, alleen betwijfel ik of een GeForce in PCI-X slot past. Voorbeeld waar deze op een mainframe voor gebruikt worden zijn hardware-encryptie-kaarten.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True