Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 33 reacties
Bron: C|Net

IBM heeft afgelopen dinsdag een nieuw model van zijn high-end p690 Unix systeem aangekondigd. Deze server zal volgens Big Blue 65 procent sneller zijn dan de huidige modellen. Heeft de klant dan nog niet voldoende rekenkracht dan kan er extra power ingekocht worden op het moment dat het echt nodig is. Het nieuwe model zal 32 1,7GHz Power4 processoren bevatten, maar kan ook geleverd worden met 1,5GHz chips. De huidige p690 servers moeten het met 1,3GHz CPU's doen. De snelheidswinst van 65 procent komt niet alleen door snellere processoren maar ook door het gebruik van PCI-X en verbeterde I/O. IBM is de derde speler in dit segment van de markt, maar verwacht met dit systeem zich te kunnen optrekken in de richting van de nummers n en twee, respectievelijk Sun Microsystems en HP. Eind mei zal de nieuwe p690 beschikbaar zijn, IBM komt dan ook met de p655:

The 32-processor p690 will be available at the end of May with either 1.5GHz or 1.7GHz processors, as will the eight-processor p655 used for supercomputing applications, said Jim McGaughan, director of IBM's server strategy. IBM also will announce that its 16-processor p670 can use the 1.5GHz chips.
IBM PowerPC 970 core met Power4 core (klein)
Moderatie-faq Wijzig weergave

Reacties (33)

"Deze server zal volgens Big Blue 65 procent sneller zijn dan de huidige modellen."

Dat is nogal wat zeg. Ik vraag me altijd af hoe ze het voor elkaar krijgen om zo'n sprong voorwaarts te maken in 1 keer. Natuurlijk wordt die sprong verdeeld over meer factoren dan alleen de CPU, onder andere PCI-X, maar toch.

Over dat PCI-X heb ik toch nog zo mijn twijfels, vooral over de relatie tot AGP kaarten. Alhoewel dat in de servermarkt natuurlijk nauwelijks een rol van betekenis speelt.
Wat betreft het belang van AGP kaarten in dit soort server kun je met een gerust hart 'nauwelijks een' vervangen door 'totaal geen' hoor.

Er zal vrijwel nooit iemand rechtstreeks er achter gaan zitten, alles kan vanaf een workstation beheert worden.

Edit: Spelletjes zullen er zowieso niet op gespeeld (mogen) worden.
wel eens van "the cage" gehoord.

Dat zijn high end machines die echt wel een scnhelle video-uitgang hebben.

Toegegeven, vaak gebeurt dat middels perifere systemen die rondomd de processor staan, maar ik kan me iets voorstellen dat dit op een of andere manier ook direct aan het systeem zelf hangt. Bijvoorbeeld de monitor die recht voor je staat in een grote simulator door deze machine te laten verzorgen. De systemen die voor de "periferal view" zorgen kunnen best iets minder scherp (lees goedkoper) zijn.
Bij 'The Cage' gaat het om een zeer gespecialiseerde server, die speciaal voor dat doel ontworpen wordt. Dit is gewoon een standaard high-end server voor grote bedrijven, en zal dus ook niet zomaar voor zo'n doel geschikt zijn.
Mijn ervaring is dat de meeste systemen worden inderdaad remote beheerd, bij unix is het dan ook nog mogelijk om dit zonder grafische schil te doen wat weinig resources zal kosten. Inloggen op de console van het systeem zelf doet men vaak alleen bij upgrades of grote problemen.

@Fragneck
Die dingen zijn pittig duur inderdaad, ik heb ook systemen gezien die op zich niet supergroot zijn (3 rackjes ofzo) en die gewoon 20 miljoen dollar kosten :P
Nog nooit van een AGP netwerkkaart gehoord... ;)
bron :

Performance alone isn't enough to woo customers and software partners into shifting to a new server, but it is necessary. The fact that IBM's p690 processor speed increased 33 percent while its overall server speed increased 65 percent is "impressive," said Insight64 analyst Nathan Brookwood.
Zoals je ziet, is de grootste factor van de hogere snelheid afhankelijk van de processoren... 33% is nog altijd meer dan de helft van 65%...


edit:
Trouwens, die krengen zijn behoorlijk duur :o
A p690 with 8 1.5GHz processors and 8GB of memory has a list price of $493,000. With 16 1.7GHz processors and 32GB of memory, the price tops $1 million. With 32 1.7GHz processors and 64GB of memory, it's $1.9 million, McGaughan said, and topped up with 512GB of memory the price is $3 million.
Over dat PCI-X heb ik toch nog zo mijn twijfels, vooral over de relatie tot AGP kaarten. Alhoewel dat in de servermarkt natuurlijk nauwelijks een rol van betekenis speelt.
Ehh. PCI-X is sneller dan AGP.
Kijk hier maar: http://www.techweb.com/wire/story/TWB20000718S0003
Daarnaast is een snelle grafische kaart van nul tot generlei waarde in een server als deze.
32 processors en 512GB! geheugen?!
Kan iemand me vertellen waar dat dan gebruikt wordt?
Een paar duizend client PCs/workstations bedienen?
Een grote database draaien?
UT2003 server? ;)
UT2003 server? ;)
Lach er maar om maar bij Sun hier in NL hadden ze een Enterprise 10000 staan met 64 cpu's en dat ding was dedicated Quake server :D (wegens gebrek aan andere toepassingen, ding moest blijkbaar toch wt doen :+ )
En da's nou juist het leuke van IBM: hun servers kunnen met veel minder processoren hetzelfde werk verzetten als de concurrentie. Waar Sun 64 cpu's voor nodig heeft, heeft HP er ongeveer 40 nodig, en IBM 32. En dat scheelt best een hoop geld :)
Vooral ook in de software-licenties die vaak per processor worden berekend...
voor zover ik weet is de sun Sparc nog altijd beter dan de HP PA-RISC hoor, ook heb ik nog geen vergelijking gezien tussen de Power4, PA-RISC, Compaq Alpha of Sparc komende van een betrouwbare bron.
Voor het kraken van jouw E-mailtje die je beveiligd hebt met b.v. PGP ?

Voor berekeningen die normaal maanden duren en nu dus wat sneller berekend wordt.

Voor koeitjes? Nee denk het niet :) Jammer genoeg.

Maar denk dat je begrijpt wat ik bedoel.
Wat dacht je van NASA, ESA, etc??

Bij NASA maken ze nu ook gebruik van zulke machines...
databases, onderzoek, zware bedrijfslogica doorrekenen, etc.

Er is een markt hoor :)
Als de markt er niet was, was de server er ook niet :z
Supercomputers worden ook vaak gebruikt om 'meerdere systemen te simuleren' Iedere website heeft zijn eigen 'virtuele' linux server.
Maar dat zijn dan vaak geen Unix gebaseerde systemen maar mainframes. Het voordeel van een mainframe over een Unix machine als deze (hoe indrukwekkend de rekenkracht ook is) ligt juist hierin: door een betere "Virtual Manager" kun je applicaties (of virtuele servers, zo je wil) dynamisch processortijd alloceren. Bijvoorbeeld meer processortijd als vooraf ingestelde responsetijden te ver stijgen.

Bij Unix machines is deze functionaliteit veel beperkter. Om eerlijk te zijn ben ik niet exact van de laatste stand van zaken op de hoogte, maar tot voor kort was het (o.a. bij de Sun Enterprise 10000 StarFire waar over werd gesproken) alleen mogelijk om een applicatie toe te wijzen per processor, vrij "star" dus, en zeker beperkend als je bijvoorbeeld 1.000 Linux machines wilt consolideren...
Sorry hoor, maar dit is ondertussen alweer achterhaald. Kijk hier maar eens:
http://www-1.ibm.com/servers/eserver/pseries/lpar/

Volgens mij is het zelfs zo dat je op die IBM dozen tegenwoordig b.v. rustig 100 virtuele linux servers kan draaien en zelfs on the fly processors, pci kaarten en geheugen kan toewijzen.
Sorry hoor, maar dit is ondertussen alweer achterhaald. Kijk hier maar eens:
http://www-1.ibm.com/servers/eserver/pseries/lpar/
Op deze pagina lees ik eigenlijk precies wat ik in bovenstaande al aanhaalde: namelijk dat je wel resources kunt toewijzen, maar alleen per processor. Correct me if I'm wrong here.

Met de krachtige processoren die in zo'n machine zitten is dat een relatief "lompe" manier om resources toe te wijzen. In de Virtual Manager van OS/390 kan dat op een veel elegantere manier: bijvoorbeeld maximaal 10% van 1 processor toewijzen aan virtual server y, met de mogelijkheid deze op te schalen tot b.v. 15% als de performance van de applicatie onder een bepaald niveau daalt.

Consequentie van dit verhaal is dat je effectief _veel_ meer servers kunt consolideren op een mainframe dan op een Unix machine, bij gebruik van dezelfde processoren (type/aantal). Daarbij speelt ook nog eens mee --maar dat gaat voorbij aan het oorspronkelijke onderwerp-- dat de belastbaarheid van een mainframe veel hoger is: waar een Unix machine al tegen zijn top aanloopt bij een relatief lage CPU-belasting kun je een mainframe zonder problemen weken of maanden achtereen op 90-100% van zijn capaciteit laten draaien.
Ik ben er wat dieper in gedoken en je hebt helemaal gelijk. Per LPAR (systeem) heb je idd 1 processor nodig. Het is zelfs zo dat je maximaal 16 LPAR's per server kan draaien.

Ik weet wel dat je op AIX niveau een mainframe (GECOS) kan 'simuleren'. Maar of dat weer samenwerkt met LPAR en of je binnen GECOS op die elegantere wijze resources kan toewijzen heb ik nog niet kunnen vinden. 16 mainframes op 1 p690 consolideren???
In de volgende release van Solaris, zullen zones zitten. Hiermee kan je 1000'en virtuele Solaris servertjes maken. Het project heet intern Kevlar.
Meer info op: http://theregister.co.uk/content/4/30179.html
Solaris' "Zones" zijn een interessante ontwikkeling. Op zich is er wat voor te zeggen dat het overkill is om voor elke virtuele server een apart OS image te laden, dat kost natuurlijk behoorlijk wat resources.

Maar het (voorlopig niet weerlegbare) commentaar van IBM zal zijn dat je de verschillende virtuele servers goed moet isoleren, om te voorkomen dat ze elkaar omgooien als ze vastlopen. Ondanks de marketing-talk van Sun is de technologie van IBM daarin vooralsnog ongeevenaard (HP ken ik niet).

De komende tijd krijgen IBM (en HP?) dus nog het voordeel van de twijfel. En zeg nou zelf: als je al een mainframe of zo'n zware Unix bak kunt financieren, dan hoef je ook niet op een paar MBs meer of minder memory te kijken om die OS images te laden.
Voor HW-Isolatie gebruik je domains. Op de SF15K kun je dan tot maximum 18 ge-isoleerde domains creeeren.
In ieder domain kun je dan zones creeeren. Daar ken je resources aan toe. Iedere zone krijgt dan bv. 1 share van de CPU, een maximum geheugen-space etc.. De zones krijgen dan gegarandeerd hun share aan cpu-time. Dus 1 zone kan niet met alle cpu gaan lopen en de rest blokeren. De sheduler verhindert dit.
zoals het weer voorspellen of de olievelden van de BP berekenen op basis van de gedane metingen:

http://www.tweakers.net/nieuws/26704


Supercomputers worden ook vaak gebruikt om 'meerdere systemen te simuleren' Iedere website heeft zijn eigen 'virtuele' linux server. :)
om simulaties mee te berekenen
Het is een server, geen supercomputer....... Wezenlijk verschil, de laatste wordt voor complexe berekeningen gebruikt zoals wat jij aangeeft, de eerste wordt gebruikt om diverse zaken aan te sturen zoals o.a. een netwerk. Vandaar de naam, SERVER.
Ik denk niet dat deze server voor de onderzoeksmarkt geschikt is. Dit is meer een databaseserver; geoptimaliseerd voor een hoge I/O, terwijl je bij wetenschappelijk onderzoek vaak pure rekenkracht nodig hebt. Dingen als I/O bandbreedte, hoeveelheid geheugen, geheugen bandbreedte zijn vaak in eerste instantie niet heel erg belangrijk. Dus waarom er veel voor betalen als het ook anders kan.

{Reactie op hardwareaddict] Je hebt helemaal gelijk. Alleen heb ik het over de server en jij hebt het over de CPU. De CPU is snel en een systeem hierop gebaseerd haalt vele MFlops. Alleen betaal je ook nog eens voor iets extra's wat je niet nodig hebt, zoals 512 GB aan geheugen. Om een voorbeeldje te geven. Ik doe ook allerlei zware berekeningen (zie sig). Een van mijn programma'tjes heeft niet meer dan 2 Mbyte RAM geheugen nodig, maar staat wel weken te draaien. [/reactie]
Deze machine is heel snel. 8 instructies per clock. Vergelijk dat met je pc'tje die er 3 per clock kan doen. Dus op papier kan dit een hogere gflop halen per processor als de Itanium2 van intel. Dan nog vet hoger geclocked ook.

Dus voor programma's die niet afhankelijk zijn zoals caches, zoals bijvoorbeeld matrixvermenigvuldigingen die op een correcte manier zijn geimplementeerd (maar dan echt *grote*) is dit een geniale cpu.

We praten dan niet het over het soort berekeningen dat je even op je pc'tje ook doet. Zo iets loopt soms een week of een paar maanden. Dat kan nu dan ineens in een paar uur of paar dagen op 32 cpu's.

Bij de Nederlandse overheid staan dan ook een paar van dit soort bakken. Zie www.nwo.nl

MVG,
Vincent
hoe snel is nou z'n processor vergeleken met een itanium ?
De vraag is natuurlijk, wanneer gaat T.Net op zo'n server draaien. :9~
Ik dacht dat deze processoren ook toekomst in Apple gingen blazen... :?

(edit: Sorry, was natuurlijk PowerPC 970, maar het lijkt er wel op.. :D)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True