Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 36 reacties
Bron: Computerworld, submitter: Longbeard

Vanaf vandaag kunnen klanten van IBM extra rekenkracht huren in die hoeveelheid die ze op dat moment nodig hebben. Dit idee is niet nieuw, in de tijd dat krachtige mainframes schaars waren, werd de rekenkracht van het deze systemen ook per deel verhuurd. De plannen voor "Deep Computing on demand" zoals IBM het noemt, dateren van begin dit jaar. Inmiddels heeft IBM een speciaal pand geopend om de systemen te huisvesten. Er staan nu zeshonderd geclusterde systemen in dit gebouw: vijfhonderd aan elkaar geknoopte eServer x335 en x345 machines, en nog eens honderd p655 computers. De systemen zullen op Linux en Unix gaan draaien. Het gebouw is groot genoeg om het serverpark uit te breiden tot duizenden systemen als de vraag uit de markt groter zal zijn dan men nu aan kan. De projecten die zullen gaan draaien op de clusters varieren qua lengte twee weken tot drie maanden. In eerste instantie kan niet iedereen bij IBM terecht:

IBM eServer The new center isn't for everyone, however. "This is not a facility that can be envisioned as meeting all possible kinds of needs," Turek said. It will initially serve customers in the petroleum and life sciences industries, he said. One of the center's first customers is Houston-based GX Technology Corp., which expects to begin using the center to run its EarthWave geological analysis software on IBM's Intel clusters running Linux within the next few months.
Moderatie-faq Wijzig weergave

Reacties (36)

Niet als noob question bedoelt hoor, maar ik vraag me af wat ze nu eigenlijk berekenen op die systemen. Wanneer zegt een klant: "Goh, ik kan wel even een paar weken een supercomputer gebruiken".

Kom nu aub niet met losse termen aanzetten als 'medisch onderzoek' etc. Ik wil weten waar al die CPU's nu precies hun kleine hoofdjes over breken.
Veel middelgrote bedrijven en universiteiten hebben een paar keer per jaar veel rekenkracht nodig.
Bijvoorbeeld Mamoet/Smit ten tijde van het liften van de Koursk, of de ontwerper van de Øresundbron brug tussen Denemarken en Zweden.
Het gaat vaak om éénmalige berekeningen tav het ontwerpen en de effecten van de structuur van het object en zijn omgeving. Vaak worden hiervoor eindige elementen programma's (Finite Element Analysis) gebruikt en deze methode verbruikt een heel groot aantal parallel geschakelde processoren.
Een ander voorbeeld zijn de banken en groot bedrijven, die een aantal keren per jaar een marktanalyse maken. Voor zo'n analyse hebben ze dan éénmalig veel processorkracht nodig.
Wanneer we in Nederland gaan kijken vervult SARA een soortgelijke rol, als IBM nu wil gaan leveren, voor, in hoofdzaak, de Nederlandse Universiteiten.
Niet alleen Sara. Waneer iedereen met kerstvakantie is huurt de Gasunie wat rekenkracht bij het rekencentrum van de RuG om het verbruik te voorspellen ;)
Bij FEA gaat de benodigde rekenkracht tot de 3e macht met het aantal elementen als ik met niet vergis. Dus dat gaat inderdaad aardig in de CPU's lopen bij dergelijke projecten met complexe niet-standaard te schematiseren constructies.

Het hoeft trouwens niet parallel geschakelde processoren te gebruiken, vaak wordt het wel gedaan en wordt de op te lossen matrix in stukken gesneden.

Al weer lang geleden dat ik daar eens wat mee heb gedaan
Die door jouw genoemde afhankelijkheid tot de 3e macht klopt, daar een (praktisch) voorwerp meestal 3-dimensionaal is.
Een van de aio's op m'n faculteit gebruikt sara? supercomputer in amsterdam. In het onderzoek wat zij doet modelleert ze een heel hart op sub-cellulair niveau (iedere cel is weer opgedeelt in 20-30 componentjes). Ben vergeten hoe groot het hele hart is, maar zeg iets van 10000 celllen.

binnenin een cel hebben alle componentjes invloed op elkaar, cellen zelf oefenen invloed uit op elkaar.

Dat geheel worden normale hartpulsen doorheen gezonden, zodat het hart gaat kloppen. Dan kijkt ze wat het effect is van verschillende patronen afgestorven cellen (zoals gebeurt in een hartinfarct)

Om die simulaties te laten lopen gebruikt ze iets van 200 processoren op een supercomp.
schat het hart gerust op een miljard cellen...en daarvan moeten nog een paar duizend celorganellen per stuk berekend worden..een aardige bak werk dus
[off topic]
Ben vergeten hoe groot het hele hart is, maar zeg iets van 10000 celllen.
Als je echte biologische cellen bedoelt, ga dan maar uit van een heleboel meer dan 10.000. Het menselijk lichaam bestaat uit zo'n 50 miljard cellen.
Dus afhankelijk van de grootte moet je denk ik al snel denken aan enkele tientallen miljoenen tot enkele honderden miljoenen cellen (afhankelijk van de grootte van hartspiercellen). Als je die dan nog eens in 30 stukjes deelt, en daarop allemaal gekoppelde berekeningen los laat heb je inderdaad wel wat meer nodig dan je zakjappaner }>

[/offtopic]
Medisch onderzoek wil waarschijnlijk zoveel zeggen als DNA onderzoek. Medische genetica dus. Hoewel ik niet precies weet wat ze ermee berekenen zijn er wel een paar van de meest krachtige computers bezig het menselijke genoom in kaart te brengen.
zie ook:

http://www.tweakers.net/nieuws/26704

Het weer voorspellen is ook een nogal heftige taak qua rekenkracht :)
Chips zoals Nvidia's 3d kaarten emuleren om ontwerpen te testen.

Geologische informatie analysen om te zoeken naar olie (Shell bv.)

Nucleaire ontploffingen emuleren en deeltjesversnellers (bv. CERN)
ik denk dat je het meeste werk kan omvatten met 1 woord : simulatie.
vooral die waar veel factoren en variablen zijn en alles op al het andere effect heeft kan aardig wat terraflops opvreten.
De P655 'supercomputers' kunnen per stuk tot 128 Power4 processors huisvesten.

http://www.computerworld.com/hardwaretopics/hardware/server/story/0,10 801,75932,00.html

De x335/345 rackmounted servers zijn beide goed voor twee Xeon processors.

http://www.pc.ibm.com/us/eserver/xseries/x335.html

De voordelen voor de klanten ten opzichte van eigen supercomputers zijn de volgende:
- Wanneer is geen behoefte aan is staan er geen computers idle te zijn.
- De kosten zijn er nu direct per project, wat boekhoudkundig erg voordelig is.
....

- Schaalbaar (moet sneller af? huur maar wat bij)
- Altijd up to date (je huurt inplaats van het afschrijven van steeds ouder wordende apparatuur)
- Je hoeft alleen je prog + input te leveren en je output op te halen. Niks beheerders aannemen, ruimtes inrichten enz enz
Das jammer: hebben de DPC-ers weer minder te assimileren :( }:O

Dat soort PC's kunnen we wel gebruiken ;)
Wanneer wordt het toegankelijk voor de "customers in de graas sciences industries"? }:O
Op het moment dat ze geld teveel hebben. :Y) :+
The new center isn't for everyone, however. "This is not a facility that can be envisioned as meeting all possible kinds of needs,"
Ik denk niet dat IBM concurrentie duldt :P

Zie bijvoorbeeld:
http://www.grid.org/services/teams/teams.htm?mth=alpha&val=I&rsps=50&r scp=3

of http://www.grid.org/services/teams/team.htm?id=B4BBD5E0-9F9A-4384-B451 -6170685DC22E
Ik vraag mij hoe ze het software plaatje gaan regelen. Elke simulatie vereist natuurlijk een heel specefiek stuk software, welke wel voorbereid moet zijn op het feit dat er een clustur onder zijn gat draait. Deze software maak je niet eventjes zomaar. De installatie en het testen ervan op honderden computers zou ook wel wat geduld vereisen. Er is dus wel wat voorkennis benodigd om even een simulatietje op gang te laten komen op deze machines.
Ik denk dat de meeste software die voor dit soort berekeningen gebruikt wordt reeds geschreven is voor cluster werk. Bovendien het herschrijven van de software zal peanuts zijn tov de huur van een weekje rekenkracht,
Veel van dit simulatie werk is gewoon geprogrameerd in C (++) of fortran. Het enige wat dan nodig is is een compiler en een goede lib en het draait op een beowulf clustertje van 4 386's en bij hun op 256 processoren. (Op de eerste alleen een stuk langzamer)

Zollang je je programma maar goed paralleliseerbaar en schaalbaar houdt komt het wel in orde.
vraag me eigenlijk af wat het nou gaat kosten.. stel je wilt 3 weken bijv. 400 computers uit die cluster huren.. wat zouden ze dan in rekening brengen?

en.. hoe sturen ze nou iets eigenlijk aan? stel je wilt bijv. een filmpje renderen gemaakt in maya.. ik kan me niet voorstellen dat ibm een tal van pixar renderman licenses heeft?
ik denk dat die door de huurder in orde moeten worden gebracht, aangezien zij bepalen welke software er op de machines moet draaien tijdens de huurperiode. kan me niet inbeelden dat ibm daar telkens voor zou moeten opdraaien (of ze zijn gelijk hun winst kwijt)
Cluster bedrijven liggen steeds beter in de branch, het voordeel dat je in slechte tijden niet alles moet verkopen onder een zeer lage prijs. Dus schulden verhogend. Ik vind het om zo te zeggen een heel strak proces. Ik ben benieuwd met welke software pakketten ze gaan draaien. Naast dat het Linux Suse wordt.
Zou zo iets ook niet kunnen met een server park van een hosting provider ? :?

Ik denk niet dat die servers 24/7 al hun processorkracht gebruiken.
Je pc valt uit je kan niet meer op de CS server, ff IBM bellen ;)
Ja leuker kunnen ze het niet maken, wel moeilijker!

Maar voor bedrijven is het best een uitkomst, het is financieel niet haalbaar om zelf zo'n computertje in huis te hebben.

Vraag ik me alleen af hoe ze de datatransfer willen doen, er zal wel heel wat info over de lijn gaan. Dat lijkt me een grootte bottleneck. En met floppy's heen en weer rennen lijkt me niet erg handig.
Het gaat meestal om de uitkomst van een complexe berekening, en die zijn vaak niet zo groot. Alleen is er dus veel processorkracht nodig om die berekening te doen. Ik denk dus niet dat er relatief veel schijfruimte verbruikt wordt.

EDIT: Ik probeer hier toch echt iets toe te voegen, en ik kom het verder ook niet tegen, dus dubbelpost?
Ik heb nog wel een 3d studio max filmpje wat gerenderd moet worden. Even contact met ibm opnemen dan maar :D

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True