Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 24 reacties
Bron: Reuters

IBM heeft een stukje software ontwikkeld dat de vraag naar rekenkracht kan voorspellen, zo meldt Reuters. Het programma reageert op situaties waar de vraag naar capaciteit plots toeneemt, en kan in dat geval extra computers inschakelen. Het omgekeerde is natuurlijk ook mogelijk; in een geval van overcapaciteit worden de netwerkcomputers die overbodig zijn simpelweg weer uitgeschakeld. In tegenstelling tot het voorspellen van het weer of economische kwesties, werkt het programma van IBM niet met trends of statistieken, maar met de daadwerkelijke vraag van het moment:

IBM logo (vrijstaand) For instance, if an airline starts a fare sale and is hit by a flood of customer inquiries, it would take about one minute for the software to figure out more power is needed and add another computer, said Joe Hellerstein, manager of the adaptive systems department at IBM's Watson research center.

Het programma is een onderdeel van IBM's streven naar het ontwikkelen van de autonome computer. Hierbij heeft Big Blue een computer in gedachte die zich kan aanpassen aan veranderende omstandigheden, en zich tevens kan herstellen bij eventuele uitval. De autonome computer is op zijn beurt weer een onderdeel van IBM's bredere toekomstvisie van 'on-demand computing'; een vage marketingkreet voor wat ze zelf noemen "a secure transaction and workflow-enabled service-oriented architecture".

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (24)

Dit lijkt me een erg goede ontwikkeling. Je zou bijvoorbeeld in de tijd dat de computers door het programma als "niet nodig" worden aangemerkt kunnen besteden aan ander nuttig werk (wetenschap!).

Een ISP met een groot serverpark zal hiermee bijvoorbeeld extra geld in het laatje kunnen brengen door 's nachts de overbodige computers "uit te lenen" aan bijvoorbeeld universiteiten. En dit dan geheel geautomatiseerd.

Uiteraard is het idee niet geheel nieuw. Een simpel en bekend voorbeeld is natuurlijk SETI@home. Als IBM echter iets lanceert komt het echter veel meer in de aandacht bij het bedrijfsleven. Ik denk dan ook dat veel bedrijven nieuwsgierig zullen zijn naar deze programmatuur.

Het zal echter iets ingewikkelder zijn als door IBM gesuggereerd. Hoe gaan verschillende OS'en met elkaar werken? Hoe zit het met die minuut vertraging? Ik kan me voorstellen dat die bij een ISP kritiek kan zijn (1 minuut geen users inloggen of geen DNS beschikbaar!). Ik ben dan ook benieuwd hoe ver deze software nu al af is en hoeverre het ook in de praktijk werkt (dus niet hoe goed het volgens IBM werkt). Maar uiteraard is dit een bijzonder nuttige stap naar het beter/efficienter inzetten van computers in het algemeen.

edit:
braake zinsconstructie's :-)

[edit2] voor mensen die SETI@home niet kennen: http://setiathome.ssl.berkeley.edu [/edit2]
Een ander (minder bekend) voorbeeld is kanker-onderzoek. IMHO zinvoller dan SETI.

http://www.ud.com
http://www.grid.org
dacht ik ook, tot het opeens allemaal overging naar anthrax, ben nu maar weer overgestapt op seti...
en goede ontwikkeling, de server farm technologie in windows .net server gaat ook al deze kant op dat je zonder problemen servers kunt toevoegen of weghalen...

alleen, je kunt wel de proc capaciteit wel ongebreideld laten groeien, maar als de ifrastructuur niet goed is (al die aanvragen moeten toch ergens vandaan komen) zal je systeem alsnog platgaan.

Denk maar aan een ddos-aanval, je kunt de server/router wel laten afweren, maar je lijnen zijn helemaal volgelopen, waardoor je alsnog neit te bereiken bent...
hadden ze intussen ook al ingebakken hoor volgens mij bij de grotere S/390 machines (Z) want die hebben altijd 18 processors aan boord.
Stel je gebruikt (=betaald) er maar 6 en je wil er een 7e bijplaatsen kan krijg je een password van IBM waarmee je die 7e kunt activeren.
dit is niet helemaal een juiste verglijking.

Als jij maar voor 6 CPU's hebt betaald dan zal je met dit stukje software ook niet meer dan deze 6 kunnen gebruiken.

maar als jij er 18 hebt betaald dan hoeft het niet zo te zijn dat je deze 18 altijd volledig benut, wat deze software doet (wat ik ervan begrepen heb) is dat het de idle tijd van een CPU kan gebruiken voor andere processen of uit kan schakelen.
Het programma reageert op situaties waar de vraag naar capaciteit plots toeneemt, en kan in dat geval extra computers inschakelen
Dit princiepe kan volgens mij dus ook met een volledige server gebeuren.
Als je een S390 hebt en je wil er een proc bij, dan komt er een IBM certified monteur binnen, activeerd een jumpertje en men krijgt een rekening voor een service contract van een ton :7. IBM is een heel handig bedrijf, enerzijds werken ze lekker mee met de ontwikkeling van Linux en dergelijke, anderzijds zorgen ze ervoor dat ze hun eigen kennis goed afschermen.

Conclusie: Hardware kosten zijn marginaal; research, engineering, development en service zijn duur.

Mooi voorbeeld:
Men neme een stukje broncode voor een bepaalde Linux aplicatie op een IBM machine, resultaat is een bin van 2 MB.

Men neme een closed source concurrerende applicatie van IBM die precies hetzelfde doet maar alleen geschreven voor AIX (IBM unix variant). en voila, een bin van slechts 9 KByte.

IBM beschermt zijn processor-instructieset voor open source programmeurs maar maakt met in-house engineers concurrerende producten die ge-optimaliseerd zijn voor IBM producten (OS-software+hardware).

Geef ze geen ongelijk, men heeft zelf tenslotte al die tijd en geld geinvesteerd.

Leuk is dat als men wel eens presentaties bijwoond van IBM of SUN dat ze elkaars website er even bijnemen en bespreken wat er niet klopt aan de beweringen van de concurrent.

IBM doet alles op een zeer eigenzinnige manier op zich goed is omdat producten van IBM (ik spreek uit mijn eigen ervaring) veel beter uitgekristalliseerd zijn dan de producten van de concurrent. De radartjes vallen, zolang het op IBM's manier gebeurd, net even ge-olieder in elkaar dan bij producten van de concurrent.
maar goed dat HAL deze technologie nog niet bezat.
maar een bedrijf kan hierdoor waarschijnlijk wel geld uitsparen, mochten er meerdere bedrijven zijn dan kunnen ze wellicht met minder computers meer geld verdienen. dit werkt ongeveer het zelfde als bij hosters, je krijgt 2000 MB per maand, maar waarschijnlijk worden er in totaal maar 30% van de totale hoeveelheid gebruikt, het inkopen van 100% is dus nuttenloos en zo verdient men geld.
Je zou ook kunnen denken aan naast een aantal dedicated servers te plaatsen een rijtje 'buffer-servers' te plaatsen die afwisselend verschillende bedrijfsprocessen ondersteunen wanneer dat nodig is. In grote bedrijven zou dat ook tot kostenbesparing kunnen leiden omdat niet altijd de volledige capaciteit van elk bedrijfsproces gevraagd wordt.
Dat is wel heel intelligente software, eens kijken:

if sum(idletime) < 20% then
addnewproc()
else if sum(idletime) >80% then
removeproc()
endif

Ben benieuwd hoelang BigBlue hieraan heeft ontwikkeld..... ;)

edit: percentages beter getuned }>
haha lol als je dan een }:O installeert blijft ie naar extra procs zoeken }> :D
een minuut is wel erg lang in vergelijking met de data die in die tijd kan worden verwerkt. Als dit kritieke data is, dan kan er wel eens een probleem ontstaan als er plots te weinig rekenkracht is en die maar pas een minuut later kan worden ingeschakeld
"...alweer zo'n fijn stukje software van IBM..."
Ha, Zo te lezen sta jij vaak in de file of luister jij naar de radio tijdens je werk. ;)
nee ik heb 538 op mn wekkerradio... bij edwin evers wordt je er helemaal doodgegooid

\[on-topic]
het lijkt me niet dat die minuut omschakeltijd een probleem gaat opleveren:

punt 1: moet je zeker weten dat een load van 100% niet eenmalig is, maar gedurende langere tijd volhoudt

punt 2: zal het niet echt vaak voorkomen dat server van 50 naar 100% load gaan binnen 1 minuut (dat gebeurd alleen met 11/9 tafarelen)

punt 3: het is of een minuutje wachten om te zoeken naar extra servers of na 5 minuten helemaal geen servers meer omdat ze bezweken zijn onder de te hoge load...
ik neem aan dat ze bij het maken van dit stukje software wel rekening gehouden zullen hebben met de punten die je opnoemt
Dan begin je ook lekker laat te werken :-)

ik zit al rond 5:15 op de weg en ben rond 7:15 op mijn werk... ben steeds te vroeg :-)

maar verder on-topic.. Het lijkt me best grappig om zo beter te servers te kunnen benutten... Hoe wel ik niet weet wat je er mee moet. Je moet toch altijd die servers klaar hebben staan, of niet?
Oftewel een uitgebreide loadbalancing. Lijkt mij niet zo moeilijk te maken, magoed.Er moet er toch een de eerste zijn, nietwaar?
Draait (op dit moment) alleen op IBM hardware. Werkt als volgt: er wordt een piekload voorspelt, dan wordt er binnen 10 minuten op lege beschikbare servers een OS geinstalleerd (Linux in dit geval) en de benodigde programmasoftware en voila! Meer processorkracht voor de betreffende applicatie.

Na de piek wordt de boel weer afgebouwd. Werkte in augustus 2002 nog in een lab, nu blijkbaar in een produktieomgeving...

:9
3 opmerkingen

1 het is nog in ontwikkeling
2 het is voor servers bedoeld
3 het vragen waar je software illegaal kan downloaden mag hier niet
hoe weet jij nu of het illegaal is om te downloaden?

als het voor servers is is het dus best logisch dat het open source is omdat IBM daar behoorlijk wat tijd geld en energie in steekt omdat verder te ontwikkelen..

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True