Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 91, views: 92.871 •

Toekomstmuziek en publieke clouds

Toekomstmuziek

De cloud-infrastructuur zoals die in dit artikel wordt geschetst, is voor de meeste toepassingen nog toekomstmuziek. Wel is het een belangrijke trend om in het achterhoofd te houden als je met je datacenter bezig bent. Deze boodschap wordt vooral door HP uitgedragen. Dit bedrijf is momenteel leider in de markt voor bladesystemen en heeft zelfs de ambitie uitgesproken om in de toekomst al zijn systemen te 'verbladen'.

Een veelgehoord advies is om, anticiperend op deze ontwikkeling, de huidige infrastructuur alvast als een cloud te organiseren. In de praktijk betekent dat: zoveel mogelijk virtualiseren.

Server-virtualisatie is echter het 'laaghangende fruit'; de volgende fase is de virtualisatie van de desktop - en dat is ingewikkelder. De hardware wordt nu immers van de desktop verplaatst naar het rekencentrum. Alleen de interface wordt over het netwerk naar thin clients gebracht. Hierbij vinden echter nog volop ontwikkelingen plaats, met name als het om de protocollen voor grafische applicaties gaat.

Hetzelfde geldt voor het ontkoppelen van applicaties en operating system. Bij de virtualisatie van de desktop wordt niet alleen de fat client in tweeën geknipt. Ook de verschillende applicaties worden van elkaar en van het besturingssysteem gescheiden. Dat betekent dat toepassingen als aparte packages worden beheerd en tezamen met de gebruikersspecifieke instellingen met een besturingssysteem worden gecombineerd op het moment dat een gebruiker daar om vraagt. Dit heet application streaming.

Publieke clouds

De Elastic Compute Cloud- of EC2-dienst van Amazon geeft een goed beeld van hoe een publieke cloud er uit kan zien. Gebruikers kunnen virtuele machines in het op Xen gebaseerde AMI-formaat naar de cloud uploaden. Beheer daarvan geschiedt via een web-interface, de zogeheten AWS Management Console. Voor de geautomatiseerde aansturing is een api in de vorm van een web-service beschikbaar - en afrekenen doe je met je creditcard.

Amazon Web ServicesOver het aantal gebruikers van zijn AWS-diensten wil Amazon niks kwijt. In het laatste jaarverslag geeft het bedrijf alleen aan dat deze diensten harder groeien dan ooit. Naar verluidt gaat het inmiddels om vele tienduizenden, misschien een paar honderdduizend gebruikers. Veel daarvan zijn bovendien geen startups of kleine bedrijven die geen eigen infrastructuur willen onderhouden: het gaat ook om grote ondernemingen die AWS op projectbasis inzetten.

Diegenen die daar aan gerekend hebben, komen echter tot de conclusie dat de Amazon-cloud voor permanent gebruik duurder is dan een eigen infrastructuur. Bovendien zijn er klachten met betrekking tot stabiliteit en beschikbaarheid; virtuele machines hebben regelmatig last van trage netwerkverbindingen, crashes en 'noisy neighbours' - virtuele machines van anderen die op dezelfde fysieke server draaien en zoveel capaciteit gebruiken dat jouw diensten trager worden. Ten slotte is ook mail een probleem: omdat de cloud inmiddels is gebruikt om spam te versturen, zijn de Amazon-adressen door online spam-filters geblokkeerd.

Randy Bias van CloudScaling maakte eind vorig jaar een inschatting van Amazon's EC2-business. Volgens hem heeft het bedrijf daarvoor veertigduizend servers draaien, waarvan twintig procent voor eigen gebruik door Amazon is gereserveerd. Op de rest draaien naar schatting tachtigduizend virtuele machines, goed voor een jaarlijkse omzet van een kwart miljard dollar.

Platform-as-a-service

Microsoft biedt met Windows Azure een Windows-variant om applicaties in zijn  datacenters te draaien. Deze leverancier richt zich in zijn marketingboodschap met name op kostenbesparingen doordat gebruikers niet meer hoeven na te denken over systeembeheer en patch management.

Nadeel van deze twee paas-aanbieders is dat je hiermee nog steeds afhankelijk bent van de leverancier. Sterker nog: omdat je bij het programmeren de specifieke mogelijkheden van deze omgevingen zal gebruiken, zit je met je applicatie muurvast aan een aanbieder. Bij iaas speelt dat niet: een virtuele machine kun je immers gemakkelijk bij een andere dienstverlener onderbrengen.

Omdat je voor het gebruik van clouds geen initiële investeringen in hardware hoeft te doen, lijken biede mogelijkheden op dit moment met name interessant voor startups met meer goede ideeën dan middelen.

Reservecapaciteit

Het is niet toevallig dat bedrijven als Amazon, Microsoft en Google als eerste met dergelijke diensten komen. Ze opereren op een zo grote schaal dat ze enorme hoeveelheden computer-resources als reservecapaciteit moeten aanhouden. Bovendien kunnen ze vanwege die schaal hun infrastructuur enorm efficiënt beheren. Met name Google staat bekend om zijn goedkope, op maat gemaakte hardware.

In feite is dit het omgekeerde model van de externe cloud: waar interne-cloudeigenaren hun tekort aan resources kunnen aanvullen met externe capaciteit, zetten grootverbruikers van verwerkingskracht hun overcapaciteit in de markt. De schaalgrootte van hun bestaande operaties stelt hen bovendien in staat om dat goedkoop te doen. Scott McNealy heeft wel eens gezegd dat de Sun Cloud in feite bestaat uit nieuwe systemen die zo hun burn-in-test krijgen. Vervolgens wordt de hardware uiteraard alsnog tegen nieuwprijs aan de klant geleverd.

Dichter bij huis zijn het de datacenter-dienstverleners en de grote it-leveranciers die daadwerkelijk met cloud-diensten komen. Deze diensten passen immers prima in een portfolio van hosting, housing en colocatie. Of deze diensten succesvol zullen zijn, is eigenlijk al geen vraag meer; de vraag is vooral wie de clouddiensten met de beste prijs-prestatieverhouding kan leveren.


Door Aad Offerman

- Freelancer

Aad Offerman is al meer dan tien jaar actief als vakjournalist, technologie-auteur, bladenmaker en New Media-specialist in de Nederlandse ict-markt. Hij is afgestudeerd in de Technische Informatica aan de TU Delft, waar hij zich heeft gespecialiseerd in Computer Architectuur en Digitale Techniek. Daarnaast hoopt hij volgend jaar als psycholoog af te studeren aan de Universiteit Leiden, waar hij zich specialiseert in theoretische en klinische psychologie.

Reacties (91)

Reactiefilter:-191091+176+216+31
Interessant nieuws bericht maar cloud computing is in principe toch alles wat wij al doen of heb ik het nou helemaal verkeerd begrepen.
Tja zoals je in het nieuwsbericht kan lezen is daar veel onduidelijkheid over wat nu onder de definitie "cloud" valt.

Persoonlijk denk ik dat het hele internet al gewoon een wolk is met allerlei rondvliegende data. Volgens mij is het ook gewoon een marketing truc door alles "cloud" te noemen.
Volgens mij is het ook gewoon een marketing truc door alles "cloud" te noemen.
Pffffff ... Cloud is zooooOOO 2009.

Echte trendsetters zijn allang met de NextGen iCloud HD bezig. 8-)

Maar idd; sommige producten worden als cloud dienst gelabeld waar je best aan je hoofd kan krabben of het in feite niet meer dan een beetje "thin air" is.

Voorbeeld: The Steam Cloud.

Provides Steam users with the ability to store game settings and saves on a central server.

Wauw!

Besides dat dit best wel kewl en handig is ... denk dat een savegampje nog geen cloud maakt omdat het "anywhere, anytime, (any device)" is. In dat geval is de Google cache, Battle.NET, AppStore of het bestel portaal van Albert ook een wolk. (En dat is het in feite ook ... niets nieuws ... gewoon een label)

Waar ik me zelf wel een beetje zorgen om maak met al deze diensten die de laatste jaren echt uit de grond gestampt worden is het vendor lock gehalte. Ik durf te wedden dat over een aantal jaar het EU parlement weer achter de feiten aanloopt omdat een bepaalde dominating cloud service enkel bepaalde producten aanbiedt. Er moet juist NU iets mee gebeuren: cloud producten/services moeten (fysiek :)) tussen de leveranciers uitgewisseld kunnen worden. Dus net zoals het kan met je mobiele nummer, moet die hele berg aan Steam games of die rack vol met virtuele pizzadoosjes eenvoudig overgezet worden naar een andere distributeur. De consument betaalt voor de storage van het product in de cloud. Welk product er in deze infrastructuur gebruikt word moet losgekoppeld zijn.

Maar ja ... zo'n mistig concept als een cloud service uitleggen aan politicus .... :S
... mistig concept .... laaghangende cloud .... :) lol
Cloud computing is weinig interessant, slaap maar lekker door. Dat is de indruk die dit stuk bij mij althans opwekt. Het stuk is tegenstrijdig, aan de ene kant probeert het cloud voor te stellen als iets ouds en later in het stuk als iets dat nog moet komen.

Aan het begin van het stuk probeert men het idee te verspreiden dat cloud een vaag begrip is dat niet bestaat en aan het einde probeert men er een hele begrensde invulling aan te geven die commercieel niet levensvatbaar zou zijn. Bovendien probeert men een omslachtig, langdurig migratiepad voor te houden dat weinig met cloudcomputing te maken heeft, maar eerder Microsofts antwoord is op cloudcomputing.

Ik denk dat bedrijven als Microsoft bezorgd zijn, reken maar, want ze verliezen constant marktaandeel. Niet voor niets proberen ze een bedrijf als Salesforce in de wielen te rijden dmv patent rechtzaken:
Salesforce.com reageert op patentzaak Microsoft
Dient zelf klacht in
28 juni 2010 | Jibbe Van Oost

Salesforce.com beantwoordt een juridische klacht van Microsoft met een andere juridische klacht. Het gaat in beide gevallen over patenten.

De cloudspecialist Salesforce.com heeft bij een Amerikaanse rechtbank klacht ingediend tegen Microsoft. Een aantal Microsoftproducten zoals het .Net-platform en de samenwerkingssoftware SharePoint zouden patenten van Salesforce.com schenden.

Volgens de ingediende documenten zijn de patentschendingen zo duidelijk dat Microsoft er wel van op de hoogte moet zijn. Salesforce.com vraagt daarom een geldelijke vergoeding die drie keer zo hoog ligt als de geleden schade. En het eist ook dat Microsoft stopt met technologie van Salesforce.com te gebruiken.
Dit geeft aan dat MS in ieder geval wel degelijk bewust is van het gevaar van cloudcomputing.

Als je dit stukje leest dan zou cloudcomputing vooral een technische ontwikkeling zijn. Daarbij zou het draaien om het virtualiseren van de eigen machines + os + applicaties. Als dat cloud zou zijn, dan zou het inderdaad nauwelijks voordeel brengen. En daarom is het vreemd dat dit als logisch upgradepad voor de organisatie voor wordt gesteld. Eerste de eigen servers virtualiseren en dan de eigen clients.

Zo zal ms het graag zien want dit kost ongetwijfeld de organisaties alleen maar meer geld. Want alles blijft bij het oude je virtualiseert het alleen maar.

In mijn ogen is dat geen cloudcomputing. Ik denk dat cloud computing voor IT'ers een moeilijk concept is omdat het juist geen technisch concept is. Cloudcomputing is een revolutie die het landschap drastisch gaat veranderen.

IT'ers moeten zich iets realiseren: bedrijven hebben geen behoefte aan automatisering. Dat is misschien moeilijk te bevatten voor sommige IT'ers, maar bedrijven hebben dat niet. Wat bedrijven nodig hebben zijn manieren om hun middelen, proces en inforrmatiestromen te beheren. Dat heeft an sich niets met IT te maken, in het verleden deden ze dat met papier en ook daar konden ze hele wereldrijken mee besturen. Het is vooral een kwestie van organisatie.

Het middel moet niet verward worden met de technologie waarin ze gegoten wordt. De manier waarop we deze middelen organiseren verandert ook steeds. In de begintijd hadden bedrijven systemen waar alles centraal verwerkt, beheerd en uitgegeven werd. Dat paste bij de structuren zoals die reeds bestonden. De macht daarover is volledig in handen van een elite van specialisten.

In de sixties kwam er een revolutie waarin jongeren rebelleerden tegen centraal, autoritair gezag en individualisme komt op. Dit leidt tot de opkomst van de PC waarin de gebruiker alles zelf beheert en delen een sociale aangelegenheid wordt.

Daarna komt de periode van verzakelijking. De PC's worden tot netwerken gevormd en er is een terugkeer naar centrale opslag, maar verwerking blijft voor een groot stuk decentraal. Geleidelijk aan zien we dat de rechten van de individuele gebruiker weer steeds verder worden ingeperkt. Decentrale verwerking betekent niet langer decentrale zeggenschap. Wederom is de macht weer volledig in handen gekomen van een elite van specialisten.

Maar de wereld ontwikkelt zich verder, zij mondialiseert. Computers gaan deel uitmaken van een globaal netwerk. Dit netwerk is niet centraal georganiseerd. In eerste instantie draagt dit netwerk slechts informatie. Maar in toenemende mate gaat dit netwerk diensten leveren. En nu gaan we de fase in dat deze diensten gaan concurreren met de diensten die lokale netwerken leveren aan hun gebruikers. Bedrijven waren al bezig diensten in te huren van andere bedrijven, maar nu ontstaat er een open, vrije markt waarop aanbieders en vragers opereren.

En dit leidt tot een revolutie. De diensten die nu in company worden geproduceerd, kunnen straks buiten het bedrijf worden geproduceerd. De informatie infrastructuur kan buiten het eigen bedrijf worden gebouwd op computers van anderen. En men is niet meer gebonden aan die anderen, want door het open karakter is men veel minder afhankelijk van de aanbieder. De homogeniteit leidt tot veel lagere kosten.

Nee we gaan natuurlijk niet loodzware systemen als Windows 7 virtualiseren en laten draaien op servers van anderen. Dat mag vanuit beheersperspectief aantrekkelijk zijn, vanuit kostenperspectief is dat niet voordelig. Dat is ook geen tussenstap naar de cloud, dat is een doodlopende straat.

Wat bedrijven gaan doen is cloud diensten afnemen. Neem maar eens Gmail. Waarom zou je je eigen mailservers opzetten met exhange als je veel voordeliger, veiliger, gemakkelijker van gmail gebruik kan maken?

In eerste instantie kunnen applicaties in de cloud de frontend worden voor gevenssystemen in de backend. Maar het is ook heel voordelig om de data zelf naar de cloud worden te laten migreren. Als je het nieuw opzet dan doe je beide.

Nee je gaat niet bestaande systemen virtualiseren, dat virtualiseren laat je over aan de aanbieder van clouddiensten en daar maak je alleen gebruik van voor specialistische functies. Dit soort diensten is nog vol op in ontwikkeling. Diensten als Onlive Gaming laten echter zien wat straks mogelijk is. Zo kan het heel zinvol zijn om dure grafische applicaties in te huren.

Maar op langere termiijn hoeven die niet meer gevirtualiseerd te worden, er zullen webapplicaties komen die hetzelfde kunnen.

Bedrijven zullen verlost raken van de macht van de IT-specialisten. En zo hoort het. We zijn toch ook niet overgeleverd aan de macht van vervoers-techneuten als we ons willen vervoeren. Nee, we kunnen kiezen uit een groot aantal mogelijkheden zonder ons afhankelijk te maken. Ik kan een auto kopen, huren, openbaar vervoer gebruiken en ik kan mijn auto bij elke garage laten servicen. De auto is gewoon een gebruiksmiddel.

En zo zullen hun organisaties behoeften kunnen gaan loskoppelen van de macht van automatiseringsdeskundigen. Het zal een normaal product gaan worden, net als andere producten. Een product dat je inkoopt of inhuurt en kan laten servicen door wie je wilt. Veel goedkoper, en met veel minder rompslomp.

Niet de legacy technologie moet naar de cloud worden gebracht, de diensten die er op draaien moeten naar de cloud worden gebracht. Anders doe je niets anders dan dure licenties en je afhankelijkheid daarvan in stand houden.

Inderdaad als dit cloud computing moet voorstellen dan is het niet veel. Maar dat is geen cloudcomputing. Cloudcomputing is niet OS+Applicaties scheiden van hardware, dat is vitualisatie.

Nee cloudcomputing is de diensten zelf scheiden van de hardware + OS + Applicaties. De diensten worden geleverd door webapplicaties die op open standaarden zijn geschreven. Windows en windows applicaties verdwijnen. Weg dure licenties.

De hardware kan inderdaad overal staan. Maar dat is geen zorg meer van het bedrijf, hij laat dan aan anderen over die hij vertrouwt. Dat is flexibeler, goedkopere en veiliger. Er zullen een groot aantal aanbieders komen.

Zal het echt veilig zijn? Is een bankkluis veiliger dan een eigen kluis? Natuurlijk is de bankkluis veliger. Veiligheid zal een belangrijk aspect van het product zijn dat ze bieden. In al die decentrale netwerken is er nu een enorme overcapaciteit. Apparatuur en licenties die maar ten dele worden gebruikt. Een grote aanbieder kan zijn capaciteit veel beter afstemmen.

Is cloud vaag? Ik zou niet weten waarom. Het woord zegt het redelijk goed. Diensten en data zijn niet meer gebonden aan een vaste plaats op de grond, Diensten draaien straks niet meer op eigen netwerken op eigen apparatuur, maar op het web. En ook de data zijn losgekoppeld van een vaste locatie op de grond. De fysieke plaatsen zullen veranderlijk zijn en onbelangrijk worden.

Met de cloud verdwijnt het technische aspect dat zolang de bedrijfsprocessen heeft gedomineerd naar de achtergrond. De bedrijfsleiding kan zich in de toekomst volledig concentreren hoe zij die processen gaat vormgeven zonder zich druk te maken om de problemen rond de informatietechnologie,

De beheerders zullen steeds meer bij de dienstverlenende bedrijven komen te werken. Bedrijven zullen behoefte hebben aan personen die verstand hebben van bedrijfsprocessen en deze kunnen vormgeven en onderhouden, maar veel minder aan techneuten die hardware begrijpen.

In dit hele verhaal komen bedrijven als Microsoft op den duur helemaal niet meer voor. Wat Microsoft biedt is geen opstap naar cloudcomputing. Wat MS gaat bieden is virtualisatie van de bestaande situatie om haar licenties in stand te houden. Daarmee kan je beheer vereenvoudigen, downtijd verminderen, compatibiliteitsproblemen oplossen, maar je haalt niet de voordelen van cloudcomputing binnen, dwz. diensten loskoppelen van de technologie.

Microsoft zal nimmer de diensten loskoppelen van technologie. Haar hele bedrijfpolitiek is juist gebaseerd op het tegenovergestelde: diensten vastklinken aan vendor technologie. MS kan geen migratiepad naar de cloud bieden. Dat is haar vragen om haar eigen begrafenis te organiseren.

Jammer voor MS. De nieuwe mens ontwikkelt een heel andere houding tot techniek. Dit wordt heel goed begrepen door bedrijven als Google en Apple. Mensen willen geen dingen meer die ze moeten aanleren. Ze willen dingen die je kunt gebruiken. Een iPad wordt hooggewaardeerd door mensen van jong tot oud, van moeders tot captains of industry omdat je het zo kan gebruiken. Geen handleiding nodig. De technologie er achter is volledig transparant gemaakt.

Deze ontwikkeling werd al ingezet met de komst van de grafische UI. Die was ook ontwikkeld om de technoligie transparant te maken, zodat gewone mensen er mee om konden gaan. Dit proces gaat gewoon verder. Straks is de technologie zo transparant geworden dat we om het even welk apparaat kunnen pakken en er ons ding mee kunnen doen, omdat het allemaal op de cloud draait.

Noch het apparaat, nog de technologie achter de webservers interesseert ons nog, we zijn enkel nog geinteresseerd in de diensten die worden geleverd. We worden volledig verlost van de zorg om apparaten en systemen te onderhouden, data te beschermen, applicaties te upgraden. Nee we gebruiken gewoon diensten, en die beoordelen we op het gemak en mate waarin ze aan onze eisen voldoen. De rest is transparant geworden.

De IT-deskundigheid verdwijnt naar de achtergrond, zoals ook de vervoers specialist in onze maatschappij volledig naar de achtergrond is verdwenen. Er zijn er duizenden die het transport draaiende houden maar wij zien ze niet meer.

Bedrijven moeten niet gaan investeren in virtualisatie van legacy technologie, Datgene waar het omgaat, hun informatiebronnen zijn al lang gevirtualiseerd. Ze zijn alleen gestructureerd in proprietary oplossingen. Slimme bedrijven gaan die omzetten in open source web oplossingen en daarmee verkrijgen managers meer controle tegen een lagere prijs.

[Reactie gewijzigd door degener op 9 juli 2010 22:15]

Hoi degener, mooie uiteenzetting van het concept cloud, en iets waar ik me helemaal in kan vinden!
Ik ga heel ver mee in je verhaal, echter waar ik mij zorgen om blijf maken is het feit dat je de controle over wat er met je data gebeurd, volledig uit handen geeft. Een kwaadwillende (malafide medewerker van betreffende cloud-provider -laten we er van uit gaan dat data-theft geen deel uit maakt van de bedrijfsactiviteiten van de gemiddelde provider-, hacker, veiligheidsdienst etc.) hoeft nu geen moeite meer te doen met het inbreken op een systeem - men kan nu simpelweg de volledige machine naar een andere locatie wegsluizen d.m.v. het maken van een kopie (en waarschijnlijk hoeft zelfs dat niet eens) en daar dan in alle rust alle eventuele beveiliging ongedaan maken en vervolgens alle data voor eigen gewin aanwenden.

Zelfs al gebruik je alle vormen van beveiliging die er zijn, dan nog kan niemand je garanderen dat er niets met je data gebeurt. En erger nog, het is ook totaal niet meer te detecteren als het gebeurt, voordat het te laat is en men al allerlei narigheid met je data aan het uithalen is.

Ik vraag me af hoe de 'cloud believers' dit denken te gaan oplossen.
Het veiligheidsprobleem is simpel op te lossen door je eigen cloud te bouwen, beheren en gebruiken. Mogelijk samen met andere bedrijven / instellingen die je vertrouwt.
Voor een groot bedrijf goed te doen. Voor kleine bedrijven niet, maar die zijn voor hun IT beheer toch al vaak afhankelijk van derden.
Dit 'artikel' is een betere samenvatting dan het originele artikel... Ach misschien is dat mij mening omdat ik me veel meer kan vinden in dit verhaal, laten we maar zeggen mijn waarheid.
Zal het echt veilig zijn? Is een bankkluis veiliger dan een eigen kluis? Natuurlijk is de bankkluis veliger.
Natuurlijk heeft een bankkluis grotere cilinders, sloten, alarmen etc. maar de pay off is natuurlijk ook veel hoger. Kraak je de server van bedrijf A dan heb je de data van bedrijf A, kraak je de cloud van 'cloud'-provider B dan heb je data van bedrijf B tot Z...
Ik vind het ook een marketing truc. Het is voor mij net als Web 2.0 gewoon een buzzword. Wat cloud computing precies is hangt af van aan wie je het vraagt en wat je eisen zijn. Web 2.0 betekent ook verschillende dingen voor verschillende mensen.
Ik snap bijvoorbeeld ook niet waarom cloud computing het logisch vervolg is op virtualisatie. In het artikel wordt er op een gegeven moment gesproken over client-server applicaties die omgebouwd zijn naar web services (volgens mij veranderd de architectuur zelf daar helemaal niet zo heel veel door, maar dat terzijde), CRMs en Utility Computing, maar op de volgende pagina wordt er opeens gezegd:
Het moge duidelijk zijn dat het concept van cloud computing niet zou bestaan zonder virtualisatie.
Er wordt me, met de info op die pagina, echt niet duidelijk waarom er perse zaken gevirtualiseerd moeten worden voor cloud computing. Er staat alleen "en toen VMWare en toen hypervisor en toen Xen en MS en toen pizzadoosjes". Ik weet verder ook niet wat voor definities er worden gehanteerd. Voor mij betekent virtualisatie
dat er een omgeving wordt gesimuleerd waarin software draait en het kan gerealiseerd worden op verschillende niveaus (hardware, OS, VM, etc). Waarom is cloud computing dan geen vervolg op bijvoorbeeld Web Services en andere vormen van middleware waarmee SaaS gerealiseerd kan worden? Daar wordt verder helemaal niks over gezegd, terwijl je daarmee ook de complexe zaken zoals hardware weg kan abstraheren. Je kunt het op verschillende manieren transparant maken voor gebruikers. Daar heb je bijvoorbeeld helemaal geen VMs voor nodig. Ik geef toe dat je met virtualisatie het snelst zaken (zoals oude software) aan de praat krijgt en dat dat het minst hoeveelheid geld kost, maar dat gaat absoluut ten koste van software prestaties, snelheid en geheugengebruik wat je met andere vormen van middleware kan oplossen. Dat gaat natuurlijk extra veel tijd en geld kosten, dat snap ik natuurlijk ook, maar virtualisatie is voor mij gewoon niet de de oplossing voor "alles".
Hier nog even een paar citaten wat ik van Wiki heb overgenomen (om nog even wat meer kracht achter m'n punt te zetten):

Ellison van Oracle: cloud computing has been defined as "everything that we already do" and that it will have no effect except to "change the wording on some of our ads"

Stallman van FSF: cloud computing was simply a trap aimed at forcing more people to buy into locked, proprietary systems that would cost them more and more over time. "It's stupidity. It's worse than stupidity: it's a marketing hype campaign", he told The Guardian. "Somebody is saying this is inevitable – and whenever you hear somebody saying that, it's very likely to be a set of businesses campaigning to make it true."

Het mag nu duidelijk zijn waarom ik het gewoon een Web 2.0-achtige buzzword vind en dat er een gebrek is aan kritiek en zelf-reflectie in het artikel.
Ik vind het ook een marketing truc. Het is voor mij net als Web 2.0 gewoon een buzzword. Wat cloud computing precies is hangt af van aan wie je het vraagt en wat je eisen zijn.
Cloud Computing (in de vorm van Software as a Service) is geen marketing truc.
Google heeft een complete office suite in de cloud draaien. (Google Apps)
Bedrijven als Salesforce.com en Zoho bieden een compleet CRM pakket uit de cloud.
Het enige wat de IT manager hoeft te doen is de credit card trekken.

Er is geen hardware of besturingsysteem wat beheerd hoeft te worden, dus de systeembeheerder kan wegbezuinigd worden. Tenzij de systeembeheerder zo slim is zich te verdiepen in het beheer van de online applicatie. ( Want ook dat moet vaak ingeregeld / gefinetuned worden.)
Ik denk dat de rol van de systeembeheerder bij SaaS zal veranderen naar een applicatie beheerder die meer inzicht moet hebben in de processen die binnen een bedrijf spelen.

Eindgebruikers gebruiken steeds vaker online applicaties. Ze zijn gewend aan de beschikbaarheid van deze online applicaties en ze zullen dit ook gaan eisen van interne bedrijfsapplicaties.

Kleine bedrijven / start-ups zullen dan snel kijken naar SaaS. ( Google Apps / Salesforce.com )
Je hebt dan geen startup kosten, maar je neemt een dienst als abonnement af.

Bij grotere bedrijven spelen andere zaken, als:
  • Beschikbaarheid van informatie. ( Kan ik altijd bij mijn bedrijfsgegevens? Is de internetverbinding redundant uitgevoerd? )
  • Veiligheid van data. ( Hebben alleen users met de juiste rechten toegang tot informatie? )
  • Wetgeving. ( Is de veiligheid van financiële gegevens gewaarborgd? Wordt een record verwijdert als een user niet meer bestaat? )
Bij de private cloud heb je deze zaken zelf in de hand. Heb je een beperkt aantal applicaties, dan hoef je idd niet te virtualiseren. Je kan clusteren op server of applicatie niveau.

Als je echter verschillende server systemen hebt (Win2k8 server, Linux, enz) en / of als je een Virtual Desktop omgeving gaat draaien, dan is het handig om naar virtualisatie te kijken.
Er wordt me, met de info op die pagina, echt niet duidelijk waarom er perse zaken gevirtualiseerd moeten worden voor cloud computing. Er staat alleen "en toen VMWare en toen hypervisor en toen Xen en MS en toen pizzadoosjes". Ik weet verder ook niet wat voor definities er worden gehanteerd.
Met het doorontwikkelen van de management-software zien we dat het beheer van de virtuele machines steeds verder geautomatiseerd wordt. Zo kan bijvoorbeeld op basis van policy's worden besloten dat virtuele machines over meer servers worden verspreid als blijkt dat een bepaalde applicatie meer capaciteit nodig heeft. In de stille uurtjes kunnen virtuele machines juist weer worden samengepakt op een kleiner aantal systemen, zodat de niet gebruikte hardware uitgeschakeld kan worden, wat energie bespaart. Voor horizontaal schaalbare applicaties - denk aan webservers - zou je, afhankelijk van de drukte, ook het aantal actieve virtuele machines automatisch kunnen laten opschalen.
Met VMWare AppSpeed zou je dit kunnen doen. Valt de performance van een VM onder een bepaalt niveau, dan kan je binnen VMWare deze VM eenvoudig clonen naar een andere (blade) server of je kan bestaande VM's verdelen over meer hardware. Dit zou je zelfs over verschillende data centers kunnen doen.

Cisco ACE is een loadbalancer. Hiermee kan je bijvoorbeeld HTTP verzoeken verdelen over verschillende webservers. Er is een plugin voor VMWare, waarmee je de loadbalancer kan beheren vanuit VMWare. Wanneer er een VM wordt opgestart, wordt deze automatisch aan de server pool toegevoegd waarover geloadbalanced wordt. Dit is geen virtualisatie, maar automatisering van virtualisatie. En het zorgt er voor dat een applicatie altijd beschikbaar is. ( Ongeacht de vraag naar de applicatie. )

Grote bedrijven kunnen VM's binnen hun eigen cloud omgeving draaien. ( Private Cloud )
Kleinere bedrijven kunnen hun VM's bij vCloud providers onder brengen.
Een andere mogelijkheid is een private cloud en je VM's verplaatsen naar een vCloud provider
als uitwijk, of als je even meer computing capaciteit nodig hebt. (Het hybride model. )

Maar ik geef toe dat het artikel niet echt volledig is.

[Reactie gewijzigd door Bl@ckbird op 8 juli 2010 00:27]

Interessante reacties, maar ik heb ook enige bedenkingen:
Enkele opmerkingen:
Cloud Computing (in de vorm van Software as a Service) is geen marketing truc.
Google heeft een complete office suite in de cloud draaien. (Google Apps)
Bedrijven als Salesforce.com en Zoho bieden een compleet CRM pakket uit de cloud.
Het enige wat de IT manager hoeft te doen is de credit card trekken.
Dit soort office suites worden weliswaar steeds beter, maar het is gewoon een evolutie van een input box met meer en meer mogelijkheden tot opmaak en opslag van data. Het is nog altijd niet vergelijkbaar met een complete office suite, maar zal dat uiteindelijk wel zijn en mogelijk overtreffen - incl plugins en addons. Blijft het punt dat het niets nieuws onder de zon is.
Er is geen hardware of besturingssysteem wat beheerd hoeft te worden, dus de systeembeheerder kan wegbezuinigd worden. Tenzij de systeembeheerder zo slim is zich te verdiepen in het beheer van de online applicatie. ( Want ook dat moet vaak ingeregeld / gefinetuned worden.)
Ik denk dat de rol van de systeembeheerder bij SaaS zal veranderen naar een applicatie beheerder die meer inzicht moet hebben in de processen die binnen een bedrijf spelen.
mee eens, maar hier speelt absoluut de vendor lock-in weer, vooral zolang je geen zekerheid hebt dat er een export mogelijkheid is / komt / altijd zal zijn - kan daarmee snel een hoog risico worden, en de prijs idem dito.
Eindgebruikers gebruiken steeds vaker online applicaties. Ze zijn gewend aan de beschikbaarheid van deze online applicaties en ze zullen dit ook gaan eisen van interne bedrijfsapplicaties.
Eind gebruikers zullen ook blijven verwachten dat hun data door verscheidene applicaties kunnen worden geopend en gebruikt, alweer de vendor lock-in problemen. Kies je voor google apps, kun je je data niet zomaar met een microsoft live app openen (betere voorbeelden mogelijk ;-)). Je bestanden zijn dus al snel verdeeld en niet op gelijkwaardige wijze toegankelijk.

Persoonlijk zie ik dan liever dat de pakketten gewoon weg werken met lokaal toegankelijke data (zoals bijv een experimentele app als http://pixlr.com/ ). Je data laat je dan door een appart gekozen aanbieder hosten zodat deze ook backup en bestandsdeling kan regelen (dus een mounted location). In die situatie kies je dus je applicaties los van je data, en zijn de verschillen tussen lokale apps en cloud apps echt nauwelijks te zien. Enige nadeel is dat zonder een extra hulp stuk er soms grote hoeveelheden data opgehaald en weggeschreven moeten worden... maar daar is best een een mauw aan te passen door online apps zelf een mount te laten doen en hun meestal veel betere internet verbindingen te gebruiken...
Kleine bedrijven / start-ups zullen dan snel kijken naar SaaS. ( Google Apps / Salesforce.com )
Je hebt dan geen startup kosten, maar je neemt een dienst als abonnement af.

Bij grotere bedrijven spelen andere zaken, als:

* Beschikbaarheid van informatie. ( Kan ik altijd bij mijn bedrijfsgegevens? Is de internetverbinding redundant uitgevoerd? )
* Veiligheid van data. ( Hebben alleen users met de juiste rechten toegang tot informatie? )
* Wetgeving. ( Is de veiligheid van financiële gegevens gewaarborgd? Wordt een record verwijdert als een user niet meer bestaat? )
Speelt ook bij kleinere bedrijven, maar zal misschien in het begin minder hoog op de agenda staan. Toch heeft juist een klein bedrijf ook vaak geheimen die als ze bij derden terecht komen de hele kans op overleven verknallen. Denk aan een nieuwe uitvinding of dienst. Als data extern staat kun je alleen enige zekerheid halen uit het lokaal encrypten ervan, maar dat haalt waarschijnlijk alle functies weg bij de saas.

Nog een aanverwante zaak:
Zelf denk ik dat veel bedrijven en it-ers veiligheid van hun bedrijfs geheimen sterk overschatten. Veelvuldig zie ik bewijzen van pogingen om bedrijfs geheimen te stelen, en veelvuldig zie ik dat daar te weinig reactie van komt. Punt is dat de gevolgen van gestolen bedrijfsgeheimen veelal niet goed zichtbaar zijn - wat niet weet wat niet deert?
Bij de cloud heb ik hier dus extra bedenkingen over, want hoe moeilijk is het om iemand te laten solliciteren bij zo'n aanbieder en daar gebruik te maken van zijn toegang om af en toe het een en ander door te sluizen? Paranoïde? Ik denk het niet hoor! :X
Ik snap bijvoorbeeld ook niet waarom cloud computing het logisch vervolg is op virtualisatie.
Een poging:
Virtualisatie begon als 1 computer opdelen in meerdere virtuele,
toen konden die virtuele computers over een netwerk gebruikt worden, 'remote computing',
de cloud kan men zien als 'distributed remote computing (grid)'.

Dus wat is gebeurd, is dat de virtualisatie gedistribueerd wordt, en gedistribueerde systemen zijn vziw per definitie elastisch.

Op zich weinig nieuws denk ik, het is alleen de doorbraak van 'gedistribueerde rekenkracht op afstand" binnen het bedrijfsleven die we nu meemaken, waar dat dit vroeger alleen voor onderzoek (The GIMPS, Plan9, Inferno e.d.) werd gebruikt.

[Reactie gewijzigd door kidde op 13 juli 2010 22:29]

Je snapt me niet, je hebt voor 'remote computing' helemaal geen virtualisatie nodig.
Persoonlijk denk ik dat het hele internet al gewoon een wolk is met allerlei rondvliegende data. Volgens mij is het ook gewoon een marketing truc door alles "cloud" te noemen.
Sterker nog, het diagram symbool voor WAN en internet is een wolkje, zeker al 20 jaar. http://www.google.nl/imag...twork%20diagram%20symbols

Mogelijk heeft een marketing bolleboos zich daardoor heeft laten inspireren en is zo de term cloudcomputing onstaan. Niets nieuws, gewoon een buzzword. De interessante ontwikkeling is die van virtualizatie.
Eens, en daarnaast, er is een semantisch verschil tussen 'the cloud' en 'cloud computing' wat velen ontgaat volgens mij. 'The cloud' wordt al jaren gebruikt voor 'het internet', en cloud computing is het nieuwe buzz-word. The cloud is echter aan het veranderen (mede door cloud computing) naar 'een off-site resource die via het Internet benaderbaar is', of dat nou processorcycles zijn, storage of een complete database.

The Steam Cloud doet m.i. niet mee met die marketinghype.

[Reactie gewijzigd door Korben op 21 juli 2010 11:38]

Dan zit je zeker ook met je hoofd in de clouds :+
Interessant nieuws bericht maar cloud computing is in principe toch alles wat wij al doen of heb ik het nou helemaal verkeerd begrepen.
Grof voorbeeld maar iets wat nog bijna niemand gebruikt: alle applicaties, CPU-power, storage, data en dergelijke wordt ondergebracht in een cloud bij een provider. Het enige wat jij als bedrijf/werknemer nog hebt is een kantoorpand met thinclients en een DSL-lijn naar buiten. En zo doe je je business.

In jouw kantoor staan dus geen servers meer, geen IT-afdeling, geen laptops met eigen software, geen desktops met eigen software etc.

Doe je dat al? ;)
Wil je dat ook?

Even geen netwerkverbinding: heel bedrijf kan niet meer werken.
Dat tikt lekker aan.
En wat zijn de kosten voor de internetverbinding die je dan moet aanleggen?
Dat probleem hebben de meeste grote bedrijven nu ook al, wellicht dat het personeel gedeeltelijk kan doorwerken maar je business ligt stil. Je kan dan wel e-mails schrijven aan je documenten werken enzo, maar er komt niets binnen en er gaat niets de deur uit.

Je zorgt er dan ook voor dat je internet verbinding dubbel, tripple of zelfs quadrupel is uitgevoerd (glasvezel, ADSL, Kabel, satelliet).

Het voordeel van de cloud is dat als er wat mis is met de locatie je heel makkelijk kan uitwijken naar een andere locatie.

Ik heb nu bij een klant de email niet meer op een lokale exchange server draaien, maar wordt gesynched met Google Apps Premium. Ze gebruiken ook nog Outlook 2007 (met Google Sync for Outlook) en zodat als de internet verbinding wegvalt ze nog toegang hebben tot het lokale gesynched email gebeuren. Als er nu op kantoor geen stroom aanwezig is, pand is afgebrand, etc. dan kunnen de gebruikers vanuit huis aanloggen op de email (webmail). Zelfs de backup wordt online gemaakt, deze is ook online beschikbaar en kan op die manier ook vanuit thuis worden benaderd (als ik daar toestemming voor geef). Ik ben nu bezig met Salesforce als CRM pakket wat op dezelfde manier werkt.

Ik ben zelfs simpele servers aan het virtualiseren om zo geld te besparen en de VMs zijn niet gebonden aan hardware. Dus ik kan straks de VMs die in een backup zijn meegenomen heel snel en makkelijk ergens anders plaatsen.
Probleem is denk ik dat men bij een 'hype' of 'buzz', zoals cloudcomputing nu is, veel mensen krijgt die hun hamer hebben gevonden en daarmee overal spijkers beginnen te zien. Ineens kan alles in de cloud, alles kan gevirtualiseerd worden. En hoe sneller het gedaan wordt hoe beter het is voor iedereen!

Hetzelfde deed zich redelijk kortgeleden nog voor met webbased applicaties binnen bedrijven. Nog vóór dat nuttige technieken als AJAX het mogelijk maakten om interactie te integreren in een applicatie, heeft men de voordelen van webapplicaties (alweer 'anytime, anywhere, anyhow') 'gezien' en alles wat een nieuw project was webbased gemaakt. Echter, de interactie viel tegen, volwassen ontwikkeltools lieten op zich wachten en uiteindelijk zijn er heel veel applicaties opgeleverd welke (webbased!) véél beter (en goedkoper) zouden zijn wanneer er een meer afwachtende houding was aangenomen. 'Normale' server-client software had zeker toen véél meer mogelijkheden aan zowel gebruikerskant als de ontwikkelkant (methodes, talen, omgevingen de hele rambam was vér voor op wat men kon met de eerste versies van bijv. PHP). De statische HTML formuliertjes (met een scripttaal daarachter) van toen waren dus in feite een stap achteruit in een heleboel opzichten.

Dit gaat zich nu ook weer voordoen. Enkelen zijn vanuit commercieel oogpunt, of vanuit early adaptors (showcases blijven leuk) oogpunt er op uit om dit soort zaken hard door te drukken. Zo wordt een klein (niet eens nieuw) bedrijf dus opgezadeld met allerlei services en contracten terwijl een veel simpelere oplossing net zo goed, zo niet beter zou werken.

Mijn devies zou dan ook zijn: pak vooral de kleine nuttige zaken op op dit moment. Zeg maar de 'quick wins'. Kijk waar een organisatie naar toe kan groeien en probeer daar het aanbod van zowel in- als externe IT services en infrastructuur op aan te passen zodat je in ieder geval voorbereid bent op de nieuwe technieken. Val nadrukkelijk niet in de 'val' van alles online of alles offline te maken. Kijk bovenal naar de toegevoegde waarde voor de eindgebruiker van een nieuwe techniek die je wilt toepassen. Wees eerlijk in wat je kan realiseren, want de 'anytime, any-, any-' klinkt natuurlijk wel machtig interessant, maar zit er voor de gebruiker werkelijk een verbetering in? Kun jij er daadwerkelijk voor zorgen dat Bedrijf X vanaf overal ter wereld zijn gehele business kan regelen tegen sterk gereduceerde kosten?

Kijk daarnaast natuurlijk ook naar de totale (en dus niet alleen de oppervlakkige) 'running costs' van hetgeen je wilt realiseren: Is het werkelijk goedkoper? Mijn inziens is er een grote kans dat de kosten gelijkwaardig zullen zijn aan hetgeen je nu al doet. In dat geval zijn de (eventuele) voordelen van nieuwe oplossingen des te belangrijker! Als laatste: houdt ook rekening met de (eventuele) nadelen van de cloud, wees er eerlijk en en negeer ze nooit. Je creëert alleen maar valse verwachtingen als je dat niet doet, en hoe je 't ook wendt of keert; dat werkt op de lange termijn altijd tegen jou (en waarschijnlijk ook de cloud).

Overigens is deze reactie meer een algemene reactie dan dat ie werkelijk reageert op Cergorach. Het was alleen een handige post om op in te haken denk ik ;-).
Ongeacht de technische invulling van cloud diensten zijn er belangrijke afwegingen:
- wie is nu de eigenaar van de gegevens en procesen die een klant in de cloud zet
- wat als die leverancier failliet gaat en/of de diensten stopt? Heb je een backup die je even opnieuw restored bij een andere cloud leverancier
- hoe zit het met de ontinuiteit als, je hebt zo goed als niks meer in eigen hand

Let wel op, we denken veilig te zitten bij grote firma's, maar die kunnen ook failliet gaan, of ineens ander ideen krijgen (zoals bij Sun is gebeurd).
Ongeacht de technische invulling van cloud diensten zijn er belangrijke afwegingen:
- wie is nu de eigenaar van de gegevens en procesen die een klant in de cloud zet
Het feit dat jij jouw gegevens op een remote server neer zet houd nog niet in dat je daarmee eigendom overdraagt naar de hosting partij, immers jouw mailtjes bij Gmail zijn toch ook niet van Google? Een en ander zal (denk ik) vastgelegd zijn in privacywetgeving en anders zal dit echt wel vermeld / afgedekt zijn in het onderhavig contract en weet je dus of dit gebeurd
- wat als die leverancier failliet gaat en/of de diensten stopt? Heb je een backup die je even opnieuw restored bij een andere cloud leverancier
Beetje organisatie wed niet op 1 paard. Als je al denkt aan het extern hosten van storage dan denk je als IT architect / security officer zeker wel na over redundantie.
- hoe zit het met de ontinuiteit als, je hebt zo goed als niks meer in eigen hand
Je hebt mijn inziens net zveel in eigenhand als je eigen servers, misschien is duit juist wel veel beter om het extern te hosten, hogere MTBF vaak betere climate control, noodvoedingen brandbeveiliging etc.
Let wel op, we denken veilig te zitten bij grote firma's, maar die kunnen ook failliet gaan, of ineens ander ideeën krijgen (zoals bij Sun is gebeurd).
NB ik vind bovenstaande argumenten een beetje, "als dit, dan dat" verhaal, natuurlijk zijn er argumenten te bedenken om juist alles in eigen huis te houden maar zeg nu zelf, de mogelijkheden en de (op termijn) lage kosten en risico zijn erg lucratief. Het is alleen de vraag wanneer dit nu als gemeengoed zal worden beschouwd.

edit typos

[Reactie gewijzigd door Maddog McHare op 7 juli 2010 15:01]

De kans dat Microsoft of Google failliet gaan is kleiner dan dat er een vliegtuig op je kantoorpand land terwijl al je personeel daar nog in zit...

Ik heb ook wel eens vaker meegedacht aan zo een continuïteit plan, men vergat altijd het personeel dubbel uit te voeren. Dat klinkt heel stupide, maar denk eens na, je investeerders zullen het vast heel erg vinden dat je personeel kopje onder is gegaan, maar ze willen nog wel steeds dat het bedrijf blijft werken. Afspraken/contracten opstellen met externe partijen om in het ergste geval in te vallen voor personeel dat niet meer 'actief' is heb ik nog geen enkele keer voorbij zien komen. De directie vond het altijd te luguber om over na te denken wat mee te doen.

Het is een afweging van kosten/bate/risico. Ligt geheel aan je bedrijf, de organisatie, maar vooral ook de mensen die de beslissingen maken.
MS of Google zullen niet zo maar failliet gaan, maar onmogelijk is het niet.

Wat mij de meeste zorgen baart is dat als MS of Google andere iedeen krijgt over bijv. de aangeboden diensten en jij dus alle moet omgooien, vandaar het voorbeeld van Sun.
Ze vergeten een hele interessante optie OnLive. OnLive is een cloud-computering platform voor videogames. Alle berekeningen worden bij de servers gedaan, dus het kost ongeveer evenveel als een 720p youtube filmpje.

Los van Onlive(OnLive is ook niet geniaal), Er zijn grote risico's om andere met jouw technieken te vertrouwen. Zeker voor commerciële partners. Je kunt het niet veroorloven als jouw materiaal opeens op straat ligt, of dat de dienstverlener failliet is.
Mijn ervaring is dat bedrijven die het hun core business maken om jou data te hosten, een stuk fanatieker omgaan met security dan je eigen bedrijf wiens core business dat niet is. Het grootste security lek zijn nog altijd de eigen gebruikers, daarna de eigen beheerders.

Dienst verlener failliet kan erg lastig zijn, maar als heb gekozen voor een groot bedrijf dan is de kans groot dat ook al is het bedrijf falliet, de stekkers niet direct uit de servers worden getrokken. De cloud dienst vertegenwoordigt een enorme waarde qua techniek en klanten bestand, daar wil je niet direct de stekker uittrekken als curator, voornamelijk omdat het veel waarde heeft als je het doorverkoopt aan een andere partij...
Er zijn nog wel een aantal zaken waar je als bedrijf heel goed moet nadenken of je data wilt verplaatsen naar een cloud-aanbieder
- juridisch: wat als er een conflict onstaat, kunnen ze dan zo je data afnemen / afsluiten, waar kun je terecht?
- Beveiliging: wie en hoe garanderen ze dat niemand anders bij je bedrijfsgegevens kunnen , wie zegt mij dat wanneer ik bij Amazon mijn data ga hosten dat mijn data niet inzichtelijk is voor de amerikaanse overheid (patriot act ectc) of voor concurrenten .

Ik zou adviseren om alleen zaken te gaan doen met een cloudprovider in eigen land zodat je juridisch tenminste nog een poot hebt om op te staan.
Ook dan ben je nog niet zeker. Met virtualisatie zou het bijvoorbeeld kunnen gebeuren dat (op termijn, is nu wss nog niet echt haalbaar) je (virtuele) machine wordt ondergebracht waar energie op dat moment goedkoopst is (==> waar het nacht is). Dit hoeft niet in eigen land te zijn, en dan weet je niet waar je uitkomt.
Waar je VM uiteindelijk draait is natuurlijk een kwestie van de juiste policies.
Vaak mogen bepaalde applicaties niet op dezelfde hadware draaien binnen een data center, vanwege wetgeving waar een bedrijf compliant aan moet zijn.
( PCI DSS, Sarbane Oxley )

Waar energie goedkoop is speelt nu al.
( Aangezien energieverbruik een belangrijk deel van het IT budget is. )
Momenteel speelt dit meer in de VS, omdat men hier flexibeler energie contracten kan afsluiten.
( Oostkust / Westkust )
Er zijn nog wel een aantal zaken waar je als bedrijf heel goed moet nadenken of je data wilt verplaatsen naar een cloud-aanbieder

...

Ik zou adviseren om alleen zaken te gaan doen met een cloudprovider in eigen land zodat je juridisch tenminste nog een poot hebt om op te staan.
Sterker nog, triple-A banken zijn volgens de DNB verplicht om hun data op te slaan op Nederlands grondgebied zolang het een Nederlands ingeschreven bank is. Hiermee komt een dienst, zoals Microsoft BPOS, dus direct te vervallen voor die banken aangezien er geen garantie is dat Microsoft de data in Nederland host.

Sterker nog, ondanks dat Microsoft wel een datacenter heeft/bouwt in Nederland hiervoor, zal je bij een mega-calamiteit (zoals een vliegtuig die dat datacenter in vliegt) automatisch failoveren naar Ierland of Atlanta en dan ben je als bank "ineens" tegen de regels van de DNB bezig.

Het maakt dus niet uit of je een provider in eigen land zoekt of in het buitenland; de gemiddelde provider heeft een dienst (en uitwijk) die grensoverschrijdend werkt en dat gaat voor veel bedrijven niet werken.
Banken draaien toch niet op x86 (de aangeboden diensten bieden zover ik weet geen mips, arm, powerpc of dergelijke architectuur aan).

[Reactie gewijzigd door analog_ op 7 juli 2010 16:06]

Kan me niet herinneren dat geen enkele bank in Nederland geen gebruik maakt van iets als Microsoft Exchange, een service die zeer makkelijk in een cloud kan worden ondergebracht. Maar juridisch & fiscaal moet die data op bepaalde manieren altijd in NL zijn en minstens x jaar bewaard blijven.

Je hebt inderdaad een punt als je het hebt over SWIFT-verkeer of iets dergelijks wat (nog) niet in een cloud leverbaar is en daardoor op bepaalde industrie-gestandaardiseerde systemen bij de bank zelf draait.
Vergeet niet dat er een hoop dochter maatschappijen van banken wel degelijk gebruik maken van Exchange.

Nooit gehoord van die verplichtingen, om welke data gaat dat precies? En is het dan zo dat er geen kopie op niet Nederlands grond gebied aanwezig mag zijn? Als er een ramp/ongeluk gebeurd en binnen no time de data weer in Nederland staat dan zie ik niet zo een probleem en ik betwijfel of DNB daar dan ook moeilijk over doet.

Ik kan me herinneren dat de bank bepaalde software moest gebruiken (Fiserv's ICBS) en dat moest altijd draaien op een AS400. Pas later waren er versies uitgegeven die ook op Windows zouden werken, maar daar wilde men nog niet echt aan gaan beginnen.

Ik denk dat banken juist erg gebaat zouden zijn met een banking cloud service, maar aangezien ze aan een hoop regels moeten voldoen zal je dan een cloud service krijgen specifiek voor banken. Er moest een vette AS400 worden aangeschaft voor slechts een paar drukke punten op een dag (betalingen/verwerkingen).
Er zijn interessante ontwikkelingen op het gebied van encrypted computing, d.w.z. het verwerken van data zonder dat het ooit ontsleuteld hoeft te worden. Hierbij wordt gebruik gemaakt van zogenaamde 'Fully homomorphic encryption'.

Dit zou het hopelijk mogelijk maken om cloud computing resources te huren en je applicatie als een soort black box te runnen zonder dat je resource provider iets inzage heeft in je bedrijfsgegevens.

Zie o.a. dit Slashdot artikel voor meer info. Veelbelovend, maar nog diverse jaren in de toekomst.
De nieuwere switches van Cisco ondersteunen iets wat TrustSec heet.
De IEEE 802.1AE standaard is hier o.a. onderdeel van.

Als een user inlogt op het netwerk wordt alle data van deze user getagged.
Een tag kan gegeven worden op basis van verschillende zaken:
  • Wie is de user?
  • Welke rol heeft de user? ( Sales, Marketing, Engineering )
  • Waar vandaan logt de user in op het netwerk? ( Via VPN, wireless of wired netwerk. )
  • Wat is de Network Admission Control status? (Zijn de juiste service packs gedraaid? Draait de virus scanner? Is de virus scanner up to date?)
  • Enz.
Op basis van de tag heeft de user toegang tot bepaalde resources in het data center.
De nieuwere switches hebben ASICs om, tussen switches, data wirerate op L2 te encrypten.
Binnen de switches wordt data wel decrypt om zo IP packets te kunnen routeren en filteren.

Veel netwerk apparatuur heeft Role Based Access Control. Users kunnen op basis van rechten bepaalde zaken wel of niet zien en/of configureren. De Cisco Nexus 7000 data center switch ( die ook TrustSec ondersteund ) ondersteund ook Virtual Device Contexts ( VDC's ).

Hiermee kan je een switch volledig virtualiseren. Als je data van de een VDC naar de andere VDC wil hebben, dan moet je hier een fysieke kabel tussen hangen. (Tussen de poorten toegewezen aan de verschillende VDC's.) Dit gaat veel verder dan VLAN's. Je zou hiermee zelf een virtueel data center kunnen bouwen, waarbij klanten ook delen van de hardware huren. ( En niet alleen een VM draaien in een server omgeving. )

Hou hierbij wel rekening, dat bij TrustSec / VDC's er altijd een super admin is die jou je virtuele omgeving toewijst. Deze persoon heeft mogelijk toegang tot je versleutelde data, mits je zeker bent dat dit afgeschermd is.
Het verhaal hierboven is nog lang niet af. Hte verhaal zou verder moeten gaan met public clouds (zoals Amazon) en private clouds (zoals HP en Dell mee bezig zijn).
Bij een private cloud staat de gehele stack inhuis en heb je dat probleem niet meer.

Het concept van een could is nameliijk hetzelfde in private of public variant
Er wordt hoop gezeurd altijd over beveiliging etc. van clouds, maar de meeste van die dingen zijn ook gewoon van toepassing op de huidige servers. Ik zie geen grote problemen met cloud computing.
Grapje? Bij een huidige server kan je eigen systeembeheerder erbij. Bij een gemiddelde cloud-dienst, heb je als bedrijf 0.0000% van de tijd toegang tot de server, storage of infra.

Hoezo zie je geen problemen qua beveiliging? De servers in de cloud zijn 100% in beheer door anderen en daardoor is je data dus ook 100% in beheer (en in geval van kwaadwillendheid inzichtelijk) bij anderen.
tuurlijk niet...
ze bieden je de plek om je spul (encrypted) neer te zetten...
de laag erboven kan je niks mee da klopt maar je bent zelf admin over de dienst die je afneemt
hoe zit het met privacy en bedrijfsgevoelige informatie..
stel ik wil iets uitrekenen en heb daar een enorme hoeveelheid pcs voor nodig...
wie zegt dat dat een geheim blijft? (dat doe je daar ook niet in lijkt me maar als het 1 malig is zou je niet zoveel servers aanschaffen)

hoe zit het verder met andere dingen mocht je je werknemers virtueel willen laten werken mail of iets dergerlijks..

we weten allemaal dat systeembeheerders de oren en ogen van een bedrijf zijn in feite..
aangezien (als ze willen) ze haast niets kunnen missen qua vertrouwelijke informatie..
we weten allemaal dat systeembeheerders de oren en ogen van een bedrijf zijn in feite..
aangezien (als ze willen) ze haast niets kunnen missen qua vertrouwelijke informatie..
De gemiddelde systeembeheerder heeft ten eerste geen tijd om te gaan snuffelen in vertrouwelijke informatie en ten tweede mogen ze dat niet eens tenzij er voor hele specifieke gevallen (zoals contra-spionage of misbruik van gegevens) hun expertise wordt ingeroepen via de hoogste aansturende organen in een bedrijf.
een goede systeembeheerder heeft heel veel tijd over, want alles gaat geautomatiseerd ;)
wat niet mag en wat niet gebeurt zijn 2 totaal verschillende dingen.

Feit is dat er legio systeembeheerders zijn die wel degelijk meer weten dan ze behoren te weten. Zodra er echter rechten geschonden worden, wordt het vaak een andere zaak.

Wanneer je als beheerder van je werk houdt, dan begrijp je 't spanningsveld tussen rechten en toegangen en kun je je inhouden. Een gebrandmerkte systeembeheerder wil niemand in dienst.
Met betrekking tot de definitie van Cloud Computing en hoe de veiligheid in cloud computing wel/niet gegarandeerd kan worden; Dat is waar mijn afstudeerscriptie over gaat.

De definitie die de NIST gebruikt is:
Cloud computing is a model for enabling convenient, on-demand network access to a shared pool of configurable computing resources (e.g., networks, servers, storage, applications, services) that can be rapidly provisioned and released with minimal management effort or service provider interaction.

Voor meer informatie over de veiligheid, nodig ik de lezer uit om mijn scriptie te lezen:
http://home.student.utwen...ingAndConfidentiality.pdf

Mvg,

Guido Kok
Interessante en goede scriptie! Puur uit nieuwsgierigheid, welk cijfer heb je hiervoor gekregen?
De definitie die de NIST gebruikt is:
Cloud computing is a model for enabling convenient, on-demand network access to a shared pool of configurable computing resources (e.g., networks, servers, storage, applications, services) that can be rapidly provisioned and released with minimal management effort or service provider interaction.
Die definitie dekt toch ook "virtualisatie"?
Is het niet dankzij virtualisatie dat het convenient, on-demand, configurable etc is?
leuk stuk..leest goed weg.

ik zelf doe wel veel aan virtualisatie en gebruik nou net geen VMware...
verbaasde mij dat dat zo in het stuk naar voren komt aangezien er vrij veel en goeie zijn die virtualisatie doen....was vmware op dat moment de enige of de bete?

vmware vind ik momenteel 1 van de slechtste....gratis versies praat ik nu over ;)
vmware vind ik momenteel 1 van de slechtste....gratis versies praat ik nu over ;)
En hoeveel bedrijven gebruiken de gratis versies? Ligt er maar net aan wat het mag kosten, onder andere, maar gratis is vaker beperkt in functionaliteit en ook beperkt (of juist vergen met geld duurder) omtrent de licensing van de VM's die je hebt draaien.

[Reactie gewijzigd door MAX3400 op 7 juli 2010 11:04]

probleem is dat een klein bedrijf of particulier er misschien wel voor wil betalen...alleen kom je er pas achter als je al betaald hebt of het werkt of niet...aangezien er uit de gratis versie wat functies zijn uitgehaald.

ook ken ik bedrijven die er idd massa's geld voor betalen maar waarbij het toch nog niet helemaal naar behoren werkt.
die bedrijven moeten helaas dan nog eens extra investeren in een vmware pack.
dat alleen al vind ik slecht van vmware en helaas krijg ik daardoor niet tde kans om hier mee te praten over betaalde versie's

en waarom veel geld uitgeven als bedrijf zijnde als het niet nodig is als je goeie mensen in dienst hebt.
De gratis versie van VMware's bare-metal hypervisor is inderdaad beperkter dan die van concurrent Citrix. De betaalde versies echter, afhankelijk van welke licentie je aanschaft, zijn zeer sterk, stabiel en gebruiksvriendelijk en worden in de industrie niet voor niks als de norm gezien.

Het is goed dat de concurrenten Citrix en Microsoft hun best doen om hier in de buurt te komen, maar zover zijn ze nog niet. Hun belangrijkste pluspunt is momenteel dat ze bijna alle functies gratis weggeven, maar ook in de betaalde varianten kunnen ze nog niet helemaal tegen VMware op. Dat is echter een kwestie van tijd, en die concurrentiestrijd kan ik alleen maar toejuichen.

Probeer bijv. eens ESXi met een 60 dagen trial licentie, samen met VCenter voor het beheer van het datacenter. Je hebt dan toegang tot de volledige functionaliteit en die is uitstekend en robuust. Wanneer je daarna teruggaat naar de gratis licentie voor ESXi wordt een boel functionaliteit uitgeschakeld, niet alleen in de hypervisor maar ook omdat je VCenter niet meer kunt gebruiken. Citrix Xenserver of Hyper-V is dan opeens een stuk aantrekkelijker.
das een goeie tip man...ik ga het eens proberen.

helaas ben ik niet in staat de dure betaalde versies zelf te testen..
ik zit maar met 1 server in een datacentre en ja...kosten besparend ga ik natuurlijk niet teveel geld uitgeven.

Al verschillende getest linux vserver/openvz/kvm/libvirt(bin)/virt-manager maar ben redelijk te spreken over de vmm. http://virt-manager.org/
ik vind deze netter werken dan proxmox en vmachine...of dus de gratis versie van vmware.

ik moet er eerlijk bijzeggen dat ik alleen maar linuxjes draai en geen windows ernaast.
het nadeel van vmware vond ik dat het totaal niet draaide onder een besturingsysteem.
alleen goed als stand alone...maar als stand alone had vmware nou weer net geen goeie load balancing...laatstaan met een lekker eubuntu install.


nadelen van huidige aangeraden vmachine...
vmware esx...werkt allen met windows tools of brakke webinterface
citrix...exact hetzelfde...
laatstaan 500x vernieuwe voor het cd'te gevonden wordt.
en de enorm trage overrachtsnelheid tussen de vmachines...2mb max

natuurlijk horen admins alleen achter windows pc's te zitten en internet explorer ;)

ubuntu cloud die gebruikt maakt van kvm - ook al een brakke interface :P
geef mij maar gewoon kvm.

[Reactie gewijzigd door jeffer op 7 juli 2010 14:38]

Noem eens betere dan?
die noem ik net... 3 stuks zelfs...leer eens lezen...

vmm: meer ram toewijzen dan je hebt en goede load balancing...en al 4 maanden alle vmachines stabiel....dat is nog niet echt gelukt met vmware of laatstaan kvm :P
programma's in de machine's draaien lang niet altijd stabiel.
welllicht als je aleen webservers oid gebruikt dat het prima gaat...maar mijn huidige toepassingen werken echt niet zomaar lekker op elke vmachine.

esx gaat hem iig niet worden...misschien als basisschool vmachine maar niet als profi gebruik....

[Reactie gewijzigd door jeffer op 7 juli 2010 13:26]

HP heeft ook een mooie ontwikkeling, converged infrastructure (Matrix). Vanuit een management portal (insight dynamics) kan een complete product range worden uitgerold. Maakt niet uit of het een viruteel park is of een dedicated machine park. Op basis van profielen worden de fysieke servers ingericht en/of de virtuele machiens er ook bij geinstalleerd.

Het mooie is dat er ook LUNs op een EVA of LeftHand bij kunnen worden aangemaakt en dat de Flex Connect netwerk kaart dus danig wordt opgesplitist in netwerken dat je daar ook geen werk meer aan hebt

Hierachter zit weer een hele workflow met autorisatie stappen. Een product manager, account manager of wie dan ook vraagt iets aan voor een klant. De architect bepaalt de dimensionering voor die product range en rolt het uit. Nadat dit klaar is gaat het richting de operator/sysop die een paar nabewerkingen moet doen.

Het geheel rapporteert weer mooi door naar een tool a 'la HP SIM. Je weet continue wat de load is en of er allicht wat server moeten worden bijgeprikt
Persoonlijk denk ik dat "cloud" wel bestaat. Als je naar de Nederlandse definitie kijkt:

Opeenhoping in de dampkring van kleine waterdruppels of ijskristallen.

Als je dan de opeenhoping ziet als data (als in de vorm van OS/virtualisatie/documenten enz.) en de dampkring als de hardware waar het "allemaal" op draait en de kleine waterdruppels en ijskristallen als data in de vorm van bits en bytes.

Een wolk hang in de lucht en kan groter, maar ook kleiner worden.

Allerlei dingen die ontwikkeld zijn/worden, zijn uiteindelijk al lang uitgedacht door de "natuur".
Persoonlijk denk ik dat "cloud" wel bestaat. Als je naar de Nederlandse definitie kijkt:
Volgens mij is de vraag niet of het wel of niet bestaat, maar of het wel of niet iets nieuws is.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013