Door Aad Offerman

Freelancer

Cloud computing: logisch vervolg op virtualisatie

07-07-2010 • 09:00

91

Multipage-opmaak

Inleiding

Iedereen lijkt tegenwoordig clouddiensten en -producten te verkopen. In werkelijkheid gaat het meestal om oude wijn in nieuwe zakken: cloud computing is vooral een concept voor de inrichting en het gebruik van toekomstige datacenters, als we die dan tenminste nog zelf hebben. Een voorloper als Amazon laat zien hoe we it-resources in de toekomst kunnen organiseren en afnemen.

Wat precies onder cloud computing wordt verstaan, hangt af van degene aan wie je het vraagt. Of beter gezegd: van wat hij verkoopt. Zoals wel vaker is elke leverancier met dit nieuwe buzzword aan de haal gegaan: tegenwoordig wordt elke dienst waar een internetverbinding aan te pas komt, een clouddienst genoemd. Leveranciers herschikken hun bestaande productportfolio onder de nieuwe cloudvlag, wat puur uit marketing-overwegingen wordt gedaan en ook wel 'cloud washing' wordt genoemd.

Zelfs de specialisten blijken behoorlijk in verwarring over wat nu wel en niet onder de term cloud computing valt. Sommigen menen dat cloud computing niet bestaat, terwijl anderen juist zeggen dat de cloud alles omvat wat we nu al doen. Tegenstrijdiger kan het haast niet.

datacenter cloud

Iaas, saas en paas

Infrastructure-as-a-service

In dit artikel gaan we uit van de manier waarop de term 'cloud' in de wereld van de it-infrastructuur wordt gebruikt. We komen daar ook regelmatig de term infrastructure-as-a-service, oftewel iaas, tegen. Daarbij moet je denken aan alles wat je in het datacenter vindt: serversystemen, storage arrays en netwerkcomponenten. Het gaat echter niet om de spullenboel op zich, maar om de manier waarop we die organiseren, gebruiken en beheren.

Het sleutelwoord daarbij is flexibiliteit. Het maakt voor it-toepassingen niet meer uit waar ze precies draaien. In de cloud is er een basisinfrastructuur beschikbaar waarop applicaties worden uitgevoerd. Dat kan in een rekencentrum binnen een bedrijf zelf zijn, zoals nu meestal het geval is, maar ook bij een dienstverlener.

Software-as-a-service

Met deze definitie maken we gelijk onderscheid met allerlei andere vormen van flexibele en externe it-voorzieningen. Software-as-a-service, of saas, omhelst het aanbieden van softwaretoepassingen over het internet. Concreet betekent dit niet meer dan dat gebruikers naar een portal gaan waar ze inloggen om hun werkzaamheden via een webinterface uit te voeren. De gegevens blijven gewoon op de systemen van de aanbieder staan.

Het meest kenmerkende van saas is echter niet die webinterface. Ook talloze interne applicaties zijn de afgelopen jaren immers van client-server naar webservice omgebouwd. Nieuw aan saas is vooral het betaalmodel. Waar je voorheen een licentie voor het gebruik van een bepaald pakket kocht, betaal je nu abonnementskosten, bijvoorbeeld per maand per gebruiker.

Het bekendste voorbeeld van een saas-aanbieder is Salesforce.com. Zij bieden crm op afstand aan. Applicatie-ontwikkelaars kunnen bovendien op force.com hun eigen toepassingen bouwen, een dienst die weer onder 'paas' of platform-as-a-service valt. Een Nederlands voorbeeld is Twinfield, een online aanbieder van boekhoudsoftware voor het mkb.

Utility computing

Ook utility computing moet hier genoemd worden. In feite is dat wat je overhoudt op het moment dat je cloud computing zo plat mogelijk slaat en daar een prijskaartje aan hangt. De naam is afgeleid van 'public utility', het Engelse woord voor nutsdienst.

Sun, tegenwoordig onderdeel van Oracle, kwam een paar jaar geleden met zijn network.com-portal. Daar kon je verwerkingskracht en opslagcapaciteit afnemen voor respectievelijk een dollar per processor per uur en een dollar per gigabyte per maand.

Helaas voor Sun was er geen belangstelling voor deze dienst. Het waren dan ook vooral de eigen partners waarmee het bedrijf zich probeerde te profileren. De twee meest gehoorde bezwaren tegen network.com waren het gebrek aan aanvullende diensten en de hoge prijzen. Inmiddels is de portal ook niet meer bereikbaar.

Network Sun

Virtualisatie

Servervirtualisatie

Het moge duidelijk zijn dat het concept van cloud computing niet zou bestaan zonder virtualisatie. Vanuit infrastructuur-perspectief bezien is cloud computing niet meer dan een logisch vervolg op de virtualisatietrend van de afgelopen jaren.

De eerste stap daarin was de virtualisatie van de servers. Vijf jaar geleden zaten alle datacenters vol 'pizzadozen', oftewel 1U-servers, waarvan maar een fractie van de capaciteit werd benut. Die situatie was ontstaan omdat systeembeheerders voor elke nieuwe toepassing een nieuwe server installeerden. Met name het stabiel houden van applicaties onder Windows, dat immers niet als multitasking-besturingssysteem was ontworpen, maakte deze opzet noodzakelijk.

Toen kwam de hypervisor van VMware. Deze maakte het mogelijk complete besturingssystemen naast elkaar op dezelfde computer te draaien. Nadat eerst Xen en vervolgens Microsoft daar een gratis alternatief naast zetten, verschoof dat belang naar de management stack. In combinatie met de virtualisatie van opslag en netwerken is dat precies wat cloud computing mogelijk maakt.

Virtualization automation

Servervirtualisatie heeft het operating system met de daarop draaiende applicatie enerzijds en de onderliggende hardware anderzijds van elkaar losgekoppeld. Die ontwikkeling is de motor achter de opkomst van bladesystemen. HP en IBM hebben feitelijk de oude pizzabox-servers op hun kant gezet en samengepakt in grote chassis. Door koeling, voeding en i/o te delen, werd de hardware zowel zuiniger als compacter. Om al die virtuele machines te kunnen draaien, zijn virtualisatieservers wel een heel stuk zwaarder dan hun voorgangers. Ze hebben vaak twee of vier processors en een flinke sloot geheugen.

Bladesystemen moet je in dit verband dan ook zien als grote blokken geconcentreerde rekenkracht. Ze worden bovendien per chassis beheerd. Waar een applicatie precies draait, is niet meer van belang. De managementsoftware laat je virtuele machines kopiëren, starten, stoppen en verplaatsen, zoals bij VMotion. Daarmee is het concept van het afzonderlijk identificeerbare serversysteem aan het verdwijnen.

Blade servers

Met het doorontwikkelen van de management-software zien we dat het beheer van de virtuele machines steeds verder geautomatiseerd wordt. Zo kan bijvoorbeeld op basis van policy's worden besloten dat virtuele machines over meer servers worden verspreid als blijkt dat een bepaalde applicatie meer capaciteit nodig heeft. In de stille uurtjes kunnen virtuele machines juist weer worden samengepakt op een kleiner aantal systemen, zodat de niet gebruikte hardware uitgeschakeld kan worden, wat energie bespaart. Voor horizontaal schaalbare applicaties - denk aan webservers - zou je, afhankelijk van de drukte, ook het aantal actieve virtuele machines automatisch kunnen laten opschalen.

Dynamiek

Cloud computing draait dus om de dynamiek die ontstaat als je de executie van virtuele machines automatiseert. Waar een applicatie, al dan niet op een virtuele machine, precies draait, weet je uiteindelijk niet eens meer. In de management-interface worden alleen de virtuele machines en hun gevirtualiseerde resources beheerd. De plaatsing op de fysieke infrastructuur wordt op basis van de ingestelde policy's verzorgd door de achterliggende software.

Dat is waar de termen interne, externe en hybride cloud vandaan komen. Als je als beheerder de onderliggende hardware toch niet ziet, dan maakt het ook niet meer uit welke vorm die heeft en waar die zich bevindt. Je kunt er bijvoorbeeld voor kiezen om een basis-infrastructuur in het eigen rekencentrum aan te houden voor de snelheid en voor kerntoepassingen. Voor minder belangrijke processen of als fallback kun je die aanvullen met capaciteit van een externe dienstverlener.

Toekomstmuziek en publieke clouds

Toekomstmuziek

De cloud-infrastructuur zoals die in dit artikel wordt geschetst, is voor de meeste toepassingen nog toekomstmuziek. Wel is het een belangrijke trend om in het achterhoofd te houden als je met je datacenter bezig bent. Deze boodschap wordt vooral door HP uitgedragen. Dit bedrijf is momenteel leider in de markt voor bladesystemen en heeft zelfs de ambitie uitgesproken om in de toekomst al zijn systemen te 'verbladen'.

Een veelgehoord advies is om, anticiperend op deze ontwikkeling, de huidige infrastructuur alvast als een cloud te organiseren. In de praktijk betekent dat: zoveel mogelijk virtualiseren.

Server-virtualisatie is echter het 'laaghangende fruit'; de volgende fase is de virtualisatie van de desktop - en dat is ingewikkelder. De hardware wordt nu immers van de desktop verplaatst naar het rekencentrum. Alleen de interface wordt over het netwerk naar thin clients gebracht. Hierbij vinden echter nog volop ontwikkelingen plaats, met name als het om de protocollen voor grafische applicaties gaat.

Hetzelfde geldt voor het ontkoppelen van applicaties en operating system. Bij de virtualisatie van de desktop wordt niet alleen de fat client in tweeën geknipt. Ook de verschillende applicaties worden van elkaar en van het besturingssysteem gescheiden. Dat betekent dat toepassingen als aparte packages worden beheerd en tezamen met de gebruikersspecifieke instellingen met een besturingssysteem worden gecombineerd op het moment dat een gebruiker daar om vraagt. Dit heet application streaming.

Publieke clouds

De Elastic Compute Cloud- of EC2-dienst van Amazon geeft een goed beeld van hoe een publieke cloud er uit kan zien. Gebruikers kunnen virtuele machines in het op Xen gebaseerde AMI-formaat naar de cloud uploaden. Beheer daarvan geschiedt via een web-interface, de zogeheten AWS Management Console. Voor de geautomatiseerde aansturing is een api in de vorm van een web-service beschikbaar - en afrekenen doe je met je creditcard.

Amazon Web ServicesOver het aantal gebruikers van zijn AWS-diensten wil Amazon niks kwijt. In het laatste jaarverslag geeft het bedrijf alleen aan dat deze diensten harder groeien dan ooit. Naar verluidt gaat het inmiddels om vele tienduizenden, misschien een paar honderdduizend gebruikers. Veel daarvan zijn bovendien geen startups of kleine bedrijven die geen eigen infrastructuur willen onderhouden: het gaat ook om grote ondernemingen die AWS op projectbasis inzetten.

Diegenen die daar aan gerekend hebben, komen echter tot de conclusie dat de Amazon-cloud voor permanent gebruik duurder is dan een eigen infrastructuur. Bovendien zijn er klachten met betrekking tot stabiliteit en beschikbaarheid; virtuele machines hebben regelmatig last van trage netwerkverbindingen, crashes en 'noisy neighbours' - virtuele machines van anderen die op dezelfde fysieke server draaien en zoveel capaciteit gebruiken dat jouw diensten trager worden. Ten slotte is ook mail een probleem: omdat de cloud inmiddels is gebruikt om spam te versturen, zijn de Amazon-adressen door online spam-filters geblokkeerd.

Randy Bias van CloudScaling maakte eind vorig jaar een inschatting van Amazon's EC2-business. Volgens hem heeft het bedrijf daarvoor veertigduizend servers draaien, waarvan twintig procent voor eigen gebruik door Amazon is gereserveerd. Op de rest draaien naar schatting tachtigduizend virtuele machines, goed voor een jaarlijkse omzet van een kwart miljard dollar.

Platform-as-a-service

Microsoft biedt met Windows Azure een Windows-variant om applicaties in zijn datacenters te draaien. Deze leverancier richt zich in zijn marketingboodschap met name op kostenbesparingen doordat gebruikers niet meer hoeven na te denken over systeembeheer en patch management.

Nadeel van deze twee paas-aanbieders is dat je hiermee nog steeds afhankelijk bent van de leverancier. Sterker nog: omdat je bij het programmeren de specifieke mogelijkheden van deze omgevingen zal gebruiken, zit je met je applicatie muurvast aan een aanbieder. Bij iaas speelt dat niet: een virtuele machine kun je immers gemakkelijk bij een andere dienstverlener onderbrengen.

Omdat je voor het gebruik van clouds geen initiële investeringen in hardware hoeft te doen, lijken biede mogelijkheden op dit moment met name interessant voor startups met meer goede ideeën dan middelen.

Reservecapaciteit

Het is niet toevallig dat bedrijven als Amazon, Microsoft en Google als eerste met dergelijke diensten komen. Ze opereren op een zo grote schaal dat ze enorme hoeveelheden computer-resources als reservecapaciteit moeten aanhouden. Bovendien kunnen ze vanwege die schaal hun infrastructuur enorm efficiënt beheren. Met name Google staat bekend om zijn goedkope, op maat gemaakte hardware.

In feite is dit het omgekeerde model van de externe cloud: waar interne-cloudeigenaren hun tekort aan resources kunnen aanvullen met externe capaciteit, zetten grootverbruikers van verwerkingskracht hun overcapaciteit in de markt. De schaalgrootte van hun bestaande operaties stelt hen bovendien in staat om dat goedkoop te doen. Scott McNealy heeft wel eens gezegd dat de Sun Cloud in feite bestaat uit nieuwe systemen die zo hun burn-in-test krijgen. Vervolgens wordt de hardware uiteraard alsnog tegen nieuwprijs aan de klant geleverd.

Dichter bij huis zijn het de datacenter-dienstverleners en de grote it-leveranciers die daadwerkelijk met cloud-diensten komen. Deze diensten passen immers prima in een portfolio van hosting, housing en colocatie. Of deze diensten succesvol zullen zijn, is eigenlijk al geen vraag meer; de vraag is vooral wie de clouddiensten met de beste prijs-prestatieverhouding kan leveren.

Lees meer

Reacties (91)

91
91
76
16
1
3
Wijzig sortering
Er zijn nog wel een aantal zaken waar je als bedrijf heel goed moet nadenken of je data wilt verplaatsen naar een cloud-aanbieder
- juridisch: wat als er een conflict onstaat, kunnen ze dan zo je data afnemen / afsluiten, waar kun je terecht?
- Beveiliging: wie en hoe garanderen ze dat niemand anders bij je bedrijfsgegevens kunnen , wie zegt mij dat wanneer ik bij Amazon mijn data ga hosten dat mijn data niet inzichtelijk is voor de amerikaanse overheid (patriot act ectc) of voor concurrenten .

Ik zou adviseren om alleen zaken te gaan doen met een cloudprovider in eigen land zodat je juridisch tenminste nog een poot hebt om op te staan.
Er zijn interessante ontwikkelingen op het gebied van encrypted computing, d.w.z. het verwerken van data zonder dat het ooit ontsleuteld hoeft te worden. Hierbij wordt gebruik gemaakt van zogenaamde 'Fully homomorphic encryption'.

Dit zou het hopelijk mogelijk maken om cloud computing resources te huren en je applicatie als een soort black box te runnen zonder dat je resource provider iets inzage heeft in je bedrijfsgegevens.

Zie o.a. dit Slashdot artikel voor meer info. Veelbelovend, maar nog diverse jaren in de toekomst.
De nieuwere switches van Cisco ondersteunen iets wat TrustSec heet.
De IEEE 802.1AE standaard is hier o.a. onderdeel van.

Als een user inlogt op het netwerk wordt alle data van deze user getagged.
Een tag kan gegeven worden op basis van verschillende zaken:
  • Wie is de user?
  • Welke rol heeft de user? ( Sales, Marketing, Engineering )
  • Waar vandaan logt de user in op het netwerk? ( Via VPN, wireless of wired netwerk. )
  • Wat is de Network Admission Control status? (Zijn de juiste service packs gedraaid? Draait de virus scanner? Is de virus scanner up to date?)
  • Enz.
Op basis van de tag heeft de user toegang tot bepaalde resources in het data center.
De nieuwere switches hebben ASICs om, tussen switches, data wirerate op L2 te encrypten.
Binnen de switches wordt data wel decrypt om zo IP packets te kunnen routeren en filteren.

Veel netwerk apparatuur heeft Role Based Access Control. Users kunnen op basis van rechten bepaalde zaken wel of niet zien en/of configureren. De Cisco Nexus 7000 data center switch ( die ook TrustSec ondersteund ) ondersteund ook Virtual Device Contexts ( VDC's ).

Hiermee kan je een switch volledig virtualiseren. Als je data van de een VDC naar de andere VDC wil hebben, dan moet je hier een fysieke kabel tussen hangen. (Tussen de poorten toegewezen aan de verschillende VDC's.) Dit gaat veel verder dan VLAN's. Je zou hiermee zelf een virtueel data center kunnen bouwen, waarbij klanten ook delen van de hardware huren. ( En niet alleen een VM draaien in een server omgeving. )

Hou hierbij wel rekening, dat bij TrustSec / VDC's er altijd een super admin is die jou je virtuele omgeving toewijst. Deze persoon heeft mogelijk toegang tot je versleutelde data, mits je zeker bent dat dit afgeschermd is.
Er zijn nog wel een aantal zaken waar je als bedrijf heel goed moet nadenken of je data wilt verplaatsen naar een cloud-aanbieder

...

Ik zou adviseren om alleen zaken te gaan doen met een cloudprovider in eigen land zodat je juridisch tenminste nog een poot hebt om op te staan.
Sterker nog, triple-A banken zijn volgens de DNB verplicht om hun data op te slaan op Nederlands grondgebied zolang het een Nederlands ingeschreven bank is. Hiermee komt een dienst, zoals Microsoft BPOS, dus direct te vervallen voor die banken aangezien er geen garantie is dat Microsoft de data in Nederland host.

Sterker nog, ondanks dat Microsoft wel een datacenter heeft/bouwt in Nederland hiervoor, zal je bij een mega-calamiteit (zoals een vliegtuig die dat datacenter in vliegt) automatisch failoveren naar Ierland of Atlanta en dan ben je als bank "ineens" tegen de regels van de DNB bezig.

Het maakt dus niet uit of je een provider in eigen land zoekt of in het buitenland; de gemiddelde provider heeft een dienst (en uitwijk) die grensoverschrijdend werkt en dat gaat voor veel bedrijven niet werken.
Banken draaien toch niet op x86 (de aangeboden diensten bieden zover ik weet geen mips, arm, powerpc of dergelijke architectuur aan).

[Reactie gewijzigd door analog_ op 23 juli 2024 14:51]

Kan me niet herinneren dat geen enkele bank in Nederland geen gebruik maakt van iets als Microsoft Exchange, een service die zeer makkelijk in een cloud kan worden ondergebracht. Maar juridisch & fiscaal moet die data op bepaalde manieren altijd in NL zijn en minstens x jaar bewaard blijven.

Je hebt inderdaad een punt als je het hebt over SWIFT-verkeer of iets dergelijks wat (nog) niet in een cloud leverbaar is en daardoor op bepaalde industrie-gestandaardiseerde systemen bij de bank zelf draait.
Vergeet niet dat er een hoop dochter maatschappijen van banken wel degelijk gebruik maken van Exchange.

Nooit gehoord van die verplichtingen, om welke data gaat dat precies? En is het dan zo dat er geen kopie op niet Nederlands grond gebied aanwezig mag zijn? Als er een ramp/ongeluk gebeurd en binnen no time de data weer in Nederland staat dan zie ik niet zo een probleem en ik betwijfel of DNB daar dan ook moeilijk over doet.

Ik kan me herinneren dat de bank bepaalde software moest gebruiken (Fiserv's ICBS) en dat moest altijd draaien op een AS400. Pas later waren er versies uitgegeven die ook op Windows zouden werken, maar daar wilde men nog niet echt aan gaan beginnen.

Ik denk dat banken juist erg gebaat zouden zijn met een banking cloud service, maar aangezien ze aan een hoop regels moeten voldoen zal je dan een cloud service krijgen specifiek voor banken. Er moest een vette AS400 worden aangeschaft voor slechts een paar drukke punten op een dag (betalingen/verwerkingen).
Ook dan ben je nog niet zeker. Met virtualisatie zou het bijvoorbeeld kunnen gebeuren dat (op termijn, is nu wss nog niet echt haalbaar) je (virtuele) machine wordt ondergebracht waar energie op dat moment goedkoopst is (==> waar het nacht is). Dit hoeft niet in eigen land te zijn, en dan weet je niet waar je uitkomt.
Waar je VM uiteindelijk draait is natuurlijk een kwestie van de juiste policies.
Vaak mogen bepaalde applicaties niet op dezelfde hadware draaien binnen een data center, vanwege wetgeving waar een bedrijf compliant aan moet zijn.
( PCI DSS, Sarbane Oxley )

Waar energie goedkoop is speelt nu al.
( Aangezien energieverbruik een belangrijk deel van het IT budget is. )
Momenteel speelt dit meer in de VS, omdat men hier flexibeler energie contracten kan afsluiten.
( Oostkust / Westkust )
Het verhaal hierboven is nog lang niet af. Hte verhaal zou verder moeten gaan met public clouds (zoals Amazon) en private clouds (zoals HP en Dell mee bezig zijn).
Bij een private cloud staat de gehele stack inhuis en heb je dat probleem niet meer.

Het concept van een could is nameliijk hetzelfde in private of public variant
Anoniem: 173185 7 juli 2010 10:44
Met betrekking tot de definitie van Cloud Computing en hoe de veiligheid in cloud computing wel/niet gegarandeerd kan worden; Dat is waar mijn afstudeerscriptie over gaat.

De definitie die de NIST gebruikt is:
Cloud computing is a model for enabling convenient, on-demand network access to a shared pool of configurable computing resources (e.g., networks, servers, storage, applications, services) that can be rapidly provisioned and released with minimal management effort or service provider interaction.

Voor meer informatie over de veiligheid, nodig ik de lezer uit om mijn scriptie te lezen:
http://home.student.utwen...ingAndConfidentiality.pdf

Mvg,

Guido Kok
Interessante en goede scriptie! Puur uit nieuwsgierigheid, welk cijfer heb je hiervoor gekregen?
De definitie die de NIST gebruikt is:
Cloud computing is a model for enabling convenient, on-demand network access to a shared pool of configurable computing resources (e.g., networks, servers, storage, applications, services) that can be rapidly provisioned and released with minimal management effort or service provider interaction.
Die definitie dekt toch ook "virtualisatie"?
Is het niet dankzij virtualisatie dat het convenient, on-demand, configurable etc is?
Ze vergeten een hele interessante optie OnLive. OnLive is een cloud-computering platform voor videogames. Alle berekeningen worden bij de servers gedaan, dus het kost ongeveer evenveel als een 720p youtube filmpje.

Los van Onlive(OnLive is ook niet geniaal), Er zijn grote risico's om andere met jouw technieken te vertrouwen. Zeker voor commerciële partners. Je kunt het niet veroorloven als jouw materiaal opeens op straat ligt, of dat de dienstverlener failliet is.
Mijn ervaring is dat bedrijven die het hun core business maken om jou data te hosten, een stuk fanatieker omgaan met security dan je eigen bedrijf wiens core business dat niet is. Het grootste security lek zijn nog altijd de eigen gebruikers, daarna de eigen beheerders.

Dienst verlener failliet kan erg lastig zijn, maar als heb gekozen voor een groot bedrijf dan is de kans groot dat ook al is het bedrijf falliet, de stekkers niet direct uit de servers worden getrokken. De cloud dienst vertegenwoordigt een enorme waarde qua techniek en klanten bestand, daar wil je niet direct de stekker uittrekken als curator, voornamelijk omdat het veel waarde heeft als je het doorverkoopt aan een andere partij...
Anoniem: 135756 7 juli 2010 19:25
Wil je dat ook?

Even geen netwerkverbinding: heel bedrijf kan niet meer werken.
Dat tikt lekker aan.
En wat zijn de kosten voor de internetverbinding die je dan moet aanleggen?
Dat gebeurd al op zeer grote schaal.
Kijk bijvoorbeeld naar een bedrijf als KPN/Getronics die bieden SBC al heel lang standaard aan, cloud computing is met name een verschil in het datacentrum, maar het principe (alles in het datacentre) is er al veel langer in opkomst.
Dat "we" dat willen is al heel lang duidelijk. Het is simpelweg efficienter. Vooral wat betreft management.
En hoeveel kan jij tegenwoordig uberhaupt nog werken zonder netwerk verbinding? Ook al heb je een lokale desktop?

Kosten voor de gebruikte data zijn niet enorm veel extra. Uiteraard is er wel overhead.
Protocollen voor SBC en VDI (ICA bijvoorbeeld of SPICE) zijn enorm efficient.
Daarbij zijn de voordelen legio. Centraal, makkelijk te managen.
Cloud computing is simpelweg het vertotaliseren (als dat een woord is) van markten die er al zijn. Web applicaties, Terminal services/Citrix over WAN verbindingen...
Ik werk al dagelijks zo (in de systeembeheer).

Ik denk dat Google het bij het rechte eind heeft: Applicaties over het internet via de web browser zijn stiekum TOCH de toekomst.
We gaan richting HTML5, richting browsers die zo veel kunnen dat ze onderhand een half OS zijn.... wat als applicaties via het web (wat ze nu nog niet hebben) de kwaliteit kunnen hebben van lokale applicaties? (en uiteraard kan dat niet bij alle applicaties zoals zware grafische applicaties...).. wat als je inderdaad met een "Chrome OS" uiteindelijk zulke rijke applicaties krijgt dat ze niet langer onderdoen voor de lokale varianten?

Mensen onderschatten denk ik die mogelijkheid. We zijn gewend geraakt aan de redelijke beperkte interactiviteit die de huidige web standaarden bieden en maken dingen interactief met een hoop kunst en vliegwerk (AJAX). Er komen nieuwe standaarden en er is op dit moment veel ontwikkeling m.b.t. het "rijker" maken van je browser door die met een bepaalde applicatie meer features te geven. (Google Gears bijvoorbeeld: http://gears.google.com/)

Lange tijd zijn "web applicaties" toch een soort ondergeschikte vorm van applicaties geweest t.o.v. lokale applicaties en er zullen altijd zaken blijven die een lokale applicatie vereisen (3d animatie, video editing...dat moet je gewoon niet willen imho..) maar ik zie wel die scheiding tussen lokaal en web enorm vervagen en Google heeft daar een leidende rol in.

Natuurlijk is er al heel lang geroepen over "net apps" die de toekomst zijn... applicaties via het web... ik denk alleen dat de tijd nog niet rijp was en dat we binnenkort op dat vlak hele interessante ontwikkelingen gaan zien.

Dus inderdaad SaaS... Cloud Computing..: en dat allemaal via de browser?
En zal de browser versmelten met het OS?
Zeker denkbare scenario's in mijn hoofd in ieder geval.
Ik zou eigenlijk graag zien dat het hele kunst en vliegwerk omtrent die browsers nou eens ophoudt. Ook met HTML5 blijft men tegen de beperkingen van HTTP oplopen. Wellicht is het een beter plan om buiten de browsers en het http protocol om iets te ontwikkelen wat dezelfde voordelen als die combinatie kent, maar óók een aantal of alle nadelen weghaalt.

Een Chrome OS zou bijvoorbeeld een uitkomst zijn, mits goed uitgevoerd. Flexibiliteit van online, altijd en overal en de functionaliteit van een 'echt' operating system. Ik zie daar veel meer mogelijkheden in dan in een browser welke als OS gaat functioneren (onder andere vanwege compatibiliteit tussen browsers onderling). Zie daar: een browser voor browsing (hoe verrassend ;-)) en een OS wat doet wat 't moet doen, zij het op decentrale wijze. Ik denk dat het op die manier ook veel beter mogelijk wordt om applicaties te distribueren naar een 'online' OS welke veel lokale rekenkracht nodig hebben. Een browser is in mijn ogen namelijk in zo'n geval alleen maar overhead.
Anoniem: 34296 10 juli 2010 18:05
Ik lees net deze advertentie van Microsoft op tweaters:
Test nu je kennis over de cloud!
Weet jij of je bij een IAAS oplossing geen controle meer hebt over de virtual machine? Of dat je de opslagcapaciteit van SharePoint Online Standard kan uitbreiden? Versla álle tweets over cloud computing en ontdek wat voor cloud je bent. Speel nu Beat the Tweet!
Het lijkt er op dat dit topic onderdeel is van een marketing campagne waarin we Microsofts visie op cloudcomputing krijgen.

Wikipedia geeft een helder verhaal:

Cloud computing
Cloud computing is een parallel computersysteem waarbij de software verdeeld is tussen meerdere computers op het internet. De "cloud" (Nederlands: wolk) staat voor het internet en de delen en acties van de applicatie die niet op de machine van de gebruiker plaatsvinden. Dit concept wordt gebruikt om de gebruiker niet meer te verplichten uitgebreide kennis of controle te hebben over de technologie die ze gebruiken. Cloud computing oogt vooral op hogere algemene efficiëntie van software.

Typische diensten die cloud computing gebruiken dienen om schaalbare en vaak gevirtualiseerde bronnen aan te bieden over het internet. Deze zijn dan beschikbaar via een webbrowser terwijl de software en data op servers van de dienstverlener blijven. Dit alles gebeurt op aanvraag via zelfbediening en men betaalt naargelang het gebruik of per abonnement.

Cloud computing wordt in drie categorieën van abstractie verdeeld: Infrastructure as a Service (IaaS), Platform as a Service (PaaS) en Software as a Service (SaaS). Hierbij heeft men bij IaaS de meeste vrijheid en bij SaaS de minste. Recht evenredig heeft men dan ook meer onderhoud en kennis nodig bij IaaS.

Bij cloud computing zijn de gebruikers geen eigenaar van de software die ze gebruiken. Ze betalen dus enkel voor de diensten die ze gebruiken. Hierdoor kan men grote kosten besparen op de aankoop van software en hardware aangezien het overgrote deel op de servers gebeurt.

Cloud computing kent zijn opkomst rond het jaar 2000. In 2009 erkende Sun Microsystems cloud computing als de nieuwe softwaregeneratie binnen hun bedrijf.


Cloud-applicaties: Software as a Service (SaaS)
Bij Software as a Service (SaaS) staat de applicatie volledig onder controle van de dienstverlener. De gebruiker kan er gebruik van maken maar kan er dikwijls niets wezenlijks aan veranderen.
Voorbeelden: Webmail, Google Apps, Skype, Facebook, salesforce.com, createaclang.com...

Cloud-platforms: Platform as a Service (PaaS)
De PaaS-laag biedt een aantal diensten bovenop de infrastructuur welke het SaaS-aanbieders mogelijk maken hun toepassingen op een gestructureerde en geïntegreerde wijze aan te bieden. Voorbeelden van diensten in deze laag zijn toegangsbeheer, identiteitenbeheer, portaalfunctionaliteiten en integratiefaciliteiten. De klant van PaaS-diensten is een professionele, technische partij die voor het uitoefenen van zijn rol dan ook de nodige vrijheidsgraden moet hebben, binnen vastgelegde grenzen. In dit systeem wordt het framework en de infrastructuur beheerd door de dienstverlener en kan de gebruiker verder instaan voor de applicaties. Er is dikwijls ook sprake van faciliteiten voor het ontwikkeling. Hier wordt vaak gewerkt met een ontwikkelingstaal of framework zoals Python, .NET of Java waarin zijn functionaliteiten kan definiëren.
Voorbeelden: PayPal, Google App Engine, Amazon S3, Rackspace Cloud Sites,...

Cloud Infrastructure: Infrastructure as a Service (IaaS)
In deze laag wordt de infrastructuur aangeboden via een virtualisatie of hardware-integratie. In deze laag vinden we de servers, netwerken, opslagcapaciteit en andere infrastructuur. Dit laat de gebruiker volledige vrijheid toe over de hardware. Hier is dus ook kennis nodig over de drie lagen en het onderhoud ervan.

[Reactie gewijzigd door Anoniem: 34296 op 23 juli 2024 14:51]

Het lijkt er op dat dit topic onderdeel is van een marketing campagne waarin we Microsofts visie op cloudcomputing krijgen.
Dit is een artikel, geschreven door een Journalist. Gelijktijdig is daar een reclame campagne van een speler op los gelaten. De inhoud van het artikel laat echter geen Microsoft specifieke zienswijze zien.

staat overigens ook in de .plans van de redactie.
In mijn optiek slaat dit artikel de plank volledig mis. Volgens het artikel is cloud computing weinig nieuws onder de zon vanuit de technische kant. Hiermee ben ik het eens, je moet echter niet vanuit de techniek denken, maar vanuit de gebruikers en beheerders.

Allereerst vanuit beheerderkant. Voor beheerders is de interne cloud een groep servers die services draaien. Weinig nieuws. Echter wat nieuw is, is dat de interne cloud en externe cloud werken als één beheerd geheel. Voor de beheerder maakt het niet uit of de service waaraan hij aanpassingen maakt op een lokale of remote server draait, ze gedragen zich hetzelfde. Geen gezwam met VPN opzetten o.i.d.

Hetzelfde zie je aan de gebruikerskant. Als gebruiker zijnde wil je al helemaal niet zeveren met VPN en die dingen. In een oude ‘klassieke’ omgeving, moet de gebruiker in zekere zin de IT infrastructuur van het bedrijf kennen. Bepaalde dingen moet je VPN voor openen, andere niet. Sommige programma’s moeten ze via het internet starten, andere via Citrix. Als gebruiker wil je dat niet. Het moet naadloos op elkaar aangesloten zijn, met wat voor applicatie of server je op dat moment ook werkt. En dat is waar cloud computing een toekomst heeft. Gewoon hun machine aanzetten, of die nu van hunzelf is of van het werk, en aan de slag kunnen gaan.

Cloud computing mag technisch dan niet ontzettend innoverend zijn, maar het is een compleet nieuwe manier van denken voor IT’ers: Vanuit de gebruiker in plaats van vanuit de techniek.
Anoniem: 135756 @Ruuddie11 juli 2010 19:34
Klopt, Cloud is ook niet "technisch' iets nieuws.
Het is een concept, een manier van werken waarbij verschillende andere technieken die het concept "cloud" mogelijk maken aan bijdragen.

Wat mij betreft blijft de naadloosheid van applicaties over het internet een toekomst voor de browser. Ik denk dat het OS en de browser inderdaad steeds meer (volgens Google's model) een geheel gaan worden en wat wij nu de browser noemen eigenlijk een "super client" gaat worden voor applicaties over het internet als onderdeel van het OS.
Het enige wat moet gebeuren is "web" applicaties rijker, sneller en interactiever maken binnen een browser tot het punt dat deze nagenoeg gelijk zijn aan lokale applicaties.
Uiteraard blijft er een discrepantie bestaan tussen deze twee en blijven lokale applicaties altijd bestaansrecht houden, er is echter een zeer groot deel van de software markt die prima over het internet "remote" aangeboden kan worden.

Dat is nu dan wellicht via Citrix of een web applicatie (die nu nog onderdoet voor een lokale applicatie) maar ik zie niet in waarom dat in de toekomst niet met webstandaarden gerealiseerd kan worden.
Cloud´s bestaan al heel erg lang volgens mij hoor! IBM had van die PDA die verbinding maakten met een centrale server en volgens mij is dat eigenlijk de eerste vorm. (thin-clients is volgens mij van origine van IBM????)

In iedergeval ik vondt het nogal intressant en zag in de winkel Linux magazine liggen en daarin stond dit onderwerp dus ook.

Een cloud is geen virtualisatie, maar wat wel kan is meerdere clouds op een server draaien doormiddel van virtualisatie!

Wat is een cloud dan eigenlijk? In mijn ogen is een cloud niets anders dan allemaal apparaten die hun core proces op externe hardware hebben staan en daarmee verbinden.

Nadeel is valt/vallen deze server(s) om en is er geen back-up dan krijg je regen want werkt de hardware niet meer tot gedeeltelijk want alles is afhankelijk van deze kern!

De voordelen zijn simpel vooral in combinatie met Hyper-v, Xen en KVM of andere virtualisatie kun je enorm op je hardware kosten, stroomkosten en onderhoudskosten besparen en daarnaast is het ook makkelijker de beheren omdat je in plaats van 100 servers er nu nog maar bijvoorbeeld 2 neer hoeft te zetten!

Het concept is eigenlijk super oud want het wiel wordt gewoon opnieuw uitgevonden:

In feite is werkt elke Unix en Unix based systemen eigenlijk al als cloud of kunnen makkelijk al als cloud functioneren.
GNU/ Hurd is eigenlijk helemaal een cloud besturingssysteem.

Wat is er nu aan de hand: Vroeger bestonden er vooral interne clouds in bedrijven en was dit meestal niet echt extern maar met de huidige technologie
wordt de verbinding sneller voor extern gebruik. En daar zit MS nu mee in zijn maag want alle Unix varianten werken voor een deel al als een cloud (x kun je uitbreiden met xserver en dan kun je het bureaublad of de gebruiker vanaf afstand laten verbinden)
En dat is dus het voordeel want kleine apparaten moeten kleiner dus de batterij moet kleiner en de overige hardware mag dus geen grote berekeningen doen, en daar is een cloud dus geschikt voor want die stuurt alle berekeningen of naar centrale servers of verdeeld deze over andere apparaten in de cloud waardoor het apperaat zelf niet krachtig hoeft te zijn en vollop stroom bespaard! Maar je hebt wel een goeie (internet) verbinding nodig want al is een cloud nog zo krachtig zonder de (core of andere apparaten kan het bijna tot niets!) (eigenlijk lijkt het heel erg op de Borg uit star trek, met name GNU Hurd)

Windows kan dat niet goed want die hebben geen lagen systeem. En stelt ook veel meer en hogere hardware eisen en dus meer energie verbruik en resource gebruik (Fedora core 11 gebruikte bijna de helft minder als Windows 7) Wat hebben ze toen bij MS bedacht we gebruiken het wordt cloud maken er een hype van!!

Om een bestaande Linux distro uit te bouwen met een cloud is er bijvoorbeeld X2go.
Maar ook bijvoorbeeld: Icloud, Glide EyeOS, Lucid, CorneliOS, OwnCloud-->KDE (wat is Nokia in vredesnaam van plan?), Chromium OS,

Gnu Hurd: http://www.debian.org/ports/index

Wat we eigenlijk in de toekomst kunnen verwachten is een mobiel die zijn berekeningen extern doet of samen. En waarbij bijvoorbeeld alleen de beeldverwerking, toetsenbord en muis nog lokaal wordt verwerkt en verstuurd via internet en locaal niet teveel stroom vreet!

Dit zijn dus wel de afhankelijkheden: Eigenlijk komt het er op neer dat je in de toekomst gewoon thuis een bakbeest van een server neer zet. Daar call of duty of wat dan ook op installeerd en dat deze via een echte super hi-speed internet verbinding het beeld enzo streamt naar je mobiel waarna je mobiel je acties terugstreamt en deze verwerkt!
Nu kun je dit eigenlijk dus ondervangen op 2 manieren:
1 je zorgt voor een supersnelle internetverbinding en processoren in de telefoon die beelden en streams super snel kunnen verwerken!
of 2 je zorgt voor een pc die slim genoeg is om de vertraging en de snelheid van de telefoon en de stream in te schatten en houd hier rekening mee.
Maar zover zijn we nog lang niet!
Het gaat nu eerst om office applicaties en een beetje browsen!

Google is er nu vollop mee bezig maar moet verdienen en dat doen ze met informatie waardoor er onnodig gebruik wordt gemaakt van dataverkeer richting een centraal punt.

Apple is ook aardig ver maar wil alles controleren wat eigenlijk het zwakke aan de eventuele cloud is.

IBM is heel ver maar is niet echt maatschappelijk gericht--> meer op bedrijven dan particulieren.

Nokia is vollop aan het klooien met van alles en nog wat en ja dat duurt even en zal ook nog wel even duren. Maar innovatie gebeurt niet zonder mislukking ik denk dat vooral dit bedrijf voor particulieren interessant is op het gebied van clouds.
(De N900 kan bijvoorbeeld aardig wat dingen die wel naar toekomst muziek gaan! Maar is eigenlijk ook maar nog een testtoestel en dat is te zien, want reclame? Bijna niet en dat was met de N800 en N810 ook net zo!)

Het was overigens linux magazine nummer 117 (wel engels) mag je dat er bij zetten eigenlijk?
Internet is in weze al 1 grote computer. Net zoals veel programma´s in weze uit een uit een aantal elkaar aanvullende programma´s bestaat zou je het gros van alle programma´s dat op internet draait ook als 1 groot programma kunnen zien. Ik denk dat we uiteindelijk internet zullen gebruiken als een uniform systeem met 1 enkel programma dat alles kan, met de browser als frontend. Over een tijdje draait tweakers.net voor een miniem deel op de processor van mijn wasmachine, als deze de processorcapaciteit niet volledig benut. een ander deel draait op jou koelkast en natuurlijk op wat grotere servers die op dat moment ruimte en tijd hebben, volledig dynamisch zich verplaatsend naar beschikbare hardware voor een optimale efficientie.
Anoniem: 365477 7 juli 2010 09:10
Interessant nieuws bericht maar cloud computing is in principe toch alles wat wij al doen of heb ik het nou helemaal verkeerd begrepen.
Tja zoals je in het nieuwsbericht kan lezen is daar veel onduidelijkheid over wat nu onder de definitie "cloud" valt.

Persoonlijk denk ik dat het hele internet al gewoon een wolk is met allerlei rondvliegende data. Volgens mij is het ook gewoon een marketing truc door alles "cloud" te noemen.
Ik vind het ook een marketing truc. Het is voor mij net als Web 2.0 gewoon een buzzword. Wat cloud computing precies is hangt af van aan wie je het vraagt en wat je eisen zijn. Web 2.0 betekent ook verschillende dingen voor verschillende mensen.
Ik snap bijvoorbeeld ook niet waarom cloud computing het logisch vervolg is op virtualisatie. In het artikel wordt er op een gegeven moment gesproken over client-server applicaties die omgebouwd zijn naar web services (volgens mij veranderd de architectuur zelf daar helemaal niet zo heel veel door, maar dat terzijde), CRMs en Utility Computing, maar op de volgende pagina wordt er opeens gezegd:
Het moge duidelijk zijn dat het concept van cloud computing niet zou bestaan zonder virtualisatie.
Er wordt me, met de info op die pagina, echt niet duidelijk waarom er perse zaken gevirtualiseerd moeten worden voor cloud computing. Er staat alleen "en toen VMWare en toen hypervisor en toen Xen en MS en toen pizzadoosjes". Ik weet verder ook niet wat voor definities er worden gehanteerd. Voor mij betekent virtualisatie
dat er een omgeving wordt gesimuleerd waarin software draait en het kan gerealiseerd worden op verschillende niveaus (hardware, OS, VM, etc). Waarom is cloud computing dan geen vervolg op bijvoorbeeld Web Services en andere vormen van middleware waarmee SaaS gerealiseerd kan worden? Daar wordt verder helemaal niks over gezegd, terwijl je daarmee ook de complexe zaken zoals hardware weg kan abstraheren. Je kunt het op verschillende manieren transparant maken voor gebruikers. Daar heb je bijvoorbeeld helemaal geen VMs voor nodig. Ik geef toe dat je met virtualisatie het snelst zaken (zoals oude software) aan de praat krijgt en dat dat het minst hoeveelheid geld kost, maar dat gaat absoluut ten koste van software prestaties, snelheid en geheugengebruik wat je met andere vormen van middleware kan oplossen. Dat gaat natuurlijk extra veel tijd en geld kosten, dat snap ik natuurlijk ook, maar virtualisatie is voor mij gewoon niet de de oplossing voor "alles".
Hier nog even een paar citaten wat ik van Wiki heb overgenomen (om nog even wat meer kracht achter m'n punt te zetten):

Ellison van Oracle: cloud computing has been defined as "everything that we already do" and that it will have no effect except to "change the wording on some of our ads"

Stallman van FSF: cloud computing was simply a trap aimed at forcing more people to buy into locked, proprietary systems that would cost them more and more over time. "It's stupidity. It's worse than stupidity: it's a marketing hype campaign", he told The Guardian. "Somebody is saying this is inevitable – and whenever you hear somebody saying that, it's very likely to be a set of businesses campaigning to make it true."

Het mag nu duidelijk zijn waarom ik het gewoon een Web 2.0-achtige buzzword vind en dat er een gebrek is aan kritiek en zelf-reflectie in het artikel.
Ik vind het ook een marketing truc. Het is voor mij net als Web 2.0 gewoon een buzzword. Wat cloud computing precies is hangt af van aan wie je het vraagt en wat je eisen zijn.
Cloud Computing (in de vorm van Software as a Service) is geen marketing truc.
Google heeft een complete office suite in de cloud draaien. (Google Apps)
Bedrijven als Salesforce.com en Zoho bieden een compleet CRM pakket uit de cloud.
Het enige wat de IT manager hoeft te doen is de credit card trekken.

Er is geen hardware of besturingsysteem wat beheerd hoeft te worden, dus de systeembeheerder kan wegbezuinigd worden. Tenzij de systeembeheerder zo slim is zich te verdiepen in het beheer van de online applicatie. ( Want ook dat moet vaak ingeregeld / gefinetuned worden.)
Ik denk dat de rol van de systeembeheerder bij SaaS zal veranderen naar een applicatie beheerder die meer inzicht moet hebben in de processen die binnen een bedrijf spelen.

Eindgebruikers gebruiken steeds vaker online applicaties. Ze zijn gewend aan de beschikbaarheid van deze online applicaties en ze zullen dit ook gaan eisen van interne bedrijfsapplicaties.

Kleine bedrijven / start-ups zullen dan snel kijken naar SaaS. ( Google Apps / Salesforce.com )
Je hebt dan geen startup kosten, maar je neemt een dienst als abonnement af.

Bij grotere bedrijven spelen andere zaken, als:
  • Beschikbaarheid van informatie. ( Kan ik altijd bij mijn bedrijfsgegevens? Is de internetverbinding redundant uitgevoerd? )
  • Veiligheid van data. ( Hebben alleen users met de juiste rechten toegang tot informatie? )
  • Wetgeving. ( Is de veiligheid van financiële gegevens gewaarborgd? Wordt een record verwijdert als een user niet meer bestaat? )
Bij de private cloud heb je deze zaken zelf in de hand. Heb je een beperkt aantal applicaties, dan hoef je idd niet te virtualiseren. Je kan clusteren op server of applicatie niveau.

Als je echter verschillende server systemen hebt (Win2k8 server, Linux, enz) en / of als je een Virtual Desktop omgeving gaat draaien, dan is het handig om naar virtualisatie te kijken.
Er wordt me, met de info op die pagina, echt niet duidelijk waarom er perse zaken gevirtualiseerd moeten worden voor cloud computing. Er staat alleen "en toen VMWare en toen hypervisor en toen Xen en MS en toen pizzadoosjes". Ik weet verder ook niet wat voor definities er worden gehanteerd.
Met het doorontwikkelen van de management-software zien we dat het beheer van de virtuele machines steeds verder geautomatiseerd wordt. Zo kan bijvoorbeeld op basis van policy's worden besloten dat virtuele machines over meer servers worden verspreid als blijkt dat een bepaalde applicatie meer capaciteit nodig heeft. In de stille uurtjes kunnen virtuele machines juist weer worden samengepakt op een kleiner aantal systemen, zodat de niet gebruikte hardware uitgeschakeld kan worden, wat energie bespaart. Voor horizontaal schaalbare applicaties - denk aan webservers - zou je, afhankelijk van de drukte, ook het aantal actieve virtuele machines automatisch kunnen laten opschalen.
Met VMWare AppSpeed zou je dit kunnen doen. Valt de performance van een VM onder een bepaalt niveau, dan kan je binnen VMWare deze VM eenvoudig clonen naar een andere (blade) server of je kan bestaande VM's verdelen over meer hardware. Dit zou je zelfs over verschillende data centers kunnen doen.

Cisco ACE is een loadbalancer. Hiermee kan je bijvoorbeeld HTTP verzoeken verdelen over verschillende webservers. Er is een plugin voor VMWare, waarmee je de loadbalancer kan beheren vanuit VMWare. Wanneer er een VM wordt opgestart, wordt deze automatisch aan de server pool toegevoegd waarover geloadbalanced wordt. Dit is geen virtualisatie, maar automatisering van virtualisatie. En het zorgt er voor dat een applicatie altijd beschikbaar is. ( Ongeacht de vraag naar de applicatie. )

Grote bedrijven kunnen VM's binnen hun eigen cloud omgeving draaien. ( Private Cloud )
Kleinere bedrijven kunnen hun VM's bij vCloud providers onder brengen.
Een andere mogelijkheid is een private cloud en je VM's verplaatsen naar een vCloud provider
als uitwijk, of als je even meer computing capaciteit nodig hebt. (Het hybride model. )

Maar ik geef toe dat het artikel niet echt volledig is.

[Reactie gewijzigd door Bl@ckbird op 23 juli 2024 14:51]

Interessante reacties, maar ik heb ook enige bedenkingen:
Enkele opmerkingen:
Cloud Computing (in de vorm van Software as a Service) is geen marketing truc.
Google heeft een complete office suite in de cloud draaien. (Google Apps)
Bedrijven als Salesforce.com en Zoho bieden een compleet CRM pakket uit de cloud.
Het enige wat de IT manager hoeft te doen is de credit card trekken.
Dit soort office suites worden weliswaar steeds beter, maar het is gewoon een evolutie van een input box met meer en meer mogelijkheden tot opmaak en opslag van data. Het is nog altijd niet vergelijkbaar met een complete office suite, maar zal dat uiteindelijk wel zijn en mogelijk overtreffen - incl plugins en addons. Blijft het punt dat het niets nieuws onder de zon is.
Er is geen hardware of besturingssysteem wat beheerd hoeft te worden, dus de systeembeheerder kan wegbezuinigd worden. Tenzij de systeembeheerder zo slim is zich te verdiepen in het beheer van de online applicatie. ( Want ook dat moet vaak ingeregeld / gefinetuned worden.)
Ik denk dat de rol van de systeembeheerder bij SaaS zal veranderen naar een applicatie beheerder die meer inzicht moet hebben in de processen die binnen een bedrijf spelen.
mee eens, maar hier speelt absoluut de vendor lock-in weer, vooral zolang je geen zekerheid hebt dat er een export mogelijkheid is / komt / altijd zal zijn - kan daarmee snel een hoog risico worden, en de prijs idem dito.
Eindgebruikers gebruiken steeds vaker online applicaties. Ze zijn gewend aan de beschikbaarheid van deze online applicaties en ze zullen dit ook gaan eisen van interne bedrijfsapplicaties.
Eind gebruikers zullen ook blijven verwachten dat hun data door verscheidene applicaties kunnen worden geopend en gebruikt, alweer de vendor lock-in problemen. Kies je voor google apps, kun je je data niet zomaar met een microsoft live app openen (betere voorbeelden mogelijk ;-)). Je bestanden zijn dus al snel verdeeld en niet op gelijkwaardige wijze toegankelijk.

Persoonlijk zie ik dan liever dat de pakketten gewoon weg werken met lokaal toegankelijke data (zoals bijv een experimentele app als http://pixlr.com/ ). Je data laat je dan door een appart gekozen aanbieder hosten zodat deze ook backup en bestandsdeling kan regelen (dus een mounted location). In die situatie kies je dus je applicaties los van je data, en zijn de verschillen tussen lokale apps en cloud apps echt nauwelijks te zien. Enige nadeel is dat zonder een extra hulp stuk er soms grote hoeveelheden data opgehaald en weggeschreven moeten worden... maar daar is best een een mauw aan te passen door online apps zelf een mount te laten doen en hun meestal veel betere internet verbindingen te gebruiken...
Kleine bedrijven / start-ups zullen dan snel kijken naar SaaS. ( Google Apps / Salesforce.com )
Je hebt dan geen startup kosten, maar je neemt een dienst als abonnement af.

Bij grotere bedrijven spelen andere zaken, als:

* Beschikbaarheid van informatie. ( Kan ik altijd bij mijn bedrijfsgegevens? Is de internetverbinding redundant uitgevoerd? )
* Veiligheid van data. ( Hebben alleen users met de juiste rechten toegang tot informatie? )
* Wetgeving. ( Is de veiligheid van financiële gegevens gewaarborgd? Wordt een record verwijdert als een user niet meer bestaat? )
Speelt ook bij kleinere bedrijven, maar zal misschien in het begin minder hoog op de agenda staan. Toch heeft juist een klein bedrijf ook vaak geheimen die als ze bij derden terecht komen de hele kans op overleven verknallen. Denk aan een nieuwe uitvinding of dienst. Als data extern staat kun je alleen enige zekerheid halen uit het lokaal encrypten ervan, maar dat haalt waarschijnlijk alle functies weg bij de saas.

Nog een aanverwante zaak:
Zelf denk ik dat veel bedrijven en it-ers veiligheid van hun bedrijfs geheimen sterk overschatten. Veelvuldig zie ik bewijzen van pogingen om bedrijfs geheimen te stelen, en veelvuldig zie ik dat daar te weinig reactie van komt. Punt is dat de gevolgen van gestolen bedrijfsgeheimen veelal niet goed zichtbaar zijn - wat niet weet wat niet deert?
Bij de cloud heb ik hier dus extra bedenkingen over, want hoe moeilijk is het om iemand te laten solliciteren bij zo'n aanbieder en daar gebruik te maken van zijn toegang om af en toe het een en ander door te sluizen? Paranoïde? Ik denk het niet hoor! :X
Ik snap bijvoorbeeld ook niet waarom cloud computing het logisch vervolg is op virtualisatie.
Een poging:
Virtualisatie begon als 1 computer opdelen in meerdere virtuele,
toen konden die virtuele computers over een netwerk gebruikt worden, 'remote computing',
de cloud kan men zien als 'distributed remote computing (grid)'.

Dus wat is gebeurd, is dat de virtualisatie gedistribueerd wordt, en gedistribueerde systemen zijn vziw per definitie elastisch.

Op zich weinig nieuws denk ik, het is alleen de doorbraak van 'gedistribueerde rekenkracht op afstand" binnen het bedrijfsleven die we nu meemaken, waar dat dit vroeger alleen voor onderzoek (The GIMPS, Plan9, Inferno e.d.) werd gebruikt.

[Reactie gewijzigd door kidde op 23 juli 2024 14:51]

Je snapt me niet, je hebt voor 'remote computing' helemaal geen virtualisatie nodig.
Volgens mij is het ook gewoon een marketing truc door alles "cloud" te noemen.
Pffffff ... Cloud is zooooOOO 2009.

Echte trendsetters zijn allang met de NextGen iCloud HD bezig. 8-)

Maar idd; sommige producten worden als cloud dienst gelabeld waar je best aan je hoofd kan krabben of het in feite niet meer dan een beetje "thin air" is.

Voorbeeld: The Steam Cloud.

Provides Steam users with the ability to store game settings and saves on a central server.

Wauw!

Besides dat dit best wel kewl en handig is ... denk dat een savegampje nog geen cloud maakt omdat het "anywhere, anytime, (any device)" is. In dat geval is de Google cache, Battle.NET, AppStore of het bestel portaal van Albert ook een wolk. (En dat is het in feite ook ... niets nieuws ... gewoon een label)

Waar ik me zelf wel een beetje zorgen om maak met al deze diensten die de laatste jaren echt uit de grond gestampt worden is het vendor lock gehalte. Ik durf te wedden dat over een aantal jaar het EU parlement weer achter de feiten aanloopt omdat een bepaalde dominating cloud service enkel bepaalde producten aanbiedt. Er moet juist NU iets mee gebeuren: cloud producten/services moeten (fysiek :)) tussen de leveranciers uitgewisseld kunnen worden. Dus net zoals het kan met je mobiele nummer, moet die hele berg aan Steam games of die rack vol met virtuele pizzadoosjes eenvoudig overgezet worden naar een andere distributeur. De consument betaalt voor de storage van het product in de cloud. Welk product er in deze infrastructuur gebruikt word moet losgekoppeld zijn.

Maar ja ... zo'n mistig concept als een cloud service uitleggen aan politicus .... :S
... mistig concept .... laaghangende cloud .... :) lol
Anoniem: 34296 @BramT9 juli 2010 13:37
Cloud computing is weinig interessant, slaap maar lekker door. Dat is de indruk die dit stuk bij mij althans opwekt. Het stuk is tegenstrijdig, aan de ene kant probeert het cloud voor te stellen als iets ouds en later in het stuk als iets dat nog moet komen.

Aan het begin van het stuk probeert men het idee te verspreiden dat cloud een vaag begrip is dat niet bestaat en aan het einde probeert men er een hele begrensde invulling aan te geven die commercieel niet levensvatbaar zou zijn. Bovendien probeert men een omslachtig, langdurig migratiepad voor te houden dat weinig met cloudcomputing te maken heeft, maar eerder Microsofts antwoord is op cloudcomputing.

Ik denk dat bedrijven als Microsoft bezorgd zijn, reken maar, want ze verliezen constant marktaandeel. Niet voor niets proberen ze een bedrijf als Salesforce in de wielen te rijden dmv patent rechtzaken:
Salesforce.com reageert op patentzaak Microsoft
Dient zelf klacht in
28 juni 2010 | Jibbe Van Oost

Salesforce.com beantwoordt een juridische klacht van Microsoft met een andere juridische klacht. Het gaat in beide gevallen over patenten.

De cloudspecialist Salesforce.com heeft bij een Amerikaanse rechtbank klacht ingediend tegen Microsoft. Een aantal Microsoftproducten zoals het .Net-platform en de samenwerkingssoftware SharePoint zouden patenten van Salesforce.com schenden.

Volgens de ingediende documenten zijn de patentschendingen zo duidelijk dat Microsoft er wel van op de hoogte moet zijn. Salesforce.com vraagt daarom een geldelijke vergoeding die drie keer zo hoog ligt als de geleden schade. En het eist ook dat Microsoft stopt met technologie van Salesforce.com te gebruiken.
Dit geeft aan dat MS in ieder geval wel degelijk bewust is van het gevaar van cloudcomputing.

Als je dit stukje leest dan zou cloudcomputing vooral een technische ontwikkeling zijn. Daarbij zou het draaien om het virtualiseren van de eigen machines + os + applicaties. Als dat cloud zou zijn, dan zou het inderdaad nauwelijks voordeel brengen. En daarom is het vreemd dat dit als logisch upgradepad voor de organisatie voor wordt gesteld. Eerste de eigen servers virtualiseren en dan de eigen clients.

Zo zal ms het graag zien want dit kost ongetwijfeld de organisaties alleen maar meer geld. Want alles blijft bij het oude je virtualiseert het alleen maar.

In mijn ogen is dat geen cloudcomputing. Ik denk dat cloud computing voor IT'ers een moeilijk concept is omdat het juist geen technisch concept is. Cloudcomputing is een revolutie die het landschap drastisch gaat veranderen.

IT'ers moeten zich iets realiseren: bedrijven hebben geen behoefte aan automatisering. Dat is misschien moeilijk te bevatten voor sommige IT'ers, maar bedrijven hebben dat niet. Wat bedrijven nodig hebben zijn manieren om hun middelen, proces en inforrmatiestromen te beheren. Dat heeft an sich niets met IT te maken, in het verleden deden ze dat met papier en ook daar konden ze hele wereldrijken mee besturen. Het is vooral een kwestie van organisatie.

Het middel moet niet verward worden met de technologie waarin ze gegoten wordt. De manier waarop we deze middelen organiseren verandert ook steeds. In de begintijd hadden bedrijven systemen waar alles centraal verwerkt, beheerd en uitgegeven werd. Dat paste bij de structuren zoals die reeds bestonden. De macht daarover is volledig in handen van een elite van specialisten.

In de sixties kwam er een revolutie waarin jongeren rebelleerden tegen centraal, autoritair gezag en individualisme komt op. Dit leidt tot de opkomst van de PC waarin de gebruiker alles zelf beheert en delen een sociale aangelegenheid wordt.

Daarna komt de periode van verzakelijking. De PC's worden tot netwerken gevormd en er is een terugkeer naar centrale opslag, maar verwerking blijft voor een groot stuk decentraal. Geleidelijk aan zien we dat de rechten van de individuele gebruiker weer steeds verder worden ingeperkt. Decentrale verwerking betekent niet langer decentrale zeggenschap. Wederom is de macht weer volledig in handen gekomen van een elite van specialisten.

Maar de wereld ontwikkelt zich verder, zij mondialiseert. Computers gaan deel uitmaken van een globaal netwerk. Dit netwerk is niet centraal georganiseerd. In eerste instantie draagt dit netwerk slechts informatie. Maar in toenemende mate gaat dit netwerk diensten leveren. En nu gaan we de fase in dat deze diensten gaan concurreren met de diensten die lokale netwerken leveren aan hun gebruikers. Bedrijven waren al bezig diensten in te huren van andere bedrijven, maar nu ontstaat er een open, vrije markt waarop aanbieders en vragers opereren.

En dit leidt tot een revolutie. De diensten die nu in company worden geproduceerd, kunnen straks buiten het bedrijf worden geproduceerd. De informatie infrastructuur kan buiten het eigen bedrijf worden gebouwd op computers van anderen. En men is niet meer gebonden aan die anderen, want door het open karakter is men veel minder afhankelijk van de aanbieder. De homogeniteit leidt tot veel lagere kosten.

Nee we gaan natuurlijk niet loodzware systemen als Windows 7 virtualiseren en laten draaien op servers van anderen. Dat mag vanuit beheersperspectief aantrekkelijk zijn, vanuit kostenperspectief is dat niet voordelig. Dat is ook geen tussenstap naar de cloud, dat is een doodlopende straat.

Wat bedrijven gaan doen is cloud diensten afnemen. Neem maar eens Gmail. Waarom zou je je eigen mailservers opzetten met exhange als je veel voordeliger, veiliger, gemakkelijker van gmail gebruik kan maken?

In eerste instantie kunnen applicaties in de cloud de frontend worden voor gevenssystemen in de backend. Maar het is ook heel voordelig om de data zelf naar de cloud worden te laten migreren. Als je het nieuw opzet dan doe je beide.

Nee je gaat niet bestaande systemen virtualiseren, dat virtualiseren laat je over aan de aanbieder van clouddiensten en daar maak je alleen gebruik van voor specialistische functies. Dit soort diensten is nog vol op in ontwikkeling. Diensten als Onlive Gaming laten echter zien wat straks mogelijk is. Zo kan het heel zinvol zijn om dure grafische applicaties in te huren.

Maar op langere termiijn hoeven die niet meer gevirtualiseerd te worden, er zullen webapplicaties komen die hetzelfde kunnen.

Bedrijven zullen verlost raken van de macht van de IT-specialisten. En zo hoort het. We zijn toch ook niet overgeleverd aan de macht van vervoers-techneuten als we ons willen vervoeren. Nee, we kunnen kiezen uit een groot aantal mogelijkheden zonder ons afhankelijk te maken. Ik kan een auto kopen, huren, openbaar vervoer gebruiken en ik kan mijn auto bij elke garage laten servicen. De auto is gewoon een gebruiksmiddel.

En zo zullen hun organisaties behoeften kunnen gaan loskoppelen van de macht van automatiseringsdeskundigen. Het zal een normaal product gaan worden, net als andere producten. Een product dat je inkoopt of inhuurt en kan laten servicen door wie je wilt. Veel goedkoper, en met veel minder rompslomp.

Niet de legacy technologie moet naar de cloud worden gebracht, de diensten die er op draaien moeten naar de cloud worden gebracht. Anders doe je niets anders dan dure licenties en je afhankelijkheid daarvan in stand houden.

Inderdaad als dit cloud computing moet voorstellen dan is het niet veel. Maar dat is geen cloudcomputing. Cloudcomputing is niet OS+Applicaties scheiden van hardware, dat is vitualisatie.

Nee cloudcomputing is de diensten zelf scheiden van de hardware + OS + Applicaties. De diensten worden geleverd door webapplicaties die op open standaarden zijn geschreven. Windows en windows applicaties verdwijnen. Weg dure licenties.

De hardware kan inderdaad overal staan. Maar dat is geen zorg meer van het bedrijf, hij laat dan aan anderen over die hij vertrouwt. Dat is flexibeler, goedkopere en veiliger. Er zullen een groot aantal aanbieders komen.

Zal het echt veilig zijn? Is een bankkluis veiliger dan een eigen kluis? Natuurlijk is de bankkluis veliger. Veiligheid zal een belangrijk aspect van het product zijn dat ze bieden. In al die decentrale netwerken is er nu een enorme overcapaciteit. Apparatuur en licenties die maar ten dele worden gebruikt. Een grote aanbieder kan zijn capaciteit veel beter afstemmen.

Is cloud vaag? Ik zou niet weten waarom. Het woord zegt het redelijk goed. Diensten en data zijn niet meer gebonden aan een vaste plaats op de grond, Diensten draaien straks niet meer op eigen netwerken op eigen apparatuur, maar op het web. En ook de data zijn losgekoppeld van een vaste locatie op de grond. De fysieke plaatsen zullen veranderlijk zijn en onbelangrijk worden.

Met de cloud verdwijnt het technische aspect dat zolang de bedrijfsprocessen heeft gedomineerd naar de achtergrond. De bedrijfsleiding kan zich in de toekomst volledig concentreren hoe zij die processen gaat vormgeven zonder zich druk te maken om de problemen rond de informatietechnologie,

De beheerders zullen steeds meer bij de dienstverlenende bedrijven komen te werken. Bedrijven zullen behoefte hebben aan personen die verstand hebben van bedrijfsprocessen en deze kunnen vormgeven en onderhouden, maar veel minder aan techneuten die hardware begrijpen.

In dit hele verhaal komen bedrijven als Microsoft op den duur helemaal niet meer voor. Wat Microsoft biedt is geen opstap naar cloudcomputing. Wat MS gaat bieden is virtualisatie van de bestaande situatie om haar licenties in stand te houden. Daarmee kan je beheer vereenvoudigen, downtijd verminderen, compatibiliteitsproblemen oplossen, maar je haalt niet de voordelen van cloudcomputing binnen, dwz. diensten loskoppelen van de technologie.

Microsoft zal nimmer de diensten loskoppelen van technologie. Haar hele bedrijfpolitiek is juist gebaseerd op het tegenovergestelde: diensten vastklinken aan vendor technologie. MS kan geen migratiepad naar de cloud bieden. Dat is haar vragen om haar eigen begrafenis te organiseren.

Jammer voor MS. De nieuwe mens ontwikkelt een heel andere houding tot techniek. Dit wordt heel goed begrepen door bedrijven als Google en Apple. Mensen willen geen dingen meer die ze moeten aanleren. Ze willen dingen die je kunt gebruiken. Een iPad wordt hooggewaardeerd door mensen van jong tot oud, van moeders tot captains of industry omdat je het zo kan gebruiken. Geen handleiding nodig. De technologie er achter is volledig transparant gemaakt.

Deze ontwikkeling werd al ingezet met de komst van de grafische UI. Die was ook ontwikkeld om de technoligie transparant te maken, zodat gewone mensen er mee om konden gaan. Dit proces gaat gewoon verder. Straks is de technologie zo transparant geworden dat we om het even welk apparaat kunnen pakken en er ons ding mee kunnen doen, omdat het allemaal op de cloud draait.

Noch het apparaat, nog de technologie achter de webservers interesseert ons nog, we zijn enkel nog geinteresseerd in de diensten die worden geleverd. We worden volledig verlost van de zorg om apparaten en systemen te onderhouden, data te beschermen, applicaties te upgraden. Nee we gebruiken gewoon diensten, en die beoordelen we op het gemak en mate waarin ze aan onze eisen voldoen. De rest is transparant geworden.

De IT-deskundigheid verdwijnt naar de achtergrond, zoals ook de vervoers specialist in onze maatschappij volledig naar de achtergrond is verdwenen. Er zijn er duizenden die het transport draaiende houden maar wij zien ze niet meer.

Bedrijven moeten niet gaan investeren in virtualisatie van legacy technologie, Datgene waar het omgaat, hun informatiebronnen zijn al lang gevirtualiseerd. Ze zijn alleen gestructureerd in proprietary oplossingen. Slimme bedrijven gaan die omzetten in open source web oplossingen en daarmee verkrijgen managers meer controle tegen een lagere prijs.

[Reactie gewijzigd door Anoniem: 34296 op 23 juli 2024 14:51]

Dit 'artikel' is een betere samenvatting dan het originele artikel... Ach misschien is dat mij mening omdat ik me veel meer kan vinden in dit verhaal, laten we maar zeggen mijn waarheid.
Zal het echt veilig zijn? Is een bankkluis veiliger dan een eigen kluis? Natuurlijk is de bankkluis veliger.
Natuurlijk heeft een bankkluis grotere cilinders, sloten, alarmen etc. maar de pay off is natuurlijk ook veel hoger. Kraak je de server van bedrijf A dan heb je de data van bedrijf A, kraak je de cloud van 'cloud'-provider B dan heb je data van bedrijf B tot Z...
Ik ga heel ver mee in je verhaal, echter waar ik mij zorgen om blijf maken is het feit dat je de controle over wat er met je data gebeurd, volledig uit handen geeft. Een kwaadwillende (malafide medewerker van betreffende cloud-provider -laten we er van uit gaan dat data-theft geen deel uit maakt van de bedrijfsactiviteiten van de gemiddelde provider-, hacker, veiligheidsdienst etc.) hoeft nu geen moeite meer te doen met het inbreken op een systeem - men kan nu simpelweg de volledige machine naar een andere locatie wegsluizen d.m.v. het maken van een kopie (en waarschijnlijk hoeft zelfs dat niet eens) en daar dan in alle rust alle eventuele beveiliging ongedaan maken en vervolgens alle data voor eigen gewin aanwenden.

Zelfs al gebruik je alle vormen van beveiliging die er zijn, dan nog kan niemand je garanderen dat er niets met je data gebeurt. En erger nog, het is ook totaal niet meer te detecteren als het gebeurt, voordat het te laat is en men al allerlei narigheid met je data aan het uithalen is.

Ik vraag me af hoe de 'cloud believers' dit denken te gaan oplossen.
Het veiligheidsprobleem is simpel op te lossen door je eigen cloud te bouwen, beheren en gebruiken. Mogelijk samen met andere bedrijven / instellingen die je vertrouwt.
Voor een groot bedrijf goed te doen. Voor kleine bedrijven niet, maar die zijn voor hun IT beheer toch al vaak afhankelijk van derden.
Hoi degener, mooie uiteenzetting van het concept cloud, en iets waar ik me helemaal in kan vinden!
Persoonlijk denk ik dat het hele internet al gewoon een wolk is met allerlei rondvliegende data. Volgens mij is het ook gewoon een marketing truc door alles "cloud" te noemen.
Sterker nog, het diagram symbool voor WAN en internet is een wolkje, zeker al 20 jaar. http://www.google.nl/imag...twork%20diagram%20symbols

Mogelijk heeft een marketing bolleboos zich daardoor heeft laten inspireren en is zo de term cloudcomputing onstaan. Niets nieuws, gewoon een buzzword. De interessante ontwikkeling is die van virtualizatie.
Eens, en daarnaast, er is een semantisch verschil tussen 'the cloud' en 'cloud computing' wat velen ontgaat volgens mij. 'The cloud' wordt al jaren gebruikt voor 'het internet', en cloud computing is het nieuwe buzz-word. The cloud is echter aan het veranderen (mede door cloud computing) naar 'een off-site resource die via het Internet benaderbaar is', of dat nou processorcycles zijn, storage of een complete database.

The Steam Cloud doet m.i. niet mee met die marketinghype.

[Reactie gewijzigd door Korben op 23 juli 2024 14:51]

Interessant nieuws bericht maar cloud computing is in principe toch alles wat wij al doen of heb ik het nou helemaal verkeerd begrepen.
Grof voorbeeld maar iets wat nog bijna niemand gebruikt: alle applicaties, CPU-power, storage, data en dergelijke wordt ondergebracht in een cloud bij een provider. Het enige wat jij als bedrijf/werknemer nog hebt is een kantoorpand met thinclients en een DSL-lijn naar buiten. En zo doe je je business.

In jouw kantoor staan dus geen servers meer, geen IT-afdeling, geen laptops met eigen software, geen desktops met eigen software etc.

Doe je dat al? ;)
Wil je dat ook?

Even geen netwerkverbinding: heel bedrijf kan niet meer werken.
Dat tikt lekker aan.
En wat zijn de kosten voor de internetverbinding die je dan moet aanleggen?
Dat probleem hebben de meeste grote bedrijven nu ook al, wellicht dat het personeel gedeeltelijk kan doorwerken maar je business ligt stil. Je kan dan wel e-mails schrijven aan je documenten werken enzo, maar er komt niets binnen en er gaat niets de deur uit.

Je zorgt er dan ook voor dat je internet verbinding dubbel, tripple of zelfs quadrupel is uitgevoerd (glasvezel, ADSL, Kabel, satelliet).

Het voordeel van de cloud is dat als er wat mis is met de locatie je heel makkelijk kan uitwijken naar een andere locatie.

Ik heb nu bij een klant de email niet meer op een lokale exchange server draaien, maar wordt gesynched met Google Apps Premium. Ze gebruiken ook nog Outlook 2007 (met Google Sync for Outlook) en zodat als de internet verbinding wegvalt ze nog toegang hebben tot het lokale gesynched email gebeuren. Als er nu op kantoor geen stroom aanwezig is, pand is afgebrand, etc. dan kunnen de gebruikers vanuit huis aanloggen op de email (webmail). Zelfs de backup wordt online gemaakt, deze is ook online beschikbaar en kan op die manier ook vanuit thuis worden benaderd (als ik daar toestemming voor geef). Ik ben nu bezig met Salesforce als CRM pakket wat op dezelfde manier werkt.

Ik ben zelfs simpele servers aan het virtualiseren om zo geld te besparen en de VMs zijn niet gebonden aan hardware. Dus ik kan straks de VMs die in een backup zijn meegenomen heel snel en makkelijk ergens anders plaatsen.
Probleem is denk ik dat men bij een 'hype' of 'buzz', zoals cloudcomputing nu is, veel mensen krijgt die hun hamer hebben gevonden en daarmee overal spijkers beginnen te zien. Ineens kan alles in de cloud, alles kan gevirtualiseerd worden. En hoe sneller het gedaan wordt hoe beter het is voor iedereen!

Hetzelfde deed zich redelijk kortgeleden nog voor met webbased applicaties binnen bedrijven. Nog vóór dat nuttige technieken als AJAX het mogelijk maakten om interactie te integreren in een applicatie, heeft men de voordelen van webapplicaties (alweer 'anytime, anywhere, anyhow') 'gezien' en alles wat een nieuw project was webbased gemaakt. Echter, de interactie viel tegen, volwassen ontwikkeltools lieten op zich wachten en uiteindelijk zijn er heel veel applicaties opgeleverd welke (webbased!) véél beter (en goedkoper) zouden zijn wanneer er een meer afwachtende houding was aangenomen. 'Normale' server-client software had zeker toen véél meer mogelijkheden aan zowel gebruikerskant als de ontwikkelkant (methodes, talen, omgevingen de hele rambam was vér voor op wat men kon met de eerste versies van bijv. PHP). De statische HTML formuliertjes (met een scripttaal daarachter) van toen waren dus in feite een stap achteruit in een heleboel opzichten.

Dit gaat zich nu ook weer voordoen. Enkelen zijn vanuit commercieel oogpunt, of vanuit early adaptors (showcases blijven leuk) oogpunt er op uit om dit soort zaken hard door te drukken. Zo wordt een klein (niet eens nieuw) bedrijf dus opgezadeld met allerlei services en contracten terwijl een veel simpelere oplossing net zo goed, zo niet beter zou werken.

Mijn devies zou dan ook zijn: pak vooral de kleine nuttige zaken op op dit moment. Zeg maar de 'quick wins'. Kijk waar een organisatie naar toe kan groeien en probeer daar het aanbod van zowel in- als externe IT services en infrastructuur op aan te passen zodat je in ieder geval voorbereid bent op de nieuwe technieken. Val nadrukkelijk niet in de 'val' van alles online of alles offline te maken. Kijk bovenal naar de toegevoegde waarde voor de eindgebruiker van een nieuwe techniek die je wilt toepassen. Wees eerlijk in wat je kan realiseren, want de 'anytime, any-, any-' klinkt natuurlijk wel machtig interessant, maar zit er voor de gebruiker werkelijk een verbetering in? Kun jij er daadwerkelijk voor zorgen dat Bedrijf X vanaf overal ter wereld zijn gehele business kan regelen tegen sterk gereduceerde kosten?

Kijk daarnaast natuurlijk ook naar de totale (en dus niet alleen de oppervlakkige) 'running costs' van hetgeen je wilt realiseren: Is het werkelijk goedkoper? Mijn inziens is er een grote kans dat de kosten gelijkwaardig zullen zijn aan hetgeen je nu al doet. In dat geval zijn de (eventuele) voordelen van nieuwe oplossingen des te belangrijker! Als laatste: houdt ook rekening met de (eventuele) nadelen van de cloud, wees er eerlijk en en negeer ze nooit. Je creëert alleen maar valse verwachtingen als je dat niet doet, en hoe je 't ook wendt of keert; dat werkt op de lange termijn altijd tegen jou (en waarschijnlijk ook de cloud).

Overigens is deze reactie meer een algemene reactie dan dat ie werkelijk reageert op Cergorach. Het was alleen een handige post om op in te haken denk ik ;-).
Dan zit je zeker ook met je hoofd in de clouds :+
Het is zeker niet allemaal zonneschijn. Met de term "in de cloud" denken de meeste mensen aan één grote wolk. Ik werk zelf op een automatiseringsafdeling van een zorgverlener en ik zie alleen maar kleine wolkjes. Alle leveranciers bieden hun applicatie aan in hun eigen wolkjes met als gevolg dat data uitwisseling enorm complex of onmogelijk is.
"De cloud" gaat over wat anders/meer dan het aanbieden van applicaties.
Aan je verhaal te horen is "cloudcomputing" (virtualisatie) nog niet klaar voor zorgverleners. Het klinkt in ieder geval niet alsof het erg convenient is.
Wat is eigenlijk een zorgverlener? Een ziekenhuis of huisarts, of een zorgverzekeraar?
Anoniem: 135756 @BadRespawn9 juli 2010 00:21
Inderdaad. Cloud computing is geen virtualisatie. Het een (virtualisatie) heeft wel het ander (cloud computing) in de hand gewerkt maar het zijn 2 totaal verschillende dingen.

Cloud computing is breed, het is echt een concept, een nieuwe manier van denken, die niet zo ineens ontstaan is maar wat meer een opeenstapeling is van technieken.
Het is wat dat betreft net zo´n term als AJAX.

Meer moet je er ook niet van maken.
Wel richt Cloud Computing zich in sterkere mate op het faciliteren van macro management teneinde standaard oplossingen efficient en cost-effective aan te bieden.

Als in:
`een ´ service kan zich ´ergens´ bevinden in ´een cloud´ en als het goed is "moet het werken want we hebben genoeg capaciteit".
We verbinden met de cloud en dan zou het moeten werken.

Ik denk dat die manier van denken voor sommige toepassingen een uitkomst is.
Er zijn genoeg, niet toegespitste, standaard oplossingen die door het principe van cloud computing simpelweg efficient zijn.

Het is zoals bijna altijd met nieuwe concepten geen heilige graal, ik denk dat je dat altijd in het achterhoofd moet houden. Net zoals SBC computing en (zeker) VDI niet de heilige graal zijn voor alles.

Elke oplossing krijgt zo zijn ultieme platform.
Zo kan ik mij voorstellen dat webhosting via cloud efficienter kan, Kantoor automatisering via een combinatie van SBC en VDI efficienter kan maar dat bijvoorbeeld een animatiestudio lekker de boel de boel moet laten en lokaal moet blijven werken.

Ik kan overigens melden aan BadRespawn dat virtualisatie en vooral Server Based Computing bij ziekenhuizen bijna een standaard is. Vooral grote ziekenhuizen.
Dat heeft met name met veiligheid te maken.
Speur maar eens naar thin clients bij ziekenhuizen VS de rest van de wereld. Er staan er relatief veel in ziekenhuizen.
Bor Coördinator Frontpage Admins / FP Powermod @BadRespawn8 juli 2010 20:49
Cloud computing != virtualisatie.

Op dit item kan niet meer gereageerd worden.