Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 41 reacties

Microsoft heeft de prijslijst voor zijn Windows Azure-cloudplatform onthuld. De nieuwe clouddienst van de softwaregigant, die in november beschikbaar moet komen, biedt de mogelijkheid om uitsluitend af te rekenen voor het verbruik.

Volgens de planning wil Microsoft in november Windows Azure lanceren, onder meer in Nederland, België en de Verenigde Staten. De clouddienst zal klanten de mogelijkheid geven om applicaties in de datacentra van Microsoft te laten draaien, maar de softwaregigant zal ook de database SQL Azure en .NET-diensten als pakket gaan aanbieden. Microsoft garandeert voor de bereikbaarheid van zijn servers een uptime van 99,95 procent, terwijl voor de opslagdiensten 99,9 procent uptime wordt beloofd.

Voor het uitvoeren van berekeningen op het Azure-platform rekent Microsoft 12 dollarcent per uur, terwijl voor elke opgeslagen gigabyte 15 dollarcent moet worden betaald. Tienduizend storagetransacties kosten 1 dollarcent. Ook de gebruike bandbreedte wordt doorberekend: ingaand verkeer kost 10 dollarcent per gigabyte, terwijl uitgaand verkeer 15 dollarcent per gigabyte moet kosten.

De basisuitvoering van SQL Azure zal 9,99 dollar per maand gaan kosten, waarbij 1GB opslag wordt aangeboden. De Business Edition van de relationele database biedt 10GB voor 99,99 dollar per maand. Leden van het Microsoft Partner Network krijgen vijf procent korting op de Azure-tarieven, terwijl software-ontwikkelaars die lid zijn van het MSDN Premium-plan de beschikking zullen krijgen over gereedschappen voor het bouwen en testen van cloudapplicaties. Microsoft wil Azure ook gaan aanbieden via zijn partners. Zij kunnen volgens de softwaregigant rekenen op extra kortingen en bovendien hun eigen diensten op de clouddienst gaan aanbieden.

Sinds de komst van Azure in november is Microsoft zich meer en meer op het aanbieden van online diensten gaan richten. Dinsdag werd nog bekend dat Microsoft begin volgend jaar Office 2010 online wil gaan aanbieden. Daarnaast investeert het bedrijf honderden miljoenen in zijn zoekmachine Bing.

Moderatie-faq Wijzig weergave

Reacties (41)

Ligt het aan mij of klinkt het allemaal wat duur in gebruik?
Wat is duur ? Cloud computing kan voor veel bedrijven interessant zijn in een bepaalde werk omgeving. Onderweg zijn en altijd je bij je data kunnen komen, automatische back up van je bestanden, met meerdere tegelijk aan een projekt werken etc etc.

Het staat nog in de kinderschoenen maar de mogelijkheden zijn legio. Het word aantrekkelijker als er meer bedrijven aan de gang gaan met Cloud computers, zowel qua prijs als produkt aanbod. Voor thuisgebruik is CC denk ik interessant als je zelf een server kan draaien om met name op de kosten te besparen.

Link naar MS Azure videodemo's :

http://www.microsoft.com/azure/videos.mspx
Dat ligt er een beetje aan wat je er precies mee doet.

Kijk maar eens wat je per maand kwijt bent aan een beetje server (en dan bedoel ik niet van die hosting pakketjes van een euro per maand, maar volledige servers/ virtual hosts). Het voordeel hiervan is denk ik ook dat je daad werkelijk voor gebruik betaald ipv. je maximum gebruik. Als je eens per dag/week/maand een enorme gebruikers piek heb (nieuws, etc.) dan moet je een server (pakket) aanschaffen die deze piek aan kan, maar de rest van de tijd zit deze te niksen, nu wordt je alleen afgerekend voor het gebruik van dat piek moment. Het kan dus erg duur of erg goedkoop zijn afhankelijk van hoe je het gebruikt.
Deze prijzen zijn vergelijkbaar met die van Amazon. En wat heet duur? Op het moment dat je sterk wisselende systeembelasting hebt, kan het best zo zijn dat betalen voor het daadwerkelijk gebruik goedkoper is dan betalen voor je piekbelasting wat je in een normale architectuur doet.
Tja, wat kost hardware, stroom,connectiviteit en onderhoud tegenwoordig?

Kijk naar een hyves ( met dacht ik 1800 servers ) een groot gedeelte van hun servers staat waarschijnlijk gewoon 12 of meer uur per dag compleet te niksen en geld te kosten.
Zij hebben volgens mij een aantal piekmomenten per dag en daarvoor hebben zij 1800 servers nodig, in de dalmomenten zouden zij misschien aan 200 servers genoeg hebben.

Dat is pas duur, 1600 servers in de dalmomenten hebben staan die wel geld kosten en stuk kunnen maar er niets voor doen...
Het spijt me zeer, maar als je zoveel servers nodig hebt voor die site dan heb je toch ook wel echt iets verkeerd gedaan zeg...Klinkt als een behoorlijk foute architectuur en enorme bagger code...

Overigens lijkt het me sterk dat juist grotere partijen hier baat bij zouden hebben. Een externe partij die zelf ook geld wil verdienen jou werk op laten knappen is meestal niet echt voordeliger dan zelf runnen mits je over de juiste kennis beschikt.

[Reactie gewijzigd door mxcreep op 16 juli 2009 12:27]

Ben wel benieuwd naar wat voor soort applicaties hierop draaien gaan. Moet ik dan denken aan webdiensten? Op de een of andere manier zijn cloud-diensten nu niet echt iets waar ik een helder beeld van heb. Iemand voorbeelden?
Webservices bijvoorbeeld: http://www.businessweek.c...009/tc20090626_823886.htm

of:
Developers can build applications using existing Microsoft tools like Visual Studio. Azure can be used to add web capabilities to existing desktop applications or to host completely cloud-based apps. In other words, you could build an online calendar or task management service and host it on Windows Azure, or you could create a desktop calendar that synchronizes with a web calendar. Or you know, something far more creative.
Ook even opgezocht hoor want cloudhosting zegt mij niet zoveel.
Mooie namen allemaal, maar om een of andere rede is de naam niet altijd even veelzeggend.

Even maar opgezocht voor degene die net als mij niet zo in de materie zitten:
http://en.wikipedia.org/wiki/Cloud_computing

[Reactie gewijzigd door nadorst op 15 juli 2009 14:34]

Je koopt een thin client van €100 en een scherm, log in op een cloud computer en plots heb je hardware van €50 000 onder controle. Zoiets maar dan nu nog in een minimale vorm om de diensten te testen :)
Ik denk niet dat dat zo genakkelijk werkt :)
Je krijgt geen windows desktop op een super-computr waar je doom op kunt spelen. En ze zullen er ook wel voor zorgen dat je niet alle resources te pakken kunt krijgen.

Het is meer dat je web applicaties gemakkelijker kunt schalen en dat je dit kunt inzetten als je eigen site een beetje overloopt.

Het is natuurlijk wel verschrikkelijk op-passen dat je applicities wel slim omgaat met resources, anders is je portemonnee zo leeg, dit geld nauurlijk voor alle cloud services...

Ries
Het is volgens mij wel mogelijk om een virtual machine voor jezelf te krijgen die je met remote desktop kan overnemen.
Nee, dat kan totaal niet. Azure is op dit moment alleen geschikt voor het hosten en web applicaties.

Je moet denken aan applicaties zoals hyves die snel groeien, normaliter moet je dan enorm investeren in infrastructuur en beheer ipv te focussen op de ontwikkeling van de site. Bij een goed ontworpen site hoef je dat soort investeringen niet meer zelf te doen en dan is het al snel reuze intressant.

[Reactie gewijzigd door CrazyBernie op 15 juli 2009 15:02]

Op dit moment maak je een applicatie die op het OS Windows Azure draait en de kracht gebruikt van de remote server. Dat is de minimale dienst.
Maar over enkele jaren is het effectief mogelijk dat je met een thin client of zelfs je €50 gsm op een zware server kan inloggen en die gebruikt. Zal schat ik wel nog een goeie 10jaar duren voor de huishoudens zijn overgeschakeld en de diehards ga je natuurlijk moeilijk overkrijgen :)
Ik denk ook niet dat het zo makkelijk werkt....
Waar ik wel benieuwd naar ben is de groei van de bandbreedte over 5 jaar, ik bedoel stel dat iedereen een 100 of misschien wel 1000 megabit internetverbinding heeft waarover waarschijnlijk internet, HD televisie en ip-telefonie overheengaan, dan zou het zomaar kunnen zijn dat je al HDMI kan streamen over IP... Het enige probleem zullen waarschijnlijk de latencies zijn mbt keyboard en muis...<complottheorie>Maar ik denk dat over een aantal jaar cloud-computing de functie van de ISP gaat overnemen en dat je als het ware inbelt met een Thin Client(al dan niet naar wens samen te stellen).</complottheorie>

Edit : Misschien een gedeelde DirectX1x-omgeving? Dat zou leuk zijn als je toch met je eigen samengestelde hardware de prestaties omhoog zou kunnen krijgen...

[Reactie gewijzigd door mvdv1981 op 15 juli 2009 14:59]

Ik denk persoonlijk dat de latencies wel mee zullen vallen... Als je nu werkt op Citrix via internet (70KBps) is het al heel goed werkbaar. Als ze dit bijv 1Mbit (let op gedeeld door 8 ) maken zal het aardig soepel lopen! Daarom denk ik dat de huis aansluitingen (met 20Mbit) nu al aardig uit de voet kunnen met de door jou voorgestelde oplossing

[Reactie gewijzigd door Mellow Jack op 15 juli 2009 15:01]

Ik heb zelf met Citrix gewerkt en inderdaad is een desktop-omgeving goed werkbaar met betrekking tot office-applicaties en databasebenaderingen en andere administratieve applicaties. Ik doel dan ook meer op de multimedia-omgeving, van videostreams tot gaming. Ik denk dat dat wel enige problemen zal opleveren, vooral wat architectuur betreft. Ik denk dat 90% van de spellen niet geoptimaliseerd is om via een IP-verbinding te spelen. Nu niet en in de toekomst niet. Dan zouden de programmeurs een geheel nieuwe omgeving moeten schrijven om de latencies tegen te gaan....
Een zware taak imho...
Klopt maar dit heeft eigenlijk alleen betrekking op games... Ik denk idd dat games niet 100% gaan werken maar de overige dingen zullen gemakkelijk te realiseren zijn zonder veel problemen

Als ik met mijn UMTS kpn dongol vloeiend gebruik kan maken van Citrix (16Bit res 1024x768) dan is het dubbele echt wel gemakkelijk realiseerbaar.

Games blijft idd een speciaal geval omdat je hier onwijs veel I/O's krijgt die binnen enkele ms naar de server gestuurd moeten worden maar bij de rest is het gemakkelijk haalbaar :)

Je kan al full HD streamen vanaf internet dus je kan me niet vertellen dat dit in een (bijv) Citrix omgeving onmogelijk is

Edit: nu ik er aan denk... optimaal is het niet maar ja als je perse "cloud" wilt werken is het mogelijk!

[Reactie gewijzigd door Mellow Jack op 15 juli 2009 15:35]

(latency en bandbreedte zijn 2 verschillende dingen.)
Het zal wel zo'n beetje gaan om Amazone Cloud achtige diensten.

Zelf heb ik er alleen nog even aan Amazone cloud geroken en even me gespeelt. Verlopig zou ik het self alleen inzetten als storage. maar weet wel dat andere bedrijven er al met success gebruik van heeft gemaakt.

Ik ben wel benieuwd of MS de 99.95% kan waarmaken want dat is wel heel optimistisch voor een nieuwe dienst.

Ries
Als ik het goed heb draait alles op Hyper-V clusters, dus eigenlijk zou er helemaal geen downtime mogen zijn ;)
Geen downtime heb je nooit ;) dan krijg je flinke rechtszaken aan je aars!!!
hee, het blijft windows he
Wat heeft dit nu met Windows te maken? Een systeem kan ook alleen al downtime hebben door de hardware! En in de 10 jaar dat ik nu al Windows gebruikt heb ik nog geen problemen gehad! Het probleem zijn vaak net de gebruikers. Waarom is uw reactie nu on-topic?

Downtime ga je altijd hebben, niemand kan 100% garanderen, al is het maar door een stroompanne, of wat dan ook.
werk al vele jaren in de IT en daarom moet ik je hierin gelijk geven:
geen gebruikers, geen data, geen transacties = geen problemen :)
Je argumenten ontkrachten niet dat het de software tevens een doorslaggevende factor is in de downtime.

De eerste link die ik krijg bij het zoeken naar "windows servers downtime" is een onderzoek waarbij blijkt dat windows servers minstens 2 maal zoveel downtime hebben. Als de hardware tevens een factor is, die min of meer gelijk is per server, dan is het software-verschil nog groter.

Je gaat er tevens aan voorbij dat, juist in een cloud, het uitvallen of vervangen van hardware geen enkel gevolg heeft voor de werking van het systeem als geheel. Extreme gevallen daargelaten.

Overigens pretendeer ik hier geen volledige vergelijk te maken tussen windows en anderen, maar jij produceert zeker een drogredenering.
Wat heeft dit nu met Windows te maken?
Windows heeft gemiddeld 4x zoveel downtime als UNIX. Ligt niet aan de hardware, ligt aan het OS. En dan te bedenken dat een Windows server maar een fractie aan mogelijkheden te bieden heeft vergeleken met een UNIX server (zie bijv. IIS in vergelijking tot Apache), dan kunnen we gerust aannemen dat Windows een instabiel en beperkt product is.

http://sitegrouper.com/ bijv. draait op Debian en de sites die het genereert incl Bind DNS draaien in het geheugen zodat dure HD RAID arrays overbodig zijn. 1 GB geheugen is goed voor 2000 sites. Technisch niet mogelijk onder Windows en zelfs een zware Windows server gaat geheid door de knieen met 2000 sites. Wij draaien 10.000 sites op een relatief standaard server.

Windows server heeft voor ons al jaren geleden afgedaan vanwege de vele beperkingen, de gigantische overhead (het is immers een desktop systeem met enkele add-ons), hoge prijs en matige uptime.
http://sitegrouper.com/ bijv. draait op Debian en de sites die het genereert incl Bind DNS draaien in het geheugen zodat dure HD RAID arrays overbodig zijn. 1 GB geheugen is goed voor 2000 sites. Technisch niet mogelijk onder Windows en zelfs een zware Windows server gaat geheid door de knieen met 2000 sites. Wij draaien 10.000 sites op een relatief standaard server.
Als ik sitegrouper.com even check op de Reverse IP Domain Check van yougetsignal.com dan komen er slechts één andere website boven.

2000 websites in 1 GB geheugen ? Hebben we het dan over volwaardige webapplicaties in PHP / Ruby die gebruik maken van MySQL e.d. of hebben we het dan over 2000 index.html pagina's ? Lijkt me redelijk onmogelijk om een volwaardige PHP applicatie onder zijn eigen security context in 0,5 MB te draaien.

Los daarvan is het (in ieder geval voor mij) onwenselijk om 2000 websites om slechts één machine te draaien. Of het nou kan of niet.
Sterker nog, wie wil 2000 webapplicaties op een systeem waar geen RAID op staat. Moet er niet aan denken dat je server plat gaat en 2000 klanten aan de telefoon hebt.

Overigens kom ik bij PHP uit op 62 GB gebeugen bij 2000 PHP sites ieder draaiend in een eigen secure context.
Sterker nog, wie wil 2000 webapplicaties op een systeem waar geen RAID op staat. Moet er niet aan denken dat je server plat gaat en 2000 klanten aan de telefoon hebt.
Wij hebben klanten die al 2000 domeinen in het systeem hebben. Gelukkig wordt er elke 2 uur een backup gemaakt en hangen er nog wat servers in het rack die de sites kunnen hosten :) De servers zelf hebben wel RAID en een redundant voeding etc. De sites draaien alleen in het geheugen en geheugen is ongeveer 1000x sneller dan een HD dus tel uit je winst ;)

Het mooie van het systeem is dat de backup uit een MySQL backup en configuratiebestanden en wat banners bestaat. Allemaal klein spul dus.

http://howtimely.com/
http://howtimely.com/files/config.inc.php
http://howtimely.com/files/corner-banner.jpg
http://howtimely.com/files/corner-banner.jpg

# ls -ls /dev/shm/sitegrouper.com/domains/howtimely.com/files/
total 140
16 -rwxrwxrwx 1 root root 13938 2009-07-03 00:57 config.inc.php
60 -rw-r--r-- 1 root root 60021 2009-07-03 00:57 corner-banner.jpg
64 -rw-r--r-- 1 root root 61671 2009-07-03 00:57 top-banner.jpg

140kB voor de hele site.

http://howtimely.com/robots.txt en http://howtimely.com/sitemap.xml worden dynamisch on-the-fly gegenereerd.

Zo ook de style sheets die elk een unieke naam hebben terwijl er maar 1 versie bestaat. Zelfs de namen van de styles hebben een unieke naam, bijv. s75328651-banner. Dit om Google om de tuin te leiden. En nog veel meer truukjes :) Daarom geen Windoze hier, veel te beperkt.

[Reactie gewijzigd door mstam op 16 juli 2009 05:32]

2000 sites die van 1 pot files gebruik maken. Iedere site heeft een folder met z'n eigen configuratie (plain text) en hooguit een paar banners die een klant kan uploaden. Verder wordt er alleen bij de 'sell my domains' feature sporadisch gebruik van MySQL gemaakt. De sites staan in MySQL zodat ze te allen tijde opnieuw geplubiceerd kunnen worden.

Dit product is voor 'domainers' die ipv hun domeinen te parkeren, geld kunnen verdienen aan Google Adsense. Vrijdag voegen we een nieuwe feature toe die het mogelijk maakt om unieke content weer te geven op iedere site binnen een groep en binnen elke pagina van de site, gebaseerd op keywords, en met deze content kan er ook geld verdient worden zowel door ons als one klanten. Je kan met de tool honderden sites tegelijk configureren en dit had als gevolg dat Google ze wel eens bande vanwege 'duplicate content'. Dat is dus vrijdag verholpen.

Ook verlengen we de trial naar 14 dagen dus probeer het eens uit :)
Ah ja, de aap komt uit de mouw. 2000 hostnames op één simpele PHP applicatie. Daar heb je echt niks spannends voor nodig hoor.
Hierbij moet je vooral denken aan diensten als CRM. Ook zal er de mogelijkheid zijn om complete webapplicaties er op te hosten. Dan zal je een eigen SQL DB kunnen krijgen waarmee je applicatie kan communiceren.

Ook kan je denken aan Sharepoint portels die dan bij Azure gehost zullen worden. Ook webservices zul je er op kunnen plaatsen.

Daarnaast moet je ook denken aan online exchange toepassingen.

Bedrijven die ook veel doen in hosting van Microsoft producten zijn hier ook absoluut niet blij mee.
Dat is dus een directe concurrent van Amazon Webservices, ze bieden cloud aan.
Voordeel is vooral dat je zonder grote investeringen een volledig schaalbaar system voor het hosten van asp.net applicaties. Daarnaast zijn de .net services voor identity management en workflow hosting ook reuze handig en makkelijk te gebruiken. Dus je hebt eigenlijk 2 voordeelen . 1. minder grote investeringen nodig 2. snellere time to market omdat je een aantal diensten zelf niet hoeft te ontwikkelen maar kunt gebruiken binnen het platform.

[Reactie gewijzigd door CrazyBernie op 15 juli 2009 15:01]

Ik raak pas geintresseerd als ik via cloud-computing mijn animaties kan renderen op een "cloud renderfarm". Voor de rest hou ik het fijn op mijn eigen computer, want wie weet wie daarachter jou bestanden door loopt te speuren, of wie je dataverkeer monitored.

Daarom werk ik ook niet met googles online applicaties, gaat niemand wat aan wat ik doe en op mijn computer installeer en draai.
Ik heb inderdaad ook voor bijv. Maxwell Render online renderfarms gezien, waar je gewoon tijd kon inkopen * CPU cores etc.
Ja dat klopt, maar die zijn nog niet zo makkelijk algemeen beschikbaar, en vrij hoog aan de prijs.
Daarbij gebruik ik gewoon standaard 3DsMAX 2010 en Mental Ray. Als een van jullie toevallig een link heeft, erg bedankt ;)
Volgens mij heb ik jaren geleden al een 'cloud' renderfarm gezien op het net. Kon je ook netjes CPU tijd inkopen op x aantal machines.
Huh. Dat kan je gewoon doen op Amazon EC2. Je kunt een Linux or Windows instantie aanmaken en zelf alle software erop zetten die je nodig hebt. Je kunt zelfs een hele virtuale cluster bouwen die hoog en laag schaalt op basis van de benodigde rekenkracht. Als je OSX draait ben je natuurlijk de lul want Apple wil niet dat OSX wordt gevirtualiseerd.
Iemand SuperPi uit laten voeren? Of moet het wel zeker in het pakket bestaan?
Als je de broncode hebt van superpi dan kan je die wel, met aanpassingen, laten draaien. Maar bedenkt: je krijgt de performance waarvoor je betaald.

En superpi is slechts single-threaded, dus niet zo'n handige benchmark hier want cloud computing gaat met name zijn kracht leveren in een multi-threaded (en/of muti-user) omgeving.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True