Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 59 reacties

Oracle geeft zijn infrastructure-as-a-service een update met als doel de voornaamste concurrent Amazon af te troeven. Oracles krachtigste aanbod biedt na de update 36 cores. Om zijn cloudaanbod te verbeteren neemt Oracle beveiligingsbedrijf Palerra over.

De tweede generatie van Oracles infrastructure-as-a-service werd tijdens de OpenWorld-conferentie van het bedrijf aangekondigd door Oracle-voorzitter en cto Larry Ellison. De topman richtte zich daarbij met name op marktleider Amazon. Volgens Ellison is het Dense Cloud IO-serveraanbod van Oracle krachtiger en goedkoper dan het krachtigste aanbod van Amazons AWS-platform.

Oracles Dense Cloud IO biedt 36 cores, 512GB ram en 28,8TB ssd-opslag, tegen een uurprijs die 20 procent lager zou uitvallen dan die van Amazon. Oracle heeft nog een grote achterstand op Amazon, maar ook op concurrenten als Microsoft, IBM en Google, zo becijferde SRG Research begin augustus.

Oracle gaat zijn infrastructuur redundant uitvoeren over drie zogenoemde Availability Domains. Bij hosts binnen zo'n domein is de bandbreedte 10Gbit/s met een latency van minder dan 100 microseconde, tussen domeinen binnen een regio legt Oracle 1Tb/s-lijnen en de latency ligt dan op minder dan 5ms. In eerste instantie werkt Oracle zijn infrastructuur in zijn datacenters in Arizona bij, in juni volgend jaar volgen pas Engeland en Duitsland.

Oracle kondigde verder Cloud@Customer aan. Hierbij installeert het bedrijf hardware en software zoals het zelf voor zijn Public Cloud-platform gebruikt, bij datacenters van klanten. Die huren dan het platform en hebben als voordeel dat dit zich achter de firewall van het bedrijf bevindt en dat Oracle het beheer en onderhoud voor zijn rekening neemt. Tijdens OpenWorld maakt Oracle daarnaast bekend Palerra over te nemen. Dit bedrijf richt zich op het zo snel mogelijk reageren op beveiligingsincidenten bij clouddiensten. Het bedrijf ontwikkelt daarvoor onder andere een tool die gebruikersgedrag bij online diensten analyseert. Een overnamebedrag is niet bekendgemaakt.

Oracle OpenWorld 2016Oracle OpenWorld 2016Oracle OpenWorld 2016

Moderatie-faq Wijzig weergave

Reacties (59)

Interessant artikel hierover: http://www.platformonomic...with-capex-not-hyperbole/

De belangrijkste conclusie is dat providers voor een goed platform enorme investeringen moeten doen. Als je kijkt naar de top 3 AWS, Azure en Google hebben die vorig jaar respectievelijk ongeveer 11, 8 en 9 miljard geïvensteerd. Oracle steekt daar erg mager bij af met ongeveer 1 miljard. Als je dan al op een enorme afstand staat red je het niet met deze investeringen. Dan wordt je achterstand alleen maar groter.

In het laatste Gartner quadrant komt Oracle niet eens meer naar voren. Ik denk echt dat ze de boot gemist hebben als cloudprovider
Ben ik volledig met je eens. Niet alleen is het too little too late, ze begrijpen het ook gewoon niet. Zo kun je nauwelijks schakelen tussen on premise en cloud (een project on premise ontwikkelen en dan naar de cloud? Is lastig if not impossible). Ook zijn de licenties verre van interessant.
En adding insult to injury, met de on premise toepassingen van Oracle kon je naar Technet om de hele middleware suite te downloaden, of de Enterprise Edition database. Die installeerde je lokaal om wat proof of concepts te doen of om je de materie eigen te maken. Maar hoe kan je in vredesnaam die cloudoplossingen testen of uitproberen? Het is niet dat je een zooi cloudtegoed van Oracle krijgt, zoals MS met Azure heel goed begrepen heeft. De meeste van mijn collega's zie ik met lede ogen de ontwikkelingen op Oracle gebied aankijken. Sommigen zijn al aan het kijken of ze bij concurrende technieken op de bandwagon kunnen springen.
Sommigen zijn al aan het kijken of ze bij concurrende technieken op de bandwagon kunnen springen.
On that bomb shell... je kan je afvragen waarom Azure niet genoemd staat in het lijstje van Oracle. Ik vermoed dat dat is omdat Azure en Oracle een tijd geleden een deal hebben gesloten, waardoor je ook Oracle DB's op Azure kan draaien.
AWS heeft ook een oracle DB service, dus dat zal het niet zijn denk ik..
Tja en als ze nu FaaS zouden bieden die java (laatste versies uiteraard) draait met http/2 push en goedkoper is, en sneller schaalt dan AWS, met WebSockets en statics file hosting etc. En een ultra snelle nosql database. En alles met openStack template files. Met out-of-the-box integratie met jenkins, bamboo etc.

En dan netjes allemaal in Duitsland en Nederland en Ierland. En uptime en stabiliteit beter dan wie dan ook. En fan direct Golden Gate er gratis bij voor data import uiteraard via een gratis dedecated private connectie.

Tja, dan, zouden we bang zijn voor een lock-in. Dus moet hun stack ook een gratis export import functie hebben richting, IBM, AWS en Microsoft en OpenStack en als je toch jaba doet, ook Google.

En dan zou ik het wel eens willen proberen.

[Reactie gewijzigd door djwice op 19 september 2016 18:42]

Ik weet het niet. Oracle is altijd goed geweest met databases. Zfs is bijvoorbeeld een super goed bestandssystee. Btrfs is nog in ontwikkeling en als Oracle Crfs af heeft. Vraag ik me af hoever ze achter lopen.
Dat heeft toch vrijwel niks met elkaar te maken? Een goede database of filesystem maakt nog geen cloud-provider.
Jawel, als jij een database hebt die je extern wil hosten. Dan wil je zo min mogelijk latency hebben. (Zowel in de database als daarbuiten) Dat hebben hun dan. Plus het is kwa filesafe ook veiliger en makkelijker dan.
Alleen jammer dat Oracle ZFS niet heeft ontwikkeld. Dat komt volledig uit de koker van Sun. Oracle heeft Sun overgenomen en daarom hebben ze ZFS in handen gekregen.
Waar zeg ik dat dan? Sun was vele male vriendelijker, misschien werd dat wel hun ondergang. Oracle heeft zijn eigen glazen ingegooid op veel plekken na de overname van Sun.
Ik hoop dat btrfs snel goed van de grond komt.
Ik begreep uit de tekst "Oracle is altijd goed geweest met databases. Zfs is bijvoorbeeld een super goed bestandssysteem." dat je van mening was dat Oracle ZFS had ontwikkeld. Overigens weet ik niet af of ZFS veel gebruikt wordt om een database op te hosten.

Ik vond Sun ook een sympathiek bedrijf (met het coolste logo) met een gezonde open-source instelling. ZFS was daarvan een mooi voorbeeld. Apple heeft lange tijd serieus naar ZFS gekeken als vervanging voor HFS. Na de overname door Oracle is dat gestaakt en nu pas komt Apple met de eerste alpha's van hun opvolger van HFS. ZFS was perfect geweest. De hele TimeMachine functionaliteit had je heel elegant kunnen oplossen met ZFS's snapshotting.

Wellicht waren ze hun tijd iets te ver vooruit en heeft ze dat de kop gekost. Maar ook de trage evolutie van Java was velen een doorn in het oog. Microsoft kwam met .NET als alternatief en ontwikkelde zich veel sneller.

Het valt me nog mee dat Oracle nog steeds VirtualBox ontwikkelt. Ik was bang voor een langzame dood hiervan, maar het wordt niet steeds netjes bijgehouden.
Sun inclusief alle kennis, mensen etc is nu onderdeel van Oracle. Ik bedoel, niemand gaat toch roepen dat OS X niet van Apple is omdat het origineel ontwikkeld door NeXT was, of dat Android niet van Google is omdat het een overname was?
Tja, zowel Oracle DB als ZFS zijn ook bij andere cloud-providers te krijgen. Bijv. een managed Oracle database incl. support bij AWS ("Amazon RDS for Oracle"). Dan draai je ook met minimale latency t.o.v. je applicatieservers.

Ik kan me nauwelijks voorstellen dat bedrijven die features als doorslaggevens zien om voor de Oracle cloud te kiezen. Er zijn tientallen overwegingen die méér doorslaggevend zijn dan dat.
Ik denk dat Oracle alleen interessant is als cloudprovider als je oplossing volledig leunt op Oracle. Dan zet je met name je hosting buiten de deur en dat scheelt zorgen m.b.t. hardware. Je feitelijke software architectuur is dan niet heel erg anders.

Er wordt IMHO veel te makkelijk gedacht om over te schakelen naar een cloudprovider. Veelal is het de lokale VM's in een datacenter draaien. Maar dat is alleen maar ijzer virtualiseren.

Een goede cloud implementatie gebruikt de services die de cloudaanbieder levert. Dat vraagt vaak een drastisch andere architectuur. Relationele databases schalen traditioneel alleen verticaal, maar daar is een limiet aan. 36 cores, 512GB ram en 28,8TB klinkt heel indrukwekkend, maar als je zoveel data hebt dan moet je eens gaan denken of je dat nog wel relationeel wilt opslaan.

Overigens ben ik na verschillende cloud implementaties (AWS en Azure) er behoorlijk kritisch over. Ik vind de prijzen erg hoog en het is vaak maar heel lastig rond te rekenen. AWS en Azure hebben hoge kosten voor bandbreedte, computing, ... Ook de performance van bijv. Azure SQL vind ik vrij laag gezien het prijspeil. Daarom stel ik ook nog regelmatig voor om gewoon virtuale servers af te nemen bij SoHosted, LeaseWeb, ... omdat ze de schaalbaarheid van AWS/Azure niet nodig hebben en ze met deze providers veel goedkoper uit zijn. Vanuit technisch oogpunt soms wat meer werk of minder mooi, maar het scheelt flink wat pegels in de maand.
Als je al achterligt op Google, dan is de afstand tot Amazon wel héél ver. Google heeft mooie diensten maar haalt het zover ik weet bij lange na niet qua capaciteit met Amazon. Oracle komt dan van nog verder.

Aan de andere kant, als je doel interne bedrijfsprocessen is (iets waar ik Oracle meer mee associeer) in tegenstelling tot wereldwijde uitrol (denk aan een Pokémon GO (waar Google het niet trekt)) dan is die grootschaligheid misschien niet eens nodig.
Zover ik het zie worden er meerdere dingen vergeleken in dit bericht. Oracle loopt achter op Google, Microsoft en Amazon op het gebied van marktaandeel. De concurrentieslag die ze nu aan het maken zijn heeft betrekking op de producten en dat ze nu de strijd aangaan met Amazon mbt het krachtigste IaaS aanbod. Aangezien ze op dit vlak nu dus een sprong voorwaarts hebben gemaakt ten opzichte van Amazon geldt dit ook ten opzichte van Google verwacht ik. In ieder geval wel op Microsoft die zover ik weet als max 32 cores heeft per VM. De totale capaciteit wordt hierin in ieder geval niet genoemd.
Microsoft Azure GS servers gaan tot 32 cores / 448 GB geheugen.

Zie: https://azure.microsoft.c...l-machines-windows-sizes/ .

Vind het hele geschuif aan VM's overigens niet zo interessant. Het meest interessante van Azure vind ik nog steeds de cloud services (e.g. PAAS ipv. IAAS).
Bij AWS is het grootste dat je kan krijgen een server met 128 virtuele CPUs en 1,952 gig a geheugen (https://aws.amazon.com/ec2/instance-types/)

Echter AWS is veel krachtiger in de selectie van managed services. Dan werk je niet eens meer met de specifieke VM's maar neem je gewoon een database en het kan je geen reet roesten hoe dat ding gehost wordt.
Het probleem van schaalbaarheid is dat dit heel slecht te combineren is met een relationele database (daar denk ik het eerste aan bij Oracle). Verticaal schalen is erg duur en kent ook weer zijn limieten. Sharding is soms een goede oplossing, maar is ook heftig te implementeren in een bestaande oplossing (beetje afhankelijk van je datamodel).

De X1 instance (die met 128vCPU en bijna 2TB RAM) kost maar liefst $13.338 per uur. Dat is dus 320K per dag een 116M per jaar. Niet echt een instance waar de meeste bedrijven behoefte aan hebben.

Een no-SQL database (bijv. DynamoDB in AWS) is vaak veel schaalbaarder. Helaas ben je minder flexibel met het opvragen van je gegevens dan in een relationele database. Daar moet je vaak weer extra services voor inrichten (bijv. Kinesis). Dan wordt het vaak al erg complex en ook weer duur. Helaas biedt AWS zelf geen fully managed MongoDB aan (zijn wel third-parties die dat weer doen).

[Reactie gewijzigd door BugBoy op 19 september 2016 22:27]

Het probleem van schaalbaarheid is dat dit heel slecht te combineren is met een relationele database (daar denk ik het eerste aan bij Oracle).
Correctie: met een traditionele relationele database. De snelste database op de wereld is bij mijn weten die van Google, het ding dat AdWords host. Er zijn wat papers over te vinden online (zoek op 'Spanner'), maar hij wordt voor zover ik weet niet commercieel geexploiteerd.

Ik vind ook niet dat je NoSQL met SQL moet vergelijken. Het zijn twee compleet verschillende technieken, met verschillende kenmerken. NoSQL schaalt omdat het geen ACID doet.

Dat allemaal gezegd hebbende, in de cloud is er op dit moment geen goede database te vinden, dat ben ik met je eens... en dan kom je ultimo weer bij de dikke VM's uit.
Ja dat klopt. Maar je kan wel een relationele database bouwen bovenop een niet-relationele database. Dwz: als je storage laag de juiste mate van isolation en consistency ondersteunt, kan je atomicity en durability toevoegen. Dat is op hoofdlijnen wat ze bij Google hebben gedaan bij het bouwen van hun database.

Nouja, eigenlijk zit het nog wat complexer in elkaar, maar je snapt het idee.
Het probleem van schaalbaarheid is dat dit heel slecht te combineren is met een relationele database (daar denk ik het eerste aan bij Oracle). Verticaal schalen is erg duur en kent ook weer zijn limieten. Sharding is soms een goede oplossing, maar is ook heftig te implementeren in een bestaande oplossing (beetje afhankelijk van je datamodel).
Zoals ook reeds door anderen is aangekaard zijn hier makkelijke manieren om vanaf te komen. Er zijn genoeg databases die wel al horizontaal schalen, AWS heeft daar zelf nog een eigen variant bijgezet genaamt Aurora.

Cloud betekend steeds meer dat je moet gaan kijken naar applicaties die distributed kunnen draaien en niet meer afhankelijk zijn van een enkele machine. Daardoor is het ook juist zo interessant dat je een groei in managed services ziet. Zowel bij cloud providers dan wel 'gewone' managed hosting.
Ik geloof niet dat een relationele database kosteneffectie goed kan blijven schalen. Ik geloof best dat AWS met Aurora een goede oplossing heeft neergezet, maar scalability en een ACID relationele database zijn gewoon tegenstrijdige concepten. Helemaal als je vanuit meerdere regio's in de wereld lage latency wil hebben. Sharding is dan vaak een oplossing of (als je data het toelaat) een no-SQL oplossing.

Ik ben afgelopen twee keer bij AWS re:Invent geweest en het klinkt inderdaad veelbelovend. Ik heb er zelf te weinig ervaring mee om te weten of de schaalbaarheid, performance en kosten inderdaad de beloftes waarmaken.
precies, heel veel applicaties zijn niet compatible voor no-sql database en dan blijf je toch vast zitten aan een relationele DB op een server die je goed moet sizen..
En dit is het idd - Oracle maakt de snelste individuele DB servers ter wereld, en ze doen de hele stack van silicon tot OS tot DB in-house. Dat geeft ze op cloud gebied wel een voordeel, en dan met name op het gebied van verticaal schalen.

Aan de andere kant, hoeveel klanten hebben werkelijk zulke idioot zware database eisen dat je 512 cores/4096 threads + 4 TB RAM met extreem lage latency in de cloud nodig hebt? Ze zullen er wel zijn, maar toch niet zoveel dat je qua klantenvolume AWS en Azure kan gaan benaderen.
Echter AWS is veel krachtiger in de selectie van managed services. Dan werk je niet eens meer met de specifieke VM's maar neem je gewoon een database en het kan je geen reet roesten hoe dat ding gehost wordt.
Dat bedoelde ik inderdaad ook met Azure. Ik neem tegenwoordig gewoon redundante storage, wat queues en dynamische allocatie af en dat soort dingen. Die hele CPU's en geheugen enzo zal me allemaal wel, daar wil ik allemaal niet te hard over nadenken hoor, dat regelen ze zelf maar... :)

[Reactie gewijzigd door atlaste op 19 september 2016 10:07]

Ondanks dat ik AWS en Azure beiden erg krachtig vind, ben ik ook van mening dat ze erg prijzig zijn. Een redelijk krachtige VM met SQL Server licentie bij een LeaseWeb of SoHosted is een stuk goedkoper dan een even krachtige Azure SQL instantie. Natuurlijk heb je dan niet de flexibiliteit van het snel af- en opschalen. Je moet je eigen OS en SQL Server patching doen, maar in veel gevallen kun je daar prima mee leven en scheelt het een bom duiten.

Als ik de Azure rekening zie bij ons bedrijf en bekijk wat onze oude oplossing kostte bij SoHosted dan zit daar zeker een factor 5 verschil in (bij gelijke performance).
Als ik het zo lees zijn jullie nog bezig met VM's. Ja, dat is inderdaad erg prijzig, maar dat is ook niet de truuk...

De truuk is om gebruik te maken van de native cloud diensten. Als je dat goed voor elkaar hebt, kan je in de meeste gevallen werken met XS/S instances die je evt. dynamisch schaalt. Ik besef me dat dat makkelijker klinkt dan het is; je software moet daar wel geschikt voor gemaakt worden.
Een ander project gaat naar Azure. Daar zit eigenlijk alle data in een SQL Server database. Vanwege het complexe datamodel gaan we over naar Azure SQL, waarbij we gebruik gaan maken van sharding (elastic scale). Daardoor gaan al je queries op de kop. Er was netjes een data-access layer, maar het is erg lastig om je applicatie om te bouwen naar een sharded datamodel en toch nog je queries efficient te houden.

We maken nog geen gebruik van services bussen e.d., ondanks dat het mooier en schaalbaarder is. Eerst over met de database en services (worden nu worker roles) en daarna gaan we langzaam maar zeker de overige features van Azure gebruiken. Maar ik kan je inderdaad bevestigen dat het een hell-of-a-job is om een legacy applicaties goed en schaalbaar naar de cloud te brengen.
Ik begrijp het. Ja, als je vooral veel uitgaande bandbreedte gebruikt is het inderdaad erg duur. Je kan als je MS partner bent daar overigens gewoon een mailtje over sturen, wellicht hebben ze hier wel een oplossing / abonnement voor hoor.

Let op met SQL Azure. Ik heb ongelofelijk veel performance problemen daarmee gehad in meerdere projecten... Ik zou het echt even goed benchmarken op 'echte' data met wat nare queries voordat je het in de cloud gaat hangen (mocht je dat nog niet gedaan hebben)!

Zelf draai ik een aantal analyse applicaties en wat web crawlers. Dat draait allemaal op table storage, queue storage en SQL Azure. Die laatste probeer ik eigenlijk altijd te mijden waar mogelijk... Eigenlijk alle technologie is echter from-scratch ontworpen op de aanwezigheid van (cloud) storage providers, dus aansluiten op Azure was in mijn geval vrij makkelijk. En qua kosten valt het mee, want het zijn wat XS worker/web roles die schalen obv. de queue size.
Het AWS project waar ik aan werk (filesharing dienst) gebruikt eigenlijk alleen de kleinste VM's. Die gebruiken we eigenlijk alleen maar voor NGINX en onze NodeJS instanties. ELB ervoor en die dingen kunnen het makkelijk aan. Via ELB schalen we eventueel ook servers op en hebben we ook meteen moniitoring. We hebben zelfs nog gekeken naar Lambda, maar dat is voor ons scenario niet kosteneffectief. Verder maken we juist heel veel gebruik van S3 en DynamoDB.

Het probleem zit voor ons (filesharing) met name in de kosten voor uitgaande bandbreedte. Zonder korting kost 10GB je circa $1.

LeaseWeb biedt servers aan waarbij je 100TB traffic krijgt (in/uit). Bij AWS betaal je alleen uitgaande traffic, dus we delen dit voor het rekenvoorbeeld door twee. Bij AWS kost je dit aan bandbreedte dan al ruim $5.000 en daar komt de CPU power (EC2) en storage (S3) nog bij. Ik kan je garanderen dat LeaseWeb dan aanzienlijk goedkoper is.

Dan kan AWS flexibeler zijn, maar we zijn nu bijna een factor 10 goedkoper uit door S3 deels in te ruilen voor een alternatief dat bij LeaseWeb draait.
Dat is inderdaad wat ik al zei, 32 cores. Maar ik ben nog geen harde max. tegen gekomen bij azure. Het subscription limit is het enige, maar als ik meer nodig heb dan vraag ik het aan en wordt het toegewezen :)
Google biedt over het algemeen toch andere soort diensten dan AWS dus er is in zekere zin absoluut ruimte om naast elkaar te bestaan.
Google heeft het geld er wel voor. Alleen hoen maintarget is dat niet ;)
Als Google zou investeren in de cloud zoals Amazon en Oracle beleef me dan zouden ze omvergeblazen kunnen worden.

Daarnaast geld dit voor Facebook/Apple ook zo. Hun hebben de resource ervoor....
Het is pas gezond als er een paar grote aanbieder zijn en dat blijkt steeds meer het geval. Als groot bedrijf gebruik je dan meerdere aanbieders van cloud diensten en bent dan niet afhankelijk van 1 aanbieders. Open stack is een mooi voorbeeld daarvan.
Waar de meeste cloud providers nog moeite mee hebben is scalling van kleine machines mijn cloud oplossingen zijn altijd gemaakt van kleine machines maar veel waardoor als er iets om valt er genoeg klaar staat en zo wat nieuws staat dat het geen probleem is. AWS kan dat al heel lang. Azure is er net mee begonen (een jaar ofzo) en google ook pas net. Voordat iemand AWS kan inhalen moeten ze eerst op zelfde feature niveau komen als AWS.

Zie nog niet dat iemand AWS van de troon kan af stoten. Misschien wel met de High mem high CPU machines maar dat is niet de bread and butter van AWS (ze verdienen er wel genoeg aan). AWS adviseerd ook om geen single big machines te maken maar altijd kleine single purpose machines die tegen een stootje kunnen.

Maar goed het is altijd mooi om AWS weer even scherp te zetten dat de prijs weer om laag kunnen. AWS maakt het wel mooi af en toe krijg je een mail over prijs aanpassing. Stress van de manager wat gaat mij dit nu kost. Mijn reactie oh het wordt alleen maar goedkoper. Manager is verbaast en snap er niets van geniaal.... of dat AWS belt kunnen we wat doen om jullie kosten naar beneden te krijgen jullie kunnen hier hier en hier besparen zodat jullie nog minder uitgeven aan ons want tja we willen niet dat je kosten maakt niet nodig zijn. Zie google en azure dat niet doen.

[Reactie gewijzigd door MeZZiN op 19 september 2016 09:19]

Ik lees in jouw reactie dat je aangeeft dat Microsoft met Azure net is begonnen met het mogelijk maken van scaling van kleine machines sinds een jaar. Maar wat bedoel je dan precies? Scaling en automatische scaling op basis van verschillende variabelen vanachter een load balancer / gateway is al vrijwel sinds het begin mogelijk namelijk; in ieder geval sinds 2013 sinds ik het gebruik. en kleine machines hebben ook altijd al tussen de mogelijkheden bestaan. Of bedoel je heel specifiek een bepaald type machine qua grootte?

[Reactie gewijzigd door mrdemc op 19 september 2016 09:36]

Denk dat ik zelf zocht naar exact wat AWS deed en Azure het soort van deed maar toch niet helemaal heb er nooit 100% ingedoken omdat Azure tijden lang minder linux vriendelijk (nu wel hoor) Wat toen zeker weten miste is een volledige custom manier van autoscale (waarbij alles de input van autoscale kan zijn) Ik ben wel al langer bezig met AWS rond de 6 jaar kan het iets mis hebben wanneer ze de feature kregen Maar wat ik vond online was dat het pas kon sinds een jaar ofzo.

Wat wij deden was een set van machines (100% hetzelfde) en die in een autoscale group gooien en die op basis van CPU / load/queue size autoscaling kon doen. over verschillende AWS regios en zones.

Maar goed top dat Azure het kan dat is toch wel een minimale eis om een cloud te kunnen knutselen.
AWS doet het natuurlijk erg goed, toch denk ik dat ook Azure een sterke propositie heeft, met name omdat Microsoft sterk is in hybride-oplossingen: bedrijven die voor een gedeelte in de cloud willen werken, maar ook nog veel in hun on-premise omgeving hebben geïnvesteerd. Daar heeft Azure een beter aanbod voor. Als het gaat om prijs of mee-investeringen in een goede oplossing is niet alleen AWS een goede kandidaat. Ik weet uit ervaring dat daar bij MS ook prima mee te schakelen is.

Het is niet voor niets dat alleen AWS en Azure door Gartner in het leaders kwadrant worden geplaatst.
Ik zou wel eens de echte getallen willen zijn van klanten van Microsoft (Azure), Amazon (AWS), Google en anderen. Dan zou ik ook een staatje willen zien aan verschillende diensten die deze klanten afnemen in de tijd en de hoeveelheid geld. Je kunt dat een beetje terugrekenen wat het kost om deze klanten te bedienen en welke investeringen er werkelijk nodig zijn om in dit commerciele geweld mee te doen. Een onderscheidend vermogen is (net zoals bij mobiele devices) de acceptatie van het ecosysteem van de verschillende cloud leveranciers. Ik gok dat Amazon en Microsoft daar een stuk verder in zijn dan de anderen.
De omzetten uit de cloud services moet je toch wel enigszins uit de jaarverslagen kunnen halen?
Volgens de laatste kwartaalrapporten doet Oracle krap 1 miljard aan cloud, Amazon krap 3. Oracle loopt sneller in dan in dacht.
Oracle heeft viezige spelletjes gespeeld door klanten een jaar cloudlicenties te geven bij hun producten. Zo leek het alsof ze enorme omzetten hadden geboekt op de cloud, maar in de praktijk kwamen de meeste klanten er na een jaar pas achter dat ze die cloudproducten hadden, toen gevraagd werd of ze (tegen betaling) wilden verlengen. De behoefte leeft nog helemaal niet, in elk geval in Nederland, en Oracle heeft m.i. nog niet goed uit kunnen leggen waarom al hun klanten de cloud in moeten. Het is ook niet dat het een naadloze overgang gaat worden.
De architectuur die vooral goed werkt voor de cloud is er eentje waar je horizontaal schaalt (meer werk doen met meer machines). Dat neemt niet weg dat er voldoende toepassingen zijn waar verticaal schalen (meer werk doen met dezelfde machine) interessant voor is, maar het lijkt me toch een beetje een niche. Niet per se iets waar AWS goed in wil zijn. En van Google (geen eigen ervaring mee) hoor ik altijd dat er veel aandacht wordt besteed aan het aanmoedigen van goed cloud-design (neem aan dus ook vooral niet te veel verticaal schalen, en niet te veel superzware machines). Met andere woorden, ik geloof niet dat de paniek meteen uitbreekt in Seattle (Amazon), danwel bij Google.
Ik denk dat je grotendeels gelijk hebt, maar wanneer je een architect bent voor een bedrijf dat zoveel mogelijk in de cloud wil schuiven (want daar host je dan ook al je VDIs + SAP etc. etc.), dan wil je ook alles in dezelfde cloud hebben. Dus wanneer je bijv. een bedrijf bent met 50K werkplekken, dan ga je niet alles bij google/AWS/Azure hosten, behalve die ene grote database. Het totaalpakket is makkelijker naar "boven" toe uit te leggen dan een enorm verdeeld systeem dat uiteindelijk nog duurder is ook (outbound traffic is niet gratis).
We zijn het wel met mekaar eens :) Ik zat ondertussen al een beetje te googlen naar cijfers, in verwachting van iemand die het helemaal niet met me eens ging zijn, en deze infographic toont dat 2XLarge, 4XLarge en 8XLarge samen maar goed zouden zijn voor 10% (disclaimers: dit is uit 2014, en niet van AWS zelf).
Het mooie is natuurlijk dat je door scripting eenvoudig tijdelijk een 2XLarge of groter erbij kunt hangen, en dat voor korte tijd. Als je ze weg zou laten uit het aanbod, dan zou het leiden tot meer dan 10% omzetverlies, omdat je ook die klanten verliest die dit eens in de maand een paar uur nodig hebben, en het niet willen missen.
36 cores is wel tof maar ik ken geen enkele toepassing die daar echt iets mee kan. Wie echt zo veel nodig heeft gebruikt eerder meerdere kleine VMs.

Oracle vraagt ons ook regelmatig of we niet een van hun managed oplossingen willen gebruiken. Omdat moeite hebben om goede (en betaalbare) DBA's te vinden zijn daar steeds meer oren naar. IMHO hebben we er niet veel aan, de software installeren is de kunst niet (al doet Oracle aardig z'n best om het moeilijk te maken). Het echte beheer van een database, vragen als "Waarom is deze query langzaam en wat kunnen we aan doen?" blijft DBA's nodig hebben.
Dat is toch een service die Oracle ook kan bieden als je door hun gehost bent?
Als je het echt wil dan kun je bij Oracle wel een consultant huren, maar dat is niet te betalen als je ze full-time nodig hebt. Je hebt ook nog steeds iemand nodig die de juiste vragen kan stellen en de antwoorden kan beoordelen. Anders is het antwoord op alle vragen dat je hardware, licenties en/of services bij moet kopen.
Dat is niet mijn ervaring met oracle on demand.. bij performance training leverde oracle support DBA diensten onder hun hosting/support contract.. Ik moet wel eerlijk zeggen dat dat niet direct gebeurde, maar na escalatie binnen oracle support kregen we wel de tuning experts te pakken..
Oracle en goedkoop, hier moet een addertje onder het gras zitten.

Edit: Zo te zien is het een vrij kansloze exercitie:
The ranking of the next 20 largest cloud providers features some interesting companies, with Alibaba and Oracle growing particularly strongly, but they are all starting from a long way behind Google, which is itself growing by well over 100% per year and yet remains only a sixth the size of Amazon.”

Dus ze concurreren tegen een club die 100% per jaar groeit (en een marktaandeel van 5% heeft) en daarmee nog steeds maar een zesde van Amazon is.

[Reactie gewijzigd door oef! op 19 september 2016 10:17]

Als je Oracle in de loop der tijd gevolgd hebt dan weet je wel dat ze altijd heel goed in reclame praat. Dat ze willen concurreren lijkt daar iig heel veel op. Ze mikken waarschijnlijk meer dat de klanten die ze nu hebben die naar de cloud willen dat ze die 'pijnloos' over kunnen zetten. En alle klanten die ze extra meepikken is mooi meegenomen.

Het is waarschijnlijk dat ze toch moeten toegeven dat ze niet mee kunnen komen en strategische verbanden kunnen zoeken met de grote partijen. Wat op zich wel jammer is want als je straks met een klein groepje echt grote spelers zit dan verdelen die de markt en zal innovatie en prijsstelling zich daar bij aanpassen.
Ja, maar dan draai je dus wel bij Oracle, niet iets om nou perse gelukkig van te worden. Volgens mij vergeten ze voor het gemak dat T&C bijna net zo belangrijk is als de specs.
Wat wel interessant is is dat zij latency garanderen.

Mijn ervaring in Azure is dat je misschien wel veel throughput hebt maar de latency tussen twee machines is echt wel een veelvoud 10, 100 meer als een on-prem oplossing.
Tja, het toont wmb meer aan op welke schaalgrootte ze nu zitten...

Latency is leuk te garanderen op kleine schaal.
Maar als er morgen 3 partijen bijkomen die elk 1000 vm's afnemen in hetzelfde dc dan kan je of je latency niet waarmaken of je moet de klant laten wachten.
Dat ligt natuurlijk ook dicht bij Oracle's specialiteit in multi-socket systemen, als je in je serverpark een stel 16-socket machines met 32-core cpu's erop hebt staan, dan kan je een stuk makkelijker low-latency tussen VM's aanbieden dan wanneer je met grote aantallen kleine servers werkt.
Zijn ze nu nog wel op tijd?

Op dit item kan niet meer gereageerd worden.



Nintendo Switch Google Pixel Sony PlayStation VR Samsung Galaxy S8 Apple iPhone 7 Dishonored 2 Google Android 7.x Watch_Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True