Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 22 reacties

Oracle-ceo Larry Ellison heeft een kant-en-klare server voor gegevensanalyse aangekondigd. De Oracle Exalytics heeft veertig processorcores en 1 terabyte aan intern geheugen. De machine moet met SAP Hana concurreren.

OracleZondag, op Oracles OpenWorld-conferentie, kondigde Oracle-ceo Larry Ellison de Exalytics aan, meldt BusinessWeek. Het apparaat is bedoeld voor het snel analyseren van gegevens, en biedt daartoe veertig Intel Xeon-processorcores en 1TB aan geheugen. Met compressie moet echter van 5 tot 10TB aan informatie kunnen worden vastgehouden. Het apparaat kan via Infiniband verbinding maken met Oracle Exadata-databaseservers.

Met de server, waarvan nog niet duidelijk is hoeveel hij moet gaan kosten of wanneer hij op de markt is, wordt Oracles Times Ten-databasesoftware meegeleverd, evenals business intelligence-software en de Essbase-olap-server. Dat meldt ComputerWorld. Met de Exalytics-appliance wil Oracle concurreren met SAP Hana, dat in juni is uitgebracht.

Oracle-ceo Ellison maakte tijdens zijn keynote op OpenWorld niets bekend over zijn nieuwe Big Data-appliance, die door Oracle op de beursvloer tentoon werd gesteld en door ComputerWorld werd ontdekt. De server zou Apaches Hadoop-software aan boord hebben voor het verwerken van gegevens.

Moderatie-faq Wijzig weergave

Reacties (22)

Zou het niet interessant zijn om te weten hoe groot deze server is (hoeveel U, of juist hoeveel racks?). Helaas kan ik het in het bron-artikel ook niet vinden; heeft iemand dat ergens zien staan misschien...?
single server, 3 rack units
4 cpu's met elk 10 cores (intel Xeon E7-4800)

meer info op http://www.oracle.com/us/...chine/overview/index.html

voorlopig vooral in de solution brief
Ben ik de enige die de SSD's mist in zo'n racemonster?

En voor een speciale OLAP machine: GPU support?

@Kenhas: 3.6 TB raw disk capacity, volgens de bron.

@Tmoose: in BI toepassing wordt nogal wat gesorteerd. Als dat niet meer in memory past, moet dat naar schijf. Een SSD scheelt dan een hoop,

[Reactie gewijzigd door TheekAzzaBreek op 4 oktober 2011 11:07]

Heb er misschien over gelezen maar in het artikel wordt helemaal niet gesproken van opslag. Dus kan je ook niet zeker zijn dat er geen SSD's in zitten
Als je voldoende conventioneel geheugen hebt, dan heb je al snel geen behoefte eer aan SSD's. Je kunt dan meteen naar een gewone RAID array wegschrijven.
Als je op deze pagina naar het plaatje kijkt, zie je dat het niet zo'n enorme machine is. Beetje moeilijk in te schatten, maar veel meer dan 6U lijkt het niet te zijn?

[Reactie gewijzigd door wildhagen op 3 oktober 2011 16:40]

Ik vraag me heel erg af of Oracle op de juiste weg is. Alles lijkt met alleen de Exadata-databaseservers te werken en dat kon nog wel eens tegen Oracle werken. Steeds meer bedrijven zien in dat een vendor lock-in hun erg veel geld kan kosten omdat een vendor die vandaar de beste oplossing bied morgen voorbij gestreefd kan worden door een concurrent. Om die reden hoor je steeds vaker bedrijven vragen om vendor onafhankelijke oplossingen die zo veel mogelijk met van alles en nog wat hun werk kunnen doen.

Nu is dat natuurlijk lang niet altijd mogelijk en moet je af en toe wel voor een bepaalde vendor kiezen wetende dat je niet zo maar naar een ander kan overstappen maar toch. Oracle is het wel heel erg duidelijk aan het maken dat de optie Oracle, Oracle of Oracle is en dat als je wat anders wilt gebruiken je beter net met Oracle aan de slag kan gaan. Dat kon ze nog wel eens flink wat klanten gaan kosten. En dan doel ik niet op het MKB maar juist op de hele grote spelers die veel al een verscheidenheid aan databases en oplossingen hebben draaien die om verschillende redenen nu nog niet vervangen kunnen worden door een ander product. Als je dan een machine (met 40 cores) aanschaft wat niet goedkoop zal zijn en het ding werkt alleen met een Oracle machine met waarschijnlijk een vergelijkbare prijs samen dan ben je al snel een paar honderd duizend kwijt en heb je nog niet eens een systeem dat alle data die je wilt analyseren kan verwerken.
Voor zover dat ik het begrijp moet je deze server niet pers gebruiken met Exadata.
Wel hebben ze infiniband voorzien zodat je hem mee kan pluggen in een Exadata configuratie en zo een zeer hoge bandwidth ter beschikking hebt om de gegevens van de database in de memory layer te pompen.

Op de Oracle site staat er ook expliciet dat je non oracle datasources kunt gebruiken
Anderzijds is het voor klanten erg prettig om 1 aanspreekpunt te hebben voor support, om te voorkomen dat het een welles-nietes verhaal wordt tussen software- en hardwareleverancier.

Oracle is natuurlijk wel heel groot geworden door een platformonafhankelijke DB aan te bieden, in tegenstelling tot bijv. IBM. En ik zie geen aanwijzingen dat ze daarvan gaan afwijken. Wel bieden ze nu ook HW aan, en uiteraard is die HW geoptimaliseerd voor Oracle.
Ehm... zoals IBM?

IBM's DB2 draait op Linux (vele distro's), Unix (meest voorkomende), Windows, z/OS (mainframe) en i5/OS (AS/400). Dan is er nog Informix, draait op diezelfde platformen minus mainframe en AS/400. De in-memory database solidDB draait op nog veel meer platformen (o.a. embedded).
Ik vraag me heel erg af of Oracle op de juiste weg is. Alles lijkt met alleen de Exadata-databaseservers te werken en dat kon nog wel eens tegen Oracle werken.
Waar haal je dt nu weer vandaan?
Je kunt naast de preconfigured spullen nog steeds zelf je boeltje inrichten met alleen een Oracle Database en de rest software van eigen keuze. De database is nog altijd het centrale product en die is met alles wat aan een beetje belangrijke industriestandaard voldoet te benaderen. Je kunt dus je eigen Exadata bouwen met alleen een Oracle database en de rest whatever je wilt. Die standaard spullen zijn er omdat het erg moeilijk is om zelf een hele grote machine met de juiste componenten bij elkaar te zoeken. Met zo'n Exadata of Exalogic heb je spullen die op elkaar afgestemd zijn.

Vendor lock-in is een holle kreet. Je hebt dat namelijk al heel gauw met whatever je ook gebruikt. Ga jij maar een systeem bouwen rondom MySQL met louter open source of weet ik wat voor Heilige Graal die je leuk vindt, en bouw dat dan maar eens om naar een andere stack. Dat gaat je zonder grote aanpassingen niet lukken. Zodra je namelijk z open gaat programmeren dat het op elk platform en tegen elke database aan draait, lever je enorm veel in. Je kunt nooit optimaal gebruik maken van de capaciteiten van een platform of product. Je gaat je dan immers vastleggen aan n systeem. Ik zie dat aan iets als Uniface. Erg leuk idee, een front end die tegen elke database kan praten. Maar als je ziet wat ie van je datamodel bakt, dan krommen je tenen niet eens meer, die vallen er gewoon spontaan vanaf. Vreselijk is het. En niet n feature van de specifieke database kan gebruikt worden, want die is er niet op het andere platform.

Dus vendor lock in=bullshit. Je moet gewoon je plan trekken als bedrijf en wel proberen zoveel mogelijk van open standaarden gebruik maken, maar graag mt verstand. Niet omdat het moet. Je legt je nl altijd vast aan een bepaalde keuze. Maar dat is niet erg zolang die keuze jouw strategische doelen dient. En als je dan ook nog de broodnodige flexibiliteit hebt, is het helemaal mooi. En met Oracle heb je aardig wat flexibiliteit. Het schaalt goed en het draait op elk strategisch platform. Het probleem zit 'm eerder in de applicaties. Middleware is ook nog redelijk flexibel.
dat een vendor lock-in hun erg veel geld kan kosten omdat een vendor die vandaar de beste oplossing bied morgen voorbij gestreefd kan worden door een concurrent

Zo'n aanschaf is strategisch en dan boeit het niet wat de concurrent morgen doet. Een vendor lock-in wordt pas vervelend als je afhankelijk bent van het product en de vendor je uitknijpt of er zelf niet meer in gelooft.
Ik vraag me heel erg af of Oracle op de juiste weg is. Alles lijkt met alleen de Exadata-databaseservers te werken en dat kon nog wel eens tegen Oracle werken.
Al die software draait op iedere gangbare doos + OS. Oracle probeert ons er van te overtuigen dat het beter (=sneller) draait op Exa*, maar met bescheiden succes wat mij betreft.
Met Exadata heben ze wel een mooie greep gedaan door een deel van de DB software in de storage te stoppen, wat voor BI toepassingen spectaculaire snelheid kan opleveren. Voor Exalogic en Exalytics is het me niet zo duidelijk. Er is Infiniband, en waarschijnlijk wat optimalisatie in de software om dat zo goed mogelijk uit te nutten, maar spectaculair vind ik dat niet.
Oracle gets big, mede dankzij stunten bij google? You tell me.
Waar kan dit voor gebruikt worden, dat analyseren van gegevens, in welke zin?
Gezien de meegeleverde software (BI en Essbase OLAP) zal deze bedoeld zijn voor analyse van voornamelijk financieel georienteerde bedrijfsgegevens, in zeer grote hoeveelheden, die liefst online geanalyseerd moeten kunnen worden. Veelal is er nog een gap, je krijgt of real time analyse met matige perfomance, of goede performance en snelle analyse maar op offline data. Wellicht kun je met deze server het beste uit twee werelden halen. Een bedrijf zou dan in theorie dus sneller inzicht hebben in zijn eigen performance, en dus ook sneller moeten kunnen sturen. Dat alleen al is wel een centje waard.
We hebben het hier nog steeds over offline data, en het probleem hoe je die data in je analyse omgeving krijgt wordt hier niet anders opgelost dan in normale omgevingen. Eenmaal binnen die omgeving zullen je rapportjes flitsend snel zijn, maar je krijgt er je data niet eerder door beschikbaar.

En die zeer grote hoeveelheden vallen ook wat tegen. TimesTen neemt de totale dataset in memory, en er is 1 TB beschikbaar voor de hele software stack. Laat er dan een halve TB overblijven voor TT data, dan hou je met compressie misschien 2.5 TB over, als je de compressie claims gelooft Dat noemen we in BI termen groot, maar niet heel groot.
Correctie: Oracle IS al groot. Daar heeft het zijn claim op Google niet voor nodig. Jammer dat mensen die eigenlijk geen benul hebben van wat Oracle precies is, wel even een totaal ongefundeerde mening erover klaar hebben liggen. Erg jammer.
Wat je wilt analyseren en binnen de (ruime) beperkingen van het systeem blijft :P
Dan kan bijvoorbeeld gebruikt worden in een game waarbij de moeilijkheidsgraad moet worden aangepast in real-time. De acties van de speler worden dan geanalyseerd door zeer grote queries.
Hebben de Intel Xeon processors niet allemaal meer dan n core? Dat zou namelijk betekenen dat er 40 processors zijn en er meer dan 40 processorcores zijn. Lijkt me sterk dat ze 40 singlecores gebruiken..

edit: typo

[Reactie gewijzigd door reit0705 op 3 oktober 2011 16:34]

Ze gebruiken 4 cpu's met elk 10 cores (intel Xeon E7-4800).
Want 40 processors lijkt me een beetje veel als je kijkt naar de grootte van het ding op de site die genoemd wordt door wildhagen.

Edit, aangepast na lezen van reactie van fdh :)

[Reactie gewijzigd door HikariMisako op 3 oktober 2011 16:42]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True