Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties
Bron: Microsoft

Microsoft heeft bekend gemaakt dat ze het TPC-C record weer verbroken hebben, ditmaal met 505,302 transactions per minuut (tpmC). Het record werd bereikt met een cluster van 24 Compaq ProLiant 8500 servers, die in totaal bestond uit 192 Pentium III 700MHz processors (dat zijn er dus 8 per server). Lijkt je dit ook wel een leuke config voor thuis, dan zul je toch ff door moeten sparen: het cluster kost namelijk 10.4 miljoen dollar:

By doubling the number of processors and servers, Microsoft increased throughput by roughly 93 percent, at an increased cost per transaction of about 2 percent. That's called linear scalability, and it's the holy grail of the database world.

Het vorige record stond op 262,243 tpmC. Otis bedankt voor de link!

Moderatie-faq Wijzig weergave

Reacties (55)

Dit zegt toch weinig over de database zelf, als IBM hier weer overheen wil zetten ze toch wat meer machinetjes in.


* 786562 koroshiya
Nee dat is dus niet zo. Zoals ook in het verhaaltje staat is het juist het knappe dat ze door 2* zo veel systemen in te zetten ook 2* zo veel performance weten te bereiken. Lineair dus.
Maar ze hebben niet linear opgeschaald vergeken met het vorige record (de DB2 van IBM). Ze hebben 150% meer processorkracht nodig om 15% boven het IBM record te komen.

En dat zegt dan weer wel wat (over MS SQL en over IBM DB2 dus).
lees even goed: van ruwweg 440.000 naar 505.000 is geen verdubbeling.
ze hebben geen 15% meer als IBM maar een bijna een verdubbeling wat inhoud dat ze 100% meer halen.... :)
Ik denk eerder dat MS hiermee heeft willen bewijzen dat SQL-server wel schaalbaar is, in tegenstelling tot wat veel kritieken zeggen. En ik denk dat ze het zo ook wel aardig hebben bewezen.
De kritieken gaan er vooral over de perfomance per server. Een beleggingsfonds als Robeco heeft databases waar tabellen van 2 Terabyte staan. Zo'n tabel wil je vaak graag op 1 enkele machine hebben staan, tabellen over verschillende machines splitsen is rottig. En dan is een SGI origin met 500 processoren handiger dan een win2k server met maximaal 32 processoren.

Misschien dat ik het trouwens mis heb en is dit al een performance test waar tabellen over meerdere machines verspreid staan, dat kon ik zo snel niet vinden.

Maar in ieder geval zegt dit nog niks over de schaalbaarheid per machine.
Als je nou microsoft heet en zo vaak wordt afgezeken omdat je software te traag is dan ben je met dit soort publiciteit echt goed bezig. Sql laat hiermee zien dat het nu echt een goed produkt is geworden en dat verdient wel wat aandacht.

Top gedaan van Microsoft.
24 Compaq ProLiant 8500 servers
hmm, SUN kon op een Sun Enterprise 10000 (dus op een enkele machine) al 156.873 halen :7, dus ze hebben 24X zoveel machines nodig om slechts 3X zo snel te gaan.

Over efficiency gesproken..... :'(
Waarbij je voor het gemakt maar vergeet dat de Sun een RISC-processor is, en dit een (veel inefficiŽntere) x86-processor...
RISC-processor is, en dit een (veel inefficiŽntere) x86-processor
dat is tegenwoordig niet meer zo, en al helemaal niet als je de oude SUN UltraSparc II (waar deze test mee gedaan is) in ogenschouw neemt.
Imho zou het een grotere uitdaging zijn als er een max bedrag voor hard/soft/whatever-ware voorgeschreven werd. Bijvoorbeeld 1 miljoen $ en verzin dan maar het snelste 'systeem'
Dat zou inderdaad een mooie zijn ja, want dit gaat nergens over, dit gaat erover wie de meeste machines aan elkaar koppelt en er een database server op installeert.

Straks gaan ze nog hierop:
yahoo.cnet.com/news/0-1003-200-2429263.html?pt.yfin.cat_fin.txt.ne
benchmarks doen (een cluster van 2700 1GHz alpha's) :D
Nee dit gaat er over wie de meeste compu's aan elkaar kan knopen en dan ook nog voldoende performancewinst daarmee behaald.
Op die manier heeft TPC.org ook een price/performance benchmark.
Daar heeft MS met win2k en SQL de plekken 1 t/m 10.....
Alsof iemand die op zoek is naar dit soort perfomance eist dat het maar 1 mln $ mag kosten.....

Nergens waar records gebroken worden zit er iemand op de centen te kijken.....
effe voor de duidelijkheid:
Win2k Pro: 2 procs
Win2k Server: 4 procs
Win2k Advanced Server: 8 procs
Win2k Datacenter Server: 32 procs
:)
M.A.W. ze hadden net zo goed een aantal UNISYS AS7000 systemen kunnen plaatsen (kunnen namelijk 64 processors max.in). Had ze nog wat geld op hardware bespaard ook. :D :D :D
Dit soort resultaten geeft toch altijd een wat vertekend beeld vind ik...

Het is wel heel leuk dat MS zo'n mooie performance weet neer te zetten, maar als je kijkt naar de hardware-config die daarvoor gebruikt is...

Voor 505302 tpmC hebben ze 192 Xeon III's @ 700MHz nodig, terwijl IBM met DB2 voor 440879
tpmC 'slechts' 128 van dezelfde CPU's nodig heeft... De totaal-oplossing van Compaq & Microsoft is dus wel het snelst, maar dat komt niet door de software...
Onno schatje het gaat juist om de combinatie en daarom heeft tpc ook verschillende categorien waaronder die van snelheid maar ook bijvoorbeeld die van beste prijs/snelheid verhouding. Lees het maar eens na op hun site is echt heel interessant
Jammer toch dat alleen grote software bedrijven op de prijs/prestatie resultaten mogen indienen. (en het kost een aardige bak geld om bij TPC een getal te mogen indienen)

De MySQL server, de Interbase server, de PostgreSQL server, ze worden genegeerd door TPC. Terwijl bijvoorbeeld MySQL wel de meest gebruikte databaseserver op het internet is.
In termen van TPC is MySQL geen echte database... die T staat voor Transaction, en bij mijn weten ondersteund MySQL geen transacties. Er ontbreken nog wel wat meer dingen aan die je in dit soort db toepassingen toch echt wel nodig hebt. Als je ziet wat die testen aan hardware vergen is het niet verwonderlijk dat niet elke db fabrikant em laat uitvoeren toch...

Scale out (meer machines) is m.i. trouwens beter dan meer processoren. Je hebt dan n.l. al snel geen single point of failure meer namelijk en je kant met gangbaarder hardware toe.
In termen van TPC is MySQL geen echte database
klopt, maar Interbase en PostgreSQL doen dat bijvoorbeeld wel... En toch staan ze niet eens genoemd bij TPC omdat er geen groot bedrijf een zak geld op tafel legt om de testen op te nemen. :(
het gaat juist om de combinatie
Dat is leuk en aardig, maar dat is dus geen prestatie van Microsoft, maar van Compaq. Zoals ik al zei. En dus is deze nieuwspost misleidend.
In het geheel niet.
De TPC-C is een erg zware query en vraagt veel van de software. Het gaat hier juist om de scaling van de software over grotere hardware. Die hardware doet het wel, daar twijfelt geen hond aan, maar het gaat er om of de software met meerdere systemen en meerdere cpu's dan nog steeds lineair scaled of dat het systeem bezwijkt onder de overhead die enorm toeneemt bij meerdere systemen in een cluster. Het blijkt hier dus uit dat de software die scaling bijna lineair uitvoert en DAT is juist waar het om ging. Dus wel degelijk een MS topic.

Verder is het niet alleen SQLserver wat wint, ook windows2000 en COM+. Zeker voor COM+ een enorme opsteker omdat de 'critici' het nog altijd niet scalable en gelijkwaardig aan bv tuxedo achten.
Ja, maar het gaat erom dat ze met een verdubbeling van het aantal procesoren (van 96 naar 192) ook bijna een verdubbeling van de troughput hebben. En hiermee tonen ze dus aan dat deze versie welzeker schaalbaar is.
Centurion: Wel schaalbaar, maar niet efficient. Dat was ook Onno's punt zo'n beetje.
Wat je echter vergeet is dat het hier om een test gaat die niet de prijs/prestatie of theoretische power/prestatie meet, maar juist de schaalbaarheid van de prestaties (en dus niet de schaalbaarheid opzich.) Dus het is totaal niet boeiend hoeveel je gebruikt en hoe de verhouding is, het gaat erom WAT je uiteindelijk gedaan zou krijgen als geld en ruimte *totaal* geen rol zou spelen. Daarvoor bestaat de TPC-C.
Tja, de performance van COM+ is altijd wel OK geweest, maar het grote probleem met COM+ is dat het louter op een Wintel platform draait. Als je business objects ontwikkelt bij bijvoorbeeld een bank zoek je naar een optie die ook op mid- en mainframe draait, dus kom je automatisch bij EJB/Java uit.
Volgens mij is die schaalbaarheid van MS toch wel enigszins beperkt. Als ik goed geinformeerd ben ondersteunt NT maximaal 8 processoren per machine. Uitbreiding betekent dus vaak nieuwe machine erbij, OS installeren, SQL omgeving opnieuw configureren etc. In andere omgevingen kun je gewoon een extra processor in de machine frotten en klaar is case 8-)
Met Windows 2000 Datacenter server (da's wel de duurste :7) kun je tot de 32 processoren p/machine.
Volgens mij worden voor grote databases bijvoorbeeld Origin 3400's van SGI gebruikt, daar kunnen tot 512 processoren en 2 TeraByte geheugen in. :7

Ik weet in ieder geval dat de grote genetische databases (die met alle menselijke DNA sequenties e.d.) allemaal op SGI's draaien. Ik neem aan dat ze daar hun redenen voor hebben.
Datacenter iemand?
Schaalbaarheid hoft trouwens niet altijd binnen 1 machine plaats te vinden.
Dit is dus zgn. Scale-out en dat is dus echte schaalbaarheid.
Meestal wordt met schaalbaarheid juist wel de schaalbaarheid van single-servers bedoeld. Want andere schaalbaarheid kun je bij veel processen met load balancing of round-robin systemen oplossing (behalve dan net de database servers, alhoewel ook daarvoor wel load balancing gebruikt wordt in extreme toepassingen). Dus schaalbaarheid is meestal dat je Irix op een single processor O2 kunt draaien, tot een 512 processor Origin.
Compac can ook een custom win NT HAL geschreven hebben voor hun servers. Dan kunnen ze in principe zoveel processoren ondersteunen als ze willen toch?
Eindelijk eens positief nieuws van MS, en er kunnen natuurlijk altijd dingen nog beter gedaan worden, maar ik denk dat dit de betere prestaties zijn van MS.
Beter gezegd, eindelijk eens positieve reakties bij Tweakers.net over MS......
Erg jammer dat de tpc-c test die ze gedaan hebben niet echt betrouwbaar is. Dit is een verouderde test. Het is maar de vraag of deze combinatie in de praktijk ook de snelste is.
Neemt niet weg dat het product waarschijnlijk een hele verbetering is ten op zichte van de vorige release.
Werk je soms voor Oracle ;)
Dit is dus al jaaaaren de defacto benchmark. Vroeger stonden combinaties van Sun en Oracle altijd bovenaan maar nu ze pas op plek 8 gaan meedoen noemt Oracle deze benchmark niet meer relevant.
ja ja, zo lust ik er nog wel een paar.
Wat nou doorsparen?! Wie denk je dat dat geld voor heeft moeten schieten aan Microsoft? Juist ja, ik! (8>
Allemachtig...wat een aantallen zeg. Maar inderdaad wat RexnoR ook zegt. Stel een aantal limieten op en probeer daarbinnen een zo snel mogelijk systeem te creeŽren. Dan wordt het pas echt lagge. Nu is het gewoon, wie de meeste centen over heeft koopt zoveel mogelijk hardware e.d. in en koppelt dat aan elkaar. Kleinere bedrijven die niet zo'n groot budget hebben maar wel een goed systeem kunnen leveren worden hierdoor een beetje weggedrukt.
Zouden we ze mij microsoft over kunnen halen om een koetje te instaleren :? Wel voor de DPC natuurlijk!

Dat is lekker grazen!!

MMmmoooooooo


eeeh het kan aan mij liggen hoor maar volgens mij was het de 8e post!!!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True