Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

64-way Madison 1,5GHz aan kop in TPC-C benchmark

Eind februari schreven we dat een NEC server met 32 Itanium 2 1GHz processors de tweede plaats had veroverd in de TPC-C lijst. De enige server die nog beter scoorde was destijds de veel duurdere Primepower 2000 van Fujitsu met 128 SPARC64-processors. Inmiddels is laatstgenoemde beestje met kracht van zijn eerste plaats afgestoten door systemen van NEC en HP, beide voorzien van de nieuwe Itanium 2 6M 1,5GHz processors. In de nieuwe lijst is te zien dat de NEC-server met 32 Madison-chips bijna 19% hoger scoort dan zijn voorganger met McKinley-chips. De prijs (tegen de zes miljoen dollar) is echter praktisch gelijk gebleven, waardoor de prijs/prestatie-verhouding natuurlijk een stuk beter geworden is.

Opvallender is echter de HP Superdome-server die nu op de eerste plaats staat. Deze kast kost 6,4 miljoen dollar en is voorzien van 64 1,5GHz Itanium 2 6M-processors. Draaiend met de 64-bit versies van Microsoft SQL Server 2000 en Windows .NET Enterprise Server 2003 zet deze machine een score neer van 658.277 transacties per minuut, 28% meer dan de nummer twee kan verwerken. Niet alleen is de Superdome op dit moment met afstand de snelste non-clustered database, maar ook nog eens degene met de beste prijs/prestatieverhouding in de top 10.

Top-5 non-clustered TPC-C performance
HP Superdome (64x Itanium 2 1,5GHz) 658277
NEC Express5800/1320Xc (32x Itanium 2 1,5GHz) 514034
Fujitsu PrimePower 2000 (128x Sparc64 GP 563MHz) 455818
NEC Express5800/1320Xc (32x Itanium 2 1,0GHz) 433107
IBM eServer pSeries 690 (32x Power4 1,3GHz) 427760

Door

35 Linkedin Google+

Bron: TPC.org

Lees meer

Reacties (35)

Wijzig sortering
En dan nog zijn er mensen die beweren dat Microsoft geen schaalbare (enterprise) producten maakt. Met 64 processoren maarliefst 45% sneller zijn dan het eerstvolgende met 128 processoren uitgeruste Sparc/UNIX systeem (dat ook nog eens letterlijk 2x zo duur is):

http://www.tpc.org/tpcc/results/tpcc_perf_results.asp?resulttype=noncl uster&version=5
Het punt is dat bij unix machines met tuxedo als transaction monitor veel werk op de server gedaan wordt, terwijl bij MS met DTC/COM+ als transaction coordinator veel werk op de client wordt gedaan (veel als in: meer dan op de server). Hierdoor is de server stukken rapper en verdeel je het werk beter over je totale park, echter is er een grotere kans op falende transacties als je de transacties uitrekt over het netwerk ipv ze start op de server, ze laat leven op de server en het resultaat terugkrijgt op de client.

Dit maakte ik althans op uit unix-adepten die de TPC resultaten met argusogen volgen. Ikzelf heb meer zoiets van: tja, de teller staat wel erg hoog bij die MS oplossingen, en falende transacties tellen niet, dus er slagen wel een heleboel, misschien heeft MS het wat slimmer bekeken en gebruikt het de beschikbare resources wat beter dan de Unix systemen.

(overigens is dit de reden waarom sun geen TPC results inlevert, het zou niet realistisch zijn om transactions uit te rekken vanaf de client naar de server en terug)
Waarschijnlijk zijn veel van die UNIX adepten waaraan je refereert nog steeds aan het denken in inmiddels verouderde client-server architecturen. De transaction coordinator bij MS werkt namelijk niet op de client maar op de middle-tier.

Dit zou standaard moeten zijn in elke enterprise oplossing en ik kan me niet voorstellen dat tuxedo dit doet op dezelfde server als de database. Een goede enterprise oplossing is immers opgebouwd uit 3 of meerdere tiers:

1. database
2. middleware
3. client.

De 3-tier architectuur die Microsoft hanteert heeft juist een hogere betrouwbaarheid en veel minder kans op falen. De middle-tier is onafhankelijk van de databaseserver en je kan voor hoge beschikbaarheid meerdere middle-tier servers (en dus meerdere transaction coordinatoren) gebruiken. Dit voorkomt een single point of faillure die je in client-server omgevingen vaak ziet.
Schaalbaarheid heeft niets te maken met een vergelijking met de concurrent.

Ultieme schaalbaarheid is als je 2x zoveel processors gebruikt, je precies 2x zo snel bent. In de praktijk haal je dat niet door allerlei overhead.

Maar 64 processoren op systeem X vergelijken met 128 processoren op systeem Y zegt natuurlijk niet dat die 64 meer schaalbaar zijn, maar alleen dat ze sneller zijn (eventueel in combinatie met de gebruikte software).

Je zou 64 processoren op systeem X moeten vergelijken met 128 processoren op systeem X. Daaruit komt een snelheidswinst (bv. 1.8x). Je doet dan hetzelfde (64 proc sys Y vgl met 128 proc sys Y) en daar komt ook een snelheidswinst uit (bv. 1.6x).

Door die twee getallen (1.8 en 1.6) te vergelijken kun je iets zeggen over de schaalbaarheid.

(Schaalbaarheid zegt dan weer niets over de uiteindelijke snelheid van een systeem, en dat is natuurlijk in de praktijk belangrijk, daar heb je zeker gelijk in)
Dit soort grote 32-way en 64-way systemen zijn opgebouwd uit modules met vaak vier of acht processors die via zeer snelle externe interconnects een single system image met een gedeeld geheugen (wat bij een cluster niet het geval is) vormen. Een voorbeeld is de SGI Altix 3000, waarover je hier meer kunt lezen. Newisys is bezig met een modulaire 4-way Opteron rackmounts die opgeschaald kunnen worden tot een 32-way systeem.
Ehm, gedeeltelijk. In de tabel op de site staat toch duidelijk dat er "Microsoft Windows Server 2003 Enterprise Server" gebruikt is als OS. Dat OS maakt wel gebruik van NUMA en is dus in staat om de betere geheugen architectuur wel te gebruiken en haalt dus veel betere resultaten dan bijvoorbeeld Windows 2000.

Het maakt alleen nog geen gebruik van het 64-bit gedeelte, dat klopt en daar kan de Opteron dus nog wat performance winst mee behalen. Alleen heb ik het idee dat NUMA ondersteuning voor de performance meer helpt als 64-bit ondersteuning voor de meeste toepassingen.

edit:

En inderdaad heb je niet goed gekeken, de benchmark resultaten die jij geeft gaan over systemen waar veel minder CPU's inzitten. Zo gebruikt de winnaar 4 Opteron 844 1,8GHz CPU's

De nummer twee gebruikt 1 Xeon 2,4GHz CPU, vandaar het grote verschil.

De winnaar haalt een resultaat van 82,226, iets minder dan het resultaat van de Superdome dus ;) (658277).
De Opteron kan heus wel in een 64-way systeem gebruikt worden. Het zal zelfs relatief eenvoudig zijn omdat de Opteron van zichzelf al erg schaalbaar is. Alles wat nodig is, is een crossbar switch waarmee groepen van acht of vier processors aan elkaar geknoopt kunnen worden. Het levende bewijs is Cray, die een supercomputer met een stuk of 10.000 Opterons aan het bouwen is. Newisys is bezig met een crossbar switch waarmee 4-way systemen opgestapeld kunnen worden tot een 32-way machine (single system image, geen cluster). Meer dan 32 processors heeft voorlopig geen zin omdat er toch geen markt voor is.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*