Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 97 reacties, 39.658 views •

Grote serverfabrikanten zouden in rap tempo marktaandeel verliezen doordat grote internetbedrijven op zoek naar meer maatwerk uiteindelijk besluiten om eigen hardware te ontwerpen. In Nederland past bijvoorbeeld Hyves DIY-servers toe.

De totale Amerikaanse servermarkt was vorig jaar goed voor een omzet van 31,9 miljard dollar. Een steeds groter deel hiervan verdwijnt echter niet meer rechtstreeks in de zakken van bekende namen als HP, Dell en IBM. Volgens onderzoeksbureau Gartner is inmiddels 20 procent van die markt geen server die uit de stal van een van de grote fabrikanten komt, maar een zelfontworpen server.

Dit zou volgens onderzoeksbureau In-Stat komen doordat grote internetbedrijven als Facebook en Google behoefte hebben aan meer maatwerk bij de keuze van hun server en daar in de praktijk niet altijd een passend antwoord op vinden. "Dit is een bedreiging voor het traditionele businessmodel", zegt Jim McGregor van In-Stat tegenover Bloomberg. "Klanten vinden oplossingen die de industrie hen niet kan bieden."

Een van de aanwijzingen hiervoor is dat Intel een forse toename in de afzet van serverprocessors ziet, terwijl de serverfabrikanten juist klagen over gelijkblijvende of zelfs dalende verkopen. Volgens de onderzoekers kan dit deels worden verklaard door de opkomst van DIY-servers.

Onder meer Google, Facebook en ook Microsoft hebben zelf servers ontwikkeld die een minimum aan componenten bevatten en zijn ontworpen om één specifieke taak te doen. Facebook zegt hiermee de kosten van de bouw van een nieuw datacenter met bijna een kwart te hebben teruggedrongen.

In Nederland heeft onder meer Hyves eigen servers laten ontwerpen, zo bevestigde de sociale-netwerksite eerder al aan Tweakers.net. Hyves heeft een standaard-1U-doos voorzien van vier miniservers om de hardware zo efficiënter te kunnen inzetten voor een specifieke taak. Hyves kent zo'n 160 verschillende taken die een server zou kunnen doen, waaronder die van webserver en chatserver, opslag en loadbalancers. Elk van de miniservers kan maximaal twee 2,5"-harde schijven aansturen en verbuikt grofweg 30W.

Hyves is gestart met de miniservers om de performanceproblemen van begin vorig jaar de kop in te drukken. Volgens de sociale-netwerksite is het verschil aanzienlijk. Zo kon het bedrijf voorheen naar eigen zeggen maximaal één chatinstance draaien op een machine en zijn dat er nu 24. Eind vorig jaar had Hyves de beschikking over 264 chatslaves, waarvoor het bedrijf zonder de hardwareaanpassingen evenzoveel single quadcore-machines nodig zou hebben gehad.

Schema Hyves Pizzadozen 4-in-1

Reacties (97)

Reactiefilter:-197097+176+26+30
Moderatie-faq Wijzig weergave
De opmerking "Dit is een bedreiging voor het traditionele businessmodel" is al typerend. Dat geeft dan ook precies aan dat de traditionele bedrijven hun businessmodel moeten aanvullen met mogelijkheden waar klanten om vragen. Want die hebben al in het kader van kostenbesparing het aantal configuraties geminimaliseerd maar krijgen nu dus een deksel op de neus omdat klanten eigenwijs genoeg zijn om iets te kopen wat zij willen en niet wat ze wordt opgedrongen.
Probleem is juist dat die klanten custom software gebruiken en de ideale hardwareconfiguratie daardoor ook per klant verschilt. En je kunt als hardwareboer moeilijk voor elke klant een andere server bouwen.
En juist daarom denk ik dat HP meer wilt gaan werken zoals IBM. Dus niet alleen de hardware opleveren maar een compleet systeem opleveren wat de klant gaat gebruiken.

Zo kan je goed inspelen op de wensen van je klant (zo zie je dat IBM bij enorm verschillende zaken is betrokken)
Een paar jaar geleden bij een dochteronderneming van Acer een heel custom rek in elkaar gezet, voordeel was hier, daar ze zelf ook servers bouwen, je gewoon op hun basis-barebones terug kon vallen en controllers, drivebay's, redundante voedingen en spares onderhand gewoon uit het magazijn kon trekken. Alles werd optimaal ingericht en gebouwd voor de specifieke doeleinden van die apparaten, alles met mogelijkheid om ze nog verder uit te bouwen in een planning van de komende 5 jaar. Als consument, of zelfs als afnemend bedrijf, kun je echter nooit zoiets inkopen(of tegen belachelijke prijzen). Dat oa. ik er maanden aan heb zitten schroeven voordat het geheel naar wens werkte en optimaal draaide was leuk, maar die tijd is voorbij.

Dat de markt hiervoor open is, weet bv. Dell allang, gezien ze bij mijn huidige werkgever lopen te lobbyen om een geheel op maat dedicated opstellingen te gaan bouwen om de huidige SQL-cluster en de Citrixfarm te vervangen. Dell springt dus wel degelijk in op dit gat in de markt, en ik denk dat FSC, HP, en IBM snel zullen volgen.
Het is gewoon een indicatie dat hun aanbod niet volledig aansluit bij de markt en dat de mogelijkheden voor eindgebruikers nu een stuk ruimer zijn dan voorheen.

Conclusie: producten en diensten aanpassen aan de nieuwe realiteit.
in mijn ervaring doet b.v. Dell alleen maar heel moeilijk zelfs als je alleen maar geen "dell certified" drives erin wilt maar er 8 vertex3 drives in raid5(7drives plus 1 hotspare, ik haat heen en weer rijden naar het datacenter :D ) in wil hangen..

Moest kunstgrepen uithalen om de onboard raidcontroller erbij te kunnen krijgen.
i.e. bestellen met de 2 goedkoopste sata rommeldrives van dell, en dan 6 spareparts trays erbij zien te krijgen om er 8 solid states in te krijgen .. want de solidstates van Dell kosten 3000 euro per stuk , terwijl je met 8 vertex pro drives van 240gb hetzelfde kwijt bent voor alle 8 (en nog eens veel sneller ook plus meer ruimte)..

dan nog blijven ze je bang maken met dat er geen support op zit als er wat mis gaat omdat er niet de dell drives inzitten .. blablabla..
en dan koop je in principe nog een dell produkt me een kleine aanpassing..

is ook de laatste keer geweest overigens , nu maak ik ze ook zelf..

dus eigen schuld dikke bult als je het mij vraagt.
Ja toen ik het artikel had gelezen dacht ik ook maar aan 1 ding: iets met vraag en aanbod?!

Als ik anno 2011 nog 5,25" floppy's met dozen wil verkopen vrees ik dat ik ook niet zo veel omzet meer zal maken.
Voorbeeldje van zo'n DIY server ...
http://blog.backblaze.com...uild-cheap-cloud-storage/

Het ding heeft ťťn doel: opslagcapaciteit.
Verder nog een overzichtje met de kosten voor de merkservers... dan begrijp je waarom ze voor DIY gaan.
Een poosje geleden het zelfde gedaan voor een klant van me... Heeft een boel geld bespaard, maar je moet erg voorzichtig zijn met de component selectie...:
http://www.servercare.nl/Lists/Posts/Post.aspx?ID=109

Ook hier ging het om storage.
Ik mis nog wel de prijs voor de uren die in dit project zitten, en een reservering voor de kosten van voor de uren die gaan zitten in het troubleshooten van fails en het vinden van spares.
Als je goed leest: de harddisks worden omgeruild binnen de garantie. En de totalen van de kosten die worden berekend zijn inclusief manuren.
Volgens Backblaze:
we employ one guy (Sean) whose fulltime job is to maintain our fleet of 201 pods, which hold 9,045 drives. (..) Typically, once every two weeks, Sean deploys six pods during an eight-hour work day. (..) Sean also spends one day each week replacing drives that have gone bad.
Ik denk dat het DIY van de grote datacenters hier wel aardig beschreven wordt.

http://opencompute.org/

Het is meer dan zelf wat standaard componenten in elkaar schroeven.
Het is zelf je standaardcomponenten ontwerpen.

Alleen de chip ontwerpen ze nog niet zelf.
Maar ze proberen wel er invloed op uit te oefenen.

http://blogs.amd.com/work/2011/07/12/sharing-your-toys/
Dat werkt misschien voor de mega bedrijven als Google en Facebook die zoveel servers hebben dat ze makkelijk een afdeling aan serverbouwers aan het werk kunnen houden (en de $$$ voor een specialisten salaris kunnen betalen), maar er zijn honderdduizenden bedrijven die onmogelijk allemaal geweldig goede server bouwers zijn. Uiteindelijk is dit gewoon weer de aloude "uitbesteden of zelf doen" afweging.

[Reactie gewijzigd door Dreamvoid op 12 september 2011 16:19]

Ja ik denk dat je helemaal gelijk hebt. Ik heb wel eens een paar artikelen gelezen mbt de data centers van mega bedrijven zoals Google. In die artikelen werd duidelijk uitgelegd waarom het voor bijv Google lastig is om eenzelfde dienst te maken zoals Amazon (het verhuren van capaciteit). Dit komt inderdaad door de speciale hardware en de software die geschreven is. De software die Google gebruikt is gestript van functionaliteit en doorontwikkeld op schaalbaarheid. Het nadeel daaraan is dat het zo exact op de wensen van Google is aangepast dat het ook niet meer zaken aan kan. En juist het aankunnen van die extra zaken is voor bijv een normaal datacenter belangrijk (die willen juist elke soort van functionaliteit aanbieden.)

Ik vind het jammer dat ik het artikel niet meer kan vinden... Misschien iemand anders die het artikel wel kan vinden?

Edit:

Linkje : http://storagemojo.com/ar...t-data-center-parts-i-iv/

Naar mijn mening interessant stukje:
Not The Same As The Old Boss
IDCs (internet data center) differ from EDCs (enterprise data center) in many ways. The question is why. The answer can tell us much about how we can expect to see IDCs evolve as well as how to re-think the EDC. Is it the economics? The applications? The technology? The scale? Or is something else behind it?

Some of the hardware elements that differentiate IDCs from EDCs are:

No big iron RAID arrays
No Fibre Channel
Direct-attached disk (with the exception of Yahoo Mail)
Many small, low-cost servers

This architecture is a startling contrast to the standard big-iron array-and-server architectures heavy on Fibre Channel, RAID, mainframes and servers in the $15k and up range. In this series of articles I’m going to look at a few of these differences to see what is behind them, using one of my favorite papers as a guide.
Ik vond het leuk genoeg om het gehele artikel te lezen :)

[Reactie gewijzigd door Mellow Jack op 12 september 2011 17:06]

Je vergeet dat ook HP, Dell en consorten hun moederborden 'ergens' bestellen, zeker als het budget of bulk producten zijn.

Het is dan ook eenvoudig om bij een partij die al ladingen moederborden maakt een speciale variant te laten maken die gunstiger is in gebruik. Uiteindelijk is het toch voor 90% een reference design. En in het artikel wordt over uitgeklede moederborden gesproken, die zijn juist makkelijker te ontwerpen.

Daarnaast kan ik me ook voorstellen dat bedrijven ontzettend moe worden van 'besparingen' op hardware die uiteindelijk geld kosten. Een hoogwaardigere condensator, een iets betere printplaat of een vergulde connector, kost letterlijk soms een paar cent extra, maar zorgt ervoor dat de levensduur net iets langer is, dat er minder uitval is en misschien zelfs nog wel een iets lager stroomverbruik.
Tis eerder andersom: professionele server bouwers hebben ervaring, en merken dat het gebruik van hoogwaardige onderdelen direct terugkomt in gemiddeld lagere support kosten. Maar het maakt hun servers wel duurder. Veel gebruikers zien liever direct een besparing in de aanschafkosten, maar de hogere failrate komt pas later boven in de lopende kosten.

[cynisme]
Voor de IT afdeling van zo'n bedrijf is het dubbel scoren. Eerst goede sier maken met de lage aanschafprijs, daarna is de baangarantie verzekerd want er is geen extern bedrijf meer die de servers onderhoudt, en wie anders weet precies hoe en met welke onderdelen die DIY servers in elkaar zijn geknutseld?
[/cynisme]

[Reactie gewijzigd door Dreamvoid op 12 september 2011 17:38]

Als je 200 servers hebt die allemaal elkaars taken over kunnen nemen, maakt het niet uit of er eens eentje stuk gaat. En bij bijv. De systemen van hyves scheelt het ook behoorlijk in het energieverbruik.

Het kan bij zulke aantallen, waarbij dan het energieverbruik ook nog eens gunstiger kan zijn, zoveel in de kosten schelen dat je een lading van die dingen als spare op de plank kunt leggen.
Je vergeet dat ook HP, Dell en consorten hun moederborden 'ergens' bestellen, zeker als het budget of bulk producten zijn.
Bron? Zover ik weet ontwerpt in ieder geval HP hun servermoederborden zelf. Dat ze ze zelf fabriceren is niet iets wat ik wil zeggen (daar is Foxconn voor), maar dat is ook niet het belangrijke. Je krijgt niet gewoon een rebranded ASUS ofzo.
Voor werkstationborden is die taktiek veel te duur, en bestellen practisch alle grote merken een variant op een standaardbord uit het assortiment van hun OEM.
Serverboeren zouden daar ook op in kunnen springen door maatwerkoplossingen aan te bieden. Maar daar zien ze waarschijnlijk geen brood in. Andersom zal dat voor bedrijven als Google en Facebook ook weer niet interessant zijn omdat je je dan toch weer afhankelijk maakt van een externe partij.
Die zijn er wel, maar die leveren ook zelfbouwservers. Er zijn genoeg serverboeren die Supermicro leveren. Voor grote toko's als Facebook en Google is het verder niet interessant om supportcontracten te hebben, die nemen gewoon hardware op reserve of hebben zoveel overcapciteit en redundancy dat het niet boeit of zo'n server vandaag of volgende week gefixt wordt.
Serverboeren doen dat ook, maar dan heb je het eerder over een bedrijf als Clustervision dan over een bedrijf als Dell.

[Reactie gewijzigd door mae-t.net op 12 september 2011 23:40]

Zo moeilijk is het niet. Ik heb ook iets van 8 colocated servers voor een website. Je koopt een barebone, bijv. van Supermicro of Intel. Vervolgens bestel je los de CPU, schijven, geheugen en RAID controller en je bent klaar. Voor een paar tientjes extra zetten ze het nog voor je in elkaar ook en krijg je garantie.

Je hebt dan niet alleen veel meer keuzevrijheid, je kunt gelijk het snelste materiaal nemen en het is ook nog eens stukken goedkoper.

Support is dan weer een ander verhaal, dat zul je zelf moeten doen of iets aparts moeten afsluiten wanneer er hardware defect gaat, of zelf hardware op voorraad nemen.
Jullie vertellen over allemaal bedrijven, maar hoe doen jullie het zelf eigenlijk? Jullie hebben vast een aparte server voor de mysql database, misschien voor de foto's, het forum?
Een paar jaar geleden is Tweakers af gestapt van zelfbouw naar merk servers omdat zelf bouw te veel problemen op leverde.
Wat de laatste servers zijn weet ik niet, maar vind dit bericht in dit nieuws wel opvallend.
Ik denk dat ze met zelfbouw bedoelen dat het bedrijf bij een hardwar fabrikant een server op maat laat produceren die voor hen voldoet bij hun interne processen.

Ik denk niet dat bij microsoft facebook en google zelf de schroevendraaier ter hand nemen om die dingen in elkaar te schroeven uit onderdeeltjes. Denk eerder een build to specification server fabriek af. Correct me if i'm wrong
Google bouwt zeker wel zelf hun eigen servers. Zie bijvoorbeeld deze video waarin ze uitleggen hoe hun datacenters in elkaar steken.
Ik denk niet dat bij microsoft facebook en google zelf de schroevendraaier ter hand nemen om die dingen in elkaar te schroeven uit onderdeeltjes.
Zeker wel, Facebook heeft er zelfs een website aan gewijd: http://opencompute.org/
Ik weet van Google dat zij in hun begindagen de folders van de grote PC verkopers afstruinden naar aanbiedingen en dan de volledige voorraad in zo'n winkel opkochten, moederborden eruit haalde en in hun eigen ontworpen racks monteerde. Dat was veel goedkoper dan de klassieke 19 inch server.

Ik denk dat men op dit soort concepten doelt. Ik kan me nl. niet voorstellen dat bijvoorbeeld Hyves op klantspecificatie hardware laat maken. Zijn ze veel te klein voor om dat rendabel te maken.
Ik denk dat men op dit soort concepten doelt. Ik kan me nl. niet voorstellen dat bijvoorbeeld Hyves op klantspecificatie hardware laat maken. Zijn ze veel te klein voor om dat rendabel te maken.
Als ze daardoor een paar servers minder in kunnen zetten omdat deze DIY's efficiŽnter zijn, dan kan het prima opwegen. Ik denk dat je je ook niet moet vergissen in de grootte van Hyves, ze zullen gezien het aantal gebruikers wel eens net zo'n groot park als T.net kunnen hebben of misschien nog wel groter.

Verder heb je gelijk volgens het artikel:
"Klanten vinden oplossingen die de industrie hen niet kan bieden."
Het gaat dus om zelfbouw vanuit losse componenten en geen build to order constructies. Dan zou de industrie het ook minder merken in hun verkoop cijfers.

[Reactie gewijzigd door breinonline op 12 september 2011 17:22]

Suggereer je nu dat Hyves "bijna net zo groot" als Tweakers.net is?? Tweakers.net heeft ongeveer 20 servers in gebruik, ik heb van Hyves cijfers gezien die spraken van 6000 servers. Maar dat was waarschijnlijk voor deze vernieuwde hardware.

Qua pageviews/server doen wij het geloof ik wel wat beter, maar dat komt omdat wij onze specificaties aan de bovenkant van het spectrum van 2-cpu servers inkopen, ipv aan de onderkant.

Overigens heeft Dell ook een afdeling die servers op maat maakt voor grote klanten. Zij signaleerden dit gedrag blijkbaar destijds ook.
Dat zou me niet verbazen. Uit betrouwbare bron (1 jaar geleden) weet ik dat de architectuur en broncode Hyves brak is en eigenlijk een grondige refactoring nodig heeft. Het is initieel nooit gebouwd om zoveel gebruikers aan te kunnen, dus moe(s)ten ze wel in de breedte schalen. De nieuwe componenten schijnen beter ontworpen te zijn, maar de core is nog steeds zo brak als wat.
Een server van lego zelfs. Dat is zo DIY als het maar kan :)
Microsoft gebuikt voor zijn Azure platform bouwblokken in de vorm van hele containers. Wanneer er op een lokatie nieuwe hardware nodig is, wordt er ergens een container in elkaar geschroeft en in 1x in een datacentrum geschoven.

Een los onderdeel bestellen heet dat, maar dan op een andere schaal dan je zelf zou verwachten.
dat concept is niet nieuw, dat hebben ze geleend van sun, ibm en google, die het ook weer allemaal van elkaar geleend hebben :)
Facebook is redelijk open in hoe en wat ze doen qua hardware, zie ook de facebook group :

https://www.facebook.com/photo.php?v=10100315601508877

Zeker een aanrader voor tweakers :)
Merkservers zijn ook makkelijker om gesponsord te krijgen ;)
Hier zie je 1 van de servers die tweakers gebruikt: plan: Nieuwe databaseserver op 23 juni - update
In principe vind je via deze pagina al je antwoorden.
Ik vind de term DIY server een beetje vreemd. Er zijn genoeg kleinere bedrijven die servers bouwen. Wij hebben een rack vol met spullen van Supermicro hangen. Gewoon, 'echte' servers, maar wel geassembleerd door een bedrijfje in BelgiŽ (dus niet door Supermicro zelf, ook niet door ons, maar door een Supermicro-partner). Die machines zijn allemaal samengesteld naar onze specificaties, op het moment van bestellen.

Ik zie om mij heen veel clubs die hier ook voor kiezen.
Het scheelt ook nogal; zo'n Supermicro machine kost me tussen de 60% en 70% van wat een HP apparaat met dezelfde specs zou kosten. Dit met meer flexibiliteit in de configuratie en tegen goede garantievoorwaarden (3 jaar NBD over het algemeen).

Lang verhaal kort; zou het niet zo kunnen zijn dat een deel van de omzet verhuisd van de grote serverbouwers, naar kleinere integrators, die (min of meer) maatwerk leveren tegen een lagere prijs?

[Reactie gewijzigd door Bjornski op 12 september 2011 16:49]

nu wil ik best geloven dat jij minder betaald maar als wij een bestelling plaatsen van een paar 100.000 euro is het gewoon afdingen en geloof me HP/ DELL / IBM, kunnen makkelijk 50%-60% procent van hun geadverteerde prijs afdoen.
Dan merk je plots dat die SuperMicro / Tyan / DIY server plots niet meer zo goedkoop is.

Ook als je iedere week 10 servers bestelt wil ik dat de 500ste nog steeds dezelfde specs heeft.

Ik vind het trouwens een erg vreemde uitspraak. Volgens mij is virtualisatie een veel grotere aanslag op hun afzetmarkt dan DIY server.
Je koopt gewoon 1 server met 40Cores en 1 TB geheugen voor een schijntje ivm 10 physieke 2way server met ieder een dual-core.

[Reactie gewijzigd door klakkie.57th op 12 september 2011 17:47]

geloof je niet 50-60%. in combinatie met diensten kunnen ze grotere kortingen geven maar puur op hardware niet. en meeste bedrijven besteden geen paar ton aan servers. hoe kleiner de uitgave hoe groter het aantal bedrijven. zoiets als er werken meer mensen bij het mkb dan bij de top 500. of er zijn meer bedrijven met minder dan 10 werknemers dan top 500 bedrijven.
Je mag me niet geloven maar ik heb toch op het gehele bedrag van 450000euro 50% korting gekregen. dit was een geheel van servers storage en licenties.
Daarenboven zelfs al dezelfde korting bedongen op zelfde investering nog eens de komen 18 maand.

dus nul komma nul diensten want die nemen we bij een andere partij dan HP zelf.

En in het artikel gaat het wel degelijk om fortune500 bedrijven, google , facebook etc duidelijk niet de kruidenier om de hoek. Ik weet niet waar je werkt, maar bijvoorbeeld in de farma industrie gaan ze echt niet staan knoeien met standalone servers daar worden gewoon ineens 10 nieuwe racks met blades neergeploft, net zoals jij en ik een computer kopen.
Enkel gaat dit soort bedrijven nu ook massaal virtualiseren (of hebben ze dat reeds lang gedaan).Waar ze vroeger 3 fysieke servers aankochten voor een simpele applicatie (dev, test, prod) draaien die dingen nu volledig virtueel, vaak stonden deze dan nog dubbel uitgevoerd over 2 locaties , dus maar liefst 6 fysieke servers voor 1 applicatie/test-setup.

[Reactie gewijzigd door klakkie.57th op 13 september 2011 01:53]

Je hoeft het niet te geloven maar ik kan bevestigen dat het klopt.
Dit soort kortingen zijn redelijk standaard voor grote bedrijven als ze aankloppen bij de grote hardware fabrikanten.
Overigens kan dat prima zonder diensten en is dat gewoon mogelijk op de hardware zelf maar ook op support.
het gaat om kant en klare servers van een groot server bouw merk.
supermicro is meer barebone of zelfs uit componenten zelf samen te stellen en te bouwen.
wij zijn van supermicro overgestapt naar dell. geen enkele motivatie behalve dat we supermicro in eigenbeheer hadden en dell door de hosting partij. dus van colo naar dedicated. ik heb met beide merken geen problemen gehad op geen enkel vlak.
Ik vind de term DIY server een beetje vreemd. Er zijn genoeg kleinere bedrijven die servers bouwen. Wij hebben een rack vol met spullen van Supermicro hangen. Gewoon, 'echte' servers, maar wel geassembleerd door een bedrijfje in BelgiŽ (dus niet door Supermicro zelf, ook niet door ons, maar door een Supermicro-partner). Die machines zijn allemaal samengesteld naar onze specificaties, op het moment van bestellen.

Ik zie om mij heen veel clubs die hier ook voor kiezen.
Het scheelt ook nogal; zo'n Supermicro machine kost me tussen de 60% en 70% van wat een HP apparaat met dezelfde specs zou kosten. Dit met meer flexibiliteit in de configuratie en tegen goede garantievoorwaarden (3 jaar NBD over het algemeen).

Lang verhaal kort; zou het niet zo kunnen zijn dat een deel van de omzet verhuisd van de grote serverbouwers, naar kleinere integrators, die (min of meer) maatwerk leveren tegen een lagere prijs?
Nee, dit gaat letterlijk om custom hardware. Dit komt bijvoorbeeld bij Facebook vandaan: http://opencompute.org/. Een stukje omhoog vind je al een tweetal links naar de servers van Backupbedrijf Backblaze.
wth moet zo'n "chatslave" allemaal doen dat je er 1 server voor nodig hebt?
Mijn host heeft me een tijdje terug verhuist naar een server waar ook een IRC op gehost word, daar ben ik niet gelukkig mee laat ik het zo zeggen...
en terecht!
ik heb ook een eigen server in een datacenter hangen in 020.
gekeken naar een 'merk' server maar daar krijg je niet echt bang for buck. meer veel geld voor weinig.
de servermoederborden van tyan en asus zijn tegenwoordig van dermate goede kwaliteit dat zelfbouw goed mogelijk is, inclusief alle hardware monitoring, zoals ipmi, kvm over ip enz enz.
als dit voor 1 server al zo'n 20% scheelt op de prijs, moet je nagaan wat het oplevert als je er 1000+ afneemt!
Dit werkt ietwat anders op 1 servertje.

Als daar een onderdeeltje uitvalt dan gaat je initiele 20% winst gauw in rook op terwijl je x dagen wacht op een spare...

Met 1000 servers kan je 100 complete spare-servers neerzetten om het op te vangen en je hebt nog steeds 10% besparing.
Met 1 server betekent 1 complete spare-server neerzetten simpelweg 60% duurder uit zijn.

Maar bij de groten werkt het ook simpelweg iets anders, 1 koelertje wat voor niets draait betekent 3 jaar lang x extra stroomkosten, dat is op 1 server te verwaarlozen, op 5.000 oid wordt het een leuk bedragje...
Als al de apparatuur bij de hardwareboer om de hoek te koop is, heb je dat ook binnen een paar uur.
In het slechte geval bestel je het bij een webshops en heb je het de volgende dag.
De kans dat je exact hetzelfde onderdeel ťťn ŗ twee jaar later nog kan kopen is zowat nihil tegenwoordig...
Hangt er ook vanaf wat je neemt, sommige bedrijven willen nog wel eens hoge kortingen geven. Zo werd ik net gevraagd door een Noorse klant of een Dell R210 een beetje geschikt was. Heb hem de nadelen genoemd van dat ding (plastic uiterlijk, geen hotswap en geen BBU/WB cache op RAID), maar voor dat geld wat hij voor 3 stuks betaalt kan je nog niet eens zelfbouw kopen, laat staan met 3 jaar garantie met 4 uurs onsite support.
Dell PowerEdge R210
Starting Price $2,172.00

uh? wat?
ja 4uur on-site support heb je mischien niet maar qua hardware wat erin zit heb je 't zelf bij elkaar geschroefd voor minder dan....


DELL™ PowerEdge™ R210

Listenpreis 505,00 €
Rabatt 116,00 €
Zwischensumme 389,00 €

Tja ;) Dat zette je er niet bij ;) Nee voor die prijs gaat geen mens 2x nadenken.
We hebben er zelf ook een in elkaar gezet bij mij op kantoor. We wilden zaken gaan testen en ontwikkelen met een Tesla en als je dan een server wilt gaan afnemen is dat voor een prijs die gerechtvaardigd is voor de eerste tests zo goed als onmogelijk.
De stap van consumenten DIY naar server DIY was bij ons al helemaal klein, omdat het merendeel van de hardware ook gewoon top consumentenspul is geworden. Uiteindelijk is het enige een profispul een goede 4U Norco rackbehuizing en een Intel dual lan kaart op PCI-e x4 met iSCSI ondersteuning geworden. We waren met een prijskaart van 2500 euro voor een mooi bedrag klaar :-)
Lol, je snapt het verschil tussen profispul en consumenten spul niet echt geloof ik...

Dat is ongeveer 90% support en SLA's.

Zodat als je server uitvalt je niet 3-dagen offline bent en 10.000 schade hebt, maar 4 uur offline bent en 5.000 schade hebt, dan heb je 2500 euro bespaard...
Als je slechts een paar servers hebt kan je inderdaad beter standaard spul met fatsoenlijke SLA pakken.

Als je heel veel servers hebt, ben je niet zo afhankelijk van storingen. Je neemt een defecte component uit service en laat de andere componenten de boel overnemen. Kan zelfs automatisch gedaan worden. Op gezette tijden doe je een serviceronde om de kapotte zaken te vervangen. Omdat het dan planned maintenance is kan dat veel goedkoper.
Bij een heleboel bedrijven is een aantal (goedkope) spares en de toch al aanwezige icter goedkoper dan support en sla's afsluiten. Als er al eens iets uitvalt zit je nog steeds met een minimale downtijd omdat de icter met de spares het zelf op kan lossen.
Voordat er een support engineer bij je bedrijf is ben je ook al uren verder. Raid/Data mirror en real time back-ups zijn dan veel belangrijker.
Ik snap dat prima, maar als die testserver uitvalt is er bij ons niks aan de hand. Als je nog in een testfase verkeert en je verliest 10.000 euro in 3 dagen is je definitie van 'test' toch wat vreemd.
Als onze SAN raar begint te doen staat Dell binnen een erg korte tijd op de stoep. Idem voor andere kritieke servers. Hoezo 'je snap het verschil niet?'
Wat ik met profi spul alleen maar wil aangeven is dat bepaalde componenten die een normale consument nooit zou kopen wel voor deze server aangeschaft zijn.
Wat mogelijk mee speelt is dat er waarschijnlijk in verhouding best veel mensen werkzaam in de IT zijn die veel ervaring hebben met het bouwen van (prive) pc's.
Voor deze mensen is de stap naar zelf ook op het werk voor een DIY-server te kiezen in verhouding kleiner. En ik denk dat er langzaam een jongere generatie, voor wie een computer net zo normaal is als een tv, het voor het zeggen krijgt op IT gebied.

Ik weet niet of de beslissing om als bedrijf voor DIY te kiezen altijd de juiste is, maar het is een logisch gevolg.

@downtime: Google is een slecht voorbeeld. Google is zo ontzettend groot.
Het nieuws is dat ook kleinere spelers, zoals het Nederlandse Hyves naar DIY gaan. En ik kan me niet voorstellen dat die bedrijven ook hun eigen moederborden gaan ontwerpen.

[Reactie gewijzigd door Quacka op 12 september 2011 19:39]

Ik betwijfel of ervaring met het bouwen van prive PC's er veel mee te maken heeft. Ik dacht gelezen te hebben dat een bedrijf als Google niet alleen de servers zelf ontwerpt maar ook de moederborden die erin gaan. De kennis om een moederbord te ontwikkelen krijg je niet door een PC'tje te assembleren.
Een bedrijf als Google gebruikt als server dezelfde hardware die jij in je PC steekt voor je grootmoeder die graag een multi-CPU PC wilt :+

http://news.cnet.com/8301-1001_3-10209580-92.html

en dan met name:
The Google server was 3.5 inches thick--2U, or 2 rack units, in data center parlance. It had two processors, two hard drives, and eight memory slots mounted on a motherboard built by Gigabyte. Google uses x86 processors from both AMD and Intel, Jai said, and Google uses the battery design on its network equipment, too.
Zo leren we dus dat Google zelf per server een UPS in de vorm van een batterij in de server zelf voorziet om de conversie van stromen te vermijden en zijn PUE-coŽfficient omhoog gooit...

Nu begin ik zelf te twijfelen, er staat dat het alleen gebouwd is door Gigabyte... Weet dus niet of het design ook van hen komt...

[Reactie gewijzigd door HyperBart op 12 september 2011 16:48]

als het order groot genoeg is, zal Gigabyte met plezier een custom bordje leveren
je moet ook niet denken dat dat zeer geavanceerde dingen zijn, integendeel: waarschijnlijk is het een standaard wordt waar ze gewoon alle overbodige dingen afhalen
Het is wel een custom bordje, afgaande op wat ik erover vinden kon: http://weblog.mrbill.net/...nd-the-gigabyte-ga-9ivdp/

Kan er niet uithalen of het bord echt volledig custom is of alleen een aangepaste versie van een standaard bordje.
Is Google niet dat bedrijf dat een naam heeft om geloofwaardige dingetjes te presenteren op "Fools Day" (artikeltje dd 1 april)?

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True