Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 97, views: 39.592 •

Grote serverfabrikanten zouden in rap tempo marktaandeel verliezen doordat grote internetbedrijven op zoek naar meer maatwerk uiteindelijk besluiten om eigen hardware te ontwerpen. In Nederland past bijvoorbeeld Hyves DIY-servers toe.

De totale Amerikaanse servermarkt was vorig jaar goed voor een omzet van 31,9 miljard dollar. Een steeds groter deel hiervan verdwijnt echter niet meer rechtstreeks in de zakken van bekende namen als HP, Dell en IBM. Volgens onderzoeksbureau Gartner is inmiddels 20 procent van die markt geen server die uit de stal van een van de grote fabrikanten komt, maar een zelfontworpen server.

Dit zou volgens onderzoeksbureau In-Stat komen doordat grote internetbedrijven als Facebook en Google behoefte hebben aan meer maatwerk bij de keuze van hun server en daar in de praktijk niet altijd een passend antwoord op vinden. "Dit is een bedreiging voor het traditionele businessmodel", zegt Jim McGregor van In-Stat tegenover Bloomberg. "Klanten vinden oplossingen die de industrie hen niet kan bieden."

Een van de aanwijzingen hiervoor is dat Intel een forse toename in de afzet van serverprocessors ziet, terwijl de serverfabrikanten juist klagen over gelijkblijvende of zelfs dalende verkopen. Volgens de onderzoekers kan dit deels worden verklaard door de opkomst van DIY-servers.

Onder meer Google, Facebook en ook Microsoft hebben zelf servers ontwikkeld die een minimum aan componenten bevatten en zijn ontworpen om één specifieke taak te doen. Facebook zegt hiermee de kosten van de bouw van een nieuw datacenter met bijna een kwart te hebben teruggedrongen.

In Nederland heeft onder meer Hyves eigen servers laten ontwerpen, zo bevestigde de sociale-netwerksite eerder al aan Tweakers.net. Hyves heeft een standaard-1U-doos voorzien van vier miniservers om de hardware zo efficiënter te kunnen inzetten voor een specifieke taak. Hyves kent zo'n 160 verschillende taken die een server zou kunnen doen, waaronder die van webserver en chatserver, opslag en loadbalancers. Elk van de miniservers kan maximaal twee 2,5"-harde schijven aansturen en verbuikt grofweg 30W.

Hyves is gestart met de miniservers om de performanceproblemen van begin vorig jaar de kop in te drukken. Volgens de sociale-netwerksite is het verschil aanzienlijk. Zo kon het bedrijf voorheen naar eigen zeggen maximaal één chatinstance draaien op een machine en zijn dat er nu 24. Eind vorig jaar had Hyves de beschikking over 264 chatslaves, waarvoor het bedrijf zonder de hardwareaanpassingen evenzoveel single quadcore-machines nodig zou hebben gehad.

Schema Hyves Pizzadozen 4-in-1

Reacties (97)

Jullie vertellen over allemaal bedrijven, maar hoe doen jullie het zelf eigenlijk? Jullie hebben vast een aparte server voor de mysql database, misschien voor de foto's, het forum?
Hier zie je 1 van de servers die tweakers gebruikt: plan: Nieuwe databaseserver op 23 juni - update
In principe vind je via deze pagina al je antwoorden.
Een paar jaar geleden is Tweakers af gestapt van zelfbouw naar merk servers omdat zelf bouw te veel problemen op leverde.
Wat de laatste servers zijn weet ik niet, maar vind dit bericht in dit nieuws wel opvallend.
Ik denk dat ze met zelfbouw bedoelen dat het bedrijf bij een hardwar fabrikant een server op maat laat produceren die voor hen voldoet bij hun interne processen.

Ik denk niet dat bij microsoft facebook en google zelf de schroevendraaier ter hand nemen om die dingen in elkaar te schroeven uit onderdeeltjes. Denk eerder een build to specification server fabriek af. Correct me if i'm wrong
Ik weet van Google dat zij in hun begindagen de folders van de grote PC verkopers afstruinden naar aanbiedingen en dan de volledige voorraad in zo'n winkel opkochten, moederborden eruit haalde en in hun eigen ontworpen racks monteerde. Dat was veel goedkoper dan de klassieke 19 inch server.

Ik denk dat men op dit soort concepten doelt. Ik kan me nl. niet voorstellen dat bijvoorbeeld Hyves op klantspecificatie hardware laat maken. Zijn ze veel te klein voor om dat rendabel te maken.
Ik denk dat men op dit soort concepten doelt. Ik kan me nl. niet voorstellen dat bijvoorbeeld Hyves op klantspecificatie hardware laat maken. Zijn ze veel te klein voor om dat rendabel te maken.
Als ze daardoor een paar servers minder in kunnen zetten omdat deze DIY's efficiënter zijn, dan kan het prima opwegen. Ik denk dat je je ook niet moet vergissen in de grootte van Hyves, ze zullen gezien het aantal gebruikers wel eens net zo'n groot park als T.net kunnen hebben of misschien nog wel groter.

Verder heb je gelijk volgens het artikel:
"Klanten vinden oplossingen die de industrie hen niet kan bieden."
Het gaat dus om zelfbouw vanuit losse componenten en geen build to order constructies. Dan zou de industrie het ook minder merken in hun verkoop cijfers.

[Reactie gewijzigd door breinonline op 12 september 2011 17:22]

Suggereer je nu dat Hyves "bijna net zo groot" als Tweakers.net is?? Tweakers.net heeft ongeveer 20 servers in gebruik, ik heb van Hyves cijfers gezien die spraken van 6000 servers. Maar dat was waarschijnlijk voor deze vernieuwde hardware.

Qua pageviews/server doen wij het geloof ik wel wat beter, maar dat komt omdat wij onze specificaties aan de bovenkant van het spectrum van 2-cpu servers inkopen, ipv aan de onderkant.

Overigens heeft Dell ook een afdeling die servers op maat maakt voor grote klanten. Zij signaleerden dit gedrag blijkbaar destijds ook.
Dat zou me niet verbazen. Uit betrouwbare bron (1 jaar geleden) weet ik dat de architectuur en broncode Hyves brak is en eigenlijk een grondige refactoring nodig heeft. Het is initieel nooit gebouwd om zoveel gebruikers aan te kunnen, dus moe(s)ten ze wel in de breedte schalen. De nieuwe componenten schijnen beter ontworpen te zijn, maar de core is nog steeds zo brak als wat.
Een server van lego zelfs. Dat is zo DIY als het maar kan :)
Google bouwt zeker wel zelf hun eigen servers. Zie bijvoorbeeld deze video waarin ze uitleggen hoe hun datacenters in elkaar steken.
Microsoft gebuikt voor zijn Azure platform bouwblokken in de vorm van hele containers. Wanneer er op een lokatie nieuwe hardware nodig is, wordt er ergens een container in elkaar geschroeft en in 1x in een datacentrum geschoven.

Een los onderdeel bestellen heet dat, maar dan op een andere schaal dan je zelf zou verwachten.
dat concept is niet nieuw, dat hebben ze geleend van sun, ibm en google, die het ook weer allemaal van elkaar geleend hebben :)
Facebook is redelijk open in hoe en wat ze doen qua hardware, zie ook de facebook group :

https://www.facebook.com/photo.php?v=10100315601508877

Zeker een aanrader voor tweakers :)
Ik denk niet dat bij microsoft facebook en google zelf de schroevendraaier ter hand nemen om die dingen in elkaar te schroeven uit onderdeeltjes.
Zeker wel, Facebook heeft er zelfs een website aan gewijd: http://opencompute.org/
Merkservers zijn ook makkelijker om gesponsord te krijgen ;)
wth moet zo'n "chatslave" allemaal doen dat je er 1 server voor nodig hebt?
Mijn host heeft me een tijdje terug verhuist naar een server waar ook een IRC op gehost word, daar ben ik niet gelukkig mee laat ik het zo zeggen...
is dit bij Hyves niet het geval van terugbrengen van de kosten? Kan me niet voorstellen dat er in deze site nog toekomst zit en het nog drukbezocht wordt. Ben zelf een jaar geleden van Hyves afgestapt, nadat het is overgenomen door de Telegraaf.

Ik zie de laatste tijd prijzen bij bedrijven als Dell, en HP afnemen en denk dat alleen voor de grootste bedrijven eigen serverbouw interessant is. Je zit natuurlijk altijd met de garantie en service.
Tsja, niet iedereen laat zijn keuze van een krant afhangen (hoe verzin je het). De vraag is of de al-dan-niet-terechte reputatie van de eigenaar van een site echt veel zal schelen in het beleid en in de kwaliteit van de site. Bij Hyves heb ik daar in elk geval niets van gemerkt en op het beleid van bijvoorbeeld Facebook is al meer aan te merken.

De bedienbaarheid en overzichtelijkheid van Hyves is helemaal zo verkeerd nog niet, dus wat dat betreft ook nog steeds een facebookconcurrent.

Blijft natuurlijk mooi dat ze inefficiente software zo goed hebben kunnen opvangen met customhardware. Kan je nagaan hoe spoel het zou lopen als de software ook helemaal top was.

[Reactie gewijzigd door mae-t.net op 12 september 2011 23:37]

Dat werkt misschien voor de mega bedrijven als Google en Facebook die zoveel servers hebben dat ze makkelijk een afdeling aan serverbouwers aan het werk kunnen houden (en de $$$ voor een specialisten salaris kunnen betalen), maar er zijn honderdduizenden bedrijven die onmogelijk allemaal geweldig goede server bouwers zijn. Uiteindelijk is dit gewoon weer de aloude "uitbesteden of zelf doen" afweging.

[Reactie gewijzigd door Dreamvoid op 12 september 2011 16:19]

Serverboeren zouden daar ook op in kunnen springen door maatwerkoplossingen aan te bieden. Maar daar zien ze waarschijnlijk geen brood in. Andersom zal dat voor bedrijven als Google en Facebook ook weer niet interessant zijn omdat je je dan toch weer afhankelijk maakt van een externe partij.
Die zijn er wel, maar die leveren ook zelfbouwservers. Er zijn genoeg serverboeren die Supermicro leveren. Voor grote toko's als Facebook en Google is het verder niet interessant om supportcontracten te hebben, die nemen gewoon hardware op reserve of hebben zoveel overcapciteit en redundancy dat het niet boeit of zo'n server vandaag of volgende week gefixt wordt.
Serverboeren doen dat ook, maar dan heb je het eerder over een bedrijf als Clustervision dan over een bedrijf als Dell.

[Reactie gewijzigd door mae-t.net op 12 september 2011 23:40]

Ja ik denk dat je helemaal gelijk hebt. Ik heb wel eens een paar artikelen gelezen mbt de data centers van mega bedrijven zoals Google. In die artikelen werd duidelijk uitgelegd waarom het voor bijv Google lastig is om eenzelfde dienst te maken zoals Amazon (het verhuren van capaciteit). Dit komt inderdaad door de speciale hardware en de software die geschreven is. De software die Google gebruikt is gestript van functionaliteit en doorontwikkeld op schaalbaarheid. Het nadeel daaraan is dat het zo exact op de wensen van Google is aangepast dat het ook niet meer zaken aan kan. En juist het aankunnen van die extra zaken is voor bijv een normaal datacenter belangrijk (die willen juist elke soort van functionaliteit aanbieden.)

Ik vind het jammer dat ik het artikel niet meer kan vinden... Misschien iemand anders die het artikel wel kan vinden?

Edit:

Linkje : http://storagemojo.com/ar...t-data-center-parts-i-iv/

Naar mijn mening interessant stukje:
Not The Same As The Old Boss
IDCs (internet data center) differ from EDCs (enterprise data center) in many ways. The question is why. The answer can tell us much about how we can expect to see IDCs evolve as well as how to re-think the EDC. Is it the economics? The applications? The technology? The scale? Or is something else behind it?

Some of the hardware elements that differentiate IDCs from EDCs are:

No big iron RAID arrays
No Fibre Channel
Direct-attached disk (with the exception of Yahoo Mail)
Many small, low-cost servers

This architecture is a startling contrast to the standard big-iron array-and-server architectures heavy on Fibre Channel, RAID, mainframes and servers in the $15k and up range. In this series of articles I’m going to look at a few of these differences to see what is behind them, using one of my favorite papers as a guide.
Ik vond het leuk genoeg om het gehele artikel te lezen :)

[Reactie gewijzigd door Mellow Jack op 12 september 2011 17:06]

Je vergeet dat ook HP, Dell en consorten hun moederborden 'ergens' bestellen, zeker als het budget of bulk producten zijn.

Het is dan ook eenvoudig om bij een partij die al ladingen moederborden maakt een speciale variant te laten maken die gunstiger is in gebruik. Uiteindelijk is het toch voor 90% een reference design. En in het artikel wordt over uitgeklede moederborden gesproken, die zijn juist makkelijker te ontwerpen.

Daarnaast kan ik me ook voorstellen dat bedrijven ontzettend moe worden van 'besparingen' op hardware die uiteindelijk geld kosten. Een hoogwaardigere condensator, een iets betere printplaat of een vergulde connector, kost letterlijk soms een paar cent extra, maar zorgt ervoor dat de levensduur net iets langer is, dat er minder uitval is en misschien zelfs nog wel een iets lager stroomverbruik.
Tis eerder andersom: professionele server bouwers hebben ervaring, en merken dat het gebruik van hoogwaardige onderdelen direct terugkomt in gemiddeld lagere support kosten. Maar het maakt hun servers wel duurder. Veel gebruikers zien liever direct een besparing in de aanschafkosten, maar de hogere failrate komt pas later boven in de lopende kosten.

[cynisme]
Voor de IT afdeling van zo'n bedrijf is het dubbel scoren. Eerst goede sier maken met de lage aanschafprijs, daarna is de baangarantie verzekerd want er is geen extern bedrijf meer die de servers onderhoudt, en wie anders weet precies hoe en met welke onderdelen die DIY servers in elkaar zijn geknutseld?
[/cynisme]

[Reactie gewijzigd door Dreamvoid op 12 september 2011 17:38]

Als je 200 servers hebt die allemaal elkaars taken over kunnen nemen, maakt het niet uit of er eens eentje stuk gaat. En bij bijv. De systemen van hyves scheelt het ook behoorlijk in het energieverbruik.

Het kan bij zulke aantallen, waarbij dan het energieverbruik ook nog eens gunstiger kan zijn, zoveel in de kosten schelen dat je een lading van die dingen als spare op de plank kunt leggen.
Je vergeet dat ook HP, Dell en consorten hun moederborden 'ergens' bestellen, zeker als het budget of bulk producten zijn.
Bron? Zover ik weet ontwerpt in ieder geval HP hun servermoederborden zelf. Dat ze ze zelf fabriceren is niet iets wat ik wil zeggen (daar is Foxconn voor), maar dat is ook niet het belangrijke. Je krijgt niet gewoon een rebranded ASUS ofzo.
Voor werkstationborden is die taktiek veel te duur, en bestellen practisch alle grote merken een variant op een standaardbord uit het assortiment van hun OEM.
Zo moeilijk is het niet. Ik heb ook iets van 8 colocated servers voor een website. Je koopt een barebone, bijv. van Supermicro of Intel. Vervolgens bestel je los de CPU, schijven, geheugen en RAID controller en je bent klaar. Voor een paar tientjes extra zetten ze het nog voor je in elkaar ook en krijg je garantie.

Je hebt dan niet alleen veel meer keuzevrijheid, je kunt gelijk het snelste materiaal nemen en het is ook nog eens stukken goedkoper.

Support is dan weer een ander verhaal, dat zul je zelf moeten doen of iets aparts moeten afsluiten wanneer er hardware defect gaat, of zelf hardware op voorraad nemen.
Als jij dan begint met op de quote knop te drukken. (dat ballonnetje met dat plusje) dan is je reactie gelinkt aan het goede bericht.
http://tweakimg.net/g/if/comments/addcomment_mouseover.png

[Reactie gewijzigd door jip_86 op 12 september 2011 16:23]

en terecht!
ik heb ook een eigen server in een datacenter hangen in 020.
gekeken naar een 'merk' server maar daar krijg je niet echt bang for buck. meer veel geld voor weinig.
de servermoederborden van tyan en asus zijn tegenwoordig van dermate goede kwaliteit dat zelfbouw goed mogelijk is, inclusief alle hardware monitoring, zoals ipmi, kvm over ip enz enz.
als dit voor 1 server al zo'n 20% scheelt op de prijs, moet je nagaan wat het oplevert als je er 1000+ afneemt!
Dit werkt ietwat anders op 1 servertje.

Als daar een onderdeeltje uitvalt dan gaat je initiele 20% winst gauw in rook op terwijl je x dagen wacht op een spare...

Met 1000 servers kan je 100 complete spare-servers neerzetten om het op te vangen en je hebt nog steeds 10% besparing.
Met 1 server betekent 1 complete spare-server neerzetten simpelweg 60% duurder uit zijn.

Maar bij de groten werkt het ook simpelweg iets anders, 1 koelertje wat voor niets draait betekent 3 jaar lang x extra stroomkosten, dat is op 1 server te verwaarlozen, op 5.000 oid wordt het een leuk bedragje...
Als al de apparatuur bij de hardwareboer om de hoek te koop is, heb je dat ook binnen een paar uur.
In het slechte geval bestel je het bij een webshops en heb je het de volgende dag.
De kans dat je exact hetzelfde onderdeel één à twee jaar later nog kan kopen is zowat nihil tegenwoordig...
Hangt er ook vanaf wat je neemt, sommige bedrijven willen nog wel eens hoge kortingen geven. Zo werd ik net gevraagd door een Noorse klant of een Dell R210 een beetje geschikt was. Heb hem de nadelen genoemd van dat ding (plastic uiterlijk, geen hotswap en geen BBU/WB cache op RAID), maar voor dat geld wat hij voor 3 stuks betaalt kan je nog niet eens zelfbouw kopen, laat staan met 3 jaar garantie met 4 uurs onsite support.
Dell PowerEdge R210
Starting Price $2,172.00

uh? wat?
ja 4uur on-site support heb je mischien niet maar qua hardware wat erin zit heb je 't zelf bij elkaar geschroefd voor minder dan....


DELL™ PowerEdge™ R210

Listenpreis 505,00 €
Rabatt 116,00 €
Zwischensumme 389,00 €

Tja ;) Dat zette je er niet bij ;) Nee voor die prijs gaat geen mens 2x nadenken.
Wat mogelijk mee speelt is dat er waarschijnlijk in verhouding best veel mensen werkzaam in de IT zijn die veel ervaring hebben met het bouwen van (prive) pc's.
Voor deze mensen is de stap naar zelf ook op het werk voor een DIY-server te kiezen in verhouding kleiner. En ik denk dat er langzaam een jongere generatie, voor wie een computer net zo normaal is als een tv, het voor het zeggen krijgt op IT gebied.

Ik weet niet of de beslissing om als bedrijf voor DIY te kiezen altijd de juiste is, maar het is een logisch gevolg.

@downtime: Google is een slecht voorbeeld. Google is zo ontzettend groot.
Het nieuws is dat ook kleinere spelers, zoals het Nederlandse Hyves naar DIY gaan. En ik kan me niet voorstellen dat die bedrijven ook hun eigen moederborden gaan ontwerpen.

[Reactie gewijzigd door Quacka op 12 september 2011 19:39]

Ik betwijfel of ervaring met het bouwen van prive PC's er veel mee te maken heeft. Ik dacht gelezen te hebben dat een bedrijf als Google niet alleen de servers zelf ontwerpt maar ook de moederborden die erin gaan. De kennis om een moederbord te ontwikkelen krijg je niet door een PC'tje te assembleren.
Een bedrijf als Google gebruikt als server dezelfde hardware die jij in je PC steekt voor je grootmoeder die graag een multi-CPU PC wilt :+

http://news.cnet.com/8301-1001_3-10209580-92.html

en dan met name:
The Google server was 3.5 inches thick--2U, or 2 rack units, in data center parlance. It had two processors, two hard drives, and eight memory slots mounted on a motherboard built by Gigabyte. Google uses x86 processors from both AMD and Intel, Jai said, and Google uses the battery design on its network equipment, too.
Zo leren we dus dat Google zelf per server een UPS in de vorm van een batterij in de server zelf voorziet om de conversie van stromen te vermijden en zijn PUE-coëfficient omhoog gooit...

Nu begin ik zelf te twijfelen, er staat dat het alleen gebouwd is door Gigabyte... Weet dus niet of het design ook van hen komt...

[Reactie gewijzigd door HyperBart op 12 september 2011 16:48]

als het order groot genoeg is, zal Gigabyte met plezier een custom bordje leveren
je moet ook niet denken dat dat zeer geavanceerde dingen zijn, integendeel: waarschijnlijk is het een standaard wordt waar ze gewoon alle overbodige dingen afhalen
Het is wel een custom bordje, afgaande op wat ik erover vinden kon: http://weblog.mrbill.net/...nd-the-gigabyte-ga-9ivdp/

Kan er niet uithalen of het bord echt volledig custom is of alleen een aangepaste versie van een standaard bordje.
Is Google niet dat bedrijf dat een naam heeft om geloofwaardige dingetjes te presenteren op "Fools Day" (artikeltje dd 1 april)?
De opmerking "Dit is een bedreiging voor het traditionele businessmodel" is al typerend. Dat geeft dan ook precies aan dat de traditionele bedrijven hun businessmodel moeten aanvullen met mogelijkheden waar klanten om vragen. Want die hebben al in het kader van kostenbesparing het aantal configuraties geminimaliseerd maar krijgen nu dus een deksel op de neus omdat klanten eigenwijs genoeg zijn om iets te kopen wat zij willen en niet wat ze wordt opgedrongen.
Probleem is juist dat die klanten custom software gebruiken en de ideale hardwareconfiguratie daardoor ook per klant verschilt. En je kunt als hardwareboer moeilijk voor elke klant een andere server bouwen.
En juist daarom denk ik dat HP meer wilt gaan werken zoals IBM. Dus niet alleen de hardware opleveren maar een compleet systeem opleveren wat de klant gaat gebruiken.

Zo kan je goed inspelen op de wensen van je klant (zo zie je dat IBM bij enorm verschillende zaken is betrokken)
Een paar jaar geleden bij een dochteronderneming van Acer een heel custom rek in elkaar gezet, voordeel was hier, daar ze zelf ook servers bouwen, je gewoon op hun basis-barebones terug kon vallen en controllers, drivebay's, redundante voedingen en spares onderhand gewoon uit het magazijn kon trekken. Alles werd optimaal ingericht en gebouwd voor de specifieke doeleinden van die apparaten, alles met mogelijkheid om ze nog verder uit te bouwen in een planning van de komende 5 jaar. Als consument, of zelfs als afnemend bedrijf, kun je echter nooit zoiets inkopen(of tegen belachelijke prijzen). Dat oa. ik er maanden aan heb zitten schroeven voordat het geheel naar wens werkte en optimaal draaide was leuk, maar die tijd is voorbij.

Dat de markt hiervoor open is, weet bv. Dell allang, gezien ze bij mijn huidige werkgever lopen te lobbyen om een geheel op maat dedicated opstellingen te gaan bouwen om de huidige SQL-cluster en de Citrixfarm te vervangen. Dell springt dus wel degelijk in op dit gat in de markt, en ik denk dat FSC, HP, en IBM snel zullen volgen.
Het is gewoon een indicatie dat hun aanbod niet volledig aansluit bij de markt en dat de mogelijkheden voor eindgebruikers nu een stuk ruimer zijn dan voorheen.

Conclusie: producten en diensten aanpassen aan de nieuwe realiteit.
Ja toen ik het artikel had gelezen dacht ik ook maar aan 1 ding: iets met vraag en aanbod?!

Als ik anno 2011 nog 5,25" floppy's met dozen wil verkopen vrees ik dat ik ook niet zo veel omzet meer zal maken.
in mijn ervaring doet b.v. Dell alleen maar heel moeilijk zelfs als je alleen maar geen "dell certified" drives erin wilt maar er 8 vertex3 drives in raid5(7drives plus 1 hotspare, ik haat heen en weer rijden naar het datacenter :D ) in wil hangen..

Moest kunstgrepen uithalen om de onboard raidcontroller erbij te kunnen krijgen.
i.e. bestellen met de 2 goedkoopste sata rommeldrives van dell, en dan 6 spareparts trays erbij zien te krijgen om er 8 solid states in te krijgen .. want de solidstates van Dell kosten 3000 euro per stuk , terwijl je met 8 vertex pro drives van 240gb hetzelfde kwijt bent voor alle 8 (en nog eens veel sneller ook plus meer ruimte)..

dan nog blijven ze je bang maken met dat er geen support op zit als er wat mis gaat omdat er niet de dell drives inzitten .. blablabla..
en dan koop je in principe nog een dell produkt me een kleine aanpassing..

is ook de laatste keer geweest overigens , nu maak ik ze ook zelf..

dus eigen schuld dikke bult als je het mij vraagt.
Voorbeeldje van zo'n DIY server ...
http://blog.backblaze.com...uild-cheap-cloud-storage/

Het ding heeft één doel: opslagcapaciteit.
Verder nog een overzichtje met de kosten voor de merkservers... dan begrijp je waarom ze voor DIY gaan.
Een poosje geleden het zelfde gedaan voor een klant van me... Heeft een boel geld bespaard, maar je moet erg voorzichtig zijn met de component selectie...:
http://www.servercare.nl/Lists/Posts/Post.aspx?ID=109

Ook hier ging het om storage.
Ik mis nog wel de prijs voor de uren die in dit project zitten, en een reservering voor de kosten van voor de uren die gaan zitten in het troubleshooten van fails en het vinden van spares.
Volgens Backblaze:
we employ one guy (Sean) whose fulltime job is to maintain our fleet of 201 pods, which hold 9,045 drives. (..) Typically, once every two weeks, Sean deploys six pods during an eight-hour work day. (..) Sean also spends one day each week replacing drives that have gone bad.
Als je goed leest: de harddisks worden omgeruild binnen de garantie. En de totalen van de kosten die worden berekend zijn inclusief manuren.
Kwestie van vraag en aanbod. Als er geen aanbod is die voldoet aan je wensen ga je verder zoeken. Als er uiteindelijk niks overblijft ga je het zelf maar doen. Uiteraard kwestie van geld. Het moet allemaal beheersbaar blijven voor bedrijven.

In voorbeeld van Hyves, werkt het wel degelijk , het is echt geen trage site meer zoals vroeger. Het kan nog stukken beter, want het blijft geen optimale site. Het is nog steeds eeen redelijke zware site. Facebook reageert vele malen sneller bijv.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBSamsung

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013