Door Kees Hoekzema

BOFH

Tweakers.net 10 jaar: de hostinggeschiedenis 2005 - 2008

08-10-2008 • 15:44

64

Multipage-opmaak

Upgrade hier, upgrade daar

* Upgrades all around

Na de verhuizing naar Redbus bleef het op het servergebied lange tijd stil. De servers deden braaf hun werk, en performanceproblemen waren er nauwelijks. Toch bleef de site groeien en de hardware bleef verouderen. Begin 2005 was het dus weer zaak om met het serverpark aan de slag te gaan. Als eerste werden de bijna antieke 3Com-switches in het rack vervangen door twee gloednieuwe Procurve 2824-switches. Verder werd er geschoven met processors: een webserver had twee Opteron 284's aan boord, terwijl Apollo het met slechts een tweetal Opteron 242's moest doen. Het plan werd opgevat om deze te verwisselen, en dus schroefden we de kast van Apollo open om deze te verlossen van zijn trage Opterons. Ongewild kregen we hierbij inzicht in hoe onze serverbouwer met koelpasta omging: bij het aanbrengen van de nogal grote hoeveelheid koelpasta op de processoren zal vermoedelijk een plamuurmes zijn gebruikt en er kwam een rol wc-papier aan te pas om de overtollige pasta op te dweilen. Verder werd er een nieuwe webserver in het rack gehangen. Tijdens het configureren van de netwerkinstellingen van deze server kwamen wij erachter dat de kvm-switch ook een broadcastfunctie had: als je een server met een ctrl-alt-delete wilde rebooten, dan ging dat commando naar alle aangesloten hardware. Alle servers in het rack werden dus met een enkele druk op de knop opnieuw opgestart.

Procurve 2824-switches voor Tweakers.net serverpark Apollo's besmeurde koelers Apollo's besmeurde Opteron 244 processoren Aten KVM LCD switch (met broadcastfunctie)
Besmeurde koelers, nieuwe switches en een broadcastende kvm

* Nieuwe loadbalancers en kvm-over-ip

In februari 2005 werd ook de Brainforce-loadbalancer uitgerangeerd en aan Fok! gedoneerd. De nieuwe loadbalancers waren volledig in ons beheer, en we konden daardoor ineens veel meer, zoals ip-bans plaatsen en het verkeer loggen. De zelfbouwscripts die op deze servers draaiden, waren niet altijd vrij van bugs. Dat leidde enkele keren tot een korte downtime, maar over het algemeen deden ze hun werk beter dan hun commerciële voorganger.

In 2005 vonden verder weinig grote upgrades plaats. De servers hadden een behoorlijke overcapaciteit en draaiden allemaal stabiel. Dit blijkt ook uit de 'Server- & netwerkstatusmeldingen'-.plan uit die tijd; in plaats van dat we elke paar maanden een verse lijst moesten maken, konden we de .plan uit deze periode ruim een jaar lang gebruiken. Dat wil niet zeggen dat er niets gebeurde, maar wel dat de normale gebruiker weinig tot niets van de bezigheden merkte.

In 2006 naderde de werklast op de webservers weer het punt waarop een upgrade noodzakelijk was. Ter vervanging van de webservers kozen we deze keer voor twee Supermicro 1u-servers met elk twee dualcore Opteron 275-processors en 2GB geheugen. Ook werd de kvm-met-monitor vervangen door een nieuwer model, dat de mogelijkheid had om een kvm-over-ip module aan te sluiten. Op die manier konden we tot 32 servers aansluiten en via het internet bedienen, alsof we er achter zaten.

Tijdens het testen van de nieuwe Supermicro-servers, Aphaea en Astraeus, traden er vreemde problemen op. Hoewel de servers over exact dezelfde hardware beschikten, lukte het ons niet om Aphaea te installeren. Daarom werd in eerste instantie alleen Astraeus in het rack gehangen, maar toen die eenmaal in productie werd genomen zagen we ook bij deze bak veel segfaults en andere problemen langskomen. Bovendien leek hij soms data van de harde schijf te vergeten en raakten bestanden en folders zoek - en het is redelijk lastig om een server op afstand te beheren als hij ineens geen /bin-directory meer heeft. Na wat zoeken op het internet en debuggen bleek dat de onboard raidcontroller van Marvell niet goed met de toenmalige Linux-kernels overweg kon. Gelukkig hadden we de ruimte om losse pci-x-raid-controllers in de kasten te plaatsen. Er werd dus zorgvuldig een raidcontroller uitgezocht met een chipset die wel gewoon onder Linux wilde werken, en nadat er twee waren besteld en geïnstalleerd, waren alle problemen met deze servers ineens opgelost.

kvm-over-ip KVM Poorten Stapeltje Supermicro's met Aten KVM Loadbalancers in aanbouw
Nieuwe kvm-switches, nieuwe loadbalancers en kvm-over-ip-module

Doorschuiven, Dell en Sun

* Dell-databaseserver

2006 luidde het einde in voor de zelfbouw- en barebonemachines: vanaf dit jaar werden er alleen maar complete nieuwe servers aangeschaft. We waren het gezeik met incompatible hardware, niet passende spullen en instabiele configuraties nogal zat. Bovendien konden we onder VNU-vlag gebruik gaan maken van vrij gunstige inkoopcondities zodat er ook geen financieel argument meer bestond voor het aanschaffen van gammeler systemen. Een van de eerste machines die aldus werd aangeschaft was Apollo, de forum-databaseserver die het tot dan toe regelmatig erg zwaar had. Ook werd het plan gemaakt om alle Slackware- en Suse-machines over te zetten naar Debian, omdat we slechts één distro wilden gebruiken, Suse nooit onze favoriet was geworden en Slackware op dat moment niet al te best onderhouden werd. De keuze viel dus op Debian en het hele serverpark zou daarop gaan draaien.

De oude Apollo draaide nog op Suse omdat het een van de eerste Opteron-servers in ons rack was en er destijds geen fatsoenlijk alternatief beschikbaar was. Bij Dell werd een nieuwe Apollo besteld met behoorlijke specificaties: in plaats van vijf scsi-schijven in raid-5 en een hotspare, kregen we nu de beschikking over veertien sata-schijven, wederom in raid-5 en wederom met een hotspare. Deze veertien 36G-schijven werden niet gekocht omdat we te weinig ruimte hadden, maar puur omdat veertien schijven veel beter presteren dan vijf stuks. Ook de hoeveelheid intern geheugen werd verdubbeld, van 8GB in de oude Apollo naar 16GB in de nieuwe. Al met al bleek de nieuwe server bijna tweemaal zo snel te zijn als het afgedankte exemplaar.

Dell Apollo zonder frontjes Apollo in het rack
Apollo met enclosure

* Dell-webservers en downtime

Tijdens het uit het rack halen van Apollo bleek dat een van onze masterswitches op sterven na dood was: af en toe besloot hij een paar seconden geen stroom meer aan de servers te geven. Na de eerste stroomuitval gingen alle servers netjes weer aan, waaronder de databaseserver Artemis. Tijdens de tweede stroomuitval was deze echter net bezig met het recoveren van de database. Het gevolg laat zich raden: database kapot en serverbeheerders die tot ruim 3 uur 's nachts bezig zijn om te redden wat er te redden valt.

De oude Apollo werd meegenomen naar het kantoor, waar deze van nieuwe processors, nieuw geheugen, snellere harde schijven en een verse Debian-installatie werd voorzien. Enige tijd later verving hij Artemis als databaseserver.

Ook werden er bij Dell twee nieuwe webservers aangeschaft - Alectrona en Adrastos - met vrijwel dezelfde hardware als Apollo. Dit werd gedaan zodat, als Apollo de geest zou geven, we een van de webservers redelijk gemakkelijk op de MD1000 konden aansluiten om de taken van Apollo over te nemen. Bij het in het rack hangen van deze servers bleek hoe handig het kan zijn om een kabel die van een server naar een externe enclosure loopt, vast te schroeven, zodat je hem niet per ongeluk uit de server stoot op het moment dat je onderhoud aan de servers pleegt. Gevolg: weer een nachtelijke forumdatabase-reddingsoperatie en weer een nacht met te weinig slaap.

Het gevulde rack met Apollo erin Nieuwe Dell webservers Nieuwe Dell webservers met Apollo in het rack Wachten op databaserecovery
Dell-webservers en databaseserver-downtime

* Geschenk van Sun en upgrades

De oude Artemis verhuisde wederom naar kantoor voor een herinstallatie en wat opfrishardware. Deze server kwam op 2 februari 2007 onder de naam Asclepius terug in het rack en kreeg daar de taak van webserver en Postgresql-databaseserver. De server paste maar net in ons rack - blijkbaar is 19" bij de ene fabrikant net wat groter dan bij de andere. Tijdens de installatie van Asclepius wilden we ook de backupserver Athena van een tweede processor voorzien, maar dit feest ging helaas niet door: we hadden wel een processor en een koeler meegenomen, maar er bleek geen houder voor die koeler op het moederbord aanwezig te zijn.

In juli 2006 publiceerde Tweakers.net een review van een Sun T2000. Deze server hadden wij via het try & buy-programma van Sun geleend en getest. Aan dit programma zat echter ook een wedstrijd vast; eens per maand bekeek een jury van Sun alle ingezonden reviews, en de winnaar kreeg een gratis Sun-server. Hoewel de T2000 in onze test niet erg goed scoorde, vond de jury ons verhaal toch dermate goed dat wij een Sun Fire X4200 wonnen. Dit leek ons een mooie bak om onze oude mailserver Adonis door te vervangen, en op 9 maart 2007 werd deze aanwinst in het rack gehangen. Naast het plaatsen van de nieuwe Adonis deden we weer een poging om een extra processor in Athena te plaatsen. Dat was al eens mislukt omdat we geen koeler bij ons hadden en de tweede keer bleek er dus geen bracket op het bord te zitten. Driemaal bleek scheepsrecht: deze keer hadden we een processor, een koeler en een bracket bij ons. De tweede processor van Athena draait sindsdien rustig mee.

19" is niet altijd 19" Athena zonder bracket Athena met bracket Apollo-artemis en nieuwe masterswitches
De gesprongen zekering Sun mailserver Adonis open Adonis in het rack
Nieuwe mailserver van Sun, problemen met upgraden en vervanging van brakke masterswitches

Naar Eunetworks

In de zomer van 2006 was ons rack weer een enorme rotzooi geworden: goede bedoelingen om het rack netjes te houden blijken niet bestand tegen regelmatig onderhoud aan de servers. Toen we net bij Redbus zaten, hadden we bijvoorbeeld amper servers met meer dan één voeding, nu had bijna elke server redundante psu's. Ook de toevoeging van de kvm-switch had geen positieve invloed op de kabelbrij achter in het rack. Bovendien hadden we alle vier de masterswitches bovenin het rack gehangen zodat we veel en lange netstroomkabels moesten gebruiken. Al met al was situatie niet erg werkbaar meer, wat zich opnieuw vertaalde naar kabels die uit servers vielen, stroomkabels die losschoten en masterswitches die spontaan overleden.

Ook het stroomverbruik in ons rack was iets aan de hoge kant. Redbus hanteerde een limiet van 8 ampère per rack, terwijl ons rack inmiddels een dikke 21 ampère opsoupeerde. Als we bij Redbus zouden blijven, hadden we onze servers over drie racks moeten verdelen. Gelukkig had True een oplossing: in plaats van een drietal racks bij Redbus, mochten we er twee bij Eunetworks betrekken waar we per rack 14 ampère konden gebruiken. Ook waren de racks dieper, zodat we onze kabelbrij nog beter konden wegwerken.

Om de verhuizing zo soepel mogelijk te laten verlopen werd er besloten om een heleboel hardware te vernieuwen. De horizontale masterswitches, die regelmatig voor problemen zorgden, werden vervangen door een viertal verticale masterswitches. Het netwerk zou worden uitgebreid met twee nieuwe Procurve 2900-switches zodat we een 20Gbps-verbinding tussen de twee racks konden aanleggen en de loadbalancers, die het erg zwaar hadden, zouden worden vervangen door twee nieuwe Dell-machines. Verder werd er een lade in het rack opgehangen zodat wij een plaats hadden om onze kabels en schroevendraaiers netjes op te bergen. Als laatste werden bijna alle stroom- en netwerkkabels nieuw gekocht zodat we het netwerk een betere kleurcodering konden geven en zodat we geen kabels van twee meter hoefden te gebruiken voor een afstand van 50 centimeter.

Nadat de beide racks op Eunetworks van deze nodige gadgets waren voorzien, werd de verhuizing gepland en op 30 juni 2007 uitgevoerd. Gelukkig bleef Murphy deze keer van onze hardware af en alle servers overleefden de reis door Amsterdam. Dit alles werd door talloze nieuwsgierige tweakers via webcams gevolgd. Minder gelukkig waren de nieuwe loadbalancers: door een bug in de kernel crashten deze als er aan enkele zeer specifieke voorwaarden werd voldaan. Deze voorwaarden traden met onze hoeveelheid dataverkeer echter om de paar uur op, waardoor we in allerijl de oude loadbalancers weer in het rack moesten hangen.

In eerste instantie was het ook de bedoeling dat we vlak voor de verhuizing de nieuwe Artemis in een Eunetworks-rack zouden hangen. Tijdens tests bleek de server echter erg vreemd gedrag te vertonen. Met behulp van de Dell-support werd het probleem geanalyseerd en dat leidde uiteindelijk tot het vervangen van het moederbord. Na deze vervanging bleek de nieuwe Artemis stabiel en kon hij het rack in als vervanging van de oude Artemis. Op 28 juli 2007 nam hij zijn taken ook daadwerkelijk over. In de winter van 2007 probeerden wij fileserver Atlas te vervangen. Voor dit doel werd een IBM-server aangeschaft en in het rack gehangen. Helaas bleek deze niet stabiel te krijgen en werd hij al snel weer uit het rack gehaald.

Kabelbende in het oude rack Bloed op de datavloer Uitladen van hardware Daniel op de oude loadbalancer
Stroomkabels sorteren Bekabeling gepruts Rack voorzijde Nieuwe Artemis
Korte impressie van de verhuizing en de nieuwe Artemis

Loadbalancers

Hoewel het grootste deel van deze reviews chronologisch is, willen we toch van enkele servers apart de geschiedenis bekijken. Voordat we aan de fileservers beginnen, behandelen we de geschiedenis van onze loadbalancing-pogingen.

* Loadbalancing: de eerste stapjes

Al vanaf het prille begin bestonden er plannen voor loadbalancing. In eerste instantie probeerden we het op de webservers zelf op te lossen met mod_backhand, en later met Squid. Deze oplossingen bleken echter niet makkelijk te schalen, en beide hadden een negatief effect op de performance van de webservers. In 2001 kregen we steeds meer webservers, en het verdelen van de werklast over deze servers werd steeds moeilijker. In eerste instantie kon er nog gewoon met verschillende onderdelen geschoven worden - het forum op de ene, en de frontpage op de andere server - maar zodra er een server uitlag, was ook dat onderdeel niet meer te bereiken. Ook Fok! werd steeds groter, en zodoende kwamen er steeds meer servers in het rack te hangen.

Na een korte periode met round-robin-dns gewerkt te hebben, werd besloten dat ook dit niet ideaal was: er moest een meer gestructureerde oplossing voor dit probleem komen. Via een sponsor kregen wij een 1u-server toegeschoven met een matx-bordje en een PIII die op 700MHz draaide. Deze zou door middel van LVS en iptables de loadbalancer en firewall worden voor de Tweakers.net-sites. Deze machine bleek echter al tijdens het testen zo instabiel te zijn en zo vaak vast te lopen, dat we maar meteen besloten om deze hardware af te danken.

* Brainforce

Een nieuwe sponsor, loadbalancerfabrikant Brainforce, wilde ons wel wat hardware cadeau doen. In eerste instantie ging het om twee loadbalancers die in een 'High Availabilty'-opstelling werkten, maar de IBM-servers waarop dit platform draaide, bleken zo stabiel te zijn, dat we besloten om maar één server te nemen en de tweede terug te sturen. Voordat deze loadbalancers stabiel liepen moesten we in samenwerking met Brainforce wel enkele keren de software updaten. In de eerste versie die we in gebruik namen, was het bijvoorbeeld niet mogelijk om configuratiewijzigingen op afstand uit te voeren en moesten alle veranderingen lokaal worden doorgevoerd. Ook beschikte de loadbalancer niet over een firewall, en werden connecties vanuit de servers zelf niet doorgestuurd. Na uiteindelijk versie 1.3 van de software te hebben geïnstalleerd, was het tijd voor een echte test. Op dat moment liep de bèta-test van de React-forumsoftware, en deze omgeving bleek ideaal om te testen. De test verliep met succes en toen de forumsoftware van React in gebruik werd genomen, werden ook meteen de loadbalancers aangeslingerd. Vanaf dat moment was onze cluster echt een cluster: als een webserver down ging, draaide de site gewoon verder op de andere webservers.

* Zelfbouw-loadbalancers

Deze Brainforce loadbalancers deden precies wat ze behoorden te doen, maar niet meer dan dat. In de periode na de ingebruikname kregen wij met enige regelmaat grote ddos-aanvallen over ons heen maar op de loadbalancers, waar het verkeer wel werd tegengehouden, konden we alleen waarnemen dat het verkeer er was en niet waar het vandaan kwam. Daarom werd besloten om ook dit gedeelte weer in eigen beheer op te lossen. MSI werd bereid gevonden om twee moederborden met een Serverworks-chipset, een op 1GHz geklokte PIII en 512 MB Dane Elec-geheugen te sponsoren. De vreugde over deze professionele moederborden was echter van korte duur: al snel na de installatie van Linux bleek dat, zodra de loadbalancer-to-be langer dan twee dagen aanstond, deze onherroepelijk vastliep door een bug in de driver voor de chipset. Ook deze hardware was dus niet geschikt voor een server waarvan we een hoge uptime verwachtten.

MSI MS-6394 single PIII serverplankje voor de zelfbouw loadbalancer Twee brainforce loadbalancers in het rack
Brainforce loadbalancers en hardware die deze had moeten vervangen

* Celeron-loadbalancers

Uiteindelijk werden bij Melrow twee Celeron-servers besteld die als loadbalancer dienst moesten doen. Deze servers bleken uitermate stabiel, maar niet erg snel. De software die op deze servers draaide was een mix van zelfgeschreven scripts en Linux Virtual Server-kernelmodules. Tussen het installeren en de ingebruikname van deze servers zat een behoorlijk lange tijd, mede veroorzaakt door een bug in een van de gebruikte kernelmodules. Na zeer veel debuggen werd de fout eindelijk gevonden en gefixt. In de nacht van 16 februari 2005 werden de eerste servers overgezet en al snel verdeelden deze loadbalancers alle requests over alle webservers, met als grote voordeel dat wij nu direct toegang hadden tot de servers, en zodoende ook mensen een ip-ban konden verkopen en veel beter het verkeer naar ons rack konden debuggen.

* Dell-loadbalancers

Na de introductie van de nieuwe lay-out werd al snel duidelijk dat deze loadbalancers kracht tekort kwamen om al het verkeer te dirigeren. Zodra de hoeveelheid traffic naar ons rack boven de 50 megabit per seconde kwam, werd de processor volledig belast, wat kort na de introductie van de nieuwe lay-out tot veel downtime leidde. Dit was uiteraard niet acceptabel, en daarom werden er bij Dell snel twee nieuwe machines besteld. Deze loadbalancers beschikken elk over een Intel Xeon-quadcore met 2GB geheugen. Ze werden als eerste servers in het nieuwe rack op Eunetworks gehangen, en toen de rest van de servers eenmaal verhuisd was, werden ze in gebruik genomen. Helaas bleek direct na de ingebruikname dat deze servers niet stabiel waren; zodra aan een zeer specifieke conditie werd voldaan hingen ze zichzelf op. Met enige spoed werden de oude loadbalancers weer in het rack gehangen en aangeslingerd, terwijl wij de kernel debugger weer van stal haalden. Ook deze keer bleek het om een fout in de LVS-code te gaan, en nadat er een kleine patch upstream was gestuurd, konden we deze servers weer in gebruik nemen. Tot op de dag van vandaag verdelen zij braaf de werklast over de webservers.

Dell loadbalancer Atropos Melrow loadbalancers onder de vier Appro webservers
Oude en huidige loadbalancers

Fileservers

* Tweakers.net en Fileservers

Gigabyte AtlasCentrale opslag van alle data die bij Tweakers op de servers staat, stond al vanaf het begin op ons verlanglijstje. In eerste instantie werd gedacht aan een filesystem als Coda, maar dat bleek niet aan onze verwachtingen te voldoen - zelfs de developers van Coda vonden het destijds nog niet verstandig om Coda in productiesystemen te gebruiken. We besloten de simpelste oplossing te kiezen en hingen een nfs-server in het rack bij Telecity. Voor dit doel werd een Gigabyte-server gesponsord door hardware.nl, maar al snel bleek Atlas, zoals deze machine werd gedoopt, daar niet geschikt voor te zijn. Na vele crashes werd de server teruggestuurd naar Gigabyte en zijn taken werden door een van de webservers overgenomen.

* Compaq ML530 Atlas

Omdat ook deze webserver niet ideaal was, werd gezocht naar een andere oplossing. In de tussentijd mochten we van True een Netapp F740 lenen om als fileserver te gebruiken. Deze Netapp is een volwaardige fileserver, maar op een of andere manier kregen we het toch voor elkaar om deze bak vrijwel elke dag te laten crashen. Aangezien we de Netapp bovendien maar tijdelijk konden gebruiken, moest er een meer permanente nfs-server komen. Deze werd uiteindelijk gesponsord door hardware.nl in de vorm van een Compaq ML530, die wederom Atlas werd genoemd. Ook deze Atlas was niet heel erg stabiel, dus moesten we allerlei oplossingen bedenken om de site redelijk bereikbaar te houden in het geval van een crash. De hardware van Atlas heeft ons ook een aantal scsi-schijven gekost; zodra een schijf in een bepaalde bay geplaatst werd was het een kwestie van enkele dagen voordat de raidcontroller die doodverklaarde. Toch was deze server stabieler dan de andere oplossingen die we eerder gebruikten, met name toen de problemen met de schijven opgelost werden.

De enorme omvang van het apparaat was wel een heikel punt: de ML530 nam maar liefst 7u in. Ter vergelijking: de databaseservers die wij op dat moment hadden waren slechts 2u hoog. Ook werden de schijven op de server steeds voller. We bleven weliswaar schijven bijplaatsen, maar op een moment waren alle bays gevuld met 36GB scsi-schijven. Besloten werd om de taken van deze machine over drie servers te verdelen. Aphrodite zou een rentree maken en de zoekmachine overnemen die toen op Atlas draaide. Athena zou de backuptaken van Atlas overnemen en kreeg daarvoor de beschikking over twaalf 160GB sata-schijven. De opvolger van Atlas zou zich puur met het serveren van files bezig gaan houden en daar acht 74GB-Raptors voor krijgen. Dankzij deze setup hadden wij veel meer ruimte voor backups, veel meer geheugen voor de zoekmachine en voldoende capaciteit op de fileserver. De oude ML530 werd uit het rack gehaald en in 2007 op een meeting door de crew 'beloond' voor de vele uren aan downtimes, kapotte schijven en verloren data. Zelfs op dit feestje ter ere van hem, kon Atlas het niet nalaten om nog een laatste keer een stuk hardware te vernielen.

Atlas in het begin Atlas het rack in Atlas sloop Atlas sloop - honkbalknuppel slachtoffer
Atlas: begin en einde, en zijn laatste slachtoffer

* IBM Atlas en toekomst

Hoewel we nu veel meer ruimte hadden, besloten we toch om deze server weer te vervangen door een IBM-machine met 4TB aan ruimte, snellere processoren en meer geheugen. Helaas bleek met deze IBM ons oude geluk weer terug te keren: hij was uitermate instabiel, en zodra het geheugengebruik over de 4GB kwam liep hij onherroepelijk vast. Toen bleek dat we de server bijna dagelijks moesten herstarten, werd besloten om de oude server, die nog in het rack hing, voorlopig weer in te zetten als fileserver en naar een betere oplossing te zoeken. De IBM-helpdesk raadde ons ondertussen aan om de firmware van de backplane te upgraden - dit had inderdaad als gevolg dat de bak niet meer vastliep vanwege het geheugengebruik, sterker nog, na deze upgrade kon de IBM-server niet eens meer voorbij het post-scherm komen.

De toekomst moet ons leren of de oplossing waar wij nu aan werken een betere oplossing wordt dan wat we nu hebben (wij denken uiteraard van wel). In ieder geval heeft de toekomstige oplossing met 6TB weer meer ruimte en zal nfs worden ingeruild voor gfs. Binnenkort zal deze oplossing de huidige Atlas gaan vervangen.

IBM Atlas voorkant IBM Atlas geheugen IBM Atlas opengewerkt Atlas Toekomst
Twee nieuwere generaties Atlas

Veel gestelde vragen en statistieken

Bij onze .plans en reviews over het serverbeheer krijgen wij nog aardig veel vragen. Hieronder proberen we een paar van de vaakst gestelde vragen te beantwoorden.

* Wat gebeurt er met oude hardware?

Dat hangt ervan af of wij die hardware nog kunnen gebruiken, of het nog werkt en of iemand het wil. Servers die nog goed functioneren, kunnen bijvoorbeeld op het kantoor in een rack belanden, om daar bijvoorbeeld te dienen als testserver of als client voor databasetests. Sommige servers worden verkocht of, als niemand er echt belangstelling voor heeft, weggegeven. De servers die ons veel problemen hebben bezorgd, krijgen een speciale behandeling en zijn dan rijp voor de afvalcontainer. Ook komen er wel eens onderdelen bij een serverbeheerder thuis in de kast terecht, waar ze dan jaren liggen te rotten.

Hardware opruimen: opslaan en nooit meer naar kijken Hardware opruimen: weggeven / verkopen Hardware opruimen: Met een kruiwagen
Verschillende manieren om van hardware af te komen

* Waarom doen jullie je werk niet 's nachts?

Het korte antwoord: slechte ervaringen. Het iets langere antwoord: upgrades en verhuizingen nemen vaak een hele nacht in beslag. In theorie is dat mogelijk, maar ervaringen uit het verleden hebben ons geleerd dat als je een hele dag bezig bent met voorbereidingen en het plan vervolgens 's nachts uitvoert, je op het einde redelijk moe bent. Er worden dan ook meer fouten gemaakt dan wanneer je het werk na een goede nachtrust doet. Er zijn serverupgrades geweest waar we om 9 uur 's avonds begonnen en pas de volgende dag om 1 uur 's middags thuis waren - om meteen weer achter de computer te kruipen, omdat er toch nog iets fout was gegaan wat we tijdens de werkzaamheden nog niet hadden opgemerkt.

* Zijn jullie wel eens aangevallen?

Ja. In eerste instantie ging het om een tweetal bezoekers van de site die een zwak wachtwoord van een crewlid wisten te vinden om vervolgens via de backend access tot de servers wisten te verkrijgen. Deze hack was redelijk goedaardig en er werden geen al te gekke dingen gedaan. Er werd wel een 'review' geplaatst waarin ons werd uitgelegd dat de beveiliging van de site niet geheel afdoende was.

Soms lukte het de scriptkiddies ook om onze site plat te leggen. Een voorbeeld hiervan is de deface in de zomer van 2001. Een te standaard Slackware-installatie met een exploitable telnet zorgde er voor dat wij gehackt werden. Deze hackers sloegen midden in de nacht toe (en dat was natuurlijk smullen voor onze concurrenten), maar de deface was van korte duur. Ondanks het tijdstip waren de meeste webpagina's binnen enkele minuten weer hersteld en binnen een half uur was uitgevonden hoe ze binnen waren gekomen en was het lek gedicht. Uit de verklaring van de hackers bleek dat ze ons graag een lesje wilden leren. Dat lesje hebben wij hopelijk geleerd, want het was de laatste keer dat er iemand serieus het serverpark is binnengedrongen.

Niet alleen hackpogingen zorgden voor overlast, sommige mensen vonden het blijkbaar nodig een ddos-aanval op Tweakers.net uit te voeren. Dit gebeurde een aantal keren en bij de grootste ddos waren we ruim een halve dag offline omdat er 5Gbps aan verkeer op ons 100Mbps-lijntje werd afgevuurd. Een aantal van deze aanvallen werden gepleegd door bij ons bekende personen. Hoewel we van deze personen de adresgegevens konden achterhalen, heeft een aangifte bij de politie tot op de dag van vandaag nog maar weinig effect gesorteerd.

Tegenwoordig worden wij bijna niet meer aangevallen. Soms probeert iemand om ons plat te leggen door heel veel pagina's heel langzaam op te vragen, maar dat is redelijk eenvoudig te blokkeren. Aanvallen waarbij grote hoeveelheden verkeer onze kant op gestuurd worden behoren (hopelijk) tot het verleden.

* Waar kan ik meer lezen over het serverbeheer?

Een goede plek om daarmee te beginnen zijn onze 'Server- en netwerkstatusmeldingen' .plans die wij sinds 12 maart 2002 bijhouden:
Server- en netwerkstatusmeldingen I: 12-03-2002 - 25-08-2002
Server- en netwerkstatusmeldingen II: 01-09-2002 - 16-10-2002
Server- en netwerkstatusmeldingen III: 05-12-2002 - 22-06-2003
Server- en netwerkstatusmeldingen IV: 24-06-2003 - 28-01-2004
Server- en netwerkstatusmeldingen V: 10-02-2004 - 07-12-2004
Server- en netwerkstatusmeldingen VI: 08-12-2004 - 01-02-2006
Server- en netwerkstatusmeldingen VII: 07-02-2006 - 11-12-2006
Server- en netwerkstatusmeldingen VIII: 28-03-2007 - 19-12-2007
Server- en netwerkstatusmeldingen IX: 18-01-2008 - heden

* Statistieken

Wij Tweakers zijn dol op statistieken. De meeste statistieken kan je al op de site terugvinden, maar hieronder hebben we er toch nog een paar voor je gebakken om de groei van ons serverpark weer te geven.

HoeveelheidBegin 2001VandaagGroei
Servers316533%
Processoren428700%
Cores4541350%
MHz3066MHz136.960MHz4467%
Geheugen2432MB86.016MB3536%
Harddisks81041300%
Diskruimte110GB17.129GB15572%

De serverpower aan het begin van de hostingsgeschiedenis vs. nu

* Wat brengt de toekomst?

Zoals je al wel opgemerkt hebt is deze review redelijk snel over 2007 en 2008 heen gegaan. Dit is niet omdat wij niets doen, maar grotendeels te wijten aan onze developers. Hadden wij vroeger nog regelmatig last van een overbelaste databaseservers en webservers, tegenwoordig slagen de developers erin om meer mensen per dag, met minder queries en minder cpu-tijd te voorzien van een mooiere pagina. Ook het gebruik van juiste cache-headers en het inzetten van aparte software voor statische requests leidde tot een daling van de werklast terwijl het aantal pageviews bleef stijgen.

Dankzij alle serverupgrades en vernieuwingen waarover je de afgelopen tijd hebt kunnen lezen, hoeven wij vrijwel nooit meer naar de colocatie toe. Bijna alles kan vanuit kantoor of huis beheerd worden; we zijn eigenlijk alleen nog in de serverruimte te vinden als we nieuwe hardware moeten plaatsen of onderdelen moeten vervangen. Uiteraard blijven we het serverpark monitoren en waar nodig upgraden: zo wordt binnenkort de filedistributie aangepakt, waardoor vrijwel alle servers weer naar nul dagen uptime gaan. Een verbouwing waarbij we alle servers van een nieuw moederbord voorzien zal echter niet meer voorkomen; dat behoort nu tot de Tweakers.net-geschiedenis.

Reacties (64)

64
64
10
6
0
8
Wijzig sortering
Een nieuwe sponsor, loadbalancerfabrikant Brainforce, wilde ons wel wat hardware cadeau doen. In eerste instantie ging het om twee loadbalancers die in een 'High Availabilty'-opstelling werkten, maar de IBM-servers waarop dit platform draaide, bleken zo stabiel te zijn, dat we besloten om maar één server te nemen en de tweede terug te sturen.
Dat was niet de reden, niet eronderuit lullen nou :P
Op 29 mei werden er twee loadbalancers van het merk Brainforce in het rack gehangen. Een van de twee servers werd gesponsord, de andere mochten wij betalen. Omdat wij op dat moment niet heel ruim in het geld zaten, werd de betaalde server weer gewoon geretourneerd naar Brainforce en draaiden we verder met één loadbalancer.
Wederom erg leuk om te lezen allemaal. Wat er in de tussentijd wel niet allemaal gebeurd is met die machines. Aan de ene kant is het natuurlijk wel erg stoer om dikke Dell servers in je rack te hebben hangen, aan de andere kant vind ik het zelfbouw eigenlijk wel in het tweakers element passen. Jammer dat jullie dat noodgedwongen moesten laten varen.

[Reactie gewijzigd door Bitage op 22 juli 2024 21:27]

Het was een kwestie van beiden eerlijk gezegt ;)
De server was onzettend stabiel, dus zagen wij geen reden om hem te kopen, zeker omdat wij het geld op dat moment beter konden gebruiken ;)

Het nadeel van zelfbouw is dat je vaak niet zulke setups met losse enclosures kan bouwen, en dat nog stabiel krijgen ook. En je kan vaak niet bellen en ervoor zorgen dat een monteur de dag erna foutieve onderdelen vervangt. Dan moet je vaak al gaan werken met hardware op voorraad houden, en dat kan redelijk prijzig zijn, zeker als je het nieuwste van het nieuwste wil hebben.

[Reactie gewijzigd door Kees op 22 juli 2024 21:27]

In eerste instantie ging het om een tweetal bezoekers van de site die een zwak wachtwoord van een crewlid wisten te vinden om vervolgens via de backend access tot de servers wisten te verkrijgen.
ho ho, dit klopt niet :p
De originele bug was dat het mogelijk was het wachtwoord van een willekeurige gebruiker te resetten, het had dus niets te maken met zwakke wachtwoorden raden. Vervolgens kon inderdaad via een bug in het back-end het mysql root-wachtwoord worden achterhaald.
Indien er trouwens schade is kun je de personen die hebben ingebroken trouwens aansprakelijk stellen voor de schade. Moet er wel duidelijk aanwijsbare schade zijn geleden en moeten de personen aanwijsbaar zijn.

Jullie weten me te vinden indien nodig! :p

Verder: keep up the good work!
Ah, het was dan ook net voor mijn tijd, en dat was wat ik ervan meegekregen had ;)
Ligt het aan mij of staat er "Apollo slet" geschreven op de Apollo server :+ Nou ja, de ML530 heeft uiteindelijk zijn verdiende loon gekregen ;)

Leuke review van de serverontwikkelingen. Blij te zien dat jullie alles via remote kunnen doen.

Ik was alleen in de war met deze zin: "Uiteraard blijven we het serverpark monitoren en waar nodig upgraden: zo wordt binnenkort de filedistributie aangepakt, waardoor vrijwel alle servers weer naar nul dagen uptime gaan."

Moet dat niet "nul dagen downtime zijn" , dwz. dat er na het onderhoud geen downtime meer zal zijn? Of wordt gewoon bedoelt dat de de uptime teller gereset wordt door het vervangen van hardware?

[Reactie gewijzigd door YellowOnline op 22 juli 2024 21:27]

De uptime teller gaat binnenkort van ~300 dagen gemiddeld naar <10 dagen gemiddeld ;)

En er staat inderdaad 'Apollo Slet', die sticker zit op de enclosure die aan Apollo hangt, dus eigenlijk is het een lege doos met wat schijven erin die aan een volwaardige server hangt die gebruik maakt van die schijven ;)

[Reactie gewijzigd door Kees op 22 juli 2024 21:27]

Wordt dat dan ook bij Alexa en Netcraft zo neergezet? Want in principe ben je toch maar heel effe down dan ... Dat je uptime dan weg is snap ik, maar in procentuele bereikbaarheid (reële uptime) blijven jullie toch gewoon zwaar goed staan?
Tja, ik heb het over 'uptime' als in, de tijd sinds de laatste volledige reboot van die server. De Uptime zoals netcraft e.d. hanteren is de bereikbaarheid van de site, en die wordt zowiezo niet in dagen uitgedrukt maar in een percentage. Hoe hoog dat percentage is weet ik niet precies (houden wij niet bij), maar het is redelijk hoog.
Netcraft probeert de uptime inderdaad te achterhalen vanaf de reboot en in de statistieken kun je dus van de front-end (dus web) servers zien dat ze gereset zijn en wanneer.

De bereikbaarheid is natuurlijk wat anders, want die veranderen niet echt - op dat punt zal men dus hoog blijven scoren, maar dat doen gelukkig bijna alle websites :)
Kun je gelijk die stukke fan repareren. :P Er is een fan op sterven na dood in jullie linker rack. Ik had laatst een stukke fan en dat koste me 4 disks, dus misschien een idee om er even naar te kijken. :+ ;)
Zie je dat op de foto ofzo?
Ja ik denk dat ie dat van die foto heeft met die server vs. honkbalknuppel :P
Kees en moto kennende staat er ofwel 'Apollo slet', ofwel iets groffers :+
Tis wel leuk dat de server park vergelijking vanaf 2001 tot heden loopt ... ik ben al wat langer bij Tweakers, en kan me nog de ellende herinneren dat Femme 'snachts met zijn 56K-lijntje de site aan het updaten was naar RackSpace in de VS... wel leuke nachtelijke discussies gehad in die tijd. Was toen trouwens de enige manier om Femme persoonlijk te spreken, 'snachts via IRC, want mail daar heeft hij nooit veel mee gehad. Er staat wel altijd zo leuk Femme Taken onderaan elk mailtje, maar 99,9% van de mails die naar hem persoonlijk gestuurd worden, beantwoord die gewoon niet. Is niet erg, want jullie hebben een postadres en een KvK nummer tegenwoordig, dus als ik echt dringend de behoefte voel het MT persoonlijk te spreken dan kan ik altijd een brief sturen of persoonlijk langs gaan.
Wat ik me wel af vraag, woont Femme nu tegenwoordig in een eigen relaxte koopwoning of meer op kantoor en de rest van de tijd nog steeds in Ruurlo bij Pa en Ma Taken ?
Ik ben daar een keer geweest, leuk huisje, tis al erg lang geleden natuurlijk maar ik herinner me de langharige guru nog heel goed. Zeer relaxte gast.

Maargoed, dit wou ik dus effe toevoegen... "Vroeger" voordat dit een bedrijf was, was Femme degene die alles met een 56K lijntje uploadde en RackSpace viel op een gegeven moment af, ik geloof omdat de hosting in Nederland betaalbaarder werd en de behoefte om persoonlijk en fysiek aan de servers te sleutelen toe nam.
Als ik het me goed herinner, woont Femme, samen met vrouw, in een verbouwde boerderij. Ergens op Gathering of Tweakers zijn wel foto's te vinden van zijn huiskamer. Ik denk dat je wel kunt stellen dat 'ie niet krap woont ;)
Ik mis een stukje over de nieuwe manier van plaatjes serveren (via aparte url). Is het niet iets om iscsi te gebruiken naar een diskcabinet (SAN) van bijvoorbeeld EqualLogic?

[Reactie gewijzigd door PcDealer op 22 juli 2024 21:27]

Hebben jullie eigenlijk een (bedrijfs-)beleid over het vervangen van servers? Zo lang ik T.net ken (al heel lang ;)) klinkt elke upgrade/vervanging nog steeds als "de hardware was niet stabiel genoeg meer", "de hardware was niet krachtig genoeg meer" of "we kregen een leuke sponsor deal". Dat klinkt als behoorlijk reactief beheer. Voor een professionele site en bedrijf klinkt dat niet echt hoogstaand.

Wanneer gaan jullie over op kreten als "om jullie in de toekomst nog sneller onze mooie nieuwe features op de site te kunnen laten zien, en omdat de huidige hardware bijna XX jaar oud is, gaan we die binnenkort vervangen door wat krachtigers"?
ACM Software Architect @Anton9 oktober 2008 09:40
Alle recente updates waren van het principe 'de hardware is binnenkort niet krachtig genoeg meer' of hooguit 'die server heeft het ondertussen wel vrij zwaar', niet dat de op dat moment hardware al niet krachtig genoeg meer is en daadwerkelijk voor performanceissues zorgt.

Aangezien we de load-ontwikkeling per server nogal lastig kunnen voorspellen, gaan we niet hardware maar gewoon na drie of vier jaar vervangen. Sommige servers draaien al heel lang mee, andere lopen kans om binnen drie jaar alweer vervangen te worden (waarbij de oude dan vast een nieuwe taak krijgt).

Die load-ontwikkeling hangt tenslotte niet alleen af van groeiend gebruik van de site, maar vooral ook in hoeverre we bestaande functionaliteit (verder) optimaliseren danwel uitbreiden en daarmee juist zwaarder maken.
Ik moet Anton toch echt wel gelijk geven hoor.
Nu jullie een echt professioneel bedrijf zijn, die deel uitmaakt van een nog groter bedrijf zou ik toch echt verwachten dat het wat gestructureerder zou zijn.
Indien wij hier een aantal servers vervangen , ligt het plan voor de volgende "renewal" eigenlijk al vast, gewoon omdat de maintenance kost gewoon exponentieel de hoogte inschiet na 4/5 jaar, makkelijk 3-4K voor 1 server indien je een 4H to fix wilt.
Ik vraag me dan ookecht af waar jullie een onderhoudscontract hebben ? Jullie hebben allemaal verschillende merken door elkaar, wie ondersteunt dit alles ?

En waarom niet virtualiseren ? Hardware vervangen , load-balancen etc gaat 1000 keer beter en hardware problemen kun je ook beter opvangen.

[Reactie gewijzigd door klakkie.57th op 22 juli 2024 21:27]

Wij ondersteunen ons zelf, en waarom niet? Een 4h fix is leuk, maar wij kunnen zoiets 9 van de 10 keer zelf sneller binnen 4h fixen.

Bovendien, service op een webserver? Alstie stuk is pleuren we hem uit de pool en zoeken we op ons gemak een nieuwe server uit. Service op een database server? Alstie stuk is prikken we de raidcontroller over in een webserver, prikken we er wat geheugen bij en voila, een databaseserver en we kunnen op ons gemak weer een nieuwe databaseserver uitzoeken. Bovendien is bijna alles aan die servers redundant uitgevoerd zodat we echt niet platliggen omdat er een schijf stuk is, een voeding de pijp aan maarten geeft of een fan stuk gaat.

En waarom virtualiseren? Het kost je overhead, en vrijwel elke machine in ons serverpark heeft een dedicated taak en zou dus ook 1 VM draaien. Verder is het met de mix aan hardware (die altijd zal blijven bestaan, wij willen gewoon het beste en snelste blijven gebruiken) niet makkelijk om te veel op standaarden te gaan letten.

En ook al gebruiken wij op dit moment Dell hardware, als er een killer processor van AMD komt die niet door Dell geleverd wordt, dan kun je zomaar servers van een andere leverancier zien.

Dus virtualiseren? Nee, zie ik geen voordelen van
Servicecontracten? Geen enkel contract is sneller dan wij zelf iets kunnen oplossen, en als we al service nodig hebben dan gebeurd dat niet op een live server, want als die echt vervanging nodig heeft, dan is hij al vervangen.
Structuur in een serverpark? Vaak is dat synoniem voor gelijke servers en gelijke software erop en dat is uit een performance technisch oogpunt gewoon dom, servers met verschillende taken zijn niet gelijk, een databaseserver is iets anders dan een webserver of een fileserver of een loadbalancer of een zoekmachine, allen hebben hun eigen specifieke eisen aan hardware voor optimale performance.

We moeten zeker ook redhat ES of suse oid gaan draaien met een supportcontract ipv debian, onze softwaredevelopment out-sourcen en ideaal ook de servers laten beheren door een externe partij.

Nee, ik denk dat, door het in eigen handen te houden, wij jaarlijks heel erg veel geld besparen tov een 'profesioneel' bedrijf.

[Reactie gewijzigd door Kees op 22 juli 2024 21:27]

Je moet het niet meteen zo persoonlijkopvatten, maar ik stond er gewoon van te kijken hoe weinig structuur jullie blijkbaar hebben en alles "on-the-fly" willen doe.
ik kan me niet inbeelden dat mijn werkgever genoegen zou nemen indien ik zeg dat iets wel zal oplossen indien het probleem zich voordoet. Indien iedereen zo zou redeneren zouden er nooit disaster recovery plans gemaakt worden laat staan dat je ze ook zou testen.

Je uitspraak van er is niets dat wijzelf niet kunnen oplossen binnen de 4uur vind ik wel erg sterk. Ik loop al wat jaartjes mee in de "IT" en ik heb menig server toch al gekke dingen weten doen, waar zelfs de fabrikanten weken voor nodig hadden op eindelijk het probleem te kunnen verhelpen met de zoveelste beta firmware.
Of die ene keer dat ik in het holst van de nacht 800 kilometer moest rijden om een voeding die ik dan nota-bene ook nog stuk bleek te zijn en vervolgens aan de slag moest met een soldeerbout terwijl de fabrieks-ditrecteur in mijn nek stond te hijgen dat hij per half uur 10.000 euro verlies maakte.


Over dat virtualiseren, zelfs 1 VM hosten op 1 Fysieke server kan duidelijk voordelen bieden naar downtime toe. Ik kan natuurlijk niet inschatten hoe jullie verwachtingen zijn maar downtime is gewoon not done, dus clusteren, virtualiseren; hardware ontdubbelen, multi-site etc is de regel indien je uptime wilt.
Hardware vervangen wanneer je virtualiseert is ook al een fluitje van een cent , wederom geen downtime.

geld zul je zeker beparen, maar dat zou ik ook doen indien ik mijn brandverzekering niet zou betalen. Je begrijpt wel wat ik bedoel , maintenance/support contracten kosten handenvol geld, maar indien je verantwoording moet afleggen tov van klanten, en aandeelhouders kun je gewoon niet anders dan afspraken maken met derde partijen die altijd spareparts hebben en die schadevergoeding moeten betalen indien ze hun deadlines niet halen.

Ieder zijn waarheid natuurlijk, ik had het gewoon wat "grootser" ingeschat dan het er werkelijk aan toegaat bij tweakers.

@Anton.
Virualiseren is net wel de oplossing als je snel en makkelijk extra performance wilt.
Blade bijprikken , install wordt automatisch gepushed, en within no-time man VM's verplaatsen op een andere server waardoor de server die extra belast wordt meer ademruimte krijgt of meteen een extra clusternode-VM kan activeren voor je webfarm etc..

[Reactie gewijzigd door klakkie.57th op 22 juli 2024 21:27]

Ik vat het niet persoonlijk op, maar mijn reageerstyle komt mischien wat bot over ;)

Als eerste; we voegen vrijwel geen nieuwe onderdelen meer toe aan het rack, als er iets nieuws komt, dan is dat in de meeste gevallen ter vervanging van iets anders.

Goed, stel er is iets met een brakke firmware, hebben we vaak genoeg meegemaakt (onderaan supermicroservers met een brakke onboard sata controller), en daar kom je dan in de testfase achter, of als de server net in productie draait (onderaan, de nieuwe IBM fileserver). In het eerste geval los je het op of zoek je iets anders dat wel werkt, in het tweede geval zorg je ervoor de de server die je wilt vervangen nog gewoon standby draait en de boel meteen kan overnemen. Had het in een van deze gevallen geholpen als een fabrikant het zou oplossen? (in het geval van de IBM, nadat hij op kantoor terug kwam hebben wij inderdaad met IBM gebeld en hun oplossingen geprobeert; gevolg: die server is een hele dure presse-papier nu met een kapotte backplane)

Ik geef meteen toe dat ik niet heel veel verstand heb van virtualiseren dus daar mag je mij wel wat over uitleggen. Bijvoorbeeld hoe ik downtime bespaar als ik bijvoorbeeld een nieuwe databaseserver wil inzetten omdat de oude performance tekort komt. Wat ik nu zou doen is de nieuwe server instaleren, klaar maken, de database overzetten en het ip overnemen. Als ik ga virtualiseren dan hoef ik volgens mij alleen het ip niet over te nemen (door de vm te verplaatsen naar de nieuwe server) maar ik moet nog steeds die 40 gigabyte aan data over een netwerk naar de nieuwe server pompen. Al met al heb je dan net zoveel downtime.

Goed, het gaat wat sneller met een SAN, maar dan lever je of een behoorlijke performance in, of je verliest een boel functionaliteit, of het kost klauwen vol met geld. In ons geval zouden wij een nieuwe databaseserver kunnen opzetten, enclosure overkoppelen server starten en klaar ben ik.

Snel en makkelijk extra performance is in mijn ogen een kwestie van het niet aan zien komen van een toename in de werklast. Als je die wel ziet aankomen dan heb je alle tijd om rustig je capactieit uit te bouwen om die toename op te vangen. Verder gaat dat bij ons alleen maar op bij de webservers, de databaseservers kunnen we op dit moment niet clusteren omdat MySQL daar gewoon niet goed mee overweg kan.

Overigens wil ik je er wel op wijzen dat ons serverpark redelijk 'eenvoudig' is en dat dat ook veel downtime bespaard. Van jouw oplossingen had alleen de multi-site oplossing ons dit jaar downtime bespaard (2x onbereikbaar vanwege een netwerkstoring bij de provider)
Hoe groot is de mysql database op dit moment eigenlijk?
Hebben jullie hier ook een pagina voor om de status van de mysql te volgen? (query speed en dergelijke?)

Ik dacht net dat mysql gekend was omdat zij net zo goed waren in het clusteren van hun systemen. Dit was eenvoudig opzetbaar en werkte ook goed. (Ik had in het verleden toch ook gelezen dat jullie een round robin mysql hadden opgezet?)
Goed antwoord, daar had ik zelf nog niet eens zo bij stil gestaan. Als automatiseerder vergeet je wel eens dat er mensen zijn die het zelf ook kunnen... (Eh, welke site was dit ook alweer? En hoe was die begonnen? Even niet aan gedacht ;))

Persoonlijk hou ik wel van homogeniteit in een rack, maar dit is natuurlijk ook een manier. Jullie moeten waarschijnlijk sneller handelen omdat je niet weet hoe populair tweakers over 2 weken nog (of al) is.

@klakkie.57th: leuk hoor, dat virtualiseren. Ik doe het zelf ook heel graag. Maar het is een middel, geen doel. Er zijn meer wegen om je doel te bereiken.
Ik weet niet of je dat moet willen bij Tweakers.Net. Ik bedoel 25% afschrijving per jaar waar jij het over hebt die sommige bedrijven hanteren. (Houdt in 1 keer per 4 jaar zijn alle servers vervangen) Ik denk dat een T.Net abbo dan ook duurder gaat worden ... en als je naar de netcraft stats kijkt van tnet dan is een ander beleid voor vervanging ook niet echt nodig imho, de uptime in dagen wordt steeds groter namelijk....
Waarom zouden ze dat moeten doen? Alles draait toch snel en stabiel? lage downtime etc. Als professionalisering betekent dat je je aan ingeburgerde standaarden moet houden en niet je zaken op een andere manier -die net zo goed werkt- mag houden, dan hoeft 't van mij niet meer. Dan maar niet professional.
Not3pad dit is niet de bedoeling om een wellens nietes spelletje te worden.
En zoals ik hierboven al schreef heeft iedereen zo wel zijn waarheid, maar de dingen die jij opnoemt als snel en weinig downtime doen er helemaal niet toe.

Alles draait op de verantwoordelijkheid die "tweakers" heeft tov derden.
Indien dit een hobbysitje zou zijn, zoals het ooit begon, da zijn jou criteria misschien wel voldoende maar indien je onderdeel uitmaakt van een groter geheel vnumedia die ,en ik citeer devolgende waarden heeft staan in hun mission statement, dan spelen er volgens mij toch echt wel andere dingen mee.

Waarden
- Ondernemend (risico's nemen, pro-actief, resultaatgericht)
- Open (kennis delen en opbouwen, eerlijk en direct, korte lijnen)
- Wil om te winnen (gedreven, ambitie, nr. 1 te willen zijn, slagvaardig)
- Innoverend (pionieren, veranderingsgericht, flexibel, technologiegedreven)
- Professioneel (accountability, betrouwbaar, kwaliteit leveren)



Misschien zijn het loze woorden maar indien ik als mission statement , professioneel , accountability en betrouwbaar , als credo heb dan heb ik daar een bepaald beeld bij en dat is nu eenmaal niet het beeld wat in dit artikel beschreven werd.

edit:

klakkie moet toegeven dat hij waarschijnlijk een licht fortune-500 hersenspoeling ondergaan heeft de afgelopen 10jaar. :)

[Reactie gewijzigd door klakkie.57th op 22 juli 2024 21:27]

Hum, klakkie..
Ik zie je punt, maar .. vooral je laatste punt ook ;)

Overigens wil ik opmerken dat je nog 1 Waarde vergeten bent:

- Beurswaarde....

Tweakers, keep up the good work!.
Eigenlijk zou je voor nieuwsposts ook 'sterren' moeten kunnen geven, dan kreeg deze er 5! Mooi geschreven Kees Hoekzema, je hebt of een gigantisch goed geheugen of je hebt het van het begin af aan goed gelogt.
Een goed geheugen, in combinatie met het doorspitten van alle .plans en andere mensen vragen voor anekdotes was het ;)
Ik snap nog niks van servers maar het ziet er allemaal ingewikkeld uit. Knap dat jullie nog zoveel weten van de afgelopen jaren en er zelfs foto's van hebben :*)
Erg leuk al die foto's. Toen die verhuizingen plaats vonden heb ik altijd alles gevolgd, vind ik wel leuk. Succes met alles, en ga vooral zo door. Ik vind dit echt een top site + forum!!! Leuk ook al die foto's, maakt het verhaal wat leesbaarder en leuker om helemaal te lezen. GA ZO DOOR TWEAKERS!!!

Steefie
Maar dan heb je nu dus een kloon ofzo? want ik kan aan je profiel niet aflezen dat je al jaren tweaker bent... Als je een oude account terug wil kan dat hè!! Hebben ze voor mij ook geregeld, omdat ik buiten mijn schuld om een tijd lang niet op T.Net kon komen waren de email gegevens verouderd en ik wist het wachtwoord ook niet meer, alleen nog mijn UID ... maar de Adjes hebben het wel voor me gefixt, waarvoor Hulde!
Ik heb de eerste paar jaar t-net gevolgd zonder een profiel aan te maken, misschien hij ook?

Op dit item kan niet meer gereageerd worden.