Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Femme Taken

Architect

Verslag van Redbus serververhuizing

Waarom verhuizen?

Redbus-verhuizing: aankondigingOp 26 oktober beleefde Tweakers.net de grootste verhuizing van servers in zijn geschiedenis. Na eerder gehost te zijn bij Pair, Rackspace en Vuurwerk werd afgelopen dinsdag de co-locatiesuite van TrueServer in TeleCity veruild voor de nieuwe suite van TrueServer in het datacenter van Redbus Interhouse. TeleCity fungeerde meer dan drie jaar lang als onderkomen voor onze servers. In de tussentijd groeide het serverpark van zes machines naar een legertje van veertien servers, die bijgestaan door twee netwerkswitches, drie APC Masterswitches, een LCD KVM-switch en een console server ongeveer 33 hoogte-units in gebruik nemen. Dit maakte de verhuizing tot een grootse operatie die meer dan 12 uur in beslag nam.

* Waarom verhuizen?

Redbus AmsterdamIn maart van dit jaar maakte onze sponsor TrueServer bekend het merendeel van zijn netwerk- en infrastructuur te zullen verplaatsen van TeleCity naar Redbus Interhouse. Als redenen voor de verhuizing werden de flexibele opstelling van Redbus ten aanzien van de huur van rackspace, de hogere kwaliteit van de technische ondersteuning en de betere prijs/kwaliteitsverhouding genoemd. De klanten van TrueServer kregen de keuze om in TeleCity te blijven of te verhuizen naar Redbus. Vanwege de voordelen van de nieuwe locatie werd verwacht dat de meeste klanten gebruik zouden maken van de mogelijkheid om te verkassen naar Redbus. De verhuizing zou geleidelijk plaatsvinden tussen mei en december van dit jaar, zodat alle klanten ruim de tijd kregen om zich op een eventuele verhuizing voor te bereiden.

Vanwege de voordelen van de nieuwe locatie en het feit dat we onze sponsor zo min mogelijk in de weg willen staan, heeft ook Tweakers.net besloten zijn servers naar Redbus te verhuizen. De concrete verbeteringen ten opzichte van TeleCity zijn ruimere racks met een diepte van 100cm, de aanzienlijke betere koeling dankzij geperforeerde voor- en achterdeuren van de racks, en de betere infrastructuur die TrueServer op Redbus ter beschikking heeft. Ons toch al extra diepe rack in TeleCity had 10cm minder diepte dan het nieuwe rack in Redbus. De koeling van de standaardracks in TeleCity is zeer matig vanwege de dichte glazen voor- en achterdeuren. Vooral in de bovenste delen van het rack kunnen hierdoor akelig hoge temperaturen ontstaan. Om die reden was de deur reeds vervangen door een exemplaar met ventilatiemogelijkheden. Dankzij de geperforeerde deuren in de racks van Redbus kunnen de servers over de gehele hoogte profiteren van de airconditioning in de colo. Een andere verbetering in de racks van Redbus is de geïntegreerde kabelgoot. Met het toenemende aantal kabels in ons kabinet zou een kabelgoot goed van pas komen.

Redbus-verhuizing: Racks in TeleCity
Dichte racks in TeleCity

Redbus rack
De geventileerde racks van Redbus Interhouse

Aan de enorme hoeveelheid werk en de onvermijdelijke halve dag van downtime die met een verhuizing naar Redbus gepaard zouden gaan, was ook een aantrekkelijk voordeel verbonden: de verhuizing naar Redbus zou een ideale gelegenheid zijn om de indeling en de bekabeling van het rack te herorganiseren. Dit was wel nodig, omdat de hoeveelheid kabels in het rack met het volledig aansluiten van onze nieuwe Cyclades console server en Aten LCD KVM-switch flink zou toenemen. Naast stroom en twee keer UTP zou iedere server een aansluiting voor toetsenbord, muis en VGA krijgen. Het installeren, upgraden en verwijderen van servers had in de jaren sinds de
Bekabeling in TeleCity-rack

Vertrek uit TeleCity

Na een gedegen voorbereiding werd dinsdag 26 oktober om 10.30u begonnen met de afbraak van het rack in TeleCity. Om de bezoekers tijdens de verhuizing zoet te houden, kreeg Achelois (development server) de nobele taak om een statische offlinepagina met informatie over het serverpark en de voortgang van de verhuizing te serveren. Nadat de uplink naar de core switch van TrueServer was omgepatched van onze WAN-switch naar de netwerkpoort van Achelois, kon gestart worden met het verwijderen van servers en overtollige kabels. Ondertussen werd nog even een backup gedraaid van de file- en database-servers, zodat we over een actuele kopie konden beschikken in het geval dat er tijdens transport schade aan de vitale onderdelen van het serverpark zou ontstaan.

Redbus-verhuizing: Afsluiten servers

Redbus-verhuizing: Rack TeleCity halfleeg

Zoals verwacht had de development server (een dual Xeon 2,4GHz met Tux als webserver) geen enkele moeite om de requests voor de offlinepagina's te verwerken. De hoeveelheid verkeer die webservers bij het serveren van statische bestanden met de hedendaagse processors kunnen verwerken, is vele malen groter dan de bandbreedte van een gangbare internet-uplink. Dientegevolge kwam Achelois zelden boven een load van 0,05. Het streven om de offlinepagina tijdens het onderhoud regelmatig van een update te voorzien, bleken in TeleCity niet eenvoudig in praktijk gebracht te kunnen worden. Ondanks de vele gigabits aan bandbreedte die er onder onze voeten doorliepen, was de internetverbinding in de customer room van TeleCity van zeer brakke aard. Het aanslingeren van de 'verhuis-o-meter' en het uploaden van een paar foto's vergde enig doorzettingsvermogen.

Redbus-verhuizing: Screenshot offlinepagina (1)Redbus-verhuizing: Screenshot offlinepagina (2) Redbus-verhuizing: Offlinepagina update in customer room TeleCity
Offlinepagina updaten in de customer room van TeleCity

Ons rack kreeg ondertussen een steeds troostelozere aanblik. Rond het middaguur was er van het eens zo goed gevulde kabinet niets meer overgebleven dan een grote leegte, waarin de overgebleven development server bijna vacuum werd gezogen. Het wegtakelen van Atlas, een overbemeten ProLiant ML530 die dienst doet als fileserver, bleek gelukkig geen onoverkomelijke hindernis. Nadat het materiaal was overgezet in de verhuiswagens - een Peugeot 307, Renault Mégane en Volvo V40 - kon de reis naar Redbus aangevangen worden. Bij de verdeling van de servers over de auto's werd erop toegezien dat file- en database-servers niet samen vervoerd werden met de machines waarop hun respectievelijke backups waren geplaatst. Dit om te voorkomen dat bij een eenzijdige car crash ook meteen alle actuele data verloren zou kunnen gaan.

Redbus-verhuizing: TeleCity sloopwerk

Redbus-verhuizing: TeleCity sloopwerk Redbus-verhuizing: TeleCity sloopwerk

Redbus-verhuizing: Femme de kabelman Redbus-verhuizing: TeleCity kabeltjes organiseren

Redbus-verhuizing: Servers op wagentje in TeleCity

Redbus-verhuizing: Servers op wagentje in TeleCity *Actieshot* Redbus-verhuizing: TeleCity servers op wagentje

Redbus-verhuizing: Atlas overgebleven in TeleCity

Redbus-verhuizing: Roelant's V40

Redbus-verhuizing: Roelant's V40

Redbus-verhuizing: Femme's 307

Redbus-verhuizing: Daniël's Megane

Vanwege het gunstige tijdstip in de voormiddag leverde het vervoer naar Redbus geen vertraging op. Twintig minuten na het verlaten van TeleCity arriveerde de colonne in Sloterdijk, alwaar begonnen werd om het eerder beschreven proces in omgekeerde volgorde te herhalen.

Redbus-verhuizing: Op de snelweg

Redbus-verhuizing: Daniël's Megane bij Redbus

Redbus-verhuizing: Ingang Redbus

Opbouw van het rack in Redbus

Aangekomen in Amsterdam Sloterdijk maakten we direct kennis met de eerder door sommige tweakers kritisch beschreven beveiliging van Redbus. Er moeten inderdaad heel wat deuren gepasseerd worden om de colo te bereiken en niet alle deuren reageren even snel op het zwaaien met een beveilingspasje. Redbus verdient wel een pluim voor de prachtige sfeerverlichting in de colocatieruimte. De heldere en toch zachte belichting van diffuus glas in de buitenramen zorgt ervoor dat je, anders dan bij het potdichte TeleCity, toch een gevoel van contact met de buitenwereld houdt .

Redbus-verhuizing: Femme en Roelant voor raam #2

Redbus-verhuizing: Redbus verlichting

Redbus-verhuizing: Redbus zooi op vloer

Redbus-verhuizing: Kabels op de grond

Redbus-verhuizing: Servers op de vloer

Redbus-verhuizing: Switches en console server op de vloer

Redbus-verhuizing: Boormachines

Redbus-verhuizing: Rack in opbouw, achterkant

Redbus-verhuizing: Troep op de vloer

Redbus-verhuizing: Does met schroeven

Nadat de servers naar de tweede verdieping waren verplaatst, kon begonnen worden met het opbouwen van het rack, beginnend bij de ProLiant ML530. Die kon nu gelukkig onderin het rack geplaatst worden zodat we z'n potentiële energie nauwelijks hoefden te verhogen. Dat bespaart niet alleen calorieën maar scheelt ook load op het toch al zwaar belastte Nederlandse zorgstelsel. Na Atlas werden Athena (fileserver), Apollo (database-server GoT), Artemis (database-server frontpage) en Argus (webserver) in het rack gestapeld, met daar bovenop de LCD KVM-switch, load balancers, webservers en switches. Vervolgens werden de stroom- en netwerkkabels aangelegd zodat rond half vijf de eerste machines geboot konden worden. Dit was zonder twijfel het spannenste moment van de dag, want tegenslagen in dit stadium zouden grote gevolgen voor een succesvol slagen van de verhuizing kunnen hebben. Gelukkig werd onze vrees voor defecten door het sjouwen en transporteren van de servers (vooral harde schijven zijn gevoelig) niet bewaarheid. Op één machine na kwamen alle servers succesvol up. De enige dienstweigeraar was de mailserver, die niet meer dan een paar witte pixels in de rechter onderhoek van het scherm liet zien. Nadat John van TrueServer een goed gesprek had gevoerd met de routers werd de routering van onze IP's omgegooid van TeleCity naar Redbus en kon de tweakende medemens vanaf weer vertrouwd over Tweakers.net en GoT surfen. Op dat moment was het kwart voor zes.

Redbus-verhuizing: Rack opgebouwd tot aan webservers
Het rack opgebouwd tot aan de webservers

Redbus-verhuizing: Laptop en Roelant langs raam

Redbus-verhuizing: Labels maken Labels maken

Redbus-verhuizing: Fok! rack
Onze collega's van Fok! verderop in de Redbus colo

Redbus-verhuizing: webservers, load balancers en LCD KVM switch achterzijde Webservers, load balancers en LCD KVM-switch

Redbus-verhuizing: 3com switches en console server
3Com switches en Cyclades console server

Redbus-verhuizing: Booten van de servers in Redbus
Booten van de servers

Redbus-verhuizing: John configureert de routering
John configureert de routering

De werkzaamheden in Redbus waren daarmee nog lang niet voltooid. Nog niet alle kabels bevonden zich op hun plek, er moesten nog labels aangebracht worden en de kapotte mailserver moest opgelapt worden. Rond 18.30u werd een pauze ingelast voor het avondeten, dat dankzij de culinaire kunsten van Arshia (Daniëls verloofde) aanzienlijk beter te genieten was dan het fastfood waarmee we normaal gesproken genoegen moeten nemen bij serverwerkzaamheden. Onderwijl werd voor de laatste keer een bezoek gebracht aan TeleCity om de daar achtergebleven server uit zijn isolement te verlossen. Daarmee werd definitief afscheid genomen van het datacenter waar Tweakers.net meer dan drie jaar van had gebruikgemaakt.

Redbus-verhuizing: TeleCity definitief verlaten
Het TeleCity-rack definitief verlaten

Redbus-verhuizing: Achelois op de vloer in TeleCity
Achelois op de vloer in TeleCity

Na het avondeten werd verder gewerkt aan de bekabeling in het rack en onderging de mailserver een chirurgische behandeling waarbij de harde schijf werd getransplanteerd naar één van de webservers. De hardwarematige configuratie van de mailserver gelijk is aan die van de drie Appro-webservers, zodat er altijd vervangende hardware voorhanden is. Uiteindelijk bleek de kapotverklaarde hardware van de mailserver geheeld te kunnen worden met een simpele reset van het BIOS. Erg vreemd dat een BIOS reset nodig is na het transporteren van een server, maar het is niet de eerste keer dat dit gebeurde. Enige tijd geleden deed zich bij een testsysteem met de nieuwe Nocona-processors van Intel hetzelfde voor. Ook die werd dood afgeleverd door UPS maar kwam weer tot leven na het wissen van de BIOS-instellingen.

Redbus-verhuizing: Weg te werken kabels
Weg te werken kabels

Redbus-verhuizing: Kabelzooi
Kabels, kabels, kabels

Redbus-verhuizing: Mailserver krijgt straf
Mailserver krijgt straf

Redbus-verhuizing: Mailserver transplantatie
Harde schijf-transplantie van mailserver

Redbus-verhuizing: Mailserver nudie Mailserver nudie

Redbus-verhuizing: Mailserver BIOS
BIOS check

Omstreeks 22:30u was het meeste werk gedaan en konden we tevreden huiswaarts keren. Dit laatste bleek voor de delegatie Oost-Nederland geen opgave zonder hindernissen. Vertragingen door files op de ring Amsterdam konden niet gecompenseerd worden met het verzwaren van de rechtervoet en deden de reistijd Amsterdam - Enschede uiteindelijk met een uur toenemen. Over het verloop van de verhuizing kunnen we zeer tevreden zijn. De downtime bleef beperkt en er deden zich geen grote tegenslagen voor. In het verleden is dat wel eens anders geweest bij grote onderhoudswerkzaamheden. Vrijdagochtend werden de laatste dingetjes gefixed die dinsdag over het hoofd waren gezien. Daarmee kon de verhuizing als voltooid beschouwd worden.

Redbus-verhuizing: Redbus kabels weggewerkt in kabelgoot
APC Masterswitches en Cyclades console server

Redbus-verhuizing: Bekabeling weggewerkt in kabelgoot
Kabels weggewerkt in kabelgoot

Redbus-verhuizing: Tweakers.net rack @ Redbus (featuring Kees als Ghostman)
Kees en Daniël zien wazig na dag van zware arbeid

Redbus-verhuizing: Tweakers.net rack @ Redbus
Het nieuwe rack in volle glorie

Redbus-verhuizing: Tweakers.net wagenpark
Tweakers.net-wagenpark

Serverbeheer todo

Nu de verhuizing achter de rug is, zal er verder gewerkt worden aan het testen en afconfigureren van twee nieuwe load balancers. Deze machines draaien een zelf samengestelde oplossing voor load balancing en zullen tevens dienst doen als firewall en traffic logger. Dat laatste zal onder andere gebruikt worden om meer gegevens te verzamelen van de DDoS-aanvallen, die onze servers regelmatig treffen. De nieuwe LB's zullen redundant worden uitgevoerd en gaan de huidige One4Net B-100 load balancer van Brainforce vervangen. Op kantoor hebben we een derde database-server klaar liggen die ingezet zal worden als calamiteitenserver. Deze machine zal paraat staan voor het geval er zich ernstige problemen met de twee database-servers voordoen. Als onderdeel van dit project zullen we onder andere opnieuw gaan experimenteren met MySQL replication om te testen hoe stabiel deze feature in de huidige versies van MySQL is. Verder is er een upgrade van de mailserver gepland met als doel de betrouwbaarheid van deze doos te verbeteren.

Redbus-verhuizing: Redbus voorgevel by night
Het nieuwe onderkomen van de Tweakers.net-servers

Reacties (67)

Wijzig sortering
Tsja, ik vraag me toch nog steeds af hoe jullie en de collega's bij Fok! zelfs met zo'n partij servers vaak traag of slecht te bereiken zijn, of simpelweg offline zijn voor het zoveelste onderhoud.

Wij draaien momenteel met een enkele dual Xeon met een Pentium backup server mocht de Xeon problemen hebben en wij genereren zeker net zoveel traffic als jullie. Wellicht dat 't aan jullie expertise ligt? Een stuk begrip van de hard- en software en het vinden van een goede balans ertussen.

Op onderstaande link even wat info hoe wij het aangepakt hebben. Misschien dat de uitspraak 'keep it simple stupid' hier op jullie server configuratie van toepassing is?

New webserver, backing things up
http://www.hardwareanalysis.com/content/article/1748/
Ondanks dat we weinig nieuwsartikelen hebben (gemiddelde 15 tot 20 per dag) en ze allemaal geript zijn, moeten ze wel in een database staan vanwege het dynamische karakter van de site; de reacties eronder, het gemod etc. Dit kan uiteraard verbeterd worden, maar het blijft dynamisch. Daar heb je een database server voor nodig.

Zodra je een database server nodig hebt kun je niet meer aankomen met een simpele dual xeon met ide of sata schijven, zeker niet als de server gemiddeld 500 queries per seconde afhandeld met pieken tot 2000 queries per seconde. Dan heb je een aparte server nodig met scsi hardware ivm de seektime en veel geheugen ivm de cache. En eenzelfde server doet de forum database.

Dan komen we bij de webservers. Je wilt het liefst redundant zijn, en aangezien het forum en de frontpage net op 2 webservers kunnen draaien hebben we 4 webservers en zodat de load evenredig verdeelt kan worden; 2 loadbalancers.

Om het interne netwerk te scheiden van het externe netwerk zijn er twee switches, een gbit voor intern en extern een simpele 100 mbit. De masterswitches zijn wel erg handig als je een foutje maakt, of een server loopt vast en je moet hem op afstand reboten, met de console server kun je dan in de gaten houden hoe het booten verloopt.

Dan hebben we nog een server als file- en zoekserver, de zoek database is ook niet te klein namelijk (snel een gig of 20) en een backupserver (met bijna een tb ruimte, zodat er redelijk wat backups op kunnen). Ik zie op het moment geen enkele server die echt overbodig is, of die taken zou kunnen overnemen van een andere server. Ik denk dat jij onderschat hoe licht deze site is; en hoewel er zeker verbetering mogelijk is; zal hij nooit zo licht worden dat hij met het huidige bezoekersaantal op een dual xeon kan draaien.

En wat betreft dataverkeer; het forum trekt het meeste, en daar wordt gebruik gemaakt van gzipped pages. Het dataverkeer zou nog verder omlaag kunnen per maand als er minder scriptkiddies op deze wereld rondliepen, de afgelopen maad is er gemiddeld eens per week een DDoS.

Maar veel plezier met je site, als je site wat drukker wordt zul je waarschijnlijk naar een two tier model over willen stappen, en daarna.. wie weet waar het stopt :)
Op basis van de beperkte hoeveelheid actuele content op je site, het beperkte aantal threads op je forum en cijfers in het bandbreedte tellertje kan ik me moeilijk voorstellen dat Hardware Analisys even veel traffic genereert als Tweakers.net. Wij zitten op twee miljoen pageviews en 200GB traffic per dag doordeweeks. Met die cijfers zou je half zo groot zijn als AnandTech. Met het gebruik in je bandbreedtetellertje zit je hooguit op een paar gig per dag.

Overigens kan Tweakers.net in principe ook wel draaien op twee dual Xeon 2,4GHz webservers en één database-server, echter zouden we dan wel meteen in de penarie zitten als er iets stuk gaat of er een script kiddie / DDoSSer langs komt.
Tsja, ik denk toch dat je je verkijkt, als we het over beperkte content gaan hebben moet je toch Tweakers.net even checken, daar zijn bijster weinig nieuwe artikelen te vinden. En dan heb ik het niet over de overschrijf verhalen die ik daar terugvind, gewoon koud gekopieerd en vertaald van andere sites. Als je dat content noemt?

Maar goed, ieder z'n ding, en laat ik niet beginnen met steken onder water te geven. Je hebt 't over pageviews, op de frontpage? Of tel je nu alle pagina's mee, inclusief de forums etc? Als je werkelijk 200GB per dag wegzet dan wordt 't misschien eens tijd om een kritische blik te werpen op het aantal hits op een pagina? Misschien dat daar winst te behalen is door gebruik van compressie, veel dezelfde elementen etc. Of misschien vind je 't juist wel stoer om zoveel bandbreedte weg te zetten, ons is alles eraan gelegen de footprint van een pagina zo klein mogelijk te houden, en daarmee de traffic minimaal, maar goed, ieder z'n ding.

En wat onze website betreft, half zo groot als Anand zijn we niet, maar als ik naar het aantal unieke bezoekers per maand ga kijken, da's het enige dat echt telt, dan zijn we ongeveer 1/4 zo groot. Daar komt bij dat wij nooit offline zijn, ook niet als we voor de zoveelste keer op /. staan, daar valt ook wat voor te zeggen niet?

Daarnaast is er een reden dat alle grote fabrikanten zoals Intel, AMD, ATI, NVIDIA, etc. etc. ons uitkiezen als launchpartner voor hun nieuwe producten. Daarmee wil ik alleen maar zeggen dat er meer is dan GB's aan traffic, of een paar miljoen pageviews per dag, het klinkt misschien indrukwekkend, maar dat is het niet altijd.
Laatik niet beginnen met steken onder water... Wel dus, beetje sneu.

Klik ik op jouw site op "news" dan zie ik als laatste "nieuws" de datum "Monday, June 21, 2004 09:00 AM EDT" lekker recent dus.

Op de hoodfpagina is het ook niet allemaal niet zo recent, er komt maar zo af en toe iets op te staan. Soms om de dag soms meer dan een week niks.

Tweakers.net schrijft dan misschien wel veel over maar het is daardoor wel een complete site, je blijft aardig op de hoogte als je alleen tweakers volgt.

Tweakers is ontzettend dynamisch, er zijn continu updates van de pricewatch/shopsurvey en bijvoorbeeld vraag en aanbod. Er zijn volgens mij weinig Nederlandse sites die zo'n sterke contentaanvoer hebben.

Ik vind tweakers een prima site en ik vind het een beetje treurig als iemand van een "concurrerende" site op zo'n betweterig toontje de boel bekritiseert. Laat meneer Sassen lekker op z'n teletubbie site spelen en hier dan maar niet meer komen zeuren.
Ik wil geen oordeel vellen over de kwaliteit van je site, ik spreek enkel een vermoeden uit dat Hardware Analysis minder pageviews genereert dan Tweakers.net. Het is nu eenmaal makkelijker om pageviews te genereren met 15 tot 20 nieuwsartikelen per dag en een forum waarop veel wordt gepost dan met reviews waarvan er hooguit één per week verschijnt en een forum waarop veel minder wordt gepost.
Als je werkelijk 200GB per dag wegzet dan wordt 't misschien eens tijd om een kritische blik te werpen op het aantal hits op een pagina?
Er wordt al gebruikgemaakt van van HTTP compressie voor de pagina's en die pagina's zijn al zodanig opgezet dat er zoveel mogelijk herbruikbare HTML wordt gecached. Het verminderen van traffic door het weglaten of verkleinen van afbeeldingen is altijd mogelijk. Persoonlijk ben ik geen voorstander van het uitkleden van websites of het gebruik van ranzige JPEG compressie om traffic te besparen. Aangezien TrueServer onze bandbreedte sponsort (en die bandbreedte relatief goedkoop is vanwege de beperkte hoeveelheid transit verkeer) is er weinig reden om heel zuinig met bandbreedte om te springen. Voor de bezoekers maakt het weinig uit ivm het grote aantal breedbandgebruikers in Nederland.

200GB per dag komt neer op zo'n 100KB per pagina. Ik vind dat wel meevallen ivm het veelvuldig gebruikt van plaatjes in het nieuws en de pricewatch en ook de downloasd in de meuktracker.
WTF, zie jij ergens staan dat tweakers hun eigen shit allemaal maakt? Nee, voor mij is tweakers een pagina waar ik gewone alle shit die ik leuk vind kan bekijken, zonder dat ik 25 pagina's af hoef te lopen.

FYI, ik heb nog nooit van je site gehoord. En er zijn nu toch wel zo'n 14 geregistreerde mensen online en 627 anonymous, hoogstwaarschijnlijk tweakers die zich afvragen wat voor site jij dan hebt met dit soort praatjes, en dan op de grond liggen van het lachen. Maar ik zie er op tweakers nu zo'n 5300 mensen. Maar ja, laat ik nu geen steken onder water gaan geven, dat zijn maar 4650 meer mensen die ongeveer gemiddeld 6 pagina's bekijken per bezoek, reken uit je winst, shit toch een steek onder water.

Dus als jij vindt dat je pagina beter is, have fun. Jammer genoeg zeggen de feiten hele andere dingen. Tweakers downtime, when???
oe ruzie :P
misschien hebben jullie dit nodig voor wat inspiratie? :P
[alinea1] Klinkt als flamebait, wil je een discussie moet je geen zaken er bij halen die er niet toe doen voor het technische verhaal [/alinea1]

[alinea2]
Er zijn volgens mij ook nog wel optimalisaties mogelijk mbt tot het serveren van de content van de frontpage, maar ik heb geen idee hoe het precies gegenreerd wordt, of een deel daadwerkelijk statisch is en of onderdelen alleen ververst wordt indien er daar specifiek iets verandert (reacties, GOT vragen, pricewatch - in de linkerpane).
[/alinea2]

[alinea3]
Unieke bezoekers is iets anders als veel content serven, daar ben je het zelf ook over eens, waarom kom je hier allemaal mee als je weet dat *.Tweakers.net veel meer dynamische content levert (of iig meer verkeer) weet je toch dat daar zwaardere servers voor nodig zijn dan wat jij hebt staan.
[/alinea3]

[alinea4]
Wat wil je hiermee aanduiden, dit is puur pochen, leuk, maar niet relevant voor het vraagstuk wat je in het begin wilde opbrengen.
[/alinea4]

Ik snap wat je wilt zeggen met de posts, maar Tweakers draait gewoon zwaarder dan 'jouw site' dit ligt dus nog naast het vraagstuk of het 'lichter' kan.
Als je inderdaad net zoveel traffic genereerd, dan is de verklaring waarschijnlijk te zoeken in hoeverre de site dynamisch is. Als wij alleen een statische pagina hebben dan hebben we aan 1 server ook meer dan genoeg zoals je in het verslag kan lezen.

Als je echter een forum wil draaien met een grote database aan reacties en een frontpage die erg dynamisch is (o.a. door de reactie mogelijkheden) is het echt geen overbodige luxe. Trouwens volgens mij zijn we bijna nooit slecht bereikbaar. Alleen af en toe als iemand weer eens zo grappig is met een ddos oid.
Ik zal de laatste zijn om te beweren dat er geen optimalisaties in de setup van Tweakers.net mogelijk zijn, maar beweren dat we traag en vaak offline zijn is je reinste bullcrap.
In de afgelopen maanden is er nauwelijks downtime geweest, behalve dan voor het vervangen van een server en de bekende DDoS-attacks. Dat laatste is uiteraard overmacht en kun je ons niet verwijten.

Dat jij je site op 2 servers kunt draaien is leuk, maar met 250 maal zo veel traffic (dus niet 'minstens zo veel') wordt dat voor ons misschien lastig. Nogmaals, daar zal best nog wel wat winst te halen zijn, maar ik betwijfel ernstig of die winst genoeg is om de hoeveelheid traffic met een factor 100 te verminderen.
Los daarvan, wij doen met 7x zoveel servers 250x zoveel traffic..dus wie moet er hier nu gaan optimaliseren :P

Op je onzinverhalen over de content van onze site zal ik maar niet reageren.
Euhm, van deze reactie wordt m'n pis toch een tikkeltje lauw.

Traag? Slecht? Offline? nou, ik weet niet van welke planeet jij komt, waarschijnlijk hebben ze daar internet nog niet zo goed uitgevonden.

Quote van jouw site:
Current bandwidth usage: 110.73 kbit/s

T.net doet op dit specifieke moment aan UITGAAND verkeer, dus er is meer, te weten intern tussen alle machines, maar we hebben het puur over content verkeer richting de gebruikers: 26.19mbit uitgaand, 3.5mbit inkomend (dit door posts, requests van pagina's, etc.).

Weet niet hoeveel GB's jij verstookt met je machientje, weet wel dat T.net terabytes verstookt. Gezien het verkeerspatroon kan je zelf wel rekenen, ik zal een hint geven: 5.
Reactie op Sander Sassen - dinsdag 2 november 2004 - 11:17 Score: 1 (Troll)

Quote van hardware analysis:

"Fortunately the new server was about ready to go"
dit op het moment dat je oude server de geest gaf, puur geluk dus!!!

Echter enkele zinnen later:

"At the end of the day it is all about careful planning and stringent testing......"

Verder niks mis met jullie site, maar dit artikel loopt MI over van misplaatste arrogantie en ongefundeerde meningen in zeer matig engels.

(Opbouwende) kritiek op Tnet kun je beter rechtstreeks aan de makers van Tnet sturen dan in zo'n flauwe post.
@ Sander Sassen

Erg lullige post hoor.
Komt vrij jaloers over eigenlijk.

De heren van Tweakers.net zijn gewoon zeer succesvol, iets om respect voor te hebben vind ik.
Op dit moment zijn we zelf net begonnen met een 1U servertje dat slechts een P4 2.66Ghz bevat en slackware draait.
Daar zullen we in het begin genoeg aan hebben, maar ik hoop dat we na enige tijd toch ook zo'n rack zullen bezitten. :9~

En 5TB per maand is toch echt serieus hoor, om dat zomaar uit te vlakken... |:(

@ Tweakers.net:

Tof dat het allemaal binnen een dag gelukt is, en inderdaad vreemd van het bios van die mailserver.
Goed dat hij straf gekregen heeft ;)
Leuk, dat stukje over beveiliging...

Een tijdje geleden is een van de servers van motor-forum stuk gegaan, toevallig moest Aydin van Teranet een van zijn servers repareren (die in dezelfde ruimte staat als onze servers).

Met mijn toestemming heeft hij onze server meegenomen...geen haan die er naar kraaide...
Je hebt 3 deuren waar je doorheen moet, maar als je eenmaal binnen bent kan je alle servers meenemen die je maar wilt (bijna alle racks hebben nog de standaard code :z ).

Zover de beveiliging...
Tsja, dat is zo, maar dan nog, alles wordt gefilmd, je hebt je aan moeten melden dus men weet echt wel wie welke server heeft geript. Leuk is anders, maar ongezien hardware meenemen wordt nog een lastige klus.

*dit is overigens geen uitdaging ;)*
Het jatten of in elk geval fysiek aanraken van een server is nog altijd de easiest way to hack, dus zulke beveiliging is best wel nodig. Wie heeft er niet geprobeerd burglar.nlm op de netware server op de middelbare te laden? Dat is me drie keer gelukt omdat mensen je zomaar bij systemen laten, huiswerk maken in het informatica lokaal toestaan, of (let op: goeie beheerder!) omdat de console gelockt stond, en de beheerder gewoon dacht dat je daar niet langs kon komen, terwijl er dezelfde dag nog een papiertje onder z'n neus had gelegen met de exacte stappen om deze beveiliging te omzeilen. En ja, die werkte.
Flinke verhuizing geweest zo te zien. :D. Ik heb nog wel een korte vraag.

Ik zie dat jullie op jullie servers gebruik maken van een console "touwtje". Ik heb in mijn stagetijd ook gewerkt met dergelijke consoles, maar nu vroeg ik me af, wat jullie precies doen met die console.
Als je iets wilt instellen dan neem ik aan dat dit ook kan met "extern bureaublad" oid. Ik zie ook dat jullie een soort "terminal server" gebruiken om alle console's te bundelen. Wat is dat voor een type server?

Kort: Wie kan mij uitleggen wat jullie doen met die console :Y).

Mooie reportage btw!!!
Daar hebben ze laast een mooi verslag van gemaakt ;)
Kijk maar eens op de volgende link

http://www.tweakers.net/reviews/465
Thnx. ik heb et net effe gauw doorgelezen.
Ik begrijp dat je niet alle PC's een seriele console erop hebben zitten. Hoe kan ik zien dat ik een seriele console kabel kan aansluiten op mijn computer om vervolgens daar dingen in te kunnen stellen? Is dit alleen mogelijk met een Mobo wat een speciale bios heeft, of ligt het aan het OS wat er op het apparaat komt te staan.

Ik weet bijvoorbeeld wel dat ik Digital Alpha servers standaard een console zit, die zelfs onafhankelijk werkt van de Bios. Er zit dan in de processor een klein stukje logica en software die dat allemaal netjes regeld.
Zit dit ook al in de huidige pc, of is dit speciaal voor servers??
Zit volgens mij in de code van het OS. Dus na het laden van het OS kan je hier gebruik van maken. Alleen als je ook het bios via de seriele console wil benaderen moet dit wel gebeuren, je kan dan dus ook je bootloader enz. besturen, wel zo makelijk als je een brakke kernel heb gebakken. ;)
Mooi duidelijk stukje, beter dan dat andere

Maar wat ik me altijd afvraag, waarom worden de kentekens verwijderd van de foto's?

Als iemand mij daar eens een logisch antwoord voor kan geven ;)
Ik zou het netjes vinden als ze het kenteken van die groene auto ook even wegpoetsen. Waarschijnlijk kan het aan de hond zijn reet roesten wat dat kenteken is, maar het komt een beetje egoistisch over (no offense) als alleen de kentekens van hun eigen autos onherkenbaar zijn gemaakt.
Je kunt ook naar buiten lopen en dan kom je allemaal auto's met kentekens tegen, alleen weet je dan niet van wie die auto's zijn :) .
Daarentegen ik kan makkelijk de naam van iemand uit mijn straat te weten komen en dan weet ik ook zo hun auto + kenteken. Heel veel mensen wisten dat jij bij Redbus zou zijn die dag en konden daar dus ook makkelijk jouw kenteken noteren.

Eigenlijk deugt dat hele systeem voor geen meter. Wie heeft dat uberhaupt bedacht. Ik ruik een topic op Fok :{
Om te voorkomen dat je een blauwe peugot koopt met daarbij het kenteken van femme ;) een kopietje dan wel maar dan kan jij lekker scheuren terwijl femme de boete krijgt.
Krijgen we ook nog meer info over de loadbalancers die t.net in gaat zetten? Ik ben wel benieuwd naar de details :)
Deze vraag heb ik aan kees gesteld in het item van verhuizing
Het volgende kreeg ik als antwoord .

"Linux (slackware) met ipvs en iptables.
Is nog niet in productie, moet nog getest worden (daarom hangen ze ook in het rack)"

Maar meer info is altijd welkom ;)

Maar mooi verslag hoor lekker uitgebreid :o

Ik zou ook graag willen weten hoe jullie dat gaan uitlezen van de load van de server's die script die jullie zelf hebben gemaakt hoe dat precies woordt uigelezen in de nieuwe load balancer.
Details van de "oude" zijn te vinden hier:
http://www.tweakers.net/reviews/301
Wow dat jullie zoveel foto's mochten maken daarbinnen. Ik ben daar ook wel eens bezig geweest maar foto's maken lag toch vrij lastig.

Maar het is een hele mooie locatie met veel mogelijkheden.
Toch vreemd; wij hebben er ook een rack staan, en foto's maken is geen enkel probleem. Wel is er altijd gedoe met de pasjes inderdaad, en je mag ook niet zomaar servers mee wegnemen; dat moet men daar van tevoren weten...!
Mag ik wel hopen ja, straks wandelt er een of andere gek naar binnen die je servers meeratst, moet je ook niet hebben :P
Ik heb er ook geen server staan. Moest er voor mijn werk zijn. Misschien dat dat scheelt.

Ze deden er vrij moeilijk over. Wel jammer want het is ontzettend leuk om daar rond te kijken. :D

Moest ook idd mijn paspoort afgegeven. Maar goed dat ik hem bij me had anders was ik er niet eens ingekomen. Hadden ze best even van te voren kunnen zeggen bij het maken van de afspraak.
Mooi verslag.

het is idd een hoop werk even rackje verhuizen, maar dan krijg je ook wat.

Maar wat mij opvalt als ik naar die foto's kijk:
Bij die ML530G2 hebben jullie beide Drive Cages in gebruik (schijven in beide cages), maar er zijn maar 2 ipv 3 voedingen geplaatst.
Ik weet dat als je bij de ML530G1 beide drive cages ging gebruiken, je 3 voedingen moest plaatsen, vanwege powersupply redundancy.

Dus check dat ff, anders is er misschien wel een keer iets opeens plat, terwijl dat echt nie nodig is.
De nieuwere ML530's hebben maar twee voedingen nodig. Dus... wat zou deze ML zijn? G1 of G2.... Ik gok G2.
Leuk stuk.
Wat ik alleen niet begrijp, is waarom de reden van verhuizing voor de daadwerkelijke verhuizing vrij algemeen verwoord is. In dit stuk is het allemaal een stuk duidelijker (en de reden beter te begrijpen) dan in vergelijking met dit stuk bijvoorbeeld.
We moesten inderdaad verhuizen, maar we hoefden niet perse naar redbus. In dat opzicht hadden we in principe een keuze, maar gezien het betere aanbod op redbus ging onze voorkeur daar toch naar uit.
Dit stuk is gewoon wat langer over nagedacht, en is het extra duidelijk uitgelegt omdat uit de reacties onder het andere artikel bleek dat er nog veel onduidelijkheid over bestond :)
Jullie verdelen de load dvm loadbalancers over meerdere webservers. Maar hoe houden jullie de content (uiteraard niet de database content, wa die staat hopelijk op de db server :P ) in sync onder die verschillender servers? Of wordt echt alles dynamisch gegenereerd zodat hier geen nood voor is?
Daarvoor heb je dus een fileserver ;) Maar als ik het goed begrepen hebt worden alle statische zaken elk uur gesynchroniseerd met de fileserver, anders heb je veel te veel load op je fileserver en gaat je gehele website hangen als er iets misgaat met de fileserver. Zo voorkom je een single point of failure op je statische content.

Helaas is de database server nog steeds het punt waar het mis gaat, vandaar dat replicatie van MySQL op de todo lijst staat ;)

De content (nieuws, meuk, reviews, forum postings etc) komt gewoon real time uit de database.
Leuk stukje tekst :)

Ik had (uiteraaaaard als die-hard-Tweaker :+ ) alles ook via de Verhuis-o-meter gevolgd, maar dit artikel geeft wel wat meer tekst en uitleg :)

Vraag me trouwens af hoe die kabelgoot van binnen eruit ziet :P Chaos in 't kwadraat denk ik :D

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Microsoft Xbox Series X LG OLED C9 Google Pixel 4 CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True