Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties

Afgelopen weekend heeft Tweakers.net, zoals reeds aangekondigd in
Artemis II, Apollo II en Alicia voor upgrade

Apollo III tijdens databasecopy
Apollo tijdens kopiŽren van databases

Serveronderhoud 20-12-2003: Artemis II uit rack bevrijd
Artemis uit rack bevrijd

Serveronderhoud 20-12-2003: Apollo III wordt geplaatst
Plaatsing Apollo III

De upgrade van Alicia leverde ondertussen geen grote tegenslagen op. Doel van de upgrade was om Fok! wat extra power te geven tot het moment dat volgende maand een geheel nieuwe dual Opteron database-server ingezet kan worden. Hiertoe werd de dual Pentium III hardware van Alicia vervangen door het Tyan Thunder K7-moederbord uit Artemis II en de dual Athlon MP 1900+ processors en het DDR-geheugen uit Apollo II. Om de downtime tot een minimum te beperken, werden moederbord, processors en geheugen alvast ingebouwd in de 4U CI-Design behuizing van Apollo, welke gelijk was aan kast van Alicia.

Nadat er een backup was gemaakt van de databases werden de RAID-controller en de harde schijven overgezet naar de nieuwe configuratie. Linux bleek niet meer te willen booten vanaf de originele bootdisk van Alicia, wat op zich niet vreemd was aangezien Alicia van oorsprong een dual Pentium III was. Dit probleem werd verholpen door de inmiddels overbodige bootdisk van Apollo II te gebruiken. De databases hingen aan een RAID 5-array op een LSI MegaRAID Elite 1500 en konden daardoor zonder moeilijkheden overgezet worden. Dat Fok! toch voor lange tijd onbereikbaar was, kwam voornamelijk doordat het erg lang duurde om de databases veilig te stellen. Er bestaan geen tools om een consistente online backup te maken van MyISAM-tabellen. Daardoor was het noodzakelijk om de hele database plat te leggen. Het ontbreken van een gigabit verbinding met de fileserver zorgde ook voor vertraging.

Tijdens de werkzaamheden werd door Kees ter plekke een nieuwe dual Opteron 240 webserver voor Fok! geconfigureerd die de huidige hardware van Aphrodite zal komen te vervangen. De nieuwe Appie maakt gebruik van een door MSI gesponsord dual Opteron-moederbord en heeft als basis een 2U Chenbro behuizing met zes coldswap PATA-bays. Omdat deze swapbays uitsluitend geschikt waren voor Seagate en IBM/Hitachi-harde schijven en een nieuwe Seagate-schijf niet tijdig afgeleverd kon worden, werd ter plekke een Seagate-schijf uit de mailserver gehaald. Buiten een half uur downtime van de mailserver leverde dit geen problemen op. Aphrodite zal in de loop van deze week op afstand afgeconfigureerd worden. De overgebleven hardware van Aphrodite zal daarna ingezet worden als vervanging voor de mailserver.

Door de stabiliteitsproblemen van Apollo en de tijd die nodig was voor het backuppen en kopiŽren van de databases duurde het uiteindelijk tot twee uur in de nacht voordat we TeleCity konden verlaten. De problemen met Apollo konden toen nog niet verholpen worden.

Zondagmiddag werden de werkzaamheden overgenomen door ACM en Roelant. Een aantal updates van de kernel, een wijziging van de iommu optie en gewijzigde instellingen van de MySQL-server zorgden er uiteindelijk voor dat Apollo zijn stabiele vorm hervond. Inmiddels heeft de machine ruim twee dagen uptime en kunnen we ervan uitgaan dat hij stabiel draait. Eťn van de doelstellingen van de upgrade, namelijk een verbetering van de stabiliteit van de database-server van GoT, is daarmee hopelijk bereikt. De serverstatistieken wijzen uit dat de processorbelasting op Apollo ongeveer is gehalveerd. Geen slecht resultaat voor een upgrade waarbij de kloksnelheid van de processors niet werd verhoogd.

Door Femme Taken

- Architect

Femme is in 1998 als oprichter met Tweakers begonnen en werkt tegenwoordig als ontwerper in het productteam van Tweakers. In de vrije tijd knutselt Femme fanatiek aan zijn domoticasysteem.

Moderatie-faq Wijzig weergave

Reacties (45)

Kees aan 't werk

Ik benijd 'm niet. Da's meestal een knap vervelende plek om configuratie te doen. Een dag zo werken merk ik 's avonds erg goed. 'k mag aannemen dat ie maar kort zo heeft moeten werken.

(Eerste wat ik doe als ik in een hosting centre moet werken, is een lijntje buiten de ruimte regelen)
valt wel mee, er staan stoelen en er is een redelijke tafel.
Kon helaas niet teveel erbuiten gaan zitten omdat ik gewoon afetnoe fysiek contact met de servers nodig had (apollo resetten / op de cli kijken wat er mis was, servers in het rack hangen, eruit halen etc)

En idd, na zo'n dag van 15:00-1:30 daar zitten voel ik me ook niet helemaal lekker :o (lawaai, slechte houding etc)
Ik hop altijd naar de klantenruimte, is heel relaxed en je bent in 1 minuut weer im colo. :)
Waarom hebben jullie geen 17" rackmonitors in met een KVM in je rack hangen? Dat is namelijk verekte handig! een uitschuif TB en een 17" monitor in het rack op oog hoogte. (ik werk er zelf wel eens mee :) )
Zo'n lompe 17" neemt nogal veel ruimte in. Je zou dat kunnen oplossen met een l33t uitschuifbaar lcd-panel maar dat is wel erg duur in verhouding met de beperkte hoeveelheid tijd dat er gebruik gemaakt zal worden van het apparaat. Ik denk trouwens dat Kees liever op een stoeltje in de gang achter de servers zit dan dat hij staand achter een CRT of LCD in het rack moet werken.
Tis wat je fijner vindt. Ik zelf zit bij ons bedrijf vaak achter de server. omdat er vaak poorten moeten worden opengezet / vpn acountjes .. enz. dit kost veel tijd en is dan ook wel lonend. (lcd panel = 1800 eurotjes en LCD+TB = 2300 eurotjes. valt voor een bedrijf dus best wel mee. (vind ik :) )

reactie op vorige reacties:
En meestal is dat ook grafisch dus je hebt geen laptopje nodig. gewoon win2003. (als ik het mocht kiezen was het linux) maar ja
offtopic:
Ons laatste servertje is een dual xeon 2,8 GHz met 3 GB ram :) Gbit lan naar swich :)
Ik denk dat ze daar simpelweg de ruimte niet voor hebben. En geef nou zelf toe, een laptop erbij om grafisch te kunnen zoeken op het internet is toch veel makkelijker. Er staat daar immers gewoon een monitor tot je beschikking, en een beetje switchen van VGA-poorten is toch geen ramp? Hoe vaak ben je nou in het datacenter? Acht keer per jaar als het een beetje meezit?
Ik heb er geen verstand van, maar klinkt te duur :+
euh de hardware die er nu in ligt is ook duur hoor :P
wel grappig als de servers van nu vergelijkt met de servers die tweakers gebruikte in het begin :)
Heerlijk, weer zo'n fantastische heldere upgrade uitleg!

Een vraagje; hebben we nu meer Mhz'en als Anandtech of andere concurrentie! Kan me namelijk voor de geest halen dat dit ooit eens ter sprake kwam een tijd geleden.
Ik vraag me eigenlijk af waarom jullie de webserver van FOK! willen upgraden, want als ik naar de stats kijk, dan zie ik Aphrodite een zeer hoge belasting hebben, terwijl Athena uit zijn/haar neus zit te vreten. Kan Athena dan FOK! niet in zijn geheel voor zijn rekening nemen?
Of kloppen de stats niet?
Waarom worden zowel T.net als Fok! niet mbv 1 webservercluster uitgespuugd?
Ik gok even dat dat is omdat T.net en Fok! niet van dezelfde eigenaar zijn.

T.net doet alleen de technische kant van de zaak voor Fok! en dan is fysieke scheiding van het e.e.a. wel zo prettig om in stand te kunnen houden.
Maar ze wisselen wel onderling onderdelen uit. Ik snap de Fok! T.net verhouding ook niet helemaal. Ik dacht altijd dat Fok! gewoon van Tweakers was.
Tweakers.net verzorgt de hosting van Fok! Verder hebben we in zakelijk opzicht niets met Fok! te maken.
Een admin van Fok! is wel mod oid geweest op T.net als ik me goed herinner.
@ Femme:
En daarom staat er ook zo'n mooi lijstje op Fok! met alle tweakers.net nieuwsitems??
Of is dat gewoon als blijk van waardering? :P
Mischien omdat je bij t.net ook fok! nieuws items kan lezen?
(moet je wel aanzetten afaik)
Kees aan het werk
Tuurlijk joh. Die zit gewoon lekker te internetten :Z
:D
Onmogelijk. GoT lag eruit :P

Edit: oh zijn er nog andere sites buiten t.net :?
Ik zie toch echt een roze veer op z'n scherm en dat kan alleen maar de site van Apache zijn... .en laat dat nou net de webserver van T.net zijn ;)

Nuttig internetten dus...


Hoewel ik het als ik er was geen probleem zou vinden om even te leechen via het Trueserver netwerk :9
Inmiddels heeft de machine ruim twee dagen uptime en kunnen we ervan uitgaan dat hij stabiel draait. Eťn van de doelstellingen van de upgrade, namelijk een verbetering van de stabiliteit van de database-server van GoT, is daarmee hopelijk bereikt.
Jullie zijn niet erg zeker van je zaak? ;)
ťcht zeker ben je pas na een maand of iets dergelijks. Een eigen colocated bak crashte standaard pas na een week...Brakke IDEkabel. Vreemd maar waar....

Dus om nu al te juichen kan misschien wat aan de vroege kant zijn :)
De server heeft op kantoor de nodige tests doorstaan en geruime tijd stabiel gepresteerd. Toch kregen we in de serverruimte met de nodige onverwachte instabiliteit te maken.

Als 'n server dan onverwachts fratsen vertoont zoals waar we dit weekend van hebben mogen genieten, reken maar dat je dan nog even een slag om de arm wilt houden voor je zo'n machine definitief stabiel verklaart. Enkele dagen is wat dat betreft niet veel nee :).
In de vorige .plan over de upgrade staat
De database van Apollo wordt gekopieerd naar de nieuwe server. Dit zal enige tijd duren (~2 uur) in verband met de grootte van de database en het feit dat de oude server geen gigabit ethernet heeft
Mogen we weten hoe groot de GoT database na een paar jaar geworden is? :>
Nou reken het maximale eens uit ;)

10 mb/s aangezien er een 10/100 kaartje inzit.
(Dan neem ik wel een Nic van hoge kwaliteit, geen huistuin en keuken Nic)

(10 * 60 * 60 * 2) / 1024 = 70 GB tops..

uitleg berekening (10mb/s * 60 sec * 60 min * 2 uur) aangezien het copyeren van de GoT db ~2 uur duurde.

nou moet je er wel een boel afhalen omdat of de ene kant of de andere kant het niet bij kan houden, of de netwerkkaartjes hebben geen zin in 10mb/s
dus reken maar op flink wat GB's ;)
Euh.. sorry, maar die 10Mb die jij aangeeft zijn 10 MegaBits per seconde. Effectief voor een 10Mb kaartje ca. 6 Mbits data, dus ca. 650 KiloBytes data per seconde, en da's dus 650 * 60 * 60 * 24 = ca. 54 Gbytes per dag (jou berekening gebruikte 2 ipv. 24)
HIj gaat uit van een 10/100 Mbit, dus hij neemt aan dat ze dan 100 mbit gebruiken, en dat zal ongeveer 10 mb/s zijn dan...

Dus het klopt wel :)
/edit: ik kan niet lezen :P
Flink wat GB's was ik inderdaad al ;)
Maar in zo'n berekening zit een redelijk grote foutmarge :)
Waarom hang je je Switch niet andersom in je Rack ? Dan zitten alle LAN kabels aan de achterkant = minder kans op breuk, beter gebruik van je ruimte en kortere bochten....
Er hangt op dezelfde hoogte al een switch aan de achterkant (er zijn er twee voor LAN en WAN). EfficiŽnt gebruik van ruimte :) . De twee masterswitches zijn opdezelfde manier met de 'rug' naar elkaar toe geplaatst.
Ik vroeg mij af waarom er sindskort een deur zonder raam in de kast zit. Ik dacht dat wij tweakers graag lieten zien wat wij in huis hadden, en het is leuk voor Trueserver sales activiteiten. ;)
tsja maar glazen deur is nie goed voor warmte afvoer... die kasten werden bloody heet...
Warmte kon nl nergens heen, behalve omhoog... en gat in de grond was niet bedoeld voor koeling...

Wij hadden d'r verdorie net van die zware fans in dak van serverkast geplaatst, plaatsen ze die deuren met gaatjes...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True