Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 91 reacties

Vanmiddag zullen we in de colo van TrueServer onderhoud plegen aan ons serverpark. Dit zal enige ongemakken met zich meebrengen, met name voor de bezoekers van het forum:

* Stabiliteits- en koelingsproblemen

De laatste paar weken hebben we wat stabiliteitsproblemen geconstateerd bij de servers de bovenin het kabinet hangen. De problemen zijn zo erg dat Iris het na een reset veelal niet langer dan een half uur volhoudt. Omdat de temperatuur in ons kabinet al behoorlijk hoog was en zeker niet lager is geworden sinds de plaatsing van twee Strikerz.net) vermoeden we dat oververhitting de oorzaak is van de problemen. De temperatuur sensor van Athena geeft momenteel een CPUtemp van 57 graden aan en dat is dicht tegen de limiet. Het is de bedoeling dat we wat lucht gaan verplaatsen door bovenin het kabinet een koelmuur te modden van zes 8cm fans (waaronder twee nostalgische Papst ventilators uit een Amiga 2000). Voor de ge´nteresseerden hieronder een plaatje van dit primitieve bouwsel:

Koelmuur voor server kabinet

NXS Internet heeft spontaan aangeboden een Varicon fan module te sponsoren zodat het bovenstaande bouwwerk weer zo snel mogelijk uit het kabinet verwijderd kan worden .

Tweakers.net draait nu in zijn geheel op Athena, waardoor de site soms wat onaangename momenten kent. De load op Athena is met een gemiddelde Harddisk upgrade Apollo

Wegens een gebrek aan schijfruimte zullen de harddisks in Apollo geupgrade worden van twee paupere 9,2GB 10.000rpm schijfjes naar 18,4GB Seagate Cheetah X15's in RAID 1. De Cheetahs zijn niet alleen groter maar ook sneller dan de huidige schijven. Helaas kan deze upgrade niet uitgevoerd kunnen worden zonder het forum voor lange tijd droog te leggen.

Seagate Cheetah X15 review - bovenkant harddisk

* Geheugen upgrades webservers

Dane-Elec heeft met ons een grote sponsoring deal gesloten waardoor wij alle servers kunnen uitrusten met nieuwe Dane-Elec repen. Morgen worden de single-processor webservers geupgrade naar 1GB RAM (momenteel 512MB). Op een later tijdstip zullen de dual Pentium III database servers worden voorzien van 4GB geheugen. De hiervoor benodigde 1GB DIMMen zijn nog niet in ons bezit.

We hebben een Tbird 1333 en een MSI K7T Turbo klaarliggen die gebruikt kan worden om Iris te upgraden als de tijd dit toelaat.

* Plaatsing Fok! web/database server

De hardware die is overgebleven van de originele Athena configuratie is samengebracht tot een nieuwe server die tijdelijk gaat dienen als web- en database server voor Fok!. Zodoende kan de belasting op Artemis verminderd worden en kunnen een aantal problemen met MySQL replication opgelost worden. Dit zal de snelheid en bereikbaarheid van Tweakers.net verbeteren. De server beschikt over een 1,2GHz Tbird processor, (tijdelijk) 1,5GB RAM, een Maxtor 7200RPM IDE schijf van 20G en twee 7200rpm IBM SCSI schijven. Er wordt momenteel gewerkt aan de bouw van een derde database server die de beschikking zal hebben over een volwaardige configuratie met SCSI RAID, 4GB RAM en twee PIII's. Deze server zal onder andere de databases van Fok! gaan draaien. Artemis wordt binnenkort geupgrade naar dual Athlon MP 1600+ met een Tyan Thunder K7 moederplank en 2GB Dane-Elec DDR SDRAM. De CPU's werden wederom ter beschikking gesteld door AMD.

* Status

  • 16:45: Forum gaat uit ivm maken backup Apollo harddisk
  • 18:00: Argus (web/db server Fok!) in kabinet met 1,5GB RAM
  • 18:30: Aphrodite terug in kabinet met 1GB RAM
  • 18:30: Apollo terug in kabinet met 2x Cheetah X15
  • 18:34: Apollo is RAID 1 array aan het rebuilden
  • 22:47: Wegens onbekende problemen zal GoT nog wat langer down zijn
  • 1:45: De problemen met GoT zijn eindelijk opgelost. De 3Com NIC die het interne verkeer van Apollo afhandelt, bleek half dood te zijn.
  • 4:30: De Fok! databases zijn verplaatst naar Argus

AMD Athlon logo (breed)Dane-Elec logo (breed)

Door Femme Taken

- Architect

Femme is in 1998 als oprichter met Tweakers begonnen en werkt tegenwoordig als ontwerper in het productteam van Tweakers. In de vrije tijd knutselt Femme fanatiek aan zijn domoticasysteem.

Moderatie-faq Wijzig weergave

Reacties (91)

Hmm.. hoe komt het eigenlijk dat het zo warm wordt? Het rack staat nog lang niet vol. Als jullie willen, kunnen wij wel een Minkels - Varicon fan module sponseren. Dat is denk ik beter dan jullie eigen brouwsel.
De reden dat het zo heet wordt, is omdat onder de kasten dichte vloerdelen liggen opv de geperforeerde die je daar meestal aan treft.

In een optomale situatie zoals die bij de rack units van KPN voorkomen wordt er met een Arico unit een lucht druk onder de vloer opbebouwd van ongeveer anderhalf bar. Dit komt via de geperforeerde tegels naar boven de kast in. Helaas beschikt bij de Webmagix kast deze vloerplaat niet over de gewensde gaatjes. De koude lucht die middels een airco pijp nu door het gangpad geblazen wordt is heerlijk als je onder druk iets fixen moet, maar met een gesloten kastdeur kom je niet dan erg ver.

Alles bij elkaar inderdaad een vrij goede oven, mijn eigen server voelde vorige week net koel genoeg om nog goed vast te willen houden, En dat is een bak die vooralsnog het erg rustig heeft. Ik kan dit aanbod dan ook best waarderen, aangezien ik in het bovenste stukkie hang :) dussehh SupaTof!
In een optomale situatie zoals die bij de rack units van KPN voorkomen wordt er met een Arico unit een lucht druk onder de vloer opbebouwd van ongeveer anderhalf bar.

Grapjas. Met een overdruk van 25mbar blaas je al de muren uit het gebouw. Met anderhalve bar is de druk op de onderkant van de tegel veel en veel hoger dan het gewicht van de tegel.

Een tegel is 19" vierkant, dus 48*48 cm. Zeg maar een kwart vierkante meter, ofwel 2500 vierkante centimeter. Een halve bar is 500 gram per vierkante centimeter, dus 1250 kilogram meer kracht aan de onderkant dan aan de bovenkant. Een tegel weegt een kilo of 30. Ik denk dat *als* het je zou lukken het ding honderden meters hoog zal eindigen.

Maar, zoals gezegd, ik denk dat die vele tientallen tonnen buitenwaards gerichte druk op de vloer en zijkanten van het gebouw eerder effect hebben.
Kortom: niet roepen, maar eerst even nadenken over of wat je wilt zeggen wel zinnig is.
Dat zou ook mooi zijn :) .
Ok. komt eraan. Onze racks worden nu ook wel een beetje warm. Zodra ik de fans binnen heb, geef ik wel een seintje.
Zeg dan wat zinnigs ... :)

Die fans roeleren zwaar, wij hebben ze in onze huidige kabinetten ook hangen, en het scheelt net genoeg om een server die het warm heeft, de warmte verder af te laten voeren uit zo'n kabinet.

Maar het was wel een geinig gezicht om Femme bovenop het wagentje te zien wankelen, zijn eigen leven riskerend, om die fans te plaatsen. Dat noem ik nog eens hart voor de zaak ;)
woei ? .. who000t :)
Nee, WOEI! Heb je ooit iemand horen zeggen: want je zegt: hoor de wind woeit door de bomen...
en niet hoor de wind w00t door de bomen :P
meteen heeft iedereen de neiging om op Femme te reageren ;)
Misschien een stomme vraag maar wat is precies zo bijzonder aan een Varicon fan module?
Heeft iemand een link met wat meer info.
Zie het nu pas :)

Als het goed is gaan Femme en Consorten dit hartelijk weigeren, toch? Deze belediging:
Dat is denk ik beter dan jullie eigen brouwsel.
kan een echte tweaker toch zeker niet over z'n kant laten gaan... :)
Waarna bleek waarom apollo zo rot tegen ons deed.

Tijdens het uploaden van een klein gedeelte van de backup (voor de ingewijden, de mysql table) bleek dat hij elke keer nadat er 5kb verzonden was doodviel en dus was de conclusie: interne nic dood redelijk snel getrokken aangezien het over het externe netwerk wel goed ging en tussen andere servers intern ook goed en snel.

Het was, zoals ACM eerder al opmerkte redelijk lastig te ontdekken, hij werkte wel, tot er een limiet bereikt was, en de meeste tests die je doet zijn niet echt groot en die pikte hij nog wel. Vandaar dat het zo lang duurde (met 4 man die naar het probleem zochten) en dat het nu pas is opgelost.
klopt het nou dat dit al de 2de keer is dat een 3com nic het bij jullie begeefd?
is toch wel redelijk opvallend..
We hebben twee 3Coms gehad die op een gegeven moment massaal packets gingen lozen. De 3Coms in Iris werken waarschijnlijk ook niet helemaal lekker en nu is er dus weer een 3Com met problemen.

Floris is bezig om bij Intel nieuwe netwerkkaarten voor het hele serverpark te regelen.
Femme, denk er dan wel aan dat je altijd de laatste drivers gebruikt onder Linux. Ik heb zelf een EtherExpress 10 Pro, welke zou moeten werken op de eepro driver. Ding ging na wat dataverkeer gewoon dood, bleek aan een driver te liggen (en de werkende driver zit pas in kernel 2.4.15, ik heb em al van aris gekregen)

edit:

eepro is van een programmeur die dat ding met dosemu helemaal debugged heeft omdat intel geen specsheets van de E10Pro wou geven destijds :(

De Intel kaarten die jullie gaan gebruiken(/nu dus al gebruiken) gebruiken de eepro100 driver, welke door Intel zelf is gebouwd voor zover ik weet (intel heeft wel een eigen driver op z'n website)
Ja, idem bij het bedrijf waar ik het netwerk beheer. 3C905B en 3C905C zijn vaak minder betrouwbaar op 100 Mb. Met de 3C905(A) minder problemen.

Echter helemaal geen problemen met de 3C980 en 3C990. Losse kaarten die we kopen zijn vanaf nu de 3C980 of 3C990.

Nieuwe hardware komt echter standaard met Intel EtherExpress Pro+ ook zonder uitval tot nu toe.
Ff uitleg waarom het zo lang duurde.

- ik wilde alle data redundant hebben, dus heb een complete backup (1.4g) gekopieert en heb de volledige files in een tar ook gekopieert (11g)
Zelfs over een 100MBit switch gaat 12.4G kopieren niet heel snel, daarbij heb ik het ook nog eens lokaal gekopieert (getarred). het kopieren duurde iets meer dan anderhalf uur, vervolgens de schijven vervangen en de raid gemaakt, geboot, gefdisked etc en opnieuw opgestart en toen de data terug gekopieert (lokale data eerst)

dat was in totaal iets van 2.5 tot 3 uur
vervolgens nog een aantal problemen met mysql gefixt, en toen got weer aangezet, en toen was het ongeveer 20:30

Toen alles weer leek te draaien (laptopjes zijn handig soms) zij we er vandoor gegaan en heeft de grote gele taxi mij thuisgebracht waar ik toch maar eerst een middagmaal nuttigde ;)

Nu bleek dat de mysql performance beroerd was, queries timeden keer op keer uit en gingen er traag. alles gemyisamcheked hielp niet. goed.. tijd voor een paardenmiddel.. ik gooi nu eerst een dump (die wel redleijk snel lijkt te gaan :???) naar de niewe server (athlon 1200, 1.5G geheugen, softraid1 scsi) en die draait dan got maar even tot we hebben uitgevogeld wat het probleem nu is.
--Dit is niet bedoeld als troll, maar als serieuze vraag--

In hoeverre is deze warmte ontwikkeling het gevolg van de keuze voor AMD? Niet dat Intels niet warm worden, maar wel minder. Waar komt die warmte vandaan? Is het gewoon een combinatie van factoren of is er 1 boosdoener aan te wijzen?

//edit
post even ont-twentst
Het zal denk ik niet echt liggen aan de keuze van de procs. Bijna ieder 19" rack heeft als 'plavond' een set ventilatoren aangezien een rackje servers best wel de nodige warmte produceert.
Vooral de voedingen (soms wel 3 per server) doen niet onder voor een gemiddelde radiator :)
Tel daarbij op een stapeltje HDDs, de procs natuurlijk en ik weet niet hoeveel fans die allemaal hun warme lucht uitblazen. Deze lucht stijgt, en boven in je rack kan het niet weg.
Vergeet niet dat de serverruimte zelf ook nog gekoeld wordt door airco's.
'We' hebben hier een aantal Dell machines (7 in totaal, varierend van single PIII-800 tot dual PIII-1000) met daarbij nog een aantal baystack switches + hubs (worden ook lekker warm) en kennen dit probleem in het geheel niet. Alle machines hebben RAID-5 arrays van 15K RPM SCSI-disks. Het kabinet is van binnen wel warmer dan de serverruimte (lang leve airco en verkouden systeembeheerders) maar boven de 25 graden celcius komt het niet.

Maar goed, je geeft zelf het probleem waarsch. al aan: de rack kast. Heeft trueserver van die kasten staan welke helemaal dicht zijn van boven? Of zo'n kast met een soortement van schoorsteentje? (de laatste hebben wij hier)

Mogelijkerwijs is de airflow in de servers zelf ook niet helemaal lekker? (kan 't me nauwlijks voorstellen, t.net servers zonder airflow)
Denk ook eens aan een 15000 rpm setje RAID-schijven.
Pentium 4 kent bij vergelijkbare IPC/MHz combinatie volgens mij nog een grotere warmte afgifte als de Athlons MP/XP. Pentium 3 heeft wel een relatief lagere warmte afgifte, maar daarvan is niet dezelfde IPC/MHz combo beschikbaar.
Ik weet nog goed, dat je op gegeven moment een server of 3-4 had staan. Je maakte toen de vergelijking met Anandtech, die een win2k cluster had staan van in totaal 12 servers.(ik geloof in een review). Hoe is die vergelijking nu?
Vanaf morgen 5 webservers en 2 database servers om in totaal zo'n 40 miljoen pageviews per maand te verwerken (incl. Fok!). AnandTech heeft naar eigen zeggen meer dan 40 miljoen pageviews per maand. Ik heb geen idee hoeveel servers ze er tegenwoordig hebben staan, maar het zullen er dus zeker 12 zijn. Overigens zijn beide sites niet echt vergelijkbaar aangezien Tweakers.net veel dynamischer is.
veel dynamischer? Ik meen me te herinderen dat Anand Cold Fushion gebruikte?
Ja, maar daarin kun je veel beter cachen dan met php, daarom hoeft daar niet altijd alles van de db server te worden geplukt, terwijl dat hier bijna overal wel zo is.
AnandTech heeft geen reacties, pricewatch, v&a, modsysteem e.d. die de content veel dynamischer maken.
Misschien moet ik ook maar eens aan zo'n sponsoring deal beginnen...klinkt erg aantrekkelijk :)

Hoe regelen jullie dat eigenlijk, want ik neem aan dat Dane-Elec en AMD er ook wel iets voor terug willen (gratis reclame natuurlijk)
Misschien moet ik ook maar eens aan zo'n sponsoring deal beginnen...klinkt erg aantrekkelijk
Kan inderdaad erg aantrekkelijk zijn voor bedrijven, wat kosten bijv. die 2 cpu'tjes nou voor AMD, en ze krijgen er volgens mij toch nog een zeer goede reclame voor.
Klopt.
Alleen weet ik niet in hoeverre dat de objectiviteit van t.net be´nvloed.

Ik wil niet trollen, maar ik merk wel dat t.net behoorlijk pro-AMD is ingesteld. Het is nu minder 'erg' dan voorheen, als je vroeger het woord Intel liet vallen werd je direct getrolled, maar nog steeds goed te merken.

Jammer, jammer...
Het probleem is dat Intel zich niet echt geroepen voelt om hardware te sponsoren. Als AMD dat dan wel doet hebben ze bij Intel pech gehad.
Zoals FlipFla al meld, dit is een verschil tussen Bezoekers en Crew.

Intel is nou eenmaal de grote stoere jongen, itt AMD die de underdog is.

Zelf ben ik behoorlijk Intel minded. Ik heb zitten aarzelen over de dual Tbird, maar uiteindelijk, mede ook uit prijs overwegingen (!) gekozen voor een Dual Tualatin oplossing vor onze nieuwe server.

Ik kan je zeggen dat we daar ontzettend tevreden mee zijn. Syrinx loopt als een beest, en de Half-life Servers die er op lopen hebben het duidelijk een stuk makkelijker dan op de Athlon oplossing waar we eerder de servers op draaiden. zelfs met 6 actieve game servers is de load voor 99% van de tijd 0.00

En inderdaad, daarnaast staat AMD een stuk welwillender tegenover sponsoringen dan Intel, dat je een weekje een processor uitleent en daarna accuut alles terug wil. AMD was (is?) daar een heel stuk makelijker in.
Unexplained:
Je moet wel een duidelijk onderscheid maken tussen de gebruikers en de crew. In mijn ogen is de crew zeker het laatste jaar redelijk professioneel bezig in hun nieuwsberichten en zijn deze nieuwsberichten dan ook aardig objectief en beargumenteerd te noemen.
Aangezien Tweakers.net behoorlijk groot is, dat wil wel met 40 miljoen pageviews per maand :D , denk ik dat AMD en Dane-Elec zich er behoorlijk van bewust zijn wat voor een invloed een site zoals Tweakers.net heeft.

Dan is er volgens mij niet veel voor nodig om een sponsorcontract te krijgen.
Puur en alleen een vermelding in dit soort .plan's is voor de meeste bedrijven al genoeg, kijk maar naar nxs...

Bijna alle die-hard tweakers lezen de .plan's, en het zal dan ook onder de aandacht komen van velen.
Slimme zet, zo'n sponsor-actie!
AMD, trueserver en Comptechworld hebben onder de tracker een plaatje...
De temperatuur sensor van Athena geeft momenteel een CPUtemp van 57 graden aan en dat is dicht tegen de limiet.
Misschien een domme vraag, maar waarom is dat de max van Athena, terwijl een desktop makelijk uren op 60 graden kan draaien?
leuk al die sponsoring van die losse componentjes, maar waarom verhoogt T.net de professionaliteit niet en hangt er een aantal Compaq Proliant servers neer ? Ok het gaat niet ten goede komen van je imago als 'tweakers die zelf hun server in elkaar frutten', maar ik ben van mening dat de slechte beschikbaarheid en het huidige hoge percentage downtime ook niet bevordelijk is voor het imago.
Omdat een Proliant zeker 2 tot 3 keer zo duur is om aan te schaffen en up te graden als een 'merkloze' 19" bak. Het geld groeit ons niet op de rug ;)
Omdat het veel te duur is, en omdat tweakers gemiddeld geen 7 banners op een pagina willen hebben.
Wegens een gebrek aan schijfruimte zullen de harddisks in Apollo geupgrade worden van twee paupere 9,2GB 10.000rpm schijfjes naar 18,4GB Seagate Cheetah X15's in RAID 1.
Is het niet handiger om er gewoon ÚÚn 9,2 GB schijf bij te plaatsen en er een RAID 5 array van te maken?
Heb je ook 18,4 GB tot je beschikking. Maar het scheelt je wel de kosten van twee X15's...en dat is toch niet niets lijkt mij. Zeker gezien het feit dat t.net klaagt over lage inkomsten.
We proberen zoveel mogelijk gesponsord te krijgen. Tegenwoordig gaat dat steeds beter :) .
logisch met 40 miljoen pageviews per maand }>
Heb je ook 18,4 GB tot je beschikking. Maar het scheelt je wel de kosten van twee X15's...en dat is toch niet niets lijkt mij. Zeker gezien het feit dat t.net klaagt over lage inkomsten.
Femme hoeft ze toch niet zelf te betalen ??? :P
femme had zelf gewoon nog een paar 10k rpm schijven voor thuis nodig :P
Als ik me niet vergis draait er een database op. Raid5 is daar niet het meest geschikte protocol voor. Vandaar dat er waarschijnlijk is gekozen voor een striping+mirroring systeem
Dat is een stukje sneller met de random read/writes die je krijgt met een database. Voor backup is raid5 natuurlijk het mooist.
hardware is sponsering.
Effe denken... Forum offline ivm Backup GoT -> Waarop eigenlijk? Op DLT ofzo? Dat doet toch zo'n 5Mb/s (hier althans) Dus dat duurt 9000/5/60/60= Half uurtje voor backup?

En dan het herinrichten met de nieuwe schijven? Damn, heb effe de tekst van het stukje niet meer in mijn hoofd... Nouja, if so dan duurt dat toch niet zo lang? Effe nieuwe Array aanmaken op de 2x18,2 en dan van een mirror 9Gb copieren naar een andere mirror... Ehm... Uurtje? Da's al voorbij...

Heel blij iig dat er nu alweer aan gewerkt wordt. Het kan er (meestal) alleen maar op vooruitgaan!

Succes mannen!
Puur data kopieren zal niet het grootste probleem zijn.

Ik kan me echter voorstellen dat Kees eerst even een dumpje van de DB's wilde hebben (voor de zekerheid) en dat ie daarna misschien zelfs wel ipv kopieren van de datafiles de hele dump in leest.

Dit samen kan met de DB's van T.net best lang duren :)

Bovendien moet je natuurlijk eerst ook de kast eruit schroeven, harddiscs eruit etc etc...
Puur data kopieren zal niet het grootste probleem zijn.
Nou....misschien om te voorkomen dat er open files zijn als er iemand probeert te reageren tijdens het uitzetten, of puur tijdens het kopieren van de data?

(Ik heb er niet echt verstand van, maar het lijkt me dat dit een probleem zou kunnen veroorzaken met het terugzetten van data)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True