Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 110 reacties, 18.319 views •

Veel datacenters zijn gevestigd in de Randstad, maar dat betekent niet dat een datacenter in andere delen van het land niet succesvol kan zijn. Interconnect opende eind vorig jaar zijn tweede datacenter in Eindhoven. Daar sprak redacteur Joost Schellevis met de technisch directeur van Interconnect, Jeroen Stevens. Hij legt uit wat de voordelen zijn van een datacenter buiten de Randstad en bespreekt het geavanceerde koelsysteem.

Reacties (110)

Reactiefilter:-11100107+147+26+30
Moderatie-faq Wijzig weergave
1 2 3 ... 6
Ik vraag me af waarvoor die soort sluizen zijn waar je altijd doorheen moet, wegen die ook?
Vooral om 'meelopen' te voorkomen. Er kan redelijkerwijs maar 1 persoon tegelijk in zo'n sluis staan, dus kun je niet stiekum iemand mee naar binnen smokkelen. Dit soort DC's hebben over het algemeen behoorlijk hoge eisen aan fysieke beveiliging van het spul (ze hebben daar tenslotte voor flinke bedragen aan hardware staan en nog veel belangrijker: grote hoeveelheden potentieel waardevolle en/of (privacy)gevoelige data)
Inderdaad, en in de 2 datacenters waar ik ooit ben geweest moesten we zelfs van te voren bellen om te zeggen dat we er aan kwamen om even naar de servers te kijken o.i.d.

Er mogen ook nooit veel mensen tegelijk naar binnen, ze willen vaak wel het overzicht houden.
Inderdaad, en in de 2 datacenters waar ik ooit ben geweest moesten we zelfs van te voren bellen om te zeggen dat we er aan kwamen om even naar de servers te kijken o.i.d.
'zelfs'? Ik ben nog nooit ergens geweest waar ik me niet vantevoren moest aanmelden.
Ach met een leuke vrouwelijke collega zou ik het niet erg vinden hoor :) pas net in de meeste sluizen.. Al willen ze dan niet dicht vanwege het gewicht :+
Toegangsregistratie.

Het is normaal gesproken de enige ingang + uitgang, iedereen moet er doorheen dus je weet precies wie er binnen zijn.

Ze wegen inderdaad ook, ik heb wel eens een dikke collega gehad die er niet in kwam met zń rugtas om bij GlobalSwitch :). Zonder ging net aan "De schuldige was de tas... jaja :P". Met een zware server kom je er ook soms ook niet doorheen.

Het is wel een gruwelijk irritant systeem als je eens spullen mee moet nemen (tenminste bij GlobalSwitch). Je mag vaak dingen wel afleveren bij de loadingbay maar moet dan alsnog via de sluizen het DC in. Je blijft rondjes lopen.
Mijn ervaring bij Global Switch is dat het juist 1 van de makkelijkere datacenters is: Een karretje met een server kon gewoon mee in de sluis. Dat is bij veel datacentra niet mogelijk.
Ik zie wel TL-lampen aan het plafond in dat datacenter. Ons hebben ze indertijd geleerd dat dit uit den boze is. Kan voor interferentie zorgen.
Hoogfrequente verlichting geeft veel minder storing, en ze zullen er ook echt wel filters op het voedingsnet van de servers hebben zitten hoor :)
Weet niet hoelang 'indertijd' geleden is maar er zijn wat veranderingen geweest in voorschakelapparaten ;) maar het zal waarschijnlijk nog niet lonen om led verlichting op te hangen zo te zien.
Dat is inderdaad nogal duur voor een ruimte waar de verlichting idealiter slechts spaarzaam aan is. De ruimte is verdeeld in gangen, en wanneer je een gang niet gebruikt gaat de verlichting daar automatisch uit.
Ik kan je uit ervaring vertellen dat de verlichting ook uit gaat als je aan de verkeerde kant van de gang je rack hebt. ;)
Dat was in Den Bosch zo, hier heb ik daar nog geen ervaring mee gehad. Naar alle eerlijkheid, ons rack zit wel bijna helemaal vooraan.
De linkse kant dan zeker als je via links binnenkomt?
Altijd verstopt achter de kastdeur, maar een keer zwaaien doet wonderen ;)
Natuurlijk goed dat ze twee aggregaten hebben, maar waarom in dezelfde ruimte? Als er één in de brand vliegt is er kans dat de andere mee gaat, of in elk geval niet gebruikt kan worden.
Ik vond het hele verhaal een hoge mate van verkoop hebben. Ja daar gaat het natuurlijk om maar ...
De kabelbanen lopen verticaal 13 m1 ipv 60 m1 horizontaal. Dit is een normale situatie immers anders zou je veel meer doorboringen van de diverse brandcompartimenten hebben. Daarna krijg je alsnog vanuit iedere aftakking naar de vloer alsnog 60m1 zij het dat deze kabelbaan lichter is.
Vervolgens over de installaties dat deze dubbel uitgevoerd zijn, twijfelachtig maar goed. Dat de filters dubbel zijn is vrij normaal verder. Ook dat ze kiezen voor Daikin is niet echt bijzonder je hebt namelijk maar weinig grote merken die dergelijke installaties uitvoeren.
Dan inderdaad het ziet erna uit dat de aggregaten samen in 1 kamer zitten, leuk met brand.
En de final touch dat ze specifiek gekeken hebben wat er mogelijk is qua voeding is toch wel een beetje ver gezocht enerzijds qua milieu anderzijds qua mogelijkheden. Ik heb veel projecten gedaan en het is niet ongebruikelijk om simpelweg de transformator op te waarderen, een zwaardere transformator te plaatsen of gewoon een halve kilometer verderop de voeding op te pikken als het lokaal niet voldoende is. Missend onderdeel in het verhaal is of ze nou van 1 of 2 punten de voeding oppikken onder het mom van redunantie. Dat laatste lijkt mij een stuk interessanter.

Hoe dan ook leuk filmpje maar had imo toch wel technisch wat meer gescreend mogen worden cq betere vragen gesteld mogen worden door iemand met kennis van zaken.
te hopen dat de stroom op elke overgang ook gekruisd aangesloten is, want als alles volledig uit 2 aparte lijnen is opgebouwd, dan moet er in elke lijn maar 1 probleem zijn om de hoop stil te leggen
Interconnectr muhahahah breek me de bek niet open;
keer (ongeautoriseerde) toegang tot hun klant bestand; 450 DBś + website. Daar bij interconnect netjes melding van gemaakt. Meen je dat zo iets terug gekoppeld wordt aan hun klanten? nee hoor. Kon niet eens een bedankje vanaf! Volgende keer gooi ik het op past-bin.
Ze hebben mooie apparatuur staan, maar dat back-end panel van ze is echt uit het jaar 0. Toen ik er voor het laatst op zat kon je niet eens DNS wijzigingen doorvoeren. Toen ik eens een bug had ontdekt heb ik dat netjes gemeld, kreeg ik een belletje terug met de mededeling dat ze niet wisten hoe ze dat moesten fixen.... We hebben ondertussen al onze spullen weggehaald bij Interconnect.
Ziet er goed uit, maar ik hoop toch echt dat ze in Eindhoven de zaakjes beter voor elkaar hebben als in Den Bosch. Er gaan daar in Den Bosch gewoonweg te vaak zaken fout. (Stroomuitval, die redundant zou zijn, dataverbinding weg etc.) Is jammer, want een datacenter in de regio is gewoon erg fijn.
Ook de backpanel is inderdaad ondermaats. (Dit doen we nu bij Argeweb, perfecte service en alles zelf te regelen)
Als ze bovenstaande zaken eindelijke eens serieus aan gaan pakken, dan zouden ze veel meer handel kunnen maken
Als je zaken bij interconnect aankaart, nemen ze het ter kennisgeving aan en wordt er verder niks met je klachten gedaan... jammer. Gemiste kans.
Het is daar "overmanaged" , ze verkopen je rustig gigabit uplink(redudundant)s terwijl je een managed firewall service hebt die niet meer aankan dan 100mb ..en niet kan switchen als de ene uplink uitvalt..

Dan vervolgens kan je die gigabit zooi redudant niet ongedaan maken want het is een contract van 1 jaar... echt heel klantvriendelijk daar.. op zoek naar andere partij voor 1 heel rack..
Interconnect is wellicht niet ideaal wanneer je alleen hosting afneemt (geen ervaring mee), maar wanneer je colo doet is het een uitstekende partij, dan neem je alleen rack, stroom en netwerk af, en dat kunnen ze prima.

Remote hands werkt prima, en ze doen in Eindhoven zelfs aan pro-actief monitoren; zo kregen wij een telefoontje dat onze hardware een foutconditie aangaf. Dit hadden we zelf natuurlijk al gezien, maar toch netjes dat ze dit even melden.
Interconnect in Eindhoven is overigens niet het enige Tier 3 datacenter in Brabant.

Datacenter Brabant biedt vergelijkbare voorzieningen (tevens met Free Cooling) vanuit Waalwijk.

Ik vind het persoonlijk een uitkomst dat de datacenters vandaag de dag ook bij je in de buurt gebouwd worden. Niet meer een hele dag vrij hoeven plannen om een retourtje Amsterdam te doen, maar gewoon op de terugweg van kantoor naar huis onderweg even stoppen in Waalwijk, wat gewoon op de route ligt! Zo ben je ook veel sneller geneigd om even snel kleine dingetjes te doen in plaats van ze op te sparen wat dus in achterstallig onderhoud resulteert.
Inderdaad. We hebben zelf on spul in het DC van Interconnect in Den Bosch hangen, maar het is toch prettig dat je daar even snel heen en weer kunt.
Niet alleen is reistijd naar Amsterdam een stuk hoger, maar je zit onderweg ook nog met de ellende van het verkeer, helemaal als je onverhoopt een keer voor een storing moet opdraven rond de spits.
Ik verbaasde me er altijd al over, niet omdat ik het zo leuk vind dat in Brabant er een datacenter is. Maar puur uit oogpunt van kosten: Een kavel in Amsterdam is bijna onbetaalbaar, waar het in het westen, noorden of zuiden zo veel goedkoper kan.
Of in het oosten. Ja, of je moet de kaart op de kop gehouden hebben, en niet opgelet bij Aardrijkskunde, want Amsterdam ligt al in het westen.

Solcon heeft volgens mij een datacenter in Apeldoorn-Noord, staat ook op zo'n lekker leeg industrieterreintje :p

[Reactie gewijzigd door Miglow op 27 maart 2012 19:49]

Solcon heeft een datacenter in Dronten (naast de ijsbaan) en een tweede in Apeldoorn-Noord.
Je hebt ook nog Global-e datacenter in Rijen (tussen Breda en Tilburg). Ook een erg goed datacenter waar alles goed geregeld is.

Dan heb je ook nog Nedzone aan de andere kant van Brabant, zij hebben het ook goed geregeld.

Kortom er komt steeds meer bij in Brabant.
Vandaag de dag? Ik weet niet anders dan dat het al gebeurd sinds we het begrip datacentre kennen. Dat iedereen zich zo hard focust op Amsterdam is mij een raadsel zeker als je de beruchte stroomvoorziening daar meeneemt in het verhaal. Er zijn inmiddels weet ik niet hoeveel alternative exchanges zoals de NDIX (of dat zo goed is, is dan weer een hele andere discussie). Die bestaan allemaal uit dc's buiten Amsterdam waarbij de NDIX zelfs uit dc's buiten Nederland bestaat.

De enige reden om je servers op een andere geografische locatie te plaatsen is risicospreiding. Mocht er iets in Amsterdam gebeuren dan heb je het spul elders ook nog staan en kan het door blijven draaien. Andersom geldt dat natuurlijk ook zo. Stel dat er bij de vuurwerkramp in bijv. Enschede een datacentre in het rampgebied had gestaan of juist pal in de Bijlmer. Weg datacentre. Dan ben je wel blij dat je elders ook nog je spul hebt staan (als we het even beperken tot alleen de gevolgen die het heeft voor je eigen firma).

Het verhaal is niet erg uniek maar geeft ondanks dat wel een leuke kijk in de keuken van datacentra. Niet iedereen komt er en niet iedereen weet hoe dat allemaal gaat (denk aan de toegangseisen en -controle).
Wel een heel erg sales verhaal inderdaad. Allemaal open deuren. Mijn A-B feed zijn volledig gescheiden etc.. No shit als dat niet zo zou zijn dan zou ik pas raar opkijken.
Meeste DC zeggen wel dat ze A-B feed hebben gescheiden maar meestal hebben ze maar 1 feed naar het gebouw.

Je ziet een fragment waarin je 2x 3 kabels binnen ziet komen, het enige wat ik daarop kan zeggen dat onwenselijk is gezien de geringe afstand en omdat er geen fysieke scheiding tussen zit.

Overigens wel raar hoe die kabels erbij liggen. Gewoon op elkaar. Ik weet niet hoe het met voorschriften zit bij hoogspanningskabel, maar het lijkt me onwenselijk de warmte van één kabel kan de andere doen smelten en dan heb je een leuke vuurwerk effect.

Als je ECHT twee feeds hebt, heb je ook twee verschillende aanbieders. Immers als een energie bedrijf problemen heeft, wil jij als bedrijf daar geen last van ondervinden.

[Reactie gewijzigd door totaalgeenhard op 27 maart 2012 21:11]

Dat is wel erg kort door de bocht, want ten eerste is er maar 1 echt stroom netwerk in NL, waar meerdere aanbieders hun diensten op leveren. Daarnaast is het ook nog zo dat je in dat geval dus van 2 verdeelstations zou moeten halen, waardoor je waarschijnlijk meerdere kilometers moet gaan graven om daarvan onafhankelijk te zijn. Daarom is het ook voldoende om als je energieleverancier problemen heeft je dieselaggregaten te gebruiken?
>geen geluid aan gehad, dus niet gehoord wat er is gezegd<!

Vraag me af als ik het filmpje zo zie, of de laatste servers net zulke koele lucht krijgen als de eerste... gezien deze toch wel een eind weg zitten!
De koeling komt vanaf de datavloer, daar liggen tegels met gaten.
Er wordt druk opgebouwd onder de datavloer, de lucht die uit de tegels komt zal overal ongeveer gelijk zijn.
Ziet er mooi uit zeg! En wat een beveiliging met hekwerk, dikke deuren, fingerprint readers en camera's. Het lijkt bijna een gevangenis. Vraag me af hoeveel (kilo)meter kabel erin dit gebouw zit.
Eerder een bunker; je komt er moeilijk binnen (zelfs als het de bedoeling is dat je binnen komt), maar makkelijk weer uit.
Het bedrijf waar ik werk in Breda heeft al jaren een eigen datacenter, al dan niet kleinschaliger.

Ook bedrijven als Global E en dergelijken zijn in het bezit van aardige datacenters dus het is niet echt zo uniek als ze het hier over doen komen.
Sterker nog, Interconnect heeft zelf al jaren een DC in Den Bosch.
In (en rond) Eindhoven zijn redelijk wat datancentra te vinden, maar ik denk dat ze bedoelen een "groot" en "open" datacenter waarbij rackspace verhuurd wordt.
Als ze spreken over het verhogen van de temperatuur van de dataroom om minder te moeten koelen, spreken ze dan over de temperatuur in de koude gang, de warme gang, de temperatuur binnen de chassis, of ....?
volgensmij gaat het vrij expliciet over het verhogen van de temperatuur in de koudegang van 22 naar 25 graden.
Waarom niet, Een server kan makkelijk +30 graden hebben.. wil je 22 continue dan kost dat behoorlijk wat energie.. Door van 22 langzaam op te bouwen naar 30 zullen de server eigenaren ook hieraan kunnen wennen.
Er zijn zat datacenters die continue 20 graden hebben. wat volgens mij overkill is..

Wat zou de temp van een gemiddeld 42 U rack zijn met 15 1u servers, en 4 switches al dan niet met een KVM switch? bij koude gang temp van 22?

Heb zelf 7 2 U servers gehad met constante temp van 25 Graden.. Servers werden niet warmer dan 38.. Met daarbij nog 4 Switches die ook rond de 38 40 aan het schommelen waren.
1 2 3 ... 6

Op dit item kan niet meer gereageerd worden.



HTC One (M9) Samsung Galaxy S6 Grand Theft Auto V Microsoft Windows 10 Apple iPad Air 2 FIFA 15 Motorola Nexus 6 Apple iPhone 6

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True