Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 79 reacties

Cooler Master toont op de Cebit in het Duitse Hannover een gemodde ATCS 840-behuizing met vijf watergekoelde quadcore-systemen. Het vijftal wordt door een enkele Real Power M1000W-voeding van voldoende prik voorzien.

Cooler Master is erin geslaagd om vijf mini-itx-systemen in te bouwen in een enkele ATCS 840-behuizing, de kast waarmee het bedrijf vorig jaar de ATCS-lijn nieuw leven inblies. Met het systeem lijkt Cooler Master te willen bewijzen dat het kleine clustersystemen kan bouwen, en in elk geval maakt het bedrijf duidelijk dat zijn hardware niet alleen geschikt is voor standaardsystemen. De '20 Cores PC' is opgetrokken rond vijf Core 2 Quad Q9400-cpu's van Intel, die elk over 2GB geheugen, een optische drive en een hdd beschikken. De vijf subsystemen worden samen met de vijf optische drives en de vijf hdd's door één enkele Real Power M1000W-voeding van de benodigde stroom voorzien.

Het vijf-in-een-systeem beschikt over een forse radiator, waar elke cpu zijn warmte met een eigen waterpomp naartoe transporteert. De rest van het systeem wordt op temperatuur gehouden met behulp van drie 200mm-fans en een enkele 120mm-fan. De diverse koelsystemen van het proof of concept-systeem zouden ervoor zorgen dat de cpu's niet warmer dan 66 graden Celsius worden. De vijf chipsets zouden de 38 graden niet overstijgen en in de rest van de behuizing zou het zelfs niet warmer dan 30 graden worden.

Cooler Master 5-in-1 009 Cooler Master 5-in-1 008 Cooler Master 5-in-1 007 Cooler Master 5-in-1 006 Cooler Master 5-in-1 005 Cooler Master 5-in-1 004 Cooler Master 5-in-1 002
Moderatie-faq Wijzig weergave

Reacties (79)

Zow, een eigen renderfarm/mini super computer in een kast :). Tis een proof of concept en ik denk ook niet dat ze zo iets voor de consumenten markt gaan lanceren. Al zou het wel leuk zijn om een dikke high end game systeem en een Atom/Nano systeem er bij in te hebben en dan te kunnen switchen tussen veel performance of lekker zuinig. Al is dat ook niet echt handig.

Ok ik weet dat Flops bij een CPU's niet echt geschikt zijn voor de vergelijking maar:
Een Q9400 geeft 42.56 GFlops. 5 maakt dus 212.8 GFlops.
http://www.intel.com/support/processors/sb/cs-023143.htm

Roadrunner, een van de snelste super computers op dit moment, doet 1.7 peta flop. Dat is dus 1700.000 GFlop.
http://en.wikipedia.org/wiki/IBM_Roadrunner

Edit: je hebt gelijk :P.

[Reactie gewijzigd door Reinman op 2 maart 2009 14:58]

Je zou natuurlijk ook kunnen bedenken dat je een Atom laat schakelen, tussen of zelf al het werk doen dan wel tussen de 1 en de 4 Quad core systemen aan slingeren om te helpen bij het werk. Een beetje zo als de igp en de gpu kunnen werken. Dan kun je voor het lezen van je email gewoon lekker een atom gebruiken en hoef je je geen zorgen te maken over de energie rekening. Maar als je even wilt gamen dan heb je gewoon een Quad core CPU tot je beschikking om dat dat toch een stuk lekkerder werkt met de meeste games. Even wat rendering doen dan toch gewoon die andere drie quads er bij schakelen en lekker snel renderen.

Het lijkt me een goede oplossing om de kosten van de energie rekening laag te houden en toch over voldoende kracht te beschikken om te doen wat je nodig vind. Je zou dan een kast kunnen bouwen waar je gewoon extra borden in kan steken en uit kan halen om ze te upgraden dan wel te vervangen. Als het even kan via een hot swap zodat je je systeem altijd aan kan houden.
Een backplane met een Atom doet dan het normale werk en de gamers onderons kunnen er dan een extra board in steken met een Quad core er op, meer nodig dan steek je er toch nog een bij...

Ik zou dan alleen wel een centrale drive array bouwen met een flinke hoeveelheid cache, waar alle systemen gebruik van kunnen maken en een flink snelle SSD voor de lokale cache van de borden, dat hoeft niet heel groot te zijn en kan dus de kosten drukken.
De grafische prestaties zullen natuurlijk door een monster kaart of verzameling kaarten geregeld moeten worden, natuurlijk met een igp die het makelijke werk doet als er niet hard gwerkt hoeft te worden.

Dan hoef je alleen nog een OS in elkaar te schroeven dat het in en uit schakelen van een of meerdere borden ondersteunt en als het even kan transperant is voor Windows, Linux etc.. op die manier hoef je niet meteen alles aan te passen maar kun je gewoon door blijven werken en de OS'en pas aan passen als er voldoende vraag naar is om dit te doen.

Dat zou best wel eens een leuk idee kunnen zijn voor de huidige PC systemen, je kunt dan gewoon met een serie veel goedkopere en lichtere processors een heel systeem bouwen dat toch makelijk zo snel of sneller is dan de huidige top of the line systemen.
Eigenlijk zoals een IBM Bladecenter dus...
Ik zou dan toch eerder opteren voor een monstermoederbord met meerdere sockets, stuk of 10 S-ATA poorten, voldoende DIMMslots en genoeg PCI-e sloten. Lijkt me toch veel overzichtelijker en nog zuiniger dan 4 moederborden draaiende te moeten houden(1 zo'n monstermobo zal natuurlijk meer verbruiken dan een normaal mobo). Lijkt me ook sneller gaan dan dat je je mobo's over netwerk verbindt met mekaar ofzo.
Sja, of het nu ook echt nuttig is om er grote berekeningen mee te doen, of, zoals jij zegt een renderfarm. Je kan dan veel beter wat grafische kaarten in huis halen (voor veel minder geld dan zo'n setup overigens) en zelf iets schrijven in OpenCL, CTM of CUDA om op die manier GPGPU toe te passen. Je hebt op die manier vele malen meer FLOPS dan dat je nu hebt met CPU's voor veel minder geld. Volgens deze tabel heeft de 4870X2 een rekenkracht van 2.4 TFLOPS. Dat, en als je kijkt naar de prijs en energieconsumptie, zie ik meer toekomst in GPGPU dan zulk soort opstellingen.
En hoeveel kost het schrijven van software voor OpenCL/CTM of Cuda dan?

Ik kan me zo voorstellen dat je als 3D designer met bijvoorbeeld 3ds max toch meer hebt aan meerdere cpu's dan aan meerdere GPU's. En ook zijn 3D designers niet altijd programmeurs, dus het schrijven van GPU software is niet altijd praktisch ;)
En hoeveel kost het schrijven van software voor OpenCL/CTM of Cuda dan?
Niets. De SDK's van alle drie de talen zijn vrij te verkrijgen en te ontwikkelen. Je moet je alleen de taal eigen maken, maar dat is eigenlijk altijd wel zo. Links: OpenCL | ATi Stream (voorheen CTM) | CUDA
Ik kan me zo voorstellen dat je als 3D designer met bijvoorbeeld 3ds max toch meer hebt aan meerdere cpu's dan aan meerdere GPU's.
Voor zover ik weet maken 3D modelling programma's gewoon gebruik van de DirectX en/of OpenGL API's, dus wordt de GPU sowieso gebruikt voor het weergeven. Het kan zijn dat jij in de war bent tussen het renderen van 3D objecten en het renderen van filmmateriaal. Voor filmmateriaal is het namelijk zo dat er erg vaak gebruik gemaakt wordt van kleine clusters die dedicated het encoderen voor zich nemen. Hierbij wordt dus erg vaak de CPU gebruikt, terwijl het eigenlijk veel sneller en compacter kan met een GPU. Zowel ATi als nVidia hebben programma's die je kunt downloaden zodat je dit over je graka al kunt doen. Ze heten AVIVO Video Encoder (ATi, voor HD4800 serie kaarten, maar oudere versies kunnen ook op X1000 serie kaarten dacht ik) en BadaBOOM (nVidia, kaarten vanaf de 8000 serie). Zelf in elkaar flansen kan natuurlijk ook, met behulp van bovenstaande SDK's.
but then again, dat zijn FLOs, en die zijn voor de meeste berekeningen (behalve die van het F@H-type) niet altijd even nuttig. Veel vaker heb je integere en conditionele berekeningen nodig, en zelfs de allernieuwste GPUs hebber daar slechts matige ondersteuning voor.
Klinkt allemaal leuk, maar er zal dan toch ook software die de 5 systemen aan elkaar koppelt moeten worden meegeleverd om het interessant te maken.. lijkt mij.. tenzij je 5 onafhankelijke pc's in 1 kast wil hebben.. niet handig... hoewel..
* MaxxBass kijkt naar stapel hardware in zijn kamer... wellicht toch.... :P
Hoezo? Als je gebruik maakt van grafische kaarten kun je er gewoon 4 in je mobo prikken. Ze hoeven namelijk niet in SLi/Crossfire te draaien, maar je kunt ze apart aanspreken. Dan zijn het er 4 geen 5, maar dan wel in één systeem.
@Bitage
MaxxBass heeft het over systemen. die 5 systemen zitten nu als losse computers in een kast.
Dat is wat anders dan SLI oid.
Ah ok, ik vond het al wat vreemd, maar hij reageerde op mij, vandaar dat ik aannam dat hij ook op mij reageerde (logisch ook).
Hier ga je een beetje te kort door de bocht met je berekening, je hebt namelijk niet 20x een Q9400, maar 20 cores, dus 5x een Q9400. Factor 4 verschil.
Ziet er leuk uit, maar er is iets wat ik niet snap:

Hoe kun je 5 mobo's aansluiten op een enkele PSU? Er zit toch maar 1 24 pins stekker aan.

Verder zie ik het nut niet van een eigen pomp per cpu terwijl ze toch naar dezelfde radiator gaan. Het is voldoende om 1 sterke pomp te hebben die het hele circuit in serie geschakeld voorziet.
Ze gebruiken 1 rail per pc. Kan je in het filmpje zien. (http://www.youtube.com/watch?v=VAZwHDGz-3I&)
Het is volgens mij hun eigen voeding. Die is extreem krachtig en zal dus ook wel meer stekkertjes hebben gok ik zo :)
^ dit. Verloopstekkertjes kun je op zich zelf nog in mekaar prutsen, zeker als je fabrikant van voedingen bent.
En hier een video van de hele setup

nog meer videos

[Reactie gewijzigd door PegOpDeWeg op 2 maart 2009 15:02]

Netjes! Echt mooi gedaan.
Die bekabeling, wow, iemand heeft zich geamuseerd! 8-)

[Reactie gewijzigd door Maxession op 2 maart 2009 14:34]

sorry, maar als ik zie hoeveel tierib's er zijn gebruikt....

kabeltje defect...sorry alles ff losknippen....

daar is nu klitteband (Velcro) voor om dit soort dingen netjes te doen en tevens nog demontabel te zijn.
Sorry hoor, maar hoe vaak gaat er nu een kabel kapot :?

Het is mij in m'n hele leven volgens mij één keer gebeurd, en dat was tijdens het bevestigen van een sata voedings stekker (die brak af). Zodra alles draait is de kabel wel het laatste wat kapot gaat.

Maar voor de rest, inderdaad hulde voor de persoon die alle kabels weg heeft zitten werken. Ziet er echt super netjes uit.

*Heiden is een beetje jalours

[Reactie gewijzigd door Heiden op 2 maart 2009 15:37]

de kabel moet nog niet kapot gaan, een simpele cpu of ram-upgrade en je kan alles gaan loshalen en uit elkaar gaan halen :+
Elk mobo heeft volgens mij een HDD en een DVD brander.
Over DVD branders gesproken, heb je een systeem van duizend(en) euro's in elkaar gezet, gebruik je 3 verschillende DVD branders. Dat ziet er toch niet uit?
wat dacht je van een dvdspeler/brander en harde schijf?
SATA HDD en SATA Optisch station?
Haha inderdaad heel mooi gedaan. Een oudcollega van mij was daar ook da master in 8)
netjes gedaan,maar als je zoveel kabels hebt lopen moet je wel netjes werken,anders word het spagetti.
ik heb zelf 13 harde schijven in mijn behuizing(sharkoon rebbel 12)en ik heb idd ook veel tyraps erin zitten,ook moet je van te voren goed nadenken over hoe je je voedings kabels laat lopen.

erikdeperik was ook wel tevreden over het resultaat :)
Wauw, wat een mooi systeem zeg :)
Alleen mis een foto van de achterkant, moet je hier gelijk een kvm switch bij kopen:P
Of alleen te beheren via utp?

Wel netjes zeg maar 1000w nodig voor 5 systemen met quadcores.
Vind het niet echt gek... de Q9400 heeft een TDP van 95 watt en die kleine bordjes verbruiken verder geen drol. Zelfs met de HD, DVD drive, waterkoeling er bij zou het me zeer verbazen als een zo'n deelsysteem onder load boven de 150 watt uit komt (waarschijnlijk blijft het nog wel lager), waarmee je dus uit komt op 750 watt totaal.
Overigens weet ik dat TDP niet gelijk staat aan wat het ding verbruikt, maar hij zal zeer zeker niet meer vermogen trekken dan zijn TDP, dus in dit geval kan ik gewoon de TDP gebruiken om mijn punt te maken.
Gewoon prachtig,
dit is nou wat ik bedoel all in one _/-\o_ server game alles wat je wilt in een kast :*)
5 quadcores gaat nu nog niet veel performance winst geven helemaal in cluster. Ook heb je een onboard gputje, dus gamen valt af. :)

Serveren is dan wel weer te doen, met renderen denk ik dat een beetje GPU sneller is.
'professionele' 3D rendering gebeurt vooralsnog op de CPU. Aan GPU's heb je dus behalve voor game-engines en viewport previews nog niks. Performance winst is er voor dit soort dingen dus enorm, aangezien dit soort berekeningen prima te verdelen zijn over meerdere cpu's of cores (b.v. op frame niveau of tile/bucketniveau.)
(niet dat AMD/nVidia niet graag anders zouden zien gezien hun inspanningen met CUDA etc.)
Ik dacht dat het renderen altijd werd gedaan op die duurdere kaartjes van Nvidia en Ati. Die met 2GB ram e.d. (Dus niet de 'game' kaarten).
Die Quadro en FireGL kaarten zijn qua hardware vrijwel identiek aan de gamer kaarten.
Er ook pogingen om een deel van het rekenwerk te verplaatsen naar de GPU, het lijkt toch de plek voor dit soort spul. Gelato, CUDA, ATI Stream technology zijn poging daartoe.
In de praktijk zitten er nogal wat haken en ogen aan. b.v. rekenprecisie is daar een van.. Het verschil tussen quadro's/firegl's zit 'm in de drivers ( Een applicatie als Rivatuner patcht de drivers, en forceert ze de kaart te herkennen als 'high-end' model. ) en wellicht de support die je bij problemen krijgt van de fabrikant of software leverancier.
Die drivers zijn geoptimaliseerd voor specifieke applicaties (Max/ Maya/ Softimage/ Bentley/ Catia/ SolidWorks etc.). Dit soort applicaties stelt andere eisen aan de 3d kaart qua precisie, polygon aantallen, etc dan dat games dat doen. (zie voor benchmarks b.v. Xbitlabs, Tomshardware, soms leggen ze er ook een gamerkaart naast ter vergelijk.)

[Reactie gewijzigd door Hamish op 2 maart 2009 16:37]

je kan ook zelf een te grote kast kopen atx mobotje ram en rotzooi dikke vid kaart en onder itx bordje in plakken...
Hulde aan de persoon die de kabel-management heeft gedaan _/-\o_
De kabels zijn inderdaad erg netjes samengebonden :P.
netjes afgewerkt moet ik zeggen. maar die mini itx , hangen die nog vast op een andere onderdeel ofzo om samen te kunnen werken ??
Dat zal via een extern netwerk en software worden opgelost lijkt me.
Ze werken niet samen, het is alleen om de kracht van hun nieuwe voedingen te laten zien.
Ik dacht eerst dat ze het hier hadden over vijf volwaardige systemen(CPU, mobo, middel grote gpu etc...)

Dit zou overigens wel handig kunnen zijn als server :)

[Reactie gewijzigd door noobynater op 2 maart 2009 14:35]

is ook zo alleen de gpu is onboard.
Met volwaardig wordt gedoeld op de hardeschijf en dvdspeler.
dat is ook zo denk ik.alleen de gpu's zie ik nergens..dat zal wrs een klein prulmoddeletje zijn.
zeer mooi gedaan netjes afgewerkt
doet me denken aan die stunt die ze een tijd geleden uithaalden om een opel te starten met een 500w voeding videolink wel leuk gedaan dit trouwens.
Lees ook even de reacties. Ten eerste erg raar, een Taiwanees merk met een Duitse presentator en een Nederlandse wagen. Klopt ergens iets niet. Daarbij is goed te zien hoe er nog steeds een kabel aan die accu zit...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True