Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Cooler Master perst vijf systemen in enkele behuizing

Door , 79 reacties

Cooler Master toont op de Cebit in het Duitse Hannover een gemodde ATCS 840-behuizing met vijf watergekoelde quadcore-systemen. Het vijftal wordt door een enkele Real Power M1000W-voeding van voldoende prik voorzien.

Cooler Master is erin geslaagd om vijf mini-itx-systemen in te bouwen in een enkele ATCS 840-behuizing, de kast waarmee het bedrijf vorig jaar de ATCS-lijn nieuw leven inblies. Met het systeem lijkt Cooler Master te willen bewijzen dat het kleine clustersystemen kan bouwen, en in elk geval maakt het bedrijf duidelijk dat zijn hardware niet alleen geschikt is voor standaardsystemen. De '20 Cores PC' is opgetrokken rond vijf Core 2 Quad Q9400-cpu's van Intel, die elk over 2GB geheugen, een optische drive en een hdd beschikken. De vijf subsystemen worden samen met de vijf optische drives en de vijf hdd's door één enkele Real Power M1000W-voeding van de benodigde stroom voorzien.

Het vijf-in-een-systeem beschikt over een forse radiator, waar elke cpu zijn warmte met een eigen waterpomp naartoe transporteert. De rest van het systeem wordt op temperatuur gehouden met behulp van drie 200mm-fans en een enkele 120mm-fan. De diverse koelsystemen van het proof of concept-systeem zouden ervoor zorgen dat de cpu's niet warmer dan 66 graden Celsius worden. De vijf chipsets zouden de 38 graden niet overstijgen en in de rest van de behuizing zou het zelfs niet warmer dan 30 graden worden.

Cooler Master 5-in-1 009 Cooler Master 5-in-1 008 Cooler Master 5-in-1 007 Cooler Master 5-in-1 006 Cooler Master 5-in-1 005 Cooler Master 5-in-1 004 Cooler Master 5-in-1 002

Door Olaf van Miltenburg

Nieuwsco÷rdinator

02-03-2009 • 14:28

79 Linkedin Google+

Reacties (79)

Wijzig sortering
Je zou natuurlijk ook kunnen bedenken dat je een Atom laat schakelen, tussen of zelf al het werk doen dan wel tussen de 1 en de 4 Quad core systemen aan slingeren om te helpen bij het werk. Een beetje zo als de igp en de gpu kunnen werken. Dan kun je voor het lezen van je email gewoon lekker een atom gebruiken en hoef je je geen zorgen te maken over de energie rekening. Maar als je even wilt gamen dan heb je gewoon een Quad core CPU tot je beschikking om dat dat toch een stuk lekkerder werkt met de meeste games. Even wat rendering doen dan toch gewoon die andere drie quads er bij schakelen en lekker snel renderen.

Het lijkt me een goede oplossing om de kosten van de energie rekening laag te houden en toch over voldoende kracht te beschikken om te doen wat je nodig vind. Je zou dan een kast kunnen bouwen waar je gewoon extra borden in kan steken en uit kan halen om ze te upgraden dan wel te vervangen. Als het even kan via een hot swap zodat je je systeem altijd aan kan houden.
Een backplane met een Atom doet dan het normale werk en de gamers onderons kunnen er dan een extra board in steken met een Quad core er op, meer nodig dan steek je er toch nog een bij...

Ik zou dan alleen wel een centrale drive array bouwen met een flinke hoeveelheid cache, waar alle systemen gebruik van kunnen maken en een flink snelle SSD voor de lokale cache van de borden, dat hoeft niet heel groot te zijn en kan dus de kosten drukken.
De grafische prestaties zullen natuurlijk door een monster kaart of verzameling kaarten geregeld moeten worden, natuurlijk met een igp die het makelijke werk doet als er niet hard gwerkt hoeft te worden.

Dan hoef je alleen nog een OS in elkaar te schroeven dat het in en uit schakelen van een of meerdere borden ondersteunt en als het even kan transperant is voor Windows, Linux etc.. op die manier hoef je niet meteen alles aan te passen maar kun je gewoon door blijven werken en de OS'en pas aan passen als er voldoende vraag naar is om dit te doen.

Dat zou best wel eens een leuk idee kunnen zijn voor de huidige PC systemen, je kunt dan gewoon met een serie veel goedkopere en lichtere processors een heel systeem bouwen dat toch makelijk zo snel of sneller is dan de huidige top of the line systemen.
En hoeveel kost het schrijven van software voor OpenCL/CTM of Cuda dan?
Niets. De SDK's van alle drie de talen zijn vrij te verkrijgen en te ontwikkelen. Je moet je alleen de taal eigen maken, maar dat is eigenlijk altijd wel zo. Links: OpenCL | ATi Stream (voorheen CTM) | CUDA
Ik kan me zo voorstellen dat je als 3D designer met bijvoorbeeld 3ds max toch meer hebt aan meerdere cpu's dan aan meerdere GPU's.
Voor zover ik weet maken 3D modelling programma's gewoon gebruik van de DirectX en/of OpenGL API's, dus wordt de GPU sowieso gebruikt voor het weergeven. Het kan zijn dat jij in de war bent tussen het renderen van 3D objecten en het renderen van filmmateriaal. Voor filmmateriaal is het namelijk zo dat er erg vaak gebruik gemaakt wordt van kleine clusters die dedicated het encoderen voor zich nemen. Hierbij wordt dus erg vaak de CPU gebruikt, terwijl het eigenlijk veel sneller en compacter kan met een GPU. Zowel ATi als nVidia hebben programma's die je kunt downloaden zodat je dit over je graka al kunt doen. Ze heten AVIVO Video Encoder (ATi, voor HD4800 serie kaarten, maar oudere versies kunnen ook op X1000 serie kaarten dacht ik) en BadaBOOM (nVidia, kaarten vanaf de 8000 serie). Zelf in elkaar flansen kan natuurlijk ook, met behulp van bovenstaande SDK's.
Die Quadro en FireGL kaarten zijn qua hardware vrijwel identiek aan de gamer kaarten.
Er ook pogingen om een deel van het rekenwerk te verplaatsen naar de GPU, het lijkt toch de plek voor dit soort spul. Gelato, CUDA, ATI Stream technology zijn poging daartoe.
In de praktijk zitten er nogal wat haken en ogen aan. b.v. rekenprecisie is daar een van.. Het verschil tussen quadro's/firegl's zit 'm in de drivers ( Een applicatie als Rivatuner patcht de drivers, en forceert ze de kaart te herkennen als 'high-end' model. ) en wellicht de support die je bij problemen krijgt van de fabrikant of software leverancier.
Die drivers zijn geoptimaliseerd voor specifieke applicaties (Max/ Maya/ Softimage/ Bentley/ Catia/ SolidWorks etc.). Dit soort applicaties stelt andere eisen aan de 3d kaart qua precisie, polygon aantallen, etc dan dat games dat doen. (zie voor benchmarks b.v. Xbitlabs, Tomshardware, soms leggen ze er ook een gamerkaart naast ter vergelijk.)

[Reactie gewijzigd door Hamish op 2 maart 2009 16:37]

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*