Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 25 reacties
Bron: Extended64, submitter: MPAnnihilator

Iwill gaat komende week op de Computex-beurs in Taiwan een Opteron-server met zestien cores demonstreren. De H8502 maakt gebruik van acht 2,2GHz dual-core Opteron 875-chips en is in totaal voorzien van 128GB RAM (vier 4GB-reepjes per socket). Het 'moederbord' van de server is opgebouwd uit zes aparte printplaten: een systeembord, I/O-bord en vier aparte processor/geheugenborden. De Opterons in de server worden via hun eigen HyperTransport-controllers aan elkaar geknoopt, maar voor de verbinding met het I/O-bord - waar zaken als SATA en USB 2.0 op zitten - wordt HTX gebruikt. Extended64 heeft een aantal screenshots online gezet die zijn gemaakt op deze indrukwekkende machine. Naast enkele zaken als een overbevolkte Windows Task Manager zijn er ook een paar benchmarks op uitgevoerd, namelijk SiSoft Sandra en ScienceMark. Hoewel dit vrij nietszeggende tests zijn is het voor de ware nerd wellicht leuk om de extreme verschillen te zien met de 'simpele' 2-core en 4-core systemen.

Iwill 8-way Opteron-server
Iwill 16-core Opteron server screenshot
Moderatie-faq Wijzig weergave

Reacties (25)

Beetje jammer dat er geen plaatje zo van te vinden is op de Tyan site. MAar ik vind de oplossing die Tyan voor 8 cpu's (dus met dual core dezelfde opstelling) iets mooier doet. Daar zijn het gewoon twee SWTX formaat borden die stapelen, en als zodanig meen ik zelf in een "reguliere" 4U formaat case passen. Dit gedoe hier met twee borden verschoven *naast* elkaar is natuurlijk aales behalve functioneel.
Het is ook maar een eerste demonstratie, zo te zien is dit nog niet echt klaar voor productie.
Dat hangt er natuurlijk ook een beetje vanaf of dit schaalt. Als men bv. als 2e print ook een bord met bv. ruimte voor 8 kaarten (dus 32 CPU's) kan gebruiken, dan wordt dit al interessanter.
Kan er iemand Iwill even mailen:
http://www.tweakers.net/nieuws/37490

kunnen ze hem ook even onder load testen :o
Als je deze constructie ziet, wint Iwill niet echt de prijs voor de hoogste rekendichtheid.
Is dit nou echt interessant tegenover een cluster van een paar 4-way machines met een beetje subtielere layout?
Niet alle software is eenvoudig over een cluster te verdelen.
als je het hebt over rekenen hebt, kun je beter niet kiezen voor een x86/x86-64 architectuur.

ik schat zo in dat deze 16 core amd machine maximaal zo'n 16x3,2 ~= 50 GFLOPS haalt.

de CELL processor van ibm haalt in het prototype 256 GFLOPS. zon 5x meer performance dus (met 1 CELL chip versus 8 amd chips!). ibm is bezig met een CELL gebaseerde blade server.

neem in ogenschouw het silicon oppervlak van de 8 dual core opterons ( 8 x 200 mm^2 = 1600 mm^2@90nm) vs CELL (1 x 221 mm^2@90nm).

voor gelijke performance zal amd 5x die chip oppervlakte nodig hebben : 8000 mm^2 vs 221 mm^2 voor de CELL oplossing. daarbij komt nog de interconnect kosten die per FLOP voor de amd oplossing veel hoger liggen.

de energie kosten van een opteron gebaseerd cluster zullen ook veel hoger zijn dan een IBM CELL cluster simpelweg omdat amd _veel_ meer transistoren nodig heeft om een bepaalde FLOPS score te halen dan CELL.

opteron is een leuke fileserver/database processor maar voor rekenwerk is ie minder geschikt. misschien dat de K10 verbetering geeft. dit iwill bord lijkt me dan ook niet juist geproportioneerd.

edit@sphere

linux draait al op CELL, ibm is bezig met een CELL blade server. ik verwacht in 2006 CELL gebaseerde rekenoplossingen die op commercieele basis verkrijgbaar zijn. floating point berekeningen zijn juist de kern van computing applicaties.
De cell zie je de komende tijd nog echt niet in gewone servers. Serverprocessoren van tegenwoordig zijn nog steeds multi-purpose. Ook al zijn ze geoptimaliseerd voor servertaken. Voor cell processoren moet totaal nieuwe software geschreven worden. En ze zijn alleen maar goed in floatingpoint berekeningen. Net zoals een huidige grafische kaart veel meer berekeningen kan uitvoeren dan de cpu. Dat wil nog niet zeggen dat de grafische kaart net zo snel zou zijn mocht hij de taken van een CPU overnemen
Hou hierbij ook rekening met het feit dat die 256GFlops een theiretische snelheid is die je nooit kan halen.

Bovendien is het zeer moeilijk software optimaal van de cell gebruik te laten maken..
De Cell had toch niet je vereiste precisie met fpu berekeningen?
En Cell's Integer berekeningen zijn lang niet zo snel als een dual AMD processor.
Die CELL haalt alleen die 250 GFLOPS bij eindeloos, enorm geoptimaliseerde software. De hardware in de Cell is speciaal gericht op bepaalde berekeningen.
Als je een server op een Cell zou draaien, met niet-voorspelbare berekeningen en andere algemene handelingen zou die de 250GFLOPS bij lange na niet halen.
Gek Iwill had al een veel compactere 8way oplossing:
http://www.iwill.net/product_2.asp?p_id=90&sp=Y

Hier zouden ze enkel de 250 door de 875 hoeven te vervangen.
licht het aan mij of is dit gewoon overkill.

als ik nou bedenk dat die Duelcore opterons 2keer zo duur zijn en dan de 8XX series ook nog dan zie ik meer heil in een Blade met 4Duelcore opterons en dan in een 2U rack of 1U en dan er een paar boven elkaar stacken want dit past niet eens in een kast :S is dit wel met een ISO standart :S
aan de afbeeldingen te zien lijkt het me dat dit wel ineen 4U behuizing moet passen hoor.
En een blade met 4x dualcore in een 1U zie ik niet meteen zitten. In een 2U wel. Maar dan zit je met evenveel ruimte en minder koelmogelijkheden om 8 dualcore opterons te huisvesten.
ze demonstreren, ik denk niet dat het ook echt op een markt is gericht, het is enkel alleen om te laten zien hoe ver men is. Op basis van deze borden zullen de echte commerciele borden gebouwd worden..
De procs staan steeds naar elkaar toe gericht. Dat laat weinig ruimte over voor koellichamen. Anderzijds kun je nu wel een stel zware fans door de twee processortunnels laten blazen. Het blijft een rar design. Zeker met het IO bord op die plaats.
Je kan daar in principe een koellichaam tussen schroeven dat gedragen wordt door de 2 cpu borden.
Zo kan je een erg groot koellichaam plaatsen zonder dat de torque op de borden enorm hoog wordt.
Hoe Iwill het gaat doen weet ik niet. Maar dat lijkt me in ieder geval een haalbare oplossing.
Vind de titel een beetje fout, want de server van Iwill is meer een 8-way dual core.
Dus ... 16 cores.
En nog zeurt Photoshop als je je Pagefile uit hebt staan...
is het al opgevallen dat de koelers naar elkaar gaan toe blaazen? want als je ze zo ziet staan blazen ze de warmte naar elkaar toe, recht tegenover elkaar :s
Even de link gevolgd?
Dan zou je zien dat het dus is zoals ik hierboven al suggereerde : de koellichamen zitten tussen de 2 kaarten en een ventilator blaast ertussen. De kaarten vormen als het ware een tunnel waar de lucht doorheen gaat. Niks naar mekaar blazen dus. Het is echter wel zo dat de cpu's op dezelfde kaart in lijn staan wat betreft koeling. Er gaat dus een behoorlijke luchtstroom nodig zijn om te zorgen dat de lucht nog redelijk koel is op het moment dat de 2de cpu bereikt wordt. Maar door gebruik te maken van een 4u oplossing is het gebruik van 120mm ventilatoren een mogelijkheid. Wat dus een behoorlijke luchtstroom kan garanderen.
Wat dan weer wel leuk is dat je 16 CPU's ziet die niets staan te doen.

Dat is echt een geile Task Manager :9 8-)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True