Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 24 reacties
Bron: WebWereld

Het 'Grid Computing'-principe waar we kort geleden over schreven, werpt z'n vruchten af. Voor 53 miljoen dollar (ruim 130 miljoen gulden) heeft het Amerikaanse National Science Board ge´nvesteerd in een computerpark. Meer dan 1000 computers van IBM zullen onder de naam TeraGrid berekeningen uit gaan voeren, met processoren van Intel en netwerkverbindingen van Qwest. Over ongeveer een jaar moet het complete 'grid' klaar zijn. Zoals de naam van de organisatie al wel deed vermoeden, zal de reuzecomputer gebruikt worden voor wetenschappelijk onderzoek. Te denken is hierbij aan het voorspellen van aardbevingen of onderzoek naar genetica, zo is bij WebWereld te lezen:

IBM logoTeraGrid moet in staat zijn 13,6 biljoen (13.600 miljard) berekeningen per seconde kunnen verrichten, waarmee het een van de tien snelste computers ter wereld is. Het systeem zal worden ingezet voor uiteenlopende wetenschappelijke velden, zoals onderzoek naar aardbevingen en genetica.

IBM krijgt een groot aandeel in de bouw van het netwerk. Big Blue zal meer dan 1000 IBM eServers leveren en deze installeren, genoeg voor 600 terabytes aan opslag. Deze worden voorzien van Itanium-processors van Intel. Qwest is verantwoordelijk voor de verbindingen tussen de serverclusters.
Moderatie-faq Wijzig weergave

Reacties (24)

Het idee van grid computing is erg slim (lagere kosten). Maar de combinatie tussen distributed computing en grid computing zou een heleboel extra rekenkracht opleveren. en het heeft twee voordelen:
- betrouwbaarhed van grid computing
- capaciteit van distributed computing
National Science Board :
1000+ computers = 130 miljoen gulden

Dutch Power Cows :
5000+ computers = 5 x 130 miljoen gulden?
(Een dikke ton per lid !)
Ik geloof dat de kosten van het uitrollen, uitdenken, en alle projectmatige kosten eromheen een beetje vergeten worden. |:(
Het budget wordt niet puur aan hardware uitgegeven. Ik denk dat een aanzienlijk deel ook wel naar het regel- en denkwerk eromheen gaat. En iedereen weet dat nerds niet goedkoop zijn :9

Anyway, een tweak op een dergelijke grid met een boost van 1% zou al behoorlijk wat rekenkracht opleveren. Vakantiekampje voor tweakers? Recordpoging meeste compu's tweaken? :+
De tijd die je nodig hebt om die pc's te tweaken kost bijna meer dan de performance die je er mee zou kunnen winnen.
Dit soort centra werken gewoon 24/7 door, ook in Nederland staan de beetje grote rekencentra continu te rekenen, dan heb je geen tijd om even te tweaken.
Dat is nou een systeem waar ik een burn-in test op wil uitvoeren met een distributed.net client }:O

Jammer dat er nog niet van zulke systemen zijn die met AMD processoren zijn uitgerust (althans, ik ken er geen een :? ).. .lijkt me toch weleens leuk hoe die in zulke extravagante SMP-omgevingen functioneren.
Zo'n cluster is iets anders dan SMP.
Jammer dat er nog niet van zulke systemen zijn die met AMD processoren zijn uitgerust
http://www.tweakers.net/nieuws/16153
:? Fl. 130.000.000 / 1000 servers = 130.000 per server !
oke, kort door de bocht.... Fl.100.000 per server + Fl.30.000 'verbindingskosten'
Die zijn niet goed wijs. Is dat Genesis cluster net zo duur of zo slecht ofzo?!?
Duur :?

Koopje 100.000 per node :)

Kijk hier maar eens :
http://www-1.ibm.com/servers/eserver/pseries/

Een S80 begint bij 240.000 DOLLAR :*)

Dus is dit grid een koopje, en in een vorige draad werd al eens verteld hoeveel miljoen ze er in gingen stoppen, na dat wil je vast niet weten :)
Ik heb in 1999 een tijdje mogen werken op de eerste S80 in europa, in Stockholm en inderdaad gaat het niet alleen om processorsnelheid. Met 6 processors presteerde dat ding heel wat meer dan 100 Thunderbird PC'tjes naast elkaar.
Peperduur??? Dat geld halen ze er weer makelijk uit door wetenschapelijk onderzoek en tja geld hebben ze toch :) Alleen ik begrijp zelf niet waarom ze voor Intel gekozen hebben en niet voor AMD.
Wat heeft AMD hun te beiden dan?? een doodgewone proc ja!
Intel heeft hun de Itanium te bieden! Waarom denk je dat een zo'n Itanium proc al bijna 10.000 piek kost??

Kortom: het gaat hier niet om gewone proc, like AMD's, maar om high-tech crap, like itanium :)
Wat denk je? Als ÚÚn AMD processor al verschrikkelijk heet wordt, wat moet er dan van een gebouw worden waar zo'n 1000 AMD-systemen bij elkaar staan? Ben bang dat dit bouwtechnisch niet mogelijk is :)

edit:
doh, smiley verkeerd
Nog een keer, alle high end proc's, en zeer zeker de Itanium, hebben een zeer hoge dissipatie, maw ze gebruiken veel energie en worden erg warm.
P4 1.7GHz gebruikt 74W, T-Bird 1.4 76W, en Itanium had problemen om boven de 800MHz te komen omdat hij meer dan 120W verstookte.

Oh ja, het zal alleen maar erger worden vanwege de hogere lekstromen als men naar kleinere processen gaat (0.13um, 0.10um, 0.07um etc).
Vanwege de hoge stromen zijn bij de T-bird, P4, Itanium etc van de 400+ pinnen meer dan de helft voor de Vproc en gnd.

Het vermogen gaat omhoog, de spanning omlaag, conclusie: de stroom (stroomxspanning=vermogen) gaat extra omhoog, en er is nou eenmaal een maximaal toelaatbare stroom per pin (bondwire).
Sja omdat een AMD nou eenmaal een driewieler is bij een Itanium. Itanium zijn high-end processors met een hele nieuwe architectuur. Of dacht je dat ze allemaal Asus moederborden gingen halen met wat PCI en een leuk AMR slot ;)
Kijk als je dit wilt realiseren heb je meer nodig dan een snelle processor. Je hebt er een snelle architectuur voor nodig die bovendien flexibel is en stabiel. Met een AMD proc kan dat niet. Trouwens ok niet met een Pentium3 of 4 ofzo...
kraemoth, ik denk niet dat warmteontwikkeling echt een probleem is in een supergekoeld geisoleerd serverhok, ik neem toch wel aan dat het daar niet snel boven 0 komt :)
Een 'supergekoeld' serverhok komt wel degelijk boven nul. De temperatuur ligt over het algemeen rond de 20 graden, er moeten ook nog mensen komen, toch?
Ik weet dit overigens uit enige ervaring, aangezien ik voor mijn werk regelmatig in rekencentra mag ronddwalen.
Ik bedoel ook niet heel het hok.

Ik bedoelde dus de processor enzow :P
Kortom: het gaat hier niet om gewone proc, like AMD's, maar om high-tech crap, like itanium
.....64 bits processoren noemen we dat , op basis van een parallel processing architectuur....noem het maar crap....en hi-tech?...een prototype quantumcomputer in Engeland...dat vind ik pas hi-tech en parallel processing...
mzl..
zijn er ook fotos van?
lijkt me wel gaaf om te zien.

hebben de klanten ook fysiek toeging tot de grid? of word de software of dingen die gerenderd moeten worden afgeleverd op cd/hdd ofzo?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True