Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 17 reacties
Bron: EE Times, submitter: Femme

Sun heeft plannen bekend gemaakt om Infiniband toe te passen voor server-systemen, zo meldt de EE Times. Laat in 2003 kunnen de eerste blades en database-servers die binnen de N1 strategie vallen worden gekoppeld middels Infiniband. Standaard 10Gbit (4x) links en door Sun zelf ontwikkelde 30Gbit (12x, 3,5GB/s) links zullen worden gebruikt om verschillende systemen naadloos aan elkaar te koppelen. Goed nieuws voor de standaard, aangezien Intel en IBM hun plannen op dit gebied al hebben gematigd voor het goed en wel werd ingezet. Inifiband biedt een lagere latency dan ethernet en kan bovendien gebruikt worden om geheugen te delen. Er is wel een standaard in ontwikkeling om dat laatste ook via ethernet te kunnen, maar die kan nog wel twee jaar op zich laten wachten en wordt bovendien een stuk complexer dan Infiniband:

InfiniBand logo At Sun Network, the company publicly unveiled its N1 initiative, an multiyear effort to let users manage data centers without needing to know the particulars of the underlying systems. IBM and Hewlett-Packard Co. have promoted similar concepts under initiatives called autonomic computing and the utility data center, respectively. "N1 will let us create the computer built out of the network. Servers, switches and storage devices will become like components in a data center system," said MacKay.

Sun's goal is to use N1 to increase server utilization from an average of 15 percent today to 80 percent in the future, while increasing the number of servers an individual administrator could monitor from about 30 today to more than 500. The pieces of the N1 software will arrive in stages over the next three years, MacKay said.
Moderatie-faq Wijzig weergave

Reacties (17)

Theoretisch:
Als je over een aantal jaren geheugen/processortijd/etc. kunt delen over een netwerk (infiniband of anders) zonder noemenswaardig performance verlies: hoe duiden we dan aan wat voor processing power we hebben?

Als voorbeeld: ik heb een P5 6GHz (512MB) een dual Athlon MP 4,5GHz (2GB) en een XP 4500+ (512MB) aan elkaar gekoppeld via infiniband. Ik zit achter de XP, maar deze gebruikt ook de resources van de 2 andere pc's (3 andere processors) dan wil je toch graag op de een of andere manier kunnen omschrijven hoe snel je pc is?

Tellen we dan de ruwe GHz bij elkaar op (19,5GHz) of toch maar iets met MFlops?

Op die manier kun je in elk geval ook als thuisgebruiker optimaal gebruik maken van je processing power. Je servertje levert dan wat cpu cycles t.b.v. je UT 2005 als hij het niet zo druk heeft :)

* 786562 Mecallie
Maar of het ooit zover komt :P
Optellen van Ghz gaat hier niet op...
Dat is net zoals het optellen van de PK's van een boot met 2 motoren.
Pas echt interessant wordt het op het moment dat dit over Internet mogelijk is ( :o). Stel je nou eens voor dat je met teams als de DPC als 'een PC samen kan werken, dan ben je efficienter bezig gezien het werkt veel beter over de PC's verdeeld wordt dan nu, daarbij kan je als jouw PC het druk heeft andermans resources gebruiken om toch lekker te kunnen gamen. Wel is het idee van dergelijke zaken over grotere schaal (Internet, in de verre, verre toekomst) vlink fraudegevoelig denk ik.
Internet zo snel klinkt leuk, maar 1 gigabit is al extreme overkill voor één huis (50 digitale tv-kanalen, 50 digitale radiozenders en 10 high-res video-phone gesprekken tegelijk, en ondertussen nog makkelijk een FDM-ROM image van 120GB binnen een uur downloaden). Laat staan 30 keer zo veel bandbreedte :+. Ik denk niet dat het de komende eeuwen weinig nut heeft om het net zo snel te maken, en zelfs als het punt bereikt wordt dat netwerken even snel zijn als de interne paden van een PC nu, dan zijn de interne paden van de PC's in dat tijdperk natuurlijk ook vele vele malen sneller, waardoor distributed computing nog steeds te maken krijgt met hetzelfde soort beperkingen als vandaag.
Die bandbreedte ga je wel gebruiken wanneer Meerdere cpu's verdeeld over meer machines 1 grote job gaan draaien. Het RAM geheugen van meerdere machines moet gelocked worden en alle cpu's moeten daarvan op de hoogte worden gebracht. Als 1 cpu een thread start die data wijzigt, moeten alle andere cpu's daarvan op de hoogte worden gebracht. over het netwerk.

Ik verwacht dat SUN ongeveer dezelfde techniek gaat toepassen als die ze nu in de Sun E 15 K gebruiken, een crossbar techniek die resource sharing mogelijk maakt met een immense snelheid.

Het verlies in performance wanneer een job over het 'netwerk van computers' draait op een E 15k is ongeveer 10 procent. dus in plaats van lineaire groei wordt het iets afgevlakt.

Om dat vol te houden via een echt netwerk in plaats van speciale crossbar hardware, heb je echt onwijs veel bandbreedte nodig.
Ha, krijgt de term upgraden ineens een hele andere betekenis. :)
Maakt b.v. dan niet uit in welke machine je die extra Ram-module stopt, of die extra harddisk.
En je oude compu kan je dan gewoon houden om extra mee te laten werken.

Hoe zit het dan met grafische power?
In een tweede compu ook een geforce4 TI stoppen, zullen de framerates dan ook verdubbelen? :P

Lijkt me wel erg geinig.

Trouwens, ook nooit meer problemen met te weinig vrije PCI-slots. Die ouwe modem in die compu, die TV-kaart in die compu, soundblaster in die, enz. enz.
vraagje, beetje offtopic maybe?
Maar voor de rest heb ik al zin in UT2005! :+
'Sun's goal is to use N1 to increase server utilization from an average of 15 percent today to 80 percent in the future...'

Super! Dit infiniband klinkt als de ideale oplossing voor clustering. De bottleneck zit hem nu vaak in de bandwith tussen de processors en daardoor werken clusters in het bijzonder lekker op taken die vrij simpel 'op te breken' zijn... Met dit Infiniband kun je ook taken die minder simpel 'op te breken' zijn laten doorrekenen, lijkt me zo.

-hoe duiden we dan aan wat voor processing power we hebben?

Ik denk dat je altijd wel in een soort VM (virtual machine) zal zitten, dus je kan écht wel opvragen hoeveel geheugen/cpu-power etc. je toegewezen hebt gekregen op een bepaald moment.

Trouwens, dit is natuurlijk ook super voor in bedrijfsnetwerken in de toekomst, tel al die processingpower eens op die er in een gemiddeld (groot) kantoorgebouw op alle desks idle staat te zijn? Leuke renderfarm, haha ;-)
mocht dit voor de thuisgebruiker beschikbaar komen over een x-aantal jaar zou je dan ook processor cycles en geheugen kunnen gaan delen op een mannier waarop het netweerk gaat functioneren als een grote supercomputer die multitasking is??

Dat zou wel mooi zijn dan heb je het niet meer over de snelheid van een PC maar over gem. bandbreedte per gebruiker (GBPG)!
Daarvoor hoeft het nog niet eens voor de thuisgebruiker beschikbaar te komen :?. Dit kan natuurlijk door bedrijven ook gebruikt worden, en hier is het natuurlijk veel denkelijker dat dit ook gewenst is.
Voorlopig denk ik echter dat voor dergelijke bundeling van kracht mobo's met 2 of 4 CPU's en de nieuwere soorten geheugen ook wel toereikend zijn, ik kan weinig applicaties verzinnen die met 2x4 CPU's zouden moeten werken, daarbij is het bundelen van kracht op kleinere schaal (lees: met 1 mobo) ook nog geldbesparend.

Men is btw al bezig met het op 'een computer douwen van gebundelde krachten, denk aan de quad hammer mobo's met 20 geheugen banken. Bedenk is een leuk programmatje da aan 4 Hammer's en 20 gig geheugen niet genoeg kracht tot de beschikking heeft.
Bedenk is een leuk programmatje da aan 4 Hammer's en 20 gig geheugen niet genoeg kracht tot de beschikking heeft.
Uhh...windows :+
Dat combineren tot supercomputer wordt al een hele tijd gedaan door vroeger CRAY en tegenwoordig SGI met de CRAYlink. In machines als de TERAS (http://www.sara.nl/hpc.ww...n/architecture/index.html) bijvoorbeeld wordt dit toegepast.

Maar om dit nou voor de thuisgebruiker neer te zetten... voorlopig niet denk ik :)
hmmz mensen zijn hier niet bekend met beowulf clusters enzo zo te merken , dit is wel een leuke manier alhoewel het met scsi III ook wel aardig gaat op een cluster :D
??? scsi-3 is 160mbytes/sec en over IP over SCSI kan ik verdomd weinig over vinden via Google... (ik denk ook dat het verschil te klein is met gigabit ethernet)

Dit Infiniband is 30gigabit, een factor 20 t.o.v. SCSI-3...

dus 'dit is wel een leuke manier' ???
leuke manier als je weinig geld hebt en toch wat bandbreedte wil hebben + een leuk experiment om het aan de praat te krijgen, op de beowulf site is er trouwens wel info over te krijgen d8 ik
Is er ook al iets over prijzen bekend? Zijn denk ik wel servers die voor grote bedrijven en universiteiten bedoelt zijn. Thuis gebruikers zullen het nog een tijdje met ethernet moeten doen.

500 server's monitoren... ai, als er dan wat mis gaat heb je dan ook direct een groot probleem... want er blijven dat 499 servers over die niet bewaakt worden...
Dit is uiteraard niet voor thuisdoeleinden gebruikt, meer voor servertoepassingen, en dan met name waarbij er veel dataverkeer tussen de verschillende processoren plaats moet vinden bij het rekenen.

Voor thuisgebruik is zoiets niet echt interessant, 100Mbit ethernet is nu de standaard, en mischien gaan we in de komende 4 jaar richting de 1000Mbit. De latency is niet echt een probleem in thuissituaties(gamen ect), pings van boven de 10 op je lokale netwerkje heb je eigenlijk nooit

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True