Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties
Bron: Dial Electronics

Toen ik de titel ("8000km disk drive") van een artikel van Dial Electronics las, stond ik wel even vreemd te kijken. Onmogelijk, zou je denken. Na het verhaal doorgelezen te hebben bleek dat een Canadees bedrijf van plan is het optische kabelnetwerk te gaan gebruiken als harde schijf. De 8000 kilometer is hierbij naar verwachting de afstand tussen de twee verst gelegen punten van het netwerk:

Canadian internet company Canarie is planning to construct what it calls the world's largest disk drive -- more than 8000km in diameter. The drive will be constructed around wavelengths of light on Canarie's optical research network, CA*net 3.[break]
Op bovenstaande manier zal distributed computing zich nog verder kunnen ontwikkelen. Het grootste probleem was namelijk het delen van de enorme hoeveelheden data die nodig zijn bij complexe projecten zoals genenonderzoek. Als dit onderzoek zich zal gaan ontwikkelen als men hoopt, zullen de mogelijkheden dan ook een stuk uitgebreider worden:
[/break]Instead of having the computers send and receive data from each other-- which slows the collaborative effort down to the slowest computer or slowest network link -- the computers will simply read and write the data to the optical network as if it were one large, shared disk drive. Because the intrinsic carrying capacity of a multi-wavelength optical network like CA*net 3 is so large, it acts as a gigantic, nation-wide optical storage device.

Since all the participating computers will have ready access to all the data circulating on the network, their collective ability to solve problems quickly will be greatly enhanced. This concept has immediate applications in collaborative research fields such as genomic research with the recent public release of the entire human genome.

Met dank aan FoxMan voor het sturen van de link en impuls voor wat slimme inzichten betreffende dit artikel.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (45)

De signalen vliegen inderdaad door het netwerk heen en weer en "bouncen". Af en toe zal een optische processor eeen verkeerde bounce corrigeren. Dit gebeurt al in optical storage systems, echter tot nu toe kwamen ze volgens mij niet verder dan 6GB/s sustained transfer rate! :P ( op een opslag ruimte van 6MB :+ )

Dat de verste afstand in het netwerk 8000 km. is zegt NIETS over de opslag capaciteit. Het is immers een NETWERK waarbij je vertakkings graad beslissender is.(en ik neem aan dat de netwerk structuur geen ring achtige is, maar een stervormige of zelfs hierarchisch.)
Het is meer een keuze van de ontwikkelaars wat voor maximum access time ze willen en ze plaatsen zichzelf tussen geheugen en hardeschijf, omdat het verschil in factor astronomisch is. (5 ns. vs. 3.9 ms.)
Ze gebruiken netwerk techniek hiervoor.

Over packetloss en error correctie:
Als data over een optisch netwerk (voor opslag doeleinden) heen gaat wordt synchroon aan het data signaal een page-index meegstuurd, zodat data gelokaliseerd kan worden en indien nodig kan de page index (in hardschijf termen blocks) een ECC of een pointer naar de backup lokatie bevinden. Zie tekening:
__________________ data:
- - - - - - - - - - - pi:
-- --- - - -- ---- -- - - ---- - ECC:
P P P backuppointer( IP+ fileloc.)


Tevens is in dit soort gevallen uitval niet zo erg, omdat de inhoud van schijf meestal de productie van de dag bevat (bijvoorbeeld bij }:O ). Alleen belangrijke vindingen worden opgeslagen op persistente opslag systemen.(waar we zijn en de resultaten)
Ben ik de enige die het niet snapt? Hoe kun je gegevens OPSLAAN op een glasvezelnetwerk? Data heen sturen en oneindige laten bouncen ofzo?

* 786562 _Teun_
Helemaal duidelijk is het mij ook niet.. maar het komt er opneer dat je de data idd "oneindig" laat bouncen.. heen en weer over je 8000 KM, en aangezien je er meerdere golflengtes overheen pompt en de looptijd over die 8000 KM ook wel redelijk is kun je er inderdaad best wat data op kwijt..

Maar dit is ook maar een idee van een paar wetenschappers, ik kan me slecht voorstellen dat dit ooit in die vorm wordt geexploiteerd, er zijn wel goedkopere opties om iets op te slaan.

Feit is dat dit natuurlijk een goedkope mogelijkheid is om een hoop data tegelijk op een grote hoop nodes te verdelen, maar het lijkt mij geen betrouwbare opslagmethode.
* 786562 KMK

Kabels zijn voor transport.. het zijn geen transitoren...
De opslag zal denk ik nogal tegenvallen. Want 8000 kilometer is met de snelheid van licht nog steeds maar 0,075 seconde (heen en terug). Dit met een maximum snelheid van zo'n 2 TeraBit/seconde levert een opslag capaciteit van 150 GB met een random acces van 75milliseconden. Nou dan doen de nieuwste SCSI HD's het toch een stuk beter.
ik weet niet wat voor een rekensommetje je maakt, maar jij gaat uit van koper ofzo, met maar 1 lijn. Optische kabels echter kunnen meerdere kleuren aan wat resulteerd in meerdere 'lijnen'...
Dat maakt voor zijn berekening niet uit. De bandbreedte binnen een kleur is bepalend voor de afmeting van 1 zo'n schijf. Ik neem aan dat de data moet circuleren en dat als je het signaal wilt lezen het ook moet versterken. Hier kan dan ook nog weer een vertraging zitten. Je hoeft alleen niet heen en terug want het circuleerd dus alle data zou dan eens in de 0,0325 seconde voorbij komen. Nog steeds een trage toegangstijd maar wat een bandbreedte :) En voor de rest ben ik het eens met wat hier bovenstaat.

-Hoe backup je dit ooit, het lijkt op geheugen met een hoge toegangstijd, mischien op meerdere plaatsen alle data in ram houden? (hmm 150GB ram met eenbandbreedte van 2TeraBit/sec)
-Packet loss? weg data
-Repeater kappot? weg data
-Stroom uitval? weg data

En ga zo maar door, maar het is idd wel grappig als ze hier allemaal een oplossing voor vinden :)
Probeer maar een SCSI schijf te vinden met een throughput van 150 GB in 75 ms!

Als je hier een paar vette vector processors achter zet, kan je iedere 75 ms een run doen over je hele dataset!

Het lijkt mij wel tof als ze daadwerkelijk zo'n systeem in productie nemen.
Dit is op zich ook bijzonder handig voor large volume datawarehousing en datatracking etc... (denk dat de fbi met hun carnivore hier ook wel interesse in hebben :) )
Met die hoge snelheden (Harddisksnelheid voor erg veel users) )over ik vraag me dus ook af hoe ze dit willen gaan checken met Echelon ..... of hebben ze hier ook al een tap op. Een optische kabel is al moeilijker aftakken laat staan iets vinden op alle data te evalueren.
Nog een paar weken dan hoor je hier niemand meer over, totaal zinloos om hier aan te beginnen, veel te duur en veel te moeilijk om te maken.
Er is wel een grote server die alles op z'n HD heeft staan, maar het is er maar 1 en de snelheid van zijn HD is niet meer beperkend aangezien de server alleen de dataloss hoeft te compenseren wat hooguit enkele procenten zal zijn.
Wat ik me meer afvraag is hoevel zo'n kabel nu echt kan opvangen. Optisch (=snelheid van licht) duurt het ongeveer 0,1s om 8000km te overbruggen. Stel dat je een 1000Gbit kabel hebt dan kun je er 1000/2*0,1=50 Gbit laten bouncen wat op ongeveer 7,5 Gbyte neerkomt....niet echt veel
Erhm... erg grappig, maar wat willen ze doen als er iets mis gaat? 'Packetloss' lijkt me een vrij groot probleem...

Bovendien kan je je afvragen of het wel veilig is, want als je er gevoelige informatie instopt, en die op een netwerk van 8000km laat circuleren, dan is 't onmogelijk om te controleren of er iemand aan de data zit.

Bovendien vraag ik me toch af wat de capaciteit van dat ding is, want voor een miljoen kan je al heel wat terabytes aan echte, fysieke, 'veilige' schijven kopen.
Ik denk dat de toegang naar die "veilige schijven" dan minder snel is dan dat je als zeg maar een soort "terminal" op dat netwerk zit. Als ik het goed lees is het meer gericht voor een soort van distributed computing.. of ThinClient -achtig iets
, dan is 't onmogelijk om te controleren of er iemand aan de data zit.

is niet helemaal waar, want in een optisch netwerk kan je juist geen data "aftappen" zonder dat opgemerkt wordt, ze kunnen zelf tot op 1meter nauwkeurig zien dat er ergens iets niet klopt..
Bedoel je niet de meest gehate site van Nederland?! Rot toch op man vieze spammert! Denk je nou echt dat je een professionele site bij GeoCities kunt hosten?! Denk je nu echt dat zo'n lange URL op een gemiddelde T.V. past?!! Lul toch niet man... Gatver, ... (*flame* zal ik achterwege laten tis duidelijk denk ik)
Computerleken, wat moet je er mee?!!!
Er gaat NU een mailtje naar geocities. :(

Mensen die willen klagen over deze nitwit kunnen dat hier doen:
http://geocities.yahoo.com/main/contact/alert _form.h tml
Ik heb al gestemd, weg met die $%#@&@*(#!!!
En bedankt voor de tip.
Dat zouden meer mensen moeten doen!
Done :(
Yahoo! GeoCities Content Violation Reporting Form Confirmation
Is wel leuk zo'n techniekje maar waar backuppen
ze alle data dan ? :?

Wat gebeurt er als het netwerk hapert.
Zeker met zulke lange glasvezelkabels kan het wel eens gebeuren dat er ergens langs de kabel iemand met een graafmachine etc een foutje maakt. Is alle data dan verdwenen?
Lijkt me wel. Kijk, je bedenkt zo'n systeem, dan zullen ze heus wel naged8 hebben over zoiets lulligs als een graafmachine. Denk ik :) Maar goed, het lijkt me wel interessant om die ontwikkeling te volgen!
Misschien passen ze wel een soort van RAID toe.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True