Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 110 reacties

Onderzoekers van de TU/e hebben een verklaring gevonden voor een methode om het beschrijven van harddisks met lasers te versnellen. De techniek, die al door diverse fabrikanten wordt onderzocht, kan nu verder verbeterd worden.

Door magnetische domeinen op een harde schijf met korte laserpulsen te verhitten, kunnen kleinere gebieden met een hogere veldsterkte in kortere tijd beschreven worden. Deze techniek, die door onder meer TDK werd ontwikkeld, werd echter nog niet goed begrepen. Onderzoekers van de Technische Universiteit Eindhoven hebben onder leiding van natuurkundeprofessor Bert Koopmans nu een theorie opgesteld die het sneller schrijven van data op harde schijven met hulp van lasers verklaart. De onderzoekers van de TU/e hebben de verklaring opgesteld in samenwerking met wetenschappers van het Max-Planck-Institut in Stuttgart en de Technische Universität Kaiserslautern.

Met hun theorie kan worden uitgelegd waarom de schakelsnelheid, oftewel de snelheid waarmee elektronenspin kan worden overgedragen, tussen verschillende materialen verschilt en wat de grenzen zijn. Bovendien laat de theorie zien hoe de intensiteit van het laser-licht gevarieerd kan worden om de snelheid van de spinoverdracht te manipuleren. Volgens de onderzoekers kan een magnetisch domein met behulp van een laserpuls binnen 100 femtoseconde gedemagnetiseerd worden.

In de toekomst zou de theorie gebruikt kunnen worden om data zelfs zonder hulp van een magneetveld weg te schrijven. Alleen het gebruik van circulair gepolariseerd laserlicht zou voldoende kunnen zijn om de spin van materialen te beïnvloeden. Het onderzoek is op maandag 14 december in het vakblad Nature Materials gepubliceerd.

Harde schijf
Moderatie-faq Wijzig weergave

Reacties (110)

Waarom maken ze niet een harde schijf waar twee van die leeskoppen op zitten, dus twee van die armpjes..
Het is nogal lastig te om dat in een 3.5" doosje te stoppen, je platters worden dan zo klein dat het geen nut meer heeft om er 2 armen met koppen op te zetten.

Per arm (met koppen) heb je een actuator nodig (Magneten die de arm bewegen), die al bijna 1/3 van de behuizing vult.

[Reactie gewijzigd door donny007 op 15 december 2009 13:59]

Als ik het me goed herinner, zijn er wel cd(r) spelers geweest die dat hadden, natuurlijk niet helemaal te vergelijken, maar toch. Destijds was dat goed voor topprestaties. Als het echt een grote winst op zou leveren en realistisch zou zijn, zouden ze hiervoor wel een 5.25" HDD van maken, of een kleinere disk nemen, of....

Natuurlijk maakt't het geheel ook 2x zo kwetsbaar.
Per platter bedoel je? Want HD's met meerdere platters hebben dat al lang.

En op een enkele platter hebben ze denk ik wel geprobeerd, maar dat werkt gewoon niet ivm synchronisatie en dergelijke. De data moet wel allemaal over n verbinding enzo, en de armen zullen zodanig bestuurd moeten worden dat ze de juiste data opzoeken.

Lijkt me heel lastig om dat werkend te krijgen.
Hij bedoelt een drive met twee armen en actuators. Bij een drive met meerdere platters wordt er maar n leeskop tegelijkertijd gebruikt omdat er geen meerdere sporen tegelijkertijd gevolgd kunnen worden.
Waarom ophouden bij 2? Ik vind dit zelf heel interessante techniek, en volg dit bedrijf dan ook op de voet: http://www.dataslide.com/technology.html
IDD Ik wacht ook op deze schijven.

Ik hoop dat ze idd in 2011 op de markt moeten komen.

Dit belooft toch veel meer dan een SSD.

Ik volg het ook op de voet.
Haha, is een simpele gedachte, maar ik heb daar ook wel eens over nagedacht..
Ik dacht meer aan 1 hele grote leeskop, zodat er niet meer gezocht hoeft te worden,oid..
Maar hier zullen ze bij R&D ook wel over nagedacht hebben..
Die zijn gemaakt, in het verleden. Het bleek dat de meerprijs van een dergelijke drive dusdanig hoog was dat een RAID-0 array met twee disks, en dus ook twee leeskoppen en twee platters aantrekkelijker was. Dan kun je namelijk standaard producten gebruiken, en dat geeft een enorm schaalvoordeel.
Tom's Hardware heeft daar een leuk artikeltje over: http://www.tomshardware.c...e-hdd-harddrive,8279.html .

Het is veel duurder om een drive met twee leeskoppen te maken, er is geen ruimte voor in 3,5 inch drive dus zullen de platters kleiner moeten wat ten koste gaat van de capaciteit en de drive zou meer geluid maken en energie verbruiken. Aangezien harde schijven tegenwoordig vooral price/capaciteit en energieverbruik worden verkocht zou heeft een ontwerp met meerdere leeskoppen geen zin. Wil je toch meer leeskoppen dan kun je gewoon standaard harde schijven in raid zetten. Verder is er nog de concurrentie van ssd's. Een harde schijf kan nooit concurreren met de responstijden van een ssd als er veel random I/O plaatsvindt, of je er nou n of twee leeskoppen op zet.

De fabrikanten kunnen zich beter richten op het verhogen van de gegevensdichtheid. Harde schijven zullen nog lang gebruikt worden voor massa-opslag. Het gebruik van ssd's zal voorlopig beperkt zijn tot mobiele apparaten, bootdrives en als cachinglaag.
Zal mij benieuwen hoeveel sneller de hdd's zullen worden hierdoor
Het schrijven zelf zal niet sneller worden. Echter, doordat je makkelijker kunt schrijven, kun je harder magnetisch materiaal gebruiken, en daarmee kleinere bits maken. Kleine bits betekent een hogere datadichtheid, en dat zal bij gelijke rotatie snelheid de sequentiele transferrate verhogen.

Deze nieuwe techniek zorgt er voor dat de constante verhoging van de datadichtheid zoals we die al tientallen jaren kennen, nog weer een tijdje langer door blijft gaan.
Onderzoekers van de TU/e hebben een verklaring gevonden voor een methode om het beschrijven van harddisks met lasers te versnellen.
Artikel wel gelezen, of n van de eerdere artikelen over hetzelfde onderwerp. Het gaat wel degelijk schrijven, om dit dan ook daadwerkelijk te realisren kan overgestapt worden naar een hogere rotatiesnelheid.

Tevens is er meer voor nodig om over te gaan naar kleinere "bits", veel meer als alleen ander materiaal. Ook de printkoppen moeten geschikt gemaakt worden, de preciesie waarmee de printkoppen geplaatst worden, etc.

Deze technologie zou heel mooi gecombineerd kunnen worden met die van dataslide, waarbij je geen roterende schijf meer hebt, maar een rechthoekige plaat met die enkele milimeters in 2 dimensies verplaatst kan worden en duizenden kleine lees/schrijfkoppen.

[Reactie gewijzigd door knirfie244 op 15 december 2009 14:38]

[...]

Tevens is er meer voor nodig om over te gaan naar kleinere "bits", veel meer als alleen ander materiaal. Ook de printkoppen moeten geschikt gemaakt worden, de preciesie waarmee de printkoppen geplaatst worden, etc.
Printkoppen? :?
Bedoel je de lees/schrijfkoppen?
Die zeker. Maar voor dit soort dichtheden zijn Patterned Media noodzakelijk, en die kun je in theorie "printen". Die patterned media zijn nog niet doorgebroken, dus wat in de praktijk handig is weten we nog niet.
Vroeger was de harddisk kop bepalend voor de grootte van de bit. Maar dat is al lang niet meer het geval. Plaatsing is niet de bottleneck. Tegenwoordig is het probleem dat een bit die dusdanig klein is, niet meer thermisch stabiel is, en daardoor na verloop van tijd om kan klappen.

Dat mag uiteraard niet gebeuren, en daarom is men met allerlei technieken bezig, om die bit stabiel te houden. En van de manieren is om de bits loodrecht te zetten. Daardoor dat de bits in de diepte groot genoeg blijven om stabiel te zijn, maar in de breedte toch dicht op elkaar kunnen worden gepakt. Andere manier is om een materiaal te nemen dat van nature stabieler is. En tegenwoordig natuurlijk een combinatie van beiden...

Probleem is dan echter, dat de bits weliswaar stabiel zijn, maar dat het steeds moeilijker wordt om die bits te schrijven. Dat is niet een kwestie van tijd, maar van magnetische veldgrootte. Dat probleem wordt hier aangepakt. Door het zaakje plaatselijn te verwarmen, wordt het zaakje minder stabiel, en kun je makkelijker de bits schrijven. Wanneer het afkoelt, is het zaakje weer heel stabiel.
Helaas staat er niet bij hoeveel die verhoging dan zou zijn. Het maakt HDD's in elk geval wel weer concurrerend. Ze blijven natuurlijk het nadeel houden van de hoge zoektijd. Misschien dat de toekomst dan toch ligt in de Hybride HDD's.
In een artikel op Techzine.nl hebben ze het over 1000x sneller.
Kan je het met zo'n snelheid niet als RAM gaan gebruiken? Volgens mij wordt de doorvoersnelheid van zo'n harde schijf dan veel groter dan die van DDR3 nu ... Stel je voor, 2TB RAM in je PC :)

Edit: Even snel wat cijfers erbij gehaald. Een beetje SATA-schijf doet ruim 100MB/s (zie bijv deze hardware.info benchmark van een Samsung F1), DDR3 zit ruim boven de 10GB (volgens Wikipedia). DDR3 is dus 100 keer sneller nu, dat betekent dat een HD straks 10 keer sneller zou zijn als je het als intern geheugen zou gebruiken ... Met RAID en dual channel zal er vast wel weer wat anders uitkomen, maar dat wordt me allemaal te ingewikkeld voor nu even tussendoor.

[Reactie gewijzigd door TechSmurf op 15 december 2009 14:39]

Nee, dan nog kun je het niet als vervanging van RAM gebruiken. De belangrijke eigenschap daarvoor is latency - de tijd die het duurt voordat je de eerste byte terugkrijgt. Want als je CPU cache zegt: ik wil nu byte 0x0000B800 hebben, dan kan je RAM die in zo'n 50-100 ns teruggeven, terwijl een 7200 RPM schijf daar al gauw zo'n 50000000 ns voor nodig heeft! En die latency ligt grotendeels aan de 7200 RPM, dus dit nieuwe trucje helpt helemaal niet. RAID heeft een nog hogere latency.
De latency hit van raid is minimaal en weegt ruimschoots op tegen het voordeel van de hogere doorvoersnelheden en de mogelijkheid om meerdere I/O's tegelijkertijd te verwerken. De gemiddelde responstijd wordt hier juist veel lager van.
Dus qua sequentile schrijfsnelheid mogen we nog wel wat verwachten van HDDs, maar voor random file access stappen we over naar SSD?

Misschien is dat de toekomst, een HDD voor bulk storage (BDrips etc.) en en SSD voor het OS en programma's (die hun grote data in de bulk storage opslaan?). Microsoft probeerde al zoiets met hybrid HDD/SSD maar dat is nooit echt aangeslagen (omdat het parallel met Vista gemarket werd?).
Volgens mij zullen de SSD capaciteiten in de komende jaren ook nog wel flink toenemen. Kan best zijn dat de HDD over een tijdje obsolete is.
Flash chips (en dus ook in zekere maten SSD's) zullen gewoon de wet van Moore volgen. De enige manier om SSD's drastisch te laten toenemen in capaciteit is door veel meer chips te gaan gebruiken.

Silicium, wafer steppers, IC testers, IC packaging kost gewoon allemaal geld, en dit heeft over de laatste paar jaren niet echt een reductie laten zien. In andere woorden:
meer capactiteit -> meer chips -> hogere kosten.

Ik verwacht niet dat we in de komende 10 jaar SSD's gaan zien met dezelfde prijs/TB als dat van HDD's. Er van uitgaande dat er geen doorbraak plaats vind in andere non-volatile geheugen types zoals FeRAM, MRAM, PRAM, etc.

[Reactie gewijzigd door knirfie244 op 15 december 2009 14:15]

Ik verwacht dat we in de toekomst data opslaan dmv lichtpulsen in *een* medium.
Je kunt bijna oneindig veel golflengtes maken, als je daar een drager voor creert, dan ben je helemaal van storingsgevoelige/mechanische problemen af.

Dit icm met optische computers, waar silicium slechts nog een uitzondering vormt, de wereld zal nooit meer dezelfde zijn.
Silicium zal dezelfde status krijgen als de gloeilamp nu.
Waarom zou silicium geen toepassing kunnen vinden in een optische computer?? Der zijn zat onderzoeken en resultaten die het op zen minst aannemelijk maken dat silicium gebruikt kan worden voor optisch rekenen. Silicium waveguides, silicium lasers. Allemaal reeds mogelijk, zag laatst zelfs iets van een silicium laser waarvan de golflengte getuned kan worden. Ik denk zelf dat fabrikanten maar wat graag silicium gebruiken mede vanwege bestaande productie technieken en de enorme doos ervaring die ze hebben met het verwerken ervan. Daarnaast is silicium waarschijnlijk ook de goedkoopste oplossing, het groeien van optische kristallen heeft nog heel veel onderzoek nodig voordat het bruikbaar is, laat staan betaalbaar.
Ah, ik snap het.
Licht in plaats van electriciteit.
En dus glas in plaats van koper.
Waar wordt glas eigenlijk van gemaakt?
een doorbraak zoals bijv. MLC? 1 cell 2 bits? sla ze dat weten te schalen tot bijv 8 bits (1byte) past er al veel meer data op 1 chipje. en als dan ook nog verkleind word denk ik dat SSD's misschien nog wel 10 keer zo goedkoop worden.
echter worden HDD's ook telkens goedkoper, energiezuiniger, sneller en betrouwbaarder en daardoor zullen ze er inderdaad nog wel heel veel langer blijven
Een MLC cell die 8 bits op kan slaan moet 256 verschillende waardes kunnen bevatten. Ten opzichte van een SLC cell is de marge tussen 0 en 1 meer dan 100 keer zo klein.

Dit levert enorme problemen op met betrouwbaarheid en lees/schrijfsnelheid.

Al helemaal als je je bedenkt dat voor iedere verdubbeling van capaciteit via dergelijke methoden een exponentieel grotere toename van nauwkeurigheid vereist is.

Kortom, reken er maar niet op dat er via deze weg grote vorderingen gemaakt zullen worden na de 3-bit en 4-bit per cel van Samsung respectievelijk Toshiba.
Als ik heel eerlijk ben, waag ik dat te betwijfelen. Wat ik wel voorzie is dat er veel meer SAN achtige oplossingen zullen komen. Dus een virtuele harddisk, die feitelijk volledig in het geheugen is geplaatst, waarbij de harddisk feitelijk alleen maar als een back-up functioneert van het geheugen.

Om voor dergelijke oplossingen te gaan vertrouwen op SSD lijkt mij persoonlijk niet echt noodzakelijk.
ter info voor anderen: SAN = Storage Area Netwerk

zijn tegenhanger is NAS = Network Attached Storage
Oh ja ? Een SAN is het netwerk wat je benadert om aan je storage te komen.
Een NAS is een apparaat wat aan een netwerk hangt.

Maar ik snap je punt wel. Jij doelt meer op de manier van het benaderen van de data: via een SAN is dat over het algemeen op block niveau en op een NAS meestal op file(system) niveau of in sommige gevallen op iSCSI (en da's weer block niveau).
Heb jij al eens een storage array gezien met evenveel cache / geheugen als de capaciteit van de disken die eronder hangen ? Het enige array wat zoiets kan (AFAIK) is een HDS USP(-V/VM), die inderdaad een LUN volledig in cache kan plaatsen, waarbij de onderliggende disken inderdaad als fysiek eindpunt dienen, maar vergis je niet: een LUN van 100GB kost je dus 100GB aan RAM !! En hoewel moderne enterprise storage arrays al 512 of 1024GB aan cache kunnen hebben, is het dus echt niet zo, dat je 100TB aan diskcapaciteit in RAM kunt plaatsen, zo groot zijn de caches nog niet.
Nou dus bepaald niet als je het bovenstaande bericht leest.
Harddisks hoeven helemaal niet obsolete te worden, qua capaciteit / prijs zullen ze nog lang voor blijven lopen. Uiteindelijk zullen ze misschien meer richting het backup segment geduwd worden.

De taak is nu aan de makers van Operating systems om te zorgen dat er gedifferentieerd wordt tussen bestanden die sneller toegankelijk moeten worden en bestanden die maar zelden gebruikt worden. Mij lijkt het daarom logisch dat SSD 's gebruikt zullen worden als een soort cache buffer en niet als aparte drive. Dit is volgens mij de enige logische benadering vanuit het perspectief van computer architectuur voor het aanspreken van geheugens met sterk varierende snelheden wat betreft access time en prijsverhouding.

Het leeuwendeel van de laptops zullen op duur waarschijnlijk helemaal geen harddisk meer hebben, tenzij voor extra opslag voor mensen die op hun toppie films willen bewerken, etcetera.

edit, toegevoegd: "en prijsverhouding."

[Reactie gewijzigd door E_E_F op 15 december 2009 18:24]

Ik denk zelfs dat voor het OS er binnen x jaren helemaal geen HDD / SSD aan te pas gaat komen maar dat alles online via console / terminal zal gaan, zeker voor de 'dummy' consument, steeds meer & meer applicaties verhuizen naar het internet of zul je enkel on-demand kunnen gebruiken. Het is ook een logisch gevolg omdat bedrijven steeds meer zullen doen om piraterij tegen te gaan en een overheid ook steeds meer controle wil over wat jij doet op je pc.

Maar het is alleszins weer een mooie vooruitgang weer op technologisch vlak :)
En wanneer alles over het internet gaat is er natuurlijk geen HDD meer nodig 8)7 .
De data moet nog altijd ergens van gelezen of geschreven worden. Data zweeft niet rond op het internet ofzo.
Ik bedoel het dan ook vanuit het oogpunt van de dummy consument ;) Uiteraard zal de data ergens nog gelezen & weggeschreven moeten worden maar dat zal niet meer bij jou thuis gebeuren maar in het datacenter. Je foto's, muziek, documenten, e-mails, ... worden dan alleen nog online opgeslagen. Het enigste waar je toestel nog over zal beschikken is een minimaal geheugen / opslag voor cache & offline gebruik.

Ik ben er zelf zeker geen voorstander van omwille van vooral privacy redenen maar ik denk dat je het idee aan genoeg mensen kan verkopen. Voor een x bedrag per maand is je data overal & altijd beschikbaar, kan je gebruiken van die apps & hoef je je nooit geen zorgen meer te maken over backups. Maar goed, too much off-topic

Wat ik dus wil zeggen is dat een HDD / SSD binnen x- jaren enkel nog iets zal zijn voor bedrijven, zelfstandigen en heavy (Tweakers) gebruikers.
Daar ben ik het niet helemaal mee eens... ga maar eens een film on-demand kijken, dan ben je in feite toch wel echt de hele film aan het downloaden, het enige verschil is dat je het gedownloade deel gelijk kan terugzien. En de resolutie en kwaliteit van streaming video's gaat gigantisch snel omhoog, online Full HD komt er snel genoeg aan! Een Full HD film in H264 formaat is toch al gauw ~4Gb, en als je een paar filmpjes in je cache hebt staan dan heb je al snel een redelijke schijfcapaciteit nodig.

Ook als je bedenkt dat applicaties steeds meer naar het internet verhuizen moet je wel rekening houden met het feit dat deze ook nog altijd je schijf gebruiken met het wegschrijven van data. Het model verandert enigszins wel, in plaats van de complete applicatie eenmalig op je schijf te installeren krijg je het mondjesmaat binnen maar het kan snel optellen. Kijk voor de grap maar eens na een paar maanden browsen in IE hoe groot je Temporary Internet Files map wordt. Dan hebben we het zeker wel over gigs hoor.

We denken nu nog "32 Gb voor een internet PC/laptop is zat!" maar dat dachten we ook jaren terug bij een 80 Gb schijf voor films. Rips waren altijd ~700mb, en dat was prima voor DVD Q. Maar je ziet gewoon dat dit meer de uitzondering dan de regel wordt aangezien de meeste rips al in +720p geleverd worden.

Zolang mensen hun PC als multimedia PC of laptop willen gebruiken zal er altijd behoefte zijn aan een grote schijfruimte. Dat je het verkrijgt en bekijkt op een andere manier maakt dan eigenlijk niet zoveel uit, data blijft data.

[Reactie gewijzigd door gizmostudios op 15 december 2009 15:30]

het is technisch niet noodzakelijk om de volle 4gb van een volledige film op te slaan. alleen een buffer voor de volgende minuut is nodig, en wanner een deel is afgespeeld verdwijnt het in /null

heb jij wel eens via internet radio geluisterd? kun je dagen achter elkaar aan laten staan en veel ruimte zal dat allemaal niet opnemen hoor.
Als ik een streaming film kijk is op het einde de complete film gebufferd, dus dat de chunks verwijderd worden zodra deze zijn afgespeeld gaat niet helemaal op. Je kunt na het kijken van de film gewoon snel door het materiaal scrollen, dus voor een moment staat wel de hele film in je cache. Radio is anders, daar kun je niet mee terug in de tijd en wordt afgespeelde data wel idd verwijderd.

Natuurlijk is het technisch mogelijk voor een streaming video om z'n afgespeelde data te wissen, maar in realiteit wordt dit toch niet gedaan omdat het verrekte handig is om nog even terug te spoelen. De video heeft er geen baat bij als zijn staart er af gehakt wordt, dus doorgaans gebeurt dit enkel wanneer je maximale buffer is bereikt of wanneer je de browser sluit (en zelfs dn leegt je cache lang niet altijd, afhankelijk van je browser en instellingen)
Cloud computing zal inderdaad een steeds grotere rol gaan spelen waarbij de desktop rekenkracht steeds verder overbodig wordt, maar je geeft daarbij natuurlijk wel steeds meer controle uit handen.

Het PC platform is juist populair geworden doordat de gebruiker veel controle over hardware / software en eigen gegevens heeft. Dat principe zal voor een bepaalde groep altijd blijven overheersen.

PC = Vrijheid. Keus. Flexibiliteit. Weinig bemoeienis van de overheid.
Chrome OS? Ok, je zegt voor de consument, bij bedrijven zie ik dat namelijk sowieso niet gebeuren. Toch denk ik dat consumenten nog huiveriger zijn om iets als Chrome OS te adopteren, simpelweg omdat ze (net als bedrijven) hun priv bestanden niet uit handen willen geven.
toekomst ? Hell, ik werk al meer dan een half jaar zo en ik vond dat ik pas laat ben overgeschakeld op een SSD :|
echt laat ben je niet imo
voor de grote kudde aan iig wel

maar SSD voor OS en huge HDD is wel de kant die het opgaat ja
Zelfs mijn moeder heeft een SSD in haar laptop (Ok, ik heb dat haar aangepraat, LOL :))
Benieuwd wat de levensduur van zo'n schijf zal zijn.
hoger dan ssd :+
maar dat is ook niet zo moeilijk, die dingen hebben op dit moment een waardeloze levensduur.
onderbouwing?
wat is het effect van een laser op de disc?
Een herhaaldelijk warm/koud cyclus kan van invloed zijn op het materiaal.
De mate waarin, ligt aan de glastemperatuur van het materiaal. Blijf je daar
substantieel onder (40 graden of meer), dan loopt dat nog wel los.

Ik vermoed dat er ruim onder de glastemperatuur gewerkt wordt, aangezien
de schijf draait, en je geen verplaatsing van "gesmolten" materiaal wilt hebben
ivm onbalans. Ook is globale verwarming van de schijf niet echt een goede optie
in verband met het behoud van de elektron-spin (deze homogeniseert naar
random bij te hoge temperatuur. Denk daarbij aan het cassettebandje op een
dashboard van een auto, in de zon, je muziekinformatie gaat verloren (als het
zich al laat afspelen).
Ik vermoed dat er ruim onder de glastemperatuur gewerkt wordt, aangezien
de schijf draait, en je geen verplaatsing van "gesmolten" materiaal wilt hebben
ivm onbalans. Ook is globale verwarming van de schijf niet echt een goede optie
in verband met het behoud van de elektron-spin (deze homogeniseert naar
random bij te hoge temperatuur. Denk daarbij aan het cassettebandje op een
dashboard van een auto, in de zon, je muziekinformatie gaat verloren (als het
zich al laat afspelen).
Ik denk dat je vergeet dat de laser slechts zo'n 100 femtoseconden aan staat.
Het gaat hier om het veranderen van de spin-eigenschappen van een "bit-domein", iets heel subtiels dus. Er zal echt niks op de schijf smelten.
Vandaar de quotes rondom "gesmolten".

Bedenk wel dat de buitenrand met zo'n 185 km/uur ronddraait.
Dit geeft een behoorlijke centripetale kracht ( F = v.v.m/r). Elke
verwarming (en met name herhaalde verwarming) warmt de schijf.
Pardon?
Waar heb je die wijsheid vandaan?

Een SSD met duizenden cellen met ECC die individueel uitgezet kunnen worden bij failure is minder veilig dan een krankzinnig snel ronddraaiende schijf met bewegende metalen armen ertussen?

@stewie: Ja flash slijt, maar als een cel kapot gaat, doen de anderen het nog wel.
Of denk jij dat ze na 50.000 keer schrijven de hele schijf opeens dood is?
Als een hd mechanisch stuk gaat dan is je hele schijf kapot, dat risico is er bij een SSD niet.

[Reactie gewijzigd door Soldaatje op 15 december 2009 13:36]

flash kun je ongeveer 50,000 tot 250,000 keer beschrijven, maar omdat je een beperkt aantal cellen hebt is de algehele levensduur veel korter.

flash slijt, of dacht je zoiets als: het is digitaal dus het slijt niet? een hdd slijt veel minder omdat het ook ECC heeft :+

[Reactie gewijzigd door stewie op 15 december 2009 13:47]

De extreme magneetvelden die gebruikt worden om de bitten op de HD te schrijven trekken de magnetische laag kapot, dus ook die heeft een beperkt aantal keren beschrijven... Ik weet niet wat de grens is, maar het zou zou maar kunnen dat dat in de zelfde grootte-orde gaat zijn als Flash...
voorlopig nog niet iig. Een HDD kan jaren langer dan een SSD meegaan als je er niks geks mee uithaalt.
Voorlopig heb ik nog niets gehoord van massale sterfte van ssd's bij early adopters en als er sterfgevallen zijn betreffen het vaak ssd's met een domme controller (zoals van JMicron) die een erg hoge write amplification factor hebben. Slimme consumenten-ssd's zoals die met een Indilinx- en Intel-controller geen veel efficinter om met het geheugen en presteren daardoor ook beter.

Wat we wel weten is dat harde schijven regelmatig dood gaan. Dus om nu te stellen dat ssd's onbetrouwbaarder zijn dan harde schijven vind ik voorbarig.
Heb je daar objectieve cijfers van? Ik zou heel graag 's een degelijke vergelijking zien :-)
echt objectief, nee. Maar mijn XT (Jawel!) met 5 MB MFM harddisk draait nog vrolijk zijn IBM-DOS 2.1.
En da's een zeer oud barrel (zeker voor computer spul).
google maar er zijn genoeg rapporten over.
Mijn SDD is een 80GB van intel.
Als ik uit ga van 80MB/s schrijven dan duurt het 1000 seconden om de schijf 1 keer te schrijven.
Als ik uit ga van 50k keer schrijven duurt dat 50M seconden wat ruim 1.5 jaar is bij continue schrijven.
De 50k tot 250k schrijven is alleen weinig als er geen wearleveling toegepast wordt. Deze wearleveling zorgt er namelijk voor dat er stukjes gewisseld worden met elkaar als een van de twee teveel geschreven drijgt te worden.
Een enterprise SLC is al >1 a 2 miljoen keer beschrijfbaar hoor !
Een SSD kan je aan de andere kant weer "shaken als een polariod foto" terwijl je dat bij een HDD niet moet proberen. Nou maakt dat voor computers niet zo veel uit, maar voor portables (denk dus mp3 spelers en telefoons, en in mindere mate laptops) is zoiets wel wenselijk.

In dat soort gevallen heeft de SSD dus een langere levensduur.
alleen als de HDD ook echt aanstaat, eenmaal uitgeschakeld kun je zo'n HDD een flinke optater geven voordat ie kapoert gaat. :)

Inderdaad ben ik erg benieuwd naar de echte levensduur van SSD's, ik verwacht ook dat dit pas na enkele jaren duidelijk zal worden. HDD's weet je van dat die wel lang meegaan.
Hoezo HDD's gaan lang mee? Misschien in de ideale omstandigheden, 100% horizontale ligging, geen trillingen van buitenaf etc. Maar harde schijven gaan na een tijd gewoon stuk.
Ik vraag me dan ook af wat je precies bedoelt met lang? Aangezien je verwacht dat de levensduur van SSD's na enkele jaren duidelijk wordt.. Ik vind het niet lang als een HDD 2 jaar mee gaat hoor..
Van SSD's wordt door de meeste fabrikanten gezegd dat die 5 jaar meegaan, identiek dan een harde schijf dus. Het maakt echt niet zo veel verschil behalve dan in snelheid.
Lang genoeg.

Alles kan kapot gaan, maar een harde schijf kan makkelijk 5/6 jaar mee gaan, het is dat IDE is verdwenen anders had ik vast nog wel een oude 80GB IDE schijf van 10 jaar geleden in me PC ;)
het is dat IDE is verdwenen anders had ik vast nog wel een oude 80GB IDE schijf van 10 jaar geleden in me PC ;)
Jij hebt geen behoefte aan een snellere en stillere schijf?
Of ben je misschien gehecht aan het harde ratelen van je oude schijf? ;)
Is het niet logischer om de SSD op het moederbord mee te bakken. Je besturingssysteem wordt dan een soort extended bios.
Nee.
Te veel afhankelijk van smaak ( snelheid, chipset, controller, opslagcapaciteid, ook de ossen groeien ) en van levensduur.
Een SSD heeft over het algemeen niet dezelfde levensverwachting als een mamaplankje en is ook apart te updaten. je wilt vaak of je ssd dan updaten of je mamaplank / cpu.
Ze kunnen natuurlijk wel een serparate PCI-e Storage bus maken waar je een soort plugin kaart in stopt. Op deze kaart zit dan een pci-e -> flash controller. Zodoende sla je de conversie van en naar SATA of SAS over. Zet 4 tot 8 van deze bussen op het moederbord en je hebt een nagenoeg onbeperkte bandbreedte van de storage naar de CPU.
Je bedoelt een FusionIO ioXtreme? Nu al te koop, PCIe flash drive met RAID mogelijkheid. Toegegeven, de "I" in RAID is dan niet helemaal toepasselijk :D
Een simpele socket maken waar je een SSD blok in kan proppen is zeker zo gek nog niet. Je kan het allemaal zelf bepalen of je gaat aan de gang met wat je erbij krijg van de fabrikant.
Too little too late? SSD techniek zit ook niet stil. Het is alleen een beetje duur per GB, maar de procede's worden ook kleiner, net zoals CPU's.
Volgens Techzine (zoals ODF eerder vermeldde) worden de harde schijven hierdoor 1000 keer sneller, dus het zou mij verwonderen dat dit "too little too late" zou zijn.

http://www.techzine.nl/ni...r-gemaakt-door-laser.html
De snelheid van de HDD wordt nog altijd bepaald door de rotatie snelheid, en kop snelheid. En die gaan echt niet 1000 keer sneller worden...

Wat er staat, is dat het 1000x makkelijker is een bit te beschrijven. Dat betekent dat je andere materialen kunt gebruiken, die je anders niet geschreven kreeg. Daardoor kun je dan kleinere bits wegschrijven, om een hogere datadichtheid te produceren.
Zouden die schijven met laserverwarming staks ook gekoeld moeten worden??
Nee, het gaat om belachelijk kleine gebiedjes.
stikstof koeling erop! :)
Waarom niet gewoon vloeibaar zuurstof? :p
Nee, beter waterstof.
Leuk idee maar waarom???

Het magnetische medium heeft zijn beste tijd gehad en dan het gaan aanvullen met lasers?
Ik dacht dat het doelstelling meer was van minder bewegende delen dus minder slijtage, herrie en stroom verbruik.

Wat kan dit uitvinding nou werkelijk betekenen voor de toekomst wat SSD niet kan?
Die laser zal op dezelfde kop zitten als de leeskop en de schrijfkop. Dus er komt geen bewegend deel bij. Het enige wat er nodig is, is een complexere arm. Dat kost je misschien $1 per arm. Het zou zomaar kunnen dat het nieuwe materiaal voor de platter een groter kostenverschil met zich meebrengt.
'Mooi experiment, maar werkt dat ook in theorie?'
Mocht je het artikel gelezen hebben kon je lezen dat de theorie net is opgesteld.
De praktijk was al toegepast.
En ik vraag me dan af hoe de fabrikanten er ooit bij gekomen zijn. Vind het ongelooflijk dat iemand op een dag zou zeggen : en als we er nu eens aan laser op zetten?
Ik kan wel aangeven hoe zoiets gaat. De onderzoekers maken een lijstje met ~10 fundametele dingen die de omschakelsnelheid van zo'n magnetisch domein beinvloeden. Warmte is er dan 1 van die 10.

Vervolgens gaan ze nadenken hoe ze die theorie in praktijk kunnen brengen. Hele disk heetstoken? Niet zo handig, dan gaat 'ie doorbuigen. Klein stukje? Kan, maar hoe? Inductie? Stoort het magnetisch veld. Radio? Te grote ontvanger. Laser? Klinkt goed, klein en heet - proberen we.
Zo raar is dat niet. Licht bestaat immers ook uit elektromagnetische velden, dus het is logisch dat die een bepaalde invloed kunnen uitoefenen op de magnetische domeintjes.
In theorie wel maar het moet nog wel in de praktijk getest worden. ;)
Hoe was dat ook weer? In theorie zijn theorie en praktijk gelijk, maar in de praktijk is de praktijk een groot verschil met de theorie.
'Mooi experiment, maar werkt dat ook in theorie de praktijk?'
Ik denk van wel :)

[Reactie gewijzigd door StefanvanGelder op 15 december 2009 13:03]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True