Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties

Hardwarefabrikant Super Talent Technology heeft diverse ssd's van zijn Masterdrive-lijn via een firmware-update van een hogere schrijfsnelheid weten te voorzien. De leessnelheden zijn daarbij identiek gebleven.

Super Talent Technology, gespecialiseerd in de fabricage van geheugenproducten, zegt dat de update de schrijfsnelheid van zijn solid state disks uit de Masterdrive-serie drastisch verhoogt. De leessnelheid van de opslagmedia is daarbij onveranderd op 120MB/s gebleven. De schrijfsnelheid is in sommige gevallen echter verdubbeld en ligt nu op maximaal 100MB/s. Het bedrijf claimt daarmee de snelste ssd op de markt in productie te hebben.

De solid state disks in kwestie komen allemaal uit de Masterdrive-serie. De DX-, KX- en MX-ssd's hebben nog een onderverdeling qua snelheid: de kleinere varianten, met een capaciteit van 15GB en 30GB, schrijven hun data gemiddeld iets minder snel weg dan de exemplaren met grotere capaciteiten van 60GB en 120GB. Dat is dan ook de reden waarom het bedrijf een marge hanteert: de minimale schrijfsnelheden bedragen 60MB/s voor de kleinere MX- en KX-ssd's, oplopend tot 80MB/s voor de grotere MX- en KX-varianten evenals voor de kleinere capaciteiten uit de DX-lijn. De topsnelheid van 100MB/s wordt enkel gehaald door de grotere schijven uit de DX-serie, die als enige over slc-geheugen beschikt. Of consumenten die al een Masterdrive in huis hebben de firmware zelf kunnen updaten, of de schijf daartoe kunnen opsturen, kon Super Talent niet zeggen.

Super Talent ssd
Moderatie-faq Wijzig weergave

Reacties (50)

Vraagje; weet iemand hoe het zit met het maximaal aantal keer wat een flash cluster beschreven kan worden? Ik ben nog steeds van de oude flash generatie en heb iedere keer het idee als ik iets over flash lees dat dit maar een x aantal keer beschreven kan worden.

Kan de nieuwe generatie al net zo vaak beschreven worden als een standaard IDE of SATA schijf of is dit nog beduidend minder?
Volgens mij is dat nog altijd een stuk lager. Maar de software in het ding houdt daar rekening mee door te spreiden. Bij typisch gebruik zul je immers veel bestanden hebben die over de tijd voornamelijk gelijk blijven, en een relatief klein aantal die vaak veranderen. Als je steeds op andere plekken schrijft kun je het geheel een lange tijd mee laten gaan.
Maar als je bijvoorbeeld windows/linux draait met je pagefile/swap op de schijf dan heb je toch verschrikkelijk veel schrijfbewerkingen op dat stukje van de schijf. Hoe lang gaat zo'n schijf dan mee?

[Aanvulling]
Flash Reliability

Flash endurance has increased due to a few techniques that have been implemented gradually in the past few years.

The write/erase mechanism in Flash causes the Silicon to wear down over time. The procedure to program Flash can be done one word (byte) at a time and the procedure to erase is done on a per-block-basis. The degradation of the semiconductor material causes Flash to have a limit of 100,000-300,000 write/erase cycles. When a block reaches this threshold, the device can become unreliable and failure can occur.

Bron

Het is dus leuk zo'n super snelle schijf wanneer je deze als fileserver inzet. Wanneer je met een swap werkt of sql logging werkt dan is 100.000~300.000 bewerkingen helemaal niets. De Macbook en de asus EEE werken beide schijnbaar ook op flash. Ik neem hierbij dus aan dat beide dan ook geen swap omgeving hebben en voldoende geheugen om dit "gat" af te vangen.

Zelf ontwikkel ik ook xp embedded systemen met flash. Hier heb je een EWF die je aan kan zetten zodat Windows alle wijzigingen naar RAM schijft totdat je specifiek met een commando opgeeft dat alle wijzigingen naar schijf weggeschreven kunnen worden.

Affijn er is nog een hoop te verbeteren aan SSD.
[/Aanvulling]

[Reactie gewijzigd door OhMyGod op 23 juli 2008 11:08]

Dat probeer ik net uit te leggen. Er bestaat bij een SSD niet zoiets als 'dat stukje van de schijf'. De swapfile wordt telkens verdeeld over andere stukjes van het fysieke geheugen zodat er nooit 1 plek is die veel meer wordt beschreven dan de rest.

De reden dat sommige systeemfiles op een harddisk op een vaste plek staan, is dat sommige delen van de disk sneller gelezen/geschreven kunnen worden dan andere. Bij een SSD speelt dat niet, elk stuk geheugen is in principe even snel (hoewel ik me kan voorstellen dat er wel weer optimalisaties met cache e.d. mogelijk zijn). Dus het probleem dat jij beschrijft, wordt opgelost door de controller van de SSD die de data steeds verspreidt over het geheugen.
Aangezien je 120 GB in 20 min helemaal volmaakt met 100 MB/s (stel dat je dat zou willen) heb je toch behoorlijk snel een backup van je complete pc.
De vraag is of je harde schijf die nu in je computer zit het op die snelheid kan leveren, je zult dan dus sowieso ook zo'n schijf in je computer moeten hebben zitten.

Verder is het ook van belang dat de interface tussen de externe schijf en de compter snel genoeg is om deze snelheid aan te kunnen - USB gaat maar tot 480megabit/sec en FireWire 800 gaat slechts tot 800megabit/sec, hierbij geldt ook nog eens dat die 480megabit/sec van USB slechts een theoretisch maximum is.

Edit@CyBerSPiN:
You've got a point - helaas kan ik nergens terugvinden wat men nu met 100MB/s bedoelt, bij snelheden wordt er echter vaak in megabits gerekend...
Verder ga je er ook gemaksderhalve van uit dat die 100MB/s staat voor 100megabyte/sec ook dat geloof ik eigenlijk niet. De kans is veel groter dat het hier gaat om 100megabit/sec en dan duurt het bijna 3 uur om de data over te pompen - ook nog niet verkeerd overigens...

[Reactie gewijzigd door Little Penguin op 22 juli 2008 22:19]

Verder ga je er ook gemaksderhalve van uit dat die 100MB/s staat voor 100megabyte/sec ook dat geloof ik eigenlijk niet. De kans is veel groter dat het hier gaat om 100megabit/sec
Pardon? 100 megabit is "slechts" 12,5 MByte/s, dat haalt mn USB sticky nog ;)
Het zal dus wel degelijk om 100 MegaByte/s gaan, dat maakt het nieuwsbericht namelijk ook noemenswaardig ;)
MB = Megabyte
Mb = Megabit

:)
Ruim $500 voor een 120GB disk en dan als backup medium gebruiken?
Super Talent 2.5 inch 120GB MasterDrive MX SATA2 Solid State Drive

1 used & new available from $520.20
gewoon ff op google

http://www.ewiz.com/detail.php?name=FTM20GK25H $499

[Reactie gewijzigd door bbob1970 op 23 juli 2008 09:39]

Zowel de DX, MX als KX staan in het artikel vermeldt, maar ze hebben ook nog een BX lijn die tot 256GB gaat (2.5" sata), maar helaas ligt de lees- en schrijfsnelheid op respectievelijk 65 en 50 MB.
http://supertalent.com/pr...php?type=MasterDrive%20BX

Ik wacht persoonlijk nog op 256GB en 120/100MB/s voor in men Dell 1700 te proppen,
ze worden hier thuis gek van mijn gezaag over die SSD's :P waar het hart van vol is... :9~
Bijzondere is dat een paar dagen terug een fabrikant was die juist geen grote SSD ging produceren vanwege Vista omdat deze het niet goed ondersteunen zou en je leest van andere fabrikanten juist steeds meer berichten dat ze grotere en snellere versies maken. Was met MLC en SLC techniek.

Wat ik me afvraag is ik heb zelf een laptop met een SATA300 controller erin. Stel ik heb een SSD schijf met SATA300 interface en de snelheid is bijvoorbeeld 200MB/s om 150MB/s. Kan je CPU zoiets wel aan endergelijke? Of is je HDD echt zoń enorme beperking nogsteeds?
tuurlijk, SATA is SATA, alleen nemen nu je seektimes behoorlijk af.
pas alleen wel op met een laptop, omdat de rest van je systeem nu meer data te verwerken krijgt, gaat je accu minder lang mee :P

en ja, de schijven zijn nog steeds een grote beperking.
als je een beetje systeem hebt, dan draait je geheugen zo rond de 1GHz, word het dual channel of zelfs hoger aangestuurt, en worden er per channel 8 byte per data puls verstuurt, en met ddr2 worden er daar een paar van per klok verstuurt.
dus ongeveer : 1GHz x 2ch X 4Puls X 8 byte = 64GBs ( theoretische snelheid )

terwijl de snelste HDD met ongeveer 100MBs kunnen lezen / schrijven en daar dan ook seektimes van 5ms bij hebben, waardoor ze bij veel kleine datapakketjes helemaal instorten qua snelheid. Vooral dit laatste is bij SSD redelijk opgeheven.
Vraag me af of je accu minder lang meegaat.

Situatie 1 met normale hdd:

CPU wacht en RAM wacht veel omdat hdd veel zit werken maar dus traag is.

Situatie 2 met ssd:

CPU wacht nog een klein beetje is op hogere snelheid bezig. RAM is wat meer nodig. HDD werkt op topsnelheid.

Bij situatie 2 is het echter zo dat de SSD minder stroom verbruikt (ga wel uit van de nieuwere SSD niet de eerste paar). Minder strom minder warmte dus minder koeling vereist. De CPU verbruikt echter weer iets meer stroom en of je het echt merkt van het werkgeheugen... Denk het niet.

Vermoed dus als je het op maximaal zou testen dat uiteindelijk de SSD wel winnen gaat. Een CPU hoef namelijk nogsteeds niet ten volle ta gaan werken misschien rond de 1 a 1,4GHZ maar meer ook niet.

De seektimes is inderdaad mooi punt... Normale hdd van een laptop zit rond de 11ms inplaats van vrijwel direct. Dit zal wel veel verschillen.
Vraag me af hoe ze dit dan nu weten te bereiken? Flinke volt mod ofzo in die nieuwe firmware? Meer power d'r doorheen sturen en op die manier hogere snelheden behalen?
Wat ik me af vraag is of ze die dingen in firmware bewust cappen. Een verdubbeling van snelheid riekt naar bedrog imho.
Dacht ik ook aan in eerste instantie. Als dat waar zou zijn, moedig ik het alleen maar aan. Als zo'n goedkope gecapte SSD te flashen valt naar een snellere duurdere SSD, hebben we er weer een onderdeel bij dat we kunnen "overclocken".
Ik snap die redenering niet echt. Als het nu om een nieuw product ging waarbij de schrijfsnelheid ineens twee keer zo hoog zou zijn, ja. Maar dit gaat om hetzelfde product met een verbeterde firmware. Super Talent verdient hier dus geen geld mee, omdat ze die disks eerder al verkocht hebben.
Dit is inderdaad wel een een vrij domme redenatie.. Als er überhaupt al iets te overclocken valt dan zal het alleen de controller van de schijf zijn, en dat is niet de bottleneck

[Reactie gewijzigd door MaZeS op 23 juli 2008 08:21]

De firmware zal ergens een aantal trage operaties gedaan hebben, en nu met een sneller algoritme versnellen ze de schrijfsnelheid. En als dat dan een deel is waar vroeger een bottleneck zat.

Geen idee of dat de werkelijke actie/reden is geweest, maar dat kwam als eerste in mij op.

[Reactie gewijzigd door kluyze op 23 juli 2008 00:21]

Dat is een leuke schrijfsnelheid, nu nog een leuke prijs en we hebben een nieuwe bootschijf :)
leuke prijs zal denk ik wel niet het geval zijn aangezien dit de enige schijf is die te koop is met zulke snelheid, dus is het nieuw, en zéér waarschijnlijk dus ook duur.
Iets wat ik al tijden niet begrijp bij Tweakers,

Voor booten is schrijfsnelheid onbelangrijk, dan wordt er gelezen.
Normaal wordt er veel vaker gelezen dan geschreven, dus waarom deze fixatie op schrijfsnelheid?
Seek times, fragmentatie, daar zal denk ik de werkelijke winst liggen en vergeet niet, het staat pas in de kinderschoenen en zal in de loop der jaren best wel de HD als boot schijf gaan vervangen, niet als data opslag. Veder zal de levensduur ook wel verbeterd worden tov. een harde schijf en dan kun je een tijdlang voort met een install.

Voorlopig is het nog niet mainstream en MS zou er verstandig aan doen om in ieder geval een goeie oplossing te bieden om snel werkend te krijgen in Vista, want ik wil niet er mee ggaan wachten tot Windows7 die voor 2009 geplanned staat.

Wil zelf binnenkort een nieuw systeem bouwen en dan wil ik wel 2 64GB modules van OCZ er in gaan zetten in raid0 en de rest gewoon op schijf, de prijs maakt dat nu wel mogelijk :)
Er wordt niet alleen geboot van die disk he. Er worden ook instellingen naartoe geschreven en bijv. naar geswapt en de hibernate file staat ook op die disk. Best interessant om dan snel te kunnen schrijven.
Ik neem aan als je met zulke schijven in de weer gaat, dat je genoeg geheugen hebt en de swap uitzet (heb ik ook gedaan). Geheugen is cheap. minimaal zet je je swap op een andere partitie en je hibernate file gebruik je niet bij het booten.
Swap wordt (in Windows) sowieso aangemaakt, of je het nu uitzet of niet...

Dus best bepaal je zelf waar en hoe groot je de paging file maakt.
Dat is goed nieuws voor de productserie...
is er over de verkrijgbaarheid in Nederland/Europa nog niets bekend? :?
Dramatisch verbeterd?? lijkt mij meer drastisch verbeterd in dit geval :+
Welke lees en schrijfsnelheid heeft de gemiddelde HDD eigenlijk?
Gemiddeld heel laag, meeste PC's staan meer dan de helft van de tijd uit. 8)7
De gemiddelde schijf (300 a 500 GB sata, 7200rpm) kan ongeveer met 50 - 65 MB/s schrijven. De nieuwe Samsung 1 TB schijven halen zo'n 80-85 MB/s tijdens het schrijven.
Leessnelheid ligt vaak iets hoger.
100MB/sec halen die SLC Mtrons ook. Interresant is als ze 100MB/sec kunnen halen met MLC chips.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True