Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 23, views: 11.978 •

Corsair heeft zijn topserie solid state drives, de Neutron GTX-serie, van een update voorzien. De nieuwste drives uit de serie hebben flashgeheugen gekregen dat volgens een kleiner procedé gemaakt wordt.

De nieuwe generatie Corsair Neutron GTX-sold state drives met het 19nm toggle-geheugen van Toshiba zijn te herkennen aan de B-toevoeging in de naam. De nieuwe drives hebben als typenummer CSSD-N120GBGTXB-BK: de B voor het koppelteken geeft aan dat het om drives met 19nm-nand gaat. Drives met een capaciteit van 240GB en 480GB hebben uiteraard die cijfers voor de GB in het typenummer staan.

De eerste Neutron-drives van Corsair werden in juni vorig jaar aangekondigd, maar pas in september geleverd. De originele lichting Neutron GTX-ssd's werden voorzien van 24nm flashgeheugen van Toshiba, aangestuurd door een destijds gloednieuwe LAMD-controller. Net als de eerste 24nm-lichting hebben de nieuwe 19nm-drives vijf jaar garantie, hoewel het aantal programmeer- en wis-cycli vermoedelijk wat lager is. De prijzen zijn vooralsnog ongewijzigd.

Reacties (23)

Is dit wel een upgrade of enkel een kostenbesparing? Of zelfs een downgrade?
Als je een beetje verstand hebt van zaken, weet je dat 19nm beter is dan 24nm ;) meer geheugen in dezelfde harde schijf, minder stroomverbruik en waarschijnlijk snellere snelheden.
Maar waarschijnlijk ook meer slijtage op celniveau, dus levert dit 'netto' winst op voor de gebruiker?
Als je elke dag je SSD helemaal vol schijft en leeg maakt duurt het meer dan 10 jaar voordat ie versleten is. Dus daar zou ik me totaal niet druk om maken.
Nou als ik naar de specs kijk is het iets slomer in MB/s het lijkt er dus op dat het beide is.
Toch ging de "upgrade" van 32 naar 24 nm gepaart met lagere performance en betrouwbaarheid. Inmiddels is dat volgens mij wel wat bijgetrokken, maar dus het is dus zeker geen onterechte vraag van TWeaKLeGeND.
Als je een beetje verstand van zaken hebt weet je dat dit een downgrade is.

Bij CPU's en dergelijke gaat het melodietje van energiezuiniger over het algemeen wel op, maar bij SSDs is het verwaarloosbaar.

Kleinere sizes bij NAND flash:
- foutgevoeliger (de apparatuur om ze uit te lezen moet gevoeliger zijn)
- zijn trager (er is meer tijd nodig om de juiste staat uit te lezen)
- gaan minder lang mee (de hoeveelheid atomen die in een cel bewaard kunnen worden is lager en door "slijtage" gaan ze dus rapper kapot

Dit is dus gewoon een downgrade voor de consument.
Dit is géén downgrade. Door een kleinere procedé, worden de ssd's (nog) energiezuiniger. Gezien de toch al lage energieconsumptie van een ssd is dit aspect verder niet heel interessant. Ook kun je met een lagere procedé meer data kwijt op dezelfde (fysieke) ruimte. Immers, kleinere transistoren betekend meer transistoren op hetzelfde oppervlak.

Benieuwd hoe lang deze verkleiningen nog doorzetten. Ik heb wel eens gelezen dat het het nog veel verder verkleinen allerlei neveneffecten met zich meebrengt.
Het is dus wel een downgrade: de energiebesparing zal verwaarloosbaar zijn - geef je al aan - en je krijgt niet meer geheugen voor hetzelfde geld. Het gaat van wat ik zo zie om een update van de bestaande types, dus bijvoorbeeld 240GB blijft 240GB, maar dan met een kleiner procede. Goede kans dat het max aantal program/erase cycles minder wordt, dus als consument is dit een nadeel.
Ik denk toch dat voordat het maximaan aantal lees en schrijfcycli is bereikt, de schijf al is afgeschreven. Geen nadeel dus op dit vlak.
De energiebesparing is verwaarloosbaar maar toch aanwezig, dus wel een voordeel.
Daar komt bij dat dit kleinere procedé goedkoper is om te produceren, dus wel weer een voordeel.
Nou, vooralsnog "De prijzen zijn vooralsnog ongewijzigd" dus voor de consument geen voordeel. En als de transferrates (volgens Tokageroh hierboven iets trager) minder zijn geworden, dan kan je niet meer spreken van verbetering voor de consument.

Ofwel: update, geen upgrade.
Afgeschreven is in veel gevallen niet hetzelfde is als buiten gebruik.

In feite krijg je hierdoor gewoon een kortere levensduur. Dat hoeft geen probleem te zijn aangezien lang niet alle SSD gebruikers veel naar de SSD schrijven, maar dit maakt de schijf voor mensen die dat wel doen natuurlijk minder interessant. Voor die mensen worden de opties kleiner en blijven enkel enterprise schijven over als alternatief. Dus waarschijnlijk zijn de schijven dankzij het, uiteindelijk, goedkopere geheugen goed voor de overgrote meerderheid van de gebruikers, maar aan dit voordeel kleeft dus ook een nadeel. Wat dat betreft is schaalverkleining bij SSD geheugen niet zo eenduidig positief als bij bijvoorbeeld CPUs en veel meer een kwestie van afwegen welke belangen zwaarder wegen. Als gevolg hiervan zie je dat SSD fabrikanten verschillende series met verschillende soorten geheugen op de markt brengen om zo de verschillende doelgroepen te bedienen.
kostenbesparing.

energieverbruik zal misschien ietsje dalen, maar dat was bij ssd's toch al goed, snelheid zal iets hoger of lager zijn, zal je ook weinig of niks van merken.
Dat gaat niet helemaal op omdat met iedere verkleining het aantal wis,- en herbeschrijf berwerkingen afneemt...
Dit zal een kosten besparing zijn voor Corsair omdat de kleinere chips goedkoper te produceren zullen zijn. 2de voordeel zal ook mindere stroom verbruik zijn.

Ik denk wel dat met de kleinere nand de "wear and tear" hoger zal zijn. Benieuwd hoe ze dit aanpakken.

Bijkomend voordeel van kleinere nand is wel dat er strak meer geheugen mogelijk zal zijn in mobiele apparaten.

[Reactie gewijzigd door DTHUGGA op 26 maart 2013 11:16]

aan de ene kant is het duurder, hoe kleiner je wilt gaan hoe duurder de fabriek/installatie. Echter hoe kleiner hoe minder materiaal je nodig hebt. Je haalt meer chips uit een wafer. Of meer chips voor minder silicum. Op personeelskost kan je ook besparen immers heb je evenveel personeel nodig om een wafer op 19 of op 24 nm te maken.

Het is dus wel een kostenbesparing maar wel eentje met een return on investment.

Maar ook niet vergeten dat om chips op 19 nm aan te sturen de andere componenten gevoeliger moeten worden. Dat geeft in het begin hoogstwaarschijnlijk een lagere performance maar maakt het ook iets duurder om de ssd als geheel te fabriceren.

En minder stroomverbruik, ja maar over hoeveel spreken we dan? zoveel verbruikt een ssd al niet dus dat word minimaal.
Iemand die me kan uitleggen waarom dat met iedere verkleining het aantal programeer- en wiscycli afneemt?
Volgens mij hebben het aantal programeer- en wiscycli niets te maken met het procedé. De cycli worden beïnvloed door SLC/MLC/TLC. Wat staat voor het aantal bits per cell ( http://www.anandtech.com/show/5067/understanding-tlc-nand )

een zgn die-shrink zorgt inderdaad voor een energie besparing en op termijn een kosten besparing voor de fabrikant, simpelweg omdat het kleiner wordt.

Daarom vind ik het ook jammer dat er niet bij wordt vermeld of het Mlc of Tlc geheugen betreft. Al vermoed ik TLC, simpelweg omdat de huidige trend is.

[Reactie gewijzigd door analogworm op 26 maart 2013 11:38]

Uit het artikel dat je daar linkt:
On top of the decrease in performance, TLC also has worse endurance than MLC and SLC. Precise P/E cycle figures are not yet known, but we are most likely looking at around 1000 cycles. Hynix has a brief product sheet for their 48nm TLC flash, which has 2500 P/E cycles. At least in MLC flash, the move to 3Xnm halved the P/E cycles so we would be looking at 1250 cycles. 2Xnm brought even fewer cycles, roughly 3,000, and with same math we get 750 cycles for 2Xnm TLC. X-bit labs reported 1,000 cycles for TLC, which sounds fair. It's also good to keep in mind that endurance can vary depending on the manufacturer and maturity of the process. For example the first 25nm NANDs were good for only ~1,000 cycles, whereas today's chips should last for over 3,000 cycles.
Write cycles hangt dus weldegelijk ook af van het productieproces.

Ik heb na een jaar licht gebruik nog geen 15 cycles gebruikt van mijn ssd. De kans is groot dat de ssd nog vervangen wordt voor hij de 30 cycles haalt. Naar mijn mening is al het P/E-cycle gedoe nogal overhyped. Het probleem is meer dat TLC meer kansen heeft op bitfouten, en dat TLC minder snel is. Dat is de enige reden waarom ik toch voor MLC zou gaan momenteel.
Zet eens je SSD voor 90% vol en ga er dan eens mee werken, die overige 10% wordt dan veel vaker beschreven dan de rest en dan gaat het wel redelijk hard.
Dat ligt er maar net aan of je ook telkens dezelfde clusters / files overschrijft. Als hier geen vast patroon in zit dan rouleert het alsnog.

Maar het is sowieso verstandig om iets meer vrije ruimte te houden op je SSD dan 10%, ook voor performance. Zelf heb ik eigenlijk altijd tussen de 25-50% vrij.
En daarvoor mijn beste kerel...
Is een wear leveling algoritme in de SSD's ingebouwd.

Deze zorgt bijvoorbeeld ervoor, dat cellen die veel slijtage hebben gehad, rust worden gegund, door ze te vullen met statische data.
Waarna de rest van de cellen, die bijna tot geen slijage hebben gehad (door statische data ), juist eerder worden aangeleverd om te beschrijven, om zo slijtage niveau gelijk te trekken,.
Zo blijft de slijtage van geheugen cellen over een SSD over het algemeen gelijk en dus levensduur zo maximaal mogelijk.

Ga je een SSD voor 90% vol zitten, dan loop je eerder tegen het probleem aan dat je write amplification hoger uitvalt, doordat de SSD controller in tijden van writes, blokken zit vrij te maken en data om te huizen om zo volledige write blocks vrij te maken om de nieuwe data in op te slaan.

Dit heeft dan als effect dat de data die je schrijft als ware een vermenigvuldiging krijgt vanh et aantal writes wat het teweeg brengt. Zo kan een 1MB file dus 2 MB aan writes teweeg brengen, omdat in de achtergrond data was rondgehuisd.

[Reactie gewijzigd door Swordlord op 26 maart 2013 16:50]

Omdat ze kleiner zijn en dus minder materiaal bevatten zijn cellen eerder doorgesleten. Door write acties slijten de cellen fisiek.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013