Samsung onderzoekt opnieuw prestatieproblemen 840 EVO-ssd's

Samsung heeft in een verklaring bekendgemaakt onderzoek te doen naar aanhoudende klachten over prestatieproblemen bij zijn 840 EVO-ssd's. De fabrikant brengt in maart een nieuwe versie van de SSD Magician-software uit die verbetering moet brengen.

Samsung liet aan TechReport weten bekend te zijn met nieuwe klachten over degradatieproblemen wat betreft de prestaties van zijn 840 EVO-ssd's. "Terwijl we de zaak onderzoeken, brengen we in maart een nieuwe versie van de Samsung SSD Magician-software uit die een performance restoration-tool bevat", meldt het concern.

TechReport nam hun 250GB-versie van de 840 EVO opnieuw onder de loep, na klachten van gebruikers over slechte leessnelheden. Het zou daarbij gaan om drives die al van de EXT0CB6Q-firmware voorzien waren die Samsung half oktober vorig jaar samen met een 'Performance Restoration v1.0'-tool uitbracht. Die release moest de bestaande leesproblemen aanpakken waar gebruikers al maanden over klaagden.

Bij de nieuwe testen van TechReport bleek de drive inderdaad ruim onder de maat te presteren bij zowel benchmarks als realworld-dataoverdracht. Na formatteren was de leessnelheid weer op peil. Bij een tweede TechReport-medewerker vertoonde de EVO-drive geen degradatieproblemen bij bestaande content, maar dat zou kunnen vanwege recent toegepaste ntfs-compressie, waardoor de data van de nandcellen een refresh gehad kunnen hebben.

Door Olaf van Miltenburg

Nieuwscoördinator

23-02-2015 • 13:16

132 Linkedin

Reacties (132)

132
131
107
7
3
8
Wijzig sortering
Ik heb meerdere exemplaren van die 840, tot nu toe nog niets gemerkt. Toch een keertje checken :)
ik heb het gevoel dat je in real life er niet al te veel van merkt, tot je echt testen gaat draaien.
Ik heb er 3x 1TB 840 EVOs in R0 zitten, de array gebruik ik voor opslag van mijn games en grote programma's.

En ook ik had laatst weer last van ernstige degradatie, en merkte het wel degelijk dat mijn SSD een heel stuk langzamer was geworden, voor mij is het simpel op te lossen door een volledige format te doen, en daarna de data terug te zetten, van de backup die op mijn server staat.

Maar om eerlijk te zijn begint het nu toch best wel irritant te worden, wat ik trouwens niet echt goed van Samsung vind is dat ze er zelf niet achter waren gekomen in hun test lab, maar dat het weer door de gebruikers (en pers) gevonden en aangekaart moet worden, voordat ze actie nemen.

Ik merk zeer waarschijnlijk een stuk sneller dan andere, als mijn SSDs degraderen, daar ik de programma en game files opsla als RAR files, en dan uitpak op de ramdisk, en letterlijk nagenoeg altijd de maximale doorvoer van mijn ssd behaal.

Hier kan je lezen hoe ik mijn RAMdisk gebruik, als men daar interesse in heeft.
"Maar om eerlijk te zijn begint het nu toch best wel irritant te worden, wat ik trouwens niet echt goed van Samsung vind is dat ze er zelf niet achter waren gekomen in hun test lab, maar dat het weer door de gebruikers (en pers) gevonden en aangekaart moet worden, voordat ze actie nemen."

Als je de oorzaak van het probleem weet is het niet zo gek dat Samsung het niet ontdekt heeft.
Het gaat mp data die langere tijd (in de orde van meerdere weken) niet aangeraakt is waardoor er een kleine verschuiving van het voltage in de cel plaats vindt. Dit natuurlijk omdat de cellen niet leakage vrij zijn. Op het moment dat je die data weer benaderd begint de error correction van de controller als een gek te rekenen waardoor de performance volledig inzakt. Omdat TLC 3 bits per cel opslaat moet het voltage van de cell veel nauwkeuriger worden bepaald. Een kleine verschuiving is dus een veel groter probleem dan bij MLC of SLC.

Overigens is de disk in de screenshot wel een vreemd voorbeeld aangezien de hele disk traag is, iets wat alleen gebeurd als je de disk weken op een plank hebt laten liggen. Real world ziet het er in alle voorbeelden die ik op fora tegen ben gekomen meer zo uit:
http://s13.postimg.org/pughd1kp3/hdtach.jpg

Maar dit is ook de reden dat het Samsung niet is opgevallen. De fixt repareert het probleem namelijk wel alleen het lost de oorzaak niet goed op. Iets wat makkelijk in een lab gemist kan worden aangezien ze SSD's waarschijnlijk niet 4 weken laten liggen en nog maal testen.

Maargoed, ik heb een 840 EVO met hetzelfde probleem in mijn laptop zitten en ik word gillend gek. Mijn laptop staat random ineens vast of begint te happeren, waarna hij even plots weer normaal functioneerd. Van mij mag Samsung wel eens haast gaan maken.

EDIT: Even puur ter aanvulling. Het probleem met voltage verschuiving lijkt zich ook voor te doen bij het 3D TLC NAND. Echt is door het grote procedé (54nm) de verschuiving veel kleiner, aangezien de leakage lager is. Echt zou het zo kunnen zijn dat die SSD"s op termijn ook problemen gaat geven. Ik hoop dat Samsung hier nu gelijk naar gaat kijken maar ik ben bang van niet.

[Reactie gewijzigd door Thekilldevilhil op 23 februari 2015 15:10]

Ik ben het bijna met je eens mijn kanttekening:
Samsung weet net als eigenlijk iedereen die wel eens heeft gehoord over de werking van NAND dat voltage zakt over tijd en dat dat problemen kan opleveren. Met drie mogelijke waarden in een cel heb je dus ook 3 voltage niveaus iets dat Samsung zeker weten moet weten. Dus het argument dat men dit niet in een lab getest zou hebben vind ik dan ook erg vreemd...

De firmware had simpel weg er in moeten voorzien dat data die lang niet aangeraakt is eens in de zo veel tijd een kleine update krijgt. Het is overduidelijk dat andere fabrikanten en andere Samsung firmware dit probleem wel netjes oplossen. Dus het argument van niet testen is totale onzin, waarom kunnen ze het voor andere modellen wel voorkomen maar niet voor de 840 EVO?
Met drie mogelijke waarden in een cel heb je dus ook 3 voltage niveaus iets dat Samsung zeker weten moet weten.
De naamgeving is hopeloos onduidelijk (en eigenlijk simpelweg fout).

SLC = "Single Level Cell", maar zou eigenlijk Single Bit per Cell moeten heten: elke cel bevat één bit aan informatie en kan dus twee voltages hebben: aan of uit, nul of één.
MLC = "Multi Level Cell", maar zou eigenlijk Multiple Bit per Cell moeten heten (of, nog beter, om verwarring te voorkomen, Double Bit per Cell): elke cel bevat twee bits aan informatie (vier mogelijke combinaties) en kan dus 2^2 = 4 voltages hebben.
TLC = "Triple Level Cell", maar zou eigenlijk Triple Bit per Cell moeten heten (als je puur naar de afkortingen kijkt is TLC een speciale vorm van MLC, maar in de praktijk kijkt bijna niemand er op die manier tegenaan): elke cel bevat drie bits aan informatie (acht mogelijke combinaties) en kan dus 2^3 = 8 voltages hebben.

Dit verklaart ook meteen waarom TLC zoveel lastiger is dan MLC; van twee naar drie niveaus zou niet zo heel spannend zijn, maar van vier naar acht maakt alle marges opeens wel heel erg klein.

Meer leesvoer: http://en.wikipedia.org/wiki/Multi-level_cell
"Dus het argument van niet testen is totale onzin, waarom kunnen ze het voor andere modellen wel voorkomen maar niet voor de 840 EVO?"

Ik had het over het feit dat ze de SSD's niet 4 weken op een plank laten liggen en dan nog eens testen, maar gelijk de firmware naar buiten hebben gebracht. Immers, ze dachten het probleem (de op hol geslagen ECC van de controller) opgelost te hebben. En het vervelende is dat dát probleem ook is opgelost maar er dus nog ergens anders een probleem zit. Samsung heeft zelf aangegeven dat ze er nog niet eens achter zijn wat het probleem precies is.

Daarbij is zakkend voltage normaal geen probleem in absolute en relatieve zin. Echter was de 840 de eerste SSD met TLC waardoor op labwerk na er nog weinig bekend was over het gedrag van TLC over tijd. Niemand had voorzien dat de cellen zo snel zouden zakken en dat de controller er zo slecht mee om zou gaan. De controller moet bij MLC maar 4 niveaus onderscheiden, bij TLC zijn dat er 8. Combineer dat met een andere NAND layout (om het grotere aantal niveaus mogelijk te maken) en een erg klein procedé en je hebt een nieuw probleem. Anandtech heeft overigens een prima uitleg over dit deel.

Want uiteindelijk zijn de problemen wel deels opgelost. Dus de firmware langer achterhouden omdat het probleem niet helemaal opgelost is was voor ons ook niet positief geweest.

Dat Samsung dit eens moet oplossen zijn we het allemaal denk ik wel over eens.

[Reactie gewijzigd door Thekilldevilhil op 23 februari 2015 18:01]

En al die verklaringen die je geeft zijn gewoon irrelevant.

En al die verklaringen, analyse en uitleg die je geeft is uitstekend, maar imho ook gewoon irrelevant. (Edit)

Wat Samsung heeft gedaan is een fout die OCZ in het begin ook heeft gemaakt, een product op de markt brengen die daar nog lang niet klaar voor was.

En hebben ze dus met de 840 EVO een paar miljoen gebruikers als TLC beta testers gebruikt.

Gelukkig niet met de zelfde desastreuze gevolgen als met de OCZ SSDs, waar men ook data verlies verlies had, des al niet te min, verwacht men top prestaties, maar krijgt men in plaats daar van krijgt men na een tijdje Gen 1 prestaties op zijn best, en dat is niet waar men betaalt voor heeft.

[Reactie gewijzigd door player-x op 24 februari 2015 14:03]

Tjah, dan kun je nooit nieuwe tech op de markt brengen. Klein schalige tests dekken nooit alle use cases en unieke situaties. En dat gaat niet alleen op voor elektronica.

Zie het zo, softenon (medicijn) was redelijk goed getest en bleek erg effectief. Maar vervolgens werden er tien duizende kinderen met misvormde ledematen geboren. Nou regels aanscherpen zou je zeggen! En dus werden er vanaf dat moment grondigere testen geëist. Wat kwam erna? Vioxx, een uitstekende ontstekings remmer. Eenmaal op de markt bleek dat het hartproblemen veroorzaakte. Nu moet een "blockbuster/preventieve" drug op nog meer mensen getest worden. Dat zal toch wel geholpen hebben of niet? Helaas worden er nog jaarlijks medicijnen van de markt gehaald die door en door getest zijn. Maar omdat er zo veel verschillende situaties zijn dat het de lading toch nooit dekt.

Hoe moet dat nu verder? Geen medicijnen meer ontwikkelen?

Hetzelfde met electronica, alles wordt door en door getest maar zo nu en dan gaat er wat grandioos fout. In dit geval een hele nieuwe (TLC=/=MLC) NAND techniek. Heel lullig met een hoop mensen die er last van hebben. Moeten we nu stoppen met nieuwe technieken introduceren? Ik vind van niet.

Overigens is Samsung met OCZ vergelijken wel een beetje raar. Je vergelijkt nu een nieuwe technologie met kinderziekes met een bedrijf wat een bekende controller niet eens fatsoenlijk kon implementeren waar tig andere bedrijven dat wel konden. Zelfs met stock firmware bakte OCZ er niets van. Dat lijkt me toch een wezelijk andere situatie.

Daarbij zette ik gewoon uit een wat er gebeurde met de SSD. Dan mag je dat irrelevant vinden maar ik nergens zeg ik dat Samsung het goed op lost. Soms moet je ook even buiten je eigen emotionele kader kijken en gewoon eens bedenken wat er aan de hand is. Of je het nou eens bent met de uitkomt of niet.

[Reactie gewijzigd door Thekilldevilhil op 23 februari 2015 18:48]

Ga je me nou vertellen dat men als men goed en voldoende onderzoek had gedaan naar de verschuiving van het niveau van een TLC type cel, men niet deze problemen had kunnen voorspellen?

Dat is vast en zeker gewoon uit te uit te plotten in een grafiek door de verschuiving van het niveau te meten over een jaar tijd of zo, iets wat imho iig het minimum is voor men massa productie begint.

De verschuiving van het niveau is iets dat duidelijk in het lab redelijk gemakkelijk gemeten kan worden, imho betekenen de huidige problemen dat Samsung niet voldoende begrijpt/begreep hoe TLC echt werkt.

Bij mijn weten is Samsung de enige die TLC NAND chips maakt, het lijkt mij er nu duidelijk op dat ze de 840 EVO te vroeg op de markt hebben gebracht.

En als de verschuiving van het niveau, binnen 3 manden al zo erg is dat de controller zulke problemen mee heeft, wat betekend dat voor een SSD die bv 2~3 jaar om wat voor reden dan ook niet gebruikt is, complete data corruptie?, dat is zeker niet uit te sluiten.

Waar ben ik emotioneel?
Ik vind het gewoon niet acceptabel dat ik elke 3 maanden mijn SSDs moet formatteren om ze weer aan de gang te krijgen, daar maak ik mij niet druk om, dat is gewoon een normaal gegeven, en als ze het niet binnen een halfjaar kunnen oplossen, dan krijgen ze mijn SSDs gewoon terug, en vervang ik ze met MLC SSDs.

En wat is er mis met mijn OCZ vergelijking?
Net als OCZ heeft Samsung nu een product op de markt gebracht dat er nog niet klaar voor was, en daarnaast nuanceer ik het ook meteen, door te vermelden dat de problemen iig niet tot data verlies lijd.
Dat is vast en zeker gewoon uit te uit te plotten in een grafiek door de verschuiving van het niveau te meten over een jaar tijd of zo, iets wat imho iig het minimum is voor men massa productie begint.
Dat is het dus niet. Het gedrag blijkt onvoorspelbaar, wat dus inhoudt dat je het met een gebruikelijke trendplot niet kunt zien. Dat is ook waarom er soms nog steeds dingen door het net slippen - aan de randen van de kennis en technologie kom je soms iets onverwachts tegen.

Samsung weet als geen ander dat zulke problemen een enorme smet op het blazoen kunnen zijn, dus je kunt er vanuit gaan dat ze dit echt niet hebben zien aankomen. Als je dan toch anders wilt beweren zul je met meer bewijs moeten komen dan enkel onvrede :)
Het gedrag blijkt onvoorspelbaar, wat dus inhoudt dat je het met een gebruikelijke trendplot niet kunt zien.
Ook dat is gewoon op een plot te zien, als je maar genoeg sampels neemt, er is vast een V achtige plot te maken, waar men de boven en onder grens kan meten, en van daar uit de slechtste waardes als grens kan gebruiken.

En als het echt blijkt dat het gedrag echt onvoorspelbaar is, dan heeft Samsung bij het maken van deze SSDs, gewoon zijn huiswerk niet goed gedaan.
Ook dat is gewoon op een plot te zien, als je maar genoeg sampels neemt, er is vast een V achtige plot te maken, waar men de boven en onder grens kan meten, en van daar uit de slechtste waardes als grens kan gebruiken.
Dat klopt simpelweg niet. Je moet altijd extrapoleren en als dingen dan opeens rare trends gaan laten zien op het deel van de plot dat jij niet gemeten hebt (want je kunt nu eenmaal niet jarenlang testen voordat je zoiets op de markt brengt) krijg je wel eens zoiets als dit.

De aanname dat je dit soort dingen op basis van genoeg meetpunten kunt voorspellen is geen juiste.
En als het echt blijkt dat het gedrag echt onvoorspelbaar is, dan heeft Samsung bij het maken van deze SSDs, gewoon zijn huiswerk niet goed gedaan.
Dat klopt alleen als Samsung een werkende glazen bol had gehad en zoals we van het forum weten zijn die schaars gezaaid.

Het is vervelend dat je nu met de gebakken peren zit, maar het is niet alsof dit een enorm stomme fout is. Als je je met nieuwe technologie bezig houdt gebeuren dit soort dingen nu eenmaal wel eens. Dat is onderdeel van het verhaal.

Als je daar niet tegen kan koop je beter alleen nog antieke en bewezen technologie. Weinig verrassingen, maar ook weinig spannend ;)
Dat klopt alleen als Samsung een werkende glazen bol had gehad en zoals we van het forum weten zijn die schaars gezaaid.
Zou het geheel met je eens zijn als dit probleem pas na 1~2 jaar op trad, maar de praktijk is dat men al na 3~4 maanden al problemen begon te krijgen.

En dat zou imho geen verassing moeten zijn, als er voldoende getest was.

Ook loste ik het probleem per ongeluk zelf op, door toen ik problemen had, dacht dat het aan defragmentatie lag, in samen werking met gebruik van R0, en een format deed, en de data weer terug plaatste en zo was het probleem verholpen, niet denken dat het aan de SSDs zelf lag.
Als je daar niet tegen kan koop je beter alleen nog antieke en bewezen technologie. Weinig verrassingen, maar ook weinig spannend.
Geloof dat ik genoeg spannende dingen met mijn PC doe. :+
Hier kan je lezen hoe ik mijn RAMdisk gebruik, als men daar interesse in heeft.
Zou het geheel met je eens zijn als dit probleem pas na 1~2 jaar op trad, maar de praktijk is dat men al na 3~4 maanden al problemen begon te krijgen.

En dat zou imho geen verassing moeten zijn, als er voldoende getest was.
Juist als er heel druk getest is valt zoiets door de mazen ;) Je stelt tijdens het testen je product continu bij. Het spul dan een half jaar in een hoek gooien en dan nog eens kijken of het spul niet toevallig langzaam is geworden hoort daar niet bij.

Het is gewoon een geval vette pech. Zeldzaam, maar niet onmogelijk.
Het is gewoon een geval vette pech. Zeldzaam, maar niet onmogelijk.
Ik noem het heel wat anders, ik noem het slechte R&D, en gevaarlijk gokken met de data van je klanten, en hopen dat het goed komt, en je vette winsten kan maken.

Ze hebben gewoon met hun TLC NAND gegokt, en te vroeg op de markt gebracht, en de kans is aanzienlijk dat de problemen met TLC niet opgelost kan worden.

Want er is een flinke groep gebruikers, die nooit een BIOS update uitvoeren, als het niet met Windows Update mee komt.

En een grote groep daar van zijn zulke n00bs, die niet eens de vertraging in de gaten hebben, en ik zie bij die groep, dat de kans groot is, dat ze binnen een redelijk korte tijd opeens data corruptie hebben van (onvervangbare) data.

Voor mij niet een super probleem, ik heb van al mijn onvervangbare prive data een drievoudig backup, maar dat geld niet voor de meeste gebruikers, die hebben vaak niet eens een enkele backup.
Ik noem het heel wat anders, ik noem het slechte R&D, en gevaarlijk gokken met de data van je klanten, en hopen dat het goed komt, en je vette winsten kan maken.
Je kunt het noemen waar je wilt, heel nauwkeurig lijkt die inschatting niet.
Het is geen kwestie van even een nieuwe firmware bakken. Je kunt dit probleem alleen oplossen door periodiek geheugencellen te herschrijven. Dat is ook wat de tool doet en wat de nieuwe firmware op de achtergrond doet, maar als jij je SSD een paar maand op de plank laat liggen krijg je performance problemen of zelfs dataverlies als het ECC algoritme het niet meer trekt.
Dat weet ik en dat zeg ik hier onder ook. Maar wat je wel kunt doen de controller uit leggen dat hij neit de hele SSD moet locken op het moment dat hij een fout heeft. Want wat er op dit moment gebeurt is dat de firmware een fout tegenkomt en de hele queue blokkeert. En dat is natuurlijk een beetje een hele lompe oplossing. Zeker omdat zelfs met normaal office gebruik de queue depth al hoger dan 1 is en de SSD altijd wat kan doen.
Zeker omdat zelfs met normaal office gebruik de queue depth al hoger dan 1 is en de SSD altijd wat kan doen.
Waar haal je dat vandaan?, zover ik weet is de queue dept nouwelijks dieper dan 1 tijdens normaal desktop gebruik.

Uitgezonderd zware programma's die echt meerdere gegevens tegelijk opvraagt.

En nee ik zie mijn SSD niet veel doen, meer dan 95% van de tijd zit mijn SSD uit zijn neus te vreten.

[Reactie gewijzigd door player-x op 23 februari 2015 21:52]

Ik heb net een HD tach bench uitgevoerd op mijn eerste generatie samsung 840 en de resultaten zijn net zo schokkend....

Niet over de hele linie is het slecht, maar zeker wel op veel verschillende punten van de disk.
Ik heb deze SSD nu bijna 2 jaar, nu ongeveer gevuld tot 60%.

http://s17.postimg.org/4lufvn81r/Samsung840_HDTach.png
Maar wel precies wat ik aangaf, het is niet over de hele range. En dat is een beetje een probleem want het geeft een indicatie van een tweede probleem...
Jij haalt nog 350 MB/s. Ik krijg er niet meer uit dan 50 MB/s. Na de firmware update in oktober ging het weer tijdelijk iets beter, maar nu is m'n 840 EVO trager dan mijn HD.
Kun jij ook zo'n HD Tach uitvoeren?
Wat zijn jou bevindingen dan, over de hele linie zo'n slecht resultaat?
Ik had HD Tach gedownload maar ik kreeg de melding dat die alleen werkt op XP en 2000. Ik zit op 8.1. Maar misschien moet ik hem in compatibility modus draaien.

Ik ga vanavond een test doen.

*update*
Ik heb een Long Test uitgevoerd, zie hier het resultaat:

http://postimg.org/image/ypppaqwhh/

*update 2*
Na system restore is het resultaat als volgt:

http://s28.postimg.org/z1...ach_version_3_0_4_0_F.png

[Reactie gewijzigd door cracking cloud op 28 februari 2015 09:45]

Is dan de oplossing je sdd wezenlijks te scannen met bv een virusscanner zodat alle cellen even "aangeraakt" worden?
Helaas, lezen reset de voltages/cellen niet. De SSD leest alles normaal uit totdat het voltage onder een kritieke grens komt waardoor de ECC zijn werk begint te doen. Je moet je cellen echt opnieuw "schrijven".
Een volledige format helpt en de data op de disk "roteren" helpt ook. Technisch gezien moet dat ook kunnen. De TLC cellen kunnen (in de praktijk) ongeveer 2500 keer beschreven worden, dus alle data een keer per week shuffelen zou nauwelijks impact moeten hebben.
Omdat TLC 3 bits per cel opslaat moet het voltage van de cell veel nauwkeuriger worden bepaald. Een kleine verschuiving is dus een veel groter probleem dan bij MLC of SLC

Twee vragen die dan bij mijn opkomen:

1) Als dit een typische eigenschap is van TLC lijkt me dit juist iets wat de dynamisch wear-control moet oplossen? Als dit inherent aan TLC is, zou dat dan niet standard in de firmware moeten zitten? Samsung 840's zijn toch dynamic wear control ipv passive?

1a) Als nevenvraag lijytk me dat TLC SSD's met passive wear control dus een zeer slecht idee zijn?

2) Hoe ver gaat deze degradatie. Is dit iets van initieel wat en daarna stabiel, of gaat dit gewoon door? Ik doel hiermee op de vraag hoe lang data uberhaupt leesbaar blijft. Wat nu als ik een disk niet weken maar een jaar op de plank laat liggen? Is mijn data dan onleesbaar?

En als variant ik heb best wel data die bij gewoon gebruik nooit meer aangeraakt wordt. Denk aan bepaalde onderdelen van mijn Windows installatie. Ik neem aan dat dat niet opeens 'kapot' gaat?
"1) Als dit een typische eigenschap is van TLC lijkt me dit juist iets wat de dynamisch wear-control moet oplossen? Als dit inherent aan TLC is, zou dat dan niet standard in de firmware moeten zitten? Samsung 840's zijn toch dynamic wear control ipv passive?"

Klopt, dit is ook wat de controller nu doet. Dus als je SSD 4 weken op een plank laat liggen heb je nog steeds een snelheids probleem totdat alles door de controller opgelost is.

"Hoe ver gaat deze degradatie. Is dit iets van initieel wat en daarna stabiel, of gaat dit gewoon door? Ik doel hiermee op de vraag hoe lang data uberhaupt leesbaar blijft. Wat nu als ik een disk niet weken maar een jaar op de plank laat liggen? Is mijn data dan onleesbaar?"

Als ik de uitleg van anandtech moet geloven is dat laatste inderdaad het geval. Overigens is de snelheid van het verlies van lading afhankelijk het potentiaal over de oxide laag dus het gaat niet lineair. De elektronen moeten een bepaalde energie hebben om over de oxide laag te "springen" cq door te tunnelen. Dus de kans dat het gebeurt wordt steeds kleiner naarmate het potentiaal afneemt.

Maar belangrijk om te onthouden, alle conventionele opslag media hebben een maximum houdtbaarheid. Google maar eens een willkeurig opslag medium (HDD, Tape, CD etc) en er achter data retention time. Je moet naar veel grovere oplossingen wil je data langer bewaren. Hoewel in glas gegoten DNA ook goed lijkt te werken.

Maar met de huidige update gaat er niets ineens kapot aangezien de controller actief cellen heen en weer schrijft. Maar blijkbaar zit er nog ergens een probleem waar ik niet van op de hoogte ben, dus voor 100% zekere antwoorden zullen we het onderzoek van Samsung moeten afwachten, helaas.

[Reactie gewijzigd door Thekilldevilhil op 23 februari 2015 20:41]

Jammer dat het zo'n complex probleem is om op te lossen.
Ik heb hier een aantal laptops van hetzelfde model met een mix van 840 en 850 SSD's. Daar zie je zeker met het opstarten het verschil.

:+ Gelukkig zijn het kantoorgebruikers zodat het probleem in de praktijk niet zo evident is of vaak voorkomt. Gebruikers hebben nu geleerd even 'tot 10 te tellen'.

Hopelijk komen ze met een definitieve oplossing of een omruilaktie. Om namelijk 'proefkonijn' te blijven spelen voor Samsung is niet mijn voorkeur.

Gelukkig werken hun andere producten zoals SHDX kaartjes nog prima zonder problemen.
Ik zou graag lezen hoe jij een ram disk gebruikt, echter je link is botweg reclame voor een vaag ram merk....

Ik heb zat ram, gebruik doorsnee maar 5% ... Zou dus best wat slimme ramdisk trucs kunnen uithalen.
Je moet niet het artikel lezen over setje DDR4 dims, maar de post waar ik naar link.

Maar hier is de hele post opnieuw:

Ik zou best een grotere RAMdisk willen hebben op mijn systeem.

Het is dan ook de hoofd reden dat ik voor X79 ben gegaan, daar ik 64GB geheugen en een RAMdisk wilde, waar ik nu ook echt gebruik van maak.
RAMdisk die in de praktijk minimaal 10x sneller is dan SSDs, iets dat je ook echt merkt in de praktijk, maar ook een hoop werk was om goed op te zetten, maar ook iets dat ik persoonlijk erg leuk vond om te doen.

Heb op de ramdisk alle programma's staan die ik altijd gebruik, anti virus, FF, en paar andere die veel gebruikt worden en/of veel de disk gebruiken, en de RAMdisk software houd automatisch een mirrior op op de HD bij, zodat bij opnieuw opstarten die weer gebruikt kan worden, zij het tijdens normaal uit en aan zetten, als tijdens een crash.

Ik gebruik dit voornamelijk voor games en de zwaardere programma's zo als SolidWorks.

Elke keer dat ik bv een game opstart, kopieert een batch file de game van een HD naar de RAMdisk, en start daarna de game automatisch op.

Het vele werk was om dit nagenoeg automatisch te maken met minimaal werk tijdens gebruik.

Hoe werkt het met een batch file.

Ik gebruik voor al mijn tijdelijke files die op de ramdisk gaan een dedicated directory, die naast de standaard prog's gebruikt word als wissel map.

Hoe heb ik mijn batch file gemaakt, en weke stappen zit in die batch file, en voor elke batch file hoef ik alleen de locatie van de files te veranderen.

Startup batch file
1 - Vraag of RAMdisk gebruikt moet worden, via [Y/N] input.
2 - Bij [Y] ga naar stap 4.
3 - Bij [N] start file op standaard manier C:\file.bat.
4 - Geef inhoud van tijdelijke map weer en geef disk ruimte weer met /dir command.
5 - Geef grote van map weer die naar RAMdisk word verplaatst.
6 - Vraag om [Y/N] input of andere mappen moet worden gesynchroniseerd en dan verwijderd van RAMdisk.
7 - Bij [N] ga naar stap 9.
8 - Bij [Y] ga naar betreffende DOS box en ga naar stap12/13 daar.
9 - Wacht voor user input (Any key) tijdens verwijder /pause.
10 - Kopieer map van lokale (of netwerk) drive naar de RAMdisk.
11 - Start game of programma file van de RAMdisk.
12 - houd DOS box open in de achtergrond
13 - Vraag of de RAMdisk verwijderd moet worden.
14 - Bij [Y] ga naar stap 15, en synchroniseer en verwijderd files van RAMdisk.
15 - Mirroring files met Robocopy.
16 - verwijder files uit de wissel map.

Maak sinds een tijdje gebruik van raid 0, met een array van drie 1TB EVOs, voor mij heeft dat twee voordelen, de eerste is een grotere drive volume.

Maar voor mij is de tweede reden, met mijn speciale gebruik, nog belangrijker, sneller laden, maar daar gebruik ik wel een trucje voor.

Games bestaan uit twee type data, 99% game data en minder dan 1% user data, game data is statische data dat alleen veranderd tijdens patches, user data daar in tegen veranderd meestal continu.

Wat ik doe is de game data opslaan als een RAR file, met een -m1 of -m2 switch, welke ik dan met realtime RAR decompressie weer uit kan lezen, (ik test welke het snelste werkt per programma/game, nagenoeg altijd -m2), dit heeft twee voordelen, heel soms wordt er aanzienlijk minder data gelezen van de SSD, maar vooral wordt er maar een file uit het geheugen gelezen, en je dus de maximale sequential doorvoer haalt.

Nadeel van deze methode is dat als er een game update is, je die wel opnieuw moet wegschrijven, om dat in de gaten te houden, lees ik na het laden van de RAR file maar voor het laden van de user data de folder grote uit.

En na het verplaatsen van de user data, lees ik weer de folder grote uit, en als die nog gelijk zijn, eindig ik de batch file, indien niet gelijk overschrijf ik de RAR file met nieuwe data.

Al met al, en hoewel er naast ook nog eens flinke koste die er mee gepaard gaan aan extra hardware, maakt het mijn file systeem in de praktijk gemiddeld een stuk sneller in gebruik, maar wel ook langzamer tijdens tijdens het starten van games en programma's.

Uiteraard heb ik ook vele uren verspilt aan het opzetten en uitdokteren hoe je zo een dergelijke batch file maakt, en als dat niet leuk vind, begin er dan ook maar niet aan, want totdat MS een dergelijke optie in het OS inbakt of er een 3th party programma komt die het allemaal automatisch doet, blijft het ook redelijk veel werk.

Synchroniseer en verwijderd van RAMdisk batch file tijdens reboot/shutdown. (verwijder.bat)
Uiteraard tijdens een reboot of herstart wil je ook dat je files gesynchroniseerd zijn, hoe je dat doet staat hier.

Waarom Robocopy, Robocopy is de meest uitgebreide kopie en mirror opdracht dat Windows kent, en voor mijn doel is de mirror/synchronisatie functie ideaal, daar alleen de files die veranderd zijn worden gekopieerd, en het dus echt razend snel gebeurd, gemiddeld ruim onder de 5sec.

Hoe maak ik een Batch file: http://www.wikihow.com/Write-a-Batch-File
Vele voorbeelden van nuttige batch commands: http://stackoverflow.com/questions/
Wat is Robocopy ?: http://en.wikipedia.org/wiki/Robocopy

Ik merk vaal grote verschillen tussen RAMdisk en SSD tijdens laden en veld wissels in games, hoewel het ook wel heel erg afhankelijk is van de game dat ik speel, de RAMdisk is vaak vloeiender met overgangen, en ben ook nagenoeg altijd de eerste op een nieuw veld, ook Plant-View en SolidWorks dat ik veel gebruik werken een stuk vlotter op de RAMdisk.

Games die ik weinig meer speel staan nu in een game map op mijn server, en hoewel het wachten tijdens het kopiëren redelijk lang duurt

Steam werkt een stuk prettiger, voorheen was ik gebonden aan een Steam folder waar ik al mijn games moest installeren, nu installeer ik ze gewoon op de RAMdisk, en verplaats ze daarna naar een SSD, of de games die ik weinig speel zet ik op de server ipv te verwijderen omdat ik ongeveer 3.5TB aan Steam games heb.

Tastbare Voor en nadelen, bij mijn opstelling iig.
+ Kan echt veel sneller zijn dan SSDs.
+ Steam heeft geen beperkingen meer. (maar dat geld ook als je games tijdelijk verplaatst)
+ Gevoelsmatig een veel sneller systeem als de RAMdisk in gebruik is.

o Zeer lange opstart tijd tijdens verplaatsen van files via netwerk naar RAMdisk, maar daar na razend snel, en nog steeds beter dan steeds op nieuw installeren of handmatig kopiëren uit de archief directory. (meer een plus dan een min punt)

- Gevaar data verlies bij crash of stroomuitval! (UPS vangt stroomuitval op)
- Duur!!! (maar voor mij persoonlijk het waard)
- Langere opstart tijd tijdens verplaatsen van files naar RAMdisk.

Welke RAMdisk software gebruik ik?

Zelf gebruik ik Primo Ramdisk Ultimate welke $70 was, en ik lette bij mijn keuze vooral op de 4K doorvoer van kleine files, de keuze voor Ultimate was om dat die tot 1TB RAM ondersteunde, ipv de 32GB van de Pro editie.

Maar er zijn veel meer keuzes, maar deze round-up heeft zeer veel nuttige informatie, en er is een tweede round-up in de maak.

Maar verwijderd robocopy dan niet je mirror op het moment dat de ramdisk opnieuw geladen wordt na bijvoorbeeld een stroom storing? Robocopy mirrored je legen ramdisk dan toch met je mirror file?

Nee hoor is geen echt probleem, daar ik de RAMdisk image elke 30sec sync.

Welke op een 64GB Samsung 830 dedicated SSD voor de image wordt opgeslagen.
Timing Save
This function automatically saves the disk contents to the image file every a given time interval.

Real-time Save
This function provides a more robust data keep mechanism. It is designed for the sudden power loss issue. With this function, data is almost immediately written to the associated image file whenever data arrives to the ram-disk. Thus, it minimizes the influence of a sudden power loss. However the performance of the ram-disk degrades greatly.

Manual Save
This function allows you to manually save the disk contents to the associated image file or a new image file at any time you want. See Manually Save Disk Contents topic.

Quick Save Mode
Quick Save mode makes a ram-disk skip unchanged data of the disk contents and only save new or updated data to the image file, instead of writing all data to the file every time, which in turn, reduces a lot of file write time.
Gebruik de Timing Save samen met Quick Save Mode.

Dus ja ik kan bij een crash data verliezen, bij stroomuitval heb ik een UPS die nog even doorwerkt, en op tijd de PC netjes afsluit, via een signaal over USB die de UPS zend.

Maar als je elke 30 seconden je ramdisk naar je SSD weg schrijft, ben je de levensduur van de SSD wel flink aan het inkorten?

Nee hoor, ten eerste worden er max net zoveel schrijfacties gedaan als wanneer je een programma gewoon op de HDD/SSD staat, want er worden alleen maar veranderingen weg geschreven niet de hele image.

Ten tweede heb je iets van 700TB schrijfacties nodig voor dat een SSD dood gaat, dat is bij normaal PC gebruik over 200 jaar dagelijks 10GB data schrijven op de SSD.

[Reactie gewijzigd door player-x op 24 februari 2015 07:08]

En ook ik had laatst weer last van ernstige degradatie, en merkte het wel degelijk dat mijn SSD een heel stuk langzamer was geworden, voor mij is het simpel op te lossen door een volledige format te doen, en daarna de data terug te zetten, van de backup die op mijn server staat.

Maar om eerlijk te zijn begint het nu toch best wel irritant te worden, wat ik trouwens niet echt goed van Samsung vind is dat ze er zelf niet achter waren gekomen in hun test lab, maar dat het weer door de gebruikers (en pers) gevonden en aangekaart moet worden, voordat ze actie nemen.

Ik merk zeer waarschijnlijk een stuk sneller dan andere, als mijn SSDs degraderen, daar ik de programma en game files opsla als RAR files, en dan uitpak op de ramdisk, en letterlijk nagenoeg altijd de maximale doorvoer van mijn ssd behaal.
Is dit niet een beetje paniek voetbal? In het grote SSD topic hier op GoT was recentelijk ook een M500 te vinden die was terug gevallen naar onder de 40 MB/s. Dit was gewoon Windows 7 met trim (en geen raid). Pas na een secure erase deed de SSD het weer als nieuw. Zelf heb ik op mijn Intel 520 ook lichte performance degradatie gezien (circa 10%).

Ik vraag me dan ook af of er niet gewoon inherent een probleem aan hoe TRIM momenteel functioneert. Het lijkt in ieder geval niet 100% te werken bij diverse merken (Samsung, Intel en Crucial).
Maar ik heb Trim nouwelijks nodig, daar in mijn gebruik, ruim 90% van mijn data statische data is dat niet veranderd.
50MBps ipv 500MBps zou je toch wel merken denk ik
Mits je natuurlijk veel sequential reads uitvoert. ;)
500 MBps bij sequentieel lezen inderdaad, terwijl je normaal gesproken hoofdzakelijk random read doet, 50 MBps bij random read is een hele goeie prestatie namelijk.
Ik heb ook nog nooit problemen ervaren met mijn 840 250GB kaartje. Als het zo is wat @The Fatal zegt, en je er pas wat van merkt als je echt tests gaat draaien, dan zou ik me er niet druk om maken, wel fijn dat Samsung in elk geval onderzoek doet om de probleemgevallen te assisteren.
Tijdens bijvoorbeeld het uitpakken van een RAR bestand merk je het heel sterk.
Zelfde heb er 2 in 2 computers al jaren draaien, heb nergens last van.
Met de 850 Pro gelukkig geen last van (tot nu toe)! Maar ik begin wel een beetje te twijfelen aan Samsung SSD's, want dit soort verhalen hoor je nooit over SSD's van bijv. Intel, PNY of Kingston...
Nee, die houden er ook gewoon mee op zoals ik 2x heb gehad met een intel SSD... Elke merk heeft wel zo zijn problemen met bepaalde types...
Hmm heel naar! Ik kan me nog een gevalletje herinneren met een OCZ Vertex 2, daar heb ik zelf ook last van gehad, en ik had gehoopt dat ze daar wel van hadden geleerd. Je kan het als fabrikant eigenlijk niet maken om SSD's te verschepen die zulke grove gebreken vertonen... Wel raar dat de berichten over Samsung SSD's zoveel meer onder de aandacht worden gebracht, want van problemen met Intel SSD's heb ik nog niets gelezen hier op Tweakers.
Zo ongelooflijk grof vind ik deze fout niet. Ik wil niemand verdedigen, maar het werkt allemaal wel, en ze zijn met een fix bezig. Bij de OCZ vertex was het probleem dat het simpelweg dataverlies opleverde, en er is gewoon nooit een fix gekomen. Garanties werden ook niet echt gehonoreerd. Dat vind ik onacceptabel.

Samsung is in ieder geval bezig met een fix, voor een probleem dat niet eens echt productieverstorend is.
Ja ik herinner me ook een artikel op tweakers specifiek over de slechte kwaliteit van ocz. Na een reorganisatie zou het wel goed moeten komen, maar de kwaliteit was ver ondermaats, begreep ik
Dat is wel heeeel erg lang geleden. OCZ maakt gewoon goed spul, en dat ze een keer in een serie een minder goede controller gebruikten mag de pret inmiddels echt niet meer drukken.
OCZ is nu gewoon toshiba geworden, en maakt tegenwoordig prima spul inderdaad.
Ik heb er 3x 1TB 840 EVOs in R0 zitten, de array gebruik ik voor opslag van mijn games en grote programma's.

En ook ik had laatst weer last van ernstige degradatie, en merkte het wel degelijk dat mijn SSD een heel stuk langzamer was geworden, voor mij is het simpel op te lossen door een volledige format te doen, en daarna de data terug te zetten, van de backup die op mijn server staat.

Maar om eerlijk te zijn begint het nu toch best wel irritant te worden, wat ik trouwens niet echt goed van Samsung vind is dat ze er zelf niet achter waren gekomen in hun test lab, maar dat het weer door de gebruikers (en pers) gevonden en aangekaart moet worden, voordat ze actie nemen.

Ik merk zeer waarschijnlijk een stuk sneller dan andere, als mijn SSDs degraderen, daar ik de programma en game files opsla als RAR files, en dan uitpak op de ramdisk, en letterlijk nagenoeg altijd de maximale doorvoer van mijn ssd behaal.

Hier kan je lezen hoe ik mijn RAMdisk gebruik, als men daar interesse in heeft.
Ik vond juist de support van ocz heel goed. Ik heb 2x gehad dat mijn vertex 2 kapot ging en beide keren had ik na een week alweer een nieuwe (de huidige werkt nu al zon 2 jaar trouwens) gekregen van ocz.

Dus hoewel ocz een brakke ssd op de markt bracht, ze deden er niet moeilijk over om nieuwe ssds op te sturen als hij kapot ging.
Mooi dat je steeds nieuwe krijgt, maar je krijgt er nog steeds een brak product voor terug. Als OCZ echt had toegegeven dat die serie SSD's brak was, hadden ze je een model opgestuurd wat niet systematisch kapot gaat. (Geluk dat je huidige wèl 2 jaar mee gaat, er waren er meer kapot dan goede)


Een vriend van me had een OCZ schijf, die gewoon blue screens veroorzaakte. OCZ zei heel leuk dat het bij hem lag, geen garantie.
Ik snap dat het vervelend is. Ik ben vanaf het begin met OCZ SSD's bezig geweest en zelf nooit problemen ondervonden. Ik had ze niet vanaf het begin en meestal waren er al wat Firmware updates uitgebracht. Heb nu nog de Vertex (30GB), Vertex 2 (60GB), Vertex 3 (60GB) en Agility 3 (60GB) in gebruik. Welke allen nog prima werk leveren.

Verder had ik nog twee keer een Samsung 830 in RAID0, maar die waren beide kapot gegaan. Bij de eerste kreeg ik een vervanging en een paar weken ging de tweede defect. Toen na veel gezeur mijn geld teruggekregen en de andere verkocht en voor een enkele Intel gegaan welke ook nog nooit problemen heeft gegeven ondanks de SF controller.

Daarna heb ik echter geen OCZ meer gekocht omdat de prijs/prestatie/opslag wat is afgenomen in vergelijking met de concurrenten. Ben nu bij Crucial, maar kan er nog weinig over vertellen.
Zo ongelooflijk grof vind ik deze fout niet. Ik wil niemand verdedigen, maar het werkt allemaal wel, en ze zijn met een fix bezig. Bij de OCZ vertex was het probleem dat het simpelweg dataverlies opleverde, en er is gewoon nooit een fix gekomen. Garanties werden ook niet echt gehonoreerd. Dat vind ik onacceptabel.

Samsung is in ieder geval bezig met een fix, voor een probleem dat niet eens echt productieverstorend is.
Je mag verwachten dat een gehonoreerd bedrijf als Samsung, OCZ, Intel, etc hun SDD's testen op basisfunctionaliteit. Het lezen van datablokken ouder dan maand is een basisfunctionaliteit van een harde schrijf. Daarom vindt ik dat Samsung een gebrekkige harde schrijf heeft geleverd.

Ik snap eigenlijk ook niet waarom de 840 evo nog steeds wordt aangeraden als een goede SSD door meerdere websites. Wat ze doen is dit:"De samsung 840 Evo, heeft momenteel de beste prijs kwaliteit verhouding, een klein nadeel is dat de schrijf datablokken ouder dan een maand 10x zo langzaam leest 8)7 ".

edit:
"overschrijven van verwijderde data" vervangen door "leest data ouder dan een maand langzaam"

[Reactie gewijzigd door Bliksem B op 23 februari 2015 14:46]

Dat is niet het probleem. In principe zul je niets merken van de prestatieafname, en er wordt aan een fix gewerkt. Elke fabrikant heeft wel eens producten waar iets mis mee gaat. (iPhone 6 buigt, xperia z breekt, ocz schijf faalt, iiyama monitoren hadden vroeger veel dode pixels, en zo kan ik nog wel even door)

Het overschrijven van verwijderde data heeft overigens helemaal niets te maken met dit probleem, het gaat om data die langer dan een bepaalde tijd op de schijf staat, die langzamer wordt.
Windows (voorbeeld, je OS dus) staat er toch vaakst het langst op. Dus die wordt als dit allemaal klopt het snelst het langzaamst gelezen.(mooi gezegd :P )
Geen last van langzamer os hoor, start nog steeds < 7 seconden op, net als in het begin :)
Zo ongelooflijk grof vind ik deze fout niet. Ik wil niemand verdedigen, maar het werkt allemaal wel, en ze zijn met een fix bezig. Bij de OCZ vertex was het probleem dat het simpelweg dataverlies opleverde, en er is gewoon nooit een fix gekomen. Garanties werden ook niet echt gehonoreerd. Dat vind ik onacceptabel.

Samsung is in ieder geval bezig met een fix, voor een probleem dat niet eens echt productieverstorend is.
Het werkt allemaal wel.... Wanneer je een porsche koopt en deze rijdt prima op snelwegen, maar zodra je op een provinciale weg komt kan hij niet harder dan 25 km/u. Hij rijdt inderdaad nog prima, maar voor dat geld verwacht je op z'n minst dat een Porsche sneller is dan een scooter |:( .
Dit is een zelfde vergelijking, als je een SSD koopt, verwacht je dat deze snellere accesstijden en schrijf/leessnelheden heeft dan een reguliere HDD. Deze SSD leest oudere bestanden met 50 tot 60 MB/s (volgens: nieuws: Samsung brengt 15 oktober fix uit voor snelheidsdegradatie 840 EVO-ssd's), dat is 2x zo langzaam als een reguleren HDD! productreview: WD Green WD20EZRX review door menonv

"Het werkt allemaal wel", als je dat niet merkt, misschien moet je voortaan dan meer geen dure SSD nemen en voortaan gewoon een budget SSD nemen, of beter nog een ouderwetse harde schrijf. Maar even serieus Grenade, stop met verdedigen, hij werkt dus niet. Hij haalt niet de beloofde snelheden en voldoet niet aan de verwachtingen die het product belooft. Ook te veel dode pixels zijn niet toegestaan even tussendoor, maximaal 3 pixels bij wet dacht ik.

[Reactie gewijzigd door Bliksem B op 25 februari 2015 13:04]

De 840EVO is een budget SSD...
Niks budget aan de 840 EVO, ding is duurder dan een willekeurige Crucial en zodra je last hebt van deze bug is ie serieus trager dan een 1st gen SSD.
tja, hoe meer mensen er 1 hebben hoe groter de kans is dat er over geklaagd wordt..
PLUS je hoort voornamelijk natuurlijk de mensen die er tegen aan lopen, de rest heeft er geen last van of merkt het niet...
De Crucial M550 ssd die ik in mijn vaders laptop heb geplaatst maakt zelfs geluid onder belasting. Na even googlen hebben er nog mensen problemen met ssd's die geluid maken. Een ssd wordt toch verondersteld geluidloos te zijn? Als ik trouwens mijn usb stick plaats in diezelfde laptop maakt hij ook geluid onder belasting. Plaats ik deze stick in mijn desktop (front usb) is hij onhoorbaar bij belasting. Dus volgens mij is de laptop (Acer) zelf de schuldige. Slechte voeding misschien? Emi?

Ssd's hebben veel voordelen tov hdd's maar soms kunnen er nog problemen optreden, zoals hier ook bij Samsung. Ik hoop dat ze snel een oplossing vinden.
Hebben die wel genoeg klanten om dit te melden :D.
Begint een beetje een pleister op pleister verhaal te worden.
Ik wou nog een 840 1TB halen..vond het niet zo nodig om 850 Evo te halen hiervoor.
Maar begin nu toch te denken dat 850 wellicht..HOPELIJK, betere lange termijn prestaties heeft.
Dit heeft natuurlijk weinig met lange termijn prestaties te maken. De schijf blijft het gewoon lang goed doen.
Na formatteren was de leessnelheid weer op peil.
Dit gaat om een vaag probleem waar data die al een tijdje op de schijf staat flink minder snel gelezen wordt. Na een format is dat probleem weer weg.

Het probleem is dus dat de data "vers" moet zijn om met "normale" snelheden gelezen te kunnen worden.

Een heel erg vaag probleem dus wat waarschijnlijk aan de software ligt, en niet aan de hardware zelf. Al helemaal niet aan degradatie van de cellen, of zo.

Het is alleen te hopen dat de nieuwe pleister (zoals je dat wel mooi omschrijft) niet weer 10% van de schijfcapaciteit nodig heeft.

Zo heeft mijn 120GB 840 al 10GB minder vanaf dag 1, zogenaamd vanwege Over Provisioning, maar als je dan in Magician naar OP gaat, staat daar mooi 0.0GB allocated, recommended 10%. Dus hop, nog 9GB eraf. :S
Goed punt, hoop dat er goed naar de firmware wordt gekeken.
Ik snap dat het met "vers" te maken heeft. Maar stel ik haal de 1TB variant..
Heb ik weinig zin om periodiek de hele schijf te formatteren.

Je hebt dus eigenlijk praktisch een 100gb ssd, flauw!
Je hebt gelijk.
Ik zou zelfs een 100GB niet regelmatig willen formateren. :P

Dit moeten ze fixen.
Maar als je een 120GB EVO hebt, dan zullen die pleisters, wat je zegt, aardig aan gaan tikken en een behoorlijk hoog percentage van je schijf afpikken.
Geen idee wat jij ermee gedaan hebt, maar de Magician had 10% nodig TIJDENS het herstellen. De data wordt namelijk verplaatst van de ene plek naar de andere om de data te refreshen, waardoor door de firmware-aanpassingen de prestaties niet zouden afnemen. Na het refreshen is deze 10% niet meer nodig en kun je deze zelf dus weer gewoon gebruiken.

Het is dus ook zeker niet zo dat na meerdere malen dit proces te herhalen er steeds 10% van de capaciteit afgaat.

Mijn 250GB SSD EVO 840 heeft dan ook netjes 250GB beschikbaar, ook na de performance restoration tool.
Ben ik nu de enige die de associatie maakt met defragmenteren?

Je weet wel, dat ding dat je eigenlijk absoluut niet op een SSD zou moeten/mogen doen?

Neen het is niet helmaal hetzelfde, ipv gefragmenteerde data, moet je "oude" data verplaatsen, maar de link is er toch.

[Reactie gewijzigd door IceTeaGX op 23 februari 2015 14:33]

Daar zeg je zowaar iets!
Mensen met dit euvel zouden zomaar eens een simpele defrag kunnen proberen, en de resultaten benchen!
Wow!

Edit:
Het is toch feit dat een defrag data verplaatst, en voorzover dit bericht het meldt is het verplaatsen van data nodig voor deze schijf om de data niet minder snel gelezen te laten worden.

Als een mooie simpele defrag daarvoor kan zorgen is dat toch een goed idee om op z'n minst te testen?

Misschien werkt het niet, maar het is het proberen waard.
En een enkele defrag gaat je schijf ook weer niet zovel levensduur kosten.

[Reactie gewijzigd door HMC op 23 februari 2015 15:05]

Het is toch feit dat een defrag data verplaatst,
Helemaal niet. Defrag defragmenteert de schijf. Op een niet-gefragmenteerde schijf doet defrag dus helemaal niets. Dus als je iedere week gaat defragmenteren om oude data te refreshen, zal die oude data na 1 keer waarschijnlijk niet meer verplaatst worden.
Klopt. Ik heb het dan ook over één defrag op een SSD die in principe nog nooit gedefrag't is, na een wat langere tijd, slechts als test.

Dan is het vrij zeker dat er aardig wat data verplaatst gaat worden. En nogmaals, slechts als test.

Ik heb niet gezegd dat het wonderen gaat verrichten.
Maar als ik een EVO had zou ik dit echt wel een poging waard vinden, terwijl wachtende op de fix, die waarschijnlijk ook alleen maar geforceerd gaat copy pasten via een extra deel op de schijf die tijdelijk gereserveerd gaat worden.
Met tools als zoals jkdefraggui kan je kiezen om alle data naar het einde van de disk te verplaatsen.

Bij normale schijven zou dit een snelheidswinst moeten opleveren omdat data op het einde van de schijf sneller uitgelezen wordt.

Bij deze SSD zou dit dan inderdaad het probleem kunnen oplossen.

Deze is te vinden op deze site:
http://www.wieldraaijer.nl/

[Reactie gewijzigd door XthinkZ op 23 februari 2015 19:15]

defrag heeft op een SSD bijlange na niet zo'n grote invloed als op een HDD, omdat de random access times extreem laag liggen met een meer dan deftige random read/write (zeker tov HDD's). Vroeger was defragmenteren om de koppen niet constant over een weer te laten vliegen over je schijf, omdat er maar vanop 1 plaats (per kop) tegelijk kon worden gelezen. Met SSD's kan je direct alle "blocks" accessen als ware het een soort van raid0 van chips.
Ja en nee. Defragmenteren is inderdaad het verplaatsen van data, maar het gaat hier om 'filesystem niveau'. Bij schijven komt dit (vrijwel?) overeen met de plaatsing op de platter(s).

Bij een ssd zit er nog een vertaalslag tussen. De controller op de ssd houdt rekening met welke cellen vaak beschreven zijn en probeert de writes zo gelijk mogelijk te verdelen, om zo de levensduur gelijk te trekken. Je fs komt dan ook niet overeen met hoe de data op de geheugenchips staat.

Naar verwachting werkt de Samsung tool direct op de ssd zonder rekening te houden met het fs. Defragmenteren zorgt voor een stuk meer writes waardoor je ssd sneller slijt en is bovendien trager door de overhead. Daarnaast is het in theorie mogelijk dat een bestand al op de 'juiste' plaats staat en niet aangeraakt wordt, waardoor je alsnog je performance niet terug krijgt.
Zoals gezegd zal een enkele defrag echt niet ineens je schijf drie jaar langer minder mee laten gaan.

Het is gewoon een goed idee om eens als Tweaker te testen.
Ik heb zelf dan ook geen EVO, en heb dit euvel dus ook niet.
Ik schetste eerder slechts mijn "probleem" op mijn eigen 840 (NON-EVO).

Ik begrijp dat de restoration tool die hier beschreven wordt de ruimte weer vrijgeeft na de actie.
Ben je zeker? Of lees ik je berichten verkeerd, want er is (bijna?) unaniem zekerheid dat de non-evo exact hetzelfde probleem heeft (zo ook die van mij), maar Samsung probeert al sinds de eerste reports de problemen met de non-evo te negeren...

http://www.overclock.net/...40-non-evo-ssd-fixed-also

[Reactie gewijzigd door Buzz_Fuzz op 23 februari 2015 16:38]

Je link werkt niet, maar dat wist ik dus niet. Zal het verder uitzoeken. Interessant. Want als dat waar is moet ik ook naar oplossingen gaan zoeken.

Edit: Werkt nu wel.

[Reactie gewijzigd door HMC op 23 februari 2015 16:46]

boven al een keer gepost, maar hier is hij relevanter:

http://s17.postimg.org/4lufvn81r/Samsung840_HDTach.png

het betreft een normale 840 voor 60% gevuld en al twee jaar in gebruik zonder herinstallatie...
Media brengt alleen bijna over dat bijna elk exemplaar van deze SSD er last van heeft. Misschien heeft het te maken met een bepaalde serie/batch uit de fabriek, maar we hebben hier allemaal verschillende formaten 840 EVO (128 en 256 voornamelijk) in de machines geïnstalleerd al een lange tijd terug en we ondervinden na testen geen enkel probleem.

M'n persoonlijke laptop met een 840 EVO 256GB heeft ook nooit last gehad van dit probleem. Wel zijn die van het bedrijf allemaal bij dezelfde leverancier op hetzelfde tijdstip gehaald. We hebben het over 30+ exemplaren dan.
Of je koopt geen samsung TLC, maar MLC SSD's, dan heb je dit probleem ook niet.
Ik heb 5 stuks 840 EVO's die ik gebruik als floppy, met data vooral ook voor langere termijn. 4 daarvan zijn 1TB en eentje is 750GB. Kostten een half jaar terug circa 2400 euro. Ik wordt niet echt vrolijk van dit soort zaken.

Het lijkt er sterk op dat er geen echte fix gaat komen, dus afwachten of Samsung uiteindelijk zijn verlies neemt en een omruilactie toestaat voor een beter product.
Is het dan niet verstandiger om over te stappen op backup tapes? 8)7
Het ging mij om de snelheid bij het kopiëren: 400+ MB/s. Ik gebruik ze als floppies, niet voor backups. Ik heb ook 40 schijven van 3TB of groter o.a. in enkele NAS-eenheden, die gebruik ik voor backups. ;)
Ah oke, dan gebruik je ze inderdaad anders. Als het voor backup was dan zou je het voor de snelheid niet hoeven laten in veel gevallen, hoewel de uncompressed speed niet zo hoog is doet de compressed speed niet veel onder een SSD (en gaat er vaak voorbij) met LTO-6. Vanaf LTO-9 (moet nog uit komen) gaat hij er uncompressed er uncompressed zelfs overheen. Het kost dan ook wel een vermogen natuurlijk ...
Data voor langere termijn lijkt mij een risico ivm de voor elke ssd geldende cell degradatie. Of je ssd na een jaar niet gebruiken nog data bevat is niet zeker aangezien dit volgens mij nooit is getest.Opletten dus!
Dit zijn berichten waar je niet vrolijk van wordt. Ik ben net in de markt aan het kijken om mijn allereerste SSD aan te schaffen en het oog valt zeker op Samsung. De 840 valt dan nu al af.
In de hoop dat de 850 serie dit niet heeft.

256GB 850 Pro jij moet het dan maar gaan worden.
How about MLC SSD's? Zoals deze 256GB Crucial MX100! Hij is goedkoper, heeft stroomverliesbescherming en gebruikt geen budget TLC waarbij je de kans loopt dat in dit artikel beschreven problemen om de hoek komen kijken, maar betrouwbaar MLC geheugen.
Ja die heb ik ook pas gekocht en hoewel dit probleem bij mlc geheugen niet of in veel mindere mate optreedt heeft elke ssd last van cell degradatie en is het dus de vraag of er na een jaartje niet gebruiken uberhaupt nog wel data op die dingen staat. Is nooit getest blijkbaar… 8)7
Probleem is dat de 850 pro veel duurder is dan de evo. Samsung zou beter zijn evo-lijn laten varen(met het toch wel minder betrouwbare tlc-geheugen zoals hier blijkt) en alleen nog de pro-lijn aanbieden. Maar het moest weer geld opbrengen natuurlijk. Door de evo-lijn ih leven te roepen konden ze meer vragen voor de pro-serie. Ik heb een Samsung 830(met mlc-geheugen) en ben er dik tevreden van.

Ik heb laatst een Crucial M550 voor mijn vaders laptop gekocht. Ik wou geen 840 Evo kopen omdat ik niet veel vertrouwen heb in dat tlc-geheugen en met reden zo blijkt. De Crucial M550 maakt dan weer lawaai onder belasting....
Weet iemand toevallig of dit probleem zich ook voordoet wanneer je de schijf in combinatie met een Mac gebruikt?

ik heb er een via een verloopje aan een USB3 poort van mijn iMac hangen. Om grote sample libraries vanaf te lezen, vooralsnog lijkt het nog steeds snel te gaan.

Je kunt de firmware ook helemaal niet updaten want die Magician software is er niet voor Mac.
Je kunt op deze pagina een restoration tool voor Mac downloaden. Dit is in de vorm van een bootable iso die je kunt branden op een cdrom. Vervolgens moet je van deze cdrom booten en kun je je firmware updaten en de restoration tool draaien. (Al heb ik geen ervaring met externe schijven, waarschijnlijk moet je hem aan de controller koppelen ipv de usb)
Wow, ik geloof dat ik de oplossing van Soulshaker vooralsnog eerst even uitprobeer. Goede aanleiding om de banden met mijn buurman weer wat te versterken. :-)
Maar dank voor de tip
Moet je wel een CD of USB hebben. De meeste Mac-gebruikers zijn dat tijdperk alweer voorbij, maar Samsung duidelijk niet |:(
Apple wil graag dat je dat stadium voorbij bent. Zelf gebruik ik de DVD speler zelden, maar zelden !== nooit. Ik ben toch wel blij dat hij nog in mijn MBP zit. Wat naar mijn mening ook hoort, een Pro laptop hoort gewoon dvd's te kunnen eten voor de momenten dat dat nodig is.

[Reactie gewijzigd door HerrPino op 23 februari 2015 16:49]

Daar ben ik het op zich wel mee eens, maar met mijn magere gebruik heb ik liever een lichtere Pro en een aansluitbare drive. En de laatste keer dat ik een USB gebruikte is x jaar geleden voor ik het kwijtraakte :P

Ik heb net Samsung's support gebeld en afgezien van dat het me geld kost om te bellen is het enige wat ik kreeg een link naar hun website, die ik binnen 3 seconden al had gevonden via googlen. Nooit meer Samsung.

[Reactie gewijzigd door Blizz op 23 februari 2015 17:23]

Nergens een windows pc in de buurt waar je de ssd kan updaten ?
Vreselijk dat zoiets de oplossing moet zijn…
Toevallig opende ik laatst een oude backup van paar gigabytes, waar ik toch sterk het gevoel had dat het in het verleden sneller ging. Dus ik heb een paar week terug de restoration tool nog maar eens gedraaid. De performance schoot meteen weer omhoog! (Was meteen al te merken bij het booten) Dit is dus al de tweede keer, want heb hem ook gebruikt toen de tool net uitkwam. Ik hoop dat ze het uiteindelijk vinden want ik heb niet veel puf om pak hem beet elke 3 maanden die tool te moeten draaien....
Die performance restoration tool kan je toch maar een keer draaien?
Ik heb de bootable iso gebruikt de tweede keer. Geen idee of die de volgende keer zou gaan miepen maar hij zeurde niet dat bijvoorbeeld de firmware versie al up to date was. Volgens mij schrijft hij gewoon alles opnieuw op de disk zodat alle files weer fris zijn en de performance bug nog niet optreedt. (Maarja voordat je dit doet, wel altijd backuppen voor geval van het verliezen van data!)

[Reactie gewijzigd door Yemoke op 23 februari 2015 14:32]

Ach zo. Een defrag doet hetzelfde trouwens, alleen die overschrijft de cellen wel meerdere keren, waardoor ie misschien wel sneller slijt.
Defragmenteren herschrijft dan wel veel data, maar zet ook alle bestenden weer tegen elkaar aan wat SSD's weer een stuk slomer maakt en absoluut niet is aan te raden.

Die Performance Restoration Tool van Samsung vind ik eigenlijk ook wel een beunhaas oplossing aangezien het simpelweg alle data een keer herschrijft en dus de levensduur verminderd en maar een tijdelijke oplossing is. Verder is ook de kans klein dat ze ooit een goede fix gaan vinden voor deze budget TLC SSD's aangezien iedere cell een van de 8 verschillende voltage states heeft, die dus naar verloop van tijd wat verschuiven. Die states liggen gewoon een stuk dichter bij elkaar dan de vier bij MLC. Enige oplossing zou zijn betrouwbaarder TLC geheugen te ontwerpen. We zullen zien of dat nieuwe 3D nand beter is.

Hoe dan ook, ik blijf lekker bij (niet Samsung) MLC geheugen!
Defragmenteren op een SSD zal de data waarschijnlijk niet naast elkaar zetten, de controller zorgt er namelijk voor dat die data gelijk over de chips verdeeld wordt. Het OS heeft totaal geen benul van waar de data fysiek op de SSD staat.

HDD:
Computer spreekt HDD aan --> ik wil graag die sector lezen/schrijven --> hdd leest//schrijft die sector en geeft door.

SSD Schrijven:
OS: Schrijf data, en zet het op dat stukje op die sector --> SSD ontvangt dat, wijst een stukje celgeheugen toe aan die "sector" waar het OS om vraagt, en schrijft het bestand toe aan een aantal chips
SSD:
Computer spreekt SSD aan (alsof het een HDD is) --> ik wil graag die sector lezen --> ssd kijkt in zijn tabelletje, data staat daar en daar --> geeft die data door aan het OS.

Het os denkt dat het een bepaalde sector op een HDD heeft uitgelezen, maar eigenlijk zit er dus een vertaalslag tussen wat het OS opvraagt, en wat de SSD leest.

Hoop dat ik het wat duidelijker heb gemaakt :)

Performance restoration deed overigens niet alleen een keer de cellen herschrijven, ook de firmware werd geupdate. Ik wil eerst zien of Samsung de schijf met de volgende update kan repareren voordat ik de conlusie trek dat al het TLC geheugen systematisch "flawed" is.

[Reactie gewijzigd door WCA op 23 februari 2015 16:09]

Ik ook crucial mx-100 mlc. heeft dit probleem niet, alhoewel elke ssd natuurlijk last heeft van cell degradatie. De verkoper probeerde mij een samsung te verkopen (850evo), maar toch maar voor mlc gegaan. Lijkt mij betrouwbaarder, wat met dit artikel wel is aangetoond. Dit lees je nooit over samsung ssd's in de reviews of testen. Staat er eigenlijk nog wel data op een ssd als ik hem een jaartje op de plank laat liggen? Toch wel belangrijk te weten… 8)7
gewoon foute firmware, als ze het met een update kunnen verhelpen lijkt me., als het hardware matig was geweest hadden ze een terugroep actie moeten starten toch..
gewoon foute firmware
Het probleem lijkt inherent te maken te hebben met het TLC geheugen. Hierover zijn verschillende artikelen over gepubliceerd die het duidelijk uitleggen.

Dat ze met een firmware update c.q. tool kunnen proberen de gevolgen te verminderen (een work around) is een goede zaak, maar lost het probleem niet op met de hardware.

Ik ben benieuwd hoe de 3D Nand 850 SSD's zich gaan gedragen naar verloop van tijd. Is ook weer een nieuwe techniek geheugen wat zich nog moet bewijzen.
Heb hier al geruime tijd een 840EVO 250GB in de laptop welke ik dagelijk gebruik.
Nog geen enkele vertraging gemerkt.

Ondanks dat ik geen problemen merk, natuurlijk wel goed van Samsung dat ze (ondanks dat de 850 er al is) er onderzoek naar doen en met een oplossing gaan komen.

[Reactie gewijzigd door HellStorm666 op 23 februari 2015 13:26]

Hmm toch maar eens mijn twee jaar oude 840 EVO getest met HD Tach en ik haal 174MB/sec wat een beetje tegenvalt maar in de praktijk toch vlotjes werkt.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee