Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 87 reacties

Samsung zegt hard aan een fix voor zijn 840 EVO-ssd's te werken en de firmware 15 oktober beschikbaar te stellen op zijn site. De ssd's kampen met sterk teruglopende leesprestaties bij data van meer dan dertig dagen oud.

Het probleem werd afgelopen maanden op meerdere sites door gebruikers aangekaart, onder andere op Overclock.net. Bij het uitlezen van oude blokken data, van meer dan een maand oud, daalt de leessnelheid van 840 EVO-ssd's tot 50 à 60 MB/s, terwijl recent weggeschreven blokken wel netjes op 450MB/s of hoger gelezen worden. Veel gebruikers wisten het probleem met behulp van bijvoorbeeld het programma HDTach v3 aan te tonen. Ssd's uit Samsungs 840 Pro-serie kampen niet met het probleem.

PC Perspective suggereert dat het probleem te maken heeft met de controller die te heet zou worden door error-correcting code. Hoe ouder de data hoe meer ecc-werk de controller te verduren krijgt en hoe hoger de temperatuur. De controller zou bij een bepaald punt teruggefloten worden door de Dynamic Thermal Guard Protection, met prestatiedegradatie tot gevolg.

Samsung maakte vorige week al bekend te werken aan een firmware-update die het probleem moet verhelpen en tegen ComputerBase laat het concern nu weten dat de fix op 15 oktober uitkomt.

HD Tach Samsung 840 EVO

Moderatie-faq Wijzig weergave

Reacties (87)

De update is uit: "Samsung SSD 840 EVO Performance Restoration Software"

Het is te vinden op http://www.samsung.com/gl...samsungssd/downloads.html
Volgende mij heb ik het probleem ook. Als mijn PC (windows 8.1) vers opstart dan duurt het enkele seconden totdat verkenner opent wanneer je erop klikt. Andere dingen zoals Firefox, Photoshop en overige starten onwijs snel op.
Ik had me twijfels aan Windows maar nu denk ik toch de SDD.

[Reactie gewijzigd door CrazyTurk op 25 september 2014 17:30]

Dat probleem met Windows Verkenner is een 'bug' (al kan de tragere SSD best invloed hebben). Als je windows verkenner vanaf de taakbalk opstart duurt het iets langer dan op een andere manier (bv vanuit het startmenu of via een folder op het bureaublad). In W8 kon je dit nog fixen, in W8.1 niet meer. (voor zover ik gevonden heb) Dit probleem was me gemeld door iemand waar ik een PC met een Crucial MX100 en i7-4790K voor had ineengezet. "Chrome, photoshop en al het andere gaat instant open, maar windows verkenner duurt 2 seconden". Ik begin er nu op te letten en ben het op meerdere pc's tegengekomen.

Heb zelf ook de 840 EVO en deze SSD-bug kan best de oorzaak zijn dat mijnn Windows installatie vrij sloom begint aan te voelen na iets meer dan een jaar. Ik hoop dat het verbetering brengt zonder de levensduur van de SSD te verminderen.
Ik heb de verkenner snelkoppeling inderdaad op de taakbalk vast gepint! Danku voor de info!
WIN+E voor de echte tweaker :)
WIN+E voor de echte tweaker :)
Zo is dat, en rap dat dat gaat.. :)
Ik denk dat je de SSD gewoon alle 30 dagen moet defragmenteren, dan is hij weer lekker snel. "Old-school mode", zullen we maar zeggen :)
Windows 8 defragmenteerd tegenwoordig toch automatisch wanneer je een tijdje je systeem met rust laat wanneer deze aanstaat?

Moet deze optie dan niet handmatig uitgschakeld worden wanneer je over een systeem met alleen een SSD beschikt of regelt Windows dit zelf?

Of zie ik dit verkeerd?
Windows voert standaard op de achtergrond defragmentatie werkzaamheden uit. Gelukkig is Windows slim genoeg om, wanneer bij installatie een SSD wordt herkend, dit uit te schakelen. Het kan echter geen kwaad om dat handmatig te controleren.

Ga naar de hardeschijven toe, daarna met de rechterknop op je SSD drive, dan Properties/Eigenschappen en tenslotte in het tabblad Tools/Extra klikken op Defragment Now/Nu defragmenteren om een overzicht te zien van alle schijven die gedefragmenteerd worden.

[Reactie gewijzigd door ZeroXT op 25 september 2014 17:59]

Misschien dat Win8 dat bij installatie doet, Win7 zeker niet. Die heeft pas door als je de Windows Experience Index draait (volgens sommige bronnen moet je hem zelfs 2 keer draaien, bij mij is een keer genoeg).
Windows 7 omgezet naar SSD en defragmentatie werd netjes uitgezet. Misschien dat de Samsung software dat deed.
Deze instellingen staan er momenteel:

http://oi57.tinypic.com/2qbt1r4.jpg

Staat dus wel automatisch op gepland uitvoeren (echter nog nooit daadwerkelijk uitgevoerd) etc...

[Reactie gewijzigd door cashher op 25 september 2014 21:19]

W8 herkent het type schijf (HDD of SSD) en schakelt deze functie automatisch uit bij ingebruikname van een SSD.

Bron: http://superuser.com/ques...ze-drives-do-in-windows-8
Dat zie je verkeerd: voor SSD staat dit uit en voert Windows 8 alleen periodiek een TRIM actie uit.
Ik zou het toch maar checken. VAIO ''One Click Care'' (of Systeem optimalisatie) bijvoorbeeld zet schrijffragmentatie planning aan ookal zit er een SSD in.

http://windows.microsoft....agmenter-to-run-regularly
Het artikel waar je naar linkt gaat over Windows 7, Windows 8 gaat hier anders mee om.
oke. maar mijn ''main point'' is, altijd toch even checken. En nogmaals, ookal zet Windows 8 defragmentatie uit, het kan zijn dat een of andere systeems optimalisatie optie van Sony, Samsung etc.. defragmentatie planning weer aan zet.
Het veelvuldig verplaatsen van data tijdens defragmenteren zorgt voor onnodige schrijfacties, en dat is iets waar SSD’s allergisch voor zijn: niet alleen vermindert veel schrijven de levensduur van SSD’s, ook zorgt het ervoor dat ze onderhuids ‘vol’ lopen, wat een nadelig effect heeft op de prestaties.

Bron:
http://helpdeskgeek.com/f...should-you-defrag-an-ssd/
Een SSD mag je eigenlijk zelf niet eens defragmenteren..
Dan doe je alleen maar onnodige schrijfacties voor 0,0 snelheidswinst. De SSD is namelijk geen schijf met een kopje die over de disks moet gaan zoals bij een hard disk.

[Reactie gewijzigd door SmokingCrop op 25 september 2014 17:47]

I smell sarcasm in his post ;)
Eigenlijk niet, als je een ssd met TLC gefragmenteerd wordt alle data weer vers in het TLC geheugen geschreven. Dus is het weer makkelijk uit te lezen.
_/-\o_ "Old-school" FTW

Voor 0,0 snelheidswinst? Nou blijkbaar wel snelheidswinst haha

[Reactie gewijzigd door mmjjb op 25 september 2014 17:46]

Hmmm heb zo een HD in mijn Macbook Pro 17" zitten en gebruik het Trim commando van OSX.
Heeft iemand enig idee of dit OS gerelateerd is of een firm ware update nodig heeft?
De firmware update is op de SSD zelf, vandaar de naam firmware...
Je zult waarschijnlijk een Windows installatie nodig hebben om de update uit te voeren trouwens...
Je kunt als Linux gebruiker ook de firmware update voor de Mac gebruiken. Dat is gewoon een ISO met een bootable CD en dus niet afhankelijk van welk OS je draait.

[Reactie gewijzigd door Maurits van Baerle op 25 september 2014 18:02]

... dus ik moet mijn server platgooien, rebooten, updaten en weer rebooten. En dat allemaal op locatie (server staat niet thuis) en dankzij de downtime ook op een stomme tijd.

Fijn.

De Vertex2 die er hiervoor in zat had gewoon een CLI-tooltje: alles remote en handig.
Als jij 840 EVO drives in een server hebt zitten die overdag niet plat mag ben je niet goed bezig kerel. 840 EVO zijn consumenten drives. TLC wil je echt niet in een server hebben zitten. Ik heb een 840 EVO 1TB in mn desktop en kan me niks beters wensen tot nu toe, maar in mn servers? No way. Heel misschien als je ontzettend statische data hebt, anders niet.
Heb het ook in mission critical servers draaien. Echter wel in servers die in een Hyper-V Replica zijn uitgevoerd.

Sinds Hyper-V Replica kun je prima consumentendisks gebruiken in servers, mits de mass storage controller maar snel genoeg is. Het gewoon de afweging van alle risico's die je moet maken. Hyper-V Replica heeft de risico's voor een groot gedeelte weggenomen.

[Reactie gewijzigd door Trommelrem op 28 september 2014 12:14]

Hyper-V replica is asynchroon. Ondanks dat ik ook wel met je eens ben dat de soep niet zo heet wordt gegeten als ik hem hier opdien, hyperv replica is niet waterdicht tegen storage uitval. Uiteraard is een gedegen kosten / baten /risico analyse altijd goed, maar dan nog zou ik beter slapen met slc geheugen in mn servers.
Raid controllers hebben in de regel nog geen TRIM support, dus wanneer je ze daaraan hangt gaat het relatief gezien nog eerder mis.. ik zou er toch huiverig voor zijn.
TRIM geen probleem: Iedere drie jaar preventief vervangen. Deed ik toch al met harddisks.

Bovendien vind ik RAID eigenlijk alleen maar een faalsysteem. Oke, je kunt doorwerken als er een disk faalt, en met Hyper-V Replica kun je tot een half uur verlies aan data hebben. Hyper-V Replica zorgt er wel weer voor dat je meteen weer de lucht in kunt bij een complete faal van alles. En met Hyper-V Replica kun je makkelijker backups maken zonder enige performanceverlies: je kunt namelijk backups maken van de replica. RAID zorgt er alleen maar voor dat gebruikers (en zelfs beheerders) lui worden. Ik heb veel klanten overgehouden aan disaster recoveries omdat andere IT bedrijven er een fuckup van hebben gemaakt. Vaak is RAID de indirecte oorzaak van de fuckups. Bij mijn klanten is een complete failover met hooguit 30 minuten verlies gelukkig niet zo erg. Hangt inderdaad van de klant af.

[Reactie gewijzigd door Trommelrem op 28 september 2014 13:36]

Het is maar een simpel webservertje die bij een maat van mij staat die glasvezel heeft. Krijg wel 1k+ bezoekers per dag, dus kan er niet zomaar de stekker uittrekken.
Ook echt een CD image. Echt niet meer van deze tijd. Waarom niet gelijk een USB img of hybrid 8)7
Een CD image is gewoon een verkeerde naam, als je dezelfde image/opbouw op een USB zet werkt het ook :)
Je zult waarschijnlijk een Windows installatie nodig hebben om de update uit te voeren trouwens...
Huh? Ik ga gelijk naar een Linux tool zoeken ... beetje jammer om tijdelijk Windows op mijn server te installeren om een firmware update uit te voeren.
Zullen eens zien of dat met Windows 8.1 via Parallels kan lopen.
Zodra het uit is zal ik ea proberen uit te voeren.
Bij mij werkte dat in Parallels Desktop build 9.0.24251 niet. Hij zei geen EVO te vinden. Ik heb de huidige firmware er als ISO op een cd ingeschoten.
Hoe ouder de data hoe meer ecc-werk de controller te verduren krijgt en hoe hoger de temperatuur.
Waarom? Data van een maandje oud zou toch (vrijwel) net zo foutvrij moeten zijn als recentere data?
Ja ik vind het ook een apart verhaal. Nu weet ik niet hoe snel data degradeert op een SSD, maar als het binnen een maand al zo'n verschil uitmaakt, dan zou ik denken dat binnen een jaar de hele SSD onleesbaar is geworden. En dat lijkt me toch weer onwaarschijnlijk.
Datarot? Bestaat dat?
Hoe zou data moeten degraderen?

-- edit
linkje gevonden: http://en.wikipedia.org/wiki/Data_degradation

[Reactie gewijzigd door cracking cloud op 25 september 2014 18:02]

Het komt door het goedkopere TLC geheugen dat data niet erg lang vast kan houden, hoe langer de data in het geheugen blijft staan, des ter lastiger wordt het om het weer uit te lezen. Een oplossing die vaak wordt gedoemd is om de ssd dan te formatteren, maar hier slijt het geheugen veels te veel van. Met MLC en SLC is deze eigenschap niet zo boeiend omdat de data nog veel langer eenvoudig uitleesbaar blijft.

Hierdoor hebben de PRO series van Samsung dit probleem niet.

[Reactie gewijzigd door royb3 op 25 september 2014 19:00]

En als je nu wekelijks een virusscanner je ssd laat controleren?
TLC (en MLC in mindere mate) is een write probleem, geen read probleem.
Nu begrijp ik het. Heb een sony laptop met daarin een samsung 840 ssd. Gebruik die laptop soms 1-2 maanden niet en bij het opstarten merk ik dan dat het ding echt langzaam is. Gebruik ik hem de volgende dag is het ineens een stuk sneller.
Heb er nooit bij nagedacht maar begrijp nu dat dit dus een bekend probleem is.
De data wordt continue langzamer, en het bereikt het dieptepunt op ongeveer een maamd-vier weken.
Het is geen software fout, want bij PCper hadden ze een schijf die een maand niet in een PC had gezeten, en deze vertoonde meteen hetzelfde probleem
Het gaat trouwens om data die niet gelezen wordt. Zolang het gewoon vaker gelezen wordt treed het probleem niet op, als ik het goed begrepen heb.

[Reactie gewijzigd door TweakingRens op 25 september 2014 18:25]

Zal mij benieuwen hoe ze de afweging maken tussen of te warm of te langzaam.
Het gaat hier om Error-Correcting Code. Zal dus eerder een afweging worden tussen foutieve clusters en warmte/snelheid, vermoed ik.
Ik hoop eigenlijk dat PC Perspective fout is en het een andere achterliggende oorzaak heeft.
Iets dat makkelijk door een firmware flash opgelost kan worden. Want anders komen we toch een beetje bedrogen uit met onze aankoop. En kan er wel eens een class-action suit komen.

Ik heb er zelf 2 x van 750 GB in striped en mirrored LV's. Mijn sequentiele read speeds fluctueren tussen de 130 en 1000 MB/s hierdoor.

[Reactie gewijzigd door goarilla op 25 september 2014 17:46]

Mbit/s? Waarschijnlijk MB/s

[Reactie gewijzigd door Big Mama op 25 september 2014 17:23]

Mbit/s? Waarschijnlijk MB/s
En dan waarschijnlijk zelfs nog MiB ipv MB.
Het verschil tussen MB (1.000.000 bytes) en MiB (1.048.576 bytes) is verwaarloosbaar (4.8% afwijking) ten opzichte van Mbit (131.072) en MB (1.048.576) (800% afwijking)
Alsjeblieft niet zeg.
Alsjeblieft wel zeg. Waarom is het zo moeilijk om standaarden te respecteren?
Geen idee. Maar als je er achter komt, laat het dan even weten :). Heb nooit begrepen waarom zekere low level tools over zijn gegaan op SI ipv binair. Het is namelijk verrekte evident om 16.659251200G in je low tool te moeten kloppen ipv 15.5G.

Gelukkig zijn vele al weer aangepast zodat je wel 15.5GiB kan gebruiken, maar nog niet overal helaas :(.

Ik geloof ook niet dat het daarmee makkelijker is geworden voor gebruikers die niets van binair snappen. Verre verre van zelfs. Schijven lijnen niet uit op 1000's namelijk, maar op veelvouden van 512 of 4096 bytes.

Maar goed, eerlijkheid gebied, die schijf leveranciers deden het zelf al niet. 1TB/1000GB staat namelijk stukken interessant op je schijf dan 931GB (oww sorry 931GiB).
Welke standaard zegt dat HD Tach MiB/s moet gebruiken?
Inderdaad. Dat is wel een erg grove fout voor een site als Tweakers.
Prachtig ik heb hier ook last van. Sommige delen van mijn EVO zijn ontzettend traag 70-160 MB/s (dd read). Ik ben verheugd dat hier aan gewerkt word en dat het al reeds gemeld is.
Bespaard mijzelf wat werk.
het was me eerlijk gezegd nog niet opgevallen bij m'n 500 gb evo. Maar ik plaats elke 4-6 weken een schone image terug als het even kan.

Zoals hierboven ook al gemeld, hoop dat samsung een juiste afweging maakt tussen warmte en snelheid bij de fix..
Zonet deze test ook even uitgevoerd op mijn PC, en inderdaad, hij keldert op sommige plaatsen ook wel tot de 30 MB/s. Vond het al wat vreemd, zoals hierboven ook vermeld, dat de verkenner langzaam opstart en Chrome veel sneller is met opstarten.

Hier een screenshot:

http://puu.sh/bNn9A/1a2ae316b1.png

[Reactie gewijzigd door Drowzz op 25 september 2014 17:35]

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True