Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 88 reacties

De Koreaanse ssd-fabrikant Mtron claimt Samsung en Sandisk op snelheid af te troeven met een nieuwe serie opslagproducten. De ssd-modellen in de MSD-reeks kunnen lezen met een snelheid van 120MB per seconde.

De grote spelers Sandisk en Samsung fabriceren momenteel ssd's van 64GB. Het model van Sandisks leest op 67MB per seconde, dat van Samsung kan met 65MB per seconde data onttrekken aan het flashgeheugen. Het snelheidsrecord stond tot nu op naam van Adtron, fabrikant van high-endmodellen, wiens 160GB solidstate-schijven konden lezen op 70MB per seconde en schrijven op 55MB per seconde.

Mtron heeft op de IFA-beurs in Berlijn echter de MSD, MSD PRO en MSD XTM aangekondigd, met opslagcapaciteiten van respectievelijk 16GB, 32GB en 64GB en een toegangstijd van 0,1ms. De 2,5"- en de 3,5"-modellen kennen een leessnelheid van 120MB per seconde en een schrijfsnelheid van 90MB per seconde. De schijven komen nog deze maand op de markt, bijbehorende prijzen zijn nog niet bekend. In het vierde kwartaal van dit jaar voegt Mtron een 1,8"- en een 128GB-model aan de serie toe, zo belooft het bedrijf.

Mtron ssd's
Moderatie-faq Wijzig weergave

Reacties (88)

SSD's van MTRON zijn hier getest, bij Anandtech:

Link 1
Link 2

Ze zijn heel erg snel!
Alleen bij sommige benchmarks vallen ze tegen, bij de meeste zijn ze lekker snel.
Dit beloofd wat voor de toekomst!
Interresante test. Ze zijn inderdaad rete snel.

Maar heb je ook de prijs in de conclusie gezien? $1500 ! 8-)
Ik vermoed dat een hybride de beste oplossing zal zijn voor zowel desktop als zeer zeker server gebruik. SSD is snel en zal de oude hd echt in't stof laten bijten in de nabije toekomst. Maar in traditionele hardeschijven is jaren lang geld gepompt voor ontwikkeling om steeds grotere data dichtheid te krijgen. de snelheid van de oude hardeschijf mag dan voor vandaag aanvaardbaar zijn, maar uiteindelijk is dat ding gewoon te traag. Dat kan zo niet blijven. Als backupmogelijkheid klinkt een hardeschijf natuurlijk een stuk beter dan een DAT. Ook omdat een hardeschijf random access kent.
Maar in de oude hardeschijf wordt ook gebruik gemaakt van ram modulus. En in hybride wordt gebruik gemaakt van alle 3 de technieken. Ram Nand en de magnet(o-opt)ische schijf. Ik meen Nec had laatst een schijf op de markt gebracht die te stacken is. De schijf deed automatisch en zelfstandig beheer over zijn gegevens zodat je nieuwe schijven kunt toevoegen maar ook kunt onttrekken aan de configuratie. Dit is dus de oplossing. Een totaal hybride systeem dat zelfstandig zijn gegevens beheert. Dat zelfstandig kiest om kleine bestanden die vaak gebruikt worden op een NAND gebied te zetten, om grote bestanden op een magneto optische schijf te zetten. En bestanden die recentelijk gebruikt zijn in een cache te zetten. En het laatste zorgt ook voor een read-write queue mogelijkheid waar die nand schijven gewoon bagger in scoren.
Even ter info

er is wel degelijk markt voor dit soort drives.
nu las ik laats een artiekel op Tom's (hier)http://www.tomshardware.c...based_hard_drives_cometh/ wat al fijntjes uitlegde wat de verschillen zijn
en wat blijkt : deze drives zijn zeer geschikt voor webservers die de hele dag alleen lezen.
Ze lezen sneller dan je 15K rpm Seagate Cheetah, produceren minder warmte, verbruiken minder energie , en het wordt nog een stuk stiller in je serverruimte ;)

Als je dan een hele sloot van die schijven vervangt wordt het er wel een stuk kouder :+
Alleen kost een 15Krpm Cheetah 37GB ongeveer $150, en een 32GB SSD $1500... en dat is een verschil wat je er echt niet uithaalt met aircokostenverschil en/of energiekostenverschil... En je CFO zal t niks uitmaken dat er lawaai in de serverruimte is
Ok,
als je het over de SSD van Mtron hebt klopt dit,
$1500 is moeilijk te rechtvaardigen.

Nou heeft concurrent SanDisk alleen een SSD van 32GB die wel wat trager is,
maar die kost dan ook maar $400~.
en ook die randomread altijd nog sneller dan een Cheetah.
Bovendien zal je de Cheetah in het geval van een webserver eerder
in een RAID5 dan in een RAID1 zien,
terweil de een SSD in RAID1 luxe is gezien de MTTF(ongeveer 2miljoen uur).

Nu kan het nog per geval verschillen maar ik heb al
heel wat Cheetah's naar hun laatste rustplaats gebracht.

en over dat lawaai ,nou dat krijg je er gratis bij.

[Reactie gewijzigd door patchman op 5 september 2007 04:47]

Misschien leuk om erbij te vermelden wat een "traditionele" HD voor snelheden haalt.
Een traditionele harddisk haalt makkelijk 60MB/s. Maar de accesstime van een standaard desktopschijf is 14 milliseconden.

Om een bestand op te halen, moet hij het eerst vinden, en dan transporteren. Bij relatief kleine bestanden duurt het vinden van de bestanden langer dan het daadwerkelijk uitlezen, en dan gaat de effectieve snelheid achteruit.

60MB/s komt overeen met ~ 60 KB/ms. Met een 840 KB bestand kost het dus net zo veel tijd om het bestand te zoeken, als om het te transporteren, en is de effectieve snelheid dus gehalveerd. Zit je met kleinere bestanden, dan wordt dat probleem snel groter:

Grootte: Snelheid:
0,1 MB ~ 6 MB/s
0,2 MB ~ 12 MB/s
0,5 MB ~ 22 MB/s
1 MB ~ 33 MB/s
2 MB ~ 42 MB/s
5 MB ~ 51 MB/s
10 MB ~ 55 MB/s
20 MB ~ 58 MB/s

Zijn de bestanden gefragmenteerd, dan kun je dat beschouwen als twee kleine bestanden, en gaat de snelheid dus ook snel achteruit. Vandaar dat defragmenteren belangrijk is.

Die SSD schijven hebben typisch accestimes van minder dan een milliseconde. Dat is niet significant meer, en dan betekent dus dat bij hen alleen de transferrate telt, ongeacht de grootte van het bestand. Tot nu toe was die transferate meestal maar een 20MB/s. Dat betekende dus dat ze veel sneller waren met kleine bestanden, maar beduidend langzamer met grote bestanden. (Dat is ook het principe achter Vista's Readyboost: Die kleine bestanden kun je makkelijk op een USB stick zetten, en daarbij is vrijwel alleen accestime relevant)

Nu de SSD's ook een hoge transferrate krijgen, worden ze dus veel sneller dan traditionele harddisks met alle bestandsgroottes.

Voorlopig is het probleem wel dat ze exorbitant veel duurder zijn dan normale harddisks....
Een beetje offtopic, maar ik denk dat Microsoft dat 'probleem' dan ook gedeeltelijk had kunnen oplossen door gebruik te maken van minder kleine bestanden, maar een paar grote. Desnoods gezipte kleine bestanden die in het geheugen worden uitgepakt o.i.d.
Ik denk dat Microsoft op dit punt z'n zaakjes eigenlijk best goed voor elkaar heeft. De registry is o.a. uitgevonden om een hele berg kleine .ini files te vermijden. En als je MS software opstart, dan valt het meestal wel mee hoe erg de harde schijf ratelt. De meeste Office applicaties starten bij mij bijzonder snel op. Binnen één of twee seconden.

Vergelijk dat eens met het opstarten van Adobe Photoshop. Daar zijn alle filters aparte files. Alles als plug-in te beschouwen is natuurlijk lekker flexibel, maar het maakt het opstarten verschrikkelijk traag. Daar sta je echt irritant lang wachten voordat het zaakje ingeladen is.
jullie maken beiden een foutje: grote bestanden zijn enkel nuttig als er geen fragmentatie optreedt. ander ben je even goed als met een hoop kleine bestanden. de plug ins worden dus voornamelijk apart gezet: je kan de plugins verwijderen en toevoegen naar hartenlust. Als het dus 1 groot bestand betrof zou dat na enkele wijzigingen al zodanig gefragmenteerd zijn dat aparte bestanden beter zijn.
Als je veel met groote bestanden werkt kan je natuurlijk ook je HD anders formateren. Mijn harde schijf met VMWare images heb ik dan ook op 64k ipv 4k geformateerd. Ja, elk klein bestandje is minimaal 64k op de HD, maar een 1GiB file kan dan nooit meer dan 16.384 fragmenten bevatten ipv 262.144.
De registry is wel een van de meest gare uitvindingen ooit...het is misschien heel handig om alles in een verpakking te stoppen, maar het maakt het zeer onoverzichtelijk en tevens langzamer aangezien keys wel opgezocht moeten worden. Hoe groter de registry des te langer dat duurt.
Geef mij maar een /etc directory waar alle software fijn zijn eigen bestandjes met config heeft...lekker duidelijk en de software zelf weet ook waar het zijn spullen moet vinden.
Tevens is het stukken handiger om config dmv script te wijzigen....
Op windows systemen is dat gewoon een bende...delen in files, delen in registry, diverse eigen verzinsels van allerlei software...geeft al wel aan dat meer mensen de registry niet als ideaal beschouwen.
Een moderne SATA schijf 60-70MB/s sustained transfer

Een 15Krpm SAS schijf kan oplopen tot rond de 100MB/s sustained transfer.

Dat zijn alleen de transfer snelheden op het moment dat de kop al goed staat, door de zoektijden gaat die snelheid significant omlaag (40MB/s op een SATA schijf is heel normaal als gemiddelde)

Een SSD heeft zoektijden van 0ms. Op een SSD heeft defragmenteren dus ook geen zin.
Zoektijd kan toch nooit nul zijn?
inderdaad. zal wel dichter bij de 0 dan bij de 1 ms liggen maar helemaal 0 is het niet
Ik denk eerder tussen de 0 en de 0,5 aangezien een negatieve zoektijd niet mogelijk is.
Ik weet, ik doe rare dingen met mieren maar toch. ;-)
Psychatic, daar zou ik maar mee uitkijken... Met de huidige wetsvoorstellen voor dieren kan je dat 3 jaar kosten ;)
Tja, nu nog niet mogelijk maar het zou toch mooi zijn als de data er al was voordat je er om vroeg? Misschien wordt het tijd om de reactiesnelheid van de mens te elimineren door het toetsenbord en muis te vervangen door hersenimpulssturing. Daarmee zal je niet onder nul komen maar de totale toegangstijd wordt wel verminderd. Het zal natuurlijk wel als cheaten gezien worden in games maarja pijn en revolutie gaan hand in hand.
Defragmenteren heeft zeker wel nut. Flash geheugen is niet goed in random writes. Als je SSD gedefragementeerd is hoef je dus ook minder random writes te doen...
De transfer rates van SATA en SAS liggen niet zover uit elkaar...o.a. veroorzaakt door de grotere dichtheid van data op de SATA schijven... SAS haalt wel een groter aantal IOPS.
Die informatie kan je natuurlijk hier op tweakers.net gewoon vinden.
En wat zijn de accestimes, geluids/warmteproductie(nihil? of geluid zelfs niks?) en de levensduur onder 'normale' (lees: tweaker) omstandigheden?

*kwijlt @ acces time*

Kan niet wachten op een nette uhm... 64gig in raid10/01 liggende aan de controller voor zo'n 250 euro.

[Reactie gewijzigd door TWeaKLeGeND op 4 september 2007 19:02]

Zoals gebruikelijk voor SSD's zullen de accesstimes wel zeer laag zijn, geluidsproductie afwezig en warmteproductie nihil.
Alleen de levensduur kon wel eens tegenvallen. Net als de prijs overigens :D

[Reactie gewijzigd door Left op 4 september 2007 15:16]

Yup die meneer bovenaan ziet al een raid setje voor 250 euro...ware het niet dat dat de controller alleen al kost wil je iets fatsoenlijks hebben...
Ik vraag me eerder af hoe applicaties zich gedragen met deze afwijkende snelheden. Applicaties worden nu getest op de "langzame" harde schijven en kunnen zich wel een heel anders gaan gedragen op deze veel te snelle solid state schijven.

Zoals
-Weinig voordeel omdat de bottleneck toch niet de schijf is. (of omdat met traditionele raid soortgelijke burst snelheden te bereiekn zijn)
-Snel vollopen van cache, waardoor de pc /server zich vreemd gaat gedragen.


Ik hoop overigens dat de genoemde snelheden sustained snelheden zijn en geen burst snelheden.

PS, de link naar mtron is overleden? Gebruiken ze hun eigen produckten soms? :X
Om eerlijk te zijn kan ik me niet voorstellen dat het problemen oplevert.. Waarom vreemd gedrag bij volle cache? Cache raakt altijd vol als je je pc een tijdje gebruikt.. Het is natuurlijk een ander verhaal als je cache langzamer is dan de schijf zelf, maar dat zal nooit gebeuren..
Als je programma problemen krijgt als de schijf te snel is ben je echt een heeeele slechte programmeur en heb je hele rare constructies gebruikt.

[Reactie gewijzigd door MaZeS op 4 september 2007 18:19]

Kaartjes produceren weinig tot geen warmte. Geluid helemaal niets, levensduur zelfde als een USB-stick, lang dus ;) (tientallen jaren)

Accestime bijna nihil.

[Reactie gewijzigd door Mentinal op 4 september 2007 15:17]

Op een USB stick schrijf je niet zo vaak als op je HDD. Levensduur is wel degelijk korter, alleen zijn die met de huidige techniek genoeg voor dagelijks gebruik.
Is twee miljoen uur niet genoeg dan? Een HDD gaat niet langer mee hoor. Dat van die levenduur is eigenlijk al een hele tijd achterhaald. ;)
In een interview met DailyTech zei Don Barnetson, bij Samsung verantwoordelijk voor de marketing van flashtechnologie, dat traditionele harde schijven een mtbf van 100.000 tot 200.000 uur hebben, terwijl dat voor de solid-state schijven die Samsung produceert met behulp van nand-flashgeheugen oploopt tot een tot twee miljoen uur.
nieuws: Samsung: 'solid state' gaat harddisk vervangen

[Reactie gewijzigd door mad_max234 op 4 september 2007 16:10]

Het aantal uur is niet zo belangrijk, zolang je alleen maar leest vanaf de SDD dan zal die jaren lang mee kunnen gaan. Het gaat pas fout wanneer je er veel op gaat schrijven, daar kunnen meeste flash drives niet zo goed tegen.
Om dat op te vangen zie je de ontwikkeling van speciale bestandssystemen, zoals LogFS. Dit systeem houd bij welke sector hoevaak beschreven is en verspreid dit. Helaas is het geloof ik nog niet klaar voor gebruik, en niet te gebruiken in Windows.

Als die dingen ongeveer de helft goedkoper waren zou ik er eentje willen kopen. De harde schijf is de laatste bottleneck van mijn systeem. :)
Hebben ze daar nog geen hardwarematige oplossingen voor dan?
Jawel, dit heet wear levelling. Het punt is dat flash geheugen "slijt" wanneer er iets moet worden verwijdered/overschreven. (dit door de hoge spanningen die nodig zijn om dingen te verwijderen) De controller in bijvoorbeeld SD kaartjes past al wearlevelling toe om het aantal schrijfacties zo groot mogelijk te maken, en de slijtage te verdelen over het hele medium. Maarja, bij gebruik van meerdere chips in 1 SSD moet je het gebruik tussen de onderlinge chips enzo ook weer verdelen.. speciale filesystems doen het net een stapje beter dan de hardwarematige implementatie gok :)
maar als ze met dat slijten even lang mee gaan als normale HD's, lees die 200.000 uur, dan pak ik even de reken machine er bij, 200.000 uur dat is dat meer dan 20 jaar continu gebruik, ik ken zelf geen enkele opslag media die bij mij meer dan 5 jaar heeft overleeft, daarbij bedoel ik niet dat ze kapot gaan, maar het verouderen van de technologie, over een paar jaar is die 128 Gb die uit komt veel te klein om nog te gebruiken en heb je hem al lang vervangen voor iets anders waar je het 10 voudige op kan zetten.

Lijkt mij dat je je dus niet zo heel erg zorgen hier over hoeft te maken.

[Reactie gewijzigd door bamboe op 4 september 2007 23:11]

Denk dat je eerder moet gaan kijken op block nivo dan op filesysteem nivo....je filesysteem zelf plaatst de data niet op de disk namelijk....daar zit een laag tussen...
Hardware lijkt toch nog beter aangezien het sneller zal zijn en onafhankelijk is van de installaties die op die schijf hebben gestaan...de status van de schijf wordt dan niet gewist bij een format/reinstall.
Volgens mij kun je dat ondervangen door die logica in de disk in te bouwen in plaats van het filesystem. Dan kan het voor het filesystem transparant blijven en zal de SSD drive de sectoren zelf volgens een bepaald schema moeten indelen.
Ik ben ook erg benieuwd naar het verbruik van de dingen, zeker als je over de 2,5" laptopmodellen praat is dat zeer interessant.
weinig:
De 'schijven', die in 1,8"- en 2,5"-behuizingen geleverd zullen worden, zouden onder load 0,9W gebruiken, en het idle-verbruik zou zelfs maar 0,05W
Uit een ander artikel van ssd's van Samsung

Bron
toegangstijd toegevoegd
echt goedkoop zullen ze ook wel niet zijn :9
en als je dat zou uitzetten tegen de prijzen van normale hd's dan is de keus voor de meesten zo gemaakt :Y) (een 16GB ssd kost 2ehands al 137,-)

[Reactie gewijzigd door master6464 op 4 september 2007 15:17]

Hangt er vanaf, met dit soort technieken zal met name het bedrijfsleven ze als eerste aanschaffen en gaan gebruiken. Als het daar eenmaal mainstream word/is dan volgt vaak de consumentenmarkt met een veel lagere prijs dan nu.

Hoop wel dat ze snel mainstream worden want de zwakste schakel in een PC is nog altijd op het moment de traditionele harde schijf en het zou leuk zijn om van dit soort "schijfjes" op te starten. Tevens zie ik hier wel markt in als filmdrager opvolger, geen schijfjes meer met krassen die dienst weigeren en makkelijker te swappen qua muziek ook als stand alone speler, waarbij de CD dan ook echt achterhaald zal zijn :)
zouden de huidige generaties geheugenkaartjes dan niet geschikt genoeg zijn als vervanger voor de cd :9 .
het zal nog een lange tijd duren voordat de cd zal worden vervangen voor een niet optisch alternatief (als het ooit zal gebeuren :/ )
Ideaal voor een HTPC in de woonkamer. OS op de SSD, en data vanaf het netwerk streamen/opnemen.
Euhm, SD/CF->ide-adapterdingetjes bestaan ook :P
En laatst stond er een gevalletje op tweakers waar je (maximaal 4 ofzo?) SD(HC) kaartjes in kon stoppen, waarna het werd gezien als 1 grote hardeschijf. Kost wat, maar SSD ook :P
1500 Dollar voor 32 Gig 8)7 Ik wacht wel tot 2010, dan zal de prijs een stuk betaalbaarder zijn.
Dat is dan weer jammer, ik wilde toch eigenlijk voor 2015 mijn gespaarde centjes gebruiken voor een dikke desktop PC. Toch nog maar even aan de Raptors ed dan, maar dit soort berichten zijn natuurlijk wel hoopgevend! Zo wordt het opwaarderen van glasvezelnet Amsterdam naar 1000mbit voor consumenten nog zinvol ;)
Het schrijfprobleem is nog lang niet opgelost. Ook die "hulpjes' die onthouden hoevaak waar geschreven is, zijn maar lapmiddelen. Elke sector kan bijv. maar 1000x beschreven worden, met dagelijks gebruik van je harddisk zit je daar zo aan.

ps: Klopt, denk ik dat door elkaar gooi met flashdisks 8)7

[Reactie gewijzigd door Madrox op 4 september 2007 20:51]

Hoe kom je daar zo bij? Heb je daar ook bronnen van? Ik hoor dit verhaal zo vaak, maar ik zie er nooit een bron bij. In elk topic over SSD komt het weer naar voren.

Voor zover ik weet is de levensduur namelijk inmiddels aanzienlijk verbeterd, zodanig zelfs dat ze tot een miljoen keer opnieuw beschreven kunnen worden voordat er uitval kan gaan plaatsvinden. Gecombineerd met het spreiden van schrijfacties levert dat een levensduur op waarmee je zelfs honderden jaren lang gigabytes per dag kan schrijven. Zie bijvoorbeeld hier.
Laten we het Mtron in eigen woorden zeggen:

http://www.mtron.net/files/MSD_S_spec.pdf

Zie pagina 10.

In the case of 32GB capacity Mtron SSD:
Write endurance >85 years @ 100GByte / day erase/write cycles

De schijf moet dus meer dan 3X per dag volgeschreven worden voor langer dan 85 jaar wil het "op gaan".
Daarmee in de toekomst misschien wel veel betrouwbaarder dan traditionele HD's. Ipv RAID 1 overschakelen naar RAID 0 dus :*)
Er blijft altijd een mogelijkheid bestaan dat electronica defect raakt, dus ook met zulke kaartjes, ook al is het niet mechanisch. Raid1/10 vind ik zelf wat overdreven/teveel vrije ruimte vragen, Raid5/6 vind ik mooie oplossingen.

Over de performance van deze schijven, lijkt helemaal niet zo goed als ik had verwacht? Als je 1000 mb/s wilt kunnen lezen & schrijven tegelijk met meerdere gebruikers tegelijk dan heb je dus echt niet genoeg aan zo'n schijf, dan heb je er 10 nodig in Raid0 maar kun je eigelijk dus ook gewoon SCSI nemen?
Volgens mij heb jij het nog niet helemaal begrepen...

Raid 10 kost idd redelijk ruimte, maar is ook redelijk gevoelig voor fouten...

Raid 5 en 6 zijn weer mooi te combineren met striping zodat je raid 50 en 60 krijgt...indien je raid controller (dus niet zo'n onboard prul) een goede parity accelerator heeft is dat snel en is je daata goed veilig gesteld.

Je vergelijking tussen 10 SDD's in raid 0 en scsi raakt ook kant nog wal....zowieso is scsi ouderwets aan het worden, daar hebben we tegenwoordig SAS voor.
Voor zulke hoeveelheden data verzetten zijn gewoon grotere arrays nodig. Veelal worden daar fiberchannel san oplossingen voor gebruikt. Afhankelijk van het aantal benodigde IOPS kun je dan kiezen voor SAS of SATA disks...
Raid 10 is minstens zo veilig als RAID 5/6, zoniet veiliger. Waar baseer je die uitspraak van regel twee dan op ?
Ja kan wel zijn dat het nog lang niet is opgelost, maar er zijn al zat praktijk ervaringen die het tegendeel bewijzen. Gebruikers die bijv hun linux server vanaf een flash kaart jaren lang hebben draaien, en daarbij best wat write cycles benutten. Dus volgens mij valt het in het dagelijks gebruik juist mee!
Eindelijk vooruitgang :) Binnenkort maar eens mijn Raptor 74GB vervangen.
Dat werd tijd eindelijk geen luidruchtige schijf van slechts 74GB. de prijzen zullen er alleen niet op liegen. word tijd dat deze schijven mainstream worden.
Ja nu begint het interessant te worden. Hoop alleen dat de prijs dat ook word.
Ik heb momenteel 2x 74GB Raptors in RAID0.. zat eraan te denken om er nog 1 of 2 bij te zetten, maar nu ga ik toch even wachten :P
Jullie kunnen nog gerust een tijdje wachten, ze kunnen nml. slecht tegen veel schrijven. Iets, wat je met een normale harddisk moeiteloos 1000X per dag doet.
Mag ik weten waar jouw uitspraak op gefundeerd is madrox?

met dank voor de link van tikimotel... hier een stukje uit de tabel van de 32GB disk.
http://www.anandtech.com/storage/showdoc.aspx?i=3064&p=2

Write/Erase Endurance >140 years at 50GB Write/Erase Cycles per Day

Madrox, ik weet niet hoe lang je wil dat jouw hd mee gaat, in mijn geval is een harddisk meestal binnen 5 jaar verouderd gezien de opslag ruimte dan te klein is geworden voor de op dat moment in omloop zijnde producten (software en hardware)

Dat slechte schrijven lijkt me dus wel mee te vallen.

[Reactie gewijzigd door bamboe op 5 september 2007 09:40]

ach ja, als je nog eens $1499,- ( 32GB ) hebt slingeren waarom ook niet.
http://www.king-cart.com/...B/s+SSD&exact_match=exact

http://www.dvnation.com/index.html
(hier staan ook benchies)

gebruikt in preview op anandtech:
gigabyte X38 mainboard:
http://www.anandtech.com/...s/showdoc.aspx?i=3077&p=2

notebook:
http://www.anandtech.com/storage/showdoc.aspx?i=3067

roadrunner cartoon:
http://www.anandtech.com/storage/showdoc.aspx?i=3064
Ja en ze dan op zo'n crap onboard raid controller prikken...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True