Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 86 reacties, 23.977 views •

Mushkin heeft zijn nieuwste Chronos-drive getoond. De ssd krijgt een capaciteit van maar liefst 960GB en is bedoeld voor systemen waar een grote opslagcapaciteit met de snelheid van een solid state drive moet worden gecombineerd.

Mushkin, een fabrikant van onder meer solid state drives en geheugen, introduceerde zijn nieuwste drive tijdens de CES in Las Vegas. De Chronos Deluxe 960GB zou, net als de eerdere Chronos-drives in de serie, gebaseerd zijn op een SF2281-controller van SandForce die 25nm asynchroon flashgeheugen aanstuurt. Mushkin Enhanced, zoals het bedrijf formeel heet, geeft nog weinig specificaties van zijn 960GB grote Chronos-drive, maar de drive zou opgebouwd worden uit twee 480GB-drives die in raid0 zijn geconfigureerd. De 960GB-drive heeft een sata-600-interface en zou onder meer ingezet moeten kunnen worden in desktops waar grote datasets snel beschikbaar moeten zijn.

Mushkin is een van de weinige fabrikanten die een solid state drive aanbiedt met een capaciteit van om en nabij een terabyte. Alleen OCZ heeft met zijn Octane een 2,5"-drive met een dergelijke capaciteit uitgebracht. De Colossus-drive van diezelfde fabrikant haalde die capaciteit weliswaar ook, maar werd in 3,5"-verpakking geleverd. Tevens verkoopt OCZ pci-express-drives met capaciteiten van 1TB en erboven.

De Mushkin Chronos 960GB moet eind januari beschikbaar worden: tegen die tijd zou Mushkin tevens de prijs van de drive bekend moeten maken.

Mushkin Chronos Deluxe ssd

Reacties (86)

Reactiefilter:-186085+142+24+30
Moderatie-faq Wijzig weergave
Dit soort ontwikkelingen draagt daar vaak wel aan bij, als er ineens 1TB schijven te koop zijn zal men met de 500GB schijven vanzelf in prijs gaan zakken, de grootste schijven blijven echter altijd nét iets duurder...
Kan iemand mij vertellen wat het voordeel is om met de 1024 methode te werken,
dit zorgt enkel voor verwarring toch?

Geeft mij maar de 1000 methode!
Die 1000 methode is niet logisch voor een PC, die werkt met bits en die komen nu eenmaal in veelvouden van 8. Daarom zou de 1000 methode van aangeven moeten worden afgeschaft, nu kopen mensen een 1000gb schijf en blijken ze in de praktijk een stuk minder te hebben gekocht. Voor mij op het randje van oplichting.

Ter verduidelijking, alles wat jij download of installeert maakt ook gebruik van de 1024 methode, je hele OS idem.
Ok, nu snap ik hem omdat ram-geheugen niet mooi afgerond is op het decimale systeem, maar geadresseerd word in bits.

Dus met een adresbus van 10-bit kan je byte 0 tot en met 1023 aanspreken.
Want 2^10=1024
Daarom dat 1KB = 1024bytes

Bij harde schijven gaat het meestal om blokken van 512 byte,
dus mja ook een veelvoud van 1024.

Maarja met deze methode is het steeds onduidelijk, als ik 1MB
zie staan in windows explorer.
Geef mij maar de decimale methode (afgerond op 100KB bvb)
is makkelijker te rekenen

[Reactie gewijzigd door mrnikosia op 11 januari 2013 14:57]

Intern geheugen is altijd een macht van 2 en daarom is 1024 een handigere order grote dan 1000 want dat is geen macht van 2.

4GB intern geheugen betekend dus 4 x 1024^3 bytes.

wat dus een stuk lekkere bekt dan 4294967296 bytes of 4,294967296 GB als GB 1000^3 zou betekenen.
Zelfs met meerdere platters heb je maar één arm, waar één kop per platter aan zit. De koppen zijn dus afhankelijk van elkaars beweging. Er is maar één platter actief omdat maar één kop tegelijk op de juiste plaats is om te lezen. Je zou in principe met meerdere koppen tegelijk kunnen lezen, maar dan lees je data die je niet nodig hebt.

SSD's zijn niet gebonden aan die fysieke begrenzing van een arm. Dus afhankelijk van de precieze electronica kunnen meerdere controllers tegelijk lezen (of schrijven).

Door de kleine afmetingen van de electronica is het bij een SSD veel eenvoudiger om meerdere parallele paden te bouwen, dan het bij een HDD is om meer dan één arm en motor in de behuizing te plaatsen.
Goed punt, Vertex anyone?
Niet voor massa-opslag, wel voor opslag!
Voor de meeste mensen geldt hetzelfde voor een klassieke harddisk. Als daar de motor kapot gaat, of het logic board kun je hem ook niet meer uitlezen. Wat dat betreft staan ze op gelijke hoogte met SSDs

Alleen echte die-hards proberen nog platters over te zetten in een schijf van een gelijk type. Daar zou je idealiter ook een clean room voor moeten hebben, en ligt in het domein van data recovery specialisten.
Hangt er van af wat je ermee doet. Sommige toepassingen hebben belang bij een grote throughput (jou verhaal). Andere bij lage toegangstijden (seek). Voor wat betreft het laatste worden HDs nog steeds beperkt door de bewegingssnelheid van de leeskop en het relatief lage toerental.
Probeer eens een echt OS, dat herkent de SSD als ..... SSD. En past z'n IO daar op aan
Nou.... oneens. SSD is steeds meer een noodzaak. Je wilt niet weten hoeveel sneller mijn databases draaien op SSD. En vergeet niet de besparing in energiekosten.
Moah, er spelen ook andere factoren mee. Bijvoorbeeld de efficienty van het productieproces. De hoeveelheid uitval. Die is nu nog vrij hoog bij 20nm. Maar zal op den duur beter worden. Dan wordt het aantrekkelijker grotere (in oppervlakte en capaciteit) SSDs te maken.
@mrnikosia : Tot 1998 was de 1024-methode standaard. Dit getal komt voort uit de binaire rekenwijze. Dit is aangepast naar een decimale waarde van 1000 om zogenaamd verwarring te voorkomen (ik kan me echter niet herinneren dat er ooit verwarring is geweest omtrent dit thema, maar dat even ter zijde).

Ze willen het kilo-mega-giga stappenplan universeel houden voor iedere eenheid.

Samengevat; 1024 is en blijft de correcte waarde voor het omrekenen van bytes. De 1000-methode is enkel voor de jongere generatie en mensen die computers niet zo goed snappen en/of nooit met tekst gebaseerde besturingssystemen hebben gewerkt.
Kan iemand mij vertellen wat het voordeel is om met de 1024 methode te werken,
dit zorgt enkel voor verwarring toch?

Geeft mij maar de 1000 methode!
@Ayporos : Fabrikanten rekenen zoals gezegd decimale stappen van 1000. Dit is tegenwoordig de standaard.

Echter werden tot 1998 binaire stappen van 1024 gebruikt. Zelf hanteer ik (zoals velen) nog steeds deze binaire rekenmethode. Windows gebruikt ook 1024 MB = 1 GB. Hoe MacOS en Linux hier mee omgaan weet ik niet zeker, maar ik vermoed dat ook deze besturingssystemen de binaire methode gebruiken.

http://nl.wikipedia.org/wiki/Veelvouden_van_bytes

Je kunt in de tabel zien dat het verschil tussen decimale en binaire waarden 7,4% is zodra je met gigabytes gaat werken.

We hebben het dus beide bij het rechte eind; jij gebruikt de nieuwere decimale manier van omrekenen, ik de "oude" binaire variant. Daarom heb ik in mijn berekening effectief minder gigabytes tot mijn beschikking dan jij.

Er wordt aangegeven dat het tegenwoordig ongewenst is om in stappen van 1024 te rekenen omdat dit voor verwarring zou zorgen. Echter is dit in mijn ogen nog steeds de correcte rekenwijze.

Fabrikanten spelen hier handig op in. Ze kunnen je dankzij de nieuwere rekenvorm in het geval van gigabytes 7,4% minder opslag geven voor hetzelfde geld. Daar hebben ze een hoop geld mee kunnen verdienen ... Tweakers van mijn generatie weten wel beter.

[Reactie gewijzigd door Titan_Fox op 11 januari 2013 03:07]

Sinds wanneer is giga een factor 1024 groter dan mega?
Dat is naar mijn weten toch echt universeel en staat los van de gebruikte eenheid.

960GB is dus 960.000MB is dus 960GB

Ik moet me echt heel hard op mijn hoofd krabben om te bedenken hoe jij bij je factor 1024 komt :?
>> De kans dat er een fout op die 1 TB HD ontstaat is 128 keer zo groot als op de 8 GB versie.

Klopt niet. De fouten zijn vrijwel altijd in het mechanische gedeelte of de lees/schijfkop, misschien ook nog in de controllerchip. Dat zomaar een sector kapot gaat en alles andere OK blijft komt practisch niet voor - en als het voor zou komen zou het niet zo vele uitmaken.

Vroeger waren er 1 GB HDDs en die gingen best nog wel eens kapot. Dus ook uit ervaring weet je zelf dat het niet kloppen kan.

>> Ik draai als sinds 2 jaar 2 ssd schijven in RAID0, als het crashed koop ik een nieuwe SSD en installeer het besturingssysteem opnieuw

OK, als het bij mij crasht is een dag verpest en heb ik echt geen zin een nieuwe SSD te kopen (geld?). En alle tijdsbespring door de SSD wil ik liever niet investeren in herinstallaties.

>> Het is weer typisch dat mensen bij het woord raid0 direct kriebels krijgen en er allerlei angsten onstaan.

He tis bekend van Sandforce-chips dat deze vaak kapot gingen (geen idee of de hier gebruikte ook nog zo slecht zijn). Een SSD met twee sandforces en een Raid-chip zal zeker niet zo goed zijn als een SSD met een of het liefste helemaal geen sandforces.
Voor veel laptops is het wel de sprong van 5400 of 7200 rpm 2.5" naar SSD. Dat is nog een veel groter verschil dan bij jouw upgrade.

Trouwens: "SSD is leuk, maar niet noodzakelijk en zeker niet met games", "Valt prima mee te leven" - precies hetzelfde vind ik dus van een RAID0. Niet nodig, ikzelf vind 5400 RPM 3.5" goed genoeg...

Echter mogen anderen graag iets beters kopen en ik wens ze veel plezier ermee! een 1 TB SSD is zeker prachtig voor wie het geld over heeft.
Weet je dat echt zeker? Dat zou betekenen dat jarenlang alle HDD-proucenten probleemloos de sequential reads 3, 4 of 5x sneller hadden kunnen maken maar niemand dat ooit heeft gedaan? Kan ik me echt niet voorstellen.

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True