Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 83 reacties
Submitter: abusimbal

Hardwarefabrikant Samsung heeft zijn eerste harde schijf in de nieuwe F4-serie uitgebracht. Deze desktopschijven beloven een langere levensduur en een lager energieverbruik dan vergelijkbare schijven, door minder onderdelen te gebruiken.

De F4-serie maakt zijn debuut met een 3,5"-harde schijf met een capaciteit van 320GB voor desktops. De schijf maakt daarbij gebruik van een enkele platter die met 7200 toeren per minuut ronddraait. De gegevens worden met behulp van een enkele lees- en schrijfkop van de schijf gelezen en erop weggeschreven. Dat betekent een halvering van het aantal koppen, aangezien Samsung in de regel dubbele lees- en schrijfkoppen gebruikt. Daarmee zouden de F4's 70 procent minder bewegende onderdelen hebben dan andere schijven en dus duurzamer zijn.

Volgens Samsung is de F4 niet alleen 7 procent zuiniger dan vorige Spinpoints van 320GB, maar ook 10 procent sneller. De relatief geringe capaciteit is volgens het bedrijf nog altijd een, vooral in de oem-markt, gewilde mix tussen prijs en opslagcapaciteit. De 320GB F4-schijf heeft een sata-300-interface en is voorzien van 16MB cachegeheugen. Prijzen maakte Samsung nog niet bekend; evenmin is duidelijk of de Spinpoint F4-schijven in hogere capaciteiten voor consumenten beschikbaar worden.

Moderatie-faq Wijzig weergave

Reacties (83)

10% sneller is natuurlijk echt fijn maar ik geloof niet dat hij dat constant haalt..

En 320GB is hedendaags natuurlijk niet veel, zeker niet voor een 3.5''
Ik heb anders in mijn desktop niet meer nodig en ik ken veel mensen (zoals ouders) die het al zeker niet nodig hebben.

Zelf heb ik een 80GB SSD in mijn desktop, want ik wilde meer snelheid, maar ik zie niet waarom ik in godsnaam meer dan 80GB nodig heb, er is nu bij mij 20GB in gebruik.

Zoals in het nieuwsbericht ook al staat is deze disk op OEM's gericht die goedkope, doch betrouwbare schijven willen voor de simpele PC's die de deur uit gaan.

Maar wellicht maakt hij ook minder geluid? Dat is vaak ook een pluspunt.
als gamer kom je heel snel tekort met maar 80GB daar ben je zo doorheen. tegewoording heb je spellen van 10+GB het gaat heel er hard laatste tijd.
Een paar grote spellen en je schijf zit vol.

Ik laat SSD nog een tijdje links liggen totdat ze in prijs het GB de HDD een beetje kunnen bijhouden.
Akkoord dat 80Gb een beetje krap is, maar 320GB zoals deze schijf is echt wel voldoende voor de meeste mensen, zelfs als je regelmatig een spelletje speelt. Meer dan 3 4 spellen gelijktijdig op je HD hebben is meestal toch nergens voor nodig. Ik weet natuurlijk wel dat velen hier vl meer ruimte nodig hebben, maar gemiddeld denk ik dat 320GB moet volstaan.
Waar laat jij je data dan? Of computer je niet echt.
hij heeft geen Vista/Win7 op zijn systeem, dat vreet zo al het dubbele weg van wat hij noemt. Met XP, OS-X (Vooral SL), een goede Linux/BSD-distributie heeft je OS bij lange na niet zoveel over en als je niet gamet, geen films bewerkt of opslaat dan heb je echt zoveel niet nodig.
Voor vele gebruikers anders nog steeds genoeg. 70 GB partitie voor windows en programma's en 250 GB voor wat vakantiefoto's, documentjes en wat muziek is meer als voldoende voor de gemiddelde gebruiker. Mijn vader heeft ook een 320 GB schijf en er is nog 250 over...
Ja, maar als je 5 spelletjes van 8+ gb elk wilt installeren dan is je windows partititie al veelste klein... (windows zelf lust ook wel 30gb)
En sinds wanneer installeer je je games op de OS partitie dan? Dat doe je toch lekker op de data partitie waar je nog zeen van ruimte hebt?
Of je partitioneert gewoon niet?
Dat gaat ten koste van de snelheid.

In regel is het ideaal om maximaal +- 1/5 van de totale capaciteit van de schijf voor je OS te nemen.
De schijf wordt namelijk 'van buiten naar binnen' gepartitioneerd.
In de buitenste rand gaat de data het snelste langs de koppen, oftewel de buitenste ring van de schijf levert de beste prestaties.

Door middel van een partitie kan je je PC dwingen om dit snelste stuk voor Windows te gebruiken (en de rest van je C:\ dir, obviously) voor betere prestaties.
Een modern OS doet die optimalisatie gewoon zelf ook zonder partitie.
Leg maar eens uit aan kinderen dat ze op een andere partitie moeten installeren, al een paar keer meegemaakt dat ik een partitie mag gaan resizen :(
Dan moet jij het installeren zelf doen. Kun je tegelijkertijd controleren wat voor 'n soort spelletjes je kinderen spelen. Een beetje opvoeden is nooit verkeerd.
Even met TweakUI het default installatiepad instellen, heb je meteen die braindead installers afgedekt die nergens om vragen.

@below: nog niet geprobeerd op win7. Effe downloaden bij microsoft en proberen.

[Reactie gewijzigd door TheekAzzaBreek op 15 juni 2010 20:24]

Zoiets zocht ik al een hele tijd, werkt dat ook voor win7?
lijkt me errug handig. Werkt dit ook voor default download mappen etc.?
"En sinds wanneer installeer je je games op de OS partitie dan? Dat doe je toch lekker op de data partitie waar je nog zeen van ruimte hebt?"

Ik weet niet wat jou beredenering is, maar dit is de mijne:

Ik installeer AL mijn spelletjes en applicaties op mijn OS partitie, waar dan ook enkel en alleen deze dingen op staan.

Dit houd in dat mijn DATA partitie enkel en alleen LEES data bevat.

Wanneer ik dus een nieuw OS installeer, en mijn OS partitie formatteer dan ben ik ook meteen van AL mijn applicaties en spelletjes af zodat ik naderhand een mooie schone PC heb zonder ongeregistreerde applicaties en executables over m'n gehele schijf.

Ik denk dat dit overigens universeel de beste manier van werken is op een computer. (dit of ng een extra partitie voor spellen en/of applicaties).

In mijn geval gebruik ik een 250gb hdd voor windows, spelletjes en applicaties en heb ik een RAID 5 array voor al mijn films, muziek, anime, e-books, fotos ed.
En sinds wanneer installeer je je games op de OS partitie dan? Dat doe je toch lekker op de data partitie waar je nog zeen van ruimte hebt?
Dat lijkt me niet echt verstandig. Apps staan bij Windows het beste op dezelfde partitie als het OS. Ook werkt een aparte Apps partitie bij Windows toch niet zo soepel, het is geen Linux waar je dat zo even regelt.

[Reactie gewijzigd door BeosBeing op 17 juni 2010 11:24]

Een 1Tb'tje heb ik meestal toch binnen de 3 maand vol.
Ben nog altijd een goed en betaalbaar, maar vooral uitbreidbaar systeem aan het zoeken om meer capaciteit te hebben (array waar je extra schijven in vb. RAID5 aan kan toevoegen, of dynamisch opwaarderen naar hogere capaciteit)
LVM met MDADM, en dan nog een filesystem waar live resize in zit.

[Reactie gewijzigd door johnkeates op 15 juni 2010 12:04]

Toch heb ik al een aantal keer gehad met NTFS dat dit mijn hele parttiie corrupt maakte, glink mee oppassen dus. Helaas de eerste keer zonder juiste backup... Ach, daar leer je van :P
320GB is de eerste introductie, er komen er wel nog grote versies.
Zou het ook nog uitmaken dat er SATA 300 ipv de nieuwe 600 gebruikt is?
Of is SATA 600 alleen nodig/nuttig voor SSD's?
Er zijn al best wat moederborden met een SATA600 aansluiting tekoop.
Nee, dat maakt hoegenaamd niet uit, de hoevelheid moederborden dat het goed ondersteunt is nog vrij minimaal, en zelfs voor de meeste SSDs maakt het niet uit. Er is er nog maar 1, om exact te zijn.
Nee, dat is ook niet veel. Maar kijk ik bijvoorbeeld even naar de hardwarestandaard in het bedrijf waar ik werk (1000+ medewerkers) dan zie ik dat ze nog steeds standaard een 250GB schijf gebruiken. Dat is voor 90% van de mensen ook meer dan genoeg. In andere bedrijven zal het niet anders zijn.
Je zult ook niet veel grote bedrijven vinden waar ze lokaal opslaan 8)7

Lokaal opslaan is funest voor de beheersbaarheid van je omgeving...

Een SAN of NAS kan je makkelijker backupen en vervangen i.p.v. 1000 pc's stuk voor stuk te backupen en vervangen vooral als je dat elke 3 tot 5 jaar (afschrijving pc) moet doen.

Maar in het huidige tijdperk denk ik dat veel grote bedrijven gebruik maken van virtualisatie, citrix omgevingen, WBT's enz. enz.

Natuurlijk zijn er uitzonderingen voor bepaalde werkzaamheden die lokaal veel schijfruimte nodig hebben maar een bedrijf van 1000+ man die allemaal 250Gb lokaal gebruiken lijkt me sterk of op z'n minst een omgeving waar niet over na is gedacht.
Misschien isse niet zo slim als ie denkt en zat ie naar een share te kijken waar een quota voor 250gb op staat..
250Gigabit is ongeveer 32GigaByte dat is inderdaad snel vol....

maar nu ff serieus,
in mijn zakelijke laptop waar een hardeschijf van 160GB in zit is voldoende, dat terwijl ik 2 VM machines er op heb staan (16GB) een werk directory van (25GB) en nog een paar ISO's (20GB) tevens is mijn privee dir 45GB maar deze kan ik redelijk simpel leeg gooien.
tuurlijk zijn er meer dan genoeg situaties te vinden waarom 320GB niet voldoende zal zijn maar voor het gros van de zakelijke desktops kunnen ze mijns inziens makkelijk af met 80GB omdat dit toch enkel gebruikt wordt met central storage en voornamelijk windows+ms-office en nog een of ander administratie pakket zal zijn.
Bij ons lopen er een paar honderd consultants met laptopjes te sjouwen, die slaan echt lokaal op hoor. Je mag al blij zijn als ze af en toe eens een backupje naar USB schijf maken ...
Dan wil ik niet bij jullie werken... Onverantwoord. Consultants worden geacht problemen op te lossen, niet om ze te creeren. Gebrek aan discipline??

Gebruik dan een laptop sync programma om ze automatisch te backuppen als ze online zijn. Da's het minste wat je kunt doen.
Puike prestatie dan toch.
Minder lees en schrijfkoppen en toch de snelheid opschroeven met 10%.

Alleen best wel nog even wachten tot er effectief ook benchmarks zijn die dat bewijzen en betrouwbaarheid hangt niet alleen af van het aantal bewegende onderdelen.
Er hoeft maar 1 slecht onderdeel in te zitten...
Productiefouten en designfouten kunnen altijd gebeuren.
De toegenomen snelheid komt door de hogere datadichtheid. Per platter kan er 640 GB op, terwijl de F3 het met 500 GB per platter moet doen. De sectoren liggen dus dichter bij elkaar en kunnen dus sneller gelezen worden.
"De F4-serie maakt zijn debuut met een 3,5"-harde schijf met een capaciteit van 320GB voor desktops. De schijf maakt daarbij gebruik van een enkele platter die met 7200 toeren per minuut ronddraait"

Oftwewel, 1 platter met 320GB. Een lagere datadichtheid dan een 500GB platter dus.

[Reactie gewijzigd door Adramalech op 15 juni 2010 11:39]

@Adramalech

De genoemde 320 disk gebruikt 1 kop ofwel gebruikt 1 kant van de disk.

Zou je beide kanten gebruiken dat zou diezelfde disk 640GB bevatten, ofwel 640GB per platter!

ShaiNe heeft dus gelijk.

Er zullen vast snel 640GB F4 disks komen die 2 koppen hebben (en dus ook duurder zijn).
"De F4-serie maakt zijn debuut met een 3,5"-harde schijf met een capaciteit van 320GB voor desktops. De schijf maakt daarbij gebruik van een enkele platter die met 7200 toeren per minuut ronddraait"

Oftwewel, 1 platter met 320GB. Een lagere datadichtheid dan een 500GB platter dus.
Nee, de HD met 320GB gebruikt een halve platter, de plattergrootte is 640GB
In-Chul Park, vice president of sales, storage systems division, Samsung Electronics. “The one-head platform of the new 7200rpm Spinpoint F4, packing up to 320GB of storage capacity per one head in half platter, delivers added reliability that our customers have come to expect from Samsung.”

[Reactie gewijzigd door aval0ne op 15 juni 2010 11:49]

en nu hopen dat ze een versie met 2 koppen maken die dan gestriped is :9~
meer IOPS, meer throughput en nog steeds genoeg snelheid. als ze dan ook nog eens het toerental zouden opvoeren :9~
Just, no. Dat heeft nog nooit ook maar een enkele HD fabrikant gedaan. Een flink deel van de kosten van een HD zijn de electronica, en die zou je daarvoor dubbel uit moeten voeren (plus extra logica om alles weer te multiplexen).

Overigens zitten alle koppen op een head assembly, dus kunnen meerdere koppen niet apart van elkaar seeken. Daarom is een echte raid altijd heel veel sneller.
Als het gestriped wordt hoeft er in principe ook niet ´mr´ geseeked te worden?

In plaats van 1 2 3 4 5 6 7 8 aan n kant van de disk achter elkaar te zetten,
wordt het nu 1 3 5 7 op de bovenkant, en 2 4 6 8 op de onderkant.
Als het dan uitgelezen wordt dan hoeft de kop ook maar een keer erlangs te gaan, maar is hij wel 2x zo snel klaar :)

Accestijden worden hier misschien minimaal beter door (omdat het dichter op elkaar staat hoeft er minder geseeked te worden) maar de doorvoersnelheid zou hier bijna een factor 2 van hoger kunnen worden :)
(niet precies 2x omdat niet elk bestand verdeeld kan worden in gelijke blocken)
De toegenomen snelheid komt door de hogere datadichtheid. Per platter kan er 640 GB op, terwijl de F3 het met 500 GB per platter moet doen. De sectoren liggen dus dichter bij elkaar en kunnen dus sneller gelezen worden.
We zullen dus snel 2.5TB schijven zien (4 platters)
Hier wordt blijkbaar maar n zijde van een platter gebruikt, normaal zit er een arm aan de onder n bovenkant, waardoor je dus 640GB platters krijgt.

Nesting gaat niet helemaal goed, was een reactie op Adramalech

[Reactie gewijzigd door Nielson op 15 juni 2010 11:52]

Klopt, eind Q4 staan resp 2.5TB en 3TB drives van o.a. WD en Seagate op de planning!
Ik ben benieuwd hoe ze 3000 willen gaan maken -- 5 platter 640 kan, maar is 5-platter en dat wil je niet, en 4-platter 750 dat is er voorlopig gewoon nog niet.
Puike prestatie dan toch.
Minder lees en schrijfkoppen en toch de snelheid opschroeven met 10%.
Dat stelt helemaal niets voor! Het aantal lees en schrijfkoppen heeft namelijk niets met de snelheid te maken. Ongeacht hoeveel koppen de schijf heeft, er is er altijd maar eentje actief.

Mooie marketing praat dus, maar het stelt geen ruk voor. Die 10% snelheidswinst zal gewoon een kwestie van data dichtheid zijn.

Ik kan nu al voorspellen dat er binnenkort ook gewoon modellen met meer koppen en platters komen...
Klopt. Overigens vind ik 10% snelheidswinst wat aan de matige kant voor een 28% hogere datadichtheid. Wellicht heeft men 10% als gemiddelde gepakt (dus benvloed door zoektijden etc. welke hoogstwaarschijnlijk gelijk blijven). Bij een film van 700MB+ verwacht ik toch wel een hogere snelheidswinst dan 10%

Daarnaast is dit inderdaad gewoon een nieuwe generatie met een hogere datadichtheid dus wat snellere lees en schrijfsnelheden. Een prima ontwikkeling. Mooi om te zien hoe Samsung nu het voortouw neemt, vooral als je het vergelijkt waar het bedrijf 10 jaar geleden stond. Ik ben best trots op Samsung en hoever ze het hebben geschopt, ookal is het geen Nederlands bedrijf :)
"Deze desktopschijven beloven een langere levensduur en een lager energieverbruik dan vergelijkbare schijven, door minder onderdelen te gebruiken"

En aan welke levensduur moet ik dan denken? De daling in energieverbruik wordt wel genoemd, maar levensduur niet.

Door 70% minder bewegende onderdelen zal de levensduur gok ik niet met 70% toenemen..... :)

[Reactie gewijzigd door Delirius op 15 juni 2010 11:23]

De kans op defecten wordt natuurlijk kleiner. De kans dat een lees/schrijfkop faalt is 2x zo klein geworden. Normaal zou je zeggen je hebt er 2 dus je kunt er 1 missen, in een HDD is dat natuurlijk niet zo, is er 1 stuk dan is de andere waardeloos. Minder kans op defecten houd in dat de kans groot is dat hij langer mee gaat.
Waarom wordt die kans kleiner dan? Ook al heeft een schijf 2 koppen, als daar 1 van defect raakt, dan is de hele schijf alsnog onbruikbaar. Dat zelfde dus voor 1 kop, als die defect raakt is de schijf ook onbruikbaar. Volgens mij kun je niet zeggen dat de kans zomaar 2x zo klein is.
Om dat 2x onbruikbare schijf door 1 kapotte kop meer is dan 1x onbruikbare schijf door 1 kapotte kop.
Het functioneren van een schijf hangt niet alleen af van van de koppen, maar van meerdere onderdelen. Je kunt niet zo stellig zeggen dat de kans op defecten 2x zo klein is met een halvering van het aantal koppen.

edit: type fout

[Reactie gewijzigd door roger_s op 15 juni 2010 14:55]

Hij zegt dat dan ook niet, maar "de kans dat een kop faalt". Dat zich dit niet vertaalt in een even grote verfmindering van kans op falen van de hele schijf is evident.
alleen reparatie zou dan goedkoper zijn , verwijderen van 1 tegen 2 koppen als wel de

vervanging 1 tegen 2 ,resulterend in 2x snellere fix
En hoeveel mensen ken je die een kop laten repareren danwel vervangen ? En wat kost dat tov nieuwe schijf kopen en backup terugzetten ?
Gezien de constructie van een HDD kan het helemaal niet. Best case is vervangen van de hele head assembly inclusief actuator.
1 kop minder betekent 1 kop minder die kapot kan gaan. Bekijk het maar als RAID0: hoe meer disks je in zo'n array stopt, hoe groter de kans dat je je data kwijt raakt.

Verder genereert een enkele kop minder warmte dan een dubbele kop, hoe minder warmte in omgevingen met slechte warmte-afvoer, hoe langer die disk meegaat.
dat is wel waar maar de MTBF van 1 kop of 2 koppen is gelijk. Het fysieke slijtageproces van de arm blijft gelijk. Als 1 kop het dubbele werk moet doen zal hij ws zelfs sneller slijten.

Alleen de kans op voortijdig falen wordt 2x zo klein. Maar dan heb je het over een paar % uitval.
MTBF is niet gerelateerd aan levensduur, maar juist aan de kans op voortijdige uitval. Dus die wordt wel degelijk hoger, alleen zijn de meeste HDDs gewoon op een standaardwaarde van een fabrikant rated mtbf.
Beetje offtopic, maar waarom maar 8mb of 16mb cache? Waarom brengen ze niet een semi-SDD disk uit? Bijvoorbeeld 16GB SDD base (45 euro) + 1TB HDD. (60 euro). Voor 105 euro zou je in theorie een snelle SDD hebben voor al je core OS bestanden, pagefile.sys enz.
Plus je hebt 1TB voor opslag.


Vooral bij netbooks zou dit een geweldige oplossing kunnen zijn, maar je meestal maar 1 harddrive kan plaatsen. 16GB SDD + 320GB HDD voor 130 euro! Best of both worlds, waarbij de HDD automatisch uit gaat om stroom te besparen.

Waarom doen ze dit niet?
Dat is Seagate, het gaat hier om Samsung. Lisadr's vraag is waarom Samsung er niet mee komt. Waarschijnlijk komt Samsung wel met deze hybrid drives, het zal een kwestie van weken/ maanden zijn. In de tussentijd is het altijd fijn om te zien dat de datadichtheid (en dus lees/schrijfsnelheid) weer een tandje omhoog wordt gekrikt.
Omdat
A : DIe 16Mb Cache gebruikt word als buffer, heeft niets met opslag of ssd te maken
B : een harddisk niet kan zien wat OS is en wat opslag bestanden zijn. Dus das niet echt handig.
Ik zat persoonlijk vooral te hopen op een flinke toename in prestaties.
Mijn Spinpoint F1 1TB heeft ook heel mooie prestaties, maar het kan stukken beter.
Een SSD lijkt me geen optie, vanwege de hoge prijzen en de ellende die je voorbestemd bent na een paar maanden/jaren te krijgen.
Wat voor ellende met SSD's heb je het over? Het flashgeheugen gaat intussen langer mee dan jij leeft en performancedegradatie zijn intussen ook oplossingen voor zoals het TRIM commando (mits je het juiste OS gebruikt). Of je doet na een jaar een herinstallatie, kan sowieso geen kwaad van tijd tot tijd.
Bricked SSD's na een firmware upgrade misschien? Zowel Intel als OCZ hebben dat gehad, OCZ zelfs meer dan eens. Of een eindeloze hoeveelheid tweaks op de boel naar behoren te laten presteren?

Ik heb zelf een Vertexje 'draaien', maar mensen die zeggen dat SSD's eigenlijk nog te onvolwassen zijn geeft ik wel gelijk.

[Reactie gewijzigd door TheekAzzaBreek op 15 juni 2010 13:55]

Kan je ook van harddisks zeggen. De Seagate 7200.11 was zo'n disk bijvoorbeeld. Door een fout in het testproces is er ergens een bitje blijven staan waar op een gegeven moment de firmware over struikelde. Het heeft een tijd geduurd voordat Seagate dit heeft toegegeven, en toen het eenmaal werd toegegeven is er een brakke firmware uitgebracht waarmee veel mensen hun hdd gesloopt hebben.
Ik heb een 160GB Intel SSD in mijn laptop met linux en ext4. Performance valt me absoluut niet tegen. In mijn desktop heb ik een 30GB OCZ Vertex in combinatie met een 500GB Spinpoint F3, maar dat valt me helaas een beetje tegen. De prestatieverbetering tov een Spinpoint F1 250GB+WD 250GB disk deels in RAID0 is minimaal.
Precies, een harde schijf doet over het algemeen gewoon zijn werk en vanaf het moment dat je Windows erop zet(geen lange termijn ervaring met andere OS'en) blijft de snelheid gewoon hetzelfde.(behalve dan de vervuiling van het Windows register etc)

Het lijkt me ook niet echt handig om een 80GB schijf(SSD dus) te hebben met de meestgebruikte programma's en de rest op een grote harde schijf.
'het juiste os' bestaat niet. Jij hebt het over een windows situatie, en dat is voor veel storage specialisten toch echt niet het ideale OS.
ik zie SSDs dan ook niet als toepassing voor "Storage" daar heb je HDDs voor en tapes voor backup aangezien dit velen malen goedkoper is. ok, toegegeven zijn er wel situatties te bedenken dat je bijvoorbeeld een database die (veel) vaker gelezen wordt als geschreven op een SSD wilt hebben... maar in de regel zou ik geen SSD voor storage nemen.

De schijven die hier beschreven worden zullen trouwens nu ik er over nadenk ook niet in storage systemen gebruikt gaan worden omdat je anders teveel ruimte in nemen en je daar beter grotere schijven in kan zetten die de platters aan beide kanten gebruiken en meerdere platters hebben...
Hmm, houdt dat in dat we straks ook 640GB disks kunnen verwachten met dubbele schijfkop met 1 platter zoals de F3 500GB nu al heeft?
Ze weten ook steeds meer op zo'n plaatje te persen. Ik weet nog dat de T166 160GB per platter had, later de F1 met 320GB per platter en inmiddels al de F4 met 640GB per platter die ze maar op 1 kant benutten.
En de F2 en F3 met 500GB per platter
Als je een enkele platter kan hebben van 320GB, waarom brengen ze dan schijven uit van 500GB? Daar zitten dan twee platters in, waarvan er eentje een lagere opslagcapaciteit heeft? Of is een deel van de tweede platter dan disabled?
Bij 500 GB zal inderdaad een deel van de platter niet gebruikt worden (buitenste delen van platter). Mensen willen nu eenmaal veel keuzes hebben.
Dat klopt. Dit gebeurt waarschijnlijk om economische redenen. Door een deel van een niet werkende platter uit te schakelen kan hij alsnog gebruikt worden in de harde schijven zodat er minder platters weggegooid hoeven te worden. Hetzelfde geldt met GPU's op videokaarten waarvan een deel defect is, dat deel wordt dan uitgeschakeld en de kaart kan verkocht worden als een goedkopere serie. Dat levert meer op dan het weggooien ervan :) Gewoon efficintie.

[Reactie gewijzigd door Yokozuna op 15 juni 2010 18:43]

De buitenste delen niet gebruiken gaat ten koste van de snelheid.
Als je een enkele platter kan hebben van 320GB, waarom brengen ze dan schijven uit van 500GB? Daar zitten dan twee platters in, waarvan er eentje een lagere opslagcapaciteit heeft? Of is een deel van de tweede platter dan disabled?
Waar lees je dat er een F4 van 500GB zou komen?

Ik verwacht wel een F4 van 640GB die dan 2 koppen gebruikt. De huidige schijven van 500GB hebben n 500GB platter en 2 koppen. Als je die van slechts 1 kop voorziet is het een 250GB schijf.

Als je iets verder teruggaat in de tijd dan hadden 500GB schijven 2 platters van 250GB/stuk en 4 koppen. Het is door de vordering van de techniek dat de capaciteit van n platter alsmaar groter kan worden.

Soms blijft een deel inderdaad ook ongebruikt, dat zal soms goedkoper zijn dan een compleet aparte productielijn op te zetten.

[Reactie gewijzigd door W3ird_N3rd op 15 juni 2010 20:55]

Op dit moment zijn platters 500 GB groot, met dus logische maten op 250/500/750/1000/1500/2000, en die zijn dan ook allemaal gevuld. Vanuit het tijdperk van 320 GB platters zijn ook nog de capaciteitspunten 320/640 gewenst door de klant, en die worden dus gemaakt door een 500 resp 750 schijf te nemen en die wat ruimer te formatteren (mindere performance, betere levensduur).

Tegen de tijd dat 640 (667) GB platters gemeengoed worden zullen we capaciteitspunten van 320/640/1000 zien daarop, en de vraag is wat ze dan gaan doen. De logische punten zouden zijn op 1250/2000/2500. De kans is vrij groot dat er een 1500 blijft bestaan. En de kans dat 500 erin blijft is vrij groot, die dus allemaal met onvolledig gebruikte platters. De 750 is een interessante, omdat hij in feite net zoveel resources pikt als een 1250 laat staan een 1000, en heel veel meer dan een 640. Best kans dat die duurder en minder populair wordt dus. 250 zal er vrij rap uitgaan.
De Samsungs worden natuurlijk vaak in raid gebruikt. Dan zit je nu met 640GB en betrouwbare (en snellere) schijven. Dit lijkt mij dus ook een mooie ontwikkeling. Zeker omdat data steeds belangrijker wordt voor particulieren. In een tijd van veel foto's en filmpjes wegschrijven. Vroeger was je computer kaduuk en dan moest je je spelletjes opnieuw installeren. Nu ben je al je foto's kwijt.. (back up mensen echt doen).

Dus ja minder bewegende delen is echt goed!
Voor de OEM die een eenvoudige computer samenstelt is een goedkope 320GB voldoende als OS drive (zeker als hij 10% sneller is) en de klant kan er later zelf nog eenvoudig een 1+TB HDD instoppen en al die MP3&JPG'jes hiernaartoe verplaatsen
Zou er zelf niet een meer kopen een 320 F1 is 43euro, voor 22euro meer heb je 1TB F3, of misschien er nog een naast steken en 640GB in raid 0, maar dan heb je nog steeds een andere nodig als backup
hmmm, zou ik wachten met een F3 kopen dan?
Mij lijkt dat het niet veel zal schelen als hij 10% sneller zou zijn dan een F1.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True