Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 221 reacties
Submitter: abusimbal

Western Digital heeft zijn serie Caviar-drives uitgebreid met een 2,5TB- en 3TB-schijf. Om de schijven te kunnen gebruiken is wel een redelijk modern systeem nodig: oude Windows-versies kunnen niet met de schijven overweg.

Zoals eerder deze maand al werd voorspeld, introduceert Western Digital schijven met een capaciteit van 3TB. De Caviar Green-schijven zijn naast de 3TB-versie voortaan ook in 2,5TB verkrijgbaar. De drives beschikken over platters met maximaal 750GB opslagcapaciteit en 64MB cache-geheugen. De Caviar Green-serie is van een sata-300-interface voorzien en de maximale overdrachtssnelheid bedraagt 110MB/s.

Western Digital 3TB Caviar Green

De Green-serie draait dankzij wat Western Digital 'IntelliPower' noemt op een niet nader gespecificeerd toerental, maar dat is hoogstwaarschijnlijk 5400rpm. De 3,5"-schijven produceren in idle-toestand ongeveer 24dBA aan geluid, wat op kan lopen tot 29dBA. Het opgenomen vermogen van de 3TB-versie bedraagt daarbij 6,25W tijdens gebruik en 1W in standby-modus. De 2,5TB-editie doet het met een kwart watt minder. De drives zouden per direct beschikbaar moeten zijn: de 2,5TB-versie kost 189 dollar, terwijl de 3TB-versie 239 dollar moet kosten.

Het doorbreken van de 2,19TB-grens betekent dat oudere besturingssystemen niet met de schijf overweg kunnen of er in ieder geval niet vanaf kunnen opstarten. Zo is Windows XP niet geschikt voor de schijven, maar nieuwere Windows-versies als Vista en 7 kunnen, net als courante OS X-versies en Linux-distributies, wel met de schijven overweg. De schijven maken gebruik van GPT, onderdeel van de bios-vervanger uefi. Op die manier kunnen de extra sectors van de schijven worden aangesproken.

Western Digital Caviar WD30EZRSDTL 3TB
Moderatie-faq Wijzig weergave

Reacties (221)

Deze schijven zijn NIET geschikt voor raid setups!

Waarom?
De "Black/Blue/Green serie schijven" hebben een deep error recoverytime +/- 2 minuten, jammer genoeg ondersteunen deze schijven geen "TLER" 'Time Limited Error Recovery' meer.
Met TLER was de maximum limiet 7 seconden zodat ze wel geschikt waren voor raid setups.

De meeste raid controllers geven een schijf maximaal 20 tot 25 seconden voordat ze die betreffende schijf uit de array gooien.
Het is dus niet of dat gebeurd maar wanneer...

Je kan dus 3 dingen doen:
1). in raid zetten en de gok nemen.
2). drives gebruiken als single drive, is ook nog eens veiliger.
3). een RE kopen of een andere drive die TLER ondersteund (samsung noemt het CCTL en Seagate ERC)
Werk die TLER utilyty van WD dan niet meer met deze schijven? Met dit DOS tooltje kon je op een 'gewone' schijf TLER enablen, hetgeen het effectief een RAID schijf maakte.
De hele EARS-serie heeft geen TLER meer. De WD20EADS waren het volgens mij alleen tussen september en december 2009 kwijt.
Note: Western Digital (1.5TB Green Power) WD15EADS-00P8B0 (Nov 2009) drives do not support TLER. WD15EADS-00S2B0 (Feb 2010) models do support TLER.

Interessanter is wat een EARS zou doen in pseudo-hardware raid. Intel en Highpoint (alles onder de 3xxx series) bieden daar oplossingen voor die de raid5 snelheden van software raid in bepaalde configuraties ruim overstijgen.

Edit: Dit artikel op Anandtech over 4k sector schijven in het algemeen is mbt tot raid5 ook erg interessant. Je moet nl voorkomen dat je misalignment krijgt omdat anders enorm snelheidsverlies optreedt.

[Reactie gewijzigd door whatdoesitwant op 20 oktober 2010 20:44]

Edit: Dit artikel op Anandtech over 4k sector schijven in het algemeen is mbt tot raid5 ook erg interessant. Je moet nl voorkomen dat je misalignment krijgt omdat anders enorm snelheidsverlies optreedt.
Inderdaad een interessant artikel. Maar misalignment heeft toch weinig te maken met RAID? Het gaat er juist om dat XP default op de 63e sector begint, onafhankelijk van of het nu wel of niet RAID is.

[Reactie gewijzigd door grizzlybeer op 20 oktober 2010 22:33]

Nee dit werkt helaas niet meer op nieuwe WD schijven :/
Correctie, werk niet op de Green schijven. Was expres verwijdert.
Raar, op de eerste Green schijf, die 1TB, werkte het wel nog. Jammer.
Uit het nieuwsbericht:
Zo is Windows XP niet geschikt voor de schijven, ...
Dit geldt natuurlijk alleen voor de 32-bits versie van XP.
Nu moet alleen nog de prijs zakken, nu 2TB schijven zo goedkoop zijn en 1GB schijven ook niks meer kosten is 240 dollar voor een schijf wel erg prijzig. Zeker in RAID opstellingen ben je met deze schijven flink wat extra geld kwijt aan opslag, nu nog meer dan een extra raid controller zou kosten. Deze zitten nu aan 7 cent per GB terwijl de 2TB schijven al aan 4 cent per GB zitten.


Echter de 2TB schijven waren ook erg duur in het begin en zitten nu qua prijs/gigabyte ook op een leuk niveau dus dat zal uiteindelijk wel komen. Zijn wel zeer interessante backup schijven, kan straks mijn complete Raid5 array met 4x1TB kwijt op een enkele externe schijf.

[Reactie gewijzigd door Tsurany op 20 oktober 2010 08:48]

Zolang WD de enige is met 3TB disks kunnen ze lekker verdienen. Verder, als je veel opslagruimte nodig hebt komt er een moment dat de meerprijs van 3TB disks lager uitvalt dan de meerprijs van een controller met meer poorten of een fileserver met meer diskbays.

Edit: Er is dus blijkbaar al een Barracuda XT van 3TB op 7200RPM, maar die zit weggestopt in een externe behuizing. Dat ding wisselt voor 189 euro van eigenaar, wat op zich niet heel duur is voor een 3TB drive.

[Reactie gewijzigd door _JGC_ op 20 oktober 2010 10:00]

Helemaal niet!

Een extra controller kun je voor minder dan 50 euro krijgen! Dat moment dat de meerprijs voor een 3TB schijf lager uitvalt dan de meerprijs van de controller bereik je dus nooit!

Je moet je werkelijk in heel exotische situaties gaan zitten, dat je geen slots meer over hebt in je moederbord e.d., voordat die 3TB schijven voor deze prijs interessant worden.
Energieverbruik?
Wat wil je nou zeggen? Te duur??
Als je behoefte groter is dan je portemonnee moet je je behoefte aanpassen, niet gaan piepen over "te duur".
Zelfde issue zie ik ook altijd bij de SSD's in de reacties.
Nee dat zeg ik dus niet, dan moet je echt beter lezen. Ik zeg dat ze te duur zijn per GB en dat het voordeliger is om dezelfde capaciteit in 2TB schijven aan te schaffen en dan een extra RAID controller in te zetten. Ze zijn, wanneer je enkel kijkt naar opslag en prijs, economisch niet te verantwoorden.

Als je behoefte enkel het hebben van een 3TB schijf is dan heb je een punt, echter ik neem aan dat de behoefte het hebben van meer capaciteit is, en dan zijn deze nog niet interessant. Dan koop je liever meer 2TB schijven.

[Reactie gewijzigd door Tsurany op 20 oktober 2010 09:06]

Steek je dit verhaaltje af elke keer dat er een grotere harddisk beschikbaar komt? Het gaat namelijk al-tijd op. Nieuwe technologie is nou eenmaal duurder.
Wanneer het voordeel van de nieuwe technologie enkel een hogere capaciteit is dan lijkt het mij een vrij normale reactie. Hogere capaciteit aan veel hogere kosten is in de meeste gevallen niet interessant.
Klopt. Meestal niet. In het begin zullen alleen diegenen het kopen die het echt wel nodig hebben om wat voor reden dan ook. Pas als het goedkoper te produceren is, zal de massa het kopen.

Maar dat is met alle nieuwe technieken zo. Ook bijvoorbeeld met SSD's, die zijn in jouw optiek helemaal schreeuwend duur. Met een normale 5400rpm schijfje kan je toch best wel even 20 seconden langer wachten tijdens booten en zo, en die paar watt extra zullen je ook niet de kop kosten.
Het wordt natuurlijk een ander plaatje, als je een datacenter neer moet zetten met maximale capaciteit binnen de ruimte die je hebt. Met 3TB schijven kun je maar liefst 50% meer opslagruimte creeren die je anders niet zou hebben met 2TB schijven. Ook de energierekening gaat omlaag (minder schijven = minder warmte = minder ruimtekoeling benodigd). En daar betaalt men wel voor, hoor.

[Reactie gewijzigd door Fireshade op 20 oktober 2010 11:11]

Als je echt veel capaciteit nodig hebt is er natuurlijk nog het voordeel dat je minder schijven nodig hebt. Bij 6TB bijvoorbeeld twee schijven ipv 3. Handig voor de mensen met een NAS, hoeven ze alleen de schijven te vervangen en niet gelijk de hele NAS. Ook scheelt het natuurlijk een klein beetje in stroomgebruik en geluidsniveau.
Wat een gelul. Dit verhaaltje had je 20 jaar geleden met andere getalletjes ook kunnen afsteken. Je moet maar net ruimte hebben voor 3 kleine schijven die bovendien meer stroom gebruiken en lawaai maken. Het is nooit anders geweest.

Je moet het anders bekijken: 1TB en 2TB schijven zijn gewoon belachelijk goedkoop want die zijn ook bij 230 euro begonnen.
Houd het een beetje netjes. Uitspraken als "wat een gelul" of "wat een gezeik" zijn respectloos. Je hoeft het niet met iemand eens te zijn, maar dit is toch niet nodig?
Nieuwe technologie is helemaal niet altijd duurder. Sterker, de laatste tijd was het i.h.a. zo dat de grootste schijven ook vrijwel altijd de goedkoopsten waren, of nauwelijks in prijs per GB verschilden. Mijn motto was tot nu toe dan ook altijd om de grootste te kopen, omdat je 'm uiteindelijk altijd vol hebt.

Bij deze 3TB schijven is dat duidelijk niet het geval. Die per GB meer dan dubbel zo duur als de 2TB schijven. En dat is veel te veel voor opslag.
8 cent per GB... Hoezo is dat te duur?

Het is een nieuw product. ik verbaas mijzelf over de lage prijs.

[Reactie gewijzigd door kleefei op 20 oktober 2010 09:05]

Als je dat vergelijkt met de 4 cent per GB die 2TB of 1,5TB hardeschijven momenteel doen dan heb je het over een bedrag dat bijna twee keer zo hoog is bij eenzelfde capaciteit.
Als je nu 6TB aan opslag wilt hebben dan kost dat je met 2TB schijven 3x80 = 240 euro. Met 3TB schijven kost dat je 416 euro, dat is toch een aanzienlijk verschil.
Jij bent zeker levensmoe ofzo.... 6TB in RAID0?!?!? Dan neem je voor het gemak zeker het verhoogde afbreukrisico niet mee in je config van 3 schijven. Verder gaat je stroomverbuik omhoog bij je 3 disken, en dan hebben we het nog niet over de extra 25dBA die lekker mee staat te zoomen.....
Wat zou daar zo speciaal aan zijn. Nog nooit videogames gecaptured neem ik aan.

Reken eens uit hoe groot 1920x1200 aan 60fps wordt en vergeet ook niet dat je die RAID0 nodig hebt om het snel genoeg weg te blijven schrijven. Veel compressie kan je je op dat ogenblik niet veroorloven want het spel neemt alle resources van je GPU en ook een grote hoop van je CPU.
En dan heb je zelfs mensen die 3600x1920 60fps spelen over 3schermen.
* cynisme / sarcasme * ( voor degene die het als aanval gaan opvatten )

Dit is een nieuw "excuus" om de schijfruimte te verantwoorden tegenover de andere (schijn)heilige grootverbruikers

begon men over Linuxiso's, nu is het HD capturen van games, in realtime

Nee hoor niemand download nog BRfilms, en tvseries of gb's aan mp3's
want dat mag niet .....

in plaats daarvan dus excuses maken en noodgrepen toepassen
( dvd's worden ook in bulk gekocht - voor 'eigen' werk )

wel grappig - 99% van de games MOGEN niet eens gecaptured worden, want dat is net zoveel inbreuk op de voorwaarden, maar dat terzijde
Dan nog heb je daar niet zo veel TB voor nodig.

Er zullen zat toepassingen zijn waarbij RAID0 handig kan zijn, maar NOOIT voor je permanente opslag van belangrijke data.....

Ik kan niet veel meer bedenkendan toepassingen als systeempartitie of scratch-disk/edit-disk, waar je RAID0 voor zou willen gebruiken.
Er zullen zat toepassingen zijn waarbij RAID0 handig kan zijn, maar NOOIT voor je permanente opslag van belangrijke data.....
Waarom niet? Als je maar backups maakt is er toch niets aan de hand? Het is bij zeer gebruikelijk bij mensen die grote files verwerken.
3600x1920? dat heb ik nog niet vaak gezien, 5760x1200 echter wel (jaja, komt op hetzelfde aantal pixels neer maar is toch wel een verschil :P)
Het verschil is dat je met 5760x1200 je beeldverhouding verpest. Kantel de schermen 90° (een deftige voet moet kunnen kantelen) en je behoudt bijna dezelfde beeldverhouding waarop games origineel voor zijn gemaakt.
Zou toch mooi zijn bij een spel als pitfall...
Een extra schijf levert niet extra 25dBA natuurlijk, maar slechts 1 à 2dB verhoging afhankelijk van hoeveel je er al had :) Anders zou je met 6 schijven blijvende gehoorschade oplopen (volgens de foute logica dat 6x25dBA = 150dBA) :P
Yep. Verdubbeling van de geluidsdruk (m.a.w. 2x 25dBA) is "slechts" een verhoging van 3dBA en wordt dus 28dBA.
6 schijven van 25dBA zijn dus samen:
25+3 is voor twee schijven
28+3 voor vier schijven
31+(ongeveer) 1 voor zes schijven
32 dBA
rustig maar... het is maar een voorbeeld.
ik verwacht niet dat er echt veel mensen zullen zijn die daadwerkelijk 6TB in Raid 0 zetten
en wat betreft hitte en stroom verbruik, 2 extra schijfjes zijn bijna te verwaarlozen als je in een omgeving zit waar je daadwerkelijk 6TB data opslag nodig hebt. op jaar basis zal op misschien 2 euro schelen op je stroom rekening
Ik zie nergens staan dat hij het over raid 0 heeft.
En 3x 2TB werkt prima, als je zorgt dat je je belangrijke data meerdere malen op de schijven zet heb je wat mij betreft niet echt een probleem.
6TB aan belangrijke data voor thuis gebruikers is vrij uitzonderlijk.

Het zijn trouwens platters van 750GB, geef mij dan maar een 2TB schijf met platters van 667GB.
Zuiniger en stiller, dus qua stroomverbruik zullen 3x 2TB niet zo veel schelen met 2x 3TB.
1. Wie had het hier over een RAID-opstelling dan? Ik neem aan dat dit niet over RAID-opstellingen gaat gezien dit er dan ook niet in staat.
2. Stroomverbruik lijkt me ongeveer gelijk gezien deze platters van 750GB een stuk minder efficiënt zullen zijn dan de huidige geoptimaliseerde 2TB-schijven.
3. Een extra schijf brengt geen 25dBa met zich mee. Als algemene vuistregel (die vrijwel altijd - en ook in dit geval - klopt, uitzonderingen daargelaten is: X.dBa = dBa + 1X (waar X het aantal schijven is). Dit betekend dat twee van deze 3TB-schijven hooguit 26 dBa zullen voortbrengen. Dit betekend ook dat drie 2TB-schijven hooguit 1 dB extra zullen voortbrengen. En dit is dan ook nog bij vrij gehorige 2TB-schijven die ook 25dBa als geluidsniveau hebben. Dit is dan weliswaar een verdubbeling van het geluid, maar gezien ons gehoor toch niet lineair is zul je dit niet merken, 1dB is immers niet merkbaar. In de meeste gevallen zullen drie 2TB-schijven stiller zijn dan 2 van deze specifieke 3TB-schijven.

[Reactie gewijzigd door Chocola op 20 oktober 2010 10:13]

Jij bent zeker levensmoe ofzo.... 6TB in RAID0?!?!?
Waarom nu gelijk weer RAID0? Er is méér in de wereld van RAID. Verdiep je dus eens in de mogelijkheden. Je hoeft 2x 3T niet per se in RAID0 te draaien om 6TB storage te hebben.
Allereerst wordt er niet over RAID0 gesproken, je kan ook gewoon JBOD inzetten. Ook kun je het geluidsvolume niet zomaar bij elkaar optellen. Oftewel: Ja, met 3 schijven is de kans groter dat er 1 uitvalt (al zijn de schijven met 3TB nog splinternieuw en zou het mij niet verbazen als de betrouwbaarheid daarvan nog minder is dan die van de 2TB schijven) De rest van je argumenten zijn te marginaal om serieus te nemen.

Op termijn zullen de prijzen van de 3TB schijven echter vast wel zakken.
SSD's zijn ook te duur. In mijn ogen is een product te duur wanneer de winst op een product veel hoger is dan wat het kost aan materiaal om het product te maken. Zelfde geldt voor UGG de schoen die voor 2 tientjes wordt gemaakt, maar voor 200 wordt verkocht.

Anyway even on-topic. Ik ben nog altijd niet zo'n fan van zulke grote schijven. Liever 4x 1 TB dan 1x 3TB ivm dataverlies. Maar dit is natuurlijk wel gunstig voor de prijzen.

[Reactie gewijzigd door roooii op 20 oktober 2010 09:12]

Dan zijn SSD's volgens jouw definitie niet te duur. Ze worden namelijk gedumpt aan bijna productiekosten omdat de bouwmaterialen nu eenmaal het duurste is.

Flash wordt al 20jaar ontwikkelt en die controllertjes het dubbele ervan. Onderzoek terugbetalen moet dus amper bij SSD's, het is bijna uitsluitend de huidige hoge kosten van flash geheugen dat je moet betalen.
Daarom zie je ook enkel prijsdalingen wanneer ze om de 1,5jaar het productieproces van het flashgeheugen verkleinen. Dat is momenteel de enige manier om SSD's goedkoper te krijgen.
Denk je nou echt dat Intel een markt instapt waar er geen deftige marges zijn te halen?

En waarom denk je dat OCZ zich als een hongerige hond stort op de SSD markt terwijl ze in principe niet het budget daarvoor hebben?

Juist, dat komt door de hoge marges die je kan krijgen op die dingen.

Als de productiekosten van Flash halveert zal dat vaak gaan om een paar tientjes, dat loopt echt niet tegen de 100 euro aan.

Kingston biedt ook budget 80GB SSD's aan voor rond de 100 euro, dat is de helft van de prijs van de Intel's en nog maakt Kingston winst.

En die langzame flash chippies zijn echt niet zoveel goedkoper dan de snelle.
Wij gebruiken al een tijdje SSDs. De snelheidswinst is voor verschillende toepassingen gewoon erg handig en nauwelijks op een andere manier te bereiken. Grootste probleem is meer de beperkte capaciteit waardoor je dus al snel data moet verhuizen naar tragere schijven.
Dit is natuurlijk te duur per GB. Hoe je het ook bekijkt, je betaald bij deze 3TB schijven zo een 90-100% meer per GB dan bij 2TB of 1TB schijven. Dit betekend dan niet dat deze schijven niet gekocht zullen worden voor deze prijs omdat mensen er behoefte aan hebben, dit betekend dan dat deze schijven relatief gezien minder rendabel zijn om te kopen voor hen. Helemaal als je kijkt naar een RAID-opstelling zullen kleinere harde schijven heel wat rendabeler zijn om aan te schaffen op dit moment. Dit zal echter snel veranderen en dan zullen alle Tweakers toeslaan ;).
Was dat niet ook waar RAID oorspronkelijk voor stond? Redundant Array of Inexpensive Drives.
Dit is naderhand (door de marketeers) omgezet naar independant
bron: http://en.wikipedia.org/wiki/RAID
Maar ik vraag me af hoe ze aan de naam independant zijn gekomen. De drives zijn in een RAID opstelling wel degelijk afhankelijk van elkaar :?
Nee, het raid-volume is afhankelijk van de disks en de controller. De disks zelf zijn alleen afhankelijk van de controller (en de voeding).
Maar ik vraag me af hoe ze aan de naam independant zijn gekomen. De drives zijn in een RAID opstelling wel degelijk afhankelijk van elkaar :?
Waar haal je dat vandaan dan? Zolang de grootten overeenkomen is er (in principe) niets aan de hand, maar het werkt gewoon beter als je een array maakt met dezelfde merk en type (en dus grootte) harddisk.
Oorspronkelijk stond de I voor Inexpensive. In plaats van 1 dure schijf koop je wat goedkope (inexpensive) disks die je samengooit. HD fabrikanten waren niet zo blij met dat "inexpensive" want ze probeerde juist extra geld te vragen voor "speciale" raid-schijven. Toen hebben ze er maar "independent" van gemaakt.
uiteindelijk zal iedereen zijn 'behoefte' aan giga(tera)bytes groter worden. Maar zoals Tsurany zelf ook zegt, uiteindelijk zullen die prijzen ook wel dalen.
Mooi zo, leuk voor de thuis NAS'jes. Lekker zuinig, lekker groot.

[Reactie gewijzigd door Romke op 20 oktober 2010 18:29]

Ik ben erg benieuwd of de moderne NAS-systemen wel met meer dan 2TB overweg kunnen. De huidige systemen van Synology en Qnap hebben volgens mij een harde limiet op 2TB

[Reactie gewijzigd door Magic op 20 oktober 2010 08:50]

Wat is je bron?

Synology gebruikt ext4, het meest recente FS van Linux dat veel verder kan dan een paar Tb. De lijst met HDD's die de Synology's aankunnen is inderdaad beperkt tot 2 Tb, maar dat komt door het gebrek aan grotere HDD's, niet door een limiet.
Het gaat niet alleen om ondersteuning van het filesystem, maar ook of het OS de aansturing van de drive kan doen. Hiervoor is een modern disk subsystem nodig (kernel) en controller drivers die hier mee samenwerken.
En juist dat vraag ik me af. Is het niet zo dat het OS gewoon tegen het file systeem aan praat met behulp van een driver? Hoe kun je anders een programma onder Windows hebben wat bijboorbeeld Linux of Mac filesystems kan lezen en of beschrijven.
Wat je misschien bedoeld is dat de nas de hardware gewoon niet herkent. Een NAS moet ook iest van een bios hebben en als die gewoon niet kan omgaan met deze grote schijven, dan ben je nog nergens.
.Dat is ook de reden dat ik een Synology DS1010+ / DX510 heb aangeschaft. Zitten nu nog 2Tb schijven in, maar ik verwacht in de toekomst geen problemen naar grotere formaten. De maximale schijfcapaciteit van EXT4 is 1 Exabyte, wat volgens mij 100.000 terabyte is.

En aangezien ik 10 van deze schijven kwijt kan lijkt me dat voorlopig wel voldoende :) .
.Dat is ook de reden dat ik een Synology DS1010+ / DX510 heb aangeschaft. Zitten nu nog 2Tb schijven in, maar ik verwacht in de toekomst geen problemen naar grotere formaten. De maximale schijfcapaciteit van EXT4 is 1 Exabyte, wat volgens mij 100.000 terabyte is.
Vergis je trouwens niet: Een jaar of 10 terug (2000) was iedereen nog jaloers als je een Quantum Bigfoot in je kast had hangen met een capaciteit van 2,1 gigabyte. Tegenwoordig kun je de volledige inhoud van zo'n disk in je werkgeheugen parkeren en heb je nog de helft over. ;)

Ik ben dus benieuwd wanneer we de 1EB-grens gaan doorbreken. En of we überhaupt dingen gaan verzinnen om dat vol te krijgen! :Y)
Als je tien jaar terug jaloers was op 2 gigabyte was je niet veel gewend :-P Ik heb mijn eerste PC in 1998 samengesteld en hier zat al 16GB in. Nog vóór het jaar 2000 kwam daar al een 40G in.

Verder vraag ik me niet zozeer af wanneer we 1EB gaan bereiken, maar óf het überhaupt gaat gebeuren. Tegen die tijd heb je misschien niet eens meer zoiets als een los datacomponent per machine :-)
Onzin, zelfs als je iemand bent die al z'n data aan de cloud durft toe te vertrouwen zal ze uiteindelijk ook ergens fysiek moeten staan. En grotere schijven betekent een goedkoper datacenter: minder kasten, minder stroomverbruik.
Wellicht over 10 jaar :) Ik denk alleen wel dat we tegen die tijd alleen nog maar ssd's gebruiken aangezien een harde schijf naar mijn idee nooit zo'n hoge dichtheid zal gaan ondersteunen.
Als je wilt pochen met je computer-ervaring, moet je wel de feiten kennen. In 1998 was 6 GB zo'n beetje standaard. In 2000 zat je op 40 GB. Een hoeveelheid korte-termijn opslagruimte die nu nog voor de meeste mensen volstaat.
1 ding weet je wel zeker, als we de Exabyte gaan doorbreken zal het iig niet meer draaien..
Idd, ik vind het zelf eerder eens tijd worden dat die SSD's wat goedkoper worden. Maar dat wordt waarschijnlijk pas interessant als ze het niet meer op een schijfje gepropt krijgen.
Dat laatste zal geen probleem zijn. De status van de schijf is vol.
Nou, ben nooit jaloers geweest op iemand met een bigfoot schijf, dat waren onwijs trage 5.25" baggerschijven, de Fireball serie was de serie om jaloers op te zijn, zelfde capaciteiten maar een stuk sneller :P
Linux kan in ieder geval al lang overweg met GPT's, dus me dunkt dat die ondersteuning er wel is.
Het gaat niet om de limiet van Linux of ext4, maar om waar in de firmware in voorzien is. Een fabrikant kan maar beperkt vooruit kijken.

Soms zal je -zoals je suggereert- inderdaad geluk hebben en werkt iets vlekkeloos, soms zullen er configuratiefiles of zelfs kernels/drivers aangepast moeten worden door de fabrikant.

Je bent dus regelmatig afhankelijk van updates. Synology lijkt zijn klanten serieus te nemen, dus dat zal opzich wel goed zitten. Echter als je zekerheid wilt, wacht je simpelweg tot de schijf van jouw keuze officieel ondersteund wordt. Zelfs dat is geen garantie, maar ik heb ervaren dat de helpdesk dan wel ver gaat om de boel alsnog aan de praat te krijgen (op afstand inloggen en handmatig de configuratiebestanden aanpassen).
Het gaat niet om de limiet van Linux of ext4, maar om waar in de firmware in voorzien is. Een fabrikant kan maar beperkt vooruit kijken.
Een fabrikant WIL maar beperkt vooruit kijken. Natuurlijk wist elke fabrikant een paar jaar geleden echt wel dat er schijven >2GB zouden komen. Maar je kan er beter niet teveel op vooruit werken, want nu kan je nieuwe producten verkopen...
Een fabrikant WIL maar beperkt vooruit kijken.
Ik zeg niet dat je ongelijk hebt; dat kan een punt zijn. Maar er is ook zoiets als hoever je vooruit kunt kijken. Als er nieuwe ontwikkelingen nodig zijn (zoals GPT partitites) dan zullen die eerst ontwikkeld moeten worden voor je het kunt ondersteunen. En het ondersteunen van een nieuwe standaard kost veel ontwikkeltijd, dus is het duur; dat doe je pas als er vraag naar is, anders zou je je klanten met kosten opzadelen waar ze niks aan hebben.
De toon van je post lijkt me dus niet helemaal eerlijk tegenover fabrikanten; ook al heb je (mogelijk) gelijk dat dat één van de factoren is, het is zeker niet de enige.
Dat heeft weinig nut om al op voorhand te voorzien want je kan het niet testen. Je kan ervan uitgaan dat het niet meteen foutloos zal werken dus waarom hetzelfde werk 2x doen als het 1x kan.
Een bron kan ik niet meer vinden, maar in de tijd dat 1TB het grootst was, was er op de synology site onder de FAQ een kopje of grotere harddisks ondersteund gaan worden.

Het antwoord was dat ze het niet zeker wisten zonder te testen, maar theoretisch zou tot 2TB ondersteund worden.

De reactie van eymey een stukje naar beneden geeft waarschijnlijk antwoord op deze vraag. :)
Synology gebruikt ext4, het meest recente FS van Linux dat veel verder kan dan een paar Tb. De lijst met HDD's die de Synology's aankunnen is inderdaad beperkt tot 2 Tb, maar dat komt door het gebrek aan grotere HDD's, niet door een limiet.
Het wel of niet ondersteunen van > 2 Tb heeft toch niets te maken met het FS? Het gaat volgens mij juist om het type partitie, en het probleem is dat MBR niet verder wil van 2 TB (tenminste niet op 32 bits systemen).
Check dit:

We also tested the 3TB Caviar Green in two NAS units being tested in our lab, including a Synology DS411+ and a QNAP TS-459. Both models recognized the drive as a 3TB model and were eager to create a properly sized single partition on the drive. Neither seemed to throw as much of a fit as our Dell XPS 9000, which wouldn’t show more than a 746GB capacity with or without the HBA.

bron
Ik ben erg benieuwd of de moderne NAS-systemen wel met meer dan 2TB overweg kunnen. De huidige systemen van Synology en Qnap hebben volgens mij een harde limiet op 2TB
een redelijk aantal NASjes zijn gebouwd op een Linux basis, dus het zou toch geen probleem mogen zijn?
Dan gaat het meestal om de voeding en warmtontwikkeling
6 Watt lijkt me geen probleem. Dat is een heel gemiddeld gebruik.
Warmteontwikkeling is dus ook geen probleem, want dat is evenredig met het opgenomen vermogen.
Linux, maar dan wel aangepast en niet zomaar even de nieuwste standaard-distributie. De fabrikant zal de firmware dus doorgaans ook weer moeten aanpassen aan de nieuwe schijven.

Ik heb zelf met Synology ervaren dat er zelfs met 1TB al problemen konden ontstaan met het initialiseren van nieuwe schijven, die vervolgens door de helpdesk met de hand in bepaalde configuratiebestanden verholpen moesten worden.

Bij het doorbreken van de 2,2TB grens lijkt me dat je een behoorlijke kans loopt dat er meer bij komt kijken dan een configuratiebestand aanpassen. De fabrikant zal dan bijvoorbeeld een nieuwe kernel moeten compileren, en ook alles uitgebreid moeten testen alvorens de firmware vrij te geven.

@Oeroeg: daar heeft het dan weer net helemaal niets mee te maken.
Wel, dat vraag ik me ook af. Op de site van Synology is hierover niks terug te vinden. Ben al een tijdje aan het afwachten om een DS210+ aan te schaffen. Het zou leuk zijn mocht ik daar twee van deze schijfjes kunnen inproppen.
Misschien maar even afwachten tot iemand anders het eens geprobeerd heeft :)
Mochten Nas apparaten er niet mee overweg kunnen, dan is er toch altijd nog een firmware update die dan door een bedrijf als Synology uitgebracht kan worden?
Ja, maar als jij zeker wil weten dat je het betreffende apparaat op die manier kan gebruiken, kan je beter toch even wachten tot de betreffende update. Je zal maar net dat ene afwijkende uitlopende model kopen waar geen update meer voor uitkomt...
Deze limiet is vaak eerder softwarematig dan hardwarematig. Vaak is het alleen een kwestie van een firmwareupdate of andere update en ready you are voor de 3TB barrière.
Gedeeltelijk waar, de beperking zit in de Partitie tabel. 1 van de oplossingen is gebruik maken van GPT wat een "soort" vervanger is van de standaard partitie tabel. Een andere oplossing is gebruik maken van grotere sectoren. Standaard is dit 512bytes per sector, maximale disksize wordt bepaald door heads x cylinders x sectors per cylinder x sectorsize. Wanneer de sectorsize groter is dan 512, dus bijvoorbeeld 4K dan is 2GBx8 mogelijk met standaard partitie tabellen. Het OS moet echter wel deze andere sectorsize ondersteunen.
Met v3 firmware can Synology ook om met grote schijven.
Bij DSM 3.0-1334 staat in de release notes: "EXT4 file system is now supported to allow volumes with sizes up to 1 Exabyte and files with sizes up to 16 Terabytes. "
Het filesysteem in een partitie zegt niets over de manier waarom de schijf gepartitioneerd is. Ext4 kan volumes tot 1 Exabyte aan maar volumes kunnen uit meerdere partities/schijven bestaan en heeft hier dus niets mee te maken ;)

Nu kan Linux in principe met dit soort schijven omgaan, maar het is dus nog steeds afwachten of er voor de NAS systemen een update nodig is of dat de schijven direct werken.
De fabrikanten gaan natuurlijk geen schijven op hun compatibiliteitslijst zetten die ze niet kunnen testen. Toen 1 TB de grootst beschikbare capaciteit was was er ook geen enkele fabrikant die 2 TB-drives ondersteunde - ze waren er simpelweg nog niet, en meestal worden die specs later niet aangepast als er grotere schijven uitkomen.

En zoals hieronder gezegd zijn veel NASes gebaseerd op Linux, en dat zijn over het algemeen 2.6 kernels. GPT-ondersteuning is in ieder geval helemaal geen probleem; ter illustratie: de AppleTV boot bv. alleen maar een schijf met GPT-indeling, en ik heb er Linux op geïnstalleerd , ding draait als een tierelier :).
Onzin @voeding & warmteontwikkeling. Die is bij deze schijfjes echt niet meer dan de oudere schijfjes met evenveel platters maar minder capaciteit.

Het zal er meer om gaan dat die dingen gewoon nog niet door Synology en QNAP getest zijn. Of bv. omdat de firmware van QNAP of Synology standaard nog niet met GPT partitionering werkt (maar dat weet ik niet zeker, zou een oorzaak kunnen zijn).

In ieder geval: Het lijkt mij dat men hier softwarematig redelijk makkelijk support voor kan introduceren, ALS het al niet ondersteund is. Uiteindelijk draait Synology bv. gewoon op een behoorlijk courante Linux versie.

Net ff gekeken:
M'n Synology DS209+II met Firmware 3.0 draait 2.6.32 als Linux kernel en heeft de harddisks in het systeem nog met een msdos partitietabel gepartitioneerd. Dus die meer dan 2,2 TB zal dan idd nog niet geadresseerd kunnen worden.

Tijd dus voor Synology (en wrs. consorten) om over te stappen op gpt ;)
Loopt wel los. Ik heb dit een keer aan Synology gevraagd (vanwege de aanschaf van een DS1010). Het antwoord was dat de hardware niet gelimiteerd is qua disk grootte. Met slechts andere firmware zouden schijven tot 4TB zonder probleem ondersteund moeten worden. En sinds de DSM 3.0 nu op ext4 draait zie ik de 3TB schijven nog wel een keer in m'n nas verschijnen :)
nee joh dat is gewoon aan te passen met firmware
het zelfde verhaal als met een besturingssysteem
Ik heb een QNAP TS-659 met 4 x 2TB schijfjes.
Daar heb ik een 5.4 TB iSCSI target op aangemaakt welke voor mijn mediacenter dient.
Dat werkt allemaal perfect, dus de limiet is zeker niet van toepassing daar.
idd, fixed :)
Waarom zou WD zoveel specificaties geven, behalve het toerental?
Omdat mensen misschien te snel oordelen op basis van het toerental, harde read/write cijfers en seek times zijn een stuk interessanter dan het toerental.
Tja ik wil ook graag weten hoeveel PK ik in me auto heb, dat de 0-100km optrekken getallen beschikbaar zijn, en getallen van hoe zuinig de auto is, heb ik eigenlijk vrij weinig aan het gegeven zelf maar wil het wel weten ;)

Zou wat zijn als ze dat niet meer vermelden ;) Of de motorinhoud gewoon achterwege gaan laten omdat de ene 1.4L FSI lager klinkt als een normale (non-turbo) benzine 1.8L ookal is die 1.4 alsnog sneller en heb je veel meer power tot je beschikking ;)
Je kunt als fabrikant ook beginnen over dichtheid van de data op de schijf al denk ik dat dat marketing technisch niet gaat werken
En dat begrijp ik, als consument zou ik het ook wel willen weten. Echter voor een fabrikant is het aantal PK's minder interessant als ze met veel minder PK's een flink stuk sneller zijn.
Als je het hebt over de 1.4 met turbo dat is het T(F)SI.
In veel gevallen zal ik toch kiezen voor een 1.8 ook als deze minder vermogen levert.
Vaak is het zo dat zodra je boven de 100 km/u komt dat die kleine turbo blokjes gaan zuipen als een otter, omdat ze dan veel te hard moeten werken. Als je dus een beetje buiten de files lekker kan door rijden is een 1.8 vaak zuiniger!
Goeie uitspraak. Seek times zijn net bijna volledig afhankelijk van het aantal tpm...
Fout...
De seektime heeft er niets mee te maken! Dat is namelijk simpelweg hoe snel de kop heen en weer beweegt. De rotational latency is volledig afhankelijk van het toerental.

Die twee tesamen leveren de accesstime. Bij een 7200 rpm schijf, heb je typisch ongeveer 1/3 seektime, en 2/3 latency...
Misschien om te verbergen dat de schijven op 5400rpm draaien.

WD heeft vroeger naar buiten gebracht dat IntelliPower tussen de 5400 en 7200rpm is om zo het maximale eruit te kunnen halen voor een minimaal stroomverbruik.

Seagate heeft dit getest en komt tot de conclusie dat de schijven constant op 5400rpm draaien.

Daarom is het maar misschien beter om te zwijgen want dan kopen mensen het tenminste niet omdat het langzamer lijkt of langzamer is tov de concurrent.

Voor meer informatie: http://www.ciol.com/News/...elliPower/131009126262/0/
Dat is trouwens niet correct, de schijven draaien op een toerental van maximaal 6000 en minimaal 5400. De precieze snelheid verschilt alleen tussen de verschillende capaciteiten. Dus alle 3TB schijven draaien op eenzelfde toerental en dat toerental kan verschillen van het toerental waarop alle 2TB schijven draaien. Het toerental word bepaalt aan de hand van het gewenste energieverbruik en is dus niet variabel.
Dan nog vind ik niet dat ze het hoeven te verzwijgen, want uit mijn ervaring blijkt wel, hoe meer data op een platter en hoe meer platters in een drive, hoe sneller de read rate. En 110mb/s voor een 5400rpm disc vind ik wel nice :D

[Reactie gewijzigd door TwiLighT_DM op 20 oktober 2010 10:40]

Omdat de doorsnee consument dan kan zeggen: "nee die andere is sneller want die heeft 7200 toeren per minuut"
Is dat zo belangrijk voor je dan?
Als ik op de site van WD kijk staat dit bij geen enkele (Caviar Green) disk vermeld.
Is er al iets bekend over de release van de 3TB enterprise schijven? Die zijn er nu alleen nog maar in 2TB versie. Wordt deze 3TB schijf ook door Windows Home Server v1 gezien? Verder lijken me het betrouwbare schijven, zoals altijd bij Western Digital. :)
Hoezo lijken de schijven betrouwbaar, komt dat door het leuke plaatje, de Western Digital naam of de grootte van de schijf? Met zulke grote schijven is de kans op een unrecoverable read error een stuk groter waardoor de betrouwbaarheid eerder achteruit gaat dan vooruit.
Omdat ik al jaren Western Digital schijven heb, (De oudste is zelfs van meer dan 13 jaar geleden en die doet het nog steeds) en nog nooit een defecte schijf heb gehad. De grootste die ik van WD heb zijn de 1TB green schijven, maar de 3TB schijven lijken mij een mooie vervanger. Seagate schijven die ik tegenkom hebben bij bosjes S.M.A.R.T errors, sector of andere fouten.

Dat klopt, met een hoger toerental zul je dat eerder hebben dan deze 5,400rpm schijven ljikt me?
Al gebruik jij 1000 jaar lang WD schijven, jouw ervaring zegt 0,0 over de betrouwbaarheid van een specifiek merk.

Het gaat om de uitval per 1000 of 10.000 stuks, dan kan je misschien iets zinnigs zeggen over de betrouwbaarheid.

Andere mensen zweren juist bij Seagate en willlen nooit meer WD gebruiken.

Mijn oom wilt ook nooit meer Mercedes rijden omdat hij een keer Mercedes heeft gekocht die een aantal productiefouten had, je begrijpt toch wel dat dat ongegrond is?
kijk ik zal altijd bij wd blijven..

maar dit jaar heb ik toch al 5hdd moeten vervangen re3 schijf en dat vindt ik nog al erg veel vergeleken met de voorgaande jaren.. zelfs de nieuwste die ik net had heb ik al moeten vervangen...
terwijl gewoon in normaal pc zit met raid5..
denk dat dit jaar de schijven slecht zijn van wd.. te minsten mijn ervaring dan..
kijk ik zal altijd bij wd blijven..
Als het kan. Ik wilde bij Conner blijven, en daarna bij Quantum, en toen bij Maxtor..
Opgeheven, uitgestorven, over genomen.
ik stop meteen met lezen en maak meteen een back-up van de ene WD naar de andere, en maar hopen dat ze niet allebei crashen.
same here ! :P

heb nog WD's van 2/4 gb liggen, doen het ook nog steeds prima :)

werk overigens bij een bedrijf waar kapotte hd's binnenkomen om te testen, hier komen zegmaar 90% seagates binnen, misschien 1 % WD, en nog wat fujitsu en hitachi
ik heb het afgelopen jaar alleen al meer dan 10 raptors teruggestuurd... uit een raid10 systeem met 8 raptors... kan je nagaan hoe vaak die dinge stukgaan ;)

Volgens mij gaan alle schijven uiteindelijk stuk. Het is gewoon heel erg afhankelijk van je gebruik. Staan de schijven 24/7 aan, hoe goed zijn ze gekoeld, hoe hard worden ze belast, etc. (ter vergelijking, ik heb nog een 60GB maxtor draaien die al 8 jaar 24/7 draait)
koeling schijnt vrij weinig uit te maken, althans volgens een intern Google onderzoek
Ik denk dat het elke dag afkoelen en opwarmen van de schijf meer invloed heeft de temperatuur op zich. Bij Google gaan de meeste computers niet elke avond uit, maar bij mij gaan de servers buiten werktijd wel gewoon uit. (op één na). Ik ben tot nu toe erg tevreden over de WD-Green schijven.
Lucky you! Al mijn WD schijven (stuk of 8 de afgelopen 10 jaar) zijn overleden. Zelfs de refurbished schijven (die je krijgt binnen de garantieperiode) zijn enkele maanden erna weer overleden :(
En hd's van een ander merk, overlijden die ook in je pc? Zo niet dan heb je wel erg veel pech. Zo ja, dan lijkt me dat er iets niet klopt met je pc (misschien staat je hele kast onder spanning door een slechte voeding of zo).
Of je gebruikt van die irritante molex naar sata verloopstekkertjes op een oude voeding. Daarmee klapten mijn seagates er ook steeds uit (gingen niet kapot gelukkig).
WHS "versie 1" is gebaseerd op Windows 2003, die op zijn beurt weer gebaseerd is op Windows XP... Ik geef je dus weinig kans.
XP, server 2003 en WHS kunnen allemaal een schijf naar GPT partitioneren en als dataschijf gebruiken.
Nee hoor, XP niet. Alleen de 64-bits versie, maar die gebruiken weinig mensen.
aangezien WHS V1 een ouder besturingssysteem is lijkt het mij niet dat deze 3TB schijven ondersteund worden, erg jammer heb zelf ook 12TB aan schijven hangen in mijn WHS V1.
Hier kon je 5 jaar terug alleen maar van dromen.

Prachtig om te zien dat ze gewoon door blijven ontwikkelen, mijn vraag is alleen, wanneer de fysieke eigenschappen van dit soort harde schijven een beperkende factor worden in de groei van opslagruimte.

En word SSD dan de opvolger? Zal een SSD ooit deze opslagcapaciteit krijgen?
SSD valt onder een hele andere categorie voor hele andere doeleindes. SSD is (vooral qua prijs) niet erg geschikt voor bijvoorbeeld veel opslag of in servers (of databases e.d., dat vinden ze niet zo leuk), daar blijf je lekker HDD-technologie voor gebruiken. SSD zal dus denk ik parallel blijven lopen aan HDD, tot dat HDD ooit in een verre toekomst uitgefaseerd zal worden. Of SSD dan de opvolger is weet ik niet, ik vermoed ook dat er dan efficiëntere methodes zullen zijn om grote hoeveelheden data op te slaan. Pas als SSD goedkoper wordt zal het een directe(re) concurrent worden van HDD.

[Reactie gewijzigd door Chocola op 20 oktober 2010 09:16]

SSD is de afgelopen jaren zo snel ontwikkeld dat binnen een paar jaar betrouwbaarheid geen probleem meer zal zijn. De prijs is bovendien ook alleen maar aan het zakken. Hardeschijven zijn nu qua prijs/GB het goedkoopst maar het is bij SSD eenvoudiger om de opslag capaciteit uit te breiden dan bij hardeschijven.
Een SSD gaat nooit goedkoper of zelfs in de buurt van de HDD komen. Pas wanneer we overstappen op de opvolgers van SSD en HDD amper nog productie kent, zal de prijs van HDD naar die van SSD stijgen waardoor ze ongeveer gelijk komen.
De prijzen van SSD's zullen de HDD's alleen voorbij gaan, zodra SSD de opslagcapaciteit van de HDD verslaat. Dan nog kan het enkele jaren duren eer ze goedkoper worden, aangezien dit afhankelijk is van de verkoopaantallen. Maar uiteindelijk zal de HDD verdwijnen. Dit kan niet anders, aangezien SSD in het afgelopen jaar zo enorm gegroeid is.
Flash wordt nu al massaal gemaakt, meer productie zal de prijs echt niet meer doen dalen. Een stijging van de verkoop van SSD's kan de prijs van flash enkel verder omhoog duwen als de producenten niet kunnen volgen met de bouw van nieuwe fabs, meer vraag en evenveel aanbod = hogere prijs.
HDD's zullen inderdaad ooit verdwijnen, maar dat zal nog wel even duren, de voorganger van de HDD, de tape, wordt ook nog steeds gebruikt.
Hoe kom je erbij dat SSD's in servers niet gebruikt worden of minder geschikt zouden zijn? juist in servers zijn SSD's aan een gigantische opmars bezig. Niet alleen als cache maar ook voor database en webservers waar het aantal IO's het meest telt. één SSD vervangt dan vaak een hele bank schijven met 15.000 toeren en dure controllers e.d. Qua energieverbruik en warmteafgifte is ook een groot voordeel te behalen.
In een serieuze fileserver is SSD nog wel leuk als tweede level cache bij iets als ZFS voor wanneer meer RAM installeren te kostbaar wordt (of een SLC drive als write log als er intensief geschreven wordt).
Maar goed, dan heb je natuurlijk geen terabytes nodig :P
denk het wel, zal nog wel een tijdje duren maar in principe moet het mogelijk zijn, en zoiezo kijk eens naar een paar jaar geleden (jaar of 10, 20) zijden ze dat 100 mb veel was en dat het bijna onmogelijk was om echt heel veel meer eruit te halen, kijk waar we nu zitten :P 3 TB.

vind het idd nogal prijzig ik bedoel heb laatst een externe (ja ik weet het verbruikt meer en is trager) schijf van 1 tb gehaald voor 40 euro, dat was de LaCie 300, en die krijg ik al moeilijk vol na een back up van mijn computer, aardig wat films gedownload en een stuk of 10 games erop gezet, doe je ook een jaar over voordat je die games hebt uitgespeeld... nee voor mij zit hij er nog niet in, nergens voor nodig, fijn dat het 3 tb is maar kom op is er iemand die dit nou echt allemaal GEBRUIKT (dus niet ja hij zit vol maar je gebruikt maar een 100e)

[Reactie gewijzigd door jim.c op 20 oktober 2010 09:07]

Als je even naast het artikel kijkt bij gerelateerde producten, zie je beidde schijven staan.
Die 2.5TB schijf is later toegevoegd en stond er een half uur geleden nog niet.
FYI: Op het moment dat hij het plaatste stonden er nog geen gerelateerde producten in de lijst, ik was er ook al naar aan het zoeken.
Inderdaad, kon de producten niet vinden bij het moment van posten.
Ondertussen staan ze beide bij de gerelateerde producten.
Ik krijg dan 3 leveranciers te zien die hem zo te zien alle 3 niet op voorraad hebben. En mijn ervaring is dat de levertijden die ze dan opgeven een wilde gok zijn die best flink kunnen uitlopen.
Begrijp ik nou goed dat je ook met een AHCI systeem nog die bijgeleverde HBA (Host Bus Adapter) moet gebruiken in een vrij PCI-E slot? (http://www.wdc.com/en/solutions/Greaterthan22.asp)

Ik mag hopen dat toekomstige moederborden 2+ TB native gaan ondersteunen...

Ben trouwens ook benieuwd of de 2TB schijven nu binnenkort naar 3 platters zullen gaan, heb er nog eentje op mijn verlanglijstje staan :)

[Reactie gewijzigd door dj_raoul op 20 oktober 2010 09:17]

Weet niet waar je dat leest. Je hebt gewoon een modern os nodig om t native te supporten.
Ben trouwens ook benieuwd of de 2TB schijven nu binnenkort naar 3 platters zullen gaan, heb er nog eentje op mijn verlanglijstje staan :)
Zitten ze al een tijdje. In ieder geval de Samsung en de WD. Deze schijven zijn ook nog eens zeer laag geprijsd.
en een uptodate bios.
BIOS is alleen een factor als je er van wilt booten, en dan heb je UEFI nodig; als je systeem dat niet ondersteunt heb je pech en kun je niet fatsoenlijk booten.
Who... 240 dollar voor drie TB. Natuurlijk zullen deze prijzen nog wel omlaag gaan in de markt, maar het zal nog een tijd duren eer deze schijven aantrekkelijk zijn om te kopen lijkt mij.

Prijs komt nu neer op 8 dollarcent per GB, terwijl 4-4.3 eurocent per GB bij 1TB en 2TB schijven vrij normaal is inmiddels. On the other hand: 2TB schijven waren in het begin ook 200+ euro toen ze hier in Nederland geïntroduceerd werden dus als het met 3TB schijven ook zo zal gaan dan wordt het rendabel over een tijdje :).

[Reactie gewijzigd door Chocola op 20 oktober 2010 08:56]

Yup, maar de prijzen zullen waarschijnlijk pas echt zakken als er meer producenten met 3TB schijven op de markt komen.
Geef het een half jaartje en ze zijn goedkoper dan 2TB kijkend naar €/TB. De 3TB nog niet maar de 2,5TB zal zeker snel zakken.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True