Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 49 reacties
Bron: Maxtor

Maxtor heeft op het Intel Developer Forum zijn eerste native Serial ATA-harde schijven op basis van een single chip oplossing gedemonstreerd. De huidige generatie Serial ATA-harde schijven maakt nog gebruik van duurdere multi-chip oplossingen die veelal zijn gebaseerd op een parallel ATA naar Serial ATA-converter. De demonstratie van Maxtor was gericht op twee facetten van de Serial ATA-standaard; native command queuing (NCQ) en hot plug. De NCQ-demonstratie was volgens Maxtor de eerste publieke voorstelling van een native Serial ATA-harde schijven op Intels next-generation Grantsdale-chipset.

Maxtor logo met harddiskIn het persbericht wordt NCQ omschreven als de 'meest significante prestatieverbeteringen in harde schijven tot op heden'. Command queuing wordt al jaren ondersteund door SCSI- en Fibre Channel-harde schijven maar was tot op heden afwezig op de meeste ATA en Serial ATA-harde schijven. Een andere vorm van command queuing, ATA tagged command queuing (TCQ) genaamd, was al aanwezig in de ATA-4-specificatie en werd reeds enige tijd ondersteund op de harde schijven van IBM/Hitachi en de Raptor WD740GD van Western Digital. Wegens het ontbreken van ondersteuning door controllers en drivers is ATA tagged command queuing nooit van de grond gekomen.

De doelstelling van command queuing is het verkleinen van de wachttijden voor de mechanische positionering van de lees- en schrijfkoppen. Dit wordt bereikt door de volgorde van de binnenkomende commando's te optimaliseren zodat de koppen van de schijf een zo klein mogelijke afstand hoeven af te leggen. Harde schijven met NCQ kunnen meerdere commando's tegelijkertijd open hebben staan en kunnen tevens nieuwe commando's ontvangen terwijl er wordt gezocht naar gegevens voor een ander commando. NCQ kan een grote prestatieverbetering opleveren in multi-user serveromgevingen en onder multi-tasking of multi-threaded desktopgebruik, waarbij de harde schijf gelijktijdig door meerdere applicaties of door meerdere threads van dezelfde applicatie wordt benaderd. Een bijkomstigheid van NCQ is de lagere slijtage aan de harde schijf. De koppen hoeven immers minder bewegingen te maken.

Verslag Maxtor IDT: illustratie command queuing
De meest optimale volgorde: niet 1, 2, 3, 4 maar 2, 4, 3, 1

Ten opzichte van ATA TCQ heeft Serial ATA native command queuing als een van de voordelen de ondersteuning van First Party DMA (FPDMA). Met behulp van FPDMA kan de harde schijf op eigen houtje DMA-transfers met het geheugen opzetten. NCQ kan maximaal 32 openstaande commando's verwerken. Minder dan SCSI, maar nog altijd een hele grote verbetering voor desktopsystemen en voldoende voor low-end servergebruik. NCQ zal beschikbaar komen op Maxtor's volgende generatie 7200rpm Serial ATA-harde schijven, die later dit jaar op de markt zullen verschijnen. Een uitgebreide bespreking van de voordelen van native command queuing wordt gegeven in deze whitepaper van Seagate en Intel.

Western Digital Raptor review - AnalyzeDisk command queuing optimalisaties

Stijging gemiddelde service time bij toenemende queue - 10K SCSI versus 10K SATA (Raptor WD360GD)
Moderatie-faq Wijzig weergave

Reacties (49)

Seagate heeft volgens mij de eerste single chip sata solution in de markt. en was tot voor kort de enige met native sata schijven.

http://www.seagate.com/cda/newsinfo/newsroom/releases/article/0,1121,1 909^3,00.html

"Seagate still offers the only native SATA hard drive technology on the market, with no PATA-to-SATA translator bridge chip that can reduce performance or limit native features. Only Seagate's native SATA architecture is capable of supporting native command queuing (NCQ) and staggered spin-up, both critical features to new entry-server and network bulk storage applications. And as the leading developer of SATA technology, Seagate is well positioned to deploy next-generation SATA II features."

Dat maxtor het nu introduceert is meer om te laten weten dat ze daar eindelijk mee beginnen, immers lopen ze hoe dan ook achter op seagate (en western digital/ibm/hitachi). Die al veel verder is met ncq en andere sata standaarden.

Overigens is het wel noemens waardig om te zeggen dan de native solution sata wel nodig is alvorens ncq gebruikt kan worden, ncq is namelijk niet iets wat je bij de huidige parallel ata standaard kan plakken en is het dus een noodzaak om deze overstap van multi chip naar standaard chip te gaan.
Nee, je leest het artikel verkeerd.

Maxtor is de eerste met een single chip native S-ATA schijf. Seagate zal het niet in een (1) chip hebben kunnen plaatsen.

Overigens waag ik het ook te betwijfelen of de seagate een native S-ATA implementatie is/was. Dit werd ook beweerd van de Hitachi Deskstar, en die bleek later ook gewoon een Marvel chip op de printplaat te hebben.
Duidelijk plaatje. Zelf gebruik ik meestal een boek als voorbeeld:
Je bent op bladzijde 102 van een boek iets aan het lezen, en je moet achtereenvolgens iets lezen van pagina 298, 12, 408 en 406

Dan doe je zonder Command queing ze in die volgorde lezen, en met queing 298, 406,408, 12.

Makkelijker als je iemand wat wilt uitleggen, en je hebt geen plaatje van een harddisk bij de hand :+

Onderste plaatje: ter volledigheid: lager is beter :)
Onderste plaatje: ter volledigheid: lager is beter
Daarom verbaast me dit plaatje: ze nemen 3 SCSI disks, en die vergelijken ze met 1 SATA disk. Daardoor lijken de prestaties van die SATA disk wel erg sneu...
Zou een vergelijking met andere SATA disks niet beter geweest zijn, en dan 1 SCSI disk als referentie?
Deze data was al voorhanden. Verder maakt het ook niets uit of er nou wordt vergeleken met andere SATA-schijven (zou al lastig zijn, er zijn buiten de WD740GD geen andere SATA-schijven met een vergelijkbare toegangstijd als de 10.000rpm Raptor WD360GD, hogere toegangstijd zou slechtere score in de grafiek betekenen), want SATA-schijven zonder TCQ of NCQ presteren gewoon heel sneu in dit soort synthetische queuing tests.
Daarom mis ik er net die raptor 74 in. Die zou namelijk command queuing ondersteunen.
Ik vind je vergelijking niet helemaal opgaan. Want wat maakt het bij een boek uit in welke volgorde je leest of een pagina opzoekt? Helemaal niks toch?
Zeker wel. Als je 12, 200, 14, 202 moet lezen is het al veel duidelijker. Twee pagina's verder heb je veel sneller gevonden dan 200 pagina's verder.
Correct. Maar als iemand totaal niet weet wat het is, vind ik het beter om iets (deels) uit te leggen, zodat iemand tenminste een idee heeft waar het over gaat.
Later kun je er nog bij melden dat er bij een harddisk nog een extra beperking bij is, maar voor een eerste idee is het wel handig.
Kan er i.p.v. de meest optimale volgorde niet beter gesproken worden van de meest optimale beweging t.o.v. de draairichting van de schijf? Want als een programma, de gevens in een volgorde van 1,2,3,4 nodig heeft is het voor het programma niet de meest optimale volgorde. Tenzij het omzetten van de volgorde 2,4,3,1 naar 1,2,3,4 sneller gaat dan in volgorde zoeken, leuk dit :)
Aangezien de harde schijf bij het opvragen van informatie ZWAAR de bottleneck van je systeem is, is het inderdaad zo dat het opzoeken in de verkeerde volgorde en het omwisselen minder tijd kost dan het opzoeken in de juiste volgorde.

Natuurlijk moet je "systeem" iets langer wachten op het eerste stukje informatie, maar omdat de rest van de informatie veel sneller volgt, is de totale bewerking veel sneller klaar.
Alleen als er echt heel rekenintensieve "dingen" gedaan moeten worden met het stukje informatie op plek "1" kan het zo zijn dat NCQ dus geen winst (en zelfs verlies) opleverd. Maar omdat in de praktijk de harde schijf dus de bottleneck is, komt dit zelden of nooit voor.

Omdat steeds meer software tegenwoordig multithreaded is, en omdat multitasking steeds meer gebruikt wordt, maakt de volgorde van de informatie sowieso ook al minder uit dan vroeger. Vandaar dat deze techniek nu nog meer prestatie winst op kan leveren dan dat het geval zou zijn bij "oudere systemen".
Je hebt helemaal gelijk. In principe kan het verwisselend van de volgorde vertragend werken op je programma.

Maar.... dat betekent wel dat je programma zeer wonderlijk geschreven is. Immers, de inlees volgorde wijzigen kan de controller alleen als er meerdere bestanden in de queue staan.

Dan zou een programma dus bestanden in meerdere threads binnenhalen, om ze daarna toch in vaste volgorden in een enkele thread af te handelen. Dat is een heel wonderlijke gang van zaken. Zo'n programma zou gewoon een enkele thread gebruiken, en daarin achter elkaar de bestanden opvragen.

Bij multi-user, of meerdere actieve threads, zit er geen connectie tussen de bestanden, en is uiteindelijk alleen de totale I/O tijd van belang (Binnen zekere grensen uiteraard), aangezien er geen prioriteit gesteld kan worden. Dus dan is er gemiddeld altijd winst.


Maarre... de ultieme manier om je applicatie software te optimaliseren voor harddisk I/O is niet herrangschikken van files door NCQ, maar het verminderen van het aantal bestanden. Dus niet 100 files van 0,1 MB, maar slechts één file van 10MB.
Voor een transferrate van 50MB/s (=20ms/MB), en 10 ms accestime betekent dat een factor 6 winst. (Van 1200 ms naar 210 ms benodigde tijd) Dat is vele malen beter dan NCQ ooit kan bereiken.
Daarom is het ook zo van belang om je schijf gedefragmenteerd te houden...
Het defragmenteren van een schijf heeft wel zin maar in multiuser situaties helpt het niet altijd.

Het voordeel van defragmenteren is dat de kop twee sectoren direct na elkaar kan uitlezen. Als de kop echter ondertussen door een andere opdracht naar de andere kant van de schijf is gestuurt heeft het defragmenteren dus geen enkele zin. Sterker nog als twee processen tegelijkertijd twee grote bestanden proberen te lezen kan het feit dat de bestanden gedefragmenteerd zijn de afstand die de kop moet afleggen zelfs vergroten.
NCQ kan dit wel oplossen, maar zou ook de bewegingen van de kop verminderen als de schijf niet gedefragmenteerd was.

Dus hoe meer onafhankelijke diskaccess tegelijkertijd plaatsvinden, hoe minder relevant de gefragmenteerdheid van de schijf is. Tegelijkertijd wordt CQ wel steeds belangrijker als de schijf door meerdere processen wordt benaderd. Vandaar ook dat Scsi schijven deze feature al jaren hebben
Als er nou één ding is dat CQ absoluut moet doen, als is het natuurlijk sequentiele data bij elkaar houden. Dan immers heb je namelijk per definitie 100% winst op accestime, i.p.v. bijvoorbeeld 10%.

Defragmenteren blijft dus net zo belangrijk bij multi user systemen.
Tenzij het omzetten van de volgorde 2,4,3,1 naar 1,2,3,4 sneller gaat dan in volgorde zoeken
Dat zal inderdaad een stuk sneller gaan. De gemiddelde toegangstijd van een 7200rpm harde schijf ligt op 12 milliseconde. Dat is enorme latency in vergelijking met de snelheid van de processor en het geheugen. Het is zeer waarschijnlijk dat de processor in de tijd tussen het aanleveren van de data van I/O #1 en #2 al weer uit zijn neus heeft staan vreten, dus de totale latency is wat telt en die zal met NCQ een behoorlijk stuk omlaag gebracht kunnen worden (maar dat is al uitgelegd door Luxx).
Het is wel weer goed dat er nieuwe techniek qua hdd komt, deze dingen lopen al achter met de snelheid en zometeen krijgen we dat pci express met hogere snelheid ik denk dat maxtor zich op de toekomst aan het richten is en dat is erg goed nieuws.

De prijzen zullen nu ook wel omlaag gaan (laat het zo zijn dat ik net een nieuwe sata maxtor heb gekocht |:( )
Natuurlijk is maxtor zich op de toekomst aan het richten. Net als alle andere bedrijven die er bestaan. Doe je dat niet, dan ga je ten onder tegenover al je concurentie.

Het is alleen niet zo makkelijk om zomaar wat nieuws te verzinnen. Er moeten aan een heleboel standaarden voldaan worden en het kost bergen met geld voor R&D.

Maar bovenal, als jij iets ontwikkeld wat super snel is, maar het is te duur om te implementeren, of het kan niet goed ondersteund worden, dan is het al gedoemt te mislukken. En daar zijn ze dus voorzichtig mee.

Nu met de nieuwe SATA standaard zullen er verschillende nieuwe technieken ontwikkeld en doorontwikkeld worden voor het versnellen van deze nieuwe generatie. Maar SATA is nog lang niet ingeburgerd hoor, en dat gaat maar langzaam. (veel huis tuin en keukengebruikers zijn nu net van mening dat ze wel een 7200RPM HD nodig hebben, want dat is VEEL sneller, en van 8MB cache hebben ze nog nooit gehoord!!)

* 786562 Hawks
Wat is er al bekend over dit Hot Plug? Gewoon schijf erop en eraf terwijl het systeem aan staat?
Hot plug werkt inderdaad erg simpel en wordt ook al door de huidige SATA-schijven ondersteund. Het is natuurlijk vooral leuk als je hotswap bays hebt. Niet alle controllers reageren even vlug op het in- en uitpluggen van schijven maar meestal werkt het uiteindelijk vrij goed.
de controller moet het ondersteunen, en de driver moet het zeker ondersteunen!

(denk aan write-back cache etc.. is nog knap lastig te realiseren)
ter aanvulling:
daarom wordden de hot swap bay's meestal gebruikt in een redundand raid array (raid 1 of 5), dan maakt het niet uit of een schijf nog niet helemaal is bijgewerkt.
hotswap werkt ook best goed met ata schijven ;) Gewoon schijf eraan, scan for new hardware, klaar :)
Dit doe ik erg vaak, om xbox HD's te koppelen aan de pc :) Nog nooit fout gegaan.
en dan op een dag: vonk, kledder bats... spin down...schijf dood?
hehe, same here, schijfje deruit, schijfje derin. PC afsluiten, rrright :P
Waarschijnlijk wel, zolang het natuurlijk niet je systeemschijf is ;o)
vziw heb je voor hotswapping altijd een redundantie nodig, dus een RAID-1 (toch? nouja, mirror in ieder geval) met minimaal 2 schijven. En dan kun je ook je systeemschijf hotswappen.
Voor de systeemschijf heb je gelijk.
Andere (data) schijven kun je gewoon wisselen, ook als ze niet in een RAID opgenomen zijn, mits de data niet meer gebruikt wordt. 't Is eigenlijk niet anders dan het wisselen van een floppy of cd (behalve dat je het hele apparaat wisselt natuurlijk, in plaats van enkel de media).
En hoe wil je windows dan duidelijk maken dat ie de handles naar je schijf moet sluiten en dat ie z'n cache moet flushen? Dat kan vziw alleen met een USB harddisk, of een andersoortige removable disk. Als je een schijf "opeens" disconnect, kan het filesystem corrupt raken (ook als je de schrijfcache uitschakelt).
Je geeft zelf de oplossing al: Je kunt je (removable) schijf gewoon ¨stoppen¨ met de devicemanager.
Misschien weer eens te voorbarig nu er nog geen benchmarks zijn. Maar over wat voor een prestatiewinst hebben ze het hier over.
De nieuwe Linux kernel (2.6.x) doet zoiets in software in de nieuwe I/O-scheduler - en je merkt dat verschil serieus hoor... Als dit daarbovenop dan nog eens (deftig) in hardware gedaan wordt dan kan dit echt wel serieuze performance winst geven. Het grote voordeel van dit in op OS-niveau controleren is natuurlijk dat je kan rekening houden met prioriteiten van bepaalde processen - wat de algemene reactiesnelheid van het gehele systeem natuurlijk verbetert...
nou als ik naar het plaatje kijk doet die WD het belazerd.
Laat ik er daar nou net 2 van hebben. :-o
Als jij naar het plaatje kijkt doet de WD het belazerd? Als jij een review had gelezen van de WD36 dan had je geweten dat ie de 10.000 SCSI's qua desktopprestaties zelfs het nakijken geeft. En als je een review had gelezen van de WD74 dan had je geweten dat die de SCSI's nóg verder achter zich laat. Dus tenzij jij van plan bent een gigantische server te exploiteren met je WD's had je geen betere keuze kunnen maken. Okay, de Maxtor 15k3, maar dan moet je ook wel heel diep in je buidel tasten.
Nee hoor, Trogdor heeft helemaal gelijk. Wat betreft accestime doet de WD het inderdaad belazerd. De lijn is lineair, hetgeen betekent dat er geen enkele sprake is van herorderen van data requests.

MAAR... in desktop applicaties is deze feature niet zo denderend nuttig. Dat is immers een single user omgeving, waarbij qua software er vaak ook slecht één enkele actieve thread is die I/O doet. En dus is er geen sprake van dat je een diepe queue, maar blijft je rondom 1 hangen... (Helemaal links in de grafiek dus). De SCSI schijven kunnen dan dus geen winst pakken via NCQ.

Als je dan even meerekent dat het cache algortihme van SCSI schijven voor 100% random access is geoptimaliseerd, en de WD voor een significant aandeel sequentiele access, dan stuift die WD inderdaad de SCSI's voorbij op desktop applicaties.

Anderzijds, zogauw je een meer benchmark voor een database server pakt, dan wordt het beeld compleet omgedraaid, en is de WD helemaal nergens meer.
De traces die ik gebruik voor de dekstop storage benchmarks van Tweakers.net hebben een gemiddelde qeuediepte van circa 3,2 I/O's voor de office benchmarks, 16,2 vs 7,9 I/O's voor de beide workstation benchmarks, 5,4 I/O's voor de software installatie benchmark en 2,0 I/O's voor de de DVD stripping benchmark. Als ik de prestaties vergelijk van de WD360GD en de Fujitsu MAS (15K SCSI) dan is er in de workstation benchmarks een veel groter verschil tussen beide dan in de office benchmarks.

De office en workstation benchmarks zijn overigens gebaseerd op de Business Winstone 2001 en Content Creation Winstone 2002 applicatiebenchmarks waarin er aardig op los gemulti-tasked wordt. NCQ zal voor power users waarschijnlijk dus wel een aardige prestatieverbetering mogelijk maken.
Alle desktop harde schijven zonder NCQ doen het zo belabberd. En zelf nog belabberder want de WD360 hardeschijf is de snelste desktop HD. Overigens heeft de wd740 (74Gb raptor) ook al NCQ als ik me niet vergis. En die schijf licht al een stuk langer in de winkel dan deze aangekondigde Maxtor.
Regelmatig defragmenteren scheelt ook een hoop ;). Even een vraag over het onderste grafiekje; De service time van de Raptor loopt wel heel erg op, terwijl deze toch ook gebruikt maakt van TCQ.Of is het verschil tussen de 'standaard' ATA schijf en de SCSI schijf nog eens zo groot? En zo ja, hoe gaat de Maxtor zich dan verhouden? Gelijk met de SCSI schijven?
nee de 73 gig maakt gebruik van command queueing en dan slechts op de schijf (er zijn nog geen controllers met TCQ) wat minder effectief is als op de controller vooral in raid arrays,
de 36 gig heeft voor zover ik weet helemaal geen TCQ. (ingeschakeld heb het id dat het er wel opzit maar nog niet ver genoeg doorontwikkeld voor sata en dus maar uitgeschakeld, just a hunch)
scheelt idd een hoop, maar als je van je schijf verschillende bestanden nodig hebt, zal die lag er nog steeds tussenzitten. Nu neemt de kop alle data die hij nodig heeft voor alle threads samen mee.

qua snelheid is SATA idd nog niet in vergelijking met SCSI
Zoals beschreven wordt TCQ niet echt gebruikt - ik neem aan dat het figuurtje zonder TCQ is.
Single chip is sowieso altijd veel sneller en goedkoper. Dus de prijs van SATA disks zal dan ook naar beneden gaan logischerwijze.
Maar die optimalisaties en verbeteringen zetten ook zoden aan de dijk. En eigenlijk maken ze gewoon na wat door SCSI ontwikkelaars is uitgevonden, maar dan voor de desktop markt.
Wie weet komen ze wel met twee controller chips op een HD. Een soort hyperthreading voor je harde schijf zeg maar. En dan lekker stripen. ;)
Je dogma's zijn fout. Single chip hoeft absoluut niet sneller te zijn, en zeer zeker niet goedkoper.

En hyperthreading voor schijven is te onnozel voor woorden...
Misschien als ze twee leesarmen plaatsen...
Zouden ze dan niet veel meer data uit de schijf kunnen trekken?

Loop ik al lang mee in m'n achterhoofd eigenlijk.
Het implementeren van NCQ zal impact hebben op de prestaties van schijven in het algemeen. Toch zal het per filesystem verschillen wat de snelheidswinst is.
Je hebt van die Linux mensen die schreeuwen dat je je schijf nooit hoeft te defragmenteren. Dat is natuurlijk niet zo omdat je files niet fragmenteren maar de queing van de te lezen files is in extn beter dan in FATnn of NTFS. Nu er dus een fatsoenlijke hardwareversie van komt zal het vooral winst geven voor Windows computers. Ik vraag me zelfs af of extn niet onnodig problemen gaat geven met NCQ.
Kijk, dit is pas fijn nieuws! Wat zou het kostenplaatje hiervoor zijn? Ik zou daar wel eens een raid0 bench van willen zien. En dat NCQ is ook niet verkeerd, intelligente harde schijven!
Ga er maar vanuit dat NCQ-ondersteuning standaard wordt op de komende generatie SATA-schijven, die bovendien goedkoper zullen worden door schaalvoordeel en lagere kosten als gevolg van nieuwe single chip oplossingen.
Dat probeer ik zoveel mensen duidelijk te maken , maar ze geloven me gewoon niet.

SATA in Massaproductie = goedkoper.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True