'Native Command Queuing nuttig voor desktops'

The Tech Report heeft gekeken of Native Command Queuing voor desktops nuttig is. Echter in tegenstelling tot veel andere testen, kijkt The Tech Report alleen naar de invloed van NCQ op multitasking. Niet eens zo'n gekke insteek, want de toekomst is volgens Intel en AMD multi-coreprocessors, wat het uitvoeren van meerdere taken tegelijkertijd een stuk sneller zou moeten maken. The Tech Report registreerde dan ook enkele multitasking-scenario's met iPeak, waaronder het importeren van een MPEG2-file in VirtualDub, gecombineerd met het comprimeren van tekst- en Excel-bestanden. Omdat de implementatie van NCQ kan verschillen van fabrikant tot fabrikant werd er zowel getest met een Maxtor DiamondMax 10 en een Seagate Barracuda 7200.8 harde schijf die beiden plaats namen in een systeem met een 3,4GHz Intel Pentium 4 Extreme Edition.

Uit de verschillende testen blijkt dat NCQ wel degelijk nut heeft als er meerdere applicaties tegelijkertijd worden uitgevoerd. Gemiddeld is de winst 9%, hoewel er ook enkele flinke uitschieters zijn. Zo gaat het importeren van adressen in Outlook als er tegelijkertijd een bestand wordt gekopieerd maar liefst 48% sneller als NCQ wordt gebruikt in combinatie met de harde schijf van Maxtor. Met de Seagate levert NCQ in dit scenario 20% winst op. De conclusie van The Tech Report is dan ook positief. Het gebruik van NCQ op de desktop heeft wel degelijk nut. Een conclusie die Tweakers.net al eerder trok na het testen van de Maxtor DiamondMax 10.

Werking NCQ

Door Ralph Smeets

Nieuwsposter

04-08-2005 • 21:06

42

Submitter: Vaudtje

Bron: The Tech Report

Reacties (42)

42
40
23
1
0
12
Wijzig sortering
Het spreekt toch voor zich dat NCQ wel nut heeft, als je de theorie erachter bekijkt kan je al zo zeggen dat het de leeftijd van de schijf zal verhogen en het zoeken naar fragmenten sneller zal verlopen.
Leeftijd verhogen? De schijf blijft draaien of die nu iets nuttigs doet of niet hoor. Ik denk niet dat de leeftijd van de schijf dankzij NCQ merkbaar veranderd zal worden.

In de meeste desktop gebruikspatronen van tegenwoordig zou je niet meteen verwachten dat je veel winst maakt. De meeste gebruikers draaien nu 1 taak op de voorgrond en de andere taken hebben een veel lagere prioriteit (services, ...).

Indien de schijf dan fatsoenlijk gedefragmenteerd is, dan zal de grootste hoeveel schijfactiviteit sequentiële reads zijn en die worden niet zo veel beïnvloed door NCQ. NCQ helpt vooral wanneer de data ver uiteen staat op de schijf... (zoals bij multi-tasking of multi-user)
Ik weet niet hoe die kop precies werkt, maar ik kan me goed voorstellen dat het wel degelijk invloed heeft op de leeftijd.

Ik denk dat je je er ook nog snel naast kunt zitten met dat het niet veel winst zou maken. Denk aan het gros van de huis tuin en keukenmiepen die WXP draaien met 256mb ram. Daar wordt heel wat afgeswapt. En zo zijn er verschillende services die ook aardig gebruik van je schijf kunnen maken, om nog maar niet te spreken van spyware en de bergen zut die bij veel mensen in de tray zit die ik-weet-niet-wat doen (zonder reden of nut).

Natuurlijk heeft de Tweaker die op de achtergrond BitTorrent op hoge snelheid open heeft staan en nog twaalf andere dingen aan het doen is er waarschijnlijk meer profijt van, maar het zou me echt niet verbazen als de normale gebruikers er ook winst uit zouden kunnen slaan.

Bij fatsoenlijk gedefragmenteerde schijven heb je inderdaad gelijk. Maar vraag je eens af, hoe vaak defragmenteren mensen? De meesten zelden tot nooit. En als ie al net gedefragmenteerd is, hoe lang blijft 'ie dan redelijk gedefragmenteerd? De data die je het meest gebruikt raakt het snelst gefragmenteerd omdat hier vaak in geschreven wordt. Dus is NCQ weer nuttig.

Al met al, denk ik dat iedereen er voordeel bij haalt!
Nee, natuurlijk niet. Maar de situatie zal wel hetzelfde blijven, ook als ze ee nieuwe budget PC kopen. Weet je hoeveel budget PC's er op dit moment nog met 256mb geleverd worden? Om een beetje fatsoenlijk te draaien heb je eigenlijk toch wel 512mb nodig - tenminste, als je niet alleen Solitaire doet. Ik heb zo'n koffiedik donkerbruin vermoeden dat dit nog wel even zo zal blijven, alsin, de kans is dalijk denk ik groter dat je NCQ in je budget hebt dan genoeg ram.
Denk eerder dat het vrij weinig of misschien wel niks uitmaakt. De meeste problemen met een oudere disk beginnen met bad sectors; plekken op de platter waarvan het oppervlak niet meer oke is.

Daar kunnen je koppen niks aan doen, ze zweven nml. over de platter en kunnen in principe je platter niet beschadigen, met of zonder NCQ!

De harddisk begeeft het gewoon omdat de magnetische laag van de platter niet meer goed functioneert, typisch een geval van ouderdomsverschijnselen.
en een huis tuin en keuken pc gebruiker gaat natuurlijk zijn HD verwisselen ipv meer ram te kopen |:(
Anoniem: 116947 @Ranzy4 augustus 2005 21:22
Ja maar nu weten we wel hoeveel de prestatiewinst exact bedraagd. Vind het zeker een interessante test want in theorie ziet alles er vaak veelbelovend uit maar in praktijk kan het wel eens anders uitdraaien.
Anoniem: 143510 4 augustus 2005 22:24
Wat ik nooit begrepen heb is waarom er geen harddisks worden gemaakt met twee of meerdere lees/schrijfkoppen boven een zelfde platter...een soort internal raid0
.
Kan me voorstellen dat het aantal koppen per platter beperkt is, maar als ik met twee onafhankelijke koppen tegelijkertijd kan schrijven is dat twee maal zo snel.
.
Ik zelf gebruik op mijn raptor RAID 0 schijfjes FAT32 met 64K clusters in plaats van 4Kb en dat scheelt mij al enorm veel seek-time. Enkele seconden bij het opstarten en de rest. (10 seconden boot-time actually :)
Geld. De koppen van een schijf en de bijbehorende elektronica om hem te positioneren zijn het duurst van de hele disk. Komt nog bij extra gewicht, extra warmte en weinig ruimte.

Vroegah is het wel gedaan in mainframe systemen, daar waren zelfs disks met een aantal vaste koppen en een aantal bewegende. De vaste koppen hielden dan veel geraadpleegde informatie bij (indexen, directories), de bewegende koppen waren voor de normale data.
Anoniem: 143510 @scsirob4 augustus 2005 22:44
Geld is niet een reden.
.
Gezien de enorme schaal-verkleinen tegenwoordig, denk aan de microdisc, en de schaalverkleining op chip-gebied, 65 nanometer technologie, is dit alles een stuk goedkoper dan vroeger.
.
Verder is I/O van en naar harddisk vaak de bottle-neck voor een snel systeem, daarom is er zeker een markt voor. Kijk naar iRAM van Gigabyte, daar is ook een markt voor terwijl dat is al veel duurder is.
.
Met de huidige productieproces-technologie is er goedkoop een oplossing te realiseren met ondisk RAID controller. Die chipjes zijn niet groot tegenwoordig, worden niet bijzonder warm, zijn niet zwaar etc.
Je moet wel in de smiesjes houden dat het gebruik van meerdere koppen gruwelijke complexe scenario's kan creeëren, wat dan weer regulerende electronica vereist. Net zoals bij CPUs kun je er best wel vanuit gaan de vier keer zoveel koppen op z'n best de dubbele lees- of schrijfsnelheid bewerkstelligt en dan nog alleen in daarvoor getunede software (dit wordt met NCQ wellicht veel minder lastig of juist veel lastiger, zo te zien minder maar dat is een gokje). Door al dit geneuzel gaan de prijzen van schijven met meerdere koppen vermoedelijk dusdanig hoog uitvallen dat je net zo goed twee schijven ipv 1 schijf met twee koppen had kunnen nemen, en dan hou je verrekte weinig markt over.
Raak je dan niet ENORM veel kwiijt door slackspace met 64kb clusters in een opstartpartitie?
Inderdaad, maar met de huidige gigabytes op m'n Raptor(70 Gb x 2) is dit voor mij niet van belang. Ik ben een paar honderd Mb kwijt. Toch ga ik voor snelheid.
raid0 gebruik je toch niet voor storage... tenminste ik zou t nooit doen! zet dan een aparte schijf (of vier :P) erbij voor data
Anoniem: 55396 4 augustus 2005 23:00
Waarom kan dit niet in het OS van de computer gedaan worden? Moet het OS perse de requests zo snel mogelijk naar de harddisk sturen, ook al weet het dat de harddisk nog bezig is met het vorige request? Of weet het OS niet genoeg van de fysieke configuratie of de positie van de koppen?

Het OS weet wellicht meer van wat voor requests er komen gaan, en kan dus misschien nog beter een handige volgorde kiezen. Bovendien hoef je dan niet je schijven aan te passen.
Tuurlijk kan dit net zoals met RAID, software-matig gedaan worden. Nadere informatie in google, zoekterm : SuperCache II ...
.
O.a. Lazy write, wat een vertraging is in het lezen en schrijven om zo I/O opdrachten te bundelen en in 1 beweging uit te voeren.
.
Het Novell netwerk-OS is hier bijvoorbeeld altijd bijzonder sterk in geweest...
Omdat het OS tegenwoordig niet meer weet hoe een HD ingedeeld is. Vroeger was het makkelijk het cylinder sector verhaal. Maar tegenwoordig wordt er in de buitenste cylinders veel sectoren gepropt. Alleen de presentatie naar het OS is nog steeds cylinder sector.

De indeling is dus per HD verschillend.
aargh... waarom word er nu weer geen hitachi mee genomen in de test. Deze hebben perfecte schijven om dit te testen met de T7K250.

Vind dit zelf toch wel 1 van de beste schijven.
Vind dit zelf toch wel 1 van de beste schijven.
Omdat het hier geen test was van harde schijven op zich, maar van één van de onderdelen, NCQ. Door twee verschillende merken te gebruiken hebben ze aan willen geven dat er verschillen kunnen zijn tussen de merken...
Daarom heb ik altijd scsi schijven in m'n pc's, die hebben dat soort technieken al jaren.
Ik vraag me ook af waarom ata en derivaten nog in de markt zitten... trage rommel :/ ...

Als ik het kon betalen zou ik ook scsi nemen, maar dat is een beetje kip-ei... sata is ook zo'n blije mus waarmee je dood wordt gemaakt |:( ...
MPEG2 importen in VirtualDub? Dat kan helemaal niet :P

Misschien met een filter .. maar meer waarschijnlijk met VirtualDubMod, wat toch niet hetzelfde is :)

Daarmee kan het wel.
Een huis tuin en keuken gebruiker multi-taskt niet: "Nee dat kan nu even niet de computer is nu met iets anders bezig, gewoon even wachten en dan pas iets nieuws opstarten'
Ik heb net de ervaring dat huis- tuin- en keukengebruikers net wel multitasken, zij verwachten dat een pc alles tegelijk kan en klikken er maar op los.
Ik heb een huis maar geen tuin, dus voldoe ik misschien niet aan je definitie. Veels te vaak moet ik een DVD rippen (waarom mag ik geen regio 1 kijken van een legale aankoop meneer RIAA) terwijl ik liever iets anders aan het doen was.

Zelfs met hyperthreading merk ik dat ik nu in iedergeval een spelletje op kan starten. Met dual-core en slimmere harddisks denk ik dat het misschien zelfs speelbaar zou kunnen. =)
Daar heeft HT weinig mee te maken, HT kan 2 threads van 1 taak tegelijkertijd uitvoeren, het is geen SMP/Dualcore.. Jouw spelletje draait dus niet op de ene thread en je DVDrip op de andere..
daar heeft meneer RIAA helemaal niets mee te maken hoor..
Anoniem: 50893 4 augustus 2005 23:57
Ik zou graag iets meer betalen als er per platter meer koppen op komen, als het de bottleneck zou wegnemen, die harde schijven nog steeds in veel applicatie's vormen, waarom niet ? Alles word sneller, behalve de harde schijf.

Natuurlijk heb je de Raptor en andere 15.000 rpm schijven maar niet iedereen kan dat betalen. Ik zou me best een harde schijf kunnen voortstellen die 4 leesarmen heeft en daarmee 4 koppen per platter. Als dit dan zo toegepast kan worden dat de data effectief word opgeslagen en gelezen worden ze dus ineens 3 times beter. Lijkt me niet onmogelijk, maar schijbaar lopen de producenten achter de feiten aan dat ze nog geen antwoord hebben.

Ook mogen de schijf behuizingen van mij daardoor best wel groter worden, koeling is over het algemeen toch het probleem niet, zeker niet met de huidige kasten, de meesten hebben nu een goeie airflow met 120mm fans erin op een laag toerental. En straks helemaal met de aangekondigde Quad cores van AMD, ga je me toch niet vertellen dat we dan nog steeds op die schijf bewerkingen moeten wachten ? ;( Leuk, dat NCQ, maar vind het maar een kleine stap....
Ergens heb je wel gelijk...

Alle aandacht gaat momenteel uit naar dualcore CPU's, dual channel geheugen, dual core videokaarten (hetzij op een kaart, hetzij via SLI/Crossfire) enz.

Op het gebied van harde schijven gaat de ontwikkeling veel minder die kant op, de nadruk ligt volgens mij op het verbeteren van bestaande techniek. Met uitzondering uiteraard van het perpendiculaire schrijven en de Solid State harde schijven... Feit blijft dat de harde schijf het enige onderdeel van de PC is waarvan de toegangstijden nog in ms(1/1.000e seconde) worden opgegeven. In vergelijking met bijvoorbeeld geheugen, dat een latency heeft van enkele ns (1/1.000.000.000e seconde) is dat een factor 100.000 langzamer!

Misschien moet je maar eens een mailtje sturen naar een aantal HD fabrikanten met jou idee: maak ook harde schijven 'dual-core' door het toevoegen van een tweede leesarm. Eventueel zou een tweede spindel met eigen platters en leeskoppen een leuk alternatief zijn, een soort RAID oplossing 'in-a-box'. :+
Natuurlijk heb je de Raptor en andere 15.000 rpm schijven maar niet iedereen kan dat betalen. Ik zou me best een harde schijf kunnen voortstellen die 4 leesarmen heeft en daarmee 4 koppen per platter.
Ik denk dat die extra koppen meer kosten dan die extra toeren hoor ;)
Ik heb maxtor 10 + 16mb SATA 2x in raid 0
vraag me af kan m'n asus a8n sli de luxe met sata II hier wat mee??
Is dit niet gewoon een andere disk scheduler? Wat ik me afvraag is eigenlijk waarom ze nu pas naar de fysieke locatie op de disk kijken bij het schedulen, klinkt nogal logisch :P .

Ik ben wel benieuwd hoe het OS voor het lapje wordt gehouden (in een bepaalde volgorde om data vragen en ze in een andere terugkrijgen) en of je niet meer winst kunt behalen als je het OS erbij betrekt zodat er sneller iets met de data gedaan wordt. Ik denk trouwens dat het nog interessanter wordt als je een scheduler kunt maken die een analyse doet van wat de beste volgorde is als de benodigde data in de queue in dezelfde sector op verschillende cilinders staan omdat de kop niet op meerdere cilinders tegelijk kan staan.

Nu moet ik zeggen dat ik nu net voor het eerst van het concept hoor, misschien vraag ik nu soms erg naar de bekende weg :) .
Hoezo voor het lapje houden? Het OS vraagt gewoon om sectors 4, 1, 3, 2 en krijgt ze ook in die volgorde. Alleen fysiek worden ze niet in die volgorde van de platters gelezen.
Hoezo 'krijgt ze in die volgorde'? Uitgaande van een multithreading OS, als vier threads min of meer tegelijkertijd achtereenvolgens om sectoren 4, 1, 3 en 2 vragen, en die sectoren worden (toevallig) gelezen in omgekeerde volgorde: 2-3-1-4, waarom zou die disk dan sectoren 2, 3 & 1 intern storen, en eerst 4 teruggeven? En dus de eerste drie threads onnodig laten wachten? Onzin dus. Als de disk eerst sector 2 teruggeeft, dan hoeft iig díe thread niet verder te wachten op de rest!

Doel van technieken als NQC is juist om, als er meerdere requests pending zijn, deze in een zo tijds-optimaal mogelijke volgorde af te handelen. Denk bijvoorbeeld aan het minimaliseren van de som van de wachttijden van de requesting threads. De disk firmware berekent een read-plan, en levert de blokken aan direkt na het lezen.

Op dit item kan niet meer gereageerd worden.