Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 46 reacties
Bron: iXBT LABS

iXBT Labs heeft een vergelijking gemaakt van bijna alle populaire ATA66/100 controllers. Op de testbank werden de CMD648, HPT366, HPT370, Promise Ultra66, Promise Ultra100, Promise Fasttrack66, Promise Fasttrack100, Intel 820(ICH1), Intel 815(ICH1), Intel 815(ICH2) en VIA Apollo Pro133A op de proef gesteld. Deze controllers werden allemaal aan een uitgebreide suite van benchmarks blootgesteld en dat bracht de reviewer tot conclusie dat de Promise Ultra100 en de CMD648 de beste ATA controllers van dit moment zijn. De veelgebruikte HighPoint HPT370 kwam als slechste uit de bus:

And finally, the most unlucky buddy of our roundup: HPT370 in ABIT HotRod100 Pro. At first we had stability problems with IBM DTLA HDD. The controller didn't recognize the harddisk correctly and tried to assign it UDMA2 mode. Having reflashed the new BIOS (version 6.22) we managed to eliminate this problem. In fact, we have to admit that the driver of this controller is best of all optimized for work with file system. And our tests proved this point: the controller took the lead in all file benchmarks. However, the synthetic benchmarks appeared a stumbling stone for HPT370 and it dropped down to the last position there.

All in all, we have to say that the performance difference between ATA/66 and ATA/100 controllers isn't great at all. If you are a happy owner of an ATA/66 controller, replacing it with an ATA/100 one doesn't make any significant difference. We would recommend deciding on Promise Ultra100 or CMD648 (ASUS PCI-66C, for instance). And those of you who are planning to get a new low-cost system, i815E or the good old buddy i440BX will be a nice solution.
Moderatie-faq Wijzig weergave

Reacties (46)

Blijft feit dat de snelheden die bij ATA gegeven worden toch burst snelheden van en naar de HD CACHE zijn, en bij SCSI snelheden zijn naar de Disken zelf.. - mits genoeg schijven.

Maw, bij een of 2 disken wordt je niet vet van SCSI, maar daar is SCSI ook nooit voor bedoeld geweest. 16 SCSI ID's, naast de host adapter zijn dat dus nog 15 andere devices die je zelfs als je je best doet nog ALLEMAAL op 1 lange scsi kabel gezet kunnen worden... bij IDE heb je voor elke 2 divices een kabel nodig, en dat was wat er bedoeld werd met spaghettie... In handleidingen en op internet wordt zelf aangeraten om je HD's zoveel mogelijk over alle poorten te verdelen om performance het hoogste te houden... ELKE device zijn eigen kabel ?!?!? doh.
Ook bij SCSI is het aantal devices gelimiteerd, en wel tot minder dan het maximum van 15. Volgens de SCSI spec moet je 30 cm ruimte op de kabel hebben tussen 2 devices, dus hoe jij 15 devices op een kabel van 3 (1.5 voor ultra) meter wilt krijgen weet ik niet. Een 3 meter kabel veroorzaakt ook een boel spagettie, toe gegeven, minder dan bij IDE.
hallo , heb je wel eens een raid case gezien ?

op een meter kun je zeker wel 10 devices kwijt hoor, verder is er nog zoiets als een scsi-signal versterker. [dus 15 op 1,5 meter kan . ]
\[flame-mode]
Nou even niet over SCSI zeuren, de meeste SCSI-gebruikers hebben nog nooit van IDE-RAID en spotgoedkope high-performance IBM ide disks gehoord, maar hebben kaptalen uitgegeven aan hun SCSI spul terwijl ze nu voor veel minder geld betere performance in IDE-vorm kunnen krijgen.
\[/flame-mode]

Wat ik nou zo jammer vind aan de test, is dat ie volgens mij maar met twee disks test????

Zelf was ik wel benieuwd of er uberhaupt nog wat te winnen valt door mijn 4x20GB IBM disks aan een Fasttrak100 ipv een Fasttrak66 te hangen... :9

Volgens mij zit ik namelijk gewoon tegen de PCI-bus limiet (33MHz*32bits = 133MB/s) aan te hikken...
Die limiet zou trouwens ook moeten gelden voor wat voor superdeluxe SCSI-kaart of UDMA-266 ding of wat er ook gaat komen, dus 't wordt tijd voor wat nieuwe technologie (waarom AGP 4x bijvoorbeeld alleen voor video nodig zou zijn is mij ook nog nooit duidelijk geworden...)

HDTach knalt er trouwens direkt uit bij mij (disk te snel? :+ Of kan ie niet tegen Atlons?), ik heb voor de liefhebbers even met ATTO Disk Benchmark (DMA-mode) getest:

Naar fasttrak66 omgesoldeerde ultra66, met 4x 20GB IBM DPTA-372050:

Maximale performance voor Read 140MB/s, Write 142MB/s bij blokken van 64 KB ("toevallig" net de clustergrootte van mijn RAID striping...).

Bij bijna elke blokgrootte zit trouwens zowel de read als write boven de 100MB/s; alleen bij de hele kleine blokjes duikt ie er onder.
als je een compleet scsi-disk system hebt met 1 controller gebruik je de pci bus helemaal niet

en ide performed niet beter dan scsi


what`s in a name
In wat voor slot zit een SCSI hostadapter geprikt? Right een PCI slot. Je gebruikt de PCI bus wel degelijk bij SCSI. En zomaar zeggen dat IDE niet sneller is dan SCSI zonder randvoorwaarden en toelichting neem ik ook niet serieus.
ja, scsi gebruikt pci bus voor comands en power/ground. als je data transferred over de host, van een disk op die host naar een andere disk op die host ,gebruik je de pci bus niet voor data verkeer , dus is die limiet van 133mb/s is in dat geval irrelevant. uiteraard praten we hier over
een snelle scsi controller ,die de pci transfer specs overschrijdt. bij langzamere scsi protocollen 5-10-20-40-80-100mb/s is de pci bus dus geen begrensing.

als je een IDE disk pakt met een 5mb/s spec , en daar een SCSI disk tegenoverzet,met dezelfde specs van 5 mb ,wordt de ide disk outperformed door de scsi disk. dit komt door het feit hierboven ergens al aangehaald ,dat bij IDE de transferspeed van de platter naar de CACHE wordt aangegeven , en bij SCSI is dit van de platter/cache naar de host aangegeven.
overigens wordt de data bij scsi-schijven dichter op elkaar geschreven , waardoor hij ook sneller is,buiten het feit dat de cache en het toerental bij scsi disken meestal hoger is.

ik had inderdaad wat duidelijker moeten zijn :)

edit: spelfouten
Helaas wil je niet altijd data van disk naar disk verplaatsen, maar toch ff in het geheugen opslaan (om een bewerking te doen, databases moeten records lezen, programma's opstarten). Dat gaat toch echt over je PCI bus. Puur copieren van data is niet echt gebruikenlijk. (zelfs voor FTP gaat het over de PCI bus)
Nou even niet over SCSI zeuren, de meeste SCSI-gebruikers hebben nog nooit van IDE-RAID en spotgoedkope high-performance IBM ide disks gehoord, maar hebben kaptalen uitgegeven aan hun SCSI spul terwijl ze nu voor veel minder geld betere performance in IDE-vorm kunnen krijgen.
Het probleem is dat bepaalde mensen gewoon niet begrijpen waar SCSI voor bedoeld is (en wat het verschil is met IDE). Zo lees ik in de C!T van deze maand een test tussen een Cheetah X15 en een IDE RAID met twee schijven. Blijken de twee IDE schijven 'sneller' te zijn omdat de sequentiële transfer rates hoger zijn.

Oeps, toegangstijden en I/O rate vergeten. Dat is waar de SCSI schijven kicken.
Die limiet zou trouwens ook moeten gelden voor wat voor superdeluxe SCSI-kaart of UDMA-266 ding of wat er ook gaat komen, dus 't wordt tijd voor wat nieuwe technologie (waarom AGP 4x bijvoorbeeld alleen voor video nodig zou zijn is mij ook nog nooit duidelijk geworden...)
Daarom zijn SCSI RAID controllers dus ook 64-bit PCI, dan heb je een maximale bandbreedte van 264 (33MHz) of 528MB/s (66MHz).
Nou ik ben een trouwe lezer van het Tweakers forum. De reden dat dit m'n eerste post is, is vrij eenvoudig; er was altijd wel iemand die precies neerpende wat ik dacht.
Maar nu ik al die nonses over SCSI lees moet ik gewoon reageren.

Ik heb geen enkel IDE devices. Waarom heel eenvoudig IDE sucks bigtime.
Traag , onbetrouwbaar en je kan niet uitbreiden.
Hij die zegt dat SCSI teveel IRQ's in beslag neemt , is echt helemaal uit zijn nek aan't kletsen. Ik heb netjes 1 irq beide ide controllers gedisabled .... dus heb ik er 1 minder gebruikt dan een standaard ide systeem.
Trouwens de cpu-load is wel stukken minder op scsi. Probeer maar eens op een ide systeem te schrijven tegen 12 speed , 10 GIG van de ene naar de andere schijf te gooien en op hetzelfde moment nog eens lekker browsen.
Op ide is dat gewoon onmogelijk.
Eén ding is wel zeker SCSI is gewoon duur, maar het is iedere cent waard. Trouwens Hoe zou ik mijn DAT's aansluiten op IDE.

Trouwens als je gaat beweren dat SCSI niet voor de thuisgebruiker is, dan moet je ook stoppen met praten over 1Ghz enzoverder en kan je maar beter weer je Celeron 300 in je machientje stoppen.

SCSI Rulez, and is here to stay
Aangezien dit je eerts posting is, zal ik niet te grof zijn, maar die CPU load is echt niet meer hoog voor UDMA tegenwoordig. Dat wat jij noemt, kan heel eenvoudig het de huidige IDE schijven. Alleen het feit al dat je zelf geen IDE schijven hebt, wil al zeggen dat je er niet al te veel over weet. Ik heb thuis 1 UDMA-66 schijf (aan ditto controller, een IBM Pluto 7200 rpm schijf op een K7M plankje) en een Atlas IV 7200 rpm SCSI UW (aan een AHA 2940UW). Beide schijven zijn ongeveer even snel (de IDE is over het algemeen sneller). Alleen de CPU usage van de IDE ligt rond de 6%, en die van de SCSI rond d 4%. Big deal! SCSI is NIET z'n geld waard, voor de normale thuis gebruiker dus. Ik heb het wel omdat ik nogal veel hardware wissel (disks, writers etc.) en dan is het zeer handig, maar die IDE schijf heeft mij de ogen doen openen. (20 Gb voor 500 piek, terwijl die Altas 18.2 GB toen nog 1200,- koste).
Wil ik je daar nog effe iets bijgeven dat je vergeet... SCSI roelt om andere redenen.

1. Multitasking
2. Hogere transfer-speeds op een bus dan UDMA
3. KORTERE SEEKTIME op de schijven
4. REDUNDANCY
5. Hot-Swapping
...
Het is erg vermoeiend steeds te moeten constateren dat als er een artikel over IDE of RAID gepost is, iedereen over SCSI vs. IDE begint te mekkeren terwijl 90% van de tweakers hier vast en zeker geen SCSI in hun PC hebben zitten, laat staan er ooit mee gewerkt hebben. Ik fundeer zelf mijn mening op professioneel en prive-gebruik van SCSI en IDE. Thuis-servertje heeft IDE-RAID met 4 Maxtors(40Gb @ 7200 RPM) en Adaptec 29160N SCSI controller met 2 x Atlas V (18.2Gb @ 7200RPM).

Meer on-topic nu... Ik mis hier eigenlijk een beetje de nieuwe controller die ik gisteren geleverd kreeg : Adaptec AAA-UDMA Raid Controller. Dit is in tegenstelling tot al die andere IDE-RAID-devices wél een echte RAID controller (lees met raid-chip en cache mem). Toch een beetje spijtig...
1. Multitasking
Onder SCSI kun je inderdaad 2 devices (bijna) simultaan accessen en kunnen transfers tegelijk naar het geheugen plaatsvinden.
2. Hogere transfer-speeds op een bus dan UDMA
Big deal, daar heeft een thuisgebruiker niets aan met z'n ene HDD en 1 CD-ROM spelertje
3. KORTERE SEEKTIME op de schijven
Heeft niets met SCSI te maken, maar alleen met de hardware v/d schijf
4. REDUNDANCY
Huh? Wat bedoel je hiermee? Redundand==overbodig, wil je daarmee zeggen dat SCSI overbodig is? :) (Ik snap wel wat je bedoeld, SCSI RAID configs kun je zo configureren dat de data op meerdere schijven tegelijk staat). Er is geen enkele technische reden waarom dit niet met IDE kan. Sterker, ik lees net hier beneden dat Adaptec een IDE RAID kaart uitbrengt met hardware-RAID. Die zal ook wel RAID5 kunnen.
5. Hot-Swapping
Heeft niets met SCSI te maken, maar met de implementatie van de controller en interfaces (connectoren enzo)
Adaptec heeft die kaart al uitgebracht en ik heb em al in mijn bezit ;-). Vanavond laat ik er een eerste testje op lopen. Iemand interesse in benchmarks ? Of een review ? Die kaart kan trouwens idd ook RAID-5 aan. De features:
- Raid-coprocessor
- 2Mb ECC EDO-Dimm upgradable to 16/32/64Mb
- Raid levels 0,1,0/1 and 5
- Hot-Spare drive support
- Bootable Array
- Dynamic sector Repairing
- Remote mgmnt,
- DMI and SNMP support

Er staat dus niets over Hot-Swap (uittesten dus :+ ) Maar je mag niet vergeten dat een SCSI-schijf een spin-up vanuit de bios van de kaart kan krijgen. Met IDE begint je schijf sowieso te bollen als je de power erin plugt. Da's niet echt gezond om te hot-swappen denk ik...
Uhm, NCP-Viper: Waar heb jij in godsnaam 4x40 GB + 2x18,2 GB = ca. 196 GB in je thuis-serverd voor nodig, als ik zo onbescheiden mag zijn ?

Verder vind ik de (spinned-off) discussie over de verschillen tussen SCSI en IDE een beetje off-topic, het ging volgens mij meer om de verschillen in kwaliteit van de ATA66/100 controllers onderling.
2 dingen:

Het is niet helemaal eerlijk om een atlas IV op een 2940 UW te vergelijken met udma66 schijven op een ditto controller. Zet of de atlassen op een u160 controller of schroef de pio-mode van de hdd's terug (bv pio 4).
Verder hoe kom je erbij dat de SCSI devices 30 cm van elkaar moeten zitten? Als er een X aantal schijven op een SCA back-plane zitten, zitten ze 5-7 cm uit elkaar, en in veel externe SCSI schijvencabinetten (bv Compaq U1) zitten de aansluitingen van een kabel ook maar ± 8-10 cm uit elkaar.
Dat staat in de SCSI spec. Dat de devices op een mooi geaardde SCA backplate dichter op elkaar zitten heeft geen relevantie in deze context. Zo wat moeilijke woorden en ik heb gelijk :)

Ik betwijfel het trouwens dat mijn Atlas-IV (U2W)op een U160 controller sneller zal lopen, aangezien hij nu de SCSI-UW bus al niet voor 100% belast. Idem met de UDMA-66 schijf. Ik maak dit vergelijk omdat dit is wat ik heb.
Laat ik het zo zeggen,

'je kan uren lang doorgaan over het feit dat scsi beter is dan ide. dan heb je gelijk. je kan uren lang doorgaan over dat U2W beter is dan UDMA100 ide. Daar klopt iets niet.

wat je wel kan concluderen is dat we hier in een performance discussie komen en dat wij daar als tweakers zijnde daarover beginnen te discu zeur en.

BAH !

wie bewijst dat ie tweaker is, en zet als eerste zijn configuratie met alle specs, drivers etc met Benchmark hier op het forum en bewijst wat ie zegt ?

dat is hoe tweakers horen te reageren....

dat IDE goedkoper is dan de SCSI kant - voor dezelfde Gb's betaal je wel minder, is voor mij de belangrijkste keuze zelf. voor spelletjes is dit zat.
ik ben geen video's aan het editen, ik ben geen applicatie server aan het draaien.
ik ben niet duur bezig.
Geef me nou eens één reden om zoiets te willen.
A. Het booten duurt langer.
b. Het vreet IRQ's.
C. Kabel salade in je kast.
D. Instabiel als de pest.
E. RAID voor 80% Softwarebased.
F. Ene device bezig? -> Andere niet aanspreekbaar.
G. Koop Adaptec
H. Wacht op Firewire/USB2
I. Of sla al die tussenpausen over en wacht op serial ATA.
J. Ugh!
* A. Het booten duurt langer.
Leg die eens uit. Duurt langer dan wat?
* C. Kabel salade in je kast
Dat heb je zowiso. Een beetje meer salade kan ook geen kwaad :) Of je moet een 80 GB disk kopen, dan heb je voorlopig genoeg aan 1 device
* G. Koop Adaptec
Heeft Adaptec ook een UDMA-100 controller?
Hmm SCSI koop je nu alleen nog maar omdat er simpelweg snellere schijven mee verkrijgbaar zijn (10.000 - 15.000 rpm) en omdat je met dual channel SCSI in totaal 14 apparaten in je systeem kwijt kan.
Dual Channel SCSI is 2 X 14 devices.

Een kanaal heeft al 14 posities. (tot en met 7 voor normaal, alles vanaf 8 t/m 14 is voor Wide, maar die zijn gewoon beide naast elkaar te gebruiken.)
Ik heb op t werk een RS/6000 met wat test troep,
Als ik een scsi backplane gebruik of een six pack zo je wilt zitten mijn schijven zeer dicht op elkaar de tussen ruimte is exact 1,5 cm
en tussen de six packs zit ook weer slechts 1 cm ruimte hoezo 30 cm ? :) ik gebruik per six pack 6 u2w hdd's op 10.000 toeren draaien en ik heb 3 six packs in m'n machientje. en uteraard 2 on board scsi controllers.
dus voor 18 hdd's gebruik ik twee kabels waar is dan de spagetie
Uit de SCSI FAQ: (www.scsifaq.org/scsifaq.html )
The ANSI SCSI spec's say that "stubs" on a SCSI bus must not be any more than .1 meters (4 in.) long. In SCSI-2 there are also guidelines that say you shouldn't place "stubs" any closer than .3 meters (12 in.) apart. Since each device attached acts as a "stub", you really shouldn't place connectors any closer than this.
Het verschil tussen IDE en SCSI wordt duidelijk steeds kleiner... Koos je vroeger voor SCSI vanwege de hoge snelheid, nu kies je er alleen nog voor vanwege lage systeembelasting en goede kwaliteit...
Correctie: SCSI koop je nu alleen nog om te showen en om de (vermeede) betrouwbaarheid. Het verschil tussen 6% (UDMA) en 4% (SCSI) CPU belasting merk je toch niet.
haha

Wat dacht je van een Ultra160 SCSI schijf met een seek van 5 ms en 10.000 toertjes??

Echt wel wat sneller dan een UDMAtje op IDE.

En trouwens:
If you are a happy owner of an ATA/66 controller, replacing it with an ATA/100 one doesn't make any significant difference.
Zeiden ze dat ook al niet toen ATA66 uitkwam? Verschil tussen 33 en 66 was ook minimaal..

En wat dacht je van meer dan de 4 poorten via IDE?
Het verschil tussen 6% (UDMA) en 4% (SCSI) CPU belasting merk je toch niet.
Kopieer maar eens een file van 200 MB vanaf je IDE cd-rommetje naar je HDD. Kun je dan nog iets anders doen?? NEE! 6% CPU belasting bij IDE?? in rust misschien ja.

En btw een 20x SCSI CD-Rom player is vele malen sneller dan een 40x IDE versie.

* 786562 Rene
Neuh, niet veel sneller, alleen een veel lagere seektime, wat belangrijk is in database's en dergelijke. Daar is scsi handig in, ook omdat je meerdere schijven tegelijk kan gebruiken waardoor de wachtijden bij grote queries veel kleiner zijn.
Om het snel hoef je geen scsi meer te nemen.
Ik weet niet hoor maar voor high-end videobewerken hebje toch echt wel skoezie nodig lijkt mij en er zijn redelijk wat mensen die dit doen. Voor game en dergelijke is het wel overbodig (maar wel leuke) :)


* 786562 XSTReaM
Yep, om te showen dus. Je hebt thuis echt geen 10k rpm Ultra160 schijf nodig. Toch?
Ik zal de laatste zijn om te verkondigen dat SCSI volledig waar voor zijn geld biedt, maar :

1 IRQ, 14 Devices...
Niet alleen HD's, ook Scanners, en makkelijk extern te gebruiken, (Hang jij maar eens 4 disken op IDE in een extern Cabinet, met een kabellengte van 5 meter) voor externe diskcabinets. (Waren zelfs printers voor SCSI)

Tevens zijn de SCSI disken vaak nog wat betrouwbaarder, omdat ze een hogere MTBF (500.000) hebben, en gemiddeld 5 jaar garantie.

Helaas ben ik het wel met je eens dat de prijs die je er meer voor betaald niet evenredig is aan de voordelen die het biedt. (te duur dus eigenlijk...)
14 devices red je al met een single channel controller en als het kanaal eletrisch gescheiden wordt d.m.v. een apart chipje (adaptec noemt het "speedflex", zal wel een optocouplertje zijn oid) dan kan je zelfs U160 en U2 en U of (fast)scsi-2 apparaten in één string hangen zonder snelheidsverlies. Ik heb zelf een Mylex DAC960-PDU RAID controller en daar kan je dan ook op één IRQ 45 devices hangen, waarvan 30 extern.
Kan je de Promise Ata 100 ook omsolderen tot een Raid controller dmv een 100 ohm weerstandje?

Bij de Ata 66 ging het wel.

Ik wou eerst de Abit kopen maar zo te zien is hij bar slecht
Zelf heb ik ook 2 ATA100 controllers.

Ik heb er een Promise ATA100 in hangen met 2 schijven 20gb Quantum Fireball LM+ en en een IBM GXP75 45GB deze schijven lopen erug lekker op deze controller.

In mijn server heb ik 2*18gb 7200rpm ATA66 schijven in RAID 0 hangen op een Abit HotRot100. Ik merk tot op heden nog niet erg veel aan performance winst. ja hij is iets sneller. Wat hier beweerd word dat hij instabiel zou wezen is volkomen bullshit. Die controller loopt op mijn server al 12 dagen achtereen (na de laatste system re-install) en is tot op heden nog niet op zijn bek gegaan.

Er zijn ook nog onderlinge verschillen bij de kaart als je ze koopt, de Promise ATA100 heeft voor 129 piek maar een ATA66/100 kabel bij geleverd, terwijl de Abit Hotrod100 voor 111 piek er 2 kabels bij doet. Mischien dat het een doorslaggevende reden is, om een keuze te maken.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True