Areca presenteert nieuwe generatie SATA RAID-adapters

Areca heeft de specificaties van zijn nieuwe generatie PCI Express SATA RAID-adapters bekendgemaakt. De nieuwe RAID-adapters maken gebruik van een dualcore Intel IOP342 I/O processor met een kloksnelheid van 800MHz en geïntegreerde ondersteuning voor RAID 6. De kaarten zullen verkrijgbaar worden in versies met twaalf, zestien en 24 poorten. Ze beschikken standaard over 256MB DDR2-533-geheugen, dat middels een DIMM-slot opgewaardeerd kan worden naar 2GB. De 24-poorts versie is leverbaar met zowel normale SATA-connectors als Mini SAS x4-connectors. Deze Mini SAS-connectors, waarmee vier SATA-poorten door een enkele connector worden gerouteerd, zijn standaard op de modellen met twaalf en zestien poorten. Alle adapters zijn standaard uitgerust met een ethernet management interface. Hiermee kunnen de kaarten direct op het netwerk aangesloten en vanuit de browser beheerd worden.

De Areca ARC-1230ML, ARC-1260ML, ARC-1280 en ARC-1280ML hebben support voor de RAID-levels 0, 1, 1E, 3, 5, 6 en 10. Alle essentiële RAID-features worden ondersteund, waaronder online RAID-level migration, online capacity expansion, hotspares, instant availability en volumes met een capaciteit groter dan twee terabyte. Een optionele battery backup unit voorkomt dat de gegevens in de write-back cache door stroomuitval verloren kunnen gaan. Volgens Areca halen de nieuwe kaarten sequentiële read en write transfer rates van respectievelijk 846 en 816MB/s. Dit is een aanzienlijke verbetering ten opzichte van de vorige generatie SATA RAID-adapters van Areca, die met hun 500MHz Intel IOP333-processor waren gelimiteerd op een schrijfsnelheid van zo'n 260MB/s. Een preview van de 24-poorts Areca ARC-1280 en een vergelijking met vijf andere RAID-controllers kun je lezen in dit artikel van Tweakers.net.

Areca +12-poorts PCI Express RAID-adapters
Model ARC-1230ML ARC-1260ML ARC-1280ML ARC-1280
I/O processor Intel IOP342 800MHz
Host bus PCI Express x8
Poorten 12 16 24 24
Connector 3x Mini SAS x4 4x Mini SAS x4 6x Mini SAS x4 24x SATA
Areca ARC-1280 pcb (zijde van SATA-connectors)
Areca ARC-1280

Door Femme Taken

UX Designer

11-08-2006 • 14:24

53

Reacties (53)

53
52
9
0
0
23
Wijzig sortering
Ziet er erg mooi uit.. De review van Femme geeft al aan wat voor een databeesten deze jongens zijn :9~ ik ben heel benieuwd hoeveel de kleinste telg gaat kosten.
:? RAID 1E :?
Als je het plaatje ziet dan zie je maar 1 DIMM slot. Hierin zit dus 1x256MiB. Deze haal je er uit en stopt er een 2GiB versie in. Je kan natuurlijk ook een 512MiB, 1GiB doen.

offtopic:
Waarom houden de redacteuren nu niet eens de conventies aan. 256MB=256x1000x1000 en is niet verkrijgbaar, het is dus 256MiB 256x1024x1024. Ook al ligt het voor de hand en weet iedereen wat er bedoeld wordt, houd toch de conventie aan.


edit:
Sjips, net te laat.
@DamoSiSocra: heel simpel omdat 1MB=1024KB al " eeuwen" een bekend begrip is in de IT. Dat een een of andere project groep ineens met MiB op de proppen komt betekend het niet dat het algemeen geaccepteerd is of wordt. Ik denk ook niet dat dit erg gauw zal veranderen, omdat veel fabrikanten zich ook niet aan de MiB notatie houden.
'K denk dat het wel gaat veranderen ze schrijven nu al in MB en ze bedoelen dan ook gewoon 10**6 bytes.
@Terracotta, op hardeschijven zie je dit inderdaad wel staan, maar op geheugen modulen absoluut niet. Of wanneer men over het geheugen van een VGA kaart spreekt of cache geheugen van een processor.
De binaire benamingen KiB, MiB, GiB, ... bestaan als sinds de jaren negentig en zijn geen nieuw fenomeen. Wel dringt de dag van vandaag de noodzaak voor correct gebruik zich meer en meer op. Wanneer je een HDD hebt rekent men HWmatig met 1000 en SWmatig met 1024 wat voor enorm veel verwarring zorgd, of zijn we die rechtszaak tegen WD al vergeten van enkele maanden terug?
idd leer MiB etc te gebruiken als ze echt nodig zijn. Dat gezaag altijd, de meesten weten ondertussen wel dat een harde schijf van 1GB niet even groot is als een lat geheugen van 1GB.
En zij die het niet weten willen de uitleg waarschijnelijk niet weten.
Ik ben het helemaal eens met _Dune_

Iedereen weet wat bedoelt wordt met MB. Het heeft geen zin om enkel voor wat juridische shit een en ander aan te passen. Hiervoor geld hetzelfde als voor de nieuwe NL spelling, als we die massaal negeren, zal het er nooit door komen.
Niet iedereen weet wat er bedoeld word met MB, jij weet het blijkbaar ook niet. Erkende standaarden kan je niet zomaar gaan wijzigen naar goeddunken. De binaire benaming bestaat al bijna 10 jaar en aangezien deze meer en meer begint op te duiken toont dit aan dat de nood ervoor groter en groter word.
Iedereen weet wat bedoelt wordt met MB.
Yep. Iedereen weet immers dat het bij geheugen om 1024*1024 gaat, en bij floppies om 1024*1000 en bij harddisks om 1000*1000.

|:(
Als iedereen wist wat er mee bedoeld werd, dan zouden er geen rechtzaken over zijn.

En dan is het wel handig als juist de mensen met kennis van zaken de internationale standaarden volgen, zoals vastgelegd bij de IEEE, zodat het vanzelf ingeburgerd raakt bij de rest.

Iedereen zit hier altijd te klagen dat Microsoft zich niet aan standaarden houdt, en dat we open standaarden moeten gebruiken etc etc.

Maar als het over MB's gaat, dan volgen we dus NIET de standaard, maar loopt iedereen achter Microsoft aan.

Kan iemand me dat eens uitleggen?
Maar als het over MB's gaat, dan volgen we dus NIET de standaard, maar loopt iedereen achter Microsoft aan.
Wat een Microsoft gebash weer. Juist Microsoft berekend in Windows gewoon met MB's van 1024KB. Hardeschijf fabrikanten doen het juist verkeerd en daardoor komt de verwarring aangezien mensen een hardeschijf kopen van bv 400gig (zoals opgegeven door fabrikant van hardeschijf) maar in Windows blijkt er nog maar 390.4gig over, en dan mist erineens bijna 10gigabyte. En dáár komen nou die problemen en rechtszaken van. Dan moet je daar niet weer eens Microsoft voor gaan lopen bashen, die doen het juist goed! |:(
Hardeschijf fabrikanten doen het juist verkeerd ..
Waarom zouden de hardeschijffabrikanten de Microsoft FAT/NTFS waardes moeten aanhouden ?

Er zijn nog méér formatterings mogelijkheden namelijk...

Dus de harddisk fabrikanten doen het mijn inziens perfect; ze geven precies aan hoeveel BITS je kwijt kan. Mag de gebruiker zelf uitvogelen hoeveel Kb/MB/GB dat is.
Zucht. De HD fabrikanten hebben de standaard BEDACHT, en wel in een tijd dat intern geheugen meestal beperkt was tot enkele kilobytes.
De megabyte was precies de vertaling van de mega-xxx in de rest van de wereld, namelijk 1000x1000x<eenheid>.
wat deze telg gaat kosten kan je vinden in de pricewatch

1.999,- bij WebConnneXXion
RAID1E is ongeveer hetzelfde als RAID10.
Het verschil zit hem in het feit dat voor RAID10 er een even aantal schijven nodig is, en bij 1E niet.

Zie http://www.bytepile.com/raid_class.php#11
er staat een plaatje bij dat het illustreert.

IMHO is 1E vrij zinloos, maar jah, zo zal het wel zijn nut kunnen hebben in een speciale situatie...
Aan het plaatje te zien, zit er gewoon één DIMM slot op. waar dus standaard 256 mb in zit.
Raid 1E lijkt op RAID1, maar kan ook met oneven schijven draaien. Met plaatje uitgelegd:

http://www.bytepile.com/raid_class.php#11


edit:
Te laat, zag de andere post met de uitleg niet
Heeft T.Net soms aandelen in Areca :?
Ik vind dat ze wel heel opvallend "in het nieuws" gehouden worden. Feit is dat het kwaliteitsmateriaal is, maar nieuwe producten van adaptec, Cisco, etc (ik noem maar wat random merken) komen niet op de FP... waarom die van Areca wel :?
Het klopt dat de berichtgeving over professionele appatuur vaak wat selectief is, omdat degenen die dat nieuws uitzoeken niet altijd bezig zijn met de nieuwsvoorziening, maar er is geen sprake van structurele bevooroordeling. Adaptec, AMCC/3ware en LSI Logic zijn in het verleden veel vaker in het nieuws geweest dan Areca.

Areca is op dit moment wel de eerste die een dualcore I/O processor met een kloksnelheid van 800MHz toepast. Verder is dit nieuwsbericht nuttig als vervolg op de review, waarin nog niet de volledige specs van de nieuwe generatie adapters van Areca genoemd kon worden. Het is nu duidelijk geworden dat er ook 12- en 16-poorts versies komen die voor veel meer mensen interessant zullen zijn.
Enige wat ik kan hopen is dat de vorige generatie in prijs gehalveerd gaat worden (ofzo) zodat ik misschien de allereenvoudigste Areca kan kopen ;)
hoop doet de zotten in vreugde leven, waarschijnlijk zal de vorige generatie gewoon niet meer uitgeleverd worden. of je moet al op zoek gaan naar second hand kaartjes.

mensen willen gewoon niet begrijpen dat dit dingen zijn voor grote bedrijven die hier budgetten voor hebben vrijgemaakt. niet om thuis in je fileserver te rammen om meer porno op te slagen
niet om thuis in je fileserver te rammen om meer porno op te slaan
Niet?
:'(
Wat een deceptie...
Grappig dat Intel deze IOP nog niet eens op zijn website heeft staan.

Wat betreft die onboard ethernet connector: Zou het niet mogelijk zijn om Linux op zo'n kaart te draaien? Je hebt dan in het geheel geen host PC meer nodig om toch een kick-ass NAS te hebben...
Dat er een ethernet poort op zit wil nog niet zeggen dat het mogelijk is om daadwerkelijk die maximale transferrates van rond de 800-850MiB/s via ethernet te verplaatsen. Tis niet voor niets een 8x PCI-E connector.
ACM Software Architect @kalizec11 augustus 2006 14:56
Sterker nog, het is goed mogelijk dat die controller uberhaupt niet bij de data op de disks kan komen.
@kalizec
Klopt, maar een NAS voor EUR 1500,-- die ~80 MiB/s op het netwerk kan lezen/schrijven, maar tegelijkertijd niet opgebouwd is rond een energieverkwistende x86 processor zou al een enorme doorbraak zijn.

Bijvoorbeeld: De Infrant ReadyNAS NV kost ~EUR 1000 maar kan hooguit 30 MiB/s verplaatsen.

@ACM
Ik neem aan dat de software voor de ethernet poort gewoon op de IOP meedraait (motivatie: Ik neem aan in alle onschuld dat deze software de SMART status van de harddisks kan laten zien.). Wanneer dat zo is dan kan een Linux installatie dus wel in princiepe.
Beetje jammer dat gbit ethernet een gruwelijk bottleneck word. (10gbit copper/fibre heeft iets meer ruimte nodig op de kaart dan hier te zien is)

Maar zou wel tof zijn als jouw idee ook echt gedaan zou worden :s)
Dat is natuurlijk zo: Bovendien zal een aanzienlijk deel van de processorkracht benodigd worden voor TCP/IP, SAMBA/NFS en andere beheerstaken.

Het gaat mij alleen om het idee idd.
24 poorten? In wat voor behuizing passen zoveel harde schijven, een übersized big tower? :?
ACM Software Architect @Verwijderd11 augustus 2006 14:57
Sommige 4U en 5U serverbehuizingen kunnen er zelfs al meer kwijt dan dat...
Ik kan er, met wat creatieve plaatsing, ongeveer 18 schijven kwijt in m'n Coolermaster Stacker. Voor mij meer dan genoeg, de overige zes poorten kan je dan gebruiken om te migreren naar een grotere standaard schijf.
*sorry, verkeerd geplaatst.
"Ik heb nog nooit gehoord van een DIMM van 1768 mb..."

Correct.
Dus als je er een 2 Gb dimm in doet, wordt de onboard 256 mb uitgeschakeld.
Of hij ziet gewoon de bovenste 256 mb niet.
Maar een kniesoor die daar op let.
Ik vind 256 mb al veel.
<snip>
24 poorten? In wat voor behuizing passen zoveel harde schijven, een übersized big tower?
<unsnip>

O, die zijn er hoor.
Vanaf 4 HE kun je diverse 19inch kasten krijgen waar 24 of meer hd's inkunnen.
Het record is een 19inch 4HE kast waar 56 schijven inkunnen.
Geloof dat sun een server heeft met zoveel schijven.
Deze zitten in de kast, en zijn dus niet hot swappable.
is het niet zo dat ze onder de bovendeksel zitten en als je de goede rails gebruikt en de hele behuizing werkend en al naar voren trekt.de schijven wel degelijk hot swappable zijn
Wel mooi dat ze kaarten met 24 SATA aansluitingen maken maar ik vind het persoonlijk toch minder fijn om te weten dat ik 24 hardeschijven op een RAID kaart heb geprikt.

Het idee van zo'n kaart is veel hardeschijven te plaatsen, met een snelle methode om gigantisch hoeveelheden data te plaatsen, wat nou als er om wat voor reden nou ook die kaart kapot gaat? Er bestaat altijd een kans dat een deel van de data corrupt raakt. Dat is nou net wat je niet wilt met zo'n gigantische hoeveelheid hardeschijven.

Voor de rest is het wel gigantisch handig voor sommige bedrijven. Helemaal nu het verplicht is door providers om alle gegevens te bewaren, dit is een betaalbare oplossen en als ik de reputatie van Areca mag geloven is het ook een betrouwbare oplossing.

Overigens voor de mensen die nog nooit een systeem met meer dan 5 hardeschijf aansluitingen hebben gezien:
http://usa.chenbro.com/as.../20/product0288413589.jpg

(overigens wens ik de personen die zo'n kaart moeten aansluiten veel geluk toe, wat een rotwerk zal dat zijn al die kabels aansluiten in die kleine poortjes) .
voor dat soort gevallen heb je een backplane natuurlijk ;). Anders wordt hotswap wel een heel gedoe :P. Zo word een multi-lane connector ook zeer praktisch (scheelt een hoop kabelbende in een platte 1U/2U server :))

(dat plaatje is dus een SAS-backplane van een T.net review :P)
AuteurFemme UX Designer @Jayvd11 augustus 2006 15:55
Met de Mini SAS-aansluitingen wordt het al een stuk makkelijker om 24 poortjes aan te sluiten (je hebt dan nog maar zes kabels nodig).

LSI Logic heeft RAID-adapters met transporteerbaar cachegeheugen. Deze kaarten gebruiken een geheugenmodule waarop de battery backup unit is geïntegreerd. Zo kun je het geheugen met behoud van data naar een andere kaart verhuizen. Met SAS is het tevens mogelijk om dual ported harde schijven op twee verschillende controllers aan te sluiten. Je krijgt dan wel problemen met caching, maar je kan in ieder geval snel failover doen.
voor providers is dit denk ik niet echt een oplossing, zij hebben veel meer ruimte nodig dan dat je hiermee kan gaan voorzien, hiervoor bestaan er dus ook andere oplossingen zoals san's en zo ...

ze gebruiken raid arrays om te zorgen dat de data niet corrupt geraakt, dus de kans voor dataverlies is kleiner dan bij een enkele schijf.

Als de controler kappot gaat zal de array nog wel te rebuilden zijn gok ik ze
Volgens Areca halen de nieuwe kaarten sequentiële read en write transfer rates van respectievelijk 846 en 816MB/s
Is het dan niet logischer om meer geheugen er in te zetten bijvoorbeeld 1024 zodat de read en write in de buffer opgeslagen kan worden?
Dat doen deze kaarten ook en ze zijn er erg goed in. Het upgraden van het geheugen kan daardoor zeker zin hebben als adapters worden toegepast in situaties waarbij er veel data door verschillende processen wordt weggeschreven. De cache kan ervoor zorgen dat dit efficiënter plaatsvindt.

Op dit item kan niet meer gereageerd worden.