Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 61 reacties

Angelbird is de nieuwste aanbieder van ssd's op basis van een pci-express-kaart. Het bedrijf wil zich van de schare concurrenten onderscheiden door een raid-kaart met losse ssd's te verkopen. De ssd's zijn in 120 en 240GB-versies verkrijgbaar.

De Wings-ssd, zoals de modulaire kit van Angelbird heet, wordt opgetrokken rond een pci-express-kaart die van vier slots voor solid state drives is voorzien. De kaart heeft 16 of 32GB flashgeheugen met daarop Angelbirds eigen besturingssysteem en bootloader en een x4 pci-express-interface. Om in de opslagcapaciteit te voorzien, kunnen Crest-solid state drives van Angelbird worden aangesloten. Met een enkele ssd aangesloten zorgt de SandForce SF1222-controller voor leessnelheden van 285MB/s en schrijfsnelheden tot 275MB/s.

De snelheden stijgen echter naarmate meer solid state drives worden aangesloten. Met alle vier de slots bezet worden leessnelheden tot 1081MB/s en schrijfsnelheden tot 945MB/s gerealiseerd. De Wing is derhalve als een opgevoerde raid-kaart te beschouwen. Om de opslagcapaciteit verder te vergroten, kunnen verschillende Wings met elkaar worden verbonden. Deze techniek, ArchWings genoemd, laat de gebruiker vijf Wings-kaarten met elkaar verbinden. Tevens is het mogelijk om een eigen solid state drive in het Wings-systeem te gebruiken.

De 16GB-versie van de Wings-kaart kost 239 dollar; de 32GB-versie kost 299 dollar. De kaarten zijn vanaf november verkrijgbaar. De ssd-modules zijn kale versies van de Crest-ssd die het bedrijf verkoopt; de garantie vervalt niet door het verwijderen van de behuizing.

Angelbird Wings-ssd
Moderatie-faq Wijzig weergave

Reacties (61)

RAID zou ook iets van redundancy moeten hebben. Ik vraag me af of je met dit systeem de mogelijkheid hebt om 'goedkope' storage aan te sluiten om zo data te mirroren op minder snelle schijven.
Lijkt me dat dit met RAID 5 werkt, dan wordt een controlebestand van het originele bestand (maar een fractie van de originele grootte), op de volgende ssd geschreven. Zodra er een ssd uitvalt kan doormiddel van het controlebestand op de vorige ssd het bestand weer gegenereerd worden.
Zodra je dan weer een nieuwe ssd erin prikt, wordt deze automatisch geregenereerd doormiddel van al die controlebestanden die hersteld worden.

Edit: indrukwekkende snelheden!

[Reactie gewijzigd door Bartjezz op 25 oktober 2010 12:00]

Als ik me niet vergis zou als er gebruik zou worden gemaakt van raid 5 de schrijfsnelheid niet meeschalen, omdat de snelheid van de parity disk een bottleneck vormt.
RAID5 heeft geen dedicated parity disk, maar een round-robin systeem om de parity elke keer op een andere disk te zetten. Wat jij beschrijft is RAID4.
En dan nog -- in een raid 4 systeem van 4+1 drives is het nog steeds zo dat als je 1 block naar ieder van de andere drives schrijft, je 1 block naar de parity drive schrijft -- en je dus in principe toch de 4 voudige snelheid haalt.

Als je IO bound bent zoals in mijn swraid 4disk raid5 aan PCI dan is je maximale theoretische snelheid 133/4*3=100 MB/sec.

IO limiet van deze met een PCIe 4x (ik neem aan 2.0) is 2 GB/sec, zou met raid 5 nog 1.5 GB/sec van over blijven.

Ik vraag me wel heel erg af hoe het zit met die cross-card-raid die ze aanbieden. Dat zou suggereren dat er een vorm van fakeraid is toegepast, aangezien nog niemand het op een andere manier gelukt is.
En dan nog -- in een raid 4 systeem van 4+1 drives is het nog steeds zo dat als je 1 block naar ieder van de andere drives schrijft, je 1 block naar de parity drive schrijft -- en je dus in principe toch de 4 voudige snelheid haalt.
En wat als ik ipv 4 blocken schrijven, er maar 1 hoef te wijzigen ?
dan komt er dus eerst een lees actie van de parity, en daarna 1 schrijf actie voor de data + 1 voor de parity.

Die initiele lees actie van de orginele parity is nou net de echte botleneck van raid 4 en 5, die verviervoudiging waar je het overhaalt, verdwijnt als sneeuw in de sahara overdag. best kans dat bij veel random writes je met 1 enkele disk sneller bent.
Meeschalen zeker wel, alleen niet zo veel als bij een RAID0 opstelling inderdaad.
Wat jij beschrijft is geen RAID5 aangezien RAID op blocklevel werkt en niet op bestandsniveau.
RAID 0 is niet redundant, dat is Striping om hogere lees/schrijfsnelheden te halen.... (Eigenlijk ook geen RAID dus, maar goed, die term is nou eenmaal zo gegroeid)
Maar inderdaad....de I staat voor Inexpensive....daar vallen SSD's nog niet onder :)
Voor de volledigheid: Redundant Array of Inexpensive Drives/Disks.
Inexpensive of Independent daar vallen ze wel weer onder.
RAID 0 heet niet voor niks 0, ie niet echt RAID. Het is wel AID maar geen R.
Vroeger inderdaad Inexpensive, de laatste jaren bezien ze de "i" meer als "independent" ...
Hoe zie je dat voor je? Eerst alle snel naar je SSD's schrijven, en vervolgens moeten wachten op de HDD's die ernaast hangen voor de back-up? Of een totale back-up met een vaste interval ofzo?
Op de momenten dat je weinig IOPS naar de SSD doet, kan hij toch gewoon naar je HD's schrijven? Je hebt niet dezelfde veiligheid als RAID1, maar het werkt wel. In het ergste geval ben je bij een crash dan je huidige word documentje kwijt en zijn enkele windows files corrupt, maar je data is wel benaderbaar op de trage storage.

ZFS werkt ook zo met zijn Cache partitie...
Zou hem best wel willen kopen voor de lees en schrijf snelheid,
Mooi om te zien als je er meerdere schijven aan hangt dat die dan sneller wordt in plaats van slomer.
Daarnaast is het een mooie prijs voor zo'n PCI-express slot SSD die ook nog is "upgradable" is. Ook erg mooi dat je je eigen SSD's erin kan steken en dat deze kaarten ook nog is onderling te verbinden zijn. Voor zo'n "nieuwe" techniek vindt ik de prijs erg meevallen en denk dat dit best wel eens de toekomst voor SSD's kan worden.

Ben benieuwd wanneer dit op de markt komt, of heeft iemand al een link met een webshop of iets dergelijks?

Edit:
Dit nieuws is al van 12 Oktober, dus denk dat het vast al wel ergens te krijgen is.
Bron: http://www.tomshardware.c...crest-ssd,news-34414.html (zie quote onder bericht)

[Reactie gewijzigd door NL-RaVeR op 25 oktober 2010 11:58]

Nou.. let op dat de prijzen van die 240/300 dollar dus exclusief storage zijn. Aan een 16/32 GB pcie ssd heb je niet zoveel, en het is de vraag of die wel snel is.
the cards are available with 1, 2, or 4 of their own Crest SSD transformable expansion cartridges ( http://www.angelbird.co.uk/crest ) which are SandForce based and 120GB in size. The single drive Wings card is $539.99, the dual drive card is $839.99 and the 4 drive card is $1399.99.
Kortom, dit is (itt de OCZ variant) significant duurder dan losse drives. In feite is de kaart zelf alleen een 4-poorts SATA RAID controller, hopelijk met echte raid ondersteuning, met als extraatje een stukje flash erop om een managementinterface vanaf te draaien.

Regardless, ik wacht de reviews met spanning af.
Ware het niet dat gewone RAID controllers niet goed omgaan met SSD's en deze ervoor gemaakt zijn..
Onwaarschijnlijk, want er wordt nergens iets over de controller gezegd. Als dat ding echt voor SSD gemaakt zou zijn, of zelfs maar trims zou doorgeven, hadden ze er vast wel wat over gezegd.
Er wordt geen melding gemaakt van het feit of het TRIM commando wordt ondersteund. Wellicht betekent dit impliciet dat het gewoon niet ondersteund wordt, anders had het er wel in gestaan. Op zicht wel knappe snelheden maar als ik het goed begrijp gaat die snelheid na verloop van tijd achteruit bij gebrek aan het TRIM commando; jammer.
TRIM commando in raid werkt toch zowiezo (nog) niet?
Waarom niet ? De OCZ vertexen 2 hebben een SF controller die dat volgens mij gewoon zelf kan. Kijk als het OS moet snappen wat er op disk 1 staat maar ook op disk 2 dan gaat dit niet werken omdat de raid controller in stripe de data splitst. Als je het gewoon de controller laat doen dan heb je geen access nodig op bestands niveau maar kijk je gewoon naar de gevulde eenen en nullen in iedere page en trim je de pages dus puur op binaire inhoud.
Dat is nou het hele probleem waar je met trim tegenaan loopt!

Het OS weet waar wel en waar geen bestanden staan, maar de controller weet het niet.
Dus moet het OS dit op een of andere manier aan de controller door geven met jawel: het TRIM commando.
Het OS geeft dan aan: dit blok gebruik ik niet meer en kun je zelf ook wissen en als ongebruikt markeren.

Bij RAID is het voor het OS niet meer aan te geven per disk waar welk bestand staat, omdat de controller maar 1 fysieke disk doorgeeft terwijl de data verspreid staan over meerdere.
De vertaling van 1 logisch naar x fysieke adressen is iets waar de problemen nog zitten. Zodra een controller die vertaling goed kan maken, of juist wordt aangestuurd door het OS dan wordt TRIM op RAID goed mogelijk. Tot die tijd zijn we nog afhankelijk van bepaalde fabrikante die het truukje al wel zeggen door te hebben.

Het is dus per definitie onmogelijk om een controller dit op zijn eentje te laten opknappen, of er moet filesystem logica in de controller-firmware aanwezig zijn.

edit: spelfoutje
edit2: uitbreiding

[Reactie gewijzigd door Raymond Deen op 25 oktober 2010 13:12]

mmm Of je het nu Trimt op file niveau of dat je het op bit niveau in de controller doet het effect is hetzelfde. Het klopt dat wanneer je het op bitniveau de controller laat oplossen je geen relatie meer hebt waar de (delen) van de bestanden staan. Uiteindelijk is deze relatie wel degelijk te maken. Het OS is samen met de raid controller en de ssd's ook prima in staat is om de bestanden in Raid te lezen en te schrijven. Dus uiteindelijk word er een vertaling gemaakt waar en precies welk blok gelezen of beschreven moet worden. Ergens daar tussenin dient de trimming of page clearing gedaan te worden maar dat is in princiepe niet anders dan bij een enkele drive.
Je trimt nooit op "bit-niveau in de controller".

Het OS zegt tegen de controller: Dit blok is niet meer in gebruik en mag je dus leegmaken en als ongebruikt markeren (de garbage collection).
Maar de controller kan dus niet op zichzelf gaan beslissen welk blok nu vrij is (dat bijhouden van die boekhouding laat de ssd te snel slijten); daardoor komen nu juist alle problemen van snelheids afname.

Eerst deed de controller voor ELKE schrijfactie op een blok eerst een complete wipe van dat blok, maar als je die wipe kunt uitstellen tot een moment dat de ssd het rustig heeft dan levert dat de snelheidswinst op.

Daarom treedt het probleem ook pas na een tijdje op; als de controller elk blok op de ssd al een keertje beschreven heeft en dan pas aan het OS moet gaan vragen welk blok er weer vrijgegeven is. Ook het verwijderen van bestanden op de "oude manier" zou heel vertragen werken, omdat dan ook bij verwijderen het hele blok leegmaken zou betekenen.
dat heet garbage collection en het is niet hetzeelfde als trim, hoewel het effect wel hetzelfde kan zijn.
Mijn ervaring met RAID 5 (cheap RAID 5: 2+1) met 3x OCZ's 60GB Agility op een Intel X58 bordje met die dos-based garbage collection was redelijk slecht:

Het ging twee maal goed, waarbij de schijven bijzonder traag werden en het setje na de derde keer niet meer gezond was.

Nog geprobeerd te rebuilden na de SSD schoon te vegen (twee pogingen, kill disc op een SSD durfde we niet) waren helaas niet succesvol.

Wellicht is het tegenwoordig met nieuwere controllers en / of firmare van Intel ICH10R's en de SSD's een ander verhaal, maar ik zie het toch liever via TRIM gebeuren.
TRIM commando in raid werkt toch zowiezo (nog) niet?
zie hier het tegendeel:
nieuws: Intel publiceert trimdriver voor raidconfiguraties
Maar dat is volgens mij wel de enige, en ik weet vrij zeker dat deze kaart geen intel matrix raid gebruikt.
Dan zou ik als ik jou was die post nog maar eens goed lezen ;)

De driver ondersteund TRIM op SSD's die onder 'raid' hangen op controller niveau, maar zelf geen deel uitmaken van een raid. Saillant klein, maar o zo belangrijk detail dat door de meeste mensen over het hoofd wordt gelezen
In Windows 7 en meeste Linux versies wel.
Dus als ik het goed begrijp gaat je performance naar beneden indien blokken ongeformateerd opnieuw worden beschreven. Dit betekend dat als de snelheid 1000MB/s lezen is dat dit 1000MB/s blijft indien er geen TRIM commando gegeven wordt of de SSD het niet ondersteund. Als het schrijven met 900MB/s een performance verlies heeft van 50%, oftewel 450 MB/s, dan is dat altijd nog een dikke factor 2 sneller als mijn huidige SSD. En tov een normale 'ouderwetse' HD is het altijd nog een factor 4 sneller (dus niet 4% sneller, gewoon 400% sneller). Bij het starten van mijn PC irriteer ik mij ondertussen aan de langzame BIOS....

Ik snap dan ook niet dat mensen zich zo doodstaren naar het TRIM commando. Ik heb zelf 2 SSD HDs thuis draaien en voor mij zijn de oude HDs absoluut verleden tijd als system drives.
Ik snap ook niet dat mensen zich druk maken om TRIM ondersteuning.
Ik heb een RAID0 set met 2 Intel X25M's G2 160GB en deze doen nog niet eens aan overdadige garbage collection (en omdat ze in RAID staan heb ik geen TRIM).
Echter heb ik de drives nu zo'n 10 maanden in gebruik en is de performance drop na 3 maanden gestagneerd tot een percentage van slechts 3-4 %.

Bij de nog nieuwere generatie SSD's (a la Vertex 2) is de degradatie nog minder dan 3%, aangezien deze wel aan garbage collection doet.

Het lijkt erop dat er ten tijde van de 2de generatie SSD's een aantal sciptkiddie's hier heeft geroepen dat ze er geen willen omdat deze in RAID nog geen TRIM ondersteuning hadden (of uberhaupt nog geen TRIM) en er daarom geen gingen kopen. Dat dit is overgenomen door het gros wat dit vervolgens ook als excuus gebruikt om SSD af te kunnen keuren (Dat noemt men benijden).
Er is in erg veel reviews uitgebreid ingegaan op performance degradation en dit valt bij hedendaagse SSD's echt reuze mee.
En dan klopt inderdaad wat hierboven word gezegd... als ik een SSD setup heb in RAID0 die 823% sneller is dan mijn oude setje Harde schijven dan is deze na een paar maanden gebruik zonder Trim ondersteuning nog steeds 820% sneller.
Die geringe marge aan verloren prestaties heb ik Januari van dit jaar al voor lief genomen en met veel vreugde een RAID set SSD's gebouwd (waar ik nu nog steeds zwaar over tevreden ben).

--

Om even meer on-topic op het Angelbird / Wings product in de gaan....
Hierboven zij iemand dat je, je eigen SSD's kon gebruiken op dit apparaat.
Waar maak je dat uit op?
Als dit kan, wil ik namelijk best nog een setje van mijn zelfde SSD's bij kopen om 1000 MB/s random read te ervaren. :)
Echter staat dit niet nadrukkelijk vermeld in de newspost en snij je, jezelf als fabrikant dan ook wel in de vingers lijkt me. (Performance freaks kopen dan juist enkel de controller kaart en een paar SSD's zoals de Vertex 2).

Edit:
Connecting your existing 2.5 inches HDD or SSD is also possible through our universal clip & couplers, included in every box.
Ah, dat is dus wel heftig. :)

[Reactie gewijzigd door Da_maniaC op 25 oktober 2010 14:06]

Allemaal leuk en aardig maar wie gaat er 200euro uitgeven voor 16gb? + uitbreidingen?

Het wordt tijd voor een bedrijf dat een soort van SD/cf/usb kaart controller uit brengt waar je 1x - 8x 8gb in kan proppen met ongeveer 8x30mb's snelheden. Uiteindelijk gaat het toch om de acces time.
LOL

Wat jij beschrijft bestaat dus al heeeeel lang, nog voor er SSD drives bestonden. (info en voorbeeld) Drie maal raden waarom dat soort oplossingen niet interessant zijn voor consumenten, juist ja, $$$$'s (en bij batterij op data kwijt O_o)

Verder is het zo dat *alle* nieuwe producten initieel duur zijn, en goedkoper worden naarmate ze ouder worden. Voor de eerste SSD schijven zoals jij die nu kent moest ook eerst de hoofdprijs worden betaald, Hell, voor mijn eerste cd brander (2x speed dingetje) moest ik al 800 gulden neerleggen, nu krijg je die dingen al gratis bij een rolletje drop bij wijze van.

[Reactie gewijzigd door Abomination op 25 oktober 2010 13:19]

dat bedoelt hij volgens mij niet, hij bedoelt een insteekkaart waar sd/cf kaartjes in kunnen, die zijn er ook al een tijdje trouwens. alleen per GB toch duurder als een SSD
Zo werkt het niet. Er bestaan plenty sata kaartjes met ruimte voor een aantal SD kaarten, maar die zijn verschrikkelijk traag. Juist ook kwa access.
Alleen jammer dat ik niet zie welke raid niveaus ondersteund worden. Raid 5 zoals eerder genoemd zou erg mooi zijn. Dan ben je bij een kapotte SSD niet meteen de hele array kwijt.

Daarbij vind ik dit een machtig mooi product. Een 16/32 GB boot schijf die met externe modules uitgebreid kan worden is erg slim bedacht. Op naar de computer zonder SATA en andere HDD kabels.
Snelheid schaalt lineair met het aantal drives, dus zeker geen raid 5. Raid 0 schat ik.
Lijkt me ook Raid0, volgens mij heb je namelijk een hele flinke controller nodig wil je 945MB/sec wegschrijven met RAID5.
SSD's zijn een heel stuk betrouwbaarder dan gewone disken gelukkig, maar als je zo'n oplossing aanschaft ga je volgens mij in eerste instantie niet voor de veiligheid/betrouwbaarheid maar keiharde performance :)

Wel zonde dat ze er geen PCIe x8 van hebben gemaakt, nu is de PCI-aansluiting de bottleneck ;)
Snelheid schaalt lineair met het aantal drives
Sequentiele snelheid wel ja. Helaas krijgen we geen cijfers over de random access snelheden, maar ik verwacht dat die juist *dalen*. Immers gaat het geheel steeds moeten wachten op de traagste disk in de array.

Ik ben wel heel benieuwd naar cijfers daarover BTW.
Ik vraag me ook af wat er gebeurd als je main-OS 32GB het loodje legt...

Gaat dan je hele array alsnog uit?
Het artikel is m.i. niet helemaal duidelijk:
Met een enkele ssd aangesloten zorgt de SandForce SF1222-controller voor leessnelheden van 285MB/s en schrijfsnelheden tot 275MB/s.
Wordt hier met "een enkele SSD" bedoeld de PCI-e kaart zelf of de PCI-e kaart + 1 SSD. Want als ik het artikel goed lees is de kaart zelf ook een SSD van 16 of 32 GB.
Die snelheden zijn met 1ssd ge´nstalleerd. En er staat dat er 16/32 gig aan cache op zit, tenminste dat is wat ik lees.
Die 16/32 GB is geen cache. Het is een apart SSDtje 'used for booting'. Dat zal op dat OSje slaan. Je snelle SSD RAID cachen op een langzamere single SSD is natuurlijk onzin. Waarom er 16 en 32 GB versies zijn is onduidelijk.
16GB is alleen net iets te weinig voor Win 7 (alleen ervaring met x64).
Leuk voor een Linux dus, maar waarschijnlijk is alleen de 32GB dus wat de meeste mensen willen aanschaffen.

Maar waarom je OS daarop zetten? Lijkt me juist iets waar je ook een disc fault tollerance wilt inbouwen. En ik neem aan dat dat dus niet gaat lukken.
Een creatief concept. Ik denk echter niet dat de markt zit te wachten op een spaar bij elkaar SSD. Je wil in een keer veel snelheid en koopt een dure. Een beetje snelheid en dan koop je een goedkope of iets er tussen in. Het lijkt mij niet echt praktisch. AL was het maar omdat dit een nieuw bedrijf is en als ik over 2 jaar denk aan het verdubbelen van mijn SSD, bestaat dit systeem dan nogwel?

Maar het vult vast een (klein) gaatje in de martk..
Het is een pcie x4 raid controller met ruimte voor 4x 2.5", niet meer en niet minder, je kunt er zelfs notebook magnetische schijven inhangen. Dus ook over 2 jaar sandforce 2 generatie schijven.
Als je meerdere kaarten aan elkaar linkt, kan je dan de lees/schrijf snelheid bij elkaar optellen? Indien ja, dan zit je op de 5GB/s, dat gaat richting de snelheid van intern geheugen. Leuk voor je swapfile :p
sequential read. Dus als je dan inderdaad 5 Gigabit wil lezen dan kan dat in een seconde.

Om het te vergelijken met geheugen moet echter de *random* read de snelheid van die van ram benaderen... en helaas die cijfers worden weer eens niet genoemd. Juist geheugen staat bekend om zijn random access tijden, vandaar de naam 'Random Access Memory'.
Op hun (best wel vette) website wordt de stapsgewijze snelheids verhoging omschreven als "Incremental Awesomeness"

:)
Die snelheid begint al gewoon in de buurt te komen van ddr geheugen. Najah de prijs is dan nog wel een stuk hoger. Als ik het geld had dan wist ik het wel. Opstart tijden bye bye! XD
RAM = Random Access Memory. Genoemde snelheden zijn bij *sequential* access. De vergelijking met DDR raakt dus kant noch wal.

Het is geen toeval dat alle cijfers die ze noemen op de site van DDRDrive (SSD van DDR gemaakt) *random* snelheden zijn, gemeten in IOPS. Dit is namelijk het grote voordeel van DDR.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True