PhotoFast bouwt ssd met leessnelheid van 750MBps

PhotoFast, een Taiwanese fabrikant van computeronderdelen, heeft een solid state drive uitgebracht die via pci-e met de computer communiceert. Dat zou een forse snelheidswinst ten opzichte van sata-drives opleveren.

Het Taiwanese bedrijf PhotoFast, dat afgelopen zomer een zelfbouw-ssd op basis van sdhc-geheugenkaarten presenteerde, wil nu het zakelijke segment bedienen. De nieuwste ssd van het bedrijf, die met een pci-express x8-interface is uitgerust, heet voluit 'G-Monster-PCIe SSD' en zou op imposante prestaties kunnen bogen. Photofast volgt met zijn drive in de voetsporen van OCZ, dat tijdens de Cebit-beurs eveneens een ssd met pci-express-interface demonstreerde.

Volgens de specificaties zou een G-Monster-kaart een leessnelheid van 750MBps kunnen halen, terwijl de schrijfsnelheid daar met 700MBps niet ver bij achterblijft. Die snelheden zouden onder meer mogelijk gemaakt worden door een hardwarematige raid-controller en het ingebouwde cache-geheugen. Volgens de makers kunnen de drives met zowel mlc- als slc-geheugen worden uitgerust, waarbij de capaciteit met het eerstgenoemde geheugentype maximaal 1TB zou bedragen. De pci-express-kaarten zouden ongeveer 680 gram wegen en 230mm lang zijn. PhotoFast maakte nog geen prijzen voor de G-Monsters bekend, maar volgens Fudzilla zouden ze voorlopig alleen in Japan verkrijgbaar zijn.

PhotoFast pci-express ssd

Door Willem de Moor

Redacteur

26-03-2009 • 17:14

62

Reacties (62)

62
59
10
6
0
0
Wijzig sortering
FusionIO levert al een tijdje de ioDrive met vergelijkbare specificaties. Van dat ding kun je alleen niet booten, dus is het minder geschikt voor in een consumenten systeem. Een drive met deze prestaties lijkt me juist ideaal om Windows op te dumpen.
Ik denk dat je al heel veel winst kunt boeken door de de swap file van om het even welk besturings systeem er op te zetten.
Het geen mensen steeds maar lijken te vergeten is dat er altijd een tussen weg bestaat, je hoeft niet alles helemaal maar op SSD's te zetten voor een film of foto's is een SSD overkill en gewoon veel te duur zet dat nu maar gewoon op een harddisk. Een swap file of andere veel gebruikte bestanden waar je regelmatig veel leest en schrijft hebben veel meer aan een snele opslag.

Dit sort systemen hebben alleen nut als je ook echt gebruik maakt van de hogere snelheid die ze je bieden, en vaak gaat het de eindgebruikers niet zo zeer om de data snelheden (750MB/s is best lastig te verwerken voor een Quad core CPU) maar meer om het aantal iops. Het geen namelijk veel intresanter wordt als je naar grote systemen kijkt is niet hoveeel data kun je verplaatsen maar meer hoeveel operaties kun je uitvoeren op deze data.
Een database zal zelden meer dan 100MB/s te verwerken krijgen (als dat al gebeurt) maar een beetje database kijkt toch al snel tegen enkele honderden iops aan. Een database die het echt druk heeft zal erder tegen de duizenden aan zitten.

Het product dat jij noemt is voor nog een stapje hoger enkele tien duizenden iops en dat is pas waneer deze systemen echt handig worden, voor het booten van windows is het vrijwel niet nuttig, de snelheids winst is te verwaarlozen ten opzichten van de kosten voor de producten.
Bedenk je maar eens als je zeg, 50 seconde per boot cycle wint hoeveel boot cycles je nodig zou hebben om er 1000,- mee te besparen? En deze producten worden niet voor maar 1000,- meer verkocht, meer een paar duizend meer.
Zet dan het OS op de SSD en maak een ramdrive met de swapfile. Een swapfile op een SSD lijkt me niet handig wegens de nog steeds beperkte 'schrijf-acties', die bij een swapfile flink kunnen zijn.
een ramdrive met een swapfile???

een swapfile is toch bedoeld om te dienen als extra werkgeheugen?

:D
Niet helemaal. Ga maar eens flink Googlen, er is best het een en ander over te vinden. Windows zonder pagefile is over het algemeen geen feest. Al heb je nog tig gig RAM vrij, je pagefile wordt toch gebruikt door Windows. En flink.

Hoe het bij andere OS'en is durf ik niet te zeggen.
Mogelijk zou ik met een swapfile veel meer kunnen draaien, maar ik wijt dit gewoon aan een gebrekkig geheugenbeheer van Windows
Onzin. Je hebt hoogstwaarschijnlijk gewoon last van geheugen fragmentatie. En dat komt voronamelijk omdat jij er voor gekozen hebt je swapfile uit te zetten. Zonder swapfile loop je gewoon véél sneller tegen dat probleem aan. Dat probleem zou je onder elk ander OS ook hebben, omdat zo ongeveer elk OS je swapfile gebruikt om "online maintenance" op je geheugenruimte uit te voeren.
en weiger gewoon windows een swapfile te gunnen: het maakt uw systeem gewoon waanzinnig trager omdat ze in Redmond blijkbaar nog nooit een cursus geheugenbeheer gevolgd hebben...
Heb je ook nog enige onderbouwing voor die onzin?
Andere OS'en hebben een ander geheugenbeheer. Zo zijn/waren er unix varianten die u verplicht(t)en van een swappartitie (geen swapfile dus) aan te maken.
Het verplicht stellen van een swappartitie levert je geen enkel voordeel op. Het maakt je alleen een stuk minder flexibel.
En met het geheugenbeheer zelf heeft het al helemaal geen zier te maken. Dat staat volledig los van de manier waarop je een swapfile ergens parkeert.
Proberen om commentaar te geven op anderen is niet zo handig als je niet echt weet waar je het over hebt.

"Swap file" is maar een van de technieken die gebruikt worden in memory hierarchies. Sneller geheugen is duurder dan langzamer geheugen; daarom heb je maar een paar kilobyte L1 cache. Harddisk ruimte was traditioneel goedkoper dan RAM, en vandaar dat swap partities (en later swap files) populair werden.

Swap partities hadden (en hebben) wel degelijk voordelen ten opzichte van swap files. Het management ervan is een stuk trivialer, wat helpt om de toegangstijd te beperken.

Geheugenfragmentatie treedt op in het virtuele geheugen. Dat kunnen dus bytes in je L1 cache zijn, je DDR, of zelfs bytes in je swap file. "Online maintenance" bestaat niet (meer). Als mijn programma een byte op adres 0x44504451, en een andere op 0x44504453 heb staan, dan kan het OS dat gat niet vullen door de tweede byte te verschuiven. Vroeger (Mac OS9 / Windows 3.x) kon dat nog wel, maar die hadden dan ook geen virtueel geheugen.

De tip on Windows XP geen swapfile te gunnen is wel degelijk zinnig. Als je genoeg RAM hebt - dat wil zeggen dat elke byte van je programma's in RAM opgeslagen kan worden, op elk moment - dan is er geen enkele reden om die bytes naar harddisk te schrijven. Toch doet Windows XP dat. Erger nog, omdat XP (in tegenstelling tot Vista) geen IO scheduler heeft vertraagt dat nodeloos swappen andere programma's. Onder Vista is de situatie beter. Er wordt weliswaar preemptief geswapt, maar die bytes worden niet uit RAM verwijderd en de writes zijn low-prio.
Dat zie je verkeerd, je kan wel via iodrive booten. Alleen is er nog geen firmware beschikbaar.
Anoniem: 111246 26 maart 2009 17:20
Doet me denken aan die PCI RAM drives van vroeger.
Ook zo'n insteekkaart die je vol kon proppen met geheugenreepjes.

Eigenlijk is er niet zo heel veel veranderd als je het zo vergelijkt, princiepe blijft hetzelfde.
't is nog steeds een insteekkaart, daarop zit geheugen gesoldeerd (ipv te verwijderen), grootste verschil is alleen dat de data bewaard blijft na een powercycle.
Het wezenlijke verschil zit hem met deze kaart voornamelijk toepassing.
PCI RAM werd veelal als extensie van het interne geheugen gebruikt of als een soort ramdisk (Vluchtig geheugen zoals dat mooi in het NL heet).
Deze kaart kan als vaste disk gebruikt worden, wat het bijvoorbeeld uitermate geschikt maakt voor high-end database toepassingen. (Hiermee is een ongekende hoeveelheid Disk-IO mogelijk wat ideaal is voor zwaar belaste OLTP systemen)
Die kaarten haalden enkel hun voeding uit het PCI-slot. De data ging gewoon over SATA, je moest er dan ook een kabeltje aan doen.
PCI-E 8x is 8 maal 250MB/s. 2GB/s is dus de maximum doorvoer. Ze hadden dus net zo goed een 4x interface kunnen gebruiken, of is het dan niet een 8gbit symmetrische verbinding?
als ik het plaatje bekijk lijkt het ook veel meer op een 4x interface als een 8x....
een 8x zou na het eerste stukje half zo groot moeten zijn als die op je videokaart maar dat is niet het geval volgens mij.

het eerste gedeelt is bij alle pci-e sloten even lang, wat daarna komt is afhankelijk van de bandbreedte.
een 1x slot is bijna precies de helft van dat eerst gedeelte.
http://www.multimediapc.n...X%20Mini%20PCI-e%201x.jpg
bij deze kaart pas het voorste gedeelte ongeveer 2 keer in dat achterste, en zou het dus een 4x slot moeten zijn.

[Reactie gewijzigd door Countess op 26 juli 2024 07:41]

Dat betekent alleen maar dat je em ook in een open-ended 4x-slot kunt steken als je geen 8x of 16x over hebt. Mocht wel een sneller slot hebben voor deze kaart, dan heb je in elk geval wel de burst-rate van 2GBps. Tenminste, het lijkt me dat daarvoor een "te" snelle interface gekozen is. 16x zullen ze dan niet gekozen hebben omdat dat ongebruikelijk is in servers.
PCIe 8x is weliswaar 2GBps maar alleen als je die data netjes met een constante flowrate kunt aanleveren. Als je data echter in blokken beschikbaar komt met daartussen pauzes, dan wil je een hogere piekrate hebben.
Dit klinkt wel heel interessant, maar wie zich iets meer verdiept in SSD technologie moet toch weten dat de maximum lees- en schrijfsnelheden eigenlijk niets zeggen en dus alleen maar marketingpraat zijn.

Zie bijvoorbeeld hier voor een uitgebreide test van SSDs. Je zult zien dat hoge sequential read en write snelheden (waar ze het hier over hebben) zeer zeker niet garant staan voor een snelle schijf voor praktische doeleinden.

http://www.anandtech.com/storage/showdoc.aspx?i=3531
Het grote probleem met Anandtech's review is dat hij uitgaat van HDD filesystemen. Omdat er geen leesfragmentatie bestaat op flash, kun je alle writes in theorie sequentieel doen. Als je files A en B dan tegelijk schrijft, dan eindigen ze als ABABABABAB op disk in plaats van AAAAABBBBB. Dat is niet erg voor flash, want A A A A A lezen is (praktisch) net zo snel als AAAAA lezen. Dit soort optimalisaties zit niet in (Microsofts implementatie van) FAT.
Het is me niet helemaal duidelijk wat je hiermee bedoeld. Als je op dit moment een ssd wilt gebruikt onder Windows ben je aangewezen op een bestandssysteem dat is ontwikkeld voor harde schijven. Dit werkt in principe prima. Het grootste is nog wel ontbreken van een methode om ssd's op de hoogte te brengen van gegevensblokken die door het verwijderen van een bestand ongeldig zijn geworden. Het ontbreken daarvan zorgt er op dit moment voor dat ssd's de vrije ruimte niet goed kunnen beheren.
Waarom bestonden er eigenlijk geen normale hardeschijve die aangesloten werden via pci-e.. of bestaan die wel?
Omdat sata ruim snel genoeg is voor een normale harde schijf. Verder zou je met raid de bandbreedte van sata wel vol kunnen trekken, maar daar heb je dan weer een raidcontroller nodig die wel weer voor PCI-express te verkrijgen is :).

Dit alles zou je samen kunnen voegen tot 1 pakket, maar ik geloof dat dat met harde schijven (bewegende delen enzo) toch echt niet praktisch gaat zijn en bovendien ook weinig meerwaarde heeft.
Omdat die de snelheid niet halen, ze halen nu al niet de sata300 snelheden. laat staan dat ze een rechtstreekse pci-e snelheid zouden kunnen halen.

verder wil je niet je pci-e sloten volstoppen met schijven, die wil je met een kabeltje aan je moederbord hangen. (ruimte)

maar voor ssd's is het wel handig, omdat die wel de sata300 snelheden kunnen overstijgen.

Dit is eigenlijk niks anders dan een raid controller op pci-e (die er al zijn) met op de kaart gelijk de hardeschijven gesoldeerd ipv met een kabeltje.

[edit] pci-x in pci-e veranderd :) die bedoelde ik namelijk. Dankje Umbrah

[Reactie gewijzigd door Elephtera op 26 juli 2024 07:41]

Volgens mij gaat deze kaart toch echt op PCI-E, PCI-X zie je steeds minder, ook in het zakelijke segment. Hoewel dat regelmatig ook niet echt op PCI-E zit te wachten, maar liever SAS of SCSI ziet.
Ecxuses voor de "dubbele" reactie, in de tijd dat ik nodig had het artikel te lezen waren bovenstaanden me reeds voor :)

----

Waarom wel, ze zijn zwaar en log. (lees vrij dik )
Bovendien zijn de huidige technieken voor dataoverdracht (SATA ed) ruim voldoende om de snelheid van reguliere hardeschijven bij te houden.

Deze daarentegen is veel sneller dan technisch mogelijk is via een SATA kabeltje.

[Reactie gewijzigd door procyon op 26 juli 2024 07:41]

Sterker nog, als de beloofde snelheiden waar zijn is het zelfs sneller dan de opvolger van SATA300, SATA600...

En ik vind het ook helemaal niet raar dat ze over gaan op PCI-E aansluitingen. Vrijwel elk nieuw mobo heeft het, het is snel en heeft een eigen voeding. En een SSD is klein en licht dus kan er makkelijk op. Zal me dan ook weinig gaan verbazen dat we meer PCI-E SSD's gaan krijgen.

Stiekem hoop ik er op, worden ze ook sneller betaalbaar ;)
Alleen jammer als die sloten vol zitten met GPU's en een geluidskaart. Er zal aardig wat moeten veranderen aan mobo-ontwerpen voordat PCI-e SSD's gemeengoed worden. Vooral in het begin, want de meeste consumenten die nu geld voor een SSD over hebben, hebben ook een SLI of CF opstelling.(Zakelijk natuurlijk veel minder.)
Servers hebben doorgaans geen losse geluidskaart of videokaart.
Hopelijk is het dan ook een extra impuls om GPU's kleiner te maken ipv van die mega dualslot dingen. Een van de redenen waarom dat gebeurt is omdat het kan en het nog steeds gekocht wordt. Als je het in SLI of Crossfire draait gebruik je soms 4 sloten. De meesten hebben er max maar 7 dat betekend dat er nog maar 3 over blijven. Beetje belachelijk eigenlijk lijkt mij? Hopelijk worden op deze manier PCI-E belangrijker en GPU's ook kleiner en efficienter opgebouwd.

En persoonlijk ken ik niet zo heel erg veel kaarten die op PCI-E aangesloten worden. De meeste standaard kaarten zijn nog PCI op GPU's, wat controllers na en hier en daar een geluidskaart.

Of je kan hopen dat Sata600 niet enorm mainstream wordt en ze direct over gaan op een hogere/snellere variant. (en dan maar hopen dat de ssd's daar ook niet snel voorbij stormen.)
Welke zakelijke server gebruiken SLI of Kruisvuur?
Ze richten zich op t zakelijke segment.
Ze zijn wel gek als ze dit niet voor mensen als gamers uitbrengen. Ik zit wel op dit soort dingen te wachten eigenlijk. Het zal in het begin vast prijzig zijn, maar als je een 700MBps SSD hebt is plotsklapts je harde schijf (bijna) niet meer de bottleneck.
Wel mooi dat het tegenwoordig zo snel kan.
Maar wat moeten we met die snelheden?
Ik kan niets bedenken dat iets met dezelfde snelheid kan aanvoeren, hierdoor heb je niks aan die snelheid.
als harde schijfen net zo snel worden als RAM geheugen heb je geen geheugen meer nodig, je processor weet echt wel wat die met deze snelheid aan moet
.oisyn Moderator Devschuur® @gbh26 maart 2009 19:03
Je vergeet latency. De weg naar het geheugen is via de interne memory controller op de CPU een stuk korter dan de weg over de PCI-E bus en door de raid controller naar het uiteindelijke flash mem.
Dat hoeft natuurlijk niet zo te blijven. Als RAM en HDD gecombineerd kunnen worden kan dat in de toekomst ook tot kostenbesparing leiden.
Ja, en als videokaarten en toetsenborden gecombineerd zouden kunnen worden ook ja. Maar .oisyn heeft gelijk, je bent vrachtwagens en Formule-1 auto's aan het vergelijken. Welke is sneller? En om 10 ton vracht te vervoeren?
Dus? De snelheidsverhoging moet toch ergens beginnen? ;)
Nou ik wel, aangezien in de meeste systemen de hdd juist een enorm beperkende factor is. Er wordt dan ook rekening mee gehouden, worden de HDD's sneller krijg je ook veel snellere programma's en gehele pc's. Maar zelfs als je deze ssd nu in je pc stopt zul je merken dat je pc een flink stuk sneller is ;).
Zolang de HD nog de flessenhals is, mag die speed nog wel hoger.
Hier mogelijk ze van mij nog wel even flink op door ontwikkelen, klinkt erg veelbelovend.

Maar denk dat deze modellen nog ver buiten bereik van gemiddeld tweaker ligt wat betreft de prijs.
Leuk om te zien dat we weer terug bij het begin van de desktop-hd's zijn. Vroeger (toen poep nog met de lange oe geschreven werd) waren er ook al zogenaamde hard card's waarmee je je computer met een harddisk kon uitbreiden.. In feite een MFM/RLL controller en harddisk op één full-sized ISA 8 bit kaart.
Anoniem: 47000 26 maart 2009 17:47
Begin van een nieuwe ontwikkeling?
Straks meer PCIe sloten op je mobo deze disk dan niet met het slot stripje er bij zodat de sloten ergens op een andere plaats op het mobo kunnen zitten. Dan zijn we van disks in de kast af en zit je disk dus op je mobo. Kast compacter, minder fans nodig (ik fantaseer maar ff hardop) flinke snelheden, steeds kortere communicatie lijnen CPU-geheugen-disk en omgekeerd. Mja, lijkt me wel wat. Ben alleen wel benieuwd of ze alles echt waarmaken wat ze beweren.
Dan heb je wel een beter mechanisme nodig om het zaakje op zijn plek te houden denk ik. Vergeet niet dat je deze kaart ook vastschroeft aan de kast. Verder zie ik je idee wel degelijk zitten - meerdere (verticale? van bovenaf gezien) PCIe sloten op de rechterkant van je mobo, misschien een beugel bijgeleverd (die vastklikt aan het mobo) waarmee je ze op hun plek kunt houden..
Heeft iemand een idee welke RAID chip ze gebruiken? Ik vraag me namelijk af hoe het zit me de driverondersteuning, vooral voor andere OS-sen dan die van Microsoft.
Waarom zou dit een RAID-kaart moeten zijn?
Die snelheden zouden onder meer mogelijk gemaakt worden door een hardwarematige raid-controller en het ingebouwde cache-geheugen.
...
Ja, dat is het ding intern. Desondanks kan hij zich bij het OS nog steeds als doodnormale SATA-controller aanmelden.
Voor zover ik kan vinden zitten er mogelijks zelfs twee JMicron RAID controllers in: link
Als het RAID-aspect intern wordt gehouden, dan denkt het OS gewoon dat je 1 grote disk hebt. Net zoals je voor 4 platters van je harddisk ook geen "platter driver" nodig hebt", die platters zitten feitelijk in een RAID-0 array.
Dat is eigenlijk niet waar. Deze platter worden 1 voor 1 gebruikt. Want anders zou een schijf met 4 platters ongeveer 4 keer zo snel zijn dan een schijf met 1 platter.

Op dit item kan niet meer gereageerd worden.