Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 61 reacties

OCZ heeft tijdens de CES prototypes van zijn nieuwe Vertex 2-ssd's tentoongesteld. De nieuwe ssd's hebben dusdanig hoge doorvoersnelheden dat een sata 300-interface niet over genoeg bandbreedte beschikt.

De nieuwe ssd's van OCZ zijn slechts nog prototypes, maar de eerste cijfers zien er veelbelovend uit. Tijdens de CES demonstreerde OCZ de schijfjes aan Fudzilla, waarbij er sequentiële schrijf- en leessnelheden van respectievelijk 480MBps en 550MBps gehaald werden. Deze doorvoersnelheden, die ver boven die van andere ssd's liggen, worden mogelijk gemaakt door toepassing van een interne raid-opstelling van vier ssd's. Aangezien de gangbare sata 300-interface een doorvoersnelheid van maximaal 300MBps heeft, gebruikt OCZ een sata 600-interface, die voorziet in doorvoersnelheden tot 600MBps. In onderstaande afbeelding valt te zien dat bij blokgroottes van 16KB nog leessnelheden van meer dan 100MBps worden gehaald.

Meer details van de Vertex 2-ssd's heeft OCZ nog niet vrijgegeven. De nieuwe ssd's zouden aan het eind van dit kwartaal in de winkel moeten verschijnen, maar wat ze gaan kosten is ook nog onbekend.

OCZ Vertex 2-ssd's benchmark

Gerelateerde content

Alle gerelateerde content (27)
Moderatie-faq Wijzig weergave

Reacties (61)

Hiermee worden SSD's eindelijk echt interessant. Vooral als de random read/writes ook nog snel zijn.

Voorheen was een WD Raptor nog altijd een hele goede keuze als je een snelle schijf wilde, maar hier kan hij toch echt niet meer tegenop...

@bokkow - bekijk de review die packman vermeld eens, dan zie je dat raptors vergelijkbaar presteren, echter heb je wel 150GB voor 150 euro. Voor een snelle SSD betaal je meer dan het dubbele per GB. Dus of de prijzen moeten omlaag, of de prestaties omhoog willen SSD's een goed alternatief worden voor desktop PC's.

[Reactie gewijzigd door knirfie244 op 12 januari 2009 14:48]

ALS de random read/writes ook nog eens snel zijn....

En bij welk merk hadden we ook al weer de grootste problemen met random writes? Juist ja... bij OCZ. En het zou me uitermate verbazen als dat bij deze SSD's zou zijn opgelost. (En dan druk ik me nog heel voorzichtig uit... ;) )

Laten we wel wezen... De huidige snelheden van SSD's zijn hoog genoeg, maar de uiteindelijke prestaties van de OCZ SSD's worden volkomen teniet gedaan door dat random writes gekloot. DAT is iets wat ze moeten verbeteren. (En het kan, zoals Intel al bewezen heeft) Dat ze niet hoog van de toren schreeuwen hoe fanstastisch de random writes bij de nieuwe serie zijn, zegt mij al wel weer genoeg....
De slechte random write prestaties komen overigens niet alleen voor bij de ssd's van OCZ. Bijna elke geheugenmodulebakker wil tegenwoordig meedoen in de markt voor ssd's en aangezien hun core business het assembleren is van printplaatjes moet je niet veel r&d van dit soort bedrijven verwachten. Zo kopen ergens een controller en reference design in en ontwerpen er een eigen sticker bij.

Ik heb o.a. ssd's getest van Memorycorp en A-Data. Vergelijkbare specs als de OCZ Core2, vergelijkbare problemen. De ene fabrikant zal wellicht wat snellere flashchips gebuiken dan de andere, de fundamentele beperkingen van flashgeheugen worden daarmee niet verlegd.

OCZ lijkt met de Vertex de goede kant uit te gaan. Zonder goede benchmarks te hebben gezien wil ik echter niet te vroeg gaan juichen.

[Reactie gewijzigd door Femme op 12 januari 2009 18:27]

hmm m'n reactie even gewijzigd.. en wat doorgedacht :)

maar toch nog: de vertex II moet snel zijn maar :

als ie veel kleine wijizigingen moet schrijven en dat nu al per io > 100ms is, dan is dat als ie intern bijv 4 delen in raid 0 heeft toch nog altijd > 25ms...

nog niet echt super toch?

[Reactie gewijzigd door hatex op 12 januari 2009 19:54]

Hoeveel van je normale dataverkeer is eigenlijk sequentieel? En bij hoeveel van dergelijk dataverkeer is doorvoersnelheid werkelijk belangrijk?

Als je een bestand van 10GB kopieert is het leuk als ie iets sneller klaar is, maar wachten moet je tóch. Maar bij een office applicatie of een spel is een hik in de random I/O tijd veel duidelijker merkbaar en storender.
Hoeveel van je normale dataverkeer is eigenlijk sequentieel? En bij hoeveel van dergelijk dataverkeer is doorvoersnelheid werkelijk belangrijk?
Je schijven defragmenteren verbetert de blokken die sequentieel ingelezen kunnen worden. Maar het probleem daarbij is dan weer als er een nieuw request tussen kruipt je weer wat tijd verliest. Doch is een SSD véél sneller in random IO's dan een HD daar er geen mechanische verplaatsing moet gebeuren.
Als je een bestand van 10GB kopieert is het leuk als ie iets sneller klaar is, maar wachten moet je tóch. Maar bij een office applicatie of een spel is een hik in de random I/O tijd veel duidelijker merkbaar en storender.
Als het kopieren dubbel zo snel gaat ben ik toch blij hoor. Want grote bestanden kopieren legt meestal beslag op je machine. Je hele IO zit in verzadiging dan, dus werkt je systeem zo ontzettend traag... Als je een bestand zipt kan je een tweede core gebruiken om verder te werken, maar als je IO dicht zit dan kan je niets meer doen.
Overigens is bij een spel meestal zo veel mogelijk in het RAM geladen zodat je geen IO problemen krijgt.
Je schijven defragmenteren verbetert de blokken die sequentieel ingelezen kunnen worden. Maar het probleem daarbij is dan weer als er een nieuw request tussen kruipt je weer wat tijd verliest. Doch is een SSD véél sneller in random IO's dan een HD daar er geen mechanische verplaatsing moet gebeuren.
Flashgeheugen heeft (vergeleken met een harde schijf) inderdaad erg snelle leestoegangstijden, maar de responstijd voor het uitvoeren van kleine wijzigingen in reeds geprogrammeerde blokken is erg slecht. Je moet dan denken aan gemiddelde wachttijden per I/O van ruim boven de 100ms voor mlc-geheugen. Dit is hét probleem met flash-ssd's en de reden waarom alle ssd's met de beruchte JMicron-controller zo slecht presteren, ondanks indrukwekkende sequentiële transfer rates. Zodra er gegevens in blokken gedeeltelijk gewijzigd moeten worden dondert de performance van flash in elkaar. Alleen de betere controllers weten hier goed omheen te werken.

De random I/O-prestaties van ssd's zijn dus niet per definitie beter dan van harde schijven.
Precies mijn punt !

Daarom zou ik ook graag op SSD schijven zien aangegeven hoe ze op DIT punt presteren. De rest van de specs van de meeste SSD's zijn in veel gevallen al meer dan genoeg voor de gemiddelde gebruiker.
Hoeveel van je normale dataverkeer is eigenlijk sequentieel? En bij hoeveel van dergelijk dataverkeer is doorvoersnelheid werkelijk belangrijk?
Ik durf geen uitspraken te doen over percentages, maar uit analyses van traces van workloads en prestatievergelijking van deze workloads weet ik wel dat handelingen zoals het booten van Windows en het starten van applicaties en games voor hun prestaties sterk afhankelijk zijn van een lage toegangstijd. Daarbij zijn zowel een lage leesresponstijd als een lage schrijfresponstijd van belang. Dit laatste is te bereiken met een raidcontroller voorzien van een effiectieve en grote hoeveelheid cache (Areca's presteren erg goed) en, in het geval van een ssd, een controller die goed om de manco's van flashgeheugen heen werkt.

Het verwerken van data op hun desktopsysteem heeft logischerwijs relatief veel baat bij een hoge doorvoersnelheid. Meestal gaat het immers om vrij grote bestanden zoals muziek, foto's en films. Een write-back cache helpt hier ook goed.

Voor het eerste zijn goed presterende ssd's ideaal, voor het tweede zijn de voordelen van ssd's beperkt, ook omdat veel ssd's niet echt snel zijn in schrijven. Je kunt je data dus net zo goed op een harde schijf zetten en die eventueel in raid zetten als je betere prestaties of redundancy nodig hebt.
wel apart dat bij 16 en 32kb blokken de schrijfsnelheid hoger is dan de leessnelheid.
Niet echt, de controller zal waarschijnlijk cache geheugen hebben dus kleine schrijf acties worden daar tijdelijk opgeslagen, bij lezen heeft de cache geen invloed, vandaar dat schrijven waarschijnlijk sneller is bij kleine blokken.

Heb zelf ook 2 MLC SSDs in mijn machine en gebruik een Areca ARC-1200 met 128MB cache geheugen, op zekers dat ze sneller zijn dan welke SLC SSD met schrijven tenzij de buffer vol raakt (bij normaal gebruik bijna onmogelijk, alleen tijden grote kopieer acties)

De lees snelheid met 170MBps is het zelfde als de meeste SLC SSDs op deze manier heb je het beste van twee werelden.
Nou mijn inziens waren ze al interessant hoor, er zijn genoeg SSD te koop die in zowel Read/Write als in Acces Time sneller zijn dan de raptor schijven.

Enige probleem daarmee is dat ze nog zo verschrikkelijk duur zijn (want SLC), dat zal met deze prototypes niet veel anders gaan worden. Laten we daarbij hopen dat de huidige dure schijven goedkoper worden en daarmee echt interessant worden voor de doorsnee consument.
Zo enorm interessant zijn ze toch nog niet als je dit leest:
http://www.anandtech.com/...l/showdoc.aspx?i=3403&p=8
Als je je eigen link goed zou lezen dan zou je zien dat in het artikel andere SSD's gebruikt worden met een andere controller. Deze vertex SSD's gebruiken niet de JMicron controller.
Jawel, je kijkt hier naar MLC SSD's met JMicron controller idd zoals boven mij al gezegd wordt, MLC is kort gezegd de "langzamere" variant en de JMicron controller wordt overal vervloekt vanwege zn slechte Random IO prestaties.
Ze zijn wel degelijk interessant als je maar naar juiste SSD's kijkt en er zijn er sowieso al die beter presteren dan Raptor schijfjes maar prijs prestatie gewijs nog een beetje achterblijven.
Reviews cherrypicken kan iedereen. Erg interessant die SSD's :Y)

[Reactie gewijzigd door Bonez0r op 12 januari 2009 18:12]

Qua snelheid zijn er al een aantal SSDs die de Raptor behoorlijk vooruit streven (minstens net zoveel als een Raptor beter is dan een gewone HD). Het enige probleem, zoals iemand anders al aangaf, was de prijs per GB.

Je moet je echter niet blind staren op de doorvoersnelheid, er zijn zat SSDs die snel zijn (op papier), maar met een aantal mankementen kampen waardoor deze niet geschikt zijn als vervanger van een Raptor. De eerdere (huidige?) generatie OCZ schijven zijn bv. SSDs die niet echt geschikt zijn om je Raptor te vervangen, ook al zien de specs er super strak uit.

Ik wil eerst uitgebreide reviews zien van deze SSDs (van reviewers waar ik vertrouwen in heb, zoals Femme), voordat ik ga overwegen om iets dergelijks aan te schaffen.
Dit is geen bench vn een vertex 2.

Dit is de simultie/bench van 4 Vertex SSDs in raid-0 met cache disabled.

Dit om het potentieel van een eventuele Vertex 2 te laten zien. Want de vertex 2 zou een interne raid vn 4 Vertex controllers krijgen.

een medewerker van OCZ heeft dit reeds op diverse fora verklaard.

[Reactie gewijzigd door Deadsy op 12 januari 2009 12:20]

Dit is geen bench vn een vertex 2.

Dit is de simultie/bench van 4 Vertex SSDs in raid-0 met cache disabled.
Ik vind het wel heel erg verdacht dat de writes met kleine blocksizes sneller is dan die van reads. Daarom denk ik dat er stiekem nog ergens een cache zit die je niet kan disablen. En dat is helemaal erg, want dan kan je bij een powerloss al helemaal de hoop op het recoveren van gegevens vergeten, welk filesystem je ook gebruikt.
Sorry, maar dat is echt onzin. Caches zijn geen probleem voor file recovery na een crash. Natuurlijk ben je de data in je on-disk cache kwijt, maar dat is logisch. Die data was je ook kwijt geweest als de gegevens nog in het normale RAM staan. Het voordeel van data van RAM naar on-disk cache verplaatsen is dat de SSD daarna zelf die data kan wegschrijven zonder de CPU er lastig mee te vallen.

Om diezelfde reden hebben filesystems ook geen enkele invloed op dat soort dataloss. Data is pas veilig als 't gescheven is. Wat wel speelt is een risico op verlies van je filesystem structuren; raakt je disk ongeformatteerd bij een crash? Daarvoor is het belangrijk dat een eventuele cache geen write volgorde wijzigt. Dus de "write #1 complete" message in de journal mag niet geschreven worden voordat write #1 zelf is uitgevoerd. Deze eis geldt weer voor elke vorm van cache, in OS of on-disk.
Dit is geen bench vn een vertex 2.

Dit is de simultie/bench van 4 Vertex SSDs in raid-0 met cache disabled.

Dit om het potentieel van een eventuele Vertex 2 te laten zien. Want de vertex 2 zou een interne raid vn 4 Vertex controllers krijgen.

een medewerker van OCZ heeft dit reeds op diverse fora verklaard.
Dus als 1 Vertex 2 schijven bestaan uit 4 vertex schijven in RAID dan is dit toch wel een bench van Vertex 2. Je bevestigt dat zelf in je bericht.
ja maar eigenlijk nee.
Dit omdat nog er geen vertex 2 SSDs bestaan en ook nog geen echte specificaties bestaan.
Het is op dit moment niet meer dan een plan om 4 controllers in de Vertex 2 te duwen. Ik ga er zelf vanuit dat een vertex 2 met 4 controllers zelf nog iets sneller zal zijn dan deze bench.

Lees maar eens de reacties door, er zijn nu al mensen die denken dat dit de benches zijn van een echte Vertex 2 terwijl het puur een simulatie is van hoe een vertex 2 zou kunnen presteren.

Kijk zelf maar in het bericht, daar staat dat er prototypes waren en dat Fudzilla ze mocht aanschouwen -.- .
Dit is gewoon het standaard Fudzilla artikel wat voor de helft verzonnen is (zoals gewoonlijk). Derhalve had tweakers.net het beter kunnen verifiëren met OCZ.
Dan had er namelijk een kloppend artikel gestaan en had OCZ misschien nog wat meer info vrij gegeven.
Bv er zullen ook vertex 2 schijven met 2 controllers komen.
sata 600 interface... hoe lang duurt het voordat SSD's ook dit weer overschrijden? Nog geen half jaar denk ik zo! Zou men niet direct een snellere standaard maken?
Ik weet het niet. Laat ze eerst 300/600 maar betaalbaar vol maken. Voor industriele oplossingen is sneller misschien nog beter, maar de vraag daarnaar zal redelijk beperkt zijn lijkt me, gezien men eerst alles zal moeten herindelen om optimaal van deze snelheden gebruik te kunnen maken.

We hebben immers niets een aan schijf van 30 GByte voor 10 miljoen euro die 1 Byte/sec kan lezen/schrijven.

Laat ze eerst de grote SSD's maar betaalbaar maken, en de levensduur wat omhoog halen. Die snelheid beperken tot 600 vind ik prima. Dat is vlot zat.
Het is zelfs mogelijk dat de schijfjes nog wat beter presteerden als de bus nog breder was. Je hebt namelijk altijd wat overhead etc. waardoor de theoretische max (hier dus 600MBps) niet helemaal haalbaar is.
Dat is heel eenvoudig te realiseren, een SSD met 2x SATA probleem is alleen dat deze schijven voor servers zijn gemaakt en servers gebruiken meestal een printplaat waar de SAS connectors op zitten dus zou dit alleen voor workstations en extreem thuis gebruik een oplossing zijn.
Leuk als het sneller gaat tussen de schijf en de controller, maar als de rest van het systeem dat vervolgens niet kan verwerken schiet dat nog steeds niet op. Kan je beter eerst werken aan een lagere access time voor random writes en zo.
Duurt lang voordat alles uitgelijnd is.
Maaar....
windows 7 met (hopelijk) verbeterde SSD support
SATA-600 in Q2 2009 (q3 voor de mobo's gok ik)
en deze schijven

Het komt wel :)
Klinkt interessant, maar waarom zetten we ze dan niet zelf in een RAID? Zeker met wat kleine schijfjes is dat een goede optie, die willen nog wel eens goedkoper zijn.
Kun je er ook mooi RAID5 van maken, eventueel met hotspare. Zo heb je namelijk het hele idee in 1 package, gaat er iets kapot, dan hang je.
De rede is simpel, deze package neemt veel minder ruimte in dan een zelfbouw RAID oplossing en is denk ik ook net even zuiniger... als er een onderdeel uit klapt dan zal ook jouw RAID oplossing er uit liggen (athans als je voro snelheid gaat) tenzij je met een RAID 5 of iets dergelijks werkt maar dan komen de kosten denk ik wel weer erg hoog uit in vergelijking tot het geen OCZ hier heeft laten zien.

Voor zo ver ik weet maakt OCZ alleen consumenten producten en zullen ze dus deze oplossingen alleen maar brengen als ze dat tegen redelijke prijzen kunnen doen. Voor bedrijven zijn er al jaren solid state disk oplossingen die vaak nog wel sneller zijn als de schijven hier omschreven maar het probleem daar mee is dat een gewoon persoon deze gewoon niet kan betalen en dat bedrijven alleen als ze er echt geld kunnen verdienen door hun data access tijden omlaag te brengen dit soort dingen kunnen verantworden.

Een voorbeeld van mensen een reviewer die jouw idee al eens heeft getest en bewezen heeft dat het natuurlijk wel leuk is om zo iets te bouwen: linkje
Het kan natuurlijk wel en het is heel leuk om te doen maar ik denk dat het een stuk goedkoper gaat zijn om gewoon even op de OCZ implementatie te wachten. :)
Of het nou in in RAID gebruikt wordt of niet, een SSD blijft een doosje met meerdere geheugenchips. Als daarvan één kapot gaat, heb je sowieso pech, of er nou een RAID controller bij in zit of alleen maar een "gewone" controller. Volgens mij maakt dat bij een SSD helemaal niets uit...
In onderstaande afbeelding valt te zien dat bij blokgroottes van 16kB nog schrijfsnelheden van meer dan 100MBps worden gehaald.

Volgens mij worden er dan zelfs schrijfsnelheden van meer dan 300 MB/s gehaald. Het zijn juist de leessnelheden die instorten bij het lezen van kleine random blokken.
Een harddisk heeft toch ook cache? Als die uitvalt dan ben je ook wat kwijt. Maar dat kan nooit veel zijn.

Of ik heb iets niet begrepen?
Dit is volgens mij leescache, geen schrijfcache. Als je met schrijfcache werk, ben je idd de cache/buffer kwijt bij stroomuitval.
Dat is ook een schrijfcache, juist omdat schrijven gemiddeld meer tijd kost dan lezen. Maar dan nog maakt het weinig uit, want zoals hierboven al werd gezegd was de data ook weg als het in het RAM zat. De journal beschermt alsnog tegen een corrupt filesystem.
Het is altijd een leescache. Maar het hoeft absoluut niet een schrijf cache te zijn.

Bij de meeste schijven is het gewoon in te stellen of de harddisk cache ook als schrijfcache mag worden gebruikt.
Je kunt het inderdaad uitzetten. De prestaties worden dan wel minimaal gehalveerd. Het uitzetten van de write-back cache van een harde schijf is hooguit te adviseren wanneer er een raidcontroller met write-back cache wordt gebruikt.
Ik snap werkelijk waar niet dat de harddiskfabrikanten nog steeds niets hebben gedaan aan het ontwerp van de leesschrijfkoppen. Op magnetisch gebied wordt het keer op keer en doorbraak gedaan waardoor er nog meer opslag ruimte in het doosje is. Maar een keer een doorbraak op snelheidsgebied nee dat niet. Ik kan me voorstellen dat ze bijvoorbeeld een keer een disk bouwen met een dubbele schrijf-lees arm. Die zou theoretisch 2x zo snel kunnen zijn. Tot nu toe zit de hele ontwikkeling van harde schijven in het samenpersen van magnetische informatie, maar nooit in het mechanische ontwerp, dat is al zo oud als de harddisk zelf. Ronddraaiende platter(s) met 1 koppenarm met x koppen. Terwijl er toch op een ronddraaien cirkel minstens 2 armen kunnen zitten die elkaar nooit (per ongeluk) kunnen raken. Met zo'n ontwerp zou je volgens mij in een keer een enorme snelheidswinst kunnen halen. Zo'n schijf zal ongetwijfeld een stukje duurder zijn, maar dat is (gezien de populariteit van raptor schijven) toch niet zo'n probleem.
Ik geloof dat je het hele verhaal van perpendicular recording hebt gemist, dat was wel en kleine revolutie op harde schijfgebied en dankzij die uitvinding kunnen we nu al 1,5 TB op een 3,5" schijfje kwijt. Maar het is al moeilijk genoeg om de huidige schijven betrouwbaar te houden, helemaal met dubbele koppen enzovoort.
Ik geloof dat jij niet snapt wat perpendicular recording inhoudt... Het is namelijk precies als ijmert zegt, gewoon weer een manier om nog kleinere bits te schrijven. Maar het doet inderdaad niets aan het mechanische ontwerp.
Zullen we maar zeggen "eindelijk!".
Sinds jaren wordt de snelheidskloof tussen HDD en RAM almaar groter. Nu toch ineens een aanzienlijke inhaalbeweging.
Maar we zijn er nog lang niet natuurlijk.
Zullen we maar zeggen "eindelijk!".
Sinds jaren wordt de snelheidskloof tussen HDD en RAM almaar groter. Nu toch ineens een aanzienlijke inhaalbeweging.
Maar we zijn er nog lang niet natuurlijk.
Ik snap niet waarom je een vergelijking maakt tussen HDD en RAM. Het zijn 2 verschillende onderdelen die voor 2 verschillende dingen gebruikt worden.

RAM -> 'kleine' hoeveelheden data die snel beschikbaar moeten zijn en snel veranderen
HDD -> massa opslag voor data die wat langer bewaard moet blijven.

Een HDD gebruiken als RAM?? Dat lijkt me niet echt handig aangezien dat altijd nog over een bus moet die veel trager is dan de directe interconnects tussen cpu en geheugen zoals die er tegenwoordig zijn.
Je verteld niets nieuws. Freeco heeft gelijk. Vroeger in de AT tijd had je gehuegen met 150ns access time en schijven b.v. een 20MB IDE harrdisk met access tijden van rond de 50ms. Toen was het verschil grofweg een verschil van 333 dus.

Ga je deze waarden uitzetten tegen huidige waarden dan kun je stellen dat de snelste harrdisk een factor 8 sneller is geworden qua access tijd tov de oude schijf. Het gehuegen is vele malen sneller geworden dan een factor 8. Hier heeft freeco dus een punt. De meest ideale situatie zou zijn dat de harddisk net zo snel is als het geheugen maar dat is praktisch door technische beperkingen (nog) niet mogelijk. Hoe meer dit naar een 1 op 1 verhouding neigt te gaan des te idealer. Dat ze functioneel tot een ander doel zijn bedoeld boeit niet.

freeco zegt niet dat ie de harddisk wil gebruiken als Ram. Hij zegt alleen dat hij het toejuicht dat de snelheden verhoudingsgewijs dichter bij elkaar komen te liggen.

De Bus waar jij het over hebt en ik neem aan de PCI-e bus is heden ten dagen ook niet echt traag te noemen. Daar kan via een PCI-16 2.0 ook 512MB /sec over heen. De memory bus in bv een c2d systeem haalt misschien 8GB en is sneller dan de PCI-e bus. Maar is in wezen ook een langzame interconnect als je naar puur CPU - L1+L2 cache throughput kijk waar jij het over hebt.
De meest ideale situatie zou zijn dat de harddisk net zo snel is als het geheugen maar dat is praktisch door technische beperkingen (nog) niet mogelijk.
ik denk dat als die dag ooit komt het RAM geheugen naar de vuilbak gezwierd gaat worden en waar we dan vol nostalgie en ongeloof met de volgende generatie babbelen .
Vroeger had ik een 128kb ramdisk omdat mijn XT mey 768kb RAM was uitgerust. Echt een beest van een machine! ;)
De Bus waar jij het over hebt en ik neem aan de PCI-e bus is heden ten dagen ook niet echt traag te noemen. Daar kan via een PCI-16 2.0 ook 512MB /sec over heen. De memory bus in bv een c2d systeem haalt misschien 8GB en is sneller dan de PCI-e bus.
Over een PCI-e x16 bus past in theorie 4GB/s , nu zal dat in de praktijk wat lager liggen, maar de bandbreedte is zeker hoger dan de 512MB/s die je noemt.
Kijk hier :

http://en.wikipedia.org/wiki/PCI_Express

In de bovenste tabel staat toch echt 512MB/s datarate voor PCI express 16 2.0. Ah das per Lane dus idd het is dus niet 4GB maar zelfs 8GB/s voor een 16 x slot.

@thekip

Dan is het verhaal helemaal rond want dan is de PCI express bus in staat om wel degelijk geheugen snel af te handelen immers een gewone P35 chipset of X48 chipset haalt in de praktijk ook ca 8 - 10GB.
Freeco vergelijkt HDD ook niet met RAM. Hij bedoelt dat het RAM geheugen (net als vele andere onderdelen in de computer) in de laatste jaren een vele grotere factor sneller zijn geworden dan Harddisks.
De vergelijking is wel op zijn plek, ook al zijn de functies anders, ze beïnvloeden elkaar wel, RAM functioneerd als buffer tussen de HDD en de processor, terwijl het RAM en processor steeds sneller worden, bleef de hardeschijf toch behoorlijk achter bij de snelheden van de andere onderdelen. Hierdoor duurt het toch relatief lang om het RAM te vullen met de juiste gegevens.

Doordat de snelheid van de hardeschijven omhoog gaat is het geheugen minder snel vol, hierdoor kan het RAM ook zijn gegevens weer sneller ophalen en wegschrijven. De noodzaak voor grote hoeveelheden RAM worden mijns inziens toch minder noodzakelijk door deze ontwikkeling, daar de hardeschijf toch weer een factor 4 sneller wordt dan de huidige snelste hdd's.
Ik denk dat freeco bedoelt dat HDs een steeds grotere bottleneck vormt voor je systeem omdat de snelheidsgroei duidelijk achter is gebleven bij zowel RAM als Processor. Het is goed dat er iets van een inhaalslag plaatsvindt.
Even lopen zoeken hoor, maar sata-600 is volgensmij nog niet echt veelgebruikt, ik lees Q2 2009. Wat heb je dan aan deze ssd's in Q1? :)
Backwards Compatable met sata-II (300)?
Ook 300 MBps R/W is al best een vooruitgang, denk ik zo.
Nou permanent de volle 300 MB/s voltrekken is ook niet verkeerd, altijd fijn om te weten dat als je eenmaal een SATA-600 controller krijgt het nóg sneller zal gaan.
Dit zijn prototypes, in Q2 kun je ze ws. gaan bestellen/gebruiken.
Bij OCZ gaan ze wel héél hard, de Vertex "1" moet nog uitkomen! De verwachting is dat die deze week uitgeleverd gaan worden...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True