Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 55 reacties
Submitter: player-x

LSI heeft nieuwe SandForce-flashcontrollers aangekondigd. De SandForce SF3700 is de eerste controller die standaard ondersteuning biedt voor zowel pci-e- als sata-600-interfaces. De geadverteerde sequentiele leessnelheid bij pci-e bedraagt 1,8GB/s.

De SF3700-familie van controllers is de derde generatie van LSI's SandForce-lijn. Het gaat volgens LSI om de eerste controller-asic met standaard ondersteuning voor zowel pci-e 2.0 x4-interfaces als voor sata-600-interfaces, wat het voor ssd-fabrikanten makkelijker en goedkoper maakt producten in meerdere formfactors zoals M.2 te produceren.

Waar de voorgangers SF1200 en SF2200 nog op dezelfde architectuur gebaseerd waren, heeft LSI de architectuur van de SF3700 vanaf de grond af aan opgebouwd. De fabrikant komt met vier modellen: de SF3719 voor instap-ssd's, de SF3729 voor mainstreamproducten, de SF3739 voor de high-endmarkt en de SF3759 voor enterprise-toepassingen. Voor de instap- en mainstreammarkt is M.2 de geadviseerde formfactor gecombineerd met sata-600- en pci-e x2-interfaces, terwijl voor de hogere segmenten ook de pci-e x4-interface binnen handbereik komt en meerdere formfactors mogelijk zijn.

In combinatie met pci-e x4 zijn sequentiële lees- en schrijfsnelheden van 1800MB/s mogelijk, terwijl het aantal iops bij random reads en writes op respectievelijk 150K en 81k liggen. Bij gebruik van de sata 600-interface liggen deze waardes op respectievelijk 550MB/s, 502MB/s, 94K iops en 46K iops.

De SF3700-serie beschikt daarnaast over een nieuwe errorcorrectietechnologie Shield, die gebruikmaakt van verschillende algoritmes om een balans te vinden tussen prestaties en stabiliteit. Ten slotte zijn LSI's databeschermingsfunctionaliteit Raise en DuraWrite voor het minimaliseren van het aantal nand-writes geoptimaliseerd bij de nieuwe SandForce-generatie.

LSI SandForce SF3700LSI SandForce SF3700LSI SandForce SF3700LSI SandForce SF3700LSI SandForce SF3700LSI SandForce SF3700LSI SandForce SF3700LSI SandForce SF3700LSI SandForce SF3700

Moderatie-faq Wijzig weergave

Reacties (55)

Toch raar dat de organisatie achter SATA ondertussen niet eens met een opvolger is gekomen. er is al een aantal jaar duidelijk dat de sata-600 maximale snelheid is bereikt door SSD's. dan zou je verwachten dat een opvolger toch gauw moet komen (sata-1200?) maar daar hoor ik helemaal niets over. Erg jammer want nu zijn fabrikanten genoodzaakt om andere poorten te gebruiken terwijl ik mijn ssd toch liever gewoon via een sata aansluiting in een drive-bay wegleg.
Hiervoor hebben we de opvolger SATA-Express die via PCI-E werkt. Ik dacht dat de SATA Foundation het niet voor elkaar kreeg een rendabele en goedkope oplossing te ontwikkelen.

Dit had nog te maken met de beperkingen van de technologie.

Edit:
http://www.itproportal.co...ess-ngff-and-nvm-express/
Hier de link met uitleg ;-)

[Reactie gewijzigd door TheRealXistence op 19 november 2013 11:56]

Is ook een beetje opboksen tegen de storm voor mijn gevoel. De SSD markt groeit zo snel dat ze misschien wel binnen een niet al te langen tijd snelheden van RAM geheugen benaderen.

De manier waarop data dragers (lees: HD, SSD en optische schijven) worden gebruikt zouden die nooit zo snel kunnen zijn. De vuist regel is eigenlijk altijd geweest dat een systeem 'bijna de helft van de tijd' loop te wachten op IO van externe data dragers gaat dan niet meer op. Dus de beslissing om straks SSD 'virtueel' bijna direct aan het moederbord te hangen is dan de enige optie.
ze kunnen wel beter dan dit is mijn mening. als we kijken wat de organisatie achter USB heeft gedaan dan hebben ze vanaf USB2.0 -> 3.0 meer dan een verdubbeling gebracht. ik denk dat oraganisatie achter SATA de backwards compatibility 1x keer moeten laten varen. dan kunnen ze een beter schaalbare techniek neerzetten zoals dat in het verleden gebeurt is met AGP->PCI-e.

de rek van sata is er vermoedelijk ook al uit. en door SATA te verplaatsen naar de PCI-e bus ben je er denk ik nog niet helemaal.
Backwards compatibility houd SATA maar een beetje tegen (er is al SAS 6G dus binnenkort SATA 6G en SAS 12G is in ontwikkeling). Het doel van PCI-e is anders dan dat van SATA. PCI-e heeft eigenlijk geen kabellengte terwijl SAS tot 10m en SATA tot 1m toestaat. Dit levert heel andere problemen op dan een high-speed PCI-e oplossing. Als het allemaal zo makkelijk zou zijn, dan zou je overal een DIMM aansluiting op maken en blazen maar. RAM geheugen is nml. veel sneller dan PCI-e.
SATA is al die stap; de voorganger PATA liep al tegen de limiet aan. Alle moderne bussen zijn serieel: PCI-e, SATA en USB. De volgende vraag is hoe breed en lang je verbinding mag zijn. Dat heeft vrij directe invloed op je haalbare snelheden.

Als je vervolgens kijkt hoe snel SATA is met een beperkte breedte (4 pins) en ruime lengte (1.5m) dan doet SATA het gewoon niet slecht in vergelijking met PCI-e.
Wat ik me verder nog afvraag is of er limitaties in het besturingssysteem naar voren zullen komen als deze snelheiden steeds maar blijven toenemen.
Gaat meer snelheid eigenlijk wel een markt hebben straks vraag ik me soms nog meer af...

Het gros van de gebruikers is iemand die alleen wat mail wil checken en op Facebook post wat ze te eten gaan maken. Daar heb je echt geen 1,8GB/s voor nodig... Laten we hopen dat zoiets geen rem op nieuwe ontwikkelingen gaat zetten, maar daar ben ik wel een beetje bang voor.

Hetzelfde probleem zie je nu al bij XP gebruikers die de noodzaak niet zien om over te stappen.

-edit- Gb moest GB zijn

[Reactie gewijzigd door Verstekbakker op 19 november 2013 12:37]

Ik denk het eigenlijk wel. De huidige bottleneck is gewoon het aanvoeren van info voor de cpu. Dus ik verwacht dat als dergelijke ssd's gangbaarder zijn de cpu's ook een slag kunnen maken.
Uiteraard wordt de bottleneck nu opgevangen door cache en ram geheugen en zal een feestboeker weinig problemen ondervinden. Maar op gebieden waar grote stukken info continu aangevoerd moeten worden zoals Video kan zulke opslag juist wel voordelig zijn. En zo gaat het altijd, het begint met een product voor een niche markt waarna er mainstream toepassingen gevonden worden.

en mbt tot jouw xp opmerking. Dat zijn gewoon mensen die vastgeroest zitten in hun eigen tuin en niet zien dat het gras bij de buren met bijv Windows 7 veel groener is. Door dergelijke groepen moet je je niet tegen laten houden.
De enige reden om van XP naar windows 7 te gaan is als je hardware hebt die dat nodig heeft (en wellicht updates/EOL tegen virussen/0days). Maar functioneel voegt win7 niets toe.
IPv6 is toch wel een nuttige ontwikkeling, net als Unicode support. Als je strikt op jouw manier redeneert zou Windows 95 nog voldoen.
Winxp heeft ipv6 support, alsook Unicode.

Versies van windows <xp zijn ook instabiel (veel bluescreens etc) en hadden een slecht driver model en een slechte manier van geheugen management, wat onder andere betekende dat als een programma crashte, het hele systeem omviel en je kon rebooten.

XP was het eerste MS OS dat echt stabiel was en goed ge-organiseerd. Bluescreen waren de grote uitzondering, en alles voor een modernd OS zat erin. Qua gebruik/management was het niet alleen "good enough", het was gewoonweg "good". Iets wat je van ME/98se/98/95 NIET kan zeggen.

Zoals ik al zei, ware het niet voor hardware ondersteuning (usb3+, SSD's, pci-e etc), als XP gewoon nog ondersteund zou worden (driver updates en patches), dan zou XP als OS voor de grote meerderheid van gebruikers nog prima volstaan.

Sterker nog, in sommige opzichten (eigenlijk nu ik erover nadenk in vele opzichten) is het beter en gebruiksvriendelijker dan Vista/7 en zeker 8.
En Ontopic TRIM support in W7 is ook wel heel prettig.

Het enie wat ik me altijd afvraag bij nieuwe sandforce controlers: wat doen ze in de praktijk aan random read en write, stort de snelheid weer na een paar minuten pieken in (zoals bijvoorbeeld de vertex 2's).

Ik heb een SSD in m'n laptop voor het snelle opstarten en uit slaapstand komen. En een 1TB schijf voor massa opslag. Of een MP3tje of foto met 50MB/s of 500MB/s laad, het verschil merk je toch niet.
Voor veel mensen is Win95 ook echt wel voldoende, mits ze een moderne browser, email cliënt en tekstverwerker kunnen gebruiken.

Zelf draai ik W8.1 omdat:
  • 64GB geheugen heb
  • Windows 8 eindelijk een goede task manager heeft
  • SkyDrive werkt samen met mijn WP8.
  • Betere multi-monitor ondersteuning!
Maar ik ben een echte power user, en val eerder in de 0.1% categorie dan de 1% groep van power users, maar als Win95 nog steeds veilig was, en de minimale moderne applicaties kunnen draaien, zou het voor meer dan de helft van de mensen nog steeds meer dan voldoende zijn.

edit:
"Betere" toe gevoegd bij multi-monitor

[Reactie gewijzigd door player-x op 20 november 2013 09:35]

multi-monitor ondersteuning had Windows XP al, hoewel het voor maar 2 monitoren was...
Win7 heeft ook al een flinke multi-monitor ondersteuning, voor zover ik zelf heb kunnen testen tot 5 schermen.
ik heb multi monitor voor de eerste keer gebruikt in windows 98SE beta toen ik in een info file zag dat er support voor voorzien was. rap een PCI videokaart erbij en een oude 14inch CRT maar zo cool :)
IPv6 is nog nauwelijks nodig en de meeste routers doen het (nog) niet met IPv6. Verwacht hier geen verandering binnen 3 jaar. Unicode zit al in Windows95 dus dat is ook niet nodig. Dus idd. voor Email en Browser is Windows95 (zelfs Windows 3.11) voldoende.
Ziggo en UPC zouden dit jaar al overgaan op IPv6 maar hebben dat uitgestelt naar de zomer 2014, ruim anderhalf jaar geleden kreeg ik hier het nieuwe modem waar IPv6 al werkt, dus IPv6 komt er wel degelijk aan, om dan pas te upgraden op het moment dat een hoop sites niet meer werken...
Tja, ik zie veel gebruikers zoals mijn moeder (50+) die eigenlijk echt niet meer nodig hebben (en niet meer kunnen gebruiken) dan XP. De ontwikkeling van nieuwe, snellere dingen gaat gewoon sneller dan het uitsterven van die groep. Ergens moet toch wel een tipping point zitten?
De huidige bottleneck is dat niet. M'n oude AMD XP haalde aan effectieve geheugen bandbreedte in Sisoft al bijna 4GB/s het enige probleem was dat de CPU geen zin had om >2800Mhz te lopen (cpu bottle neck in dat geval). (met 166Mhz/PC2700 latjes @ 270Mhz 2-2-2-5 T1 enabled)

Video vereist een bandbreedte van een paar MB/s daarnaast zit in de meeste PC's tegenwoordig dusdanig veel wergeheugen dat er alvast een flinke lap video naar het werkgeheugen geladen kan worden. Voor huis tuin en keuken gebruik is de grootste bottleneck in veel gevallen niet de hardware maar de hoeveelheid bloatware die mee draait.

[Reactie gewijzigd door martijn_tje op 19 november 2013 18:36]

Vindt het een beetje karige casus.
Het gros van de gebruikers heeft niet eens een snelle HD nodig als ze Facebooken, want daar zijn bijna geen IO met een externe data drager gemoeid.

Gamers zijn er genoeg en power users die een sneller systeem willen dat vlot opstart en vlot bewerkingen kan uitvoeren.

Ik vindt de vraag verder wel relevant, maar niet in de context zoals jij het uitlegt.

Maar voor business is er in ieder geval altijd interesse. Als ik hoor, zie en lees over web servers met hele hoge traffic en gebruikers of onderzoek centra bijvoorbeeld voor het LHC en hoeveel performance daar nodig is, dan is het plafond nog langer niet bereikt.
Het gros van de gebruikers is iemand die alleen wat mail wil checken en op Facebook post wat ze te eten gaan maken. Daar heb je echt geen 1,8GB/s voor nodig...
Nee, maar je hebt er ook geen last van. En een systeem wat in een seconde opstart is natuurlijk nooit weg.
Je begrijpt mijn punt niet. Als er geen markt voor is, dan wordt er misschien ingehouden bij de ontwikkeling en heeft de speedfreak er dus last van dat het niet sneller gaat, of alleen tegen een hogere prijs sneller gaat. Snap je?
Volgens mij antwoorden de meesten een beetje in vaagheden hieronder ;)

Maar onder Linux blijkt het dus zo te zijn dat je tegen een maximum IOPS limiet loopt bij multi-core systemen. Lees deze "longread" maar : http://kernel.dk/blk-mq.pdf
Kijk, dat is goede info! Bedankt.
Ik denk niet dat de huidige SATA controllers zo maar twee keer zo snel gemaakt kunnen worden. De manier waarop een SATA controller de data aanlevert aan CPU en RAM is totaal anders als met PCI-E.
En het aantal controllers dat er nu al nodig zijn om data van SSD naar CPU te krijgen is ook vrij hoog. Ga maar na, een SSD is gewoon een heleboel losse geheugen chipjes die via RAID0 parallel hun ding doen. Dan zit er nog een disk controller tussen, daarna gaat het naar de sata controller en dan naar de CPU. Als je je geheugen chips via PCI-E kunt benaderen kun je in principe applicaties zelf rechstreeks toegang geven tot de locatie van de data, zonder vertragende controllers en hun latency.
Fusion-io is een aantal jaren geleden met deze aanpak begonnen en ondertussen draait volgens mij bijna alles van Facebook al op Fusio-io techniek.
Hun Fusion-io ioDrive2 haalt op die manier al 9 miljoen IOPS.
Dus SATA moet doet, alles moet PCI-E worden. En dan moeten ze maar een manier vinden dat je net zoveel PCI-E slotten op je moederbord kunt hebben als sata poorten.

[Reactie gewijzigd door Kain_niaK op 19 november 2013 12:03]

weet niet waar je die 9M iops vandaan haalt, maar de dikste fusion io controller die ik op hun site kan vinden doet iets meer dan 1M iops. Dat is dus ongeveer 10x zoveel als huidige high-end consumer sata ssd's doen. Echter zo'n fusion IO oplossing kost oko evenveel als 40 van die ssd's. Dus voorlopig lijkt mij een oplossing van 40 ssd's een stuk kosten effectiever ;)
Klik op de IOPS wikipedia link, en dan de tabel met records.
Hier de press release van Fusion-IO over hun 9 miljoen IOPS van één device

En hier een intressante video waar een goed half uur over hun techniek gesproken word en het benaderen van flash op dezelfde manier als geheugen benadert word ipv opslag. Met andere woorden, een SSD is een dure harde schijf ... maar heel erg goedkoop RAM!

Deze technologie, zoals vaak met nieuwe "state of the art" technologie is momenteel alleen voor de grote bedrijven zoals Amazon, Facebook, Microsoft.

Het voordeel dat zij hebben om één van deze drives te kopen ipv 40 SSD's is meervoudig.

Van hun eigen site
Q: What makes Fusion-io a better solution than other SSDs?
A: Standalone SSDs (commodity or enterprise) must use multiple drives and a good RAID controller to even attempt to be competitive against Fusion ioDrives. Redundancy doubles this hardware, with each SSD and RAID controller introducing failure points into the system. When an SSD or RAID controller goes down in a RAID configuration, the entire server goes offline until the hardware can be replaced. This is true even of other PCI Express devices that simply mount SSDs onto a PCIe card, the best of which must offer “swappable” modules so failed SSDs can be replaced.

Fusion ioDrives deliver the performance of multiple SSDs and hardware RAID controllers from a single device. Adaptive Flashback Protection makes swappable modules unnecessary as chip failures are handled transparently without affecting business continuity. ioMemory’s high performance minimizes infrastructure needs, which reduces the number of failure points in the search environment. It is a drop-in solution that reduces complexity, guarantees a predictable workload, and creates a more reliable system overall./

[Reactie gewijzigd door Kain_niaK op 19 november 2013 12:50]

En over RAM en SSD gesproken, met je eigen computer kun je ook zo 800.000 IOPS halen met deze software:
Elite Bytes released their SSD and RAM caching software MaxVeloSSD and gives away 10 free licenses. MaxVeloSSD can use both SSDs and RAM memory as a cache resulting in incredible fast throughputs. An initial test of our Administrator and Head of Promotions alan1476 shows random read speeds of more than 800,000 IOPS and random write speeds of more than 450,000 IOPS.
http://www.myce.com/news/...ilable-800000-iops-69576/

(Dit is dus RAM + SSD als cache, niet simpel een ramdisk)

[Reactie gewijzigd door Snikker op 19 november 2013 13:10]

Ziet er interessant uit, heb je het zelf al eens geprobeerd? Kan er weinig info over vinden
Ja, werkt heel goed, je kunt ook een gratis licentie winnen:

http://club.myce.com/f180...-win-free-license-334469/
IOPS is een totaal irrelevante waarde voor eindgebruikers, alle moderne SSDs halen genoeg IOPS voor de desktop gebruik, zelfs voor 99% van de zwaarste power users is 30K IOPS meer dan voldoende.

Want men vergeet ook even dat zelfs een moderne desktop HDD maar max 200 IOPS haalt, en hoewel SSDs een stuk sneller zijn, vertaalt 50K IOPS niet in een prestatie verbetering van 250x over die van HDD.

IOPS staat voor "Input/Output Operations Per Second" geen enkele thuis gebruiker haalt 30.000 disk acties per seconde in de praktijk, dat wil niet zeggen dat een hogere IOPS dan die van een HDD geen meer waarde heeft op de desktop, maar met ongeveer 30K IOPS zit je wel zo een beetje op een grens waar meer gewoon echt geen praktische meer waarde meer heeft.

Daarnaast worden die hoge IOPS waarden gemeten met hoge cue depth (cue depth groter dan 5) wat wederom irrelevant is daar je op een desktop nagenoeg nooit boven een cue depth van 2 uit komt.

Voor de desktop zijn maar twee waardes echt van belang, acces time en (random) doorvoer.
En hoewel acces time verbonden zit aan IOPS, is de interne cue afhandeling van nog een groter belang voor hoge waardes.

IOPS is interessant voor servers met een grote database, daar bv bij mij op werk Statoil, maken 45.000 mensen gebruik van het SAP systeem, en al die mensen maken gebruik van de zelfde database, en ja dan zijn IOPS belangrijk, de laatste upgrade naar PCIe SSDs voor de database leverde een gemiddelde tijdsbesparing op van 3min per dag, of te wel 2250 uur per dag, en minder zandlopertje ergernis.

Trace benchmarking is de enige goede indicatie wat een SSD zal doen voor jouw gebruik, maar dan wel met de juiste traces, server traces met hoge cue diepten zijn totaal onbelangrijk voor desktop gebruik, kijk naar vooral naar gaming en boot traces.

Maar wederom zelfs trace benches zijn ook vertekenend, daar die niet real world gebruik weergeven, maar heel snel alleen het HD gebruik testen, zonder invloed van de rest van het systeem, ouderwetse stopwatch zijn eigenlijk de beste indicatie, en je zal zien dat dan de meeste SSDs veel dichter bij elkaar liggen dan je op eerste gezicht zou denken als je naar de trace benches kijkt.
weet niet waar je die 9M iops vandaan haalt
Hier bv en ja de ioDrive2 haalt 9m IOPS!

[Reactie gewijzigd door player-x op 20 november 2013 09:22]

En de technieken van Fusion-IO zullen het waarschijnlijk nooit tot in de desktop of laptop halen, voordat hun methode populair word bij desktop en laptop computer gebruikers krijgt iedereen zijn data al van de cloud. Er zal nog wel een tijd komen waar we voornamelijke draadloze internetverbindingen gebruiken die een laag genoege latency hebben om beeld, geluid en input de streamen. En dan zijn we terug bij hoe het in de jaren 50 en 60 en 70 voornamelijk was .... terminals.
Maar die kunnen dan wel echt super goedkoop zijn, data is niet meer te verliezen, elke gamer kan elk spel spelen mits hij een hoog genoeg abonement heeft.

Oplossingen zoals Fusion-IO die momenteel voor ogen ziet zijn dan misschien alleen weggelegd voor de diehard tweakers die WEIGERT afhankelijk van de cloud te zijn. Zoals ik, principe kwestie. Ik wil mijn volledige systeem kunnen zien, ruiken, voelen en horen. En als ik zin heb maak ik het helemaal kapot of upgrade en tweak ik het tot in de hemel.

Fusion-IO maakt het mogelijk voor elke flash en ssd bouwer om gelijkaardige producten op de markt te zetten. Veel van hun technologie zit in hun openSKD, omdat het voornamelijk software is die de truuk moet doen.

We zullen het nog wel terug zien ... als eerst in het GoT SSD topic vermoed ik.
Want wanneer iedereen alles in de cloud heeft staan is er maar één tweaker waardig oplossing: Zelf lokaal een cloud beginnen. En dan komt opslag apparatuur die eventueel 9 miljoen IOPS kan halen wel super handig kijken! En zelfs als 9 of 1 miljoen IOPS voor de komende 10 jaar teveel is voor de gemiddelde tweaker .... de latency kan nog een stuk lager zijn dan de snelste SSD! En daar gaat het voornamelijk over, hoe lager de latency voor elke klein stukje data dat je nodig hebt ... hoe sneller de rest van je computer kan werken en hoe sneller alles voelt.

Flash opslag als geheugen aanspreken maakt het gat tussen traag RAM en snelle disks een stuk kleiner. En 512 GB RAM in je systeem stoppen zonder dat er kans bestaat dat je alles kwijt raakt als je eens een keer zonder stroom zit is gewoon GEEN oplossing. :)

Ik heb nog altijd een SSD systeem uit 2009 - 2010.
8 Intel postville G2 SSD's van 80GB in RAID 0, verspreid over 2 areca controllers.
De bottleneck van die controllers ligt op 767 MB/s, maar de twee controllers halen via software raid gezamenlijk dik 1400 MB/s aan leessnelheden en 700MB/s aan schrijfsnelheid!

Maar voor mijn volgende upgrade ga ik toch echt een aantal dingen doen

- weg van windows, Linux is een pain in de the ass maar ik krijg meer ervaring en de ondersteuning word elke dag beter. Het leuke aan Linux is dat als je je security serieus neemt je nu ook echt een beveiligd systeem hebt. Met windows is dat gewoon onbegonnen werk.

- Voor opslag alleen nog PCI-E oplossingen, en op Linux een bestandsysteem dat mijn opslag als geheugen kan benaderen.

- En hopelijk binnen een jaar of drie wanneer mijn systeem uit 2009 toch echt aan vervanging nodig is, glasvezel internet met een latency onder de 5ms naar de hop die mij aan een backbone hangt, en minstens 200 MBit full duplex.

-En dan heb ik lekker mijn eigen cloud systeempje, draai dan gewoon elke besturingsysteem dat ik nodig heb virtueel en doe gewoon alles over remote desktop. Chrome boekjes voor de familie, en rasberryPI's aan de TV's.
Die RAID en Disk controller zijn al lang samengevoegd. Dat is het probleem niet.

Het echte probleem is dat je voor Flash een Flash controller nodig hebt om zaken als MLC, write levelling en ECC te regelen. Dat kan in theorie[/] door je CPU gebeuren, en dan zou je flash chips direct op PCI-e kunnen aansluiten. Maar iedereen vind dat zo'n slecht idee dat niemand dergelijke flash chips maakt. Al die algoritmes kunnen efficienter in de dedicated controller van een SSD gebeuren.

Het enige wat echt overbodig is, is de SATA chip. Die zit namelijk in de praktijk tussen de PCI-e bus en de disk controller, is langzamer dan beiden, en is niet nodig voor flash. En die gaat er dus nu uit.

Wat betreft het aantal PCI-e sloten, dat is nu al een marketing beslissing. Er zijn geen redenen om dat beperkt te houden, behalve dan de ruimte. Een M.2 form factor met 2 PCI-e lanes is een praktische oplossing. Maar hoeveel heb je er daar van nodig? De HDDs zullen nog wel een hele tijd toe kunnen met SATA-600, en een DVD speler (voor wie dat nog wil) kan ook op SATA. En hoeveel SSD's heb je dan nodig? 3 sloten lijkt me genoeg, waarbij het derde slot dan alleen nodig is tijdens een upgrade.
Dan krijg ik toch meer een kick van Ultradimms: http://uk.hardware.info/r...ise-achieving-low-latency

Als je nu eens dimms kon gebruiken voor flash en om van te booten, dan knalde ik 2 van de 4 ramsloten er gelijk mee vol. Niet heel erg rap tot zover, maar de iops en latency zijn lager dan alles wat er te krijgen is. Het zou eigenlijk de standaard moeten zijn.
Je kunt er nog niet van booten maar dat kan volgens mij met Fusion-IO producten ook niet, teminste niet onder Windows. Maar je gaat niet met deze technologie aan de slag onder windows want het werkt alleen met een op maat gemaakt bestandssysteem en dat ondersteunt windows niet.

Wat ULLtraDIMM doet is aan de hardware kant bijna hetzeflde als Fusion-IO, maar nu gebruiken ze iets trager en goedkoper flash, en voor de rest gebruik je super duur RAM. Ik zeg super duur RAM omdat 64 GB RAM lekker veel is ... maar niet als je het als opslag wilt gebruiken. Een 64 GB grote SSD kan je voor 50 euro kopen. Hoe duur is 64 GB RAM? Precies!

Dus in hardware is er niet zo veel verschil, maar in hardware heeft Fusion-IO ook niet veel te bieden. Het is hun software, met name hun eigen bestandsysteem waar alle winst van komt.

Zonder aangepast software kun je nooit opslag benaderen als geheugen, terwijl je alle bottlenecks en vertragingen overslaan, die je hebt bij het aanspreken van opslag maar niet bij het aanspreken van geheugen.

Kijk die video maar eens van Fusion-Io hun open house dag, daar word het keurig uitgelegd. Met ULLtraDIMM ga je precies hetzelfde kunnen doen, als je het bestandsysteem en software van Fusion-IO gebruikt, en dat is volgens mij een open standaard aan het worden, dus elke fabrikant kan er mee aan de slag.

[Reactie gewijzigd door Kain_niaK op 19 november 2013 19:59]

hiermee kan je simpel een virtuele HD aanmaken dat feitelijk op je ramlatten draait, let op het is niet bootable: AMD Ramdisk

De reden dat je er niet van kan booten is omdat windows eerst moet opstarten, drivers geladen moeten worden vooraleer ze beschikbaar is. Een optie zou zijn om een een beperkt os in te laden om de virtuele HD online te krijgen. Beter zou zijn mocht het moederbord hiervoor kunnen zorgen.

Volgende persoon heeft het werkend gekregen met een externe HD, GRUP4DOS daarop heeft staan (soort van dos) en een VHD (virtual hard drive file) die hij via die dos dan in een virtuele HD op Mem laat lopen
klik

Maar om een lang verhaal kort te maken, ja het is mogelijk maar je moet goed weten waar je mee bezig bent.
Tevens zoals al aangehaald, het is veel goedkoper met een ssd te werken. (tevens ook de reden waarom niemand dit proces simpeler gemaakt heeft) Overigens zijn er in het verleden nog wel eens pci kaarten uitgebracht waar je ramlatjes op kon prikken. Probleem was echter als de stroom eraf ging je de data kwijt was. Zat er een batterij op om dit te voorkomen maar echt veilig was/is je data niet.

[Reactie gewijzigd door sprankel op 20 november 2013 14:40]

Even Esata vs thunderbolt. Thunderbolt zou deze snelheden wel kunnen faciliteren.

[Reactie gewijzigd door Macshack op 19 november 2013 13:54]

Intel Tick Tock: http://en.wikipedia.org/wiki/Intel_Tick-Tock
Waarbij Skylake (2015): http://en.wikipedia.org/wiki/Skylake_(microarchitecture) support krijgt voor DDR4, PCIE4 en SATA Express
Sata Express: http://en.wikipedia.org/w...vision_3.2_-_SATA_Express
Technologie is niet iets wat in 1 dag gebeurt.

[Reactie gewijzigd door GoT op 19 november 2013 17:51]

Ik vind dat M.2 voor een laptop wel echt een uitkomst. Zeker als je een hele kleine wil bouwen of een gewone schijf voor je opslag ernaast wil gebruiken.
Tja, ze gaan verder met sata express 2gb/s dus er zal hopelijk in de toekomst wel een keer van de pci-e uitbreiding slots af gaan en het op het moederbord in bouwen.
Op zich is het helemaal geen verkeerde ontwikkeling dat pci-e de functie van sata aan het overnemen is. Uiteindelijk hoe universeler, hoe goedkoper en makkelijker het te maken is. Een moederbord met 1 chipset is altijd makkelijker te maken dan een moederbord waar 4 a 5 verschillende chipsets op moeten.
Erg mooie getallen voor die professionele, high-end varianten.
Maar voor de consumenten variant zie ik in de afbeelding met de vergelijking met de Samsung 840 Pro de volgende getallen staan:

Random Writes [IOPs]
sandforce : 46K
samsung : 70K / 78K

Ik hoop dat de testmethode erg verschilt, want anders houdt het hier al direct op wat mij betreft.
Laat dit soort snelheden maar (in afgezwakte vorm) doordruppelen naar microSD kaartjes, daar vind ik de snelheden nog steeds bedroevend. Een tijdje geleden een Sandisk Ultra 64GB aangeschaft maar de sequentiële schrijfsnelheden komen ondanks het 'Ultra' naampje nog steeds niet boven de 10MB / sec, waardoor een full HD film van 8GB nog steeds meer dan 10 minuten duurt..
Al gecontroleerd of dat de reader die snelheden wel kan halen??
Met diezelfde card reader behaal ik wel 45MB/sec leessnelheden dus ik zou denken dat het niet aan de card reader ligt. Hier overigens een review van de betreffende card reader: http://tweakers.net/produ...f5-usb30-card-reader.html
De leessnelheid is 1,8GB/s, maar als je em op SATA-600 aansluit, wordt het 550MB/s?

Ten eerste: waarom geen 600MB/s? SATA-600 is toch 6Gbps? Als 6Gbps de brutosnelheid is, is 550MB/s een behoorlijk belabberd overblijfsel daarvan. 600+MBps moet gewoon haalbaar zijn, of gaan we weer richting die gouden bergen die qua snelheid met USB 2.0 beloofd werden? Weet je nog? Die 480Mbps die geen mens ooit heeft bereikt?

Ten tweede: waar moet je em in godsnaam op aansluiten om 1,8GB/s te halen? Vier SAS-kanalen bundelen ofzo? Kan hij dat?

[Reactie gewijzigd door _Thanatos_ op 19 november 2013 13:01]

Sowieso is die 6Gbps de 'kale' doorvoer over de kabel, de SATA standaard doet daar een 8-to-10 bit codering overheen om DC-balans (evenveel nul als een) te krijgen.

Daarmee alleen al ga je naar 600MB/s doorvoer - en ik gok dat er nog het nodige aan ander protocol-overhead overheen gaat voor je bij de effectieve 550MB/s komt.
Daarmee verlies je inderdaad een vijfde aan doorvoer, maar er zijn andere coderingen in gebruik bij andere protocollen: http://en.wikipedia.org/wiki/64b/66b_encoding

Daarmee alleen red je het niet, maar efficiënter, en dus sneller, had het wel gekund gok ik zo.
Ook hier zijn fabrikanten nogal makkelijk in het gebruik van grootheden als G's en M's.
De 6 Gbps gaat om 6.000.000.000 bits per seconde.
Als je daar bytes van wil maken met inachtneming van de overhead kom je uit op 600.000.000 bytes en als je die tweemaal door 1024 deelt kom je uit op 572 MBps.
Nog steeds niet die 550, maar wel damn close!
Nee, SATA is echt 6 gibibits per seconde. Maar het zou, zoals vanaalten aangeeft, best door die verschrikkelijk inefficiente codering kunnen komen... Dus het is gewoon geen 6Gbps, maar 5,5Gbps.

Anders kan ik ook wel zeggen dat mijn Ziggo-kabel 2Gbps doorvoert... Ja, dat is wel zo, maar daar gaat analoge en digitale TV nog vanaf. Dus dan blijft er feitelijk 150Mbps over. Nee sorry, fabrikanten, bedonderen doe je niet met betalende klanten. 6Gbps bandbreedte = 600MB/s doorvoer, anders is het geen 6Gbps.

[Reactie gewijzigd door _Thanatos_ op 19 november 2013 21:49]

Voor consumenten is zijn deze snelheden niet direct nodig maar als je eens een SQL servertje moet hebben voor een druk bezochte webshop dan is dit wel heel interessant.

Met SSD's met deze snelheid heb je er maar een paar nodig in RAID 1 om voldoende performantie te hebben, opslag kan nooit snel genoeg zijn voor een database.
Dankzij dit heeft een grote organisatie misschien geen behoefte meer aan meerder SQL servers om voldoende performantie te hebben maar volstaan misschien een twee-tal servers (redundantie) met enkele van deze SSD's, een paar flinke CPU's en massa's RAM.
Leuk maar sata3 is alweer outdated op het moment dat het uitkwam en sata4 komt er voorlopig nog niet aan en op huidige moederborden heb je niet genoeg vrije pci-e lanes om die snelheid te leveren.
Dus wederom lopen we achter de feiten aan en worden we dit keer weer belemmerd door het te laat uitbrengen van een feature.
In dit geval dus sata 4 die bij release al outdated gaat worden en dus beter gecancelled kan worden voor iets et een doorvoer die rond de 2400MBps ligt of zelfs hoger sodat we niet meer belemmerd worden door de hardware.
Hetzelfde geld voor pci-e 4 dat kan maar beter 4x zo snel zijn of de chips moeten gewoon VEEL meer lanes hebben zodat er gewoon 2x 16x of 8x voor vga gebruikt kan worden en de overige poorten allemaal minimaal 4x poorten zijn.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True