Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 50 reacties

Intels X99-chipset voor het Haswell E-platform zou kampen met driverproblemen waardoor de sata-poorten beperkt in te zetten zouden zijn. De problemen zouden zijn ontstaan nadat Intel een speciale driver voor het platform had teruggetrokken.

Versie 4.1.0.1046 van Intels Rapid Storage Technology Enterprise is niet meer bij Intels lijst van drivers te vinden en ook moederbordfabrikanten als Asus, ASRock, Gigabyte en MSI hebben de driver teruggetrokken, constateerde Heise. Navraag bij Asus leerde dat de driver geen trim-ondersteuning bij raid0 bood, maar een nieuwe driver-versie zou niet in de planning liggen.

De RSTe-driver is voor X99-chipsets van het Haswell E-platform en voor C610-chipsets voor Xeon E5-processors en de software zorgt ervoor dat de systemen van de tien sata 600-poorten gebruik kunnen maken. Nu de RSTe-driver is teruggetrokken moeten gebruikers zich tot RST-driver 13.1 wenden, kreeg Heise te horen van ASRock. Die driver is niet geoptimaliseerd voor de X99-chipset.

De RST-driver kan echter slechts zes sata 600-poorten aanspreken en de overige vier poorten moeten het met de standaard ahci-driver van Windows doen. Dat betekent onder andere dat raid-opstellingen met maximaal zes drives mogelijk zijn en dat de vier overgebleven poorten bijvoorbeeld geen sata link power management ondersteunen. Intel heeft nog niet gereageerd op de berichtgeving van de Duitse site.

Moderatie-faq Wijzig weergave

Reacties (50)

Het lijkt erop voor een keer Heise de mist is in gegaan. De september 2014 datasheet van de X99 chipset is heel duidelijk want op pagina 10 staat:
  • Intel® X99 Chipset has 2 SATA controllers - AHCI1 (6 ports) and AHCI2 (4 ports).
  • Only RST13.1 is supported on the Intel® X99 Chipset.
  • On the Intel® X99 Chipset, one can RAID only on the first AHCI controller (6 ports). It is NOT supported to RAID across the second AHCI controller (sSATA 4 ports).

[Reactie gewijzigd door smartbit op 12 december 2014 08:56]

Die zocht ik inderdaad ook. Naar mijn weten was dat gewoon een "feature" van de chipset. Volgens mij zitten die 4 poorten op een hub waardoor je ook geen 4x600MB/s kunt doen als je alle poorten dicht trekt. De SATA opstelling van de X99 is een soort X79 + 4 poorten. Ik kan op google niet zo snel benches vinden van de X99 mbt de snelheid van de beschikbare poorten.
Ik heb zelf een X99 board met 6 x 256GB SSD's in raid 0 en had voordat ik overstapte van X79 naar X99 ook geen benches kunnen vinden hierover.
Helaas is het ook bij de X99 chipset dat het allemaal erg magertjes en gecapped is op 1500MB/s lezen en 1200MB/s schrijven, meer krijg ik er niet uitgeperst. (AS SSD)
En dat is op de chipset en niet de hub? Ik haal zo'n 1200/1100 (X79) dus ik gok dat het inderdaad niet meer wordt dan dat.
Ja het is op de chipset, dus de eerst 6 x sata 600 poorten van de X99 chipset. Inderdaad maar een heel klein beetje meer dan op het X79 platform helaas. Alleen zit ik dus nog met het probleem dat TRIM er nu geen zin in heeft, alleen als ik met de hand op OPTIMIZE klik, dan TRIMT hij wel netjes maar niet uit zichzelf. Vaag!
Hummm, wel heel gek. Als in windows moet geloven staat TRIM bij mij wel gewoon aan. Misschien een instelling die ergens scheef zit.

Maargoed ik hou me gewoon een beetje aan de oppervlakte wat nieuwe SSD's betreft. Ik heb het een beetje gehad met die SATA drives. Ik hoop nog steeds op een 8 kanaals PCIe3 SSD. En dan niet een RAID 0 sata opstelling maar gewoon native. We gaan het afwachten.
Op mijn vorige X79 platform had ik ook gewoon TRIM met 2 x 256GB ssd's in raid 0 (sata 600 controller X79) en 4 x 256GB ssd's in raid 0 (sata 300 controller X79) werkende, nu niet. Ik zal nog eens een schone installatie gaan doen van Windows en kijken met andere drivers of ik het werkende krijg.
Dat zou dus betekenen dat intel Wéér problemen heeft met Sata-poorten op een relatief nieuw platform. Pijnlijk.. je zou denken dat ze na de vorige keer (Sandy bridge?) Dit toch wel koste wat kost wilden voorkomen..
Zoals in het artikel staat ontbrak de ondersteuning voor TRIM in raid0, niet echt een probleem, hooguit iets wat in een nieuwe versie toegevoegd moet worden, waarom de oude dan gelijk verwijderd wordt is me niet echt duidelijk...
Overigens vraag ik me af wie SSD's in RAID0 op een standaard moederbord doet en niet een nette raidcontroller, als je die snelheid nodig hebt doe het dan goed zou ik zeggen....
Ik denk dat meer mensen raid0 op een onboard controller doen dan met een dedicated raid controller laat staan een goede dure controller.

Dat wordt voor de meeste veel te duur.
Ik heb er zelf ook wel eens naar gekeken maar als je het goed wilt doen Is het erg duur.

(Was doen nog met hdd's) de ssd's heb ik gewoon los naast elkaar staan. Dat Is snel genoeg.
Niet alleen de prijs van dedicated RAID controllers ie een probleem... De onboard controller werkt voor RAID-0 vaak ook gewoon sneller! Veel dedicated RAID controllers kunnen helemaal niet de volle bandbreedte van SSD's in de praktijk aan. Die zijn geoptimaliseerd voor HDD's en hoge I/O's, maar geen hoge sequentiele snelheiden. Mijn RAID controller haalt niet meer dan ~250MB/s naar mijn 840 Pro's. En dat is best wel triest.
Die zijn vaak gemaakt op HDD's en als die 150MB/s haalde was het al heel wat.
Dan moet je een veel modernere PCI-E 8x SAS Controller hebben die kunnen er soms wel mee overweg. Maar dan ga je echt grof geld betalen.
De dedicated raid controllers kunnen de hoge sequentieele snelheden wel aan hoor (inderdaad wel met PCI-E x8 2.0), daarmee haal ik met 8 x 256GB Samsung 830 ssd's 2800MB/s lezen en 2600MB/s schrijven. Dat is het maximale dat er mogelijk is op PCI-E x8 2.0 overigens.
Momenteel heb ik 6 x 256GB ssd's aan de onboard controller (X99) hangen in raid 0 juist omdat je daar een belangrijke feature hebt en dat is dus net TRIM. Er is momenteel nog steeds geen fatsoenlijke raid controller die ook nog te betalen is die TRIM ondersteund, pas straks met de NVMe controllers zal dat echt opgelost zijn. Had gehoopt dat de X99 het beter deed dan de X79 chipset met ssd's in raid 0, maar dat valt helaas tegen. Op de X79 heb je 2 sata 600 poorten en 4 sata 300 poorten. Ook hier staat maar zo'n 1500MB/s maximaal ter beschikking helaas maar daar werkte TRIM wel fatsoenlijk. Ga proberen of ik TRIM niet toch werkende ga krijgen op mijn X99 chipset want dat is toch wel belangrijk.
Maar een dedicated raid controller die dat kan heeft een heel leuk prijs kaartje.... heel wat leuker dan 2 van die X99 moederborden.
Precies, vandaar dat ik had gehoopt dat de X99 chipset er wat meer performance uit wist te persen dan een X79 met maar 2 sata 600 poorten, alleen blijkt dat helaas weer niet het geval.
Er komt komende week een PCI-e x8 3.0 controller aan hier, dan eens kijken of ik boven de 2800MB lezen kom met 8 samsungs 830 die 520MB/s lezen doen per stuk. (En weer geen TRIM helaas)
Waarschijnlijk zit die SATA controller gewoon aan zijn Tax. Volgens mij is er weinig verandert en heeft hij alleen meer SATA600 poorten maar de max interne bandbreedte is niet verandert. Volgens mij is die PCH nog steeds PCI-E2.0
Het zijn anders de IOPs waar je wat aan hebt in de praktijk, hoe vaak lees jij zo iets groots in dat je voor langere tijd >500MB/sec wilt halen? Beetje RAID controller kan dat trouwens best maar dat kost dan wel wat meer ja.
Nou voor een Raid 0 Oplossing is juist zo' n RST oplossing geschikt. 2 SSD's in een Raid 0 waarom niet. Zou je kiezen voor een Raid 5 ~ 6 oplossing of nog complexere Raid combinaties dan zou ik pas naar een "Echte" raid controller gaan kijken omdat deze dan pas aantrekkelijk worden, en het verschil laten zien. Verder erg vervelend voor de mensen met dit chipset. Koop je zo'n overpriced board, nou dat zit je hier niet op te wachten.
Ja, gelukkig is het nu een driver probleem en geen probleem met het ontwerp van de chipset.
Het klinkt vervelend voor de gebruikers van een X99-board maar er is dus altijd nog een mogelijkheid dat er later een oplossing komt indien Intel het voor elkaar krijgt om een werkende en correcte driver op de markt te zetten. Ik vraag me wel af hoeveel mensen er meer dan 6 SATA-600 poortjes aanspreken alsook SLPM gebruiken; als je een dusdanige hoeveelheid disks & storage wil kunnen aanspreken, ligt het meer voor de hand om een dedicated PCIe-RAID-kaart in te zetten (cache geheugen, BBU, etc) of een NAS.

Lastiger was de P67 bug waar de SATA-300 poorten gewoon konden uitvallen (hardwarematig in dit geval) en ondanks dat de mainboard-fabrikanten een inruil-programma hadden opgezet, kan ik me niet aan de indruk onttrekken dat er voldoende defecten zijn geweest die onbewust niet onder garantie zijn gerepareerd.
Maar waarom laat ze niet driver gewoon beschikbaar voor mensen die niet raid gebruiken?
Driver problemen zijn 'normaal' bij dit soort lastige materie, Raid-Trim was lang onmogelijk, maar geen nieuwe versie plannen AT-ALL als er problemen zijn en enkel simpel terugtrekken voor juist je high-end chipset... Onbegrijpelijk. Ben benieuwd naar de officiële reactie van Intel..
Ik vind dit idd ook onbegrijpelijk, zeker bij het E-platform....

Het lijkt erop dat Intel wel vaker problemen heeft met diverse I/O poorten...
Ik herinner mij nog iets van de Sandy-bridge laptops, waarbij de Sata3 poorten tot Sata2 beperkt werden vanwege een bug.
USB is ook problematisch op Haswell (de eerste batch).

En ik zal waarschijnlijk nog vele andere problemen over het hoofd zien.
de eerste revisie Sandy bridge moederborden P67 mochten allemaal terug geroepen worden omdat de Sata3 poorten heel snel degradeerden ik mocht dus een maand of 2 extra wachten op een nieuw moederbord
Niet onbegrijpelijk maar beetje struisvogel politiek.
Dit soort dingen hebben we in het verleden al meer gezien en het komt er vaak op neer dat er gewoon een fout is ontdekt die niet te repareren is op driver level. Met de volgende stepping van de chip zal die fout misschien hersteld zijn, misschien niet, afhankelijk van het probleem.

Evengoed is het niet netjes maar alles terughalen is gewoon te duur en de gevolgeschade daarvan is ook niet te overzien, dus hoopt men dat het protest meevalt en het probleem onder het tapijt geschoven kan worden samen met de moederbord fabrikanten die bordjes uitbrengen met niet 10 maar 6 poorten bij de volgende generatie... Damage control heet dat.
Hoezo 'niet zo dom' : Er zijn genoeg mensen die dat wel doen voor OS en Applicaties (+image van de setup) en daarnaast RAID 1 hebben voor data.

Een Raid 0 van 2 SSD's brengt je tegenwoordig aan de GB/s grens en indien je werkt met grotere bestanden, wat heel wat tijd spaart, bij render/filter en andere zware opdrachten die veel DISK I/O met zich meebrengen gaat het gewoon veeeeel sneller. Ik kan me heel goed inbeelden dat er video/foto en CAD mensen zijn die hier een dergelijk systeem setup hebben draaien.

Zelf ben ik een enthousiaste gebruiker van SSD's op deze manier en ik heb met deze type opstelling en SSD's nog nooit een data verlies probleem gehad.
Ik heb al tijden meerdere SSD's in RAID 0. Het is de makkelijkste manier om grote data sets te manipuleren. En RAID 0 draait sowieso echt prima op een Intel chipsetje. De mensen die hierboven roepen dat je een deftige RAID controller nodig hebt voor RAID 0 of 1 zijn een beetje in de war. De implementatie van RAID 0 en 1 zijn ook zo eenvoudig als het maar kan.
RAID 5/6 etc is weer een heel ander verhaal. Dat raad ik iedereen af om te gebruiken op de chipset. Rebuild- en snelheids problemen zijn de gewoonste zaak van de wereld. Dus dan kun je beter een kaart aanschaffen. Maar heel eerlijk, ik denk dat de use case voor RAID 5 (en 6 al helemaal) nog veel meer niche is voor consumenten dan RAID 0 of 1.

[Reactie gewijzigd door Thekilldevilhil op 12 december 2014 09:41]

Geheel off-topic maar toch belangrijk om te blijven melden:

RAID5 is tegenwoordig zelfs in zijn geheel af te raden bij schijven groter dan 2TB volgens mij. De kans dat er tijdens het rebuilden tegen een eerder overgeslagen bad sector aan wordt gelopen op een andere schijf is dan namelijk best groot te noemen, wat effectief de hele array corrupt kan maken.

RAID met dual-disk redundancy minimaal (dus vanaf RAID6 of RAID10) zou nu aangeraden moeten worden.
Ik ken het artikel waarop jouw uitspraak is gebaseerd ook en dat is een erg goed onderbouwd artikel die naar mijn idee ook helemaal klopt. Maar een kanttekening is misschien wel op zijn plaats. Vergeleken met het artikel maken de huidige schijven 1000 maal minder fouten. Mits de opgaaf werkelijk klopt is de foutfrequentie van 1 op 10^11 naar 1 op 10^14 gegaan. Daarmee zou RAID 5 dus nog steeds effectief moeten zijn bij 2TB schijven. Maar ik ben het zeker met je eens dat met grotere arrays RAID 6 een aanrader is.
Sterker nog, zodra de boel hier sluit ga ik een nieuwe RAID 6 array van 5x6TB maken dus ik ben op het moment relatief goed ingelezen.
Ben regelmatig met premiere bezig en merk toch wel degelijk 2/3x verschil tussen renderen vanaf ssd of vanaf ramdisk.
Waarom is het dom 2 SSD's in RAID0 te zetten en zo de drempel van 500/550MB/s te doorbreken? Enkel als OS schijf en niet voor data, eventueel dagelijkse image. Ik zie dat wel zitten namelijk. Dat is helemaal niet "dom" en eigenlijk verwacht je zoiets het eerst bij een Haswell-E platform als er geen PCI based storage mogelijk is
Die 500MB grens zit puur tussen de oren. Een SSD is snel vanwege de random reads en writes die duizendvoud sneller zijn dan bij een harddisk. Bij RAID0 gaat wel je sequentiele snelheid omhoog, maar niet je random snelheid, puur omdat je I/O's niet fatsoenlijk verdeeld kunnen worden over beide SSDs om deze voluit te benutten.
1GB/s sequentiele I/O op een systeemschijf komt in de praktijk gewoon nooit voor en is ook vrij nutteloos.
Ligt een beetje aan gebruikswensen, als een scratch-disk voor zware videobestanden is de doorvoersnelheid wel nuttig. Maar je hebt gelijk in de meeste scenario's zijn IOPS van meer belang :)
Die 500MB grens is best te doorbreken, maar het hangt er vanaf wat je doet. Met de random I/O van je OS zul je daar inderdaad nooit aan komen. Maar met video data is het heel simpel.
Ik heb twee video camera's aan mijn workstation hangen, die beiden 800MB/s kunnen produceren. Een RAID-0 op een consumenten mainboard, waarbij TRIM nog steeds werkt zou mij heel erg welkom zijn!
Je kan natuurlijk een software raid gebruiken.
(MS) Storage Spaces bijv. ondersteunt gewoon TRIM. Ik weet niet of unRAID en SnapRAID TRIM ondersteunen. unRAID was spraken van ext4 ondersteuning en dus TRIM, maar weet niet of dat er al in zit.
Juist is RAID0 daarom zo fijn met SSD's, je loopt niet tegen de latency limieten die je met oude schijven wel had. Met een dikke raid0 array heb je dus hele knappe prestaties. en die 1GB/s+ transfer speed vinden mijn VHD files ook niet erg. :)
Voor mijn DAW om in realtime projecten af te spelen EN tegelijkertijd VST plugins on-the-fly te kunnen laden heb in 2009 een systeem gebouwd met 4 Intel Postivelle G2's van 80 GB in RAID 0 op een Areca 1222 controller. Jammer dat die controller een bottleneck had op 768 MB/s maar dat was genoeg snelheid om de meeste VST's en samples binnen een paar seconde van disk naar RAM te laden. Dus ja, als je er een toepassing voor hebt is het echt niet compleet nutteloos. Bedrijven zoals facebook gebruiken tegenwoordig producten van Fusion-IO. Dat is flash op PCI-e kaarten die aangesproken worden als geheugen en niet als opslag. Resultaat is dat een heleboel controller chips overbodig worden. Geen raid meer nodig. En zo zijn ze instaat op met één PCI-e meer dan 100 000 iops te behalen. Voor bedrijven zoals Facebook is dat de investering wel waard. De opslag systemen hebben dan minder single-points-of failure en besparen gigantisch op ruimte om dat één flash based systeem vele ouderwetse systemen vervangt die veel plaats in beslag nemen en veel koeling nodig hebben.

Zie hier de IO meter benchmarks van mijn systeem uit 2009.
Ik denk juist van wel... SSDs in raid0 is niet "dom" en kan een mooie snelheidswinst geven. En juist de mensen die voor X99 betalen zullen snelheid willen en de technische kennis hebben om raid te draaien. Voldoende mensen draaien vanaf een SSD enkel hun OS en wat programmas en hebben hun data elders staan (en hebben er dan ook niet echt een probleem mee als hun stripe crash of corrupt gaat).
Met een goede back-up hoeft een gebroken raid0 setup ook niet echt zo een groot probleem te zijn..
Maar bij 'regulier' gebruik als standaard sata poort is er dus niks aan de hand lees ik in dit artikel ?

[Reactie gewijzigd door rleever op 12 december 2014 08:06]

Wel raar, ik gebruik intel rst v13.5.0.1056 en volgens mijn systeemtools staat trim aan op mijn raid-0 schijven??
En gebruik jij dan een X99 chipset ? Ik draai zelf met een X99 chipset en de 13.2.4.1000 drivers en 6 x 256GB SSD's in raid 0. Hiermee heb ik helaas geen TRIM.
Welke systeemtools gebruik jij dan om TRIM te checken want er is momenteel maar 1 tool die echt de waarheid spreekt helaas en dat is trimcheck.

http://files.thecybershadow.net/trimcheck/trimcheck-0.7.exe
Heeft nou niemand hier die driver nog ergens staan in de downloads die even een linkje kan posten?
Tjah, ook intel maakt fouten ;) gelukkig zijn hun cpus nog steeds de best :p
Gezien de prijzen die aan het X99 platform hangen, hadden ze dit wel best kunnen vermijden, ik stel dan ook meteen mijn geplande aanschaf nog even uit.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True