Caching gebeurt vrijwel altijd enkel op non-contiguous I/O, oftewel random read/writes. En dus niet op grote bestanden. Dit geldt voor hybride hardeschijven en voor cachingtechnologie zoals Intel SRT en ZFS L2ARC. Sequential access wordt dus niet gecached; dat doet alleen je RAM filecache.
Als ik zie dat de performance bij de hybride schijven op gebied van sequential hoger is dan die van gewone schijven waarbij het geheugen hetzelfde is dan klopt je verhaal dus niet. Hetzelfde zie je dan ook terug bij de overige caching zaken. Dat is nou juist ook 1 van de redenen waarom ze het toepassen

ZFS is een beetje een slecht voorbeeld aangezien dat vooral gericht is op grote storage omgevingen in tegenstelling tot de hybride schijven. Die zijn er voor de consument die een ssd te duur vindt maar toch iets snellers wil dan een gewone hdd.
Hoe dan ook, uiteindelijk wil je alle voordelen van een ssd en hdd hebben wat meer is dan alleen random read/write en latency. Het is allemaal even belangrijk en tests laten zien dat over de gehele linie die hybride schijven ook wat sneller zijn dan een gewone hdd.
SATA zal als softwareprotocol blijven; AHCI. Dat er geen SATA signalling meer wordt gebruikt is voor de softwarematige afwikkeling niet van belang. SATA heeft naast het native AHCI ook nog IDE emulatie voor DOS-achtige operating systems. Kortom, je moet een onderscheid maken tussen software en hardwareimplementaties.
Dan hebben we het dus niet over PCIe maar over sata. Dat je het op PCIe aansluit op zo'n PCIe gleufje doet daar niets aan af. Het is en blijft sata en dus geen PCIe.
Bij huidige PCI-express SSDs zoals de OCZ Revodrive heb je geen TRIM onder Windows. Dat zal geen probleem meer zijn met native PCI-express SSDs gebruikmakende van SATA-express. Dat was mijn punt.
Dat is mooi maar je hecht teveel waarde aan TRIM. Het doet z'n werk maar het is niet het enige. Daarnaast is het natuurlijk ook niet geheel onmogelijk om zoiets te implementeren voor PCIe. SAS kent ook geen TRIM, wel iets wat hetzelfde doet. Het gaat er uiteindelijk om dat bij ssd's dat principe wat achter TRIM, GC en al dat andere toegepast wordt. Dat kun je ook prima in een andere vorm toepassen. Het vormt dus geen probleem.
Ik heb nog geen moederborden gezien met 6 tot 12 mini-PCIe slots?! Bovendien niet erg praktisch. Dat SATA Express de bekabeling gebruikt van SATA maakt het stukken handiger om veel SSDs aan te sluiten op maximale snelheid terwijl je gebruik kunt blijven maken van bestaande bekabeling die je nog hebt liggen. Alleen gaat er nu PCI-express signalling door de kabels ipv SATA.
Ik heb ook niet gezegd dat die er waren. Ik heb ook geen notebooks en kleine machines gezien met dat aantal slots voor PCIe noch voor sata

Zelfs de mensen in het 10+ TB storage topic gebruiken lang niet zoveel ssd's. Die gebruiken overigens in totaliteit meer disks dan de mobo, cpu/chipset dat aan kunnen en switchen dan ook over naar allerlei handgrepen om dat uit te breiden (extenders, additionele HBA's). Daar waar dit soort ssd's in grote getallen wordt gebruikt kan men nu ook al uit met PCIe ssd's of die van sata. Ze zijn namelijk ook gewoon in RAID setup te gebruiken. Bij veel disks wil je dat ook eigenlijk wegens het opvangen van problemen. Er spelen dan andere zaken een grotere rol.
Maar mijn punt was dat je nu geen gezeik meer hebt met te weinig SATA poorten en dat je dan een slechte HBA nodig hebt met allerlei gebreken, hoge aanschafprijs, driverproblemen en bugs.
En mijn punt is nou juist dat dit dus niets uitmaakt want ook PCIe kent z'n beperkingen. Het heeft geen oneindige bandbreedte en je moet hier niet vergeten dat PCIe breed wordt ingezet. Je videokaart hangt er ook aan (of videokaarten) net als een aantal andere zaken. Het enige wat je dan kunt doen is meer ssd's aansluiten en het enige wat je dan hebt is meer opslagcapaciteit. En verrek, dat hebben we nu ook al. Maar ja, wie kan zich dat veroorloven?