Als je het over de 120 GB model hebt dan is de MaxIOps versie absoluut een aanrader t.o.v. de reguliere 120 GB versie. Voor de snelste (240 GB) model geldt echter:
Ook al kom je in een normale desktop situatie niet aan het maximaal toe, dan heb je er nog steeds profijt van, omdat je 10k acties sneller klaar zijn.
Met maximaal 8% (bij gelijkblijvende blokgrootte!), maar dan moet je wel 10k acties doen die met zijn allen binnen de totale bandbreedte blijven. Deze is 11% ruimer bij de gewone model, dus zodra je aan de 240 MB/s schrijven komt, zal je niets aan de hogere IOps hebben en zal de reguliere versie maximaal 11% sneller zijn (30 MB/s extra).
Als je 10k schrijfacties doet die aan die bandbreedte komt dan had je natuurlijk al een pro/SLC model moeten hebben. Als je daar - zoals de doorsnee gebruiker - niet aan komt (IIRC myce kwam met veel moeite tot 8000), dan zul je echter weinig tot geen verschil merken omdat je misschien weliswaar veel acties tegelijk doet, maar ze allemaal zo klein zijn dat het verschil nauwelijks merkbaar is (denk b.v. aan wegschrijven van cache bij afsluiten browser, fracties van een seconde verschil?).
Aan de bandbreedte kant echter zul je die 11% verschil wel duidelijk merken als je b.v. een backup maakt, of films kopieert, omdat het om grote hoeveelheden data gaat.
maximale bandbreedte (MB/s) = IOps * blokgrootte
of anders gezegd IOps = maximale bandbreedte / blokgrootte
Het enige wat zo gauw in de buurt komt waarbij je nog niet aan een pro/SLC variant hoeft te zitten en toch zowel veel als kleine schrijfacties doet is een hobby developer/designer die zijn eigen cvs host en veel grote commits/merges doet. Anders is de 15 Euro extra het IMHO niet waard.
Een 70.000 IOPS drive kan 10k IOPS namelijk 2x sneller doen als een 35.000 IOPS drive.
Je bedoelt 10k IO, niet IOps

Dit geldt alleen zolang totale bandbreedte het toelaat. Bij 4 KiB blokgrootte zou je met de theoretische 65k IOps 254 MiB/s moeten kunnen halen. Aangezien het maximum op 240 MB/s staat (aangenomen dat hier MiB/s bedoeld wordt) kan de maximale blokgrootte 3,78 KiB zijn, oftewel bij 4 KiB page size kunnen ze maximaal 61,4k IOps halen, het theoretische maximum moet dientengevolge voor kleinere blokgroottes gelden, danwel met behulp van compressie.
En dan komt de klapper: de theoretisch haalbare IOps wordt vastgesteld met behulp van ATTO en de standaard IOmeter, die beiden comprimeerbare data schrijven, en meet daarmee een synthetische eigenschap van de controller die van ondergeschikt belang is aan hoe snel het een en ander werkelijk klaar is.
En ik kan uit ervaring zeggen dat de hogere IOPS modellen het een stuk beter doen, zolang de daarbijbehorende schrijf en lees snelheden natuurlijk op percentage niet minder zijn dan de verbetering van de IOPS.
Je bedoelt dat je uit ervaring kan zeggen dat voor jouw gebruik etc. Ik kan uit ervaring zeggen dat voor mijn gebruik hogere bandbreedte modellen het een stuk beter doen, maar dat is een welles nietes omdat blijkbaar ons gebruik verschilt. En je hebt gelijk, daarbijbehorende schrijf/leessnelheden verschillen inderdaad, met 11%, t.o.v. 8% op IOps verbetering.
maar als je goed kijkt kan je zien dat er soms expres een limiet wordt toegepast.
Het exclusieve contract van OCZ wat boven de 10k IOps toeliet was voor zover ik weet 1 jaar geldig (en alleen voor SF-12xx generatie) en is dus inmiddels enkele maanden verlopen. De limieten die grotere modellen kennen (480 GB) hebben te maken met de capaciteit die ze kwijt moeten in dezelfde hoeveelheid packages waardoor lanes gedeeld worden. OCZ heeft geen reden om de IOps kunstmatig te beperken voor grotere capaciteiten, zeker omdat de marges daarop doorgaans groter zijn.
De haalbare waardes worden getest en in firmware vastgelegd, maar de iets hogere IOps heeft primair te maken met het proces, >32 nm NAND heeft iets hogere toleranties, daarom is b.v. ook de snelheid van de Vertex 2 met ca. 10% gedaald na de switch naar 25 nm (dit onafhankelijk van het aantal kanalen (64 Gbit vs. 32 Gbit die verhaal)).
en het feit dat deze modellen met hogere IOPS meer kosten heeft volgens mij het meeste te maken met de hogere licentie kosten die SandForce voor de firmware wil zien.
Nee, dat heeft te maken met de duurdere NAND. Dit verschil zal ook groter moeten worden als 25 nm goedkoper wordt en 32/34 nm opdroogt.