Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Samsung gaat 128TB-ssd maken in 2,5"-formfactor met qlc-nand

Door , 181 reacties

Samsung zegt een 128TB-sas-ssd te gaan maken, die is uitgerust met qlc-nandgeheugen met een capaciteit van 1Tbit per die. Door tot 32 van die chips op elkaar te stapelen in een package, moet een 128TB-ssd mogelijk worden.

Samsung heeft nog geen daadwerkelijke productaankondiging gedaan, maar spreekt over de 128TB-ssd tijdens zijn presentatie op de Flash Memory Summit. Onder andere AnandTech en PC Perspective berichtten daarover. Samsung heeft zelf een persbericht online gezet. Op de beurs kondigde Samsung de vijfde generatie V-Nandgeheugen aan, dat uit 96 lagen bestaat. De vierde generatie V-Nand die vorig jaar werd aangekondigd en de komende tijd naar veel producten komt, heeft 64 lagen.

Bij de vijfde generatie zal Samsung ook qlc-nandgeheugen met vier bit per cel gaan toepassen. De capaciteit van een enkele die van het qlc-geheugen is daardoor maximaal 1Tbit, ofwel 128GB. Dat is een verdubbeling ten opzichte van de vorige generatie V-Nand. Samsung gaat packages maken met 32 dies, wat 4TB opslagruimte oplevert. Om tot de voorgestelde 128TB-ssd te komen, zal Samsung 32 van deze packages moeten gebruiken. Samsung zegt dit te kunnen bereiken met de eerste generatie van zijn qlc-geheugen.

Samsung demonstreerde ook een nieuwe formfactor voor server-ssd's onder de noemer 'Next Generation Small Form Factor'. In feite gaat het om m2-ssd's, maar dan met een breder pcb van 30,5x110mm, zodat er twee geheugenchips naast elkaar geplaatst kunnen worden. Ook zijn de ngsff-ssd's hot-swapable, in tegenstelling tot gewone m2-varianten. Samsung toont een 1U-server met 576TB opslagruimte, door gebruik te maken van 36 PM983-ssd's met het ngsff-formaat. Iedere ssd heeft een opslagcapaciteit van 16TB. In feite is het voorgestelde formaat van Samsung een tegenhanger van de door Intel gepresenteerde ruler-formfactor, een formaat dat eveneens gericht is op het optimaliseren van de opslagcapaciteit in een beperkte ruimte.

Samsungs ngsff-ssd (boven) vergeleken met de m2-standaard (onder)

Verder kondigde Samsung zijn eerste 'Z-SSD' met Z-Nand gebaseerd op slc-nand aan, de SZ985 met een opslagcapaciteit van 800GB. Vorig jaar introduceerde Samsung de techniek tijdens de Flash Memmory Summit, zonder daar veel details over te geven. De ssd biedt volgens de fabrikant random read latencies van minder dan 15µs, wat 5,5 keer sneller is dan server-ssd's die op het 'gewone' V-Nand zijn gebaseerd. Samsung werkt aan een tweede generatie van het Z-Nand, dit keer op basis van mlc-nand. Daarmee gaan de prestaties iets omlaag, maar zal de datadichtheid flink toenemen.

Tom's Hardware merkt op dat Samsung binnenkort met nvme-ssd's komt met typenummer 980 en 970, als opvolger van de 960-serie. Daar heeft de fabrikant nog niets over bekendgemaakt, maar de nummers zijn verschenen op de UNH InterOperability Laboratory-lijst. Vermoedelijk zullen deze ssd's nog niet met qlc-nand gemaakt worden, maar uitgerust worden met tlc-nand dat uit 64 lagen bestaat.

Samsung 97x en 98x

Reacties (181)

Wijzig sortering
Waar ligt de grens 8)7
Ik was al verbaasd dat er 256 GB microSD kaarten bestaan. Goede ontwikkeling in ieder geval, kan niet wachten tot het betaalbaar wordt en ik het ook in mijn pc kan hebben.
Leuk voor datacenters, als buffer voor storage of dat soort dingen, maar wat moet je hier in hemelsnaam thuis mee? 128TB lijkt mij wat gortig voor thuis. En wat je er ook op gaat zetten, hoe backup je zoiets? Nee, dit is niet bedoeld voor thuisgebruik! En betaalbaar? Vergeet het maar ....

Tussen nu en drie tot vijf jaar is dit voor de professionele markt en zeker niet voor thuis. Als we in 1980 met 1MB zaten en vandaag met 16GB, is dat per jaar maar een factor 1,3. Als je dat loslaat op de hedendaagse SSD grootte, gaat het niet zo hard ...

Laatste alinea toegevoegd

[Reactie gewijzigd door Houtenklaas op 9 augustus 2017 21:35]

Wat je er thuis mee moet lijkt me wel duidelijk... alle bestandsformaten vreten steeds meer ruimte door de almaar hoger wordende video-, foto- en audioresoluties. Backuppen gaat wel steeds lastiger worden, dat wel ja. ;)
Die gaan lekker naar "De cloud", waarom thuis? De toekomst zit in het "anders" denken, al je meuk is veel efficienter in de cloud op te slaan, backups is eenvoudiger. Storage as a service. Je eigen opslag is zoooooo 2016 ;)

Waarom nu "-1" hiervoor geven, ik heb liever dat je onder mijn reactie aangeeft waarom je het daar niet mee eens bent. Opslag thuis - en dat bedoel ik heel serieus - heeft zijn langste tijd gehad. 't Zal even wennen zijn, maar de toekomst zit in de cloud. En niet in inefficiënte thuisopslag

[Reactie gewijzigd door Houtenklaas op 9 augustus 2017 22:29]

Data is meer dan alleen opslag...
Het gaat dan ook over backups, en backups in de cloud is leuk en aardig maar je data uploaden duurt zo lang met een normale consumentenlijn (KPN 2Mb/s upload glasvezel, Ziggo 3Mb/s...)...


Geef anders een argument voor de cloud ipv argumenten tegen de cloud te vragen ;)
Het is lang niet altijd goedkoper, simpeler of veiliger. Al je data op 1 cloud provider dan moet je wel heel erg zeker zijn dat er nooit iets gaat gebeuren, dan wil je dus al een tweede cloud provider en dus dubbele kosten en gedoe om alles naar beide te syncen.
Dan moet die backup er nog over en het is fijn als je niet je pc drie weken non-stop aan moet laten om die data steeds te uploaden en ook fijn als je ook gewoon nog kan internetten (bij je data kan in de cloud) terwijl hij up/download...
Dus er moet een flink abonement gekocht worden...
Local storage: 1 PC met een grote hardeschrijf erin en een externe HDD of NAS en done...
Altijd bereikbaar, sneller en niet gebasseerd op de drang om te 'innoveren'.
Als het enige argument voor de cloud 'anders denken' is, dan geeft dat al aan dat de cloud zelf niks te bieden heeft wat beter is, enkel nieuwer...
Dank voor je reactie. Waarom ik het oud denken vind, heeft meerdere oorzaken:

Net als autogebruik in de toekomst zie ik storage in de eigen omgeving afnemen omdat het domweg inefficiënt is en zoals je zelf al aangeeft een lagere upload een beperking is als je "remote" bij je bestanden wilt. De meesten onder ons hebben een download die 4-10 keer hoger ligt dan de upload. Bestanden in de cloud zijn dan ook heel veel vlotter op de bestemming dan andersom vanaf thuis.

Het kost stroom en vergt "always on". En - toegeven - ik heb nu ook 2 server 24/7 draaien thuis waar ik nu op werk vanaf het vakantieadres. Dat zijn we niet gewend vandaag de dag, ik ook niet. Ik ben nog gezegend van een 30Mbps upload wat redelijk OK is, maar velen halen dat op geen stukken na.

Een ander ding, ik zie niet gebeuren dat ik ineens 1TB wil uploaden naar de cloud. Wel dat ik in de loop van de tijd bestanden en foto's stukje bij beetje wil uploaden, dat gaat dan ook veel geleidelijker.

Kortom, de cloud heeft in mijn ogen juist heel veel te bieden, wij zullen alleen het vertrouwen moeten hebben om onze kostbare data daaraan toe te vertrouwen, daar zal voorlopig de bottleneck nog zitten. En dat bedoel ik met "anders denken". NIks meer, niks minder.
Zolang de internetverbindingen geen 1000 Mbps up- en download hebben, zie ik niet in wat jij efficienter vindt aan de cloud. Ik heb m'n eigen cloud, kan overal ter wereld aan mijn bestanden aan internetprovidersnelheid, en in het eigen netwerk aan 1000 Mbps. Verder hoef ik mij geen zorgen te maken dat het bedrijf waar mijn bestanden staan kopje onder gaat, in mijn data gaat neuzen, prijzen opslaagt, van policy verandert, limitaties oplegt, etc. Ook kan ik, en allerhande software, rechtstreeks aan de bestanden zonder extra software te moeten installeren, of ftp en andere trukjes te gebruiken.
Ja het verbruikt 24/7 stroom, en defecte schijven moet je zelf oplossen. Maar dat neem ik er graag bij.
Net als jij heb ik op dit moment ook mijn eigen cloud. Verbruikt nogal wat stroom op dit moment (12 schijven) en is remote beperkt tot mijn uploadsnelheid van 30Mbps. En ik gebruik het effectief wellicht 2 van de 24 uur terwijl de overige 22 uur de schijven draaien en verouderen, stroom verbruiken, etcetera.

Het vertrouwen in de cloud moet groeien en ik zou - denk ik net als jij - twee cloudproviders kiezen zodat bij ellende er nog een kopie is. Voor ons Tweakers is dat allemaal wel te doen, zelf klussen met schijven, maar mijn buurman zie ik geen schijf vervangen in een raid6 config.

Voor Jan met de Pet is je laatste zin hetgeen een cloudoplossing prettiger maakt. Gemak, eenvoud en thuis geen gedoe.

[Reactie gewijzigd door Houtenklaas op 10 augustus 2017 14:58]

Waar ter wereld ik ook zit kan ik bij mijn bestanden die op mijn NAS thuis staan 40TB is momenteel nog steeds genoeg voor mij waarom zou ik mijn data toevertrouwd aan derden - dan maar oldschool maar wel veiliger.
* Consumentenlijn glasvezel 100Mb/s! (De genoemde snelheden zijn voor koper.)
Dus 1Tb uploaden duur niet zo erg lang.
'n Cloud kan tegenwoordig al prima voor grote bestanden.
Snelheid kan nog met gemak omhoog maar is een verdienmodel maar wordt ook snel genoeg haalbaar.
Sowieso heeft nog lang niet iedereen glasvezel, heeft niet iedereen die glasvezel heeft de mogelijkheid om 100Mb/s te kiezen en wilt nog lang niet iedereen veel meer per maand betalen waardoor het duurder is om de cloud te gebruiken ;)
Verder duurt 1Tb (128GB?) alsnog meerdere uren op maximale snelheid (waarbij je dus niks anders kan doen en dus ook niet bij je eigen data kan...)
1TB duurt dagen, even lekker een paar dagen geen internet hebben en niet bij je eigen bestanden kunnen...
Daarbij gaat jouw provider ook klagen als je constant 100Mb/s aan verkeer hebt dag en nacht...
Dus nee, niemand gaat even Terabytes uploaden om vervolgens diezelfde Terabytes steeds te downloaden en een duur internetabonement te moeten nemen...

[Reactie gewijzigd door RGAT op 10 augustus 2017 22:47]

Waarom thuis? Zodat ik het te allen tijde fysiek in bezit heb en het beheren ervan niet uit handen geef. Hoef je je ook nooit druk te maken dat je verbinding blijft lopen of er om wat voor reden dan ook iets met je data gebeurt online. Ook privé zaken wil je liever niet ergens online hebben rondslingeren. Niet privé zaken kun je én thuis ergens opslaan én in de cloud. Liever niet afhankelijk van de cloud is mijn reden. Weer een abonnement moeten afsluiten is een andere. Dan ben ik maar 2016 ;)

[Reactie gewijzigd door Kubrix op 9 augustus 2017 23:27]

Ik ben er toch als behoorlijk fanatiek Cloudgebruiker nog niet helemaal over uit of dat wel echt op korte termijn toekomst is. Op het moment lijkt het vooral "ideaal" te zijn om mensen in plaats van eenmalig een bedrag per maand voor hun opslag te laten betalen met als bijkomend voordeel dat je er dan vanaf overal bij kan. Maar met als nadeel dat mogelijk "iedereen" mee kan kijken wat jij wel allemaal niet opslaat en dat daar ook weer monetization op plaats vindt.

De economie gaat langzaam naar de abonnementsdiensten en de maandelijkse bedragen, ik weet niet of dat perse een movement is die we graag aanmoedigen op de lange termijn.

Ik denk eigenlijk dat het hele cloudgebeuren nog wel een keer gaat terugstuiteren naar toch zelf dingen thuis opslaan. Op het moment dat mensen zich ervan bewust worden dat je voor het opslaan van 1 TB in de cloud elke half jaar net zo veel betaalt als het zelf thuis doen, dat er nog wel weer wat thuisopslagmogelijkheden worden aangeslingerd.

Zelf heb ik ruim 40TB aan opslag thuis staan, waarvan op moment van schrijven ruim 12 tb van gevuld is met voor mij onvervangbare data in de vorm van foto's en documenten. Nog een paar terabyte aan vervangbare data, en de rest is nog leeg.

Maandelijks komt hier 40-50GB aan nieuwe unieke data bij in de vorm van video / foto die ik zelf maak.

Uiteraard gaat er een encrypted backup de cloud in. Bij een unlimited storage provider, maar ook dat staat op de nominatie om met het neerzetten van een 2e "node" op een betrouwbare offsite plek om zeep te helpen.

TL:DR: We slaan imho een beetje door met de -as as service dingen, die veelal vooral goed zijn voor het verdienmodel van de bedrijven.

[Reactie gewijzigd door mvdam op 9 augustus 2017 22:36]

Hier ben ik ook enorm bang voor...

Toen ik laatst dat nieuws hoorde dat Disney al haar content van Netflix gaat halen om vervolgens zelf een videostreamdienst te beginnen moest ik wel echt even facepalmen.

De reden dat Steam zo'n success is is omdat vrijwel alles er te vinden is.... Ik krijg de laatste tijd steeds meer de neiging om mijn Netflix op te zetten want er is gewoon geen fuck meer op te vinden behalve Netflix's eigen content (waar ik niet bijzonder veel aan vind).
Bovendien blijkt dat tarieven snel kunnen stijgen en diensten vaak gewoon gestopt worden.
Waarom niet thuis? Je hebt er zelf de controle over.. Als zo'n bedrijf failliet gaat en dat kan zeker, zelfs dropbox, wat wil je gaan doen dan?

Zeker eens dat opslag meer en meer in the cloud worden maar dan wel je eigen cloud, gewoon thuis... En als dat de toekomst was werd er nu niet meer geinvesteerd in steeds grotere opslagcapaciteiten, ook de traditionele harde schijf is niet uitontwikkeld dus wat je zegt klopt gewoon niet.

Geloof me, je hebt dropbox niet nodig... Of welke andere cloud aanbieder ook... Ik zou ook niet weten waarom je dat zou willen... Mensen die dat doen praten wel anders als ze zien dat je het gewoon thuis ook kan, en nog vele malen goedkoper ook...

En buiten het feit dat je je privacy niet weg hoeft te geven aan weer een extern bedrijf heeft t alleen maar nog meer andere voordelen...

Nee never de nooit niet dat ik mijn bestanden extern weg zet,
Opslag thuis - en dat bedoel ik heel serieus - heeft zijn langste tijd gehad. 't Zal even wennen zijn, maar de toekomst zit in de cloud. En niet in inefficiënte thuisopslag.
Hoe wil je zo veel TB gaan uploaden dan? Zeker met dit soort SSD's is disk to disk data transfer vele malen sneller dan wat je met een normaal betaalbare internetverbinding tot je beschikking hebt. En welke cloud provider geeft je de beschikking over zo veel TB opslagruimte zonder een exorbitant tarief te rekenen voor die dienst?

Vooralsnog is thuis opslag binnen afzienbare tijd nog steeds efficiënter dan cloud opslag. Hoe meer TB's, hoe efficiënter.

Bovendien is cloud opslag net zo min betrouwbaar. Een dienstverlener kan failliet gaan, een dienstverlener kan overgenomen worden, een dienstverlener kan de voorwaarden veranderen, de 'veiligheid' van je data is aan voorwaarden onderhevig, je internetverbinding kan down zijn, etc.
Die gaan lekker naar "De cloud", waarom thuis? De toekomst zit in het "anders" denken, al je meuk is veel efficienter in de cloud op te slaan, backups is eenvoudiger. Storage as a service. Je eigen opslag is zoooooo 2016 ;)
Leuk gezegd, maar de prijs van cloud backup per byte volgt Moore's Law niet, puur omdat de kosten voor data transport (upload/download) dat niet doet, en cloudproviders rekenen die kosten door.
Cloud is geen oplossing voor 128TB backuppen; zou veel te duur worden (nog afgezien van de transmissietijd).
Thuis doe je er niks mee, geen hond die 5000 euro of meer voor zoiets uit gaat geven. Op een paar uitzonderingen na dan, die geld genoeg hebben.
Leuk voor datacenters, als buffer voor storage of dat soort dingen, maar wat moet je hier in hemelsnaam thuis mee? 128TB lijkt mij wat gortig voor thuis. En wat je er ook op gaat zetten, hoe backup je zoiets? Nee, dit is niet bedoeld voor thuisgebruik! En betaalbaar? Vergeet het maar ....
Er is jaren door sceptici beweerd dat we niet verder kwamen dan 1 TB en toen we toch op 3 TB zaten zou dat echt de grens zijn want door de introductie van de SSD's werden schijven snel obsolete. Ondertussen heb je die dingen in 10 TB.
Tussen nu en drie tot vijf jaar is dit voor de professionele markt en zeker niet voor thuis. Als we in 1980 met 1MB zaten en vandaag met 16GB, is dat per jaar maar een factor 1,3. Als je dat loslaat op de hedendaagse SSD grootte, gaat het niet zo hard ...

Laatste alinea toegevoegd
RAM en opslag zijn twee hele verschillende dingen. De bewaardrang wordt steeds groter, steeds meer gaat 'in de cloud', hele administraties gaan digitaal.

[Reactie gewijzigd door sdk1985 op 9 augustus 2017 22:40]

Ik draai thuis 4 disks van 4TB, wat effectief dus 16TB is. 128TB is natuurlijk significant meer, maar zo enorm veel meer is het niet, slecht factor 8..

Stel je doet veel met 4K video, dan vliegen die TB's er toch hard doorheen.. Data rates verschillende formaten:

Prores 444 4K: | 1.1GB/S | 509GB/hour
Canon RAW 4K (12-bit) | 2.3 GB/S | 1036GB/hour
Phantom Flex 4K RAW | 3.5GB/S / 1500GB/hour

In dit daglicht lijkt 128TB inneens niet zo veel meer... Link: http://vashivisuals.com/4k-beyond-video-data-rates/

[Reactie gewijzigd door paradoXical op 10 augustus 2017 13:07]

Ik zou dat materiaal nooit raw opslaan maar gewoon een goede encoder gebruiken.
Ik ben meer verbaasd op het feit dat er JBOD of RAID0 gebruikt wordt...
Ik heb in het verleden wel eens opnames gemaakt van echo-beelden (medisch) om deze vervolgens te analyseren, daar ga je dus geen compressie overheen gooien, of hij moet lossles zijn (wat alsnog een leuke besparing geeft).
De meeste dingen worden uiteindelijk betaalbaar.
In de tijd van de 8086 kon ook niemand bevroeden dat we tegenwoordig 16, 32 of zelfs 64GB geheugen in onze huiscomputer zouden hebben. Tegenwoordig is het al redelijk normaal. Zelfs telefoons gaan naar 6 en 8GB.
In de film Johnny Nemonic dachten de makers van de film zelfs een overdreven hoge "toekomstige" scifi opslagcapaciteit te hebben verzonnen van 300GB.

Terwijl 300GB niks voorstelt tegenwoordig, du zelfs science fiction schrijvers kunnen niet de dingen bedenken die technologie uiteindelijk mogelijk maakt.
Heb het nog steeds niet als module in mijn hoofd.
Is beter zo, anders zou je er toch alleen maar porno op opslaan.
Johnny Mnemonic - en 320 gb :p. Maar je hebt gelijk, is tegenwoordig niks meer ;)
In de film Johnny Nemonic dachten de makers van de film zelfs een overdreven hoge "toekomstige" scifi opslagcapaciteit te hebben verzonnen van 300GB.

Terwijl 300GB niks voorstelt tegenwoordig, du zelfs science fiction schrijvers kunnen niet de dingen bedenken die technologie uiteindelijk mogelijk maakt.
Toen ik in 1981 nog met de hand listings overtikte om op mijn 4K TRS-80 stond in hetzelfde -idioot dure- Amerikaanse tijdschrift elke maand een advertentie voor het Model 16 van dezelfde fabrikant. Helemaal de bom, met maar liefst 64K RAM en een ingebouwde cassetterecorder voor de backup. Minstens twee schooljaren Santa Paravia gespeeld (de eerste sim-game, text based met afbeeldingen die uit chr$ waren opgebouwd.) en zelfs wat cheats veroorzaakt. Ik heb op mijn telefoon geen enkel bestand van 4K of kleiner en Santa Paravia is al eeuwen uitgestorven. Toch bied ik af en toe op een TRS-80 als er een op MP opduikt.
Moet eerlijk zeggen dat ik wel minder onder de indruk ben van de toegenomen verbeteringen dan 'vroeger'. Nu is mijn geboortejaar 1980, dus ik heb ook niet alles meegemaakt, maar voor mijn gevoel als er in de jaren '90 bijvoorbeeld iemand 8 MB werkgeheugen had dan was dat ten eerste al erg prijzig en ging er vaak een wereld open wat betreft mogelijkheden op je computer. Werkgeheugentekort was echt een beperking waardoor je een hoop programma's niet kon draaien. Tegenwoordig is het mooi als je 8 GB of 16 werkgeheugen hebt, maar het merendeel van de software werkt ook prima als je 8 GB of 4 GB werkgeheugen hebt. Ik vind het wel knap dat het steeds kleiner/sneller en groter wordt, maar dat spectaculaire gevoel dat ik er vroeger bij had heb ik niet veel meer.
Ik heb in de jaren '90 voor Photoshop nog een 16MB module gekocht voor 1000 gulden. Was een superaanbieding toen. Een vriend (games en programmeren) met een snellere CPU in zijn computer was diep onder de indruk.
Of een Scsi disk van 80MB!! voor slechts fl 800. Dat was in 1989 maar dan ook nog een SCSI kaartje van fl 700 erbij.
Koopje! Bij m'n eerste computer -een Osborne 1, ik heb 'm nog- kon ik in 1982 een harddisk (een Winchester, zoals dat toen heette, als ik het me goed herinner) van maar liefst 5MB kopen voor ƒ 7.000 (blij dat ik het florijn/guldentekentje weer eens kan gebruiken - alt-159).
Mijn eerste pc had niet eens een harddisk....
Weer wat geleerd, ik dacht dat Photoshop ergens in 2005 ofzo uitgebracht werd. Maar het programma is nota bene ouder dan ik zelf ben! :P
Nee, Photoshop is veel ouder, de eerste versie kwam uit in februari 1990. Dus al meer dan 27 jaar oud! Oorspronkelijk was het een programma voor de Apple Macintosh, de Windows-versie is later pas ontwikkeld.

[Reactie gewijzigd door jj71 op 10 augustus 2017 08:53]

... maar dat spectaculaire gevoel dat ik er vroeger bij had heb ik niet veel meer.
Ik heb dat ook tegenwoordig. Ik denk dat het te maken heeft met het feit dat je de technologie (in dit geval je PC) gewoon bent geworden.
Toen ik mijn eerste computer aanzette in 1986 (Commodore 128D), dan gaf dat ook een waauw-gevoel. Net zoals ik mijn volgende computer voor het eerst aanzette (Commodore Amiga 2000). Telkens gaf dit een super tof gevoel. Maar als ik vandaag een nieuwe PC koop (heb vorige zomer een gloednieuw systeem samengesteld), dan zet ik die gewoon aan en installeer ik mijn programma's alsof het een dagelijkse sleur is geworden. Ik vind er niks speciaal meer aan door gewenning, waarschijnlijk omdat iedereen tegenwoordig een PC heeft.
Ofwel komt het door het ouder worden... :+
[...]


Ik heb dat ook tegenwoordig. Ik denk dat het te maken heeft met het feit dat je de technologie (in dit geval je PC) gewoon bent geworden.
Toen ik mijn eerste computer aanzette in 1986 (Commodore 128D), dan gaf dat ook een waauw-gevoel. Net zoals ik mijn volgende computer voor het eerst aanzette (Commodore Amiga 2000). Telkens gaf dit een super tof gevoel. Maar als ik vandaag een nieuwe PC koop (heb vorige zomer een gloednieuw systeem samengesteld), dan zet ik die gewoon aan en installeer ik mijn programma's alsof het een dagelijkse sleur is geworden. Ik vind er niks speciaal meer aan door gewenning, waarschijnlijk omdat iedereen tegenwoordig een PC heeft.
Ofwel komt het door het ouder worden... :+
Ik kreeg het wauw gevoel nog vaak als ik bij anderen achter de PC mocht omdat iedereen altijd betere hardware had dan ik. Ik heb nu zelf de snelste computer in mijn vrienden/kennisen kring dus nu krijg ik dat gevoel nooit meer :'(
' wauw, dat je daar op kunt werken' :+ :X
Ik was met een C64 begonnen (1988), daarna een Amiga 500 (1992) en mijn eigen pc gebouwd toen de pc krachtig genoeg werd voor gamen en multimedia, dus werd een Pentium 200 (1996). Ik weet nog dat we naar een game beurs gingen en ik kocht Tombraider. Ik kon die wel draaien, maar een vriend met een pentium 120 ging niet.
Ja er veranderd voor de rest niet veel. Je pc draait nog steeds dezelfde software en hetzelfde OS.
ik ben dat helemaal met je eens. De eerder SSD die ik kocht was wel weer echt een stap voorwaarts voor mijn gevoel.

Er zijn ook meer mogelijkheden gekomen. Er was een hoop software (ook games) die bijvoorbeeld gewoon niet draaiden zonder geluidskaart of 3dfx kaart etc. Maar nu kun je vaak het detailniveau gewoon naar beneden gooien en HOP, ik speel gewoon lekker World of Warcraft op mijn surface protje :-)
Ik kocht mijn eerste SSD (32GB) in 2009. Was een gigantische wauw-factor :D
Wat startte mijn volledig getweakte Windows Vista 64bit snel op zeg :)

Heb nu een GEIL (je gelooft het niet) Zenith S3, 120GB. Ook die is bloedje snel. Meer heb ik vooralsnog niet nodig, heb verschillende SSHD's. 1.92TB is wel erg veel :S
En weet je nog de prijs van die SSD toendertijds? Raar te bevatten, 8 jaar geleden al een SSD in je systeem.

Ik weet nog goed, dat een van de verkoop-praatjes van Win10 was : Ja deze is binnen 6 seconden opgestart! Kan alleen met een SSD.

Ook die wauw-factor kan ik me goed herinneren toen mijn HDD plaats maakte voor een SSD.
Ja, 200 euro :P En kreeg nog korting ook, eigenlijk was ie 240 euro.
Yep, 200 euro voor een 80gb intel. Daar koop je nu 800gb voor. 10x zoveel in 8 jaar.
Techniek staat niet stil.
Heb nu meerdere Seagate 1TB SSHD's hier in de Peej Ceej hangen, die zijn ongeveer net zo snel als de SSD's van 'toen', zo niet sneller. Ik heb ook nog een Momentus XT erin hangen, maar die functioneert tegenwoordig (is 'op leeftijd') als backup voor longterm data. Met andere woorden, die zit in een hotswap-bay die alleen maar aan gaat als ie daadwerkelijk beschreven wordt.
Ik had dus exact hetzelfde! Een 30GB OCZ SSD (heb hem nog liggen, functioneert nog). Een wereld ging open!
pricewatch: OCZ Core Series V2 SATA II 2.5" SSD 30GB
Die had ik ook (32gb eigenlijk), maar bij mij gingen er 5 (!!) binnen 1 jaar defect. Kreeg steeds een nieuwe.
Toen ik ene JELLE van OCZ Nederland sprak via Skype, bleek dat de serie waar ik 'm van had, een ontwerpfout had. Dat hadden ze me wel mogen vertellen. Uiteindelijk kreeg ik m'n geld van aanschaf terug.
Ben overgegaan op de Corsair P serie en nooit problemen gehad. Uiteindelijk kwam ik via een omweg bij G.E.I.L. uit, na ook een Adata SP900 gehad te hebben (die mijn vrouw uiteindelijk ging gebruiken in haar PC). Die G.E.I.L. werkt nu al zo'n 3jr zonder enige problemen.
Mijn main computer Phenom2 X4 965 al 8 jaar oud heeft paar OS gezien en elke OS als multiboot op SSD erbij gezet. 128GB 256GB en W10 op 512GB
Heeft ook paar gkaarten gezien.
Heb 3 SSD erin.
Tegenwoordig heeft hardware software ingehaald terwijl vroeger hardware de beperkende factor was. Een goed voorbeeld is de Ipad pro. Super snel maar de iOS en de apps kunnen nog steeds geen laptop vervangen omdat de softwarematige mogelijkheden achterlopen.

De grote uitdaging op hardwarevlak zijn efficientie. Smartphones en tzblets gaan maar 1dag mee op een lading en high end desktops hebben nog steeds een stevige koeling nodig tijdens het gamen en renderen en VR, 4k en 3d maken het er niet makkelijk op om alles bol te draaien. De waauw blijfr uit omdat alles zo incrementeel gaat.
Als je begin jaren 90 8MB geheugen in je PC had dan kon je daar verdomd weinig mee. Tegen de tijd dat je het nuttig kon gebruiken was het spotgoedkoop.

Ik kan me nog herinneren dan ik op een LAN party als enige 8MB geheugen had. Het enige voordeel wat ik had was dat ik een RAMdisk kon draaien waar ik m'n spel op kon zetten. Laadtijden waren voor mij dan ook een fractie van wat ze voor de rest waren. Resultaat: De meeste tijd zat ik te wachten aangezien de rest nog niet in het spel zat....

Ongeveer hetzelfde als wat je nu hebt met 32GB geheugen; je PC gaat er niets beter van presteren.
Als je begin jaren 90 8MB geheugen in je PC had dan kon je daar verdomd weinig mee.
Als je MS-DOS draaide misschien niet (hoewel veel spellen toen DOS extenders gebruikten) maar ik draaide OS/2, en dan was 8MB krap aan. Als student kon ik toen ook geen 16MB betalen. Ik had het zo ver mogelijk uitgekleed en gefinetuned, dan ging het wel. Ik schreef toen voor m'n afstuderen rekenprogramma's en onder OS/2 kon ik er een hele reeks parallel laten lopen zodat ze 's nachts rekenden en ik de resultaten 's morgens mee kon nemen naar de universiteit.
eind jaren 80 begin 90: leren omgaan met autoexec.bat en confyg.sys om het geheugen precies perfect in te stellen voor het ene spel
HYMEM ...

En het "leuke" was: toen geen internet om instellingen te checken. Je las het of in PC tijdschriften of het was trial and error. Epic races tegen je schoolcollegas / vrienden wie het eerst de beste instelling had gevonden voor "Bushido" of "Falcon". Mooie irritante tijden...

P.s.: en iedereen had dus dan ook een
autoexec.bat
autoexec1.bat
autoexec2.bat
autoexec.old

etc om te kunnen switchen tussen verschillende instellingen.
Ik weet nog wel toen wij in 1999 een nieuwe PC kregen. Was toen nog net geen 17. Kwam met een heuse 128MB ram kaart, dat was een meerprijs van 800 gulden hihi.
En op de 8GB hdd t.o.v. de eerder gekozen 6GB hdd moesten we bijna twee extra weken wachten. Die moest namelijk besteld worden. Kan je je het voorstellen tegenwoordig ? Een harde schijf die besteld moet worden, omdat ie niet mainstream is ? Poeh, en een lol dat we hadden toen we de PC kregen.
We waren in de straat al best 'bekend', want wij hadden een PC en de rest van de hele straat niet (130 huizen). Meh :)
Wij waren overigens ook de eerste in de hele WIJK die internet hadden haha.
Dat gevoel heb ik voor het laatst echt gehad met usb-sticks. Toen floppydisks langzaam werden uitgefaseerd en de usb-stick populair werd weet ik nog dat ik voor mijn vader geregeld usb-sticks kocht omdat hij op school "de blits" maakte onder zijn collega's met zijn usb-stick (de rest werkte nog met 3.5" diskettes). Hij kon 16-32MB (geen GB!) meenemen op een stick van 2-3 tientjes en die collega's wilden maar wat graag ook zo'n grote en makkelijk meeneembare opslag voor hun toetsen, oefeningen en andere documenten die je als docent hebt gemaakt over de jaren. Ik vond het toch al best indrukwekkend dat er behalve die 16 en 32MB dingen ook 128MB was. Dat waren grofweg 100 diskettes in je broekzak of aan je sleutelhanger!

Daarnaast vind ik het idee dat er 128GB (256GB is ook verkrijgbaar) op de micro-sd kaart van mijn actioncam past ook bizar. Ding is kleiner dan de nagel op mijn pink en kan 1000 miljard bits bevatten 8)7 Dat zijn er 133 per wereldburger... Op zo'n klein oppervlak, echt indrukwekkend :) We leven wat dat betreft in een mooie tijd qua IT-techniek.
Hier geboortejaar 1986. Ik herinner mij nog mijn eerste digitale camera: een Sony DSC-P72: ¤400 en haarscherp beeld (ondanks resolutie van 2MP). Destijds geleverd met een MemoryStick van 16MB... Constant heen en weer lopen naar mijn laptop om de volle kaart terug te ledigen. In 2004 kostte een MemoryStick Pro 1GB zo'n ¤960!
Ik kocht in het eerste Euro-jaar, 2002, een Trust camera. Zo'n ontzettend klein mormelding met een 128MB kaartje erbij. Trust was toen nog troep, maar deze camera was subliem voor die tijd. We gingen toen skiën en ik maakte de blits met een digitale videocamera, waar de rest nog met zware Hi8 tapes rondzwierf.
Vanaf 2003 ging het overigens snel met die techniek en kwam de ene na de andere higher definition camera uit.
jha een tijdje terug door defect geheugen maar 4gb in mijn computer gehad.
Een hoop games die niet lekker draaide.
8GB is toch wel het minimum voor een huidig gamesysteem.
Qua hardware ben ik het volledig met je eens. Ik weet nog dat ik samen met een collega minutenlang in stilte naar de nieuwe 80486 pc voor CAD toepassingen stond te kijken...

Maar software is een ander verhaal. Van het eerste "there's a mushroom" liedje op een krakende pc-luidspreker naar kleur en multimedia naar navigatie op een pda naar een zoekmachine die "alles" weet naar 4K 3D-tekenfilm maken naar AI, zelfrijdende auto en beeldherkenning. Het gaat hard....
En ik was al zo apentrots dat ik 64KB in mijn VIC-20 had geknutseld...
Oh wauw kon dat, nooit geweten. Heb wel zelf geheugen chips vervangen, zelf op bord solderen dus. Maar wist niet dat er grotere op passen. Heb nog wel een C64 maarja om dat nu nog te doen 30 jaar later..
Beter laat dan nooit toch?
8x 8k dynamische ram met als casram de refresh van de videochip...
een beetje gluelogics om te bankselecten..
Het aantal toepassingen dat nut heeft bij meer opslag neemt steeds verder af. Vroeger had je baat bij meer MB's om meer Office bestanden te kunnen opslaan. Nu is zo'n bestand peanuts. Vroeger had je baat bij meer GB's voor je MP3/muziek bestanden. Dat wordt ook steeds minder relevant. Idem voor foto's, het aantal megapixels in telefoon/huistuinkeuken camera's neemt ook niet schrikbarend meer toe. Je kunt hooguit nog meer foto's maken op vakantie zonder tussendoor op te schonen. Maar ook dat is bijna al niet meer nodig. Blijven 4k/8k filmpjes over. Voor een groeiend aantal consumenten wordt een toename in opslag steeds minder relevant.
Tuurlijk, daarom staat de ontwikkeling ook stil |:(

Meer rekenkracht leidt tot meer data waarop die berekeningen uitgevoerd gaan worden en die data moet opgeslagen worden. Hoe kun je stellen dat er in de toekomst niet meer en vooral andere toepassingen komen die meer data opleveren?!
Voor 4k, 8k en 3D toepassingen leidt meer rekenkracht tot betere voorspellingen en hogere compressie verhoudingen dus kleinere bestanden.. :) :)
Ze moeten wel stevigere compressie toepassen, zijn nieuwe standaarden voor maar alsnog worden de bestanden gewoon groter dan een full hd variant.
Inderdaad, gedownloade films en zo. Niet iedereen houdt van streamen.

En ontwikkelomgevingen lusten de GB's ook, die 15MB zipfile met de Signal sourcecode is - na builden en alle gegenereerde tussenbestanden aanmaken - zo'n 400MB geworden op m'n harddisk. Een paar offline repositories voor verschillende testen en dat loopt ook al richting vele GB's.
Als heel veel 4k materiaal hebt dan gaat het heel snel
Snap ik niet goed. Als je als professional zoveel materiaal zelf schiet, dan zou ik een cloudprovider regelen. En anders zou ik niet goed weten waar dat materiaal vandaan moet komen.
Jij met je cloudserver. Grote bestanden zijn totaal niet geschikt voor de cloud. Een uur 4k is minstens 500GB zoals hierboven wordt vermeld. Met een 10mbit upload duurt dat bijna 6 dagen. Lekker praktisch. Stel je betaalt 30 euro extra per maand voor het duurste Ziggo abo met 30mbit upload, dan ben je nog 2 dagen aan het wachten. Een harde schijf gaat 50x sneller dan een 30mbit verbinding.
Je moet natuurlijk niet huidige consumentenlijntjes gaan gebruiken om je professionele 4K bestanden te uploaden. Netflix streamt mondjesmaat 4K, dat werkt prima met een hedendaagse download. Waarom zou ik die moeten uploaden? Daarnaast zal de upload gaan meestijgen met de behoefte, als die er is. Ziggo is bezig met Docsis 3.1 met een maximale upload van 1Gb, dat is dan beter bruikbaar, maar nog steeds een consumentending. Voor professioneel gebruik zijn er nu al dataverbindingen met een upload tot 10Gb, dat lijkt me dan beter bruikbaar als je als professional daar gebruik van maakt. Die bestandsgrootte is niet het probleem, je upload is het probleem. En daar is ook vandaag al wat aan te doen.

In Tweakerland is dit - besef ik - geen populaire uitspraak die ik doe, maar besef dat wij misschien nog geeneens 2% van de bevolking uitmaken. Voor velen zal de cloud een oplossing zijn, voor weinigen niet. En daar hoort een passende upload bij. Prima toch? Ieder zijn ding.
Zodat je iedere keer alles moet up/downloaden? Dat schiet niet op. Als je met dat soort materiaal werkt wil je dat gewoon lokaal hebben.
Syncen met je lokale disk is dan natuurlijk de oplossing. Lokaal houden wat je lokaal nodig hebt en de rest in de cloud. En dan ook natuurlijk een zakelijke dienstverlening van 1Gb up/down. Kost wat, maar dat scheelt enorm "gedoe" op de thuislocatie.
Elke keer je 4k beelden uploaden/downloaden? Weet niet wat voor internet je hebt, maar cloud is NIET de oplossing voor veel grote bestanden.
Dat zou ik toch iets te riskant vinden... Bovendien kan je het zelf, toch een stuk safer... En het kost gewoon niks extra... En zeker voor die capaciteiten, die worden voor zover ik weet nergens aangeboden dus hoe wil je dat doen dan? Gewoon lekker in-house dus....
Dan heb je er zelf ook de controle over.

Maar 128 TB.. Zelfs al doe je 4K, dan kunnen er voor mijn gevoel nog steeds gevoel duizenden maar toch zeker honderden uren aan materiaal op, Het gaat welsnel maar 128TB is zelfs met 4K nog zomaar niet vol hoor....
Cloudproviders moeten hun materiaal ook ergens opslaan hè.
nieuws: 50TB-ssd van Viking Technology kost ongeveer 20.000 dollar

dus 50TB van viking is 20K dus reken maar dat dit ding 60-70K gaat kosten
en dan heb je ineens een doa :)
Beter dan dat 'ie er na een half jaar mee stopt.
Dat is zo'n 400$ per TB. Nog steeds hoog maar in verhouding klopt dat wel met de huidige prijzen van 300-400$ voor een 1 TB SSD.

We zaten vorig jaar goed op de richting naar 200$/TB maar dat duurt wat langer helaas.

[Reactie gewijzigd door CapTVK op 10 augustus 2017 09:31]

We zitten nu niet met 16gb, maar makkelijk met een terabyte aan flash en meerdere terabytes aan hdd. Ook hadden we in 1980 nog niet 1mb, dus je berekening is way way way of.

Wat nu nog veel lijkt is over een paar jaar gewoon. Precies wat E-man zegt: sd kaarten van 256gb zijn nu prima betaalbaar. 4 jaar geleden was dat ondenkbaar en niet te betalen.
Nee hoor, ik zat even met intern geheugen te rekenen, maar als je met een 10MB schijf begint in 1980 en elk kaar een factor 1,5 erop zet, zou je vandaag met een schijf zitten van 31TB. Ik heb die nog niet gezien in de pricewatch, jij wel? O-)
In 1980 had jij ook geen 10mb harde schijf in je thuis computer. Dus die berekening klopt wel aardig. Daarnaast hebben we het hier over opslag, dus ja.
Ik zat pas in 1984 op die 10 MB harddisk in m'n dure Olivetti PC (wat wazzie mooi en slank voor die tijd).
Nu heb ik 2,5TB in m'n snelste PC maar daar kom ik nog steeds een heel eind mee.
Google music/drive/photo's helpt met de backup en beschikbaarheid vanuit nergenshuizen enzo.
Leve Google ook al zijn het blijkbaar linkse sukkels (of bangbroeken).
IBM 8086 met 20MB dankzij "Stacker" i.p.v. 10MB :*)
https://en.wikipedia.org/wiki/Stac_Electronics#Stacker

[Reactie gewijzigd door XRayXI op 10 augustus 2017 11:40]

Klopt, daar heb ik in die tijd ook veel plezier van gehad :)
Betaalbaar is het zeker nog niet, maar ik werk bijvoorbeeld veel met video dan is het zeker welkom
Toch... vroeger leek 1Tb ook al veel. Stel dat je heel je leven gewoon op 1 disk opslagmedium kan werken, nooit hoeft te wisselen omdat je te weinig ruimte hebt, dat zou toch ideaal zijn? Hoogstens dat je soms het opslagmedium vervangt vanwege slijtage of een backup draait...

Ik denk dat er in de toekomst, met 3D + 8K en machine learning voldoende toepassingen zijn om 128TB te vullen.
Je zult nooit je hele leven met maar 1 medium werken, na SSD's van petabytes is er alweer iets nieuws bedacht. We zijn in enkele decennia al van ponskaarten via tapes, floppy's, diskettes, hdd's, cd's, naar chips gegaan. What's next? Holografisch, biologisch?
True, maar misschien dat deze opslagmediums over 20 jaar zo goedkoop zijn en dat we het als 'oneindige' opslag kunnen noemen / gebruiken voor goedkope apparaten.
Je zou je hele leven op ponskaarten hebben staan. Ben je mooi de klos.
Datacenters en Servers hebben mss meer baat bij de 1 petabyte!
https://www.theverge.com/...ervers-enterprise-storage
En betaalbaar? Vergeet het maar ....
Ooit wel, en dat is nou net de kern, daar wacht ie op, nergens zegt ie dat het binnenkort betaalbaar is :)
Ja.. en 640k geheugen is genoeg voor iedereen.. :)
Wel als je QEMM gebruikt :)
Je weet dat Bill dat nooit gezegd heeft?
Klopt. Maar het is wel een uitspraak die zelfs vandaag nog vaak wordt gedaan. Elke keer denken mensen: nu zijn we er. Over 128TB lach je over pak 'm beet 5 tot 10 jaar. Hoe kort is het niet geleden dat 512MB usb sticks gigantisch waren!

hoewel. 128TB wordt misschien mainstream over 15 jaar. Het is nog wel erg veel.

[Reactie gewijzigd door ikwilwp8 op 9 augustus 2017 21:47]

ja die keer dat ik mijn eerste usb stick kocht. Mijn allereerste 256 mb. Schreeuwend duur. Ik werkte nog met floppys. Dat ik naar huis fietste met 256 mb in de jaszak. Een bizar vrolijk gevoel, opeens van 1.44 naar 256 mb.
Ik studeerde nog. De computers hadden natuurlijk geen dure cd rw drive in de pc. Een verslag op school kan je dan niet opslaan.

Volgens mij hadden de pcs helemaal geen rom aan boord. Moest allemaal met floppys. Totdat de Usb stick kwam.

Mail kon natuurlijk ook, maar niet elke pc had internet en bijlagen mochten niet te groot zijn.

De romantische tijden

[Reactie gewijzigd door aljooge op 9 augustus 2017 23:03]

Zip disks
Die had bijna niemand. Mijn oom had er een, wel 100MB :D

[Reactie gewijzigd door Neko Koneko op 10 augustus 2017 08:01]

Had ze wel, beter dan die Qic tapes.
Heb hier nog 2 drives liggen en een stuk of 15 disks.
1 extern (printerpoort) en 1 intern (IDE).
Geen idee of ze nog werken.
Schreeuwend duur en o wee als je drive de click of death kreeg... Maar wel handig ja, ik heb er nog een paar liggen. Zipdrive staat vstof te happen in een kast, ik vraag me af of er uberhaupt nog wel drivers voor dat ding zijn voor windows 7.
Niet goedkoop, click of death nooit gehad. Heb nog een usb versie, die zal toch wel werken onder Windows 10?
Geen idee, ik heb de paralelle poort versie. Ik heb me ooit nog rot gezocht naar een extra voeding voor dat ding, heeft 5V nodig en dat was nergens te krijgen. Tot er een lichtje ging branden en ik zelf een goedkope "voeding" maakte door een stekkertje aan de 5V van een Y split kabel te solderen en dat liet uitsteken uit de PC kast.
Ik gebruik hier nog steeds een 128 MB stick, om gescande documenten van een oude aio naar een computer te kopiëren.

Ontopic: ben benieuwd of dit ooit mainstream wordt voor de gewone consument met de alsmaar goedkoper wordende cloud diensten en betere/snellere mobiele netwerken
Mijn eerste USB stick was eentje van 128MB en het werkt nog altijd. Daarna eentje gekocht van 1GB, veel later eentje van 8GB en sinds een jaar of 4, houder van eentje van 32GB (waar de backup staat van al mijn OS-installs (Win 7 & Win 10)). :-)
Dat het ooit mainstream zal worden, daar twijfel ik zeker niet aan. Ik zeg alleen niet tussen nu en pak hem beet 5 jaar. Eerst de professionele markt en als die uitgemolken is, dan volgen consumenten. Maar dat het 15 jaar gaat duren betwijfel ik. Ik zet in op 5-8 jaar.
Dat ontkent ie, en ontkennen kan altijd.
En nu zitten we op honderdduizend keer zo veel :)
8k films... Gaat hard :-) 160GB per film :-)
8K is gewoon zwaar overkill... En voor de gewone markt bestaan ze gewoon nog niet... En tevens maar zeer de vraag of dat ooit wel gaat komen. Denk het niet namelijk...

[Reactie gewijzigd door Nokian95dude op 10 augustus 2017 05:53]

Tuurlijk wel!
Voor 4k zijn men ook; gaat nooit komen

En aangezien de tv in de woonkamer steeds groter wordt zal het op den duur zeker een 8k worden.
In Jappan zenden ze al een zender in 8k uit.
Olympische Spelen in Rio zullen in 8k worden uitgezonden.
Je koopt er overduidelijk twee en dan in raid ;)
Tussen nu en drie tot vijf jaar is dit voor de professionele markt en zeker niet voor thuis. Als we in 1980 met 1MB zaten en vandaag met 16GB, is dat per jaar maar een factor 1,3. Als je dat loslaat op de hedendaagse SSD grootte, gaat het niet zo hard ...
Ik dacht eerst dat je een typo had gemaakt, maar factor 1.3^37 = 16440. Oftewel inderdaad van 1M naar 16G.
Vermoedelijk heb je het dan over RAM?

Storage vraag zou je volgens mij beter kunnen vergelijken met de historische groei van schijfruimte.

Gevoelsmatig ging het vanaf '94 met een redelijk constante factor, maar dat kan ik zo even niet staven met een online bron.
Wikipedia heeft een aardig lijstje, waar best een aantal punten uit gepakt kan worden.
2005 - 500 GB drive.
2017 - 12 TB drive.

Dat is dus 12 jaar tijd en een factor 24. Dat is ruwweg 1.3x per jaar.

Als we terug gaan naar 1991, met de 1 GB drive (3.5" form factor), dan is dat een factor 12000 in 26 jaar. Dat is dan een factor 1.44 per jaar. Alleen was dat wel een met 8 platters, dus waarschijnlijk geen normale hoogte die we kennen.
Dan de 1996 schijven die toen maximaal verkrijgbaar waren, was 3 GB. (uit het hoofd, niet het lijstje op Wikipedia)
Factor 4000 in 21 jaar. Oftewel toename van 1.48x per jaar.

Oftewel de groei van de storage-vraag is ruwweg 1.45x per jaar.
Nu zitten we alleen wel met een beetje vreemde situatie. De storage-vraag voor thuisgebruik neemt niet echt meer toe. Vrijwel iedereen kan al een paar jaar toe met de orde van 10 TB (incl backups). Echter de onderzoeksinstituten lijken nog steeds een ongekende groei naar opslag te hebben en cloud-diensten mogelijk nog meer. Naast de jaarlijkse vervang ronde van hdd's voor een nieuwer model worden er nog steeds datacentra bijgebouwd.
Is inderdaad een hele lading, wellicht handig voor 8k movies? Maarja al dat streamen, maakt het weer overbodig.
Helemaal gelijk in. Dat is geen thuistoepassing. @misterbennie je hebt gelijk in zoverre dat datahonger onvoorstelbaar kan groeien, maar informatie moet ook veilig zijn. Dit soort hoeveelheden informatie op een enkele drager en de afwezigheid van een realistisch backup en restore scenario, maakt dat ik liever iemand een array van schijven zou aanraden in deze usecase dan een enkel monster van 128TB.

Never underestimate the bandwidth of a station wagon full of tapes hurtling down the highway.

—Tanenbaum, Andrew S. (1989).
Bill Gates zei eens "No one will need more than 637 kB of memory for a personal computer"
Wat nu veels te hoog lijkt zal over een paar jaar dood gewoon zijn en lachen we om 256GB ssd's
Als fanatieke downloader weet ik daar wel dingen voor. O.a. die stapel recordable DVD's erop pleuren zodat die wat toegankelijker worden.
Precies die reactie die jij nu geeft kreeg ik destijds toen ik een 1GB harde schijf kocht in de jaren 90 toen dat nog de grootste schijven waren.

Zoals ze hier al aangeven de honger naar meer opslag gaat door en uiteindelijk is zelfs 128TB bijzonder weinig.
Nou doe mij er maar eentje hoor! Het zal vast voor de consument onbetaalbaar worden, maar als ik zo'n stikje in mijn NAS kon proppen dan hoef ik me niet steeds zo'n zorgen te maken over wat ik allemaal download en lekker alles zonder er bij na te denken op 1080p binnenhalen.
Goed om te weten dat de ontwikkeling van de SSD nog wel even door kan razen. De ontwikkeling van onder andere processors en hardeschijven gaat al een stuk minder snel dan een aantal jaar geleden (laten we zeggen tot het Pentium 4 tijdperk).
dat valt ook best mee de kloksnelheid is niet sneller, maar als je naar de benchmark kijkt https://www.cpubenchmark....Pentium+4+3.20GHz&id=1076 pentuim 4 zit op 376 hoewel de moderne cpu's tussen de 5000 en 10000 zitten, dus zo'n 15 tot 25 keer sneller zijn.
Intel Pentium 4 3.20GHz single thread score 694
Intel Core i7-6700K @ 4.00GHz single thread score 2349

Nog niet eens een factor 4 terwijl de klok van de i7 ook nog 25% hoger is dan de P4
CPU zijn al lange tijd niet meer single threaded en single core. De performance van CPU is SMP SMT.
Dat vereist wel vergaande architectur optimalisaties om goed van SMP SMT gebruik te maken.

Als nu de HEDT 16 core Threadripper en 18core i9 tegen de snelste prescott P4 zet.
Kijk je niet meer naar single threaded. Als maximale uit CPU wilt halen kom je er niet onderuit dat er meerdere cores zijn.

Software dat single threaded is. Is zeer ouwe software of eisen zijn zo laag dat die vergaande optimalisatie niet nodig is.
niet alle software leend zich voor goede schaling. Vooral als men bij OOP aanpak star blijft aanhangen.
Oop is modeleren architectuur naar realworld zo als mensen het zien.
Er zijn andere methoden die software modeleren naar hardware zoals in Scientific simulaties datacenter supercomputers waar SMP iets heel oud is en uiteraard meer dan alleen OOP gebruikt wordt.
Functioneel programmeren. Wat meer SMP vriendelijker is.
Waar ook rekening gehouden wordt met memory acces pattern zoals als cache gebruik systeem memory maar externe zoals HDD en SSD.
Real world OOP is domain driven development, als je denkt dat OOP altijd een vertaling is naar "real world" denk ik dat je te veel denkt aan voorbeelden die mensen geven om OOP uit te leggen.

OOP gaat prima samen met multi threaded applicaties. Sterker nog functioneel programmeren is juist minder vriendelijk voor multi threading omdat je geen mooie interfaces cross thread kunt defineren.

Mogelijk lees ik helemaal verkeerd maar er lijkt veel niet zo te kloppen in je reactie. Wat je vaker ziet is dat juist applicaties zichzelf opdelen in meerdere applicaties. Zo heb je een entry point welke heel snel messages tussen de verschillende applicaties gooit waardoor je heel erg gemakkelijk van meer threads gebruik kunt maken, multi threaded software is namelijk ook wat meer foutgevoelig (ja je kunt alles afvangen maar het is gewoon makkelijker om fouten te maken). Dus stiekem zijn best veel moderne applicaties single threaded, maar draaien ze op een Engine die meerdere instanties kan starten of zijn het gewoon clusters van services e.g. Micro services of iets dergelijks.

Maar ik mis waarschijnlijk iets het is vroeg.
Ja voor beginnende CS is dat juist de reden dat het net dat extra zetje geeft voor toegankelijkheid.
Uiteraard is OOP meer dan dat. Het ondersteund large scale development modules en interfaces.
Maar ook large team je junior programmers hun task afschermen van geheel. Al werkt dat niet goed met C++ maar meer met pure OOP talen. Zelf meer gefocused op C++
Interfaces is largescale gebeuren. Maar uiteraard kan je methodieken per module inzetten.
Ook menen andere dat je sommige methodieken kan mixen. OOP DOD.
Zo werkt Functioneel goed samen met Reactive programming.
Maar het kan ook juist methodiek breken.
Het probleem dat Functional aanpakt en pure functional talen is het uitsluiten van neven effecten.
Imutable , constness en shared data mijden. Heb je dat niet dan werkt multithreaded correctness als verkeers licht dat parralel eigen tegen werkt. Functioneel heeft uiteraard zijn beperkingen als je zal toch ergens iets moeten muteren. OOP heb je ook methoden zoals lockfree en atomic maar is lastiger voor te stellen en geavanceerde materie.

In ECS de DOD way kan je System POD array verwerken met C++Amp kernel. Of threadpool .
Wat voor intermediate goed voor te stellen is maar Job systems en atomics is nogal complex.

Maar zoals de game industrie geworteld is in C++ en OOP legacy. En er dus grote sucsesvolle producties zijn. Zijn er op die andere manieren wat indies bezig
Zo is John Carmack ook in functioneel geinterreseerd maar mist de tijd om in Haskel een game te porten.
Hij heeft het druk. Maar nu vol op bezig met VR.
Single thread software is oud of de eisen zijn te laag. Mijn ervaring is heel anders. Een solide single thread applicatie is vaak sneller dan multithreaded varianten. Uiteindelijk delen alle threads één geheugenbus, en heb je bij een singlethread geen last van synchronisatie. Natuurlijk zijn er processen die multithreaded wel beter werken, maar ga er niet vanuit dat dit altijd zo is.
Ja ervaringen kunnen anders zijn. Een voorbeeld in jouw case is de eerste multithreded DX API avondtuur van MS met DX11 defered contex.
Tweede poging DX12.
Een voorbeeld van slecht resultaat en ground up goed resultaat.

Bij single threaded app is global shared data een kleiner probleem. Zoals naam conficten.Als je eerst je domein probleem oplost met correct singlethteaded oplossing. Dan heb je eerste werkende resultaat.
Dan ga breedt met critical section op gedeelde data. Als twee threads dezelfde variable moeten muteren of andere ook lezen en er lock is wordt concurency gekilled maar blijft je programma wel correct. Ben je wat complexer bezig groeid ook de kans op race condities. En juiste lock matchen.
De reden van critical section is multithreaded correctness dus niet crashen, niet zo zeer performamance, een geblokkeerde thread doet niks parrallel. Uiteindelijk krijg je vaak multithreaded de wrong way. Als bestaande software achteraf multithreaded toevoegt .
En DX11 multithreaden feature is dus voorbeeld dat het op hoog niveau ook slecht gebeuren kan. Multithreaded is complex. En men dus vaak de boot in gaat met multithreaded taged on.

Als goed wilt schalen naast robust en correctheid. Moet je oplossing zoeken waar shared data zoveel mogelijk reduceerd tot enkele onvermijdbare synchronisatie punten. Een single threaded app pakken en dan wat threads in de mix gooien kan je iets mee winnen maar ook niets tot overhead hit.
Bouw je van de grond op kan synchronisatie punten reduceren shared data ook reduceren en meest ongehinderd parrallel gaan zodat er lockfree parrallel compute kan wordt.
Het domein probleem ook analiseren hoe beste data kan op zetten en hoe tranform beste gedaan kan worden waarbij data sharing minimaal is en ook mutable data beperkt is.
Je performance hangt dan af van hoe parralel je kan gaan tussen de sync points en het sequentieke aandeel dat er hard in kan hakken zo klein mogelijk houdt.

In OOP kan je ook wat meer multithreaded vriendelijk zijn door bepaalde antipatern te mijden of code smells.
Zoals Global als je die niet hebt scheeld weer wat.
Daarmee mijd je side effects.
Flat hiarchal tree. Component vs inheritance prefereren.
Pure functions aanhouden.

Er is ook iemand een indie dev die game in F# heeft gemaakt.

Ja die geheugen bus. Als DOD toepast en optimised door goed gebruik te maken van de prefetcher dan kan je full memory benader alof het allemaal bijna L3 cache is. Dat is iets wat zelfs ervaren C++ guru onderschatten. En zo een c++ guru ook in YT laat zien.

Het zelf zo dat C++ '11 en '14 '17 steeds meer Functional features krijgt.
En daarbij is het stroomverbruik ook enorm gedaald
Uit dezelfde benchmark
Intel Core i7-4790K @ 4.00GHz Typical TDP: 88 W
Intel Pentium 4 3.20GHz Typical TDP: 82 W

Verschil van 6W !!
Stroomverbruik per vermogen.
Als ik nu een laptop heb met een intel i7 6600U heb ik een snellere machine dan een i3 chip van 5 jaar oud, maar wel een kwart van het vermogen. De 6600U verbruikt 15 watt en die van mijn pc 60.
Yep, in laptops is echt vooruitgang geboekt qua stroomverbruik.
Heb nog even in de benchmark gekeken.
Een Intel Core i3-2130 @ 3.40GHz uit 2011 Single Thread Rating: 1755 vs 1816 voor je i7. De i7 in je laptop is nipt sneller dan een desktop processor van 5 jaar geleden.
Niemand verplicht jou die processors te nemen.
Je kunt ook gewoon een Intel Core i3-6100T nemen of Intel Pentium G4600T.
Ik neem aan dat je de drie andere cores voor het dagelijks thuis gebruik in pctje hebt uitgeschakeld?
Dus dat je deze helemaal niet gebruikt.
Welke drie andere cores ?
Een Intel Core i7-6700K heeft er maar twee.

[Reactie gewijzigd door (id)init op 10 augustus 2017 13:49]

1024GB zelfs


https://nl.aliexpress.com...75-476d-a329-4a83ec243e88

[Reactie gewijzigd door Vintage Freak op 9 augustus 2017 21:41]

zijn scams net als 5TB USB
Ja, voor ¤4,50 per stuk zeker 8)7

Nooit opslag bij AliExpress kopen. Dan is alleen de eerste zoveel GB schrijfbaar en de rest is nep. Sowieso is 512GB het grootste dat nu beschikbaar is op SD, en 256GB de grootste micro-SD.
Evenals nooit op tweedehands of Amazon (of alternatief) derde partij verkoper. Zelf al ervaring mee gehad, met die scams...
Niet slaan.
Ik zag t toevallig langskomen..
Op wish.com zie ik al 512Gb microsd kaartjes. Met een welgetelde prijs daarbij van E10 zou ik enkel geinteresseerd zijn en geen verdere stappen nemen (of je moet die uitgave zien ter lering ende vermaak)..
Haha ja inderdaad, fake geheugenkaartjes zijn een groot probleem bij die vage websites.
Vaak zijn dat ook vanaf-prijzen voor een range van kaartjes beginnende bij 8 of 16 GB bijvoorbeeld (niet Gb dat is Gigabit).
Ik ben zelf geen voorstander van zo'n grote geheugenkaarten en wil ook anderen waarschuwen hierover. Zelfs als ze ten eerste echt zijn (vele zijn scams), blijft het feit dat de levensduur van die microsd kaarten heel kort zijn, waardoor ze snel in readonly modus terechtkomen. De garantie op zo'n kaarten is wel lang, maar da's niet leuk om 256GB of hoger aan data kwijt te zijn op je kaarten omdat je ze moet terugsturen om vervanging te krijgen, of omdat een deel van je data niet meer leesbaar is. Nog maar gezwegen om het aan 10-15MB/s allemaal terug te moeten overzetten...

Geen aanrader dus!
Waar ligt de grens ... dat vragen ze elke keer weer.
Net zoals introductie van grotere hdd's "Handig, om alles in één keer kwijt te raken"

Je moet niet de grens van de fabrikant aanhouden, maar jouw wensen.

De SSD blijft ontwikkelen, en als het niet in een 2.5" formfactor past, gaan ze naar de halfsize 3.5"
Zou er vraag zijn, zullen ze zelfs overwegen om het 'weer' in 5.25" te steken, of misschien zelfs een nieuwe 'standaard' maken, de markt vraagt, de ontwkkelaar innoveert/introduceert, en de fabrikanten die de kasten maken, zullen dan zeker aanpassingen doorvoeren.
Ik heb zelfs al één microSD kaart van 512GB. En ik betaalde er slechts 6 euro voor. En daarvoor komt hij helemaal uit Shanghai via Singapore naar Nederland. Onvoorstelbaar. www.wish.com
Mooi dan kan ik mijn 5K films (bijna) ongecomprimeerd opslaan want H264/5 SUCKS! Al die afschuwelijke compressie artefacten. Het verpest het kijken naar Game of Thrones volledig. 8-)

Als ik in de orginele RED 5K met 5:1 compressie kan kijken is dat natuurlijk fantastisch (bijvoorbeeld de films Prometheus en Spiderman zijn zo opgenomen). Dat is slechts 256 Gigabyte per uur. Dat stream je niet even over het internet dus dan moet je een 128 TB SSD hebben. Gelukkig heeft USB 3.1 (gen 2) een tranferrate van 10 GBps. Da's 1,25 Gigabyte per seconde. Moet ik nog zes minuten wachten om 1 film te kopieren tenminste als de SSD die snelheid gaat halen. Iemand nog koffie?
Leuk, maar hoe kom jij aan 5K films die ongecomprimeerd zijn? Zelfs de biosmasters zijn gecomprimeerd. En omdat een film zo is opgenomen betekend nog niet dat het eindresultaat ook zo is.
Wel een mooi moment.
Seagate kondigde en 64 TB aan en Samsung een 128TB.

Timing is everything.
En deze is meteen 2 keer zo groot...
Seagate plakte 2 x 4 x 8 TB SSD's op een raid kaart, dit is heel wat anders. Dit zijn 32 chips en is wat dat betreft 'echter'.
Maar niet per definitie beter of sneller, gezien het nóg minder snelle en van kortere levensduur QLC geheugen en geen RAID opbouw.
De interface/uitwerking is anders, maar wat is volgens jou het verschil tussen opslag en opslag?

Het doel van beide is om er digitale gegevens op te zetten zoals een besturingssysteem, documenten...data dus...
Zelfde verhaal staat bij het artikel over Seagate. De kans op falen is groter omdat er meer componenten bij komen kijken (extra controllers). Voor de specialisten is blijkbaar ook nog een factor dat de subcontrollers black box firmware gebruiken.
Grappig dat je zelf bij dat artikel schreef:
Ik ben het met je eens dat de kans op failure er niet beter op gaat worden wanneer je 8 SSD's op een printplaat bij elkaar zet en daar ook nog extra componenten aan toevoegt. Echter als je storage laag goed is ingericht dan maakt dit toch niets uit?

Het lijkt mij eerder makkelijker; als 1 van die 8 onderliggende SSD's of een ander component niet meer meewerkt dan vervang je het hele ding en heb je alles weer gloedje nieuw. Enige nadeel is dan de kosten factor.
Waardoor is de 'kans op falen' nu opeens wel een issue voor jou?

En daarnaast is dit gewoon een expander-oplossing, dus of je nou 8 drives in een SAS plane hebt zitten of op een PCI-e slot maakt natuurlijk weinig uit, je verdeelt juist ook je risico over meerdere drives. Tegenwoordig zie je de redundancy toch al verschuiven naar de applicatielaag (Gluster bijv) in plaats van in een obscure RAID oplossing. En dan zijn die onafhankelijk bereikbare drives opeens wel een groot voordeel tov een single drive a la Samsung.

[Reactie gewijzigd door Lekkere Kwal op 10 augustus 2017 10:15]

Er is geen issue, ik geef aan wat er een verschil is. Ik zet ook niet voor niets het woord echter tussen aanhalingstekens. Daarmee impliceer ik dat ik het niet zo belangrijk vind.

Los daarvan schept deze chip natuurlijk wel nieuwe mogelijkheden. Immers deze kunnen ook weer gecombineerd worden. De datadichtheid neemt weer verder toe en dat is altijd mooi. Met 8 van deze dingen op een raid kaart kom je ineens op een petabyte aan NVME storage uit (!).

[Reactie gewijzigd door sdk1985 op 10 augustus 2017 16:20]

Maar deze is ook flink stuk trager
* Snowwie mompelt iets over de Wet van Moore.

128TB.....dit gaat echt nergens meer over. Wat moet je daar allemaal wel niet op zetten?

Dit moet wel hand in hand gaat met andere hardware die meer data genereren. Bv. 8K of over een aantal jaren misschien wel 16K camera's en fototoestellen die foto's maken die elk een gigabyte groot zijn.

Eén ding is geheid duidelijk: backuppen op floppy disks wordt steeds lastiger. :)
Ook zijn de ngsff-ssd's hot-swapable
Is het nog nodig te hot-swappen met een kaart van 128TB? Die is immers niet opeens vol.
Bovendien, waarom zou je het risico op data loss gaan nemen als het om zoveel data gaat?
Een kapotte schijf in een raid-array vervangen zonder je server af te moeten zetten :-). Niet elke server kan op 10 minuten opgestart worden. En herstarten kan altijd tot problemen leiden....
Hot-Swappen gaat toch gewoon over het feit dat het systeem niet uit moet (stroom eraf)? Dat betekent verder niet dat je op dat moment ook aan het schrijven bent. Dit zou een tape drive systeem kunnen vervangen waarbij je de schijf om de zoveel tijd eruit haalt en veilig stelt.
Hot swap is puur zodat waneer jij raid 1 , 5 of 6 draait. En een schijf gaat kapot dat je die schijf vervangen kan , zonder de server uit te hoeven zetten.
Je data is namelijk nog steeds berijkbaar.
Shit, ik moet opschieten met m'n muziek verzameling.
Zo krijg ik zo'n disk natuurlijk nooit vol!
Met flac en een zeer hoge bitrate gaat het wel wat harder :D
Zou een uitkomst zijn. Ik 'produceer' per jaar zo'n 3TB aan materiaal en zou graag een keer echt genoeg opslagruimte willen hebben 😅
Laat ze eerst maar eens beginnen met ''normale'' tb's te maken. In plaats van direct naar de 128tb te springen. Ze moeten beginnen met 4tb, 6tb, 8tb ssds te produceren.
Ik zou graag 4 8tb ssds in mijn nas willen hebben.
Wordt het niet eens tijd dat ze met echte Gigabytes gaan werken gebaseerd op 1024 ipv 1000. Het "Schijf"-ruimte verschil in wat je verwacht en wat je krijgt wordt groter en groter.
Misschien is het makkelijker als je je verwachting aanpast.

Volgens de SI-naamgeving betekent "gigabyte" ook gewoon 1.000.000.000 bytes (1000 tot de macht 3) en niet 1024 tot de macht 3: dat zou een "gibibyte" moeten heten.
Bij dit soort groottes kan ik daar niet echt mee zitten.
Tjah, leuk allemaal die grote TB maar ondertussen is voor KMO's niet veel verder dan 2TB beschikbaar in SSD en 8-10 TB in HDD...


Om te kunnen reageren moet je ingelogd zijn


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*