Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Intel presenteert 'liniaal'-formfactor voor server-ssd's

Door , 42 reacties

Intel presenteert een nieuwe, langwerpige formfactor voor ssd's. Het bedrijf noemt deze formfactor 'ruler', ofwel liniaal. De langwerpige ssd's moeten in de toekomst tot een petabyte aan opslagruimte in een 1U-server mogelijk maken.

Volgens Intel is de nieuwe formfactor de beste manier om de opslagcapaciteit in servers te vergroten. Details over de aansluiting, afmetingen en andere specificaties maakt Intel nog niet bekend in zijn aankondiging. De ssd's in liniaalformfactor komen volgens Intel in de nabije toekomst op de markt. Er komen zowel Optane-ssd's als reguliere ssd's met 3d-nandgeheugen.

De langwerpige ssd's zijn bedoeld voor gebruik in 1U-servers en zo'n server kan volgens Intel in de toekomst worden voorzien van 1PB aan opslagruimte. Om diezelfde opslagcapaciteit te verkrijgen met hdd's is een 4U-server vereist, gevuld met bijvoorbeeld honderd 10TB-hdd's.

Ook kondigt Intel Dual Port-ssd's aan die bedoeld zijn om redundancy toe te voegen. Volgens TechGage gaat het om een dubbele sata-aansluiting. Intel claimt dat de nieuwe ssd's betere prestaties leveren dan sas-ssd's. In het derde kwartaal van dit jaar komen er Dual Port-ssd's op de markt in de DC D4500-, D4502- en D4600-series.

Tot slot komt Intel met nieuwe sata-ssd's voor servers, die als hdd-vervangers moeten dienen. De DC S4500- en S4600-series zijn voorzien van een nieuwe, door Intel zelf ontwikkelde satacontroller en maken gebruik van 3d-nandgeheugen met 32 lagen. Deze ssd's zijn per direct verkrijgbaar en tegen het einde van dit jaar moet er een 3,84TB-variant uitkomen.

Julian Huijbregts

Nieuwsredacteur

8 augustus 2017 09:30

42 reacties

Linkedin Google+

Reacties (42)

Wijzig sortering
Hoe gaat dit in een server dan? Schuift dit dan straks (deels) over het moederbord oid? Die lengte lijkt me lastig te plaatsen zonder te kort te gaan doen aan koeling, het is nogal een massief blok als ik t zo zie...

Edit: Van uitgaande dat de hoogte 1 u is, is de lengte ongeveer tussende 18-20 cm, gemiddelde dell server is tegenwoordig ongeveel 1mtr, dus 1/5 van de lengte ben je kwijt.

Vergeleken met de normale 3.5" schijven, inclusief sas bracket, is dat dus erg normale diepte. De foto lijkt er dramatischer uit te zijn dan hij is.

Edit 2:
even verder in de berekeningen, als ik goed kijk/meet/omreken, is de dikte van deze disk tussen de 1.0 - 1.5 cm, zeg dat je 40cm ruimte hebt (Dan kan je ook je power button e.d. nog kwijt, als is dat lang niet altijd meer nodig zie bijv. de R730XD) om je disks te plaatsen, dan kan je er dus een stuk of 24-40 kwijt.

op basis van het gegeven van 1PB, zullen deze disks dus ongeveer tussen de 25 en 41TB zitten... Knappe prestatie!

[Reactie gewijzigd door Mopperman op 8 augustus 2017 09:46]

De koeling lijkt me juist makkelijker te gaan. Je hebt namelijk een plaat metaal waartegen je de chips kunt plaatsen. En gezien de neiging van warmte om omhoog te gaan, lijkt het mij inderdaad waarschijnlijk dat je ze zo plaatst als op het plaatje te zien, dus als boeken in een boekenkast.

En ik vermoed dat je kasten gaat krijgen waar ze een aantal rijen achter elkaar gaan plaatsen.
Gegeven dat ze inderdaad pak 'm beet 15 - 20 cm lang zijn, passen er ook 2 achter elkaar in de breedte van de kast en dan kun je 2 rijen plaatsen in 1U.
Dus waarschijnlijker dat ze in de orde van 8 - 10TB per SSD kunnen maken met de huidige technieken.

Die aanname van 4U in een gewone kast per PB: "Om diezelfde opslagcapaciteit te verkrijgen met hdd's is een 4U-server vereist, gevuld met honderd 10TB-hdd's." gaat uit van 100 hdd's. De grootste 4U kasten die ik gezien heb, kunnen er 90 huisvesten, maar goed er zijn nu ook al 12 TB hdd's, dus je kan in elk geval wel 1 PB per 4U kwijt (zonder redundantie) Meestal zit er ruimte voor zo'n 60 hdd's. (90 hdd's is meestal 5U hoog)
Daarbij staan de hdd's rechtop en is er ook nog ruimte voor SAS-expanders en een voeding enzo.
Dus ruwweg in het oppervlak van 15x4 hdd's zou je ook deze SSD's kwijt moeten kunnen.

[Reactie gewijzigd door TD-er op 8 augustus 2017 09:58]

Koeling doel hij op het cpu gedeelte
De 2.5/3.5" formfactor is dan ook enkel omdat er schijven in zaten die moesten ronddraaien. Als je backplane wat dieper zit dan dat maakt dat heus niet uit. Je hebt ook al storage servers die 3/4 3.5" disks diep gaan (zie ook bvb http://www.45drives.com/ ).

Als de luchtstroming dezelfde blijft (front->back) zie ik niet veel problemen met koeling.
op basis van het gegeven van 1PB, zullen deze disks dus ongeveer tussen de 25 en 41TB zitten... Knappe prestatie!
als je bekijkt dat je tegenwoordig M.2 SSD's krijgt van een terabyte lijkt me dat nog niet eens zo gek. Stapel ze in 2 lagen op elkaar, en maak rijtjes van 12. Kom je een behoorlijk eind in de buurt.

De data-dichtheid wordt nog eens groter als je alle chips op ťťn grote PCB weet te proppen, dan is 32TB in zo'n verpakking prima haalbaar.
Vreemd. Als je de gemiddelde SSD openmaakt zie je vooral lege ruimte. De omvang van NVME/M.2 SSD's illustreert dat duidelijk. Ook voor, naar hedendaagse maatstaven, grote SSD's van enkele TB, bijvoorbeeld: pricewatch: Samsung PM963 2,5" 7,68TB

Waar is al deze ruimte dan voor nodig? Goed, Intel claimt tot 1PB aan opslag, dan zijn het vast wat meer chips, maar dan word het wel zo gruwelijk onbetaalbaar dat het een extreme niche is, en niet geschikt voor de gemiddelde server.
Als je m kleiner maakt past het niet in bestaande systemen. Tenzij je gaat zitten klooien met brackets.
Ja, dat snap ik. Maar als ik naar deze oplossing kijk maken ze hem juist groter, nietwaar? Dat past dan toch ook niet in bestaande systemen? Dergelijke langwerpige schijven krijg ik niet in mijn 2U-server.
schijf is net zo lang als een 3.5" disk, dus prima te doen, zie ook mijn reactie hierboven waar ik e.e.a. heb uitgevogelt...
Die is dus niet nodig, maar wordt enkel nog gebruikt om compatibel te zijn met de gebruikte formfactors.
Voor thuis heb je het M2 formaat maar in serverruimtes is dat niet heel erg practisch, en dan krijg je dus blijkbaar dit soort staafjes.
Voor in servers heb je al een tegenhanger onder de noemer U2. De pricewatch heeft er niet echt een specifiek filter voor, maar het zijn deze dingen: categorie: Solid state drives
Klopt, maar U2 kost nog steeds relatief veel ruimte aan de voorkant.
Maar dat had ik wel duidelijker erbij kunnen zetten.

[Reactie gewijzigd door Wellus op 8 augustus 2017 11:35]

Toch bestaan er al oplossingen waar 48 U2-drives in kunnen. Daarmee zou je in theorie nu al ~150TB aan nvme-drives in 2U kunnen stoppen.
En wat je dus ziet is dat ze kunstgrepen uithalen om dat 2e blok van 24 erin te krijgen.
Sowieso werd in het artikel -expliciet- 1U genoemd.

Je kunt door blijven emmeren, maar die nieuwe formfactor maakt het plaatsen van meer storage een stuk eenvoudiger.
Dat laatste is toch maar de vraag. Er wordt expliciet vermeld dat er op termijn 1PB mogelijk gaat worden, dus de U2-oplossingen bieden tegen die tijd ook al meer dan wat nu mogelijk is. Ook denk ik dat het kostenverschil tussen het plaatsen van een 1U of 2U-server met dergelijke storage-oplossingen niet heel erg uitmaakt, de server zelf is de kostenpost.
1) het gaat hier niet perse over storage oplossingen, maar 'gewoon' over interne storage. Een 1U systeem, nogmaals, zoals expliciet genoemd in het artikel, heeft maar een hele kleine voorkant en is dankzij de steeds kleiner wordende componenten van binnen steeds leger.
2) misschien moet je eerst eens uitzoeken of dat kostenverschil niet heel erg uitmaakt.

Als je in een gemiddelde serverruimte rondkijkt zal het je grote aantal 1U systemen een indicatie zijn dat je aannames ergens scheef gaan.

Een andere aanwijzing dat je aannames scheef gaan is dat Intel zojuist een nieuwe formfactor voor SSD's heeft uitgebracht. Misschien moet je dat artikel eens lezen:https://tweakers.net/nieu...tor-voor-server-ssds.html
1) het gaat hier niet perse over storage oplossingen, maar 'gewoon' over interne storage. Een 1U systeem, nogmaals, zoals expliciet genoemd in het artikel, heeft maar een hele kleine voorkant en is dankzij de steeds kleiner wordende componenten van binnen steeds leger.
Ooit 1U-servers van binnen gezien? De eerste waarbij ik denk 'wat veel lege ruimte' heb ik nog niet gezien.
2) misschien moet je eerst eens uitzoeken of dat kostenverschil niet heel erg uitmaakt.

Als je in een gemiddelde serverruimte rondkijkt zal het je grote aantal 1U systemen een indicatie zijn dat je aannames ergens scheef gaan.
1U afnemen in een datacenter voor colocatie kost ~§30 per maand. In een eigen datacenter zijn de kosten lager dan dat. Vervolgens koop je een server van een paar ton puur aan hardware. Maakt het dan nog uit of je 1U of 2U nodig hebt? Ik denk van niet. De vele 1U-server die je in datacenters tegenkomt zijn vaak ruim goedkoper dan een paar ton per stuk, en op een server van §10.000 ga je dan richting 10% aan totale kosten per U op de totale levensduur.
Een andere aanwijzing dat je aannames scheef gaan is dat Intel zojuist een nieuwe formfactor voor SSD's heeft uitgebracht. Misschien moet je dat artikel eens lezen:https://tweakers.net/nieu...tor-voor-server-ssds.html
Bedankt voor het voeren en beŽindigen van de discussie.

[Reactie gewijzigd door dcm360 op 8 augustus 2017 13:43]

Hier een wat duidelijker linkje om het verschil te illustreren: https://rog.asus.com/arti...s-sata-msata-m-2-and-u-2/
Als ik een HDD open maak is het ook vooral lege ruimte, vooral bij een single platter disk is het schrijnend gesteld met de data/volume ratio :)

De (legacy) formfactor wordt bepaald door de afmeting van de platter in een HDD.
Zou er veel behoefte zijn aan serveropslag in ssd-vorm? Ik dacht altijd dat bijvoorbeeld een database daar niet geschikt voor was wegens het aantal schrijfbewerkingen.
Ideaal juist. Je hebt als pro-SSD's die wat duurzamer zijn. Ik heb enkele zwaar belaste databases al enkele jaren draaien op Samsung Pro SSD's en dat gaat prima. De snelheid is echt zo veel beter dan wat je met magnetische schijven voor elkaar krijgt. Met name ook dankzij de random access snelheid van SSDs, dat is perfect voor databases.

Magnetische schijven kunnen net zo goed als SSD's kapot dus backups blijven altijd benodigd.

[Reactie gewijzigd door MadEgg op 8 augustus 2017 10:41]

Er is in elk geval behoefte aan veel opslag.
En ik zie de komende jaren (< 10) nog wel gebeuren dat SSD's goedkoper zullen worden dan harde schijven per TB. Als je dan ook nog minder overhead kosten hebt, is dat al snel in het voordeel van SSD's en dan is een nieuwe form factor waarschijnlijk best wel een goed idee.

Voordeel is namelijk dat je minder ruimte en energie nodig hebt en bijkomend voordeel voor de toegangstijd.
Alleen mogen de netwerken dan ook wel mee gaan groeien, want al die data moet ergens vandaan komen en ergens naar toe. 40G en 100G begint nu wel een beetje standaard te worden in de high-end markt, maar het moet nog wat meer algemeen worden en ook de consumenten zullen wat meer upload moeten krijgen om er echt gebruik van te gaan maken.
Als je ziet waar linustechtips het voor gebruikt
24 nvme disken,
Meerdere editors op de zelfde storage, krijg je mechanisch niet voor me kaar
Ja. Bij mij op het werk leveren we alleen nog maar SSD in servers en opslagsystemen.
Vreemd dat ze nu nog met een dubbele SATA aansluiting komen op een moment dat 12Gb/s SAS en zelfs NVMe al aardig ingeburgerd en bewezen zijn.
Ook voor SAS heb je dual port. Het heeft niet alleen met snelheid, maar ook met redundancy te maken. Als er een poort uitvalt, draait het toch door.
Dat bedoel ik, dat probleem is al opgelost (op een schaalbare manier bovendien) dus waarom nu nog SATA daarvoor proberen aan te passen. SAS is natuurlijk wel wat duurder dan SATA, maar dit dual port SATA idee zal vrij exotisch zijn en dus ook niet goedkoop.
Ik zou zoiets graag willen zien van Synology in een 'home' server variant.
Bijvoorbeeld in (liefst kleinere) staafjes van 2 / 4 / 8 en 10 TB. Het hoeft wat mij betreft niet eens supersnel te zijn. Het gaat immers om server opslag of webhosting die je thuis verzorgt.
Thuis heeft dit weinig nut, in een datacenter betaal je nog steeds per U - wat ervoor zorgt dat men nu ipv 4u alles kwijt kan in 1u, wat weer voor kostenbesparing zorgt. Voor thuis is een 2.5 of 3.5" disk nog steeds een goede oplossing omdat het vooral veel goedkoper is in de aanschaf.
Kijk dat noem ik nou multifunctioneel. Stockeren van data en ook nog eens dienen als (meet)lat. :+

Jokes aside, als dit helpt om de server racks op een meer efficiŽnte manier te vullen en/of de airflow eventueel te bevorderen dan kan dit nog wel zijn nut hebben.
Zal niet lang duren voordat HDDs niet vaak meer worden gebruikt denk ik, aangezien er nog veel mogelijk is zal het productieproces ook wel goedkoper worden. Hoop dat ik over 5-10 jaar alleen ssds in mijn pc te hebben zonder daar een premium voor hoef te betalen.
wat is een premium in dat opzicht natuurlijk.
Nu al is de gemiddelde PC/Laptop een met een SSD en dat is niet premium kijk naar de "basis"laptop in BBG; die heeft ook gewoon SSD.

Je hebt echter de optie om naar budgetlaptops te gaan, en dan heb je geen SSD.

HDD's nu zijn nog goed voor in de NAS en server storage die niet veel gebruikt word (archief, niet businesscritical,..). Als je geen NAS wil kan je ook nog 1TB SSD in je PC steken, maar bij mij staat die ondertussen gewoon op de cloud en kom ik ruim toe met 125GB SSD in de laptop.
De meeste ssds worden nu gebruikt voor het OS, met premium bedoel ik het huidige opslaan van grote bestanden zoals games. Nu 1Tb in je pc zetten aan ssd is toch momenteel wel een premium en ik denk/hoop dat dat in 5-10 jaar standaard is geworden.
Interessant hoe dit straks in servers geplaatst word
Waarschijnlijk zo een beetje als harddrives, als de hoogte netjes in 1U past kun je er een flinke bult langs elkaar plaatsen
Interessant hoe dit straks in servers geplaatst word
Je zal ze waarschijnlijk naast elkaar, rechtop, in een backplane moeten duwen.
Eťn 4U-server met honderd schijven? Hoe dan .. ?!
Deze heeft er 90, er zullen er vast zijn die nog meer HD's kunnen huisvesten.
https://tweakers.net/pric...ed-r2kjbod/specificaties/
Ow... op die manier wel ja, dacht al, gewoon aan de voorzijde gaat je niet lukken
Is SATA niet een beetje langzaam voor een enorme SSD? Blijkbaar niet voor hoge performance deze oplossing.


Om te kunnen reageren moet je ingelogd zijn


Nintendo Switch Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*