Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 88 reacties

Geheugenfabrikant Kingston heeft op de CES in een Intel-serversysteem zijn ddr4-modules gedemonstreerd. Kingston moest een groot deel van de serverhardware afschermen voor nieuwsgierige ogen, maar mogelijk gaat het om Intels nieuwe Grantley-EP-platform.

In het gedemonstreerde serversysteem had Kingston in totaal 384GB ddr4-2133-geheugen geprikt. Het zou gaan om ddr4-modules waarop geheugenchips van fabrikant Hynix zijn geplaatst. Het 384GB werkgeheugen op het serverbord zou in multichannnelmodus aangesproken kunnen worden.

Tweaktown meldt dat het door Kingston getoonde serversysteem voor een groot deel was afgeschermd, vermoedelijk een eis van Intel. Het gaat mogelijk om nog niet uitgebrachte serverhardware op basis van Intels EP-platform Grantley en de bijbehorende Wellsburg-chipset. Intel heeft al eerder aangekondigd dat deze serverhardware ddr4-geheugen zal ondersteunen.

Kingston ddr4-demo op CES

Kingston toonde op de CES ook zijn eerste ssd met pci-e-interface. De ssd met de productnaam HyperX Predator beschikt over een LSI SandForce SF3700-controller en zou leessnelheden tot 1800MB/s bieden. Daarnaast heeft het bedrijf de DataTraveler Locker+ G3 aangekondigd, een usb-stick met hardwarematige encryptie. De Locker+ G3, leverbaar in capaciteiten van 8 tot en met 64GB, heeft een usb 3.0-interface gekregen en zou lees- en schrijfsnelheden van respectievelijk 135 en 40MB/s behalen.

Moderatie-faq Wijzig weergave

Reacties (88)

Het 384GB werkgeheugen op het serverbord zou in mutichannnelmodus aangesproken kunnen worden.
Dat kan ook niet anders, DDR4 gebruikt namelijk een point-to-point topologie ipv de multi-drop van eerdere geheugenstandaarden. Dit houdt in dat je maar één geheugenmodule kan aanspreken per geheugenkanaal.

Ik ga er vanuit dat Intel hier uiteindelijk iets slims gedaan heeft met een switch tussen de processor en de geheugenbanken. Anders zou deze architechtuur een gigantische berg geheugenbandbreedte hebben!

Als dit zonder switch zou zijn: Zo te zien een dual processor systeem (ik zie namelijk maar twee heatsinks) dan houdt dat in dat Grantley EP een (24 / 2 * 64bit =) 768bit geheugencontroller heeft. Met DDR4-2133 betekend dit dat Grantley 204GB/s geheugenbandbreedte zou hebben. Vergelijkbaar aan high-end videokaarten van dit moment.

[Reactie gewijzigd door knirfie244 op 13 januari 2014 08:58]

De ssd met de productnaam HyperX Predator beschikt over een LSI SandForce SF3700-controller en zou leessnelheden tot 1800MB/s bieden.
In de HDD markt is enige tijd sprake geweest van stagnatie, maar mijn god wat gaat het nu weer hard zeg.
Maar 1800MB/s... Zoek maar eens na hoe hoog de theoretische bandbreedte is (geweest) van GPU's op de PCI-e interface.

Storage is al jaren de bottleneck van bijna elke machine; datatransfers op elk ander component van een gemiddelde PC liggen aanzienlijk hoger dan de huidige SATA-600 specificaties.
Sata 600 was dan ook kwa concept opgesteld (en een aantal jaar later definitief gemaakt als spec) in een heel andere tijd, namelijk vrij dicht op de release van de eerste moederbordjes met Sata (150 aka Sata I).

Ik vind het vrij logisch dat we ondertussen aan een nieuwe interface moeten gaan denken. Sata 600 (of III ohnee, dat hadden ze geschrapt) is prima voor draaiende HDD's of hybride oplossingen, en het ziet er naar uit dat de nieuwe "poort" gewoon PCI-Ex wordt voor snelle opslag. Wat wel zo handig is, dan kan er gewoon direct 1x, 2x, 4x of hopelijk snel ook 16 lanes gebruikt worden zodat er veel meer rek in zit. SSD kaarten schelen ook meteen weer ruimte, zonder ODD en HDDs zou je zo weer 1/3e van je case korter kunnen!

==
Dan weer wat meer OT: Juist in VM gebruik als je op één machine een aantal servers laat draaien, is de HDD de bottleneck. Sterker nog een SSD is dan nog een botleneck!
SSDs in RAID werkt dan weer niet lekker, dus dan zou je bijna aan één SSD per VM moeten gaan denken het moment dat je ze zwaar gaat belasten.
Met 384GB DDR4 kan je gewoon 32GB per machine toedelen en klaar. (Win server installatie + wat content die snel beschikbaar moet zijn, en een 4GB ram voor gebruik?)
En hop, nog eens 16GB daar voor een linux servertje (12GB ramdisc met 4GB Werkgeheugen). En dan normale storage voor de gebruikers op een 4x PCI-Ex SSD kaart.

Natuurlijk zal de prijs nog wat extreem zijn nu, maar over een jaar of 2 denk ik wel dat zo gewerkt zal kunnen worden?
[...]


In de HDD markt is enige tijd sprake geweest van stagnatie, maar mijn god wat gaat het nu weer hard zeg.
Gewoon omdat de standaard SSD's nog niet snel genoeg zijn .. :D
Iemand enig idee wat die PCI-e SSD's moeten gaan kosten en of ze uberhaupt voor consumenten beschikbaar komen?
Of is dit enkel serverside technologie?
Nee de SF 3700 serie bestaat als ik het goed heb uit een chip die in diverse smaken uit komt, waar bij sommige opties wel of niet uitgeschakeld zijn, net zo als bij CPUs.

Je zou dus misschien zelfs een boordje kunnen maken die zowel in een PCIe slot past als in een 2.5'' behuizing te plaatsen met ook een SATA aansluiting, daar de chip native zowel PCIe als SATA ondersteund.
Zoals payer-x zegt:
Alle SF 3700 series controllers hebben een SATA én PCI-E interface.
Zie hier voor meer info: http://www.lsi.com/downlo.../LSI-PB-SF3700-Family.pdf

Voor de volgende generatie moederborden met SATA Express is dit wel een interessante controller. Dan zijn we van de bottleneck van SATA III af. De Kingston zit zo goed als tegen de max van die 2BG/s specificatie aan met haar theoretische 1800 MB/s.
https://www.sata-io.org/sata-express

De meeste mensen hebben hier echter voorlopig niks aan. Misschien over een jaar of 5 á 10 als de pixel race zo door gaat. 8K 60fps is er al en 120fps komt er binnenkort aan. Echter hebben we nog wel een rack van dat soort Intel servers nodig om de data van zo een camera te verwerken. Komt die 384GB ram tenminste van pas ;)
Zij het wel dat de snelheden dan aan de trage SATA bus gerelateerd zullen zijn
De Sony Vaio Pro 13 kan je met PCI-e SSD bestellen. De 128 Gb is een Samsung PCIe MZHPU128HCGM. Helaas alleen 128 en 256 Gb (de normale SSD variant gaat to 512 Gb). Ook jammer dat hieraan in de Tweakers test geen aandacht besteed is. Ik zag ergens anders spectaculaire benchmarks van deze SSD op een high end desktop.
Pci ssd's staan gewoon in de pricewatch.
Er zullen vast ook wel andere consumenten laptops zijn met PCI-e SSD, maar de nieuwe Macbook Air heeft in ieder geval PCI-e SSD's, en die kunnen dus ook een snelheid hoger dan de 600MB/s grens halen van SATA SSD's.
http://www.alternate.nl/h...l?navId=1690&tk=7&lk=9505

Leef je uit ;) Levertijden zijn wel lastig in te schatten.
Toch is wat meer op internet rondzoeken naar stuff. :P

Thnx iig!
Je verwart normale ssd's met een sata controller met deze met een pci-e. En die zijn er ook al langer.
Wat een monster. Maar lijkt me dat dit onmogelijk is voor de reguliere persoon. Vraag me wel af wat deze aan read/write snelheden zou halen als je een RAM disk maakt :P
Gezien de "2133" op het etiket zal het dus om 2133 MegaTransactions/sec
en het ziet eruit als 6-channel, dus 6x 64 bit tegelijk.
Zou dus maar zo op 100 GByte/s uit kunnen komen. Kost je dus nog bijna 4 seconde om het geheugen door te ploegen ;)
nou voorruit die 4 seconden kan ik dan wel wachten :P :9
Transfers, niet transactions.
servers zijn per definitie niet voor reguliere personen, dan heten het workstations of clients
Ik heb een server thuis, ben ik nu niet meer regulier? :P
ik denk dat meer dan 90% van de bezoekers hier niet onder die noemer valt
Ik vraag me af of het ook 6 channel gaat worden in server systemen, ik meen dat het op de nieuwe 2011 chipset nog quad channel moest worden, maar ik tel 12 geheugensloten per CPU in deze server.
3x 4channel naast elkaar (paartjes van 2 aan weerszijden)
Normaal gesproken worden er maar twee banen per geheugen kanaal gebruikt, maar het is prima mogelijk om er meerdere te gebruiken, als ik het goed heb werden er soms zelfs wel 6 gebruikt op de oude server borden.

Dit bord heeft er dus 3 sloten per geheugen kanaal, net zo als dit 2011 Xeon DP bord, en als je daar dan 32GB modules in plaatst kan je 786GB op een bordje plaatsen.
Ik tel 24 bankjes. 384 : 24 = 16GB per bankje.
Niet verkeerd. Ik kan me nog herinneren dat ik ooit een bankje van 512mb kocht. (Dat was toen al behoorlijk veel :p)
Veder vind ik het een mooie ontwikkeling.
ik kan nog herinneren dat ik bankjes van 256kb kocht :) 30 pins simmetjes :)
lol. Was dat toevallig om Doom te kunnen doen en memmaker het net niet haalde? :P
Bij mij wel. Kostte een godsvermogen.
gelukkig waren dat nog guldens, geen euro's ;)
Pff, onze 286 kon worden uitgebreid met 16kbyte! memory chips (ging toen gewoon per chip). We hadden toen ook een memory expansion card waar 1mbyte op kon.

Maar goed, de HD's waren toen ook 10-20mbyte en onze grafische kaart had 512kbyte geheugen.

De goeie ouwe tijd... En dat was toen high end shit... hahahahaha
Ik weet nog dat mn vader een homecomputer met geheugen uitbreidde door te "stapelen". Een extra ram chip werd dan met de pootjes bovenop de pootjes van een al ingestoken ramchip (IC, DIP package) op het "moederbord" gesoldeerd!

(2x zoveel geheugen!, 8k ipv 4k!)

[Reactie gewijzigd door alfredjodocus op 12 januari 2014 14:02]

Piggybacking op die manier moet je alleen wel minstens 1 pinnetje ook niet 1:1 voor doorverbinden :)
en die high end shit betaalde je fl 6.000 euro voor waartegen nu ongeveer ¤ 1400 voor verhoudingsgewijs hetzelfde. Prijzen zijn flink gedaald gelukkig.
Je kon dat soort banken niet per chip insteken, die moesten per 8/9 of 16/18 chips tegelijk worden ingestoken.
Wie herinnert zich nog de sipp -- een 30 pins simmetje met op iedere pad een pinnetje gesoldeerd, zodat het moederbord veel goedkopere sockets kon gebruiken.
Geen idee waarom mensen nog steeds het woordje "bank" gebruiken om een DIMM aan te duiden.

Op zich geen probleem, omdat iedereen weet wat er bedoelt wordt. Maar als je gaat kijken hoe een DIMM opgebouwd wordt, dan merk je dat een "bank" een onderdeel is van een DIMM dus is het technisch gezien apekool wat je daar zegt.
Deze foto verduidelijkt mijn punt.

Met 8 bankjes per geheugenchip kom je dus al snel aan 64 of 128 bankjes per DIMM.
Op de foto van het DDR4 zijn 32 chips te zien per DIMM, dus zelfs 256 bankjes per DIMM.
Dit geeft 512Mbit per chip of 64Mbit per bankje (er van uitgaande dat er bij DDR4 nog steeds 8 bankjes per chip gebruikt worden, geen idee tbh).
Maar het komt er in ieder geval wel op neer dat je er een grote orde naast zit als je zegt dat er 16GB per bankje gebruikt wordt ;)

Als je dan toch geen zin hebt om DIMM te schrijven, gebruik dan liever "latje" in plaats van "bankje" :)

[Reactie gewijzigd door Malantur op 12 januari 2014 13:41]

Ik gebruik "bankje" altijd voor het "slot" op het moederbord zelf.
Ik vermoed dat een aantal mensen gewoon latjes en bankjes door elkaar halen :P
Pak de dikke van Dale er maar bij en zoek op bank ........
Betekenis ' bank '
U heeft gezocht op het woord: bank.

1 bank (de; v(m); meervoud: banken)
1 zitmeubel voor meer dan één persoon: iets niet onder stoelen of banken steken er niet geheimzinnig over doen
2 verkooptafel: toonbank
3 werktafel: draaibank
4 (scheepvaart) door de natuur gevormde ondiepte

2 bank (de; v(m); meervoud: banken)
1 instelling die gelden beheert en uitleent
2 (bij kansspelen) inzet van de hoofdspeler tegen al de anderen samen
3 centrale bewaar- en uitwisselingsplaats; opslagplaats: bloedbank, vacaturebank
Nu zie ik het: hij bedoelt 16GB per zitmeubel voor meer dan één persoon :9

Nee serieus, bank is gewoon een Engels woord, staat dus niet in onze woordenboek tenzij het door een rage opgenomen zou worden in het woordenboek. Dat zie ik niet meteen gebeuren voor het woord "Bankje".
centrale bewaar- en uitwisselingsplaats; opslagplaats
Dan moet je wel de engelse erbij pakken, want daar komt het woord bank, zoals het hier bedoeld wordt, vandaan.
Als ik vroeger naar de schema's keek van dimm was het volgens mij toch echt bank 0 voor een kant en bank 1 voor de andere kant
En waarom zeggen we nog altijd, verkeerde nummer gedraait? Heeft iemand nog een draaischijf telefoon?

Er zijn wel meer woorden die gebruikt worden, terwijl de betekenis niet meer geldig is. Dat is het leuke aan een menselijke taal, het leefd en veranderd daarmee :)
Gootsteen. Allang niet meer van steen +1
Ook: allang niet meer verbonden met een goot.
Nog argaischer is: "Sorry, verkeerd verbonden", alsof er nog steeds een telefoniste tussen zit die de gesprekken aan elkaar doorverbindt.
Nee een digitale centrale maakt nu de verbinding ;)
wanneer woord ddr 4 gemeen goed eigenlijk?
zeg maar wanneer dat die niet extreem duur is en veel moederborden het ondersteunen.
als je servers krijgt met 128GB+ dan zullen DDR4 prijzen van 16 tot 32GB redelijk laag worden (in vergelijking met DDR3 in het begin)
Ultrabooks zouden het al vanaf volgend jaar gaan ondersteunen en Samsung zou al van plan zijn het in zijn S5 te gebruiken.
Dat is voor een server wel snel geheugen, maar echt veel is het nu ook weer niet. Voor VMware of Hyper-V pas je vaak veel, heel veel meer geheugen toe.
Cisco stopt in zijn instap modellen al 768 GB geheugen (Maximaal) en de top servers gaan al tot 1.5TB/
Voor een goed virtualisatie-platform, zou ik liever 10x 76GB machines hebben dan 1x 768GB. Failover, OTA-inrichting etc. zijn met 10 hosts aanzienlijk eenvoudiger dan met 1 host.
80 gb ram is niks als je het over een virtualisatie host hebt (veel rackspace). Beter 3x 256GB als 10x 76GB
Lood om oud ijzer ;)

Als je inderdaad VM's gaat bouwen die weinig CPU nodig hebben maar veel geheugen, dan kan je natuurlijk het aantal hosts minimaliseren en de hardware-specs maximaliseren tot op het punt dat je 1 VM per host draait waar mogelijk kostentechnisch bare-metal installatie weer goedkoper wordt. Maar ook met 3 hosts (uit je voorbeeld) is het lastiger om overhead te bewaren in geval van een failover of VM-migration; je hebt niet "even" 160GB of meer op de andere 2 hosts over om je VM's neer te zetten.

Het lijkt me namelijk ook niet zo heel handig als je 256GB wil alloceren aan, pak 'm beet 32 VM's, en bijvoorbeeld verder "maar" 12 threads kan afhandelen door de CPU/CPU's; afhankelijk van de functie van de VM's (veel CPU of veel I/O of whatever) krijg je dus een bottleneck op die paar cores in je host.

Je hebt natuurlijk helemaal gelijk dat rackspace een argument is om zo min mogelijk hosts neer te zetten op basis van operationele kosten. Neemt niet weg dat 10 kleine hosts soms minder rackspace innemen dan de modernere/dikkere 256GB hosts. Kan me ook wel voorstellen dat TCO voor maar 3 hosts hoger kan liggen want een onderhoudscontract op een hele dikke/dure/unieke machine met bijbehorende interfaces/kaarten/etc. zou best wel hoger kunnen liggen dan een standaard onderhoudscontract op "13 in een dozijn" pizza-doosjes.

Ja, voor elk scenario zijn voor- en nadelen te noemen; ik probeerde in mijn vorige reply alleen aan te geven dat het voorbeeld van erwinb misschien niet de meest handige installatie was om 1 host zoveel geheugen te geven.

[Reactie gewijzigd door MAX3400 op 12 januari 2014 13:10]

zware VM-hosts zoals deze zou ik niet gebruiken met in het achterhoofd snel een vmotion te doen van alles wat er op draait, maar eerder om clusters op te zetten waarbij een node van je cluster down mag gaan. 4 van deze hosts die voor 70 tot max 75% gebruikt worden.
Ligt er natuurlijk aan hoeveel VM's je wil draaien. CPU gebruik per VM, etc. Voor een VDI omgeving kan je veel VM's op een server kwijt. Heb je server VM's die meer CPU gebruiken, dan is een lager aantal VM's per server handiger.
In de praktijk zijn de meeste vmware hosts geheugen gebonden en hebben ze CPU zat. De meeste hosts die wij verkopen hebben 256 GB met 2 x 8 Core CPU.
Maar dat is ddr4, van ddr3 heb je minder nodig om dezelfde prestaties te halen.
Ik ga rustig wachten tot de nieuwe AMD-apu's er aan komen - energiezuinige varianten zoals altijd - en dan bouwen we weer 's onze desktop om. Dan is 't ook tijd om de SSD's te vervangen - door groter en nog wat sneller! (ook om de 3 à 4 jaar).
Hopelijk is dat ook met DDR4 tegen dan - weer iets zuiniger zeker?
De keuze voor AMD is een principekwestie - je mag Intel niet te veel marktaandeel laten halen - concurrentie is goed en alleen ARM en AMD - die moet je gewoon rechthouden.
Als je voor energiezuinig kiest en voor AMD dan ben je zeker principieel bezig, want wat energiezuinig betreft ben je bij Intel beter af.
Hij heeft het dan ook over de AMD APU's welke wel degelijk efficienter zijn dan die van Intel...
Als je een AM3+ cpu tegen Intels top-segment aangooit komt de AMD wel tekort aan snelheid en trekt het een hoop meer stroom, maar ondanks wat vaak op Tweakers wordt beweert heeft niet iedereen de allersnelste nodig...
Als ze niet in hetzelfde segment qua prestaties zitten is vergelijken ook niet eerlijk.
Owja DDR4 zit er ook weer aan te komen.. Weer tijd om een nieuw moederbord uit te zoeken :P
Had meer kunnen zijn, bank 8 van links zit er niet in.....
Volgens mij zitten ze toch echt allemaal vol.
Wel vol, maar nr8 zit niet helemaal vast....
Volgens mij ook, tel er 24 dus dat klopt aardig.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True