Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Synology introduceert FlashStation FS1018 en DiskStation DS218

Synology heeft twee nieuwe producten aan zijn line-up toegevoegd: de Flashstation FS1018 voor ssd's en met een Intel-processor en de Diskstation DS218, met ruimte voor twee schijven en met een quadcore-soc van Realtek.

De Flashstation FS1018 kan twaalf 2,5"-ssd's huisvesten. De nas bevat een Intel Pentium D1508-dualcore die op 2,2GHz draait en heeft standaard 8GB ddr4-geheugen in een enkele so-dimm-sleuf, dat uitgebreid kan worden tot twee keer 16GB in de twee aanwezige sleuven. De nas heeft vier gigabitethernetpoorten en uitbreiding met netwerkkaarten is mogelijk via de pci-e 3.0 x8-sleuf. Een adviesprijs is nog niet bekend.

De Diskstation DS218 heeft een Realtek RTD1296-soc met vier Cortex A53-cores op 1,4GHz. Deze nas kan onder andere 10bits h265-video op 4k met 60fps verwerken. Het systeem heeft 2GB ddr4 dat niet uit te breiden is en er zijn twee drivebays voor 2,5"- of 3,5"-schijven. Deze nas voor thuisgebruik en kleine bedrijven heeft een enkele gigabitethernetpoort, een usb 2.0-poort en twee usb 3.0-varianten. De adviesprijs inclusief btw is zo'n 273 euro.

Door

Nieuwscoördinator

74 Linkedin Google+

Reacties (74)

Wijzig sortering
Wat is nu echte verdchil tussen deze flashstation en een reguliere diskstation ? Ik zie niet meteen een noemenswaardig verschil.
De FlashStation haalt 40.000 IOPS. Dat lijkt veel en als je weet dat een normale 2.5" 10K RPM SAS disk 150 IOPS haalt is het veel.

Zet je nu 12 van die SAS disks in, dan kom je op 1800 IOPS. Dan is 40.000 wel een heel ander speelveld en dat vraagt onderhuids ook om een moederbord en een disk controller die dat aan kan.

Dit apparaat is zoals @itlee aangeeft geschikt om een middelgroot bedrijf van storage voor VMs te voorzien. Zwaar overkill voor de gemiddelde studentenkamer in ieder geval :D .
Als je in ern standaard synology diskstation ssd’s gaat stoppen krijg je ook veel meer dan 150iops per disk.
En dat was net mijn vraag ik zie helemaal niets bijzonders aan dit chasis dat zo verschillend is van een andere diskstation.

Daarenboven is 40.000 iops helemaal niet zo bijzonder als je weet dat 1 standaarx nvme al makkelijk 50.000 iops haalt.

https://ark.intel.com/pro...B-2_5in-PCIe-3_0-20nm-MLC

[Reactie gewijzigd door klakkie.57th op 14 december 2017 19:58]

Ik verwacht eigenlijk niet dat wanneer je op die ene SSD bijv. een VMware omgeving laat draaien met tientallen VM's dat je dan nog steeds 50K IOPS haalt met een werkbare latency ;) Nu week ik of niet bij Synology ook zo is, maar vaak word bij storage systemen X aantal IOPS gespecced beneden een bepaalde latency, bijv 1MS al dan niet in combinatie met features als Dedupe en compressie ingeschakeld (al heeft Synology geen dedupe en compressie voor zover ik weet).
Ik denk dat ze proberen klanten binnen te trekken die later over stappen naar een pro oplossing van hun omdat het makkelijk migreren is dan... want je snapt natuurlijk zelf ook dat dit ding volledig inkakt, SSD of niet, als er serieus wat mensen data gaan pompen of veel kleine pakketjes heen en weer gaan en het moederbord op zijn "bek" gaat.
Dit gaat eerder om relatief kleine omgevingen die snelle en goedkope (snelle) netwerk storage nodig hebben op locatie. Hou er rekening mee dat zwaardere oplossingen niet alleen significant duurder zijn, maar ook vaak alleen in pizzadoos formaat beschikbaar zijn, naast de lastige fromfactor zit je ook met een hoop herrie, heel lastig als je geen dedicated server ruimte heb op locatie. Daar komt bij dat Synology ook een aantal interessante oplossingen heeft voor het syncen van NASen over verschillende locaties...
Zet dan gewoon een dikke towerserver neer (die zijn ook stil) met Xpenology!
Ja, maar dan heb je geen support en dat is niet super veel goedkoper als je goede controllers gebruikt. En elk uur dat je bezig bent met het uitzoeken, bestellen en inelkaar zetten van de componenten kost dat geld.
Ja maar je hebt wel meer vrijheid @ the end.

Alles heeft zo zijn plussen en minnen, maar om vast aan een synology the zitten lijkt me niets.
En dat was net mijn vraag ik zie helemaal niets bijzonders aan dit chasis dat zo verschillend is van een andere diskstation.
Deze, en hun eerdere 12-disk DiskStations draaien allemaal op dezelfde software, dus het enige bijzondere hier aan is dat dit uitsluitend voor 2.5" disks is, en hierdoor een stuk kleiner kan. De bestaande 12-disk DiskStations doen zowel 2.5" als 3.5".

Meer dan eventueel een aangepaste voeding die beter past bij de zuinigere 2.5" disks zal je waarschijnlijk dan ook niet vinden.

[Reactie gewijzigd door SirNobax op 14 december 2017 20:46]

De FlashStation haalt 40.000 IOPS. Dat lijkt veel en als je weet dat een normale 2.5" 10K RPM SAS disk 150 IOPS haalt is het veel.
Subtiele constatering; een gemiddelde consumenten-SSD zoals pricewatch: Samsung 850 EVO 250GB doet volgens de fabrikant 94.000 IOPS. Nou weet ik zeer goed dat IOPS niet lineair schalen dus je zal niet 12x 94.000 IOPS kunnen stellen in de Flashstation maar ik begrijp nu even absoluut niet waarom een volledig gevuld Flashstation minder dan 50% IOPS haalt van een single "disk".

Wat des te interessanter wordt want op https://www.synology.com/...cts/performance#fs_series kan je vinden dat de 1018 100.000 IOPS weet te genereren bij read-akties en tot wel 56.000 IOPS bij write-akties. Ongetwijfeld is dit getest met de toevoeging van 2 stuks M.2 SSD als cache-disks maar toch.

Enige idee waar jij het getal van 40.000 IOPS vandaan hebt; ik kan het in het artikel in ieder geval niet 1-2-3 vinden.
Ik heb op de link geklikt, dan kom je op de synology pagina en daar staat het prominent in beeld.

Overigens : M.2 NVMe/AHCI PCIe SSD wordt niet ondersteund. Zie specs.

Het punt is niet het aantal IOPS wat de SSD kan halen. Het is het aantal IOPS wat de controller kan verstouwen. Ik heb ooit eens moeten uitzoeken waarom de testserver 4 keer zo traag was als de bijbehorende productieserver. Ze waren nagenoeg identiek, het verschil zat hem in de controller. De testserver had een goedkope H310 zonder eigen geheugen. De productieserver had een H730 met 1GB geheugen.

Ik heb ook een situatie meegemaakt waarbij een datawarehouse opgeving een HP EVA 6400 op zijn knieen kreeg. Daar hebben we toen een shared storage omgeving met alleen SSDs aan gekoppeld. Dat ging goed. Tot ze een extra omgeving wilden. Ze bleken al aan de max van de controller te zitten.

Hier een plaatje van de performance van een LSI MegaRAID. Die haalt 550.000 IOPS. Dat lijkt geweldig, tot je naar de write IOPS kijkt. Om daar wat performance uit te halen moet je naar RAID 0 of RAID 10 toe gaan. Als het Synology is gelukt om iets te maken wat 40.000 IOPS write kan halen dan zijn ze echt goed bezig geweest.

Dus die SSD kan nog zo snel zijn, de controller is het probleem.

[Reactie gewijzigd door asing op 14 december 2017 23:41]

Dus die SSD kan nog zo snel zijn, de controller is het probleem.
Eens maar in de daadwerkelijke specs/prestaties van de Synology staan veel hogere IOPS dan de 40K die ze in de "quick specs" laten zien.

Ik weet inderdaad ook wel dat IOPS niet blindelings schaalbaar zijn en van heleboel factoren afhankelijk is waaronder de queue depth en block size. Synology geeft (gelukkig) in de link wel direct aan dat het om 4K blocks gaat; maar dat is wel een waarde die de gemiddelde consument helemaal niet gebruikt en/of dus vergeet in te richten.
Je zegt "de gemiddelde consument". Als je mij en anderen goed gelezen hebt, dan zie je dat dit apparaat niet bedoeld is voor consumenten maar voor grotere bedrijven. Een consument heeft niets aan 40.000 IOPS.

Met andere woorden : het ding is gemaakt om virtuele servers op te draaien. Snelle storage aanbieden via iSCSI. En dan heb je die 40.000 IOPS wel nodig. Het ding werkt zoals aangegeven niet met NVMe dus je bent aangewezen op het wat oudere type SSD. Die zijn niet zo snel als NVMe.
Volgens mij lezen we langs elkaar heen? Nergens heb ik het over NVME gehad en begrijp dan ook niet helemaal waarom je benadrukt dat de 1018 daar niet meer overweg kan.

Gewone SATA-600 SSD's, zoals ik eerder postte, staan geadverteerd met grofweg 90.000 IOPS. Als je dan reviews gaat lezen van die spullen, en dat is gewoon consumentenspul, haal je in synthetische benchmarks per disk, over een enkele SATA-600 kabel op een normaal verkrijgbaar moederbord ergens tussen de 15K en 20K IOPS.

Nogmaals, IOPS schalen niet lineair en zijn volledig afhankelijk van het protocol en controller maar als je dus 12x 20K IOPS in de 1018 schuift, komt de 1018 dus niet uit boven de 100K read en 60K write. Dat vind ik, zoals aangegeven, een verschil wat je niet kan uitleggen anders dan dat de 1018 voorzien is van een suboptimale backplane, CPU, software en mogelijk de hoeveelheid RAM.

Daarbij, de benchmarks op de pagina van Synology zelf geven een (gedeeltelijk) vertekend beeld ten opzichte van mijn antwoord en het standaard model; de benchmarks van Synology zijn ook nog eens gedaan onder maximale configuratie namelijk:
FS1018: volledig uitgerust met Intel DC S3710 serie 800GB SSDSC2BA800G4 SATA SSD
FS1018: 32GB DDR4 ECC SO-DIMM (16GB x 2)
FS1018: 2 x 10GbE-poorten (1 x Intel X540-T2 NIC)
MTU 9000; verbonden met client-pc's via Netgear M4300-24X24F switch

Ongeacht of jij denkt/vindt dat de 1018 wel/niet voor consumenten is en wel/niet voor virtuele omgevingen gemaakt is; als jij een configuratie hebt gekocht zoals bovenstaande test en je haalt dus geadverteerd volgens Synology "maar" 100K IOPS bij random 4K iSCSI, kan ik me alsnog voorstellen dat voor de minder technische personen (ook op een ICT-afdeling) het lastig te relateren is als dus een single SATA-600 SSD voor 94K IOPS in de boeken staat.
Mijn productieomgeving, een all flash SAN die met glas aan mijn VM blade zit haalt tijdens productie zo'n 80.000 IOPS.

Getalletjes zijn leuk voor specneukers. Volgens jullie zou ik dus beter een consumentenprul kunnen gebruiken omdat een marketingeikel ergens 94K IOPS op een website knalt..

Ik start iig met "slechts" 80K IOPS een gemiddelde W2012 server op in ongeveer 15 seconden..
Het enige waar ik op reageer is waarom deze Synology maar 40.000 IOPS haalt terwijl een SSD in zijn eentje al over dat getal heen schiet.Zoals ik heb aangegeven hangt het compleet af van de setup, de controller en de raid config. Dat is de bottleneck.

80.000 is overigens een hele nette waarde.

@MAX3400 : je geeft zelf al aan dat ze in de testsetup een MTU size van 9000 gebruiken. Dat is een instelling die je doet om iSCSI te optimaliseren. Dat heten Jumbo frames. Zo vergroot je de hoeveelheid bruikbare data tov de overhead.

En dat uitleggen doet de ICT afdeling al decenia. Het is het verschil tussen wat de consument koopt bij de Mediamarkt en wat een bedrijf koopt omdat er andere eisen aan worden gesteld. Dat is waarom je bij de mediamarkt een 1TB disk koopt voor een paar tientjes en een 1TB SAS disk voor je server ineens 300 euro kost.
Ongeacht of jij denkt/vindt dat de 1018 wel/niet voor consumenten is en wel/niet voor virtuele omgevingen gemaakt is; als jij een configuratie hebt gekocht zoals bovenstaande test en je haalt dus geadverteerd volgens Synology "maar" 100K IOPS bij random 4K iSCSI, kan ik me alsnog voorstellen dat voor de minder technische personen (ook op een ICT-afdeling) het lastig te relateren is als dus een single SATA-600 SSD voor 94K IOPS in de boeken staat.
De belangrijkste waarde mbt SSD’s is de workload (Tera Bytes Written of Drive Writes Per Day). Daar ga je nu aan voorbij en dit is de reden waarom een DC series SSD beter presteert dan de door jou aangehaalde Samsung. DC series van Intel is makkelijk goed voor 2.6PB aan TBW waar de Samsung EVO/PRO SSD’s maar plm 75/150TBW hebben. Dat is dus de grootste differentiator en niet per definitie IOPS.
Voornaamste "Flash" feature lijkt raid F1 (zie https://global.download.s...r/Synology_RAID_F1_WP.pdf)

Zou ervoor moeten zorgen dat als je SSD's in raid draait dat die niet allemaal tegelijk stuk gaan.

Maar even over de synology, waarom is dit nu de zoveelste waar je moet kiezen tussen 2 m.2's als cache OF een 10gbit ethernet adapter (want 1 pci-e slot)... die wil je toch juist samen in één systeem?
Waarom zou je in vredesnaam nog m.2 cache willen als je 12 SSDs in raid heb hangen? Je hebt er helemaal niets aan met die hoeveelheid storage en IOps.
is meer een ding als je niet 12 ssd's er in wilt hangen maar 12 keer 5TB schrijven, dan is je ssd cache weer interessant.
Succes. Dat gaat gewoon niet. max is 12x 2 TB HDD ivm hoogte van de 2,5" bays, maar als dat zo is dan is 1 of 2X 2,5" SSD ook voldoende. De clients gaan met gigabit poorten de HDD's al niet voltrekken (hoogstens op random IO), en met een 10Gbit nic is die normale ssd ook al wel voldoende.
afhankelijk van de implementatie kan een paar NVME SSDs als write cache voor lagere latencies zorgen, iets wat in sommige gevallen zeker nog belangrijk kan zijn.
Vergeet niet dat je hiermee waarschijnlijk een 4Gbit verbinding kan leggen met de rest van je netwerk. Aan een 1Gbit verbinding heeft een gewone harde schijf ook al genoeg om deze vol te trekken. Dankzij de pci-e sleuf, die veel consumenten diskstations ook niet hebben, kan je zelfs een 10Gbit netwerkkaart steken om zo nog wat sneller te kunnen pompen.
Met 12 ssds krijg je zelfs 20Gbit/s nog wel verzadigd hoor.
Vreemd dat die flahstation maar een dual core heeft. Kijkend naar de EMC apparatuur zitten daar tegenwoordig vele hexacores aan rekenkracht in om de IO te handelen en hier maar een dual core? vreemd.
Dat komt waarschijnlijk omdat op storage vlak deze apparaten vrij "dom" zijn, die EMC's zullen waarschijnlijk beschikken over (inline) dedupe, compressie op block level onafhankelijk van het FS en meer van dat soort zaken die veel van de cpu vragen en veel controller geheugen gebruiken. Synology heeft dat soort features uit mijn hoofd niet (tenzij in de 2018 generaties wel aanwezig) waardoor je met een redelijk trage cpu en weinig geheugen nog steeds een zeer nette storage performance kan halen zolang je de synology niet vol gooit met apps en VM's e.d. die binnen DSM zelf draaien op de synology. Verwacht alleen geen enterprise feature suite qua storage functionaliteit op de Synologies of 5 nines uptime garanties.

Bijv. een simpele DSM update of zelfs het aanpassen van bepaalde settings kan bij deze apparaten voor downtime zorgen. Nu heeft Synology ook wel een HA functionaliteit wanneer je 2 units koopt, maar ik moet zeggen dat tijdens enkele tests die ik ermee gedaan heb o.a. vSphere nog wel eens wat last had en gewoon zijn luns toch verloor, voor een productie omgeving zou ik dat (HA) dus nog zeker niet aanraden en ze alleen inzetten wanneer HA geen vereiste is of op andere wijze afgevangen wordt (bijv. HA op applicatie niveau, waarbij de verschillende nodes uiteraard niet op dezelfde storage staan).

[Reactie gewijzigd door Dennism op 14 december 2017 23:42]

dan nog blijf ik het raar vinden. ook als je een simpele data transfer doet zul je zien dat je behoorlijk wat cpu power nodig hebt. ik ben erg benieuwd of ze die 40k iops gaan halen. hij zal iig flink aan het rammelen zijn.
Dat valt er mee hoor, zit toevallig net een Dell SC unit te testen (vroeger compellent range) en die doet 1% cpu usage bij 10k iops op de test load (dedupe en compressie uit). Maar ook 2 Synology RS modellen die Veeam Backup merges en BCJ's aan het draaien zijn op volle snelheid van de netwerk interfaces zitten respectievelijk op 2 en 3% cpu usage.

Misschien dat op een ARM modelletje transfers nog veel cpu vragen (geen idee, heb er geen staan), maar op de intel modellen valt dat enorm mee.
@Dennism , je begrijpt waar t over gaat, ook refererend naar je andere post. Ik heb ook hele dure msa’s kapot zien gaan met de meest gekke fouten wat je niet verwacht.

Al die mensen die alleen maar zitten te zeuren over iops, allemaal leuk, maar synology heeft in de duurdere reeks best volwassen producten. Is t enterprise? Nee, maar een msa ook niet. Als je t gewoon gebruikt als storageoplossingen bak en voor de rest geen apps of andere zaken er op draait werkt t prima.

Enige waar ik commentaar op heb is dat de update niet foutloos zijn. Zeker de major releases gewoon wachten tot update 4 of 5, want ik heb daar al zoveel gezeik kee gehad... pfffff.

En t is heel simpel, je overlegd met de klant wat het budget is, en wat het bedrijf als acceptabele downtime in geval van accepteert. Daar zoek je de apparatuur bij en kijk je hoe je garanties kan inbouwen. En niet te vergeten t moet ook realistisch blijven, dikke HA stacks met alle driedubbel uitgevoerd is ongekend complex en kostbaar in beheer(en aanschaf) en ook daar geldt dat je geen garanties hebt tijdens een gekke storing.
is de DS218 in staat om plex te draaien en ook te decoden? Ik ben al een tijdje opzoek naar een andere oplossing dan mijn homeserver om plex op te draaien.
Volgens mij kan het alleen als je dmv directplay vanaf je nas kijkt richting je client. Je client dient dus je filmformaat te ondersteunen.

Voor transcoding heb je een passmark van 2000 nodig voor 1 1080p stream, en dat haalt deze ds218 niet lijkt me.
Dankjewel voor je antwoord.
Icm een tv zoals LG OLED c7v zou dit dan wel kunnen, omdat deze de transcoding op zich neemt?
De server doet de transcoding, niet de tv. Dat is juist het hele punt. Jou tv kan waarschijnlijk de direct-stream gewoon afspelen.

[Reactie gewijzigd door flightplan op 15 december 2017 14:51]

Wat betekent dit dan ?
Deze nas kan onder andere 10bits h265-video op 4k met 60fps verwerken.
Een nas heeft geen video output.. dus wat verwerkt dan wat ?
Dat is waarschijnlijk gewoon direct play, wat inhoud dat de nas dat zou kunnen afspelen op clients die geen transcoding nodig heeft. Wel via streaming uiteraard.

Maar als je bv een 1080p mkv op je iphone wil bekijken via plex dan gaat je plex server transcoden omdat de iphone geen mkv ondersteunt, en daarvoor heb je minimaal een passmark van 2000 nodig.
Kijk je diezelfde mkv op bijvoorbeeld een nvidiashield (die support wel mkv), dan hoeft de plex server niks te transcoden en werkt dus met je synology.

[Reactie gewijzigd door bones op 15 december 2017 17:25]

Dat is waarschijnlijk gewoon direct play,
Helaas... daar is 10bit h265 een te specifieke codec voor. Daar heb je namelijk (zoals de nvidia shield) speciale hardware support voor nodig. Dat was ook de reden dat ik speciaal een nvidia shield gekocht heb.

Vind het maar een vreemde bezigheid.

[Reactie gewijzigd door flightplan op 18 december 2017 09:42]

Ja dat bedoel ik ook, je kan alleen streamen vanaf je synology als je een device hebt waarbij je niet hoeft te transcoden.

Met een iphone gaat het veelal niet werken, met een shield wel.
Ik las volgens mij in een review van een tweakers dat de ds218+ dit wel zou kunnen. Heb je nog wel een package nodig voor dts meen ik. Licentie issues met codes enzo.
De Realtec processor wordt nog niet door Plex ondersteund. Volgens hun website zijn ze er wel mee bezig, maar geven ze geen garantie dat de ondersteuning er ook echt komt.
ik gebruik voor een klant zelf een Flashstation FS2017 icm enterprise samsung SM863a ssd's. ik kan je vertellen dat performed hard, draaien er 40 vm's op met allerlei verschillende sql databases, enz. Maak wel gebruik van 10gbit synology SFP NIC (die met 2 sfp poorten). En sneller en minder problemen dan op Ethernet 10gbit.

dus die FS1018 is mooi toevoeging van Synology.
Ik snap alleen niet waarom je een NAS als SAN gebruikt. Het product lijkt mij ook niet bedoeld als NAS waarom blijft synology het een NAS noemen?

Persoonlijk zou ik geen Synology NAS als SAN neerzetten in ieder geval niet in een omgeving met 40 VMs.
De NAS/SAN scheiding heeft nooit bestaan. En sinds 2010 bied Netapp (en andere) al alle interfaces aan die je wilt hebben om je disken te koppelen. Iscsi, NFS, SMB, wat jij wilt. Het is voor 90% van de gevallen toch allemaal prima.

Ik heb al sinds 2012 mijn thuis lab op een synology via NFS draaien (af en toe een raw iscsi disk) en stabieler dan menig SAN geweest.

Destijds werkte met HP SANs. Wat een bananen producten waren dat zeg. Alles fiberchannel en leuke lage latency maar het spul ging iedere keer onderuit (software) of kapot (HBA op de controller).

[Reactie gewijzigd door dycell op 14 december 2017 23:45]

Inderdaad voor een thuis lab leuk en een prima oplossing! Maar thuis heb je geen 40.000 iops nodig.

Over je HP oplossing kan ik geen oordeel geven omdat de configuratie niet bekend is bij mij.

Hoe zorg je er met dit product voor dat er een failover plaats vindt op het moment dat er een defect op treed?

Normaal heb je twee controllers in een SAN eentje active de andere active standby, als de ene controller uitvalt neemt de andere het dirext over zonder enige downtime. Of nog beter, twee SANs die elke wijziging direct naar elkaar repliceren.

Dit product is echt niet geschikt voor een zakelijk hypervisor omgeving. Hoogstens voor wat archief data/VMs maar daarvoor is het dan weer overkill.
Hoe zorg je er met dit product voor dat er een failover plaats vindt op het moment dat er een defect op treed?

Deze apparaten zijn "relatief" goedkoop dus ze worden dubbel uitgevoerd en in een HA cluster gezet.
https://www.synology.com/en-us/dsm/feature/high_availability

Normaal heb je twee controllers in een SAN eentje active de andere active standby, als de ene controller uitvalt neemt de andere het direct over zonder enige downtime.
Direct is nogal een groot woord. De failover bij inline controllers is soms ook enkele milliseconden wat voor verstoringen kan zorgen. Dit hangt allemaal van je opzet af maar NFS en iSCSI (wat netwerkprotocollen zijn) gaan hier over het algemeen prima mee om.

Of nog beter, twee SANs die elke wijziging direct naar elkaar repliceren.
Zo werkt deze oplossing inderdaad ook.

Dit product is echt niet geschikt voor een zakelijk hypervisor omgeving. Hoogstens voor wat archief data/VMs maar daarvoor is het dan weer overkill.
Een beetje SAN kost al snel 40.000 euro (NetApp/EMC/DELL) en daar komen nog eens licentie kosten overheen. Als je met deze oplossing een extra low-budget storage tier kan creëren dan ben naar mening slim bezig. Of wat dacht je als backup storage?

Ik weet ook niet wat je ziet als "zakelijke hypervisor omgeving"? Is Hyper-V geen zakelijke hypervisor gezien deze bij voorkeur SMB doet? Of XEN omdat deze graag NFS ziet? Je weet dat heel Azure en Amazon zo draaien?
Synology HA zou ik imho in productie niet gebruiken, heb nog geen situatie gezien waar dit echt lekker werkt. Imho nog te foutgevoelig. Heb ze bijv. wel eens dat ze beide draaiden met een directe hearthbeat connectie en dat ze beide dachten dat ze in een splitbrain situatie zaten.

Als je met soort units HA wil doen zou ik altijd Applicatie niveau HA gebruiken en beide units "standalone" laten draaien waarbij ze beide een eigen lun (of meerdere) serveren) en dan de machines uiteraard verdeeld over beide nodes.
Als je met soort units HA wil doen zou ik altijd Applicatie niveau HA gebruiken en beide units "standalone" laten draaien waarbij ze beide een eigen lun (of meerdere) serveren) en dan de machines uiteraard verdeeld over beide nodes.
Kan natuurlijk ook maar dan is DAS weer goedkoper volgens mij. Ik heb in iedergeval vroeger voor een storage leverancier gewerkt en wanneer de klant dan zulke merken op tafel gooide dan werden ze snel van tafel geveegd door verkoop. Dat is een NAS, geen SAN. Hoorde je dan. Allemaal leverancier FUD.

Wat ik bedoel te zeggen is dat je een open blik moet werpen op deze apparaten. Ze zijn zo slecht nog niet en hebben heel veel toegevoegde waarde binnen een bedrijf met een prijskaartje waar de klant (niet de leverancier) gelukkig van wordt.
Dat laatste ben ik zeker met je eens, zie ook mijn andere posts bij dit artikel. Je moet er zeker een open blik naar kijken, want het kunnen inderdaad gewoon goede apparaten zijn die zeker in bepaalde use cases hun waarde hebben.

Kijken naar het upfront prijskaartje is imho echter niet altijd een sterk punt. Want zeker met service en support wil Synology nog wel eens traag zijn. Als je Syno er mee stopt wil je geen weken moeten wachten op een vervangend model of halsoverkop nieuwe hardware moeten gaan kopen terwijl je business stil staat. Zelfs een dag stilstand kan in veel bedrijven al een boel kosten. Dit soort zaken moet je dus wel meenemen en ondervangen in je prijskaartje wanneer je een Synology tegenover een concurrent zet die bijv. wel (proactive) 24/7 on-site support levert wat een (flink) deel van het duurdere prijskaartje zal zijn.
Kan toch ook? Ondersteuning voor iSCSI is dik in orde.
Dat valt ook nog wel tegen hoor, volgens mij is het nu eindelijk gefixed, maar DSM6.0 heeft heel lang iscsi performance / stabiliteits issues gehad onder gemiddeld tot hoge load i.c.m. bijv. VMware exsi waarbij de Synology iscsi implementie in het ergste geval gewoon keihard crashte en een reboot van de unit nodig was dit te herstellen. Iets dat zonder Out of Band management, iets wat ik nog steeds mis op de zakelijke varianten, soms erg lastig kan zijn.

Workaround was terug te gaan naar DSM 5 Iscsi versie 4.0 implementatie ipv de 4.1 implementatie in DSM6.0 (iets wat alleen via command line editing kan).

[Reactie gewijzigd door Dennism op 15 december 2017 00:32]

Tip, iscsi dumpen en NFS gebruiken. Al t gezeik is daarna voorbij. + NFS performed beter als iscsi. (Vmware - synology NFS)

[Reactie gewijzigd door itlee op 15 december 2017 01:16]

Het is natuurlijk afhankelijk van de eisen, zolang je geen zaken als dedupe, compressie nodig hebt en HA ook geen vereiste is (imho is Synology's HA oplossing nogal brak, heb het nog nooit 100% foutloos zien draaien) kan je met een Syno als deze met goede SSD's best een leuke oplossing neerzetten binnen een strak budget die een goede performance kan leveren, je geeft alleen wel een boel enterprise features op, maar als je die toch al niet zou gaan gebruiken....

Ook heeft de apparatuur ook gewoon de benodigde certificering van o.a. VMware. Het is uiteraard zeker niet geschikt voor iedere use case en erg afhankelijk van welke (enterprise) functionaliteit er vereist wordt maar er zijn zeker use cases te verzinnen waar deze apparaten prima bruikbaar zijn.
Ik ben het eens met jou maar in een omgeving die de 40.000 iops nodig heeft denk ik dat up time ook een belangrijk punt is. Met dit product kan je niks garanderen je SPOF is je storage dat vindt ik toch echt ernstig. In een zakelijke omgeving waar 40 VMs draaien zet je dit product toch niet neer? Tenzij je alle risicos weet en het niet uitmaakt.
Het ligt er compleet aan wat de wensen en eisen van de business zijn. Zal je dit vaak tegen komen in een productie omgeving, nee ik verwacht ik het niet. Maar ik ken wel wat vooral kleinere bedrijfjes die op een Synology draaien qua VM's, voor dat soort bedrijfjes zal dit toch een mooie oplossing kunnen zijn als er budget technisch geen ruimte is voor andere oplossing. Maar ik ken bijv. ook grotere bedrijven waar bijv. de test of dev omgevingen op dit soort spul draait, goede performance en als zaken als HA e.d. niet nodig zijn kan dat prima.

Daarnaast kan je natuurlijk ook nog prima HA hebben op applicatie niveau, 2 van deze apparaten en dan de betreffende VM's verdeeld over de 2 apparaten en je kan voor veel applicaties (o.a. zo'n beetje de gehele microsoft stack, maar ook veel andere vendoren) prima HA hebben zonder dat je SAN zelf HA hoeft te zijn. Vaak is HA op applicatie niveau vanuit de software leverancier zelfs best practise daar VMware HA ook niet altijd zaligmakend is.

Bedenk daarnaast ook dat een enkele SAN enclosure met 2 controllers ook nog steeds een SPOF is, de kan of uitval is kleiner, maar ik heb wel eens een SAN gezien waarbij in de enclosure wat defect geraakt was en de enclosure zelf niet meer aan wilde. Dan doen meerdere controllers ook niet veel meer voor je. Of dat bij bijv. een firmware upgrade beide controllers over de nek gaan, of dat bij een defect in controller A bij de failover naar controller B deze ook crashed. De kansen zijn minder groot, maar ik heb het allemaal wel eens zien gebeuren.
En waarom niet? Benieuwd naar je onderbouwing.
En sneller en minder problemen dan op Ethernet 10gbit.
Licht eens toe ?
Doe Ik morgen even. Had een ticket lopen bij synology hiervoor.
Ik ben benieuwd hoe bij de Flashstation de RAID F1 en de toekomstige RAID F2 zich in de praktijk zullen verhouden tegen de huidige standaarden, R5, 50, 6, 60 etc.

Wat ik overigens een vreemde conclusie vind van het systeem dat er maar 8% overhead is t.o.v. R5, maar dat is juist 1 de ene disk in R5.
de flashstation momenteel voor 1539 staan online (Engelse shop) Maar of dat 100% klopt is natuurlijk de vraag..

[Reactie gewijzigd door HKLM_ op 14 december 2017 19:27]

Dat (goedkopere) Synology DiskStations nog geen 10Gb aansluitingen hebben, kan ik nog wel inkomen.
Maar dat een FlashStation niet standaard 10Gb of SFP+ heeft, is waardeloos. Dat had er gezien de prijs wel op mogen zitten (SFP+, dan kun je zelf nog het medium bepalen).
Eens! Synology mag wel iets progressiever zijn hier in. Qnap heeft bijvoorbeeld al wat prosumer-modellen met 10gbe standaard. En dat de nieuwe imac pro een 10gbe aansluiting heeft lijkt er imo op dat er eindelijk eens een beetje schot zit in de bedrade netwerk-wereld.
Zie ik nou goed dat het enige grote verschil tussen de ds218 en ds218play het ram is? 2GB ipv 1GB.. Ok en wat fysieke aansluitingen. Ben benieuwd hoe hij qua prijs gaat zitten dan.

https://www.synology.com/...s/compare/DS218/DS218play
Ik hoop op een leuke kerstbonus dit jaar en dan m'n huidige NASje te vervangen voor de DS218. Zal een enórme sprong vooruit zijn hoop ik..

Moet ook nog wel schijven gaan vervangen, voor het eerst. 1 van m'n WD Green schijven (WD15EARS) begint nogal wat slechte clusters te detecteren (243 stuks nu.. oeps)... maar het apparaat draait ook 24/7 sinds aanschaf eind 2010.

(Ik heb nu een DS211j ... hah!)

[Reactie gewijzigd door DigitalExcorcist op 14 december 2017 19:32]

Dat green drives het zo lang uithouden in een NAS is al heel winstgevend :)
Zeker. Heb ze wel vrij vlot ontdaan van de power saving mode om de LCC laag te houden (load cycle count).

1 van de schijven geeft er nu langzaam de brui aan maar de ander heeft 0 slechte sectoren en draait 100% prima.
DS215j hier, niet veel beter hoor! De J series blijven toch wat traag altijd. Het is prima voor het opslaan van bestanden, maar meer ook niet. In het begin gebruikte ik hem nog als downloadserver en Plex media server, maar dat ging voor geen meter.

[Reactie gewijzigd door MaxTheKing op 14 december 2017 19:51]

Heb zelfde DS als jij.

Herken deels niet wat je aangeeft.

Ik gebruik de NAS ook voor opslaan / delen van bestanden en als downloadserver zonder noemenswaardige prestatieproblemen.

Plex ben ik met je eens. Is veel te zwaar voor deze NAS.
In heb de mijne vervangen door de DS218+ en nog geen moment beklaagd
Draai je nu alles via Docker of toch nog via packages?
Om eerlijk te zijn ben ik nu vooral aan Hey spelen met de virtual machine manager... win10 wil er maar niet vlot op draaien

Maar doe de installaties via packager

[Reactie gewijzigd door Kheyvaert79 op 16 december 2017 15:42]

De ene is een Atom processor, de andere een Pentium. Ook ECC geheugen zal een rol spelen qua prijs.

Maar inderdaad ik vind ook dat Synology wel wat snellers en beter mag leveren voor de prijs van de DS3018. Zit daarom ook te denken aan Qnap.
Ik zie toch bij de FS1018 en de DS 3018xs beide een pentium D1508. Ook het Supermicro bordje.
https://www.synology.com/...s/compare/DS3018xs/FS1018.
Zijn vrijwel identiek, ook zelfde afmetingen en ECC.

[Reactie gewijzigd door abusimbal op 15 december 2017 19:56]

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S9 Google Pixel 2 Far Cry 5 Microsoft Xbox One X Apple iPhone 8

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V. © 1998 - 2018 Hosting door True

*