Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Synology introduceert DiskStation DS220+-nas met twee bays

Synology heeft de DiskStation DS220+ geïntrodudeerd. De networked attached storage is de opvolger van de in 2017 uitgekomen DiskStation DS218+ en heeft nog altijd twee drivebays en bevat een Intel Celeron-dualcore als cpu.

De DiskStation DS220+ heeft een Intel Celeron J4025 met twee cores op 2,0GHz en een boost tot 2,9GHz. Deze dualcore zit ook in de al bestaande DS420+. De nieuwe nas heeft net als zijn voorganger twee drivebays waar plek is voor twee 3,5"- of 2,5"-schijven.

Er is 2GB ddr4-geheugen aan boord, wat uit te breiden is tot 6GB. Verder zijn er twee usb 3.0-poorten en twee gigabit-lanpoorten. Het formaat van de DS220+ is 165x108x232,2mm en de nas weegt 1,3kg. Synology noemt geen adviesprijs, maar het product staat al in de Pricewatch voor ongeveer 350 euro.

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Joris Jansen

Nieuwsredacteur

24-07-2020 • 18:21

165 Linkedin

Submitter: HGJ

Reacties (165)

Wijzig sortering
Goede upgrade qua CPU en geheugensnelheid tov de 218+, zelfde geld voor de 718+ -> 720+.

Nadeel is dat het basisgeheugen (2GB) nu gesoldeerd is, je kan het niet vervangen. Een upgrade is dus beperkt tot het bijprikken van een 4GB module, in totaal 6GB, terwijl de CPU officieel 8GB ondersteunt. En 2 ongelijke modules (2+4) kan niet dual-channelmodus zijn.

Voor veel toepassingen zal het weinig uitmaken, maar voor CPU-/RAM-intensieve toepassingen zou ik denken dat 2 x 4GB in dual-channelmodus wel een verschil zou maken. Of ondersteunt de moederbord überhaupt geen dual-channel?

[Reactie gewijzigd door sowen op 24 juli 2020 18:59]

Gesoldeerd is wel een nadeel ja.
Je kunt er wel 8Gb bijprikken. Op de 218+ kun je 2x 8Gb plaatsen. Ik weet niet waarom ze beweren dat je maar tot 6Gb kunt uitbreiden want het werkt bij iedereen gewoon. Ik heb ook eens een test gelezen over het prestatieverschil tussen 2 gelijke modules in dual channel en 2 ongelijke modules. Er was zeker wel verschil maar het viel nog mee. Daarom draai ik zelf met een reepje 8Gb en de standaard 2Gb.
Intel geeft niet voor niets een grens voor deze CPU's van 8GB aan. Wie weet, zou het met virtualisatie te maken kunnen hebben. Blijkbaar is die grens ook belangrijk voor Synology, anders zouden ze ongetwijfeld ook een 8GB-module te koop aanbieden, veel mensen willen het en Synology zou goed kunnen verdienen, maar ze doen het toch niet... vreemd hè?

Verder, zoals ik hierboven schreef: Op nascompares werkt bijvoorbeeld 18GB, maar je ziet toch wat rare grafische verschijnselen... het systeem lijkt verder goed te draaien. Wie weet waar andere 'onzichtbare' problemen zich voordoen, net op het moment dat je een RAID-rebuild moet doen of zo.

Jij wilt blijkbaar risico's nemen met je RAID-systeem en de integriteit van je data. Maar dan zou ik niet weten waarom je een RAID-systeem aanschaft.
De J4025 cpu zit ook in de nieuwe DS920+ die geleverd word met 4GB DDR4-2666 (PC4-21300), non-ECC, unbuffered, SO-DIMM, 260pin, 1.2V

Velen prikken er deze 16GB crucial bij voor zo een €60 en dan kom je totaal op 20GB uit
pricewatch: Crucial CT16G4SFD8266

Ben benieuwd hoe dat bij mij gaat werken, had het ook wel bij 4GB + 8GB kunnen houden.

[Reactie gewijzigd door Malarky op 25 juli 2020 10:19]

In de DS920+ zit niet de 2-core J4025 maar de 4-core J4125.
In de DS420+ zit J4025.
"Velen" ja, want als "velen" iets doen, is het ongetwijfeld verstandig ;) .

Persoonlijk snap ik het helemaal niet. Ik koop een relatief dure NAS met RAID om risico's te verlagen, mijn data-integriteit te waarborgen en continuïteit te verhogen. Dan ga ik iets bijprikken dat de fabrikanten zeggen niet ondersteund wordt, waardoor ik onbekende risico's ga nemen met juist de data-integriteit en continuïteit.

In deze systemen is meer dan 8GB gewoon niet nodig, vrijwel iedereen doet het "omdat het kan", niet om ze daar iets in termen van prestaties van merken.

Brandverzekering nemen en vervolgens met lucifers in huis gaan spelen "wat het is leuk, velen doen het en gaat tot nu toe goed."

[Reactie gewijzigd door sowen op 25 juli 2020 10:38]

Intel geeft niet voor niets een grens voor deze CPU's van 8GB aan.
Ongetwijfeld zullen ze een reden hebben, maar dat wil niet zeggen dat die reden is dat het niet goed werkt.

Er zijn genoeg CPUs waar intel officieel een maximum geheugen opgeeft omdat dat breikt werd met de grootste op dat moment verkrijgbare DIMMs. Als na uitfaseren van de CPU door een nieuwe opvolger er twee keer zo grote DIMMs op de markt komen dan kan het zijn dat ze die niet valideren en dus op ARK de specs niet aanpassen. Ondertussen kan het zijn dat dit prima werkt, maar intel heeft het niet zelf gevalideert dus officieel niet ondersteunt.

Daarnaast haalt intel dit soort geintjes ook nog wel eens uit om kunstmatige marktsegmentatie te creëren. NAS fabrikanten als Synology zullen allen offiecieel ondersteunde configuraties uitbrengen, dus als zij een NAS met officieel 16GB geheugen willen uitbrengen, moeten ze bij intel een duurdere CPU inkopen.

Synology doet hetzelfde richting haar klanten en je krijgt de huidige situatie. Geen officiele 8GB dimmomdat officieel de CPU het niet ondersteunt. En Synology vindt het prima, want nu kunnen zij ook segmentatie aanbrengen in hun NAS series.

Fysiek is het simpel, die CPUs zijn al lang uitvoerig door gebruikers in de praktijk getest met meer geheugen en dat werkt probleemloos. Er is hardwarematig (behalve het gesoldeer) dus geen enkele belemmering.

Softwarematig is er in Synologies op dit moment ook geen enkel belemmering. Synology zou natuurlijk in een nieuwe versie een check in kunnen bouwen op model en geheugen en weigeren op te starten. Dat zou de slechtste PR zactie zijn die je kan bedenken. Het gezeik op het internet zal zo groot zijn dat ze op op de consumenten markt door zo'n actie permanent schade/achterstand op hun concurrenten zoals QNAP en Netgear op zullen lopen.

Ondertussen zullen bedrijven die de support van Synology willen gebruiken zich netjes aan de limieten houden en officiele en veel te dure Synology DIMMs kopen, omdat gelazer over garantie en support als je dat nodig hebt voor bedrijven duurder is dan het prijsverschil tussen Synology en ander geheugen of een 8GB en een 16GB model.

Prive geef ik daar weer niet zo om, dus ik heb een DS918+ met 16GB geheugen. Dat leidde tot een glitch die jij noemde in de synology UI. De app om een SSD cache aan te maken berkende optimale omvang op basis van het geheugen en omdat er op dat moment geen NAS te koop was die officieel de nvme cahce ondersteunde en 16GB geheugen was hier bij de wizard geen rekening mee gehouden. Inmiddels een software versie verder zijn die er wel en werkt die wizzard nu ook.

De ui draait echter gewoon op Linux dus vanaf de commandline kon alles prima instellen en ook als de SSD cache met 8GB geheugen (en dat kon ook de officieel niet ondersteunde config met 1x 8GB dimm zijn). Daarna geheugen bij plaatsen en alles werkt zonder problemen.

Overigens maakt dual channel of niet voor een synology in dit marktsegment nauwelijks verschil, dat is vrijwel nooit de bottleneck. Als we het hebben over de grote rackstations met Xeon en donderden gelijktijdige clients en VMs wordt het anders. Maar dan heb je ook deze rare limieten niet meer.
Er is een hele grote groep gebruikers met meer dan 8Gb die geen klachten aangeven.
Op de hogere types kun je wel officieel meer geheugen draaien, kun jij aantonen dat het geen verdienmodel is?

Ik gebruik persoonlijk de synology absoluut niet als RAID, heb daar persoonlijk geen vertrouwen in en heb het niet nodig. Heb 2 volumes op ext4 omwille van dataveiligheid en daar zitten 2 gelijke schijven/volumes achter op de usb poorten die elke nacht back up draaien, en daarachter zitten nog eens 2 schijven met periodieke back ups. En alle data staat ook nog op de clients via drive. Ik heb dus 6 schijven aan mijn 218+ hangen, gewoon omdat het kan. En ik zodoende geen 4 bay hoef te kopen.

Aangezien de 2020+ minder en langzamere usb poorten heeft is dat voor de consument geen verbetering.
Welke hogere modellen met dezelfde cpu en moederbord worden met meer dan 8GB verkocht?

Waarom moet ik bewijzen dat jouw theorie niet waar is? Het is jouw theorie maar je hebt geen bewijs.

Ik zeg overigens niet dat het geen marketing is, ik zeg alleen dat twee van elkaar onafhankelijke fabrikanten zeggen "niet doen" en niemand komt met bewijs dat als je het wel doet, dat er geen problemen kunnen ontstaan op critische momenten.

Synology heeft geen 2-bay systemen voor consumenten waar het wel kan (de 720+ heeft ook 2GB gesoldeerd en een 6GB limiet), dus van 'upsell' is er geen sprake.

Jij hebt alleen complottheorieën en dubieus "bewijs" voor betrouwbaarheid, en zegt zelf dat RAID-betrouwbaarheid niet eens belangrijk is (en je vermenigvuldig je risico's door meerdere schijven zonder RAID te gebruiken).
Je kan gerust een grotere ram stick erin steken hoor.

Ik heb een 8GB crucial stick toegevoegd aan mijn ds920+ en werkt perfect. Voor garantie moet je hem er wel uithalen, geloof ik.
De processor zou maar 8GB aankunnen volgens de specs. Er zit bij mij dus 12GB in momenteel.

Er zijn er ook die een 16GB stick erin gestoken hebben.

[Reactie gewijzigd door SmokingCrop op 24 juli 2020 21:22]

Jij kan er wel 12GB insteken en claimen dat er helemaal geen problemen zijn, maar dat weet jij niet. Op nascompares werkt bijvoorbeeld 18GB, maar je ziet toch wat rare grafische verschijnselen... het systeem lijkt verder goed te draaien.

Jij kan niet met 100% zekerheid zeggen dat all VM's dan foutloos zullen draaien, en als er een RAID-rebuild plaats moet vinden, hoe het systeem dan zal reageren - wellicht zitten er harde getallen als assumpties mbt maxima in DSM geprogrameerd... jij kan het niet weten. Dus 12GB heb je erin, maar de zekerheid van de integriteit van je data heb je niet, en daarom heb ik juist een NAS met RAID aangeschaft.
En daarom heb je altijd een goed ingeregelde backup volgens de 3-2-1-0 regel. :)
Dan kan je dit soort risico's opvangen want de NAS kan ook gewoon volledig kapot gaan.
Die backups heb ik ook, dubbel zelfs met eentje 'offsite'. Daar gaat het niet om, het gaat om het beperken van risico's en het verhogen van continuïteit... daarom heb ik een RAID-systeem, want dan verlaag ik aanzienlijk de kans dat ik de backups moet aanspreken met alle werk en tijdsverspilling die met het opnieuw opbouwen van een systeem gepaard gaan.

Als ik meer geheugen instop dan Synology en Intel adviseren, dan ben ik spelen met die risico's op een voor mij onvoorspelbare manier (en ik heb een aversie tegen onvoorspelbare risico's ;) ).
N=1 enzo, maar 0 problemen gehad bij mijn vorige synology die 4 jaar gedraaid heeft met "te veel onofficiële RAM".

Als bedrijf begrijp ik het perfect dat je dit nooit zou doen, maar voor persoonlijk gebruik met externe Backup lijkt mij niet veel mis te kunnen gaan. Is veelal gewoon een taktiek om je 4GB RAM aan te smeren voor 90 euro.. Ipv 8GB voor 30 euro.

Er staan ook geen zaken op die ik direct nodig moet hebben en die zijn dubbel extern Backup'd anyways..

Maar iedereen moet dit voor zichzelf beslissen inderdaad.

[Reactie gewijzigd door SmokingCrop op 25 juli 2020 11:50]

"Lijkt mij niet veel mis te kunnen gaan"... terwijl zowel Synology en Intel zeggen "niet doen". Tja.

Synology zou ook 8GB kunnen "aansmeren" voor nog meer inkomsten en winst, maar dat zoen ze niet. Gek hè?

Iedereen moet dit voor zichzelf beslissen? Ja en nee. De meeste mensen - waaronder jij - zien niet alle risico's in, en kunnen dan de overweging niet op een verantwoorde en volledig geïnformeerde manier maken. Backups wil ik aanspreken alleen als het niet anders kan, maar ik moet ook wel weten wanneer ik die nodig heb... bij gecorrumpeerde bestanden kan het zijn dat je er pas jaren later achterkomt, als de goede backups al lang 'uitgerouleerd' zijn. En als je meer geheugen inprikt dan ondersteund wordt, weet je niet wat stilletjes gecorrumpeerd raakt.

Dus, "iedereen moet dit voor zichzelf beslissen" staat haaks op wat de beide fabrikanten - Synology en Intel - zeggen, namelijk: "Niet doen". Dus tegen iedereen die een NAS heeft aangeschaft om hun data veilig(er) te stellen, zeg ik: luister naar de twee experts die wèl weten wat de risico's zijn, en anders ben je dom bezig. Maar ja, inderdaad, iedereen is vrij om dom bezig te zijn.
Die echte hardware experts/engineers bij Synology/Intel weten dat je gerust meer kan gebruiken.
De Marketing & Business "experts" willen je gewoon naar naar een hoger segment pushen als je meer RAM wil/nodig hebt. Dat is het hele verdienmodel van Synology.
Alle hardware minstens dubbel aanrekenen omdat ze hoofdzakelijk met software bezig zijn die ze niet rechtstreeks willen aanrekenen. Wat prima is, want hun software is gewoon goed.

Waar uw inzicht op dat vlak is dat iedereen vrij is om dom bezig te zijn, ik mijn inzicht dat iedereen vrij is om naïef te zijn ;)

Maar denk dat we wellicht beter agree to disagree doen, of we komen nog met 20 replies af O-)

[Reactie gewijzigd door SmokingCrop op 25 juli 2020 11:57]

Die echte hardware experts/engineers bij Synology/Intel weten dat je gerust meer kan gebruiken.
De Marketing & Business "experts" willen je gewoon naar naar een hoger segment pushen als je meer RAM wil/nodig hebt.
Tja, alweer iets wat op nul feitelijke kennis is gebaseerd. Zo kunnen we doorgaan met complottheorieën.

Ik had allang ingezien dat wij niet met elkaar eens zouden worden. :) Mijn reacties zijn primair bedoeld voor de lezers die wel verantwoorde en op feiten gebaseerde beslissingen willen nemen. Zij kunnen worden gered voordat hun documenten en foto's langzaam en onopgemerkt gecorrumpeerd raken.
Grappig, want jij doet nu precies waar je @SmokingCrop van beschuldigt. Een reactie gebaseerd op nul feitelijke kennis.

Jij serveert de mogelijkheid dat de 8GB beperking een marketing beperking is in plaats van een technische beperking namelijk zonder enige feitelijke onderbouwing af.

De CPUs zijn niet onbekend en zijn al sinds eind 2019 in gebruik, door velen met meer dan de officieel ondersteunde 8GB geheugen.

De serie daarvoor had hetzelfde en is jaren lang gebruikt door velen met meer dan officieel werd ondersteund.

Memory controllers zijn relatief eenvoudige schakelingen, hoeveel geheugen ze kunnen adresseren is een fysieke beperking, en die beperking is overduidelijk niet 8GB anders zou dat nooit werken. Omgekeerd betekent dit dus dat het hardwarematig altijd werkt. Er is dus geen fysieke beperking waardoor de J4025 geen 16GB geheugen kan aansturen. Dus is het een marketing of bedrijfseconomische beslissing. Marketing zou zijn om artificieel te segmenteren, bedrijfseconomisch zou kunnen zijn dat men geen geld wil uitgeven aan het valideren van de CPU met meer geheugen opties. We hebben het over een redelijke lowbudget/low margin chip, niet over een top model met bijbehorende prijspremium.

Overigens wil dit niet zeggen dat deze CPU 16GB geheugen als 4 x4GB dimms kan adresseren, daar komen weer andere (fysieke) beperkingen bij kijken.

edit: Kleine nuancering in het verlengde van die laatste zin: Dat de CPU om kan gaan met geheugen chips dubbel de dichtheid, wil niet zeggen dat hij om kan gaan met alle 8GB dimms.

Het zou kunnen zijn dat er een rank beperking is en de CPU alleen met single rank DIMMs werkt. Voor zover mij bekend zijn alle DDR3 en DDR4 4GB dimms al jaren single rank. Maar dat zou dan betekenen dat een Single Rank 8GB modulke werkt en een dual rank 8GB module niet. Als intel dan geen zin heeft in de support vragen van mensen waarom hun 8GB DIMM geheugen niet werkt is de makkelijkste manier natuurlijk geen van beide officieel supporten.

EDIT: let op ik zat een beetje te slapen toen ik bovenstaande schreef: Synologies hebben juist issues met Single Rank Modules, zorg dus dat je een DUal Rank module koopt!

[Reactie gewijzigd door Omega Supreme op 26 juli 2020 12:29]

Op NAScompares doen ze ook wel testen met third party ram, zo ook bij de DS220+. Maar dat levert toch wel wat compatibiliteitsproblemen op. Ik snap dat de Crusial ram drie keer zo goedkoop is maar is het ‘t risico waard op een corrupt systeem?
Leuk dat jij en Sowen steeds met NAS compares komen, maar dan koop je hem toch hier: https://www.span.com/prod...B-non-Synology-RAM-~72675

Getest met 18GB geheugen en garantie!

Maar stel dat je binnen de 6GB wil blijven omdat Synology dat als max geeft en dat in principe in software af kan (gaan) dwingen. Hardwarematig is er geen enkel verschil tussen een Synology DIMM en een 3rd party DIMM met dezelfde layout. Er is geen enkele reden waarom dit niet zou werken!

Alleen heb je geen garantie als je een willekeurige 3rd party DIMM koop dat deze gelijk zijn (latencies, dual rank, snelheid is wel makkelijk te matchen want altijd duidelijk aangegeven). Daarom koop je ook geen willekeurige DIMM, maar een DIMM die al door mensen getest is en werkt. De synology DIMM koop je alleen als je het apparaat met de DIMM er nog in terug wil sturen voor garantie of Synology remote toegang wil geven tot de NAS voor support vragen. En zelfs dan kan je de DIMM er voor je dat doet gewoon uithalen...

Stop ajb met de FUD en kom met feiten waar iedereen wat aan heeft. 'nascompares heeft module X met die en die specs gebruikt en had problemen' is nuttige informatie. 'Partij Y heeft module Z gebruikt met die en die specificaties en had geen problemen'
Voor een nas is veel geheugen wel zo handig. De nieuwere filesystemen zoals zfs kunnen best wel veel buffer geheugen gebruiken.

Voor veel toepassingen zal het wel degelijk wat uitmaken. Juist bij het gebruik van veel toepassingen (tegelijkertijd) is veel geheugen wenselijk.
ZFS? We hebben het hier over een Synology DS220+.
En zo veel toepassingen op een Celeron J4025 zal je toch niet draaien.

De 10GB (2+8) intern geheugen waar men het over heeft zal geen merkbare verschil in prestaties leveren in de DS220+.

Wil je SSD-cache voor je HD's? Koop dan een DS720+.
Ik denk dat het qua moederbord layout niet uitmaakt of het dual channel is of niet. Twee geheugenslots betekent dat er twee keer de traces naartoe moet lopen en de overige complexiteit zit in de geheugencontroller.

Overigens kunnen Intel processoren bij mijn weten wel flexibel omgaan met ongelijke geheugengroottes per kanaal. Het geheugen draait dan in flex mode. Zie ook de website van Intel. De eerste 2GB van de grootste module zou dan als dual channel aangesproken worden terwijl de laatste 2GB als single channel gebruikt wordt.

Nu weet ik niet met zekerheid of deze nas dat überhaupt ondersteunt. Verder weet ik ook niet of typische workloads op een synology beperkt gaan zijn door de geheugensnelheid. Wellicht is er altijd wel een use case te vinden die er baat bij heeft maar ik vermoed dat de meeste handelingen prima draaien met trager geheugen.
Je kunt meer geheugen bijprikken dan de 4GB die Synology aangeeft alleen krijg je dan geen support. Op nascompares.com staat een lijstje met geheugenkaarten die ze getest hebben.
En op nascompares staat ook dat ze soms vreemde dingen zien (bijvoorbeeld grafieken in DSM) die niet meer goed worden weergegeven. M.a.w. boven de specificaties van Synology en Intel zijn er wel degelijk anomalieën.

Zij 'lijken' verder geen probleem te hebben, maar weten niet zeker of bijv. alle RAID-functionaliteit dan ook vlekkeloos werkt... het kan lijken te werken (geen crash oid) maar dat data stilletjes gecorrumpeerd raken. Verder weten ze niet wat er gebeurt als je je geheugen volpropt met VM's of Docker-packages, of die dan ook vlekkeloos werken. En ze hebben niet getest bij een RAID-rebuild.

Synology zegt "doe het niet" (terwijl ze best wel grotere geheugenmodules zouden kunnen verkopen), en Intel zegt "doe het niet". Ik weet niet hoe duidelijker ze zouden kunnen zijn. Maar sommige mensen proberen het toch en concluderen dat het kan, alleen omdat hun systeem blijft doordraaien... Ze vinden het blijkbaar prima en logisch om veel geld uit te geven om hun data veilig te stellen met een RAID-systeem en vervolgens te riskeren omdat ze per sé boven de limieten willen gaan voor geheugen die toch geen verschil zal maken in de prestaties. :? 8)7
zelfde geld voor de 718+ -> 720+
Hoe, is die niet duurder? Meer geld dus.
*geldt

[Reactie gewijzigd door sowen op 28 juli 2020 19:43]

"De networked attached storage is de opvolger van de in 2017 uitgekomen DiskStation DS218+ en heeft nog altijd twee drivebays".

Een DS2xx (DiskStation) zal ook nooit meer dan twee drivebays krijgen aangezien het hier om een gestandaardiseerd model, formaat en productlijn binnen de verkrijgbare Synology producten betreft.

DS = DiskStation
2xx = 2 bays
x20 = jaartal
+ = spreekt voor zich

[Reactie gewijzigd door Indir op 24 juli 2020 18:51]

De +-serie spreekt niet ‘voor zich’, maar biedt altijd het volgende tov van de rest:

- 3 jaar garantie (ipv 2 jaar bij Play, J of SE)
- Altijd een Intel x86 processor
- minimaal 2GB RAM en uitbreidbaar tot 8GB (ondanks dat specs soms 6GB zullen zeggen)
- Dual LAN
- lockable HDD Trays
- Volledige toegang tot DSM software
- toegang tot alle home en business applicaties, bèta’s en file systems.
Oftewel het bied een pluspunt aan t.o.v. de non-plus variant. Alsnog bedankt voor het verduidelijken heb zodoende zelf ook weer wat geleerd. :)

Ikzelf heb jaren geleden een DS212+ aangeschaft, toen was er trouwens nog geen sprake van dual-LAN of uitbreidbare RAM. Dus het hangt er toch een beetje van af wat voor DiskStation je tegenwoordig aanschaft lijkt mij? Kun je trouwens verduidelijken wat je bedoelt met "volledige toegang tot DSM software"?

[Reactie gewijzigd door Indir op 24 juli 2020 20:36]

dual lan kwam bij de 214+ in het levenslicht
Een + heeft/had niet altijd een Intel processor.

De DS215+ had een Annapurna AL-212 1.4GHz Dual-Core.

En volgens de Pricewatch heeft zowel de DS218+ als de DS220+ niet 3 maar 2 jaar carry in garantie.
Idem voor de DS216+II. Voor de DS220+ ook op de Synology site 'maar' 2 jaar garantie.
Ik denk dat de 3 jaar pas bij de 4 (serie) begint, die heeft het namelijk wel. En de 720+ ook.
- Altijd een Intel x86 processor
Behalve dat mijn DS213+ een ‘Freescale QorIQ P1022’ cpu heeft ;-)
Vol enthousiasme rende ik zojuist naar de meterkast om de tweede Ethernetpoort op m’n DS216+II te zoeken, maar die bleek er jammer
genoeg toch niet op te zitten.
- Altijd een Intel x86 processor
Dat is niet waar, ik heb een DS213+ en een DS215+ beide geven geen x86 cpu.... helaas...
De 220+ is uitbreidbaar tot 6GB, want de basis 2GB is nu gesoldeerd, en ik heb tot nu toe geen reepjes van 6GB kunnen vinden :-). Meer dan 8GB (bijv. 2+8) is niet ondersteund (en toont ook wat problemen op nascompares), dus wordt het 2+4 = 6.

[Reactie gewijzigd door sowen op 25 juli 2020 15:15]

Nou een DS218+ heeft ook geen dual lan.
Deze wel, maar ik zie dat het wel ten koste is gegaan van een USB3 poort. En da's jammer, want die gebruik ik wel en dual lan niet.
De DS220+ heeft 2 USB3 poorten.
Ik keek alleen naar de achterkant. De DS218+ heeft er dan drie, waarvan twee aan de achterzijde. Dat sluit net even wat netter aan als je de kabelboel weggewerkt wil hebben.
Waarom is een NAS eigenlijk zo duur? Als ik mijn eigen nas maak ben ik inprincipe minder kwijt en is die waarschijnlijk krachtiger.
Als je je eigen entrecôte bakt ben je ook goedkoper uit en kan ie beter smaken dan in ‘t restaurant. Toch kost ie in ‘t restaurant dus een stuk meer, maar dan hoef je iig niet zelf te koken en ontvang je goede service. ;)

Voor wat hoort wat. Imho zijn deze machines hun geld dubbel en dwars waard. Duur is ook maar relatief. Gezien alles wat ik ermee doe, denk ik dat de NAS me kosten bespaart... Sure, zelf bouwen zou dan nog meer schelen qua geld. Maar niet qua tijd en tijd is ook geld. Daarnaast: ontwerp en bouw hele dagen servers en gerelateerde zaken, voor dit soort thuiszaken gewoon een kant en klaar machientje kopen dat out of the box werkt is ook wel eens een fijne afwisseling. :+

[Reactie gewijzigd door WhatsappHack op 25 juli 2020 02:46]

Dit gaat ook op voor kleine ondernemingen. Een NAS is een prima fileserver voor het bedrijf en webserver voor backendtoepassingen zoals CRM en een projectsysteem. Voor een redelijk bedrag heb je veel opslagruimte en naar verhouding vrij weinig onderhoud. Backup en restore moet je zelf inrichten maar ook dat is tegenwoordig geen echte rocket science meer.
Gewoon een verdienmodel: biedt zo weinig mogelijk aan voor een zo hoog mogelijke prijs, maar ondersteun hem wel minimaal 3 jaar.
Omdat je niet alleen voor de hardware betaalt, maar ook voor de software. DiskStation Manager in dit geval. Daarnaast moet het bedrijf ook de kosten voor marketing, ontwikkeling etc terug zien te verdien en geloof het of niet, uiteindelijk willen ze ook graag winst maken. Oh en garantie/service kost ook geld, dus ook dat wordt in de prijs meeberekend.

Als jij je eigen NAS maakt, ben jij in principe goedkoper uit inderdaad. Dat is bij veel dingen zo. Wat je echter niet betaalt met geld, zal je moeten betalen met tijd. En de vraag is dan ook altijd: wat is op dat moment jou meer waard, het geld of de tijd ;)

[Reactie gewijzigd door ASNNetworks op 25 juli 2020 01:51]

Met je eigen nas reken je je eigen uren niet in mee, niet voor samenstellen, niet voor bouwen, niet voor onderhoud/ondersteuning. Ik kan zelf een huis bouwen en onderhouden voor minder dan wat ik kan kopen, omdat al mijn eigen uren 'gratis' zijn.

Als je sec naar hardware kijkt, is het een relatief dure doos, daar heb je gelijk in. Maar er zit tal van packages op, al die packages worden ondersteund en bijgewerkt.

Jij was ongetwijfeld vele uren bezig met het samenstellen en bouwen van je nas. Waarschijnlijk ook veel plezier aan gehad. "Been there, done that" - zelf veel systemen gebouwd - maar nu wil ik een heel compleet en ondersteund systeem kopen, en daar betaal je nu eenmaal voor.
Hoeveel energie gebruikt jou zelfgebouwde nas? De synology en qnap nas apparaten zijn toegesneden op het doel en meer doen ze niet. Daar besteden ze ook geen energie aan.

Het is al weer een tijd geleden maar toen ik in de markt was voor een nas heb ik ook gekeken naar zelfbouw en/of een mini-server. Wat ik mij herinner is dat het prijsverschil met een paar jaar aan electricitiet is terug verdient.
Toch wel jammer van de 1GbE LAN-poorten.

Ik begrijp dat 10GbE duur is, maar 1GbE is inmiddels "not good enough" als je deze wil gebruiken om bijvoorbeeld video footage op te slaan en vandaan te halen. Of complete 3D assets. Opnemen in 4K of 6K raw kan al snel 500 GB tot bijna een TB voor minder dan een uur footage kosten. Om dat meermaals per dag over de lijn te halen met 1GbE, dag in - dag uit, ... hmm.

Ik wacht nog even met een NAS tot 10GbE wat meer standaard (lees: betaalbaar) wordt. Tot dan JBOD in mijn case.

Als ik een laptop zou gebruiken, of de raw footage mobiel moet hebben, dan snap ik de use case van dit product wel, met USB3

[Reactie gewijzigd door Division op 24 juli 2020 19:17]

Als je dat meermaals per dag doet met zo'n grote hoeveelheid data is dit misschien niet het model voor jou. Met twee schijven van zeg 10TB in mirror heb je effectief 10 uur footage als ik je goed begrijp, als je met dat soort dingen veel en dagelijks bezig ben heb je echt andere modellen die beter geschikt zijn met dan ook de bijbehorende connectiviteit (en prijskaartje ;))
Dat klopt, met compressie wel iets meer, maar mijn punt was meer: Als je dit als mobiele storage gaat gebuiken voor je opnamen van dit project (vaak neem je de raw footage mee naar de colorist ). Dan is dit kistje perfect om alle data te huizen.

Mijn opmerkingen dan gaat puur over de snelheid van de LAN dataoverdracht. Zowel extern als thuis, als dit je mobiele "project working-drive" is.
Jij spreekt over een DAS.
Volgens mij over een TAS :+ :+
Maar een NAS is geen "mobiele" storage, die staat gewoon ergens in een kast en komt zelden tot nooit van zijn plek. Dus volgens mij vergis je je in hoe je dit product gebruikt / waar het voor bedoeld is.
Misschien vergis ik me wel ja, dat is prima mogelijk. Maar dit is een beetje wat ik er uit haalde als product use case in mijn situatie.
Dan ben je denk ik eerder opzoek naar een USB of Thunderbolt DAS. Eventueel in raid. Zie bv Thunderbay van OWC.
Hij heeft ook een USB 3 poort. Je kunt ook jouw media via USB overzetten als je dat per sé zou willen, hoewel een NAS hiervoor niet is bedoeld. USB 3 is vele malen sneller.

Wanneer ik enorm grote zaken over moet zetten naar mijn NAS doe ik dat via USB direct op de NAS, zonder mijn PC er tussen
Toch wel jammer van de 1GbE LAN-poorten.

Ik begrijp dat 10GbE duur is, maar 1GbE is inmiddels "not good enough" als je deze wil gebruiken om bijvoorbeeld video footage op te slaan en vandaan te halen. Of complete 3D assets. Opnemen in 4K of 6K raw kan al snel 500 GB tot bijna een TB voor minder dan een uur footage kosten. Om dat meermaals per dag over de lijn te halen met 1GbE, dag in - dag uit, ... hmm.

Ik wacht nog even met een NAS tot 10GbE wat meer standaard (lees: betaalbaar) wordt. Tot dan JBOD in mijn case.

Als ik een laptop zou gebruiken, of de raw footage mobiel moet hebben, dan snap ik de use case van dit product wel, met USB3
Wil je een 10Gbit poort gebruiken i.c.m. 2 harde schijven?
Denk je dat die schijven het aankunnen?
SSD’s wellicht, maar gewone harde schijven niet, vrees ik.

Er zijn modellen van Synology waar je een 10Gbit nic in kan stoppen.
Als je dat graag wilt, dan koop je toch zo’n model?
Ik snap ook niet waarom Synology blijft vasthouden aan 1GbE, 2,5 of 5GbE kost volgens mij niet veel meer. Zelf zit ik er over naar te denken om link aggregation te gebruiken(kabel bundelling) op mijn 1515+ omdat de bottleneck van mijn nas duidelijk de 1GbE-poort is.
Maar met welke schijven in een raid opstelling ga jij een 1Gb lijn voltrekken? Laat staan allebei de 1Gb poorten?

Ik heb dezelfde kritiek op de 420, maar daar kun je ook echt de lijn vol trekken. Met normale harde schijven in dit model is 1Gb eigenlijk voldoende. (In RAID-0 ga je die tweede poort wel echt nodig hebben, maar als het goed is koop je geen NAS voor RAID-0.)
Ik ben het wel met je eens hoor, zeker bij de modellen met 4 bays. Mijn 918+ (met vier schijven) wordt bij file transfers gelimiteerd door de 1Gb aansluitingen en zijn opvolger (920+) heeft dat ook weer. Toch jammer bij een product van zo'n €600.

QNAP lukt het wel om in technisch vergelijkbare (qua prijs zelfs iets goedkopere) modellen 2,5Gb nics te plaatsen. Diskstation van Synology is daarentegen weer wat fijner dan de tegenhanger van QNAP als ik de ervaringen lees.

Dat mijn 2018-model 'maar' 1Gb nics heeft snap ik nog wel. Dat ze in 2020 het stapje naar 2,5Gb niet zetten snap ik wat minder :)

[Reactie gewijzigd door Gizz op 25 juli 2020 09:36]

Hoe dit een ongewenste post is? Omdat je een consumentenproductje wil toepassen voor professionele doeleinden. Als je footage van 500GB over het netwerk in realtime wil kunnen aanspreken moet je gewoon naar een hoger model. In een Citroën C1 zit ook geen dikke motor om een zware aanhanger mee te kunnen trekken, dan zal je ook een hoger en duurder model moeten nemen.
Wat is nu eigelijk het verschil met de vorige series. Gewoon ietsie pietsie meer performance ?? Ik zie weinig evolutie in hun producten en nu moet ik een nieuwe kopen gewoon om het nieuwe OS te kunnen draaien, maar echte hardware verschillen zijn er niet met mijn DS1511+ Die ondertussen 10j oud is

[Reactie gewijzigd door klakkie.57th op 24 juli 2020 19:42]

Waarom een nieuwe je zit nog in full support voor dsm

[Reactie gewijzigd door HKLM_ op 24 juli 2020 18:54]

Je zou idd nog tot einde kunnen wachten voor DSM 7 komt.
En dan nog krijg je security updates (waarschijnlijk) voor een bepaalde tijd.

Zelf wacht ik op de DS1620xs maar deze lijkt uitgesteld.
2.5 gB interface en zelfs 10 gb als upgrade is waar ik op wacht zoals velen hier.
Tevens ECC en 4 core zou Nice to have zijn.

De ds 220+ Is een prima ding voor zijn doelgroep.
Waarom zit iedereen te wachten op snellere NIC's? Die dingen hebben meestal 2 of meerdere NIC die je gerust kan teamen. Ik moet de eerste toepassing nog vinden om mijn 125 MB/sec vol te krijgen. Op het werk team ik de 4 Nics en heb snelheid zat met 500 MB per seconde !

Maar ben wel geinteresseerd in een usecase.
Je hebt alleen wat aan die 4x teaming als je of met 4 systemen er van af trekt, of ook één of meerdere van je systemen geteamde Nic heeft.

Je moet dus voor iedere pc in het netwerk meerdere Nic gaan teamen als je daar meer dan 125 MB/s wilt hebben.

Usercase: gewoon eindelijk, na meer dan 10 jaar 1 Gbit te hebben, meer dan die 125 MB/s (eigenlijk meer 100-110). Het zat gvd in 2000 al in Apple MacBooks en Power Mac G4’s.
Dan kun je games installeren op je Nas en data eens flink overpompen. Een sata ssd is al 5x zo snel, laat staan een nvme ssd.
Nu nog wel, ik had begrepen dat eens de nieuwe dsm uit is er ook geen support meer is voor de oude ..
Hier draait naar volle tevredenheid een DS1511+ met volledige support van de laatste DSM versies.
Zie nog geen enkele reden om te vernieuwen.
De J4025 processor is wel een heel stuk sneller dan de j3355.
Die 2Gb geheugen is te weinig, en niet meer van deze tijd.
Een verdubbeling naar 4GB zou nagenoeg geen effect hebben op de productiekosten (miniem inkoopverschil in quantiteiten), en het product een stuk aantrekkelijker maken.
Daarmee vind ik ook de prijs niet mooi, want met 2Gb is dit ding nog niet klaar voor velen.
Dat is gewoon een verdienmodel. Je kan er nog 4Gb geheugen bij prikken, maar de prijs van dat extra geheugen is aan de hoge kant. Ondertussen hangt er wel een leuk prijskaartje aan.
Ik heb er 8Gb bijgeprikt uit een oude sloop laptop, werkt prima. Kan gewoon 16Gb in een 218+ en deze 220+.
Goed idee. Dat ga ik ook maar eens proberen met mijn 218+. De database die daar op draait kan wel wat extra geheugen gebruiken.
Synology heeft meer in het assortiment dan dit alleen. De 1019+ bijvoorbeeld die ik zelf heb komt met 8GB. Zelfs te upgraden tot supported 16GB.

En nu ben ik zelf ook altijd wel fan van meer hardware, maar laten we niet vergeten dat het NAS devices zijn. Storage is toch het primaire doel.
Storage is niet het primaire doel, tenzij je alleen naar de hardware kijkt. Dat is vergelijkbaar met zeggen dat het primaire doel van scholen is leslokalen.

Als jij kijkt naar de reden dat mensen een NAS aanschaffen, heeft het vaker te maken met dataintegriteit, bedrijfszekerheid en gecentraliseerde functionaliteit (file-sharing, kantoorapps, calendar, mail-server, backup enz.).

Ik heb voldoende storage in mijn werkstation, en toch heb ik een NAS.
Vraag mij af wanneer ze standaard 2.5gbit ethernet poorten gaan leveren.
Ja, eigenlijk is het heel raar dat praktisch alles sneller wordt, behalve bedraad netwerk. Ik geloof dat we al zo'n 10 jaar gbit bedraad kunnen, dus ik vraag me af of het technisch slecht kan of dat er een andere reden is.
De DS216+II ondersteunde al link aggregation, waarmee je twee Gbit poorten simultaan kunt inzetten alsof het een 2Gbit poort is. Ik verwacht dat deze dat ook kan.
Klopt, kan deze ook. Mits je netwerk hiermee kan omgaan natuurlijk.

[Reactie gewijzigd door dickydick666 op 24 juli 2020 23:12]

Aan link aggregation heb je vooral wat met veel verschillende gebruikers van de NAS. Als je met één client een bestand gaat kopiëren zal dat via één van de poorten gebeuren, niet beiden. Dan hou je dus de 1Gb/s limiet :)
Gigabit ethernet is dacht ik al ruim 20 jaar oud. Het begon in high-end netwerkswitches en workstations. De 2,5 Gb standaard is inderdaad erg welkom en je zou eigenlijk verwachten dat Synology langzaamaan gaat beginnen met implementatie daarvan. Maar kennelijk vinden ze zelf dat het nog zover nog niet is.
Vraag mij af wanneer ze standaard 2.5gbit ethernet poorten gaan leveren.
Vraag je dat ook af bij de: laptop, desktop, switches, routers en al het andere netwerk hoofd en randapparaten..., af, want als alleen de NAS die snelheid heeft, en je bekabeling, PC en tussenliggende switch laten het afweten, omdat die op 1 Gbit draaien, wat heb ik dan aan die 2,5 Gbit, in mijn NAS ?
Antwoord : Totaal niets.
Je mag je reactie best nuanceren. Randapparaten en routers..? Alsof je gaat printen op 2.5G of persé 2.5G via het internet beschikbaar wilt hebben, als je al zo’n internet lijn hebt.

Nee, meestal is de snelheid nuttig voor interne 1-op-1 verkeer, voornamelijk grote copy acties zoals foto’s in RAW formaat.

Nu met de last-gen moederborden heb je al snel beschikking tot een 2.5G NIC op je desktop. Bestaande CAT5e/6 bekabeling is prima geschikt voor 2.5G. Consumenten switch is er al vanaf EUR 120,-. Als de NAS dan ook voorzien was van 2.5G, dan had je nu een 1-op-1 2.5G verbinding naar je device. Dat je laptop, tv of printer geen 2.5G NIC heeft doet er verder niet toe.

Nu zijn er mensen die zeggen, dan maar gelijk 10G, maar daar komt meer bij kijken. Bestaande bekabeling vaak niet geschikt en 10G komt veelal voor in SFP+ vorm wat het al snel een stuk duurder maakt en minder geschikt voor consumenten.
Ik dacht dat CAT 5E kan max 1 Gbit aan kan,
CAT 6 =10 Gbit
CAT 5e kan alleen 10 Gbit aan op hele korte afstanden.

[Reactie gewijzigd door HoeZoWie op 26 juli 2020 19:20]

Korte afstanden valt wel mee.
Zodra dat het nut ervan is en er modem/router/switch/nic fabrikanten fatsoenlijk gaan bieden in hun assortiment
Dat nut is er al jaren alleen niemand zet de eerste stap. De stap van 1 Gbit naar 10 Gbit is totaal onnodig en ook vooral onnodig duur. LinusTechTips heeft dit ook aangetoond in de afgelopen jaren. Er zijn heel veel toepassingen die over het netwerk kunnen maar beperkt worden door 1 Gbit/s, maar totaal geen baat hebben bij een snelheid van meer dan 2,5 Gbit, laat staan 10 Gbit.

[Reactie gewijzigd door Boost9898 op 24 juli 2020 18:55]

QNAP loopt daarin wel een stuk voor op Synology. Die leveren modellen met 2.5G en volgens mij ook 5G in de consumenten range. Ben tevreden met mijn Synology 416Play maar de prijs-techniek (wat krijg je voor je geld) verhouding wordt met het jaar slechter door het wegblijven van basics zoals 2.5G en zaken als Docker en SSD cache vergrendelen achter veel duurdere premium modellen in de Plus range. De support is al helemaal belabberd als je een probleem hebt met je volume/opslag ben ik bij meerdere cases achter gekomen, antwoord is altijd, hoop dat je een backup hebt en wipe je NAS. Dus voor mij wordt de volgende NAS of zelfbouw of een ander merk.

Zeker nu 2.5G switches en mijn inziens ook 5G switches goed te betalen zijn vind ik het vrij kwalijk dat dit er niet minimaal 2.5G op zit. Zeker op een "premium" model als deze 220+. Wellicht gevalletje arrogantie door marktleiderschap?
Op mijn 418play heb ik het 2Gbyte geheugen vervangen voor 16GByte en daarna de Docker package handmatig geïnstalleerd. Werkt als een tierelier. Onder andere Pi-Hole draait nu in een docker image.
Heb er ook 8GB bij gezet en via het handje Docker erop gezet (geen updates dus) maar voor een NAS die ons beide ~430 euro heeft gekost vind ik dat wel een beetje onnodig. Is geen budget prijs meer mijn inziens.
Voor een 4-bay commerciele NAS is dat helaas nog wel een beetje het budget segment.

Bijvoorbeeld een HP Microserver geeft voor die prijs meer performance. Maar niet de ondersteuning of gepolijste software die Synology biedt. Zelfde voor een zelfbouw systeempje.

Voor geavanceerd gebruik, virtualisatie etc kun je als consument eerder andere opties overwegen IMHO. Dat begint pas een beetje goed bij een hoger productsegment van Synology.

Servethehome is overigens een serie begonnen over een homelab met micro desktops. Mogelijk ook interesant :)
De goede DSM software en lange ondersteuning is mij ook geld waard. Vanaf 2007 is dit mijn derde Synology NAS. De vorige NAS, nu de 413j, gebruik ik als remote backup oplossing op een externe locatie.
De HPe Microserver is mijn inziens wel een flinke stap omhoog. Zowel in kosten als in opties en power.
De support van HPe is trouwens wel tig keer beter dan Synology, of doel je op community support? Die microserver is ook wel een hele modding groep om ontstaan, wel grappig om te zien :)
En had je een backup?
offtopic:
Van mijn data wel, config gedeeltelijk omdat je geen complete "snapshot" kan maken om in 1 keer je hele NAS te restoren naar een oude config. Alleen triviale configs binnen DSM zelf (user settings) zoals de NAS naam etc wordt meegenomen door Hyper-backup. Vrij slechte zaak dat je zo beperkt kan backuppen als je support mantra lijkt te zijn, wipen, (uithuilen) en opnieuw beginnen.

Platform komt me een beetje over dat als het goed loopt is het allemaal puik spul, niks op aan te merken maar bij problemen ben je gewoon de bok. De support heeft me op 2 verschillende cases verteld dat Btrfs niet te herstellen valt en dat ze het ook eigenlijk niet ondersteunen en dat EXT4 wordt aangeraden. Niks van terug te vinden op de website en geen waarschuwing bij het opzetten van een volume. Na de 2e onverklaarbare volume crash op 2 verschillende units bij 2 verschillende klanten, 3e volume crash bij HDD swap, was ik er wel een beetje klaar mee.
De config (die je normaalgezien niet vaak veranderd) kan je backuppen en restoren vanuit control panel zelf. Staat bij update & restore > configuration backup. Wat betreft docker etc: die kan je als het goed is gewoon installeren op je DS416play als je hem handmatig download van de synology website. Nadeel is wel dat je dan geen automatische updates hebt. Zelf gebruik ik eem aamtal van hun eigen specifieke paketten zoals Active Backup for Business thuis, en moet zeggen dat ik daar enorm tevreden van ben.

[Reactie gewijzigd door bertware op 24 juli 2020 22:51]

Die backup maakt Hyper-backup ook. Alleen als je gaat restoren kom je erachter dat geen enkele package zijn config weer terug heeft. (Docker, Sonarr, Downloadstation etc). Dus in de praktijk heb je niet zo bijster veel aan dat deel van de backup. Zijn helaas van die dingen waar je achteraf pas achter komt.
De QNAP is tegenwoordig inderdaad qua specs een betere keuze.
pricewatch: QNAP TS-253D
Vooral de quadcore Intel Celeron J4125 is een stuk krachtiger en is beter geschikt voor het draaien van bijvoorbeeld Plex.
Daarnaast is deze QNAP standaard al met 4GB geheugen uitgerust.
Ja inderdaad, joetoeber linustechtips, de man die nog nooit van een esd wristband heeft gehoord, is een goed referentiekader in deze 8)7

"De stap van 1 Gbit naar 10 Gbit is totaal onnodig en ook vooral onnodig duur". Is maar een mening. nic's zijn kunstmatig duur, mogelijk door beperkte beschikbaarheid en minimale marktpenetratie. Een 10gb controllerchip kost retail verkoop enkele tientjes (incl btw retail per 1 stuks), dus bulk inkoop oem helemaal geen drol.

Je beredeneert nu door te stellen dat bij gebruik van een network controller met een bepaalde max bandwith deze enkel nuttig is wanneer allerlei applicaties deze bandbreedte ook daadwerkelijk in bepaalde mate gebruiken. Als je op deze manier beredeneert kan je net zo goed het 4g netwerk uitschakelen en iedereen terug naar 3g zetten. Ik vermoed namelijk dat het gros van de gebruikers die hooguit af en toe een facebook of whatsapp filmpje kijkt niets aan de bandbreedte van 4g heeft. Zo was het ook in de vele beginjaren die 1gbit kende (en zelfs tot op de dag van vandaag), bijna niemand kwam aan 100mbyte/sec netto.

Zo ook met gigabit ethernet; de meeste thuisgebruikers lopen nooit tegen de 1gbit limit aan, dat zijn enkel enthousiasts. Zakelijk gezien ligt op plekken waar meer nodig is allang 10gbit.

Het is dus niet de vraag of er direct een grote noodzaak bestaat in vergrote ethernet bandbreedte in thuis en soho netwerken, want waarschijnlijk valt dit nog steeds redelijk mee. Er is op bepaald moment een omslagpunt nodig waarop de markt een nieuwe standaard omarmt. En om dat nog op 2.5gbit te gaan rommelen omdat het enigszins vriendelijker is tegen oude cat5 kabel, dat moeten we niet willen. Het is klaar met die oude zooi.

Ik zeg, meteen doorstomen naar 10gbit, inzetten op een die-shrink om zo de tdp en kosten van het silicon omlaag te brengen, afscheid nemen van cat5 en allerlei oude legacy netwerk rommel. Als bedrijven nog menen met 25jaar oude kabelsystemen te moeten werken is het wellicht een moment om na te denken over de digitale infrastructuur, die was namelijk al ruim een decennia aan vervanging toe.

Overigens opvallend: wanneer de discussie over glasvezel internet gaat luid het argument: nu wellicht niet nodig maar in de toekomst wel, dus dan maar meteen aanleggen. Gaat de discussie over 2.5/10gbit ethernet, dan luid het argument: 2.5gbit is voldoende want voorlopig zijn er geen toepassingen die 10gbit nodig hebben |:( .

[Reactie gewijzigd door terradrone op 24 juli 2020 22:36]

Dus omdat iemand geen esd bandje draagt is deze persoon meteen geen goede referentie meer?? Dat is nogal een euhm.. bijzondere mening. Maakt Linus wel eens fouten? Jazeker.. maar hij is daarin ook mans genoeg om zijn fouten te erkennen en er lering uit te trekken. Overigens vind ik de fouten die hij maakt (en vervolgens niet wegmoffelt maar deelt) alleen maar goed om te zien hoe je het zelf niet moet doen en dus zelf doe fout niet begaat.
Zoveel >1gb netwerkspul is er niet te koop, en het is nog best duur ook.
Iemand moet er gewoon mee beginnen, dan komt het er wel.
Jammer dat Synology die macht wel heeft, maar dat niet aan durft. Jammer.
Mwah, intussen is er zat betaalbaar 10GigE spul op de markt.
Of de Officiele ondersteuning voor usb versies.. doet qnap ook:( er is wel een modded driver voor synology en werkt de qnap 5gbit module ook.
Ik heb zelf een DS218+, zelf ook 4GB RAM bijgeprikt. Prima ding.

Een tweede lanpoort is wel een mooie toevoeging.

Edit:
Qua usb-poorten is het aanbod wel een stuk karig geworden zo. 2x USB 3.0 ipv 3x USB 3.1 (Gen 1).
Daarnaast heeft de DS218+ ook nog een eSata poort.

Niet dat ik veel gebruik maak van de usb poorten, maar dan nog.

[Reactie gewijzigd door mobstaa op 24 juli 2020 18:33]

Zelfde. DS218+ ook redelijk snel 4GB Ram bijgedaan.

Sommigen vragen zich af wat doe je met een NAS maar de mogelijkheden zijn heel divers. ik gebruik deze voor :

Automatisch downloaden van mijn favoriete series en films (sonarr & radarr)
Unifi video (opslag van de ubiquiti veiligheidscamera's)
Unifi Controller
Pihole
Sabnzb

En dit zijn alleen nog maar de docker containers... Uiteraard ook nog als videostation en photostation. Ik heb lang getwijfeld maar ben super content
Ben je tevreden van Pihole? Ik twijfel al enkele jaren om een NAS te plaatsen voor back-ups en enkele leuke zaken als Pihole, maar weet niet of het de moeite is.
Zelf overgestapt van pihole naar Adguard home, prefereer adguard.

Adguard is completer en efficiënter out of the box;
https://github.com/AdguardTeam/AdGuardHome/wiki/Comparison

Zie ook;
[Adguard Home] Ervaringen & discussie
Pinole doet het hier geweldig (wel op een pi). Alle apparaten beter beschermd tegen troep.
USB 3.0, USB 3.1 Gen 1 en USB 3.2 Gen 1 zijn allemaal hetzelfde (5Gb/s).
Dan heb je net vandaag de DS218+ besteld en dan zie je dit..... oepsie

Nu is de brandende vraag, terugsturen en later een DS220+ halen of toch houden?
Dan heb je ook niet echt goed rondgekeken. De DS220+ staat al sinds 27 juni in de pricewatch!
pricewatch: Synology DS220+

Hij staat zelfs al een tijdje op de website van Synology zelf.. snap ook niet zo goed waarom Tweakers nu ineens met dit bericht komt.
“Er is 2GB ddr4-geheugen aan boord, wat uit te breiden is tot 6GB.”

Dat zeiden ze van de 218+ ook en daar prop je met alle gemak 8GB bij zodat je 10GB hebt. Ben benieuwd of dat in deze ook kan. :)
Ik heb een 218+ en ik heb er 10 GB in zitten. Later las ik dat de processor een max heeft van 8gb. Het OS ziet die 10 GB wel, maar als het OS ook gebruik gaat maken van die extra 2 GB, dan loopt de boel vast. Ik heb dat nog niet mee gemaakt, maar dat komt omdat 8 GB al ontzettend veel is. Zoveel gebruikt het OS niet. Maar in theorie kan het dus mis gaan. De processor die in deze nieuwe NAS zit heeft ook een max van 8 GB.
Dta lijkt me een sterk verhaal. Het OS in kwestie heeft geen 8GB beperking.
Het OS heeft die beperking ook niet. De processor heeft die beperking. Omdat het OS dat niet "weet" zal het OS gebruik kunnen gaan maken van geheugen wat de processor niet kan alloceren. En dan loopt de boel vast.

Hoe een processor exact samenwerkt met ram en het OS daar weer mee, dat weet ik niet. Een diepgaande, technische onderbouwing kan ik je dan ook niet geven.

Als het om kritieke toepassingen gaat en die toepassingen hebben meer dan 8 gb nodig, dan zou ik die hele studie ook overslaan en gewoon een andere oplossing zoeken. Accepteer anders instabiel gedrag van je NAS.
Een processor die geheugen alloceert? Nee, dat is toch echt een OS taak.

Afgezien daarvan weet het OS prima hoe een processor met geheugen omgaat. Het vullen van de Page Table gebeurt toch echt door het OS, en die Page Table bevat de physical to virtual mapping. En als een page swapped is, dan moet het OS die terughalen bij een page fault. Ook dat kan de CPU niet.

In dit geval (DSM) weet het OS ook prima hoeveel geheugen er is, want dat wordt gewoon getest. Het OS probeert elke gigabyte te schrijven, en als dat lukt wordt die als aanwezig gemarkeerd. De processor zou bij 9GB kunnen zeggen "write failed". De andere optie is "write succeeded". Het OS kan met beide gevallen omgaan, en in geen van beide gevallen is het instabiel.
Dan heb ik niks gezegd :)

Op dit item kan niet meer gereageerd worden.


Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Microsoft Xbox Series X LG CX Google Pixel 5a 5G Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True