Ugreen introduceert AI-nassysteem met 64GB werkgeheugen voor 2000 dollar

Ugreen heeft op de CES nieuwe nassystemen geïntroduceerd die gebruikmaken van lokale AI. Daardoor zijn onder meer bestanden vindbaar door contextueel te zoeken. De systemen hebben 32GB tot 64GB werkgeheugen en kosten 1700 tot 2700 dollar. De fabrikant begint in mei met de levering.

De NASync iDX6011 is verkrijgbaar met 32GB of 64GB Lpddr5x-geheugen. Dit systeem heeft een adviesprijs van respectievelijk 1700 dollar en 2000 dollar. Dat is omgerekend inclusief btw ongeveer 1757 euro en 2067 euro. De NASync iDX6011 maakt gebruik van een Intel Core Ultra 5 125H-cpu op 4,5GHz met veertien cores en achttien threads. Deze processor levert volgens Ugreen 34Tops.

De iDX6011 Pro is alleen te bestellen met 64GB Lpddr5x-geheugen. Dit systeem wordt geleverd met een Intel Core Ultra 7 255H-cpu. Deze heeft zestien cores en zestien threads en draait op een kloksnelheid van 5,1GHz. De cpu biedt 96Tops en zou daarmee in staat moeten zijn om AI-taken sneller uit te voeren dan de cpu in het niet-Pro-systeem. De iDX6011 Pro is voor te bestellen voor 2600 dollar, omgerekend zo'n 2687 euro inclusief btw.

Beide systemen bieden ruimte aan maximaal zes SATA-schijven en ondersteunen maximaal 196TB aan opslagruimte. De systemen hebben verder onder meer twee Thunderbolt 4-aansluitingen met een snelheid van 40Gbps, twee 10Gbps-ethernetpoorten, vier USB-A-poorten, een HDMI-aansluiting die beelden met een resolutie van maximaal 8k kan verzenden en een PCIe x8-slot. Het Pro-model heeft daarnaast een OCuLink-aansluiting, waarmee gebruikers een externe videokaart kunnen aansluiten om de rekenkracht een boost te geven.

Ugreen NASync iDX6011 Pro
De Ugreen NASync iDX6011 Pro

Door Imre Himmelbauer

Redacteur

06-01-2026 • 15:30

47

Reacties (47)

Sorteer op:

Weergave:

Met zulke specs is het ook een onwijs aantrekkelijke server. Met zoveel geheugen en zoveel cores kan je best prima wat VM's of docker containers draaien zonder je zorgen te maken over de snelheid. De prijs is wel stevig, maar gezien de specs eigenlijk ook weer niet.

Als je hem trouwens nu pre-ordered is hij $1559 dollar. Dat is best netjes.

https://nas.ugreen.com/pa...-nas-feature-introduction


Overigens is het Ai een stuk breder dan enkel bestanden doorzoeken. Je krijgt ook een lokale LLM ala chatgpt die volledig lokaal werkt, dat files kan bewerken en hele teksten schrijft. Dat is privacy technisch toch enorm interessant als je niet van de bekende chatdiensten houd.

Ik vind de specs in dit artikel trouwens wel wat mager, want er zijn best veel highlights:

- 2x10GB netwerkpoorten
- 2x Nvme poorten naast de 6x SATA
- 8K HDMI output
- Lokale LLM ala chatgpt

[Reactie gewijzigd door Luchtbakker op 6 januari 2026 15:58]

Ho ho, je zit op tweakers he? Ugreen is toch een Chinees bedrijf? Dan springt iedereen je hier in je nek omdat waarschijnlijk alles doorgestuurd wordt naar China. 🙄🙄🙄

/S
Ik heb daarom op mijn Ugreen NAS unraid draaien ipv Ugreen OS.
Dat is juist het mooie aan deze NAS, je kan zelf kiezen wat je erop zet.
ik zag de release van de DH serie en toen dacht ik

wellicht is het mogelijk om een alternatief te draaien

en daar kwam ik uit dat het wel een dxp moest kopen maar dat je dan https://xpenology.com/forum/

kan laten draaien wat in principe synology is op alternatieve hardware

maar daar zitten wel wat haken en ogen aan met betrekking tot out of the box werkend

hoe is dat met unraid, worden drives direct herkend ?
Unraid werkt zonder gedoe. Je kan in de community App Store van unraid de drivers installeren voor de ledjes aan de voorkant en klaar.
me2.

maar voor alle 'AI' features is dat niet echt een optie omdat dat waarschijnlijk alleen via hun OS beschikbaar is.
Maar daar heeft de Tweaker toch een nette PiHole voor om alle verkeer naar China te blokkeren?
Een PiHole voorkomt niet dat er data ergens heen gestuurd kan worden, het handelt slechts DNS-verzoeken af.

Als een partij echt data opgestuurd wil hebben dan gebruiken ze een vast IP
daarom gebruiken 'echte' tweakers ook geen pi-hole maar gewoon een goede firewall, alle ip-reekens van chineese servers blokkeren is niet zo lastig, als je later voor specifieke diensten dan ip's weer wilt toestaan kan dat ook gewoon.

dns blacklisting werkt vooral goed voor ads omdat malware boeren en add-boeren vooral niet op ip-niveau 'aansprakelijk' willen zijn voor wat ze aanbieden omdat ze weten dat ze dan geblockt gaan worden.
Alsof Taiwan of US based companies zoveel beter zijn :)
Ff voor de duidelijkheid: Het interesseert mij geen reet, maar ken inmiddels de tendens wel om elk Chinees bedrijf op dezelfde manier te wantrouwen hier.
15 jaar terug had ik lokaal google desktop draaien. Was fantastisch om lokaal bestanden terug te vinden waarvan ik specifiek naar matches zocht op de content van de bestanden. Helaas vergeten een lokale kopie te maken. Is nergens meer te krijgen. Top product. Deze AI zoek functie zou een alternatief kunnen zijn vermoed ik. Dan zou de NAS wel toegang moeten hebben tot mijn desktop. Kortom nog veel vragen voordat het voldoet aan mijn use case.
elesticsearch kan precies hetzelfde (is wat lastiger om op te tuigen maar contextueel zoeken in word-dockjes pdf-jes en nog een zooi andere is er prima mee te doen.
https://blog.google/products/search/google-app-windows-labs/

Google komt met een "vernieuwde" versie hiervan, wellicht helpt je dit 😉
Dank voorr je tip. Ik krijg de volgende melding: "Search Labs isn’t available for your account right now" In de landenlijst staat Nederland helaas er niet bij.
Ik weet t niet, 2000 euro voor een pc zonder disks. Voor die prijs kan ik echt een veel krachtigere server neerzetten inclusief wat disks.

Ik blijf het toch altijd bijzonder vinden dat mensen zoveel geld uit willen (blijven) geven aan dit soort producten met matige specs voor de prijs en daarbij ook nog eens het risico lopen dat zij op korte termijn de stekker uit hun dienst trekt.

Bij Synology heb ik ook altijd hetzelfde gedacht. Ja ze zijn best krachtig tegenwoordig, maar dat heeft lang geduurd hoor. De DS416 komt uit 2015 en had mindere hardware dan mijn 980x uit 2009 destijds. Maar wel 3x zo duur en zonder schijven. Toegegeven het energieverbruik van zo'n nas is natuurlijk stukken lager maar toch. Een beetje tweaker kiest performance boven een paar tientjes in het jaar te besparen lijkt me.

Begrijp me niet verkeerd want ik vind een NAS echt wel een mooi type apparaat (ondanks dat ik er zelf nooit wat aan gehad heb, want homelab), maar ze zijn echt veel te duur voor wat ze bieden IMHO. Ook de apps op dat soort apparaten zijn vaak out of date of gewoon halfbakken waardoor je op docker terecht komt en ik vind de hardware van die apparaten ongeschikt voor docker (wat ik ook vind van een rpi, die is ongeschikt voor docker). Ik zal hier echt wel mensen mee tegen het zere been aantrappen, maar dat is hoe ik er tegenaan kijk.
Bij een NAS betaal je niet alleen voor de hardware, zoals je wel doet bij zelfbouw. Bij een NAS betaal je ook voor de software stack en alle NAS apps. Je kunt prijstechnisch zelfbouw niet vergelijken met een NAS als je je niet wil bezighouden met deze zelfbouw, installatie en onderhoud daarvan.

Ieder de eigen voorkeur, ik denk dat je geen mensen tegen het zere been trapt. Zelf ben ik al heel veel jaar tevreden over mijn QNAP NAS. Kan ik met zelfbouw meer of beter, allicht. Maar ik besteed mijn tijd liever aan iets wat ik zelf leuker vind.
Ah maar die reden vind ik ook zeer gegrond he, ik zeg niet voor niets dat ik een NAS echt wel een top apparaat vind. Alleen nadeel is dus, wat als QNAP stopt met het ondersteunen van hun apps?

Maar verder ben ik het daarin zeker met je eens. Ze zouden eigenlijk een goedkopere NAS moeten uitbrengen die gewoon docker er op heeft staan (geen poes pas of app stores) maar dan met een krachtigere cpu. Dus dat je echt betaalt voor de hardware, want laten we wel eerlijk zijn het stroomverbruik van een NAS is natuurlijk ook een hele goede reden.
Vrees dat je ook met die specs geen werkbare chat-snelheden met (goede) LLMs gaat krijgen. Misschien wel om taakjes in de achtergrond te draaien (bv. Schrijf een reisplan voor de kerstvakantie naar Groningen) maar niet om real-time vraag-antwoord gesprekken te voeren. Daar is het vast niet voor bedoeld en ook gewoon niet snel genoeg voor.
Lokale LLM ala chatgpt
Met 34Tops kom je wel niet zover. Dat is zover ik weet onder de minimum voor het co-pilot label. Ook 90 is weinig.

Goed genoeg om door uw data te scrollen en data te manipuleren met een klein model. Maar een LLM vraagt echt wel wat meer GPU kracht nodig.

Wel interessant dat bedrijven nu inzetten op AI die lokaal draait op eigen data. Geen idee wat je met 30-90 Tops en genoeg ram effectief kan doen. Het is nog te nieuw, de eerste producten.

Binnen 5jaar is het mas gemeemgoed. Geen idee :)
Met zoveel geheugen lijkt het een koopje. Kun je die bankjes ook in een ander apparaat zetten? :-D
Volgens mij gebruiken die kant en klare nas system altijd sodimm (laptop) geheugen. Maar kan je vast adapten.

[Reactie gewijzigd door phray op 6 januari 2026 15:43]

Lpddr5x-geheugen
Uit het artikel. Dus gesoldeerd.
Volgens de specs page is het LPDDR5X geheugen. Dat is meestal vast gesoldeerd dus ik denk van niet :Y)
De early bird prijs van de iDX6011 met 64Gb DDR5 RAM is slechts 1199 USD. Als het losse bankjes zijn, dan is het echt een top deal.
IDX 6011 Pro artikel IDX 6011 Pro moederbord
Lijkt niet op losse modules.

[Reactie gewijzigd door friend op 6 januari 2026 16:13]

Bestanden contextueel vinden? Sinds wanneer is een index niet meer voldoende?
Sinds de index nog steeds op zoektermen werkt, maar niet ook met "gerelateerde" begrippen.

Wat "gerelateerd" is hangt af van de informatiebehoefte op een bepaald moment. Bij een index is dat niet zo; daar verwijzen zoektermen (of interne vectoren) "hard" naar een bestand en/of naar delen in dat bestand.

Het zijn andere use cases. In een bibliotheek kun je met een index zoeken naar een boek over informatiewetenschap, maar niet naar een boek over informatiewetenschap dat je op basis van je huidige set aan vaardigheden en kennis gaat helpen ontwikkelen om de stap van begrip van indices te laten groeien naar begrip op het gebied van LLM's bijvoorbeeld; je behoefte is in een klassieke index niet geindexeerd. Met een LLM kun je soms/vaak betere matches vinden omdat jouw behoefte (die misschien 1 minuut oud is) nu gematched kan worden met bijvoorbeeld Shannon's werk over informatie dat heel veel eerder gepubliceerd is, in een tijd waarin LLM's nog niet geconceptualiseerd waren.

[Reactie gewijzigd door Recursio op 6 januari 2026 16:03]

Ik probeer te snappen wat je zegt maar het komt wat warrig over. Let wel, dit zijn je eigen bestanden. Dus over het algemeen weet je wel waar je naar op zoek bent, en de meeste volwassen indexerings methodieken kunnen ook prima met Meta data overweg. Je hoeft niet perse vectors/embeddings te gebruiken om in je eigen bestanden te zoeken. Ik denk dat het eerder een combi van marketing-praat en een chat-interface is tbh.
Aoostar WTR MAX met 96GB ECC en vergelijkbare aansluitingen met de Pro van Ugreen, kost omgerekend €1300,-

Daarbij krijg je ook nog eens 5 x NVMe slots van PCIe 4.0 x2. €2600 is het dubbele voor marginaal betere CPU.
Deze lijkt inderdaad frappant hard op de WTR MAX.
Ik heb deze hier draaien met truenas op, waar ik overigens voorlopig tevreden over ben.


Mss is het gewoon een samenwerking of een rebrand :-D

Schermpje op andere plaats, SSD bay eruit en vervangen door pcie slot zo te zien en klaar.

Het zal wel zo simpel niet zijn ... ;-)
Wat zijn eigenlijk die AI features? En wat gaan ze toevoegen?
Ik kan het me namelijk biet bedenken dus kan iemand me dat uitleggen?
Daardoor zijn onder meer bestanden vindbaar door contextueel te zoeken.
Dat lees ik als "je kan in menselijke taal een vraag stellen" en de AI maakt dan een zoekopdracht die het op je bestanden toepast. Opzich is het in dat geval dus alleen een invulhulpje zodat je zelf niet de steekwoorden en/of bestandstypen en/of -locaties hoeft in te tikken.

En misschien gaat het een stukje verder en verwerkt het ook de gevonden data in een antwoord terug aan de gebruiker, dus meer als een RAG-oplossing. Dat is misschien iets nuttiger, maar over het algemeen kan ik me niet indenken dat iemand zo veel teksten op heeft geslagen dat dit heel veel extra bied bovenop alleen tonen waar de dingen staan die je zoekt. Zeker omdat dit een NAS is en niet de machine waar je dagelijks op werkt, vraag ik me af hoe vaak je dit echt zult gebruiken. Als deze NAS alleen een RAG-database bij zou houden en deze op een of andere manier beschikbaar zou stellen aan het besturingssysteem op je telefoon of computer dan kan die ook prima het AI-deel doen.

[Reactie gewijzigd door Skit3000 op 6 januari 2026 16:16]

Ik denk dat je het verkeerd leest. AI search is al jarenlang slimmer dan "menselijke taal omschrijven naar index query". Een moderne AI search gebruikt een vector database. Dan neem je ook dingen als synoniemen en werkwoord vervoegingen mee.
RAG gebruikt over het algemeen een vector database om bestanden te indexeren, maar de database zelf hoeft niet de (menselijke) query om te zetten naar iets dat de database kan doorzoeken. Als deze NAS dus alleen de database bijhoudt (bij elke bestandswijziging wil je de database bijwerken) en dan via MCP of een andere manier beschikbaar stelt aan de LLM die je op je laptop of telefoon draait (of dat nu lokaal of in de cloud is maakt niet uit) dan hoeft er geen AI op de NAS zelf te draaien (en is dus ook minder zware hardware nodig).

Sowieso lijkt het mij handiger om het op deze manier te doen, dan direct een LLM te integreren op de NAS, want als je dan meerdere NASsen hebt en je weet niet op welke het bestand staat dat je zoekt, moet je dezelfde prompt meerdere keren uitschrijven. Als ze allemaal hun RAG-database via MCP aan de AI/LLM op je computer/telefoon beschikbaar stellen, kan die zelf alle NASsen langs gaan om het bestand te vinden.

Wat Ugreen hier geïmplementeerd heeft weet ik niet, maar ik weet wel wat "de toekomst" heeft.
Om de beste open-weights modellen te draaien heb je honderden GB aan geheugen nodig (bijv 192 GB is een mooi begin) en een GPU. Dit product kan best interessant zijn, maar bedenk dat je bij lange na geen ChatGPT performance gaat halen in kwaliteit van de output of snelheid daarvan.
sinds wanneer is chatGPT open-weighted, en sinds wanneer draait chatGPT een model met bijna 200gb (per user) als ik in chatGPT een gesprek start is mijn geschiedenis (buffer) maar een paar honderd tot hooguit een gb) groot en daarna gaat ie gewoon dingen lopen verzinnen.

bovendien, waarom zou ik geen voorgetraind model willen ik denk (weet eigenlijk vrijwel zeker) dat voor de meeste use-cases een ai-model met 16gb ram voor je model eigenlijk meer dan prima is als je een goed geoptimaliseerd model kiest voor de taak.

[Reactie gewijzigd door i-chat op 6 januari 2026 17:49]

Ik maak een vergelijking met ChatGPT omdat dit veruit de meest gebruikte AI-tool is. De grootte van de modellen van OpenAI is niet exact bekend, maar ja GPT-5 gebruikt enkele honderden gigabytes aan geheugen om welke prompt dan ook te verwerken en soms (of wellicht altijd) zelfs terabytes, want het model is waarschijnlijk meer dan 1,5 biljoen parameters.

Er zijn kleinere open weights modellen van OpenAI: https://openai.com/index/introducing-gpt-oss/

De high-end open weights modellen hebben 400-800 miljard parameters. Je kunt ze wel iets comprimeren voor gebruik (tot 6-bit bijvoorbeeld), maar met 64 GB kun je inclusief context alsnog moeilijk een model draaien met 64 miljard parameters. Bijvoorbeeld een model van ~30 miljard parameters zal wel goed kunnen werken, maar die zijn veel minder goed dan grotere modellen.
Kijk Synology, zo maak je een NAS met fatsoenlijke spec's.

Zeer benieuwd met welke software ze de AI context search willen gaan doen.
ik heb hem tijden geleden al in de pre-order gezet, voor het lange wachten levert men hem met een gratis UPS geschikt voor de 6 bay nas, een extra jaar garantie, en via een wedstrijd ook nog een 4TB WD drive voor niks. Dus ik ga hem zeker aanschaffen :D
Mooie competitor voor Minisforum.

Hoe zuinig gaat deze zijn?

Wat voor NIC is het?

ChatGPT heeft hier niets mee te maken. Dan gebruik je gewoon ollama. Je model zal met 64 GB niet even goed gaan werken als ChatGPT, maar wel goed.

Om te kunnen reageren moet je ingelogd zijn