ASRock maakt klein 'Deep mini-ITX'-moederbord voor EPYC-processors

ASRock Rack heeft een klein moederbord voor AMD EPYC-serverprocessors aangekondigd. Het bordje gebruikt een propriëtair formaat met afmetingen van ongeveer 17x21cm. Daarmee is het iets groter dan de vierkante mini-ITX-moederborden.

Het ROMED4ID-2T-moederbord heeft een LGA4094-socket, ofwel SP3, waar AMD EPYC-processors van de tweede generatie in passen. Het gaat om de Rome-cpu's uit de 7002-serie, met tot aan 64 cores. ASRock noemt het formaat Deep mini-ITX. Dat is geen bestaande standaard, maar de afmetingen zijn gebaseerd op de mini-ITX-standaard, die bordjes van 17x17cm voorschrijft.

Het bord heeft vier DDR4-sleuven en ondersteuning voor R-DIMM, LR-DIMM en NV-DIMM. Met gebruik van LR-DIMM kan tot 256GB per sleuf geïnstalleerd worden, voor een totaal van 1024GB. Die hoogste capaciteit moet nog wel gevalideerd worden, meldt ASRock op zijn site.

Verder heeft het bord een PCIe 4.0 x16-slot en ruimte voor een M.2 2280-ssd. Er zijn zes Slimline U.2-aansluitingen voor harde schijven of ssd's. ASRock integreert een Aspeed AST2500-controller op het bord, een server management processor met ingebouwde gpu. Verder heeft het bord een Intel X550-AT2-netwerkcontroller, twee 10Gbit-ethernetaansluitingen en een IPMI LAN-poort.

Wat het kleine servermoederbord kost en wanneer het uitkomt, is niet bekendgemaakt. Het moederbord wordt gemaakt door ASRock Rack, een bedrijfstak van ASRock die zich volledig op serverproducten richt.

ASRock Rack ROMED4ID-2T
ASRock Rack ROMED4ID-2T ASRock Rack ROMED4ID-2T ASRock Rack ROMED4ID-2T

Door Julian Huijbregts

Nieuwsredacteur

26-11-2020 • 17:50

48

Reacties (48)

Sorteer op:

Weergave:

Wat is de use-case voor een server mobo van dit formaat?
Véél servers in een standaard rack
Typisch inderdaad dat de heat sinkjes al in de richting staan van 'hier blazen 20 2U fannetjes straks knoerhard lucht doorheen'.
In mobiele toepassingen.
Bijvoorbeeld het realtime meten van de uitstoot van een verbrandingsmotor bij welke belasting en snelheid.
Of veel rekenkracht op een platform of werkplek in de middel of niets waar je geen dikke datalijn of veel ruimte hebt. Zodat je direct resultaten beschikbaar hebt.
Dat eerste wat je noemt kan met een arduino zelfs. Daar heb je hoe dan ook geen 64 cores voor nodig
Daarom rijden onderzoekers rond met een kofferbak vol met computers?
Enkel 1 uitlaat gas meten is makkelijk. Maar daarbij ook alle andere variabelen wordt al lastiger.
Wil je bij een diesel exact de uitstoot van de verschilden stoffen meten bij welke motor belasting, snelheid temperatuur, ect. Dan ga je dat niet reden met enkel een arduino of laptopje. Dan heb je een compleet lab aan boord.

Ook zelfrijdendeautos in ontwikkeling hebben een ontwikkelings-platform aan boord in de vorm meerdere zware computers. Die kun je met dit bord in 1 systeem stoppen.
Dat eerste zegt meer over de “ontwikelaar” dan over de benodigde rekenkracht, en ik spreek uit ervaring.
Het is echt kinderspel om tienduizenden variabelen elke seconde te verwerken en/of te loggen.

Dat laatste heb je een punt.
Zolang je enkel naar je variabelen live kijkt is het nog vrij eenvoudig al zou ik tienduizenden variabelen in 1 en dezelfde sturing nu niet meteen kinderspel durven noemen. Als die sturing ook nog on the fly aanpasbaar moet zijn zonder dat je sturing wegvalt, dan heb ik geen weet van oplossingen die niet gebruik maken van een server CPU of iets vergelijkbaar. (dan heb ik niet over een parameter aan te passen maar daadwerkelijk de logica aanpassen)

Als je die variabelen ook allemaal begint op te slaan elke 50 milliseconden en je vervolgens data analyses on the fly wilt doen op historische data om dan terug te koppelen naar je sturing, dan durf je wel al eens te gaan kijken naar EPYC's en Optane storage.

[Reactie gewijzigd door sprankel op 25 juli 2024 21:50]

Het is makkelijk om over het hoofd te zien dat 1 Ghz = 1.000.000.000 clockticks/seconde. Miljard, geen miljoen. Tienduizend variabelen per seconde is dus helemaal geen extreem aantal, dan heb je al gauw honderdduizend clockticks per variabele. Met 8 cores, twee threads per core en 2.5 Ghz ga je al naar 4 miljoen/variabele.
Theoretisch als je bare metal programmeert maar dat is niet de realiteit, hoewel men nog op een vrij basic manier de logica opbouwt en fabrieken aanstuurt met een bandbreedte onder de 1Mbit voor de sturing, die code gaat door een compiler om vervolgens in pakweg c++ uit te voeren. Ja als je met een basic sturing zit dat in een controller zit nadat alle balast er is uit gehaald, ja dan kan je op een arduino en zelfs minder een sturing krijgen om pakweg een wasmachine aan te sturen.

Maar dan schrijf je hoeveel bewerkingen je wel niet per seconde kan doen, een cyclus tijd van een seconde, dat is leuk voor wat home domotica om wat lichtjes te sturen maar daar ben ik niets mee, 0.05 seconden, dat is hoeveel tijd ik heb om alle inputs in te lezen, door de logica te halen en de outputs terug te sturen waarbij 50 ms niet eens als "laag" beschouwd word (dus niet hoeveel tijd de cpu krijgt, dat is hoeveel tijd tussen input ergens in de field en output ergens in de field) . Je theoretische miljoenen zijn al aan het smelten als sneeuw voor de zon.

Dan moet je daar ook nog scada bij tellen, 50 schermen die continu live gehouden moeten worden, dan heb je nog overhead, redunantie, meerdere communicatiebussen terwijl mijn scada ondertussen 3D ondersteund. Dan moet ik nog op die cyclus tijd al mijn variablen naar een SQL databank duwen, die data stroom is gigantisch aan 1 datapunt per 0.05 met exacte timestamp, en dan trekt iemand daar een trend van open over een paar dagen waarbij al die datapunten opgevraagt worden omdat ze nu eenmaal een zo nauwkeurig mogelijke average willen, dat zijn pieken van 200mbit op het netwerk.

Ik hoor het hier allemaal graag hoor, met een arduino kan je miljoenen variabelen verwerken, allemaal geen probleem. Ik zou zeggen, ik ontvang graag een proof of concept. En als ik dat nog maar enigzinds haalbaar vind mag je dat persoonlijk komen showcasen op mijn bureau. En als dat allemaal staande houd, dan kunnen we het hebben over hoeveel miljoen per installatie die arduino met welke software dan ook je juist gaat gebruiken moet kosten.
Wat jij noemt kan prima op een 8 bitter geklokt op 16 MHZ zoals de arduino.
Zoals @MSalters ook al zegt de snelheid van een cpu wordt snel over het hoofd gezien.
Een variable is 16 misschien 32 bits groot.
Alleen al de pcie bus van een epyc kan 2048 miljard bits elke seconde verwerken.
Dat zijn dus 64 miljard variabelen elke seconde van 32 bit
Of 128 miljard van 16 bit.
Die 50 ms waar je het over hebt is slechts 20 keer per seconde, ofwel 320 bits/s (16b) aka 640bits/s (32 bit).
Met 32 bits heb je dus 100 miljoen keer de snelheid die je nodig zou hebben met een enkele Epyc
Goeie vraag. Ergens is het misschien wel interessant om twee servers naast elkaar te draaien in een 19" kast waardoor je effectief de koeling van een 2U hebt en de density van twee 1U kasten. Kan voor bijv low-end server verhuur wel interessant zijn.

Zelf dacht ik in eerste instantie: "all-flash Ceph node voor thuis", maar daar is dit misschien niet helemaal het geschikte formaat voor.
Edge servers, relatief veel oomph, maar niet veel andere eisen(zoals schijven)
Wellicht Development clusters, Mkb bedrijven met beperkte ruimte en hybride oplossingen, scholen met HPC oplossingen.. die denken vaak out of the box.

Servers verbruiken aardig wat stroom, vaak duale voedingen ook nog, heel wat ram sticks, duale chips (2x wattage). Heel veel is gecreëerd op het idee van "standaard" U formaat en verbruik in het datacenter, en ook datacenter koelingen capaciteit en temperatuur maar er is toch ook nog aardig wat vraag voor op materiaal voor op locatie (kantoor).

Productie in de cloud is een no brainer maar toch zie je ook veel kleinere bedrijven een lokale test cluster willen hebben om ook kosten te besparen etc. Cloud kan nog al aardig oplopen, bijv voor Kubernetes etc. Met meerdere zwaardere servers, die je best goedkoop kunt oppikken, schaalt de noodzaak om te koelen ook, dit wordt enorm onderschat.

Nu zou je een best laag verbruik server met een 20+ core processor en 256gb geheugen kunnen bouwen waar je best een eind mee komt. 5 van die systeempjes, fatsoenlijke storage oplossing (10gbe multibay nas) en 10gbe switch en heb je toch al een vrij aardige oplossing. Dit zou bijna allemaal in een 20u patchkast kunnen draaien met wat fans.

[Reactie gewijzigd door Dingus35 op 25 juli 2024 21:50]

Waarvoor is dit interessant? Een portable server?

Is een van de voordelen van een serverbord niet juist het hebben van veel PCI lanes?
Ligt aan je use-case, ik gebruik eigenlijk voornamelijk veel cores en ram. Pcie sloten niet.
Dit zou voor mij ideaal zijn want ik heb nu een gigantische server staan waar driekwart van de inhoud gewoon niet gebruikt wordt. Ik ben oprecht benieuwd naar de prijs van dit bordje.
De andere pci-e lanes zitten op die achterste connectoren waardoor je naar andere borden kunt gaan :)
Je krijgt een hoop van dit soort mobo's in een server rack.
Jup en je kan ze aan elkaar knopen via de kleine PCI-e connectoren :)
Dat snap ik niet helemaal. Dan ga je dus meerdere kleine fysieke servers maken en die aan elkaar knopen. Je maakt kleine servers zodat je er meerdere in je server rack kan maken. Is het dan niet makkelijker om een moederbord met 2 sockets te nemen? Dan heb je minder potentiele punten waar je hardware kapot kan gaan. Voor de zakelijke markt is dat toch juist belangrijk?
Dat hangt er vanaf wat het doel is, ik zit niet in de servers maar ik volg wel STH en daar hadden ze een tijd geleden een nieuwe Dell server met 4 van die connectoren, daarmee kon je dus naar een backplane voor nvme drives gaan of naar een 2de mobo met nog eens 2 cpu's op.
Je hebt alsnog 68 PCI-E 4.0 lanes tot je beschikking.

Dat is dus alsnog flink meer dan een dual CPU Setup met de duurste/nieuwste Xeon Platinum.
Kan je al die lanes dan goed gebruiken met dit moederbordje? er gaan er toch maar 16 naar je PCI-e 16x en een aantal naar de NVME?
Op de tweede foto kan je onderaan het bord nog 6 Slimline U.2 aansluitingen vinden. Waar je dus 48 PCI-E 4.0 lanes kan gebruiken.
Dat had ik niet goed gezien. Dan is dit dus eigenlijk een super moederbord voor supersnelle opslag?
Ik zie dan veel snelle opslagmogelijkheden en een cpu met veel cores. Is dit dan ook niet een super bord voor video bewerking?
Too little too late, niet? Aangezien de socket vervangen gaat worden.
Er komt nog een zen3 generatie aan genaamd Milaan op SP3.
Daarna komt pas SP5.
Dat heeft AMD gezegd.
Maar hier een andere link:
https://www.techradar.com...an-server-cpu-by-year-end

Hier een andere bron van een AMD presentatie:
https://g-pc.info/wp-cont...re-Roadmap-1-1024x564.jpg

[Reactie gewijzigd door Loggedinasroot op 25 juli 2024 21:50]

Maar dan moet je toch ook de juiste chipset hebben? Weet dat supermicro klanten redelijk hard ''afgeript'' heeft met de first gen bordjes die geen 2nd gen en dus ook geen 7Fx2 cpu's support.

Edit:

Deze heeft bijvoorbeeld als naam ''Rome'' niet Milan.

[Reactie gewijzigd door lachiu op 25 juli 2024 21:50]

Dit ligt vooral aan de BIOS van de supplier. Er zijn ook "REV2.0" borden van Supermicro(H11) die wel Rome support.

Bijvoorbeeld:
https://www.ebay.nl/itm/L...8a0f73:g:X5QAAOSwL9paYYeq

Over het algemeen kan je een 7001(Naples),7002(Rome) en Milaan(7003) in alle SP3 borden stoppen. Zoals de eerste Asrock borden:
https://www.asrockrack.co...del=EPYCD8#Specifications

Maar er zijn (helaas) inderdaad veel bedrijven die dat liever niet hebben en dat niet "supporten".
low end market?
Ik meen dat ik bij LTT wel eens oude processoren en exotische motherboards voorbij heb zien komen...
Misschien zo iets als wat ze doen met verouderde mallen van auto's die doorgeschoven worden naar goedkope merken (dacia bv).
Ik vind ASRock gewoon een uniek bedrijf. Beetje een 'Rebel' in eigen klasse. Zo ook met wat modellen van oude LGA1155 Z68 moederborden dat non-K CPUs kan overklokken. Ze zijn vaker 'out of the box' iets aan het creëren wat gewoon leuk is. Zo ook Zotac. Soms denk je "waarom" en dan 'waarom niet'.

Edit: Valt mij mee dat er geen SO-DIMMs slots zijn geplaatst ;)
@Verwijderd Klopt! Tot Intel er een stokje voor stak. Er zijn ook gemodded BIOS versies, maar ASRock heeft hun BIOS nooit verwijderd en ook niet van hun ASRock Z77.

[Reactie gewijzigd door Midnight4u op 25 juli 2024 21:50]

Alle p67/Z68/Z77 borden konden non-K CPUs +4MP overclocken
Ik heb 1998 oid een ASRock mobo gesjeft, en het snapte probleemloos geheugen dat door geen enkel ander mobo van vrienden werd geaccepteerd. Afgezien van een uitstapje naar ASUS nooit meer iets anders gehad dan ASRock. Goeie stuff. _/-\o_
Ik herinner mij nog ASRock moederborden die zowel een AGP-slot (volgens mij over de PCI-bus) als PCI-e hadden. En de socket 939 borden met een slot waarin een upgrade board met AM2 socket en DDR2-sloten geplaatst kon worden zodat je niet je hele moederbord hoefte te vervangen om de CPU te upgraden. Of het echt ideaal werkte weet ik niet.
Het eerste bord waar een coffee lake BIOS mod voor beschikbaar was kwam van Asrock.
Hoewel geen echte server man, snap ik nog wel dat dit meestal headless gedraaid wordt. Maar een VGA DB15 poort anno 2020...?
De servers waar ik mee in aanraking kom hebben allemaal enkel een vga poort.
Elke monitor heeft vga. En vga werkt altijd. Zelfs als je hem half in 2 knipt kan je vaak nog letters uitmaken. VGA rijkt ver zonder al te veel moeite.
De ruimte aan de voorzijde is goed benut, M2 slot zit aan de voorzijde, wat bij de 17*17cm mini itx veelal achterop zit.

Op dit item kan niet meer gereageerd worden.