Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 75 reacties
Bron: HKEPC, submitter: EaS

Nadat we eerder al melding maakten van een Tyan-moederbord dat met behulp van twee chipsets twee volwaardige x16-sloten kon aansturen, zijn er nu ook foto's opgedoken van deze plank. De Tyan S2895 beschikt over twee sockets voor AMD-processors en evenveel chipsets. Dit heeft tot gevolg dat men, voor het aanbieden van twee PCI Express x16-sloten, ook daadwerkelijk twee maal zoveel bandbreedte heeft, in tegenstelling tot de SLI-versie van de nForce4-chipset die wel twee x16-sloten ondersteunt, maar deze sloten slechts de bandbreedte van een x8-slot biedt.

Tyan S2895
Moderatie-faq Wijzig weergave

Reacties (75)

Werkt dit systeem dan volgens een NUMA architectuur? Of is de totale bandbreedte van beide cpu's dan niet gestegen?

Indien iedere cpu afzonderlijk communiceert met zijn eigen chipset, hoe gaat het OS dan om met de 2 chipsets ?
Jazeker! Deze werkt volgens een NUMA archtectuur.

Kijk maar eens goed naar het plaatje:
- Elke cpu heeft z'n eigen (dual channel) geheugen.
- Uit de positie van de northbridges vermoed ik dat beide cpu's gekoppeld zijn aan een eigen northbridge. Dus elke cpu heeft 1 pci-e 16x slot rechtstreeks ter beschikking en de andere slot via de hypertransport link naar de andere processor.
Euh... Volgens mij is dit moederbord even 'NUMA' als 2 aparte PCs... Met andere woorden: elke proc heeft een eigen geheugen, northbridge en agp/pci... Dus je hebt net hetzelfde effect als je 2 single-proc mobo's in 1 kast steekt.
De twee processoren kunnen echt nog wel communiceren met elkaar via HTT, en het OS zal gegarandeerd 2 processoren zien.

Voor NUMA is ondersteuning van het mobo en OS nodig, en voor het eerste is dat niet zo even te zien aan de layout, maar het feit dat afzonderlijke geheugenbanken dicht bij de sockets staan is wel een goed teken.
Het enige nadeel van deze oplossing met 2 chipsets is dat de latency mogelijk iets is toegenomen, wanneer je data nodig hebt wat bij de andere CPU opgeslagen is.
Maar dit zal zeker gewoon een dual-systeem zijn en niet vergelijkbaar met 2 losse PCs.
Denk maar eens aan mainboards met 4 of 8 CPU's.
Voor zover ik weet zijn er geen chipsets die 8 CPU's aankunnen en dus zit je dan ook met een vergelijkbare oplossing als deze.
Je hebt gelijk.
Zelfs al zouden alle geheugenbanken bij 1 CPU horen, dan nog is NUMA mogelijk... Zolang de 2 cpu's maar verbonden zijn. Ik maakte de denkfout dat dat via de chipset moest gebeuren (wat niet mogelijk is met single-cpu chipsets natuurlijk), maar de Opteron regelt dat natuurlijk zelf.

De vraag is dan: zal het met Athlon64's ook lukken of heb je de duurdere Opteron nodig?
Het enige nadeel van deze oplossing met 2 chipsets is dat de latency mogelijk iets is toegenomen, wanneer je data nodig hebt wat bij de andere CPU opgeslagen is.
Wat heeft de chipset met geheugen access te maken?
De 2xx Opterons zijn helemaal niet duur.

Uit de pricewatch:
AMD Opteron 250 (S940, 2,4GHz, 1MB, Boxed)
¤ 848,10

Even een Athlon64 erbij zoeken van hetzelfde caliber..

AMD Athlon 64 4000+ (S939, 2,4 GHz, 1MB, Boxed)
¤ 690,20

Zoveel duurder is het nou ook weer niet!

En zeker niet als we naar de Xeon kijken:

Intel Xeon 3,2GHz (S604, 512KB, 2MB L3, 533MHz FSB)
¤ 995,55
:)
Werkt dit systeem dan volgens een NUMA architectuur? Of is de totale bandbreedte van beide cpu's dan niet gestegen?
Bijna alle multi CPU AMD borden werken toch volgens NUMA?
amd is bezig met die dual core opterons die eind 2006 ofzo gaan uitkomen :7 . Amd claimt dat je met die cpu's twee besturingssystemen tegelijk kan draaien :?

dit mamaplankje heeft naast 2 939 voetjes ook 2 chipsets. Zou je hier ook twee besturingssystemen tegelijk kunnen draaien ? }>
Ik bedoel elke cpu heeft z'n eigen geheugenbankjes en stuurt z'n data door naar z'n eigen chipsetje, moet kunnen toch? of mis ik nog iets?
dit mamaplankje heeft naast 2 939 voetjes ook 2 chipsets.
In deze sockets passen alleen Opterons met 940 pinnetjes. Geen Athlons met 939 pinnen!
Ik dénk dat hij uitgerust is met tweemaal socket 940...
2 x 32 bits windows ??? kom je toch eindelijk es aan die 64bits toe ;)
Twee besturingssystemen kan al hoor..

Wat denk je van VirtualPC ? :Y)
Meer pics:
nForce
http://www.hkepc.com/bbs/attachments/p44z_tyanmb-3.jpg
Uitbreidingssloten
http://www.hkepc.com/bbs/attachments/C1lv_tyanmb-4jpg.jpg

Alleen jammer dat er maar 1 PCI slot op zit.
Volgend jaar wil ik een Dual Opteron kopen, bovenstaand mobo is zeer interresant. Alleen wil ik sowieso 2 gewone PCI sloten. :)
PCI-X is compatible met PCI, dus in de 3 grote witte sloten passen je PCI kaartjes
dus in de 3 grote witte sloten passen je PCI kaartjes
Mits ze 3,3 en niet 5 V zijn.
Een SLI opstelling op dit bord is toch totaal niet interessant?

Stel, je koopt dit bord + twee processors + 1 GB geheugen, 512 MB voor beide CPU's + twee videokaarten. Vervolgens start je je game, die geen dual processor opstelling ondersteund. Gevolg is dat slechts de helft van je geheugen kan worden aangesproken en dat het tweede x16-slot niet wordt aangestuurd waardoor ook nog eens je extra videokaart wegvalt.

Het lijkt me dat dit bord pas goed tot zijn recht komt in een server-opstelling met twee dikke NICs in de x16-sloten waar voor de toepassing voor beide volledige bandbreedte gewenst is.

Of sla ik de spreekwoordelijke plank nu volledig mis?
Ja je slaat de plank mis! Middels de NUMA architectuur kan één Opteron gewoon al het geheugen en beide videokaarten aanspreken. De twee chipsets / processoren werken naadloos samen als één systeem, daar merk je helemaal niks van.
edit: sorry, foutje!
is wel S940, dus gewoon NUMA
NUMA kan dat inderdaad, maar je OS moet dan wel NUMA ondersteunen... En dat is bij XP home zeker niet het geval, en bij XP Pro lijkt me het zeer twijfelachtig.
Een fatsoenlijke server draait geen winXP...
NUMA word ook al ondersteund op de 64-bits versies van windows XP . Dus ik denk dat dit wel gaat werken.

vind het alleen vreemd dat er geen PCI-Express 1x of 4x sloten op zitten er zitten nu zelfs 2 Nforce4 chips op maar alleen 2 PEG 16x sloten vind ik zelf een beetje raar, want de 4x sloten kunne ook akkelijk een RAID controller huisvesten (3Ware en Adaptec hadden er dacht ik al 1).

of zijn de 64bits sloten toch nog sneller????
als een os geen numa ondersteund heb je alleen wat minder peformance maar hij kan wel al het geheugen aanspreken.
Grafische power wordt voor meer dingen gebruikt dan alleen games...
3D workstations of VR simulatoren zijn bij voorbeeld gebaat bij zoveel mogelijk power.
dit is een workstation bord, dus beetje cad/cam met een SLi opstelling is dan wel handig.... flinke sloot geheugen en wat processor power is ook wel nodig. DAAR is het bord voor bedoeld, en niet voor server gebruik (want dan heb je nix aan SLI PCIe)
Ik zie op deze plank maar 2 ide aansluitingen zitten, en onboard SCSI, denk dus niet echt dat dit bordje in een kantoor pc'tje zal worden toegepast. Denk eerder dat je hier een flinke server op kan draaien.

Lekker VMWare ASX met me hele server park op een bak. Dat is wel stoer, heb je alleen wel een flinke sloot geheugen nodig, en een dikke fibrechannel disk array :P
En toen brandde er een signaal lijntje door op het moederbord, dag IT functionaliteit van je bedrijf!

Over het algemeen is het toch wel prettig verschillende taken uit te smeren over verschillende servers. Is beter voor de continuiteit van je bedrijf.
Dat hoor je wel vaker, dat argument.
In de praktijk blijkt echter dat je dan toch niet kan werken als alleen je LDAP server down gaat, of je DNS, of je NIS, of je fileserver.
Dan kun je toch net zo goed alles op EEN server zetten en een hot standby hebben. Maar goed, dit gaat te ver off-topic hier.
Dat hoeft niet zozeer zolang je maar backup systemen hebt. Ter vergeljking: als je core-router doorfikt heb je helemaal niks meer.
Het feit dat sommige dingen op die backup server ineens 2 keer zo traag gaan is niet erg, zolang het spul maar up and running is. Verder zal je dit bord niet zo snel in belangrijke servers aantreffen. Als de server echt van levensbelang is wordt er wel eentje besteld bij bijvoorbeeld Dell of een andere producent die binnen een x aantal uur gewoon een hele nieuwe server het rack in rost.
Dat hoeft niet zozeer zolang je maar backup systemen hebt. Ter vergeljking: als je core-router doorfikt heb je helemaal niks meer.
Daar heb je er toch ook twee van? :)
Dat was verborgen mijn punt ook:
Belangelijke dingen zijn toch dubbel uitgevoerd.

Mijn idee was dat de poster jouw opmerking ging bedenken naar aanleiding van mijn punt en zich daarna ging realiseren: 'heej.. belangrijke dingen zullen ze toch wel dubbel hebben of in ieder geval met backup mogelijkheid'

edit: reactie op olaf dit.
Dat hoeft niet zozeer zolang je maar backup systemen hebt.
Dat is juist waar ik op doel. Lees de opmerking 'Lekker VMWare ASX met me hele server park op een bak.' nog eens maar dan als 'Lekker VMWare ASX met me hele server park op één bak.'. Dan zitten wel op dezelfde hoogte ;).
waarom zou je daar een plank met 2x PCIe x16 voor gebruiken :? of wilde je daar 10gbit nics in kwijt :?
Dual graphics card? SLI?
Kan Sli wel? PCI-E sloten zijn ook verdeeld over de chipsets. dus je moet een SLI opstelling maken waarin je 2 chipsets gebruikt.

Die 2 chipsets moeten dus samenwerken, krijg je dan niet teveel latency? Aan de andere kant zal je ook weer wat meer kunnen verwachten omdat het 2 chipsets zijn, maar de huidige videokaarten hebben nog niets aan x16 sloten
Voor 10 gbit/s NICs is een PCI-E x4 slot voldoende.
Ook voor 'enorme' RAID controllers is x4 (of x8) voldoende.
Wat dacht je van een enorme RAID controller?
enig idee hoe duur deze wordt? dit lijkt me wel een mooi bordje namelijk :9~
Nou ik mis de PCI 8x 4x 2x sloten
PCI-X is oude workstation meuk.

De nieuwste Raid 5 PCIE 4x of 8x kaartjes kun je dan vergeten.
Of die tweede SLI slot daarvoo mis(ge)bruiken
dat is nog eens een bord. doe mij maar een kruiwagen van deze!
Mag je ook een kruiwagen centjes meenemen, en een *enorme* kruiwagen voedingen... Wat zou zo'n bordje nodig hebben, 600W? 800 misschien??
Een moederbord opzich heeft bijna niks nodig...

Maar als je gewoon uit gaat van een normaal systeem, en dat 2x dan kom je op 400-500W stressed.
een dergelijke CPU neemt volgens mij nog steeds max. 100Watt, dus 200Watt voor de CPU's.
geheugen en chipset(s) zullen max 50Watt trekken (8 dimms trekken toch nog wel wat).
Videokaart... tsja een behoorlijk veeleisende kaart zal zo'n 75Watt trekken, maar de kaarten voor servers (typische toepassing voor een dergelijk bord) zul je echt niet een uitgebreide kaart nodig hebben en waarschijnlijk zit er al iets onboard.

De rest van het stroomverbruik zal opgenomen worden door insteekkaarten en schijven.
Per schijf zo'n 15Watt voor opstarten.
Dus 500W aan echt gebruik is een tikkeltje overdreven... maar een voeding waar 500Watt op staat gedrukt is mischien niet zo'n gek idee voor een dergelijk systeem.
maar de kaarten voor servers (typische toepassing voor een dergelijk bord)
Volgens mij is dit een workstation bord.
Voor servers heb je meer aan x8 sloten.
roep dat niet te hard. een beetje AMD 64 met een Radeon 9800Pro/XT heeft al een hogere voeding dan 300W nodig (in sommige gevallen)

Deze kaarten vragen nog wel wat meer stroom dan een 9800, dus dat keer twee. dan nog twee CPU's van elk zo'n kleine 100W (met zo;n bord prik je er natuurlijk wel de dikste Athlon 64'ers in)

Denk dat 600-650W voeding wel nodig is, als je ook nog een bescheiden marge wilt overhouden.
Alleen zal een a64 in dual opstelling niet werken.

Edit: reactie bedoelt op t-h
Als je met voedingen van zeer slechte kwaliteit werkt heb je gelijk ja, maar die voedingen worden meestal niet gebruikt voor servers/workstations.

Dat jij nou met je computerlandvoeding 450 watt nodig hebt voor de 9800XT is te begrijpen, maar een voeding van goede kwaliteit red het ook op 280 Watt.
A64 wordt vaak gebruikt voor afkorting voor
Athlon 64
AMD64 verkort je niet gauw

Dus een Opteron is géén A(thlon)64 wel AMD64 CPU
em, dit is een socket 940 bord. Opteron (en een zeldzame FX af en toe) is geschikt voor dit socket. De Opteron is geschikt voor dual processor (de 2xx serie en hoger). Maar hier wordt dus gebruikt gemaakt van een chipset voor een 1xx Opteron, wat dus inhoudt dat elke chipset aan een van de processors is gekoppeld (zo heb je dus ook 8 bankjes). In theorie zou je dus ook een FX die nog op socket 940 te verkrijgen is (alleen de vroege dacht ik (FX-51?)) 2x in dit moederbord kunnen prikken.
@Sphere-:
Dus een Opteron is ineens geen A64 meer?
Waarom zou dit moederbord plotseling 2x zoveel vermogen nodig hebben dan? 2x een chipset zal het verschil niet maken, de SLI opstelling koste al extra vermogen... dus ik snap je opmerking niet helemaal...
Hmmm, heb je die 2 processor sockets ook zien zitten...
@PuzzleSolver: Hij vroeg wat het bord nodig heeft qua voeding. Dit staat los van wat je er allemaal opprikt. :+
Omdat véél energie slurpers componenten dubbel uitgevoerd zijn.

CPU
G-kaart
chipset
eventueel ook Mem 'n extra AMD64 CPU houd ook in meer dimmsloten mogelijk tov uni systeem.
Per quartet.

en natuurlijk ook marge en marge voor wat minder rendable power lijn verdeling.

2x 350Watt 700Watt dus.

aangezien sommige dinggen niet verdubbeld worden kan er misschien zo'n 50 á 100watt af.
Hmm, dit is dual Opteron... dan denk ik eerder dat dit bedoeld is om 2 high-end RAID kaarten te kunnen gebruiken.

btw, waarom zijn 2 chipsets nodig? Je kan toch ook een chipset gebruiken die effectief PCIe-32x kan aansturen?
Moeten er wel kaarten zijn die PCIe-32x ondersteunen.
Ik denk dat het zinniger is om 2 sloten te hebben, dan kun je 2 rappe kaarten gebruiken. (bijv RAID-controller en netwerkkaart)
Als ik zeg PCIe-32x, bedoel ik niet gelijk één slot met die snelheid. Je kunt op het moederbord nml die snelheid afsplitsen tot 2 sloten.

Volgens mij is dit te bereiken met een moderne high-end server-chipset. Die hebben vast al meerdere PCIe-8x sloten. Als je er daar vier van op de chipset kunt ondersteunen, kun je ook 2 PCIe-16x sloten maken. ALs het goed is maakt het bij PCIe allemaal niets uit hoe je de beschikbare bandbreedte verdeeld over de sloten.
ja dat kan. maar er zijn nog geen chipsets die dat kunnen. vandaar deze oplossing
Dus wat ik hier van begrijp, is dat ze voor elke CPU icm mem e.d een eigen Chipset hebben gebakken en geplaatst, die zo dus ook op hun keer een eigen x16 slot kunnen aansturen ?

Als dit zo is, zou het willicht mogelijk zijn om b.v een 9800Pro en een b.v 9600XT bij elkaar te gooien ?
als je die kaarten in PCIe weet te krijgen :P
Nou weet niet hoe de HT links gelegd zijn maar de chipset kunnen ook chained zijn.
wat weer de mogelijkheid geeft om Dual SLI te gebruiken met maar één CPU.

Ben eigenlijk wel benieuwed.
past ook niet echt in een gewone atx kast als ik het zo bekijk.

het prijskaartje zal ook niet echt klein zijn, net als het bord........ :?
Extended ATX. Past in m'n PC75 :D

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True