Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 33 reacties, 702 views •
Bron: News.com

Intel product manager Doug Shuda heeft in een interview met News.com gezegd dat de Intel E8870 chipset in het derde kwartaal of aan het begin van het vierde kwartaal beschikbaar zal komen. De E8870, oorspronkelijk bekend onder de naam i870, ondersteunt zowel 32-bit Xeon processors als 64-bit Itanium CPU's. Serverfabrikanten kunnen de chipset gebruiken om systemen te bouwen met maximaal zestien processors. Per chipset kunnen 4 processors aangestuurd worden en met behulp van een 'Scalability Port Switch' kunnen vier E8870 chips aan elkaar geknoopt worden. De gecombineerde chipset die daarmee ontstaat, noemt Intel de E9870. Intel verwacht overigens dat de meeste fabrikanten niet verder zullen gaan dan acht processors.

Intel Itanium 2 logo (klein)De Intel E9870 chipset zal eind dit jaar verkrijgbaar worden. Met gebruikmaking van andere switches en E8870 bouwstenen is het mogelijk om systemen met 512 processors te bouwen, aldus Shuda. De E8870 chipset zal niet alleen in staat zijn om Xeon en Itanium CPU's aan te sturen, maar zal ook overweg kunnen met toekomstige Itanium cores zoals Madison en Montecito. Deze twee processors worden verwacht in respectievelijk 2003 en 2004.

Intel is niet de enige fabrikant van Itanium chipsets. IBM heeft de EXA 'Summit' chipset ontwikkeld voor gebruik in machines met vier, acht, twaalf of zestien processors. Andere fabrikanten zijn Hewlett-Packard met zx1 'Pluto' chipset voor 1-way tot 4-way systemen, Hitachi met de ColdFusion-2 chipset voor 8-way machines en NEC met de 16-way AzusA. De serverfabrikanten Unisys en Bull hebben aangekondigd dat zij 32-way servers op de markt zullen brengen.

CeBIT 2002: Intel McKinley / Itanium sample

Reacties (33)

Reactiefilter:-133033+131+211+33
Dit wordt de concurent voor de APLHA systems volgens mij.
Ondersteunen deze ook 32 bits mode eigenlijk ?
Deze kunnen 32bit emuleren, maar de performance zakt dan geweldig in.(Pentium2 snelheid :D)
Euuhmm.. IS intel tegenwoordig niet gewoon alpha? Hadden al hun kennis en technieken toch overgenomen?
Of ben'k nu weer de domme Belg? ;)
Dat is zo, ware het niet dat de Itanium voor het grootste deel al klaar was toen Intel Alpha opkocht, misschien dat er wat Alpha technieken zit in de Itanium2.
Ok, nog maar weer eens uitleggen.

Om even kort de vraag te beantwoorden, Itanium is ontworpen door Intel, Itanium 2 (McKinley) door HP-Risc en Intel, en de Itanium 3 (?) door Alpha engineers, HP-Risc engineers en Intel engineers.

Even geschiedenis....

Digital Equipment Corporation brengt in 1992 hun 64-bit processor uit, de 21064 (21ste eeuw, 0 is het revisienummer, 64 -bits). Het platform heet de EV1. Dit staat voor Extended Vax, aangezien DEC tot dan toe zeer succesvol was met hun VAX systemen.

De Alpha is tot 1998 performance marktleider, echter als de PII begint te schalen verslaat deze de ouder wordende 21164, de 21264 verdubbeld echter de performance en staat zo weer bovenaan in de SPEC benchmarks.

Nu raakt de Alpha chip in moeilijk vaarwater, al enkele jaren wordt de chip dan genegeerd door het management van DEC, die verzaken het ding te marketen. Ze hebben het over "core-business" en stoten oa hun printer en netwerk divisies af. Ze zien hun core business als dienstverleners.

Met de overname van Compaq raakt de chip nog verder ondergewaardeerd. Veel DEC mensen haten Compaq, en gaan ergens anders werken of worden domweg ontslagen. Veel Alpha engineers gaan werken voor AMD, waar al veel van hun oud collegas werken, waaronder Dirk Meyer, de hoofdengineer van de Alpha technologie. Bij AMD gaan ze aan de slag om een x86 compatible Alpha te maken, de Athlon.

Compaq is nu de eigenaar van de snelste chip ter wereld, de Alpha. Compaq heeft echter met Intel afgesproken een IA64 partner te zijn. Compaq heeft nu dus een chip, die beter is dan de chip van hun vriendje Intel, maar kan er niks mee omdat Intel dit nooit zal pikken. Compaq cancelled daarom Windows NT 64-bits voor de Alpha, daarmee hun voorkeur kenbaar makend voor de Itanium voor het low-end server segment.

De Itanium, die in 1999 had moeten uitkomen, valt echter vies tegen. Het ding is niet snel genoeg, en verre van superieur aan de Alpha. Compaq gebruikt zo lang de Alpha nog maar voor hun High End systemen omdat de Itanium daar niet klaar voor is.

Ondertussen heeft het hele designteam van de HP-RISC processor al een aantal jaar gewerkt aan de opvolger van de Itanium, de Itanium 2 (McKinley).

Compaq zwicht onder de druk van Intel, ze verkopen alle patenten van de Alpha, waaronder de zeer geavanceerde Alpha EV8 technologie, alle engineers verhuizen naar de Intel Labs. Daar worden ze allemaal gepromoveerd en aan het werk gezet aan de opvolger van McKinley.

Einde lange post.
Hebben de cpu's dan per 4 cpu's en een chipset geheugen of moeten ze als je bijvoorbeeld 16 cpu's hebt het met dezelfde hoeveelheid geheugen doen als met 4 cpu's?
Ik neem aan dat elke "node" (dus elke groep van CPU's) over eigen geheugen beschikt, anders zou het absoluut geen nut hebben om zoveel CPU's in een server te gebruiken, want dan is de beschikbare bandbreedte ontoereikend. In dat geval zou het verschil in snelheid tussen een 8 way en een 16 way systeem precies 0,0 zijn en dat is niet de bedoeling.

Mij lijkt het logischer dat elke node zijn eigen geheugen heeft, alleen dan is er weer het probleem dat het gebruikte OS dan niet weet welk geheugen het dichst bij de CPU zit. Want als het OS CPU 1 gebruikt en hij gaat geheugen gebruiken wat bij CPU 16 zit, wordt de latency nogal hoog en dat is nou ook weer niet echt bevoordelijk voor de performance.
Nu is mij ook meteen duidelijk waarom die i850 chipset voor de P4 zoveel achterblijft. Ze hebben het veel te druk gehad met het ontwikkelen van een Itanium chipset.

En wat is nu precies de bedoeling van de ondersteuning van XEON en Itanium ???

Is dat puur kosten besparing. Op deze manier hoeven ze namelijk maar een chipset te maken. Of zit er meer achter :?
Nu is mij ook meteen duidelijk waarom die i850 chipset voor de P4 zoveel achterblijft. Ze hebben het veel te druk gehad met het ontwikkelen van een Itanium chipset.

Intel heeft genoeg mankracht en recources om tegelijkertijd aan meerdere projecten te werken, dat is duidelijk te zien aan het feit dat Intel tegelijkertijd aan de Itanium, de P3 en aan de P4 heeft gewerkt, men is met de itanium namelijk al in 1980 begonnen.

Dus dan is het een kleine moeite om tegelijkertijd aan twee chipsets te werken.

En ik vind niet dat de i80 achterblijft, die mag misschien dan wel PC1066 officeel niet ondersteunen, het werkt wel perfect en daardoor is het nog steeds de snelste P4 chipset.
En wat is nu precies de bedoeling van de ondersteuning van XEON en Itanium ???

Is dat puur kosten besparing. Op deze manier hoeven ze namelijk maar een chipset te maken. Of zit er meer achte
Het is idd een beetje vreemd, de Xeon en de Itanium zijn twee compleet verschillende architecturen (IA-32 vs. IA-64) en ze zijn alleen ongeveer gelijk wat betreft de manier waarop ze aan multi CPU doen, namelijk een gesharde bus.

Kennelijk was het goedkoper om dit zo op te lossen, of Intel wil het makkelijk houden voor de fabrikanten van complete servers. Want als er maar een chipset is, is de CPU eigelijk het enige wat veranderd hoeft te worden als een fabrikant zowel de Xeon als de Itanium gaat leveren.

Intel zal echt geen oplossing bedenken die op voorhand al duurder uit gaat vallen.
intel was in 1980 nog bezig met 8-bits chips, lijkt me stug dat ze al directe 64 bits plannen hadden ;)
mmmm 16 cpu's op 1 moederbord? volgens mij vreet dat aardig wat stroom wat voor voeding willen ze daar eigenlijk aanhangen?
Voor ieder mobo een aparte kern centrale ;)
Die 16- en 32-way systemen bestaan uit 'processorsetjes' van 4 processoren. Er kunnen er maar 4 per chipset aangestuurd worden
Per chipset kunnen 4 processors aangestuurd worden
Dus een 16 way systeem zou dan uit 4 mamaplankjes moeten bestaan. Of ze moeten het voor mekaar krijgen om 4 chipsets op 1 bord te zetten, maar volgens mij is dat in geen enkele kast te krijgen.
Per chipset kunnen 4 processors aangestuurd worden en met behulp van een 'Scalability Port Switch' kunnen vier E8870 chips aan elkaar geknoopt worden. De gecombineerde chipset die daarmee ontstaat, noemt Intel de E9870. Intel verwacht overigens dat de meeste fabrikanten niet verder zullen gaan dan acht processors.

hier staat dat er 4 chipsets aan elkaar geknoopt kunnen worden.

dus wel 16 processors op een mammabordje toch??
Dan zouden er inderdaad in een 16-way systeem 16 procs op een plankje kunnen, maar als je dan een 32-way systeem bouwt moet je dus 2 borden aan elkaar maken, maar hoe ze dat dan moeten doen?
Misschien werken geleidende veters wel. :)
Je moet hierbij niet denken aan een enorme printplaat waar 16 processors op kunnen. Het is waarschijnlijk dat er een soort van oppermoederbord (omabord? ;) ) is waar uitbreidingskaarten in gestopt kunnen worden waar per stuk vervolgens vier processors met bijbehorend geheugen op kunnen.
een mammabordje dus met allemaal dochterbordjes. zoiets, van die soort p2-celeron conferters.
Hmm, heet dat niet backplane ofzo? :+
Je bedoelt denk ik de uber oude back-plane dingen.
Das een grote printplaat met sockets (oversized PCI slots zullen we maar zeggen) waar je alles op douwt, CPU-kaart, RAM-kaart, noem het maar.
Dat concept werd al in oudere Proliants toegepast bv. bij de 1500 kon je procs met peripherie via insteekkaarten toevoegen.
He jongens... het moge toch wel duidelijk zijn dat dit echt geen ATX- compatible systemen zijn eh... Deze dingen worden in server towers gedouwd die een heel full-height 19 inch rek in-nemen, echt niet in een 'tilbare' behuizing...

En wat stroomverbruik betreft, denk niet dat hier ook maar iets in zit wat ook maar remotely op een ATX voeding lijkt - een generator / transformator is een betere term... denk gerust aan 5000 W (incl de 36 stuks15K raid schijven etc die er in zitten is zelfs dat nog waarschijnlijk aan de lage kant)
mmmm 16 cpu's op 1 moederbord? volgens mij vreet dat aardig wat stroom wat voor voeding willen ze daar eigenlijk aanhangen?
In servers waarin dit soort mobo's zitten, wordt vaak gebruik gemaakt van een aantal voedingen tegelijk. Dus niet slechts n voeding.

Die voedingen zijn dan ook vaak redundant en hot-swappable, zodat als n voeding uitvalt, deze vervangen kan worden zonder de server down te brengen.
Eigenlijk dus een beetje vergelijkbaar met harde schijven in een RAID.
En reken maar dat dit niet van die hele knullige voedingen zijn.

Overigens: 4 procs van 75W elk kunnen gevoed worden door een 300W voeding. De rest van de pc heeft ook nog wat stroom nodig, dus een (vrij alledaagse) 500W voeding moet het in zijn eentje wel kunnen.
Veel file-/web-/andere servers hebben een storage-tower met aparte voeding buiten de kast staan, dus daar hoeft ook al geen rekening mee te worden gehouden met de voeding voor de server zelf.
Dus de meeste van deze servers hebben meer dan voldoende aan twee of drie 500W-voedingen in een redundant opstelling.

Voor een server met 16-procs is een niet-alledaags mobo nodig met een niet-alledaagse prijs. Je maakt mij niet wijs dat daar geen voedingen voor gemaakt worden die dat kunnen trekken. Waarschijnlijk zullen dat voedingen zijn die bij de meeste tweakers onbekend zijn. Totaal zal een 16-way server met 75W-procs ongeveer 1500W nodig hebben, schat ik.

En zeg nou zelf, da's toch niet buitensporig veel? Een fhn verbruikt meer...
op zich klopt het wel min of meer .... maar euhm als ik zo een config zou hebben, dan hangt er wel een monster-raid aan .... 30 Hd's ofzo ...
dus ik denk dat webdoc met zijn berekening hierboven er dichter zal bijzitten ...

bovendien denk ik niet dat jij de rekening van 5 KW/uur gaat bijhouden met 24/24 7 days a week ...

airco
RIP-airco: Een dergelijke monster-RAID zal ongetwijfeld een eigen serie voedingen hebben. Die hebben dus niets te maken met een moederbord waar 16 processors op staan te zweten. Daarom heb ik daar geen rekening mee gehouden.
off topic

Als je proc's 75watt verbruiken dan ga je niet genoeg hebben voor deze proc te doen draaien, je hebt immers het dubbele nodig, het koelen ervan vraagt ook veel energie. Zoals bij huidige elektronische installaties wordt het verbruikte vermogen maal 2 gedaan voor de veiligheid en stabiliteit.
Dus een proc van 75W heeft ook 75W aan koeling nodig?

Thuis staat een Duron (ca. 50-60W) te stampen. Daarop zit een fan geschroefd van 1,4W. Nou zal een vette server wel wat heviger koeling nodig hebben, maar een 16-way server gaat nooit 1200W aan koelvermogen nodig hebben!

Dit staat overigens los van de airco-installatie die op de meeste server-ruimtes staat, die staat er vaak alleen voor de zekerheid: Als de airco stukgaat, zal de server weliswaar wat warmer worden, maar niet uitvallen.

Verder heb je gelijk: Hoewel een 16-way server naar mijn schatting 1500W verbruikt (zonder disks), zal de voeding veel ruimer gespecificeerd zijn.

Wat betreft de schatting van Webdoc: Een totaal vermogen van 5kW voor een 19"-rack vind ik wel aannemelijk, maar hebben we het hier over complete racks waar mogelijk tientallen servers in draaien! Of n server met een aantal enorme RAID-arrays. Zo kan ik ook wel een server samenstellen die 10kW nodig heeft. Die extra componenten zijn dus niet van belang voor het voeden van het moederbord, zoals deze draad door Nick Saalmink gestart is.
vergeet niet dat je koel plaat aantal watts per cm3 disspeert he. De cooler zorgt ervoor dat de warmte weggevoert wordt.
Wat ik graag zou willen is dat je "direct" zelf de taken onder de procs zou kunnen verdelen zodat (relatief)betaalbare multi-processing thuis mogenlijk wordt .... Dit zou namelijk een goede stap richting de toekomst zijn. Niet snellere procs maar een hogere mate van parallelliteit is naar mijn idee de juiste weg ....

/edit

Voor degene die dit tot off-topic heeft gemodereerd het volgende: zonder bijpassend operating systeem heb je geen donder aan een multi-proc systeem.

En voor het goed (lees optimaal) werken van een multi-proc operating systeem moet de hardware ook mogenlijkheden scheppen. De meeste systemen geven deze mogenlijkheid niet... omdat ze specifiek voor het gebruik van server threads geschikt zijn. Dit heeft mijn intresse totaal niet ...

Ik heb hierboven dan ook mijn visie gegeven hoe een multi-proc systeem voor mij als gebruiker er optimaler (lees bruikbaarder) uit zou zien... Hardware is aardig maar je hebt er geen donder aan als dit niet goed wordt ondersteund.

en edit /
"airco"

dat zet mij ook aan het denken
ik bedoel hebbe die kaste ook niet een aparte koeling
en meer van die geintjes zoals een "battery" voor als de stroom eens uitvald ???
Airco, ik werk voor een bedrijf dat een groot aantal servers host voor een groot telecom bedrijf. Deze servers worden standaard geleverd met 9 Gb HDD ruimte (in mirror RAID config) of 18 Gb (RAID 5) een paar van de ongeveer 140 servers hebben 36 Gb en dat zijn alleen maar de zware database servers. Bedenk wel dat bedrijven deze servers niet voor downloading gebruiken zoals jij thuis zou doen. Dus een stuk of 30 Hds is gewoon niet realistisch. Het gaat de bedrijven om processor en reken kracht, niet om opslag ruimte.

En Scoopy, alle componenten in een 19" rack hebben hun eigen voeding. Een RAID Array bv. heeft een eigen voeding. Daardoor kan je het gewoon af met normale voedingen, zoals MetalStef hierboven beschreven heeft.
volgens mij worden dit soort systemen in ruimtes gezet waar een aardige airco staat te loeien :)
en een ups zal ook wel tot de standaard accesoires horen :o
link doet het dus niet die ~~moeten boven staan en niet in het midden, hij opakt het laatste stukje ook niet mee moet je maar ff zoeken op de main page van amd

Op dit item kan niet meer gereageerd worden.



Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBWebsites en communities

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True