Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door Wouter Tinus

Xeon Potomac: Intels inhaalslag op servergebied - update

Introductie: E8500 met dubbele FSB

Xeon MP aankondiging Het is ruim een jaar geleden dat Intel de 3GHz Xeon MP met 4MB L3-cache introduceerde. De chip voor servers met vier of meer processors had het qua performance al direct moeilijk tegenover zijn relatief nieuwe concurrent, de Opteron. Het gebrek aan 64-bit extenties, de beperkte bandbreedte en hoge kosten werden veelal aangewezen als zwakke punten van de Xeon MP. Intel compenseerde dat wel met extra RAS-features en een solide reputatie die zijn concurrent (nog) niet had, maar niettemin vroeg met name het technische publiek zich af hoe het bedrijf zou gaan antwoorden op de verwoede pogingen van AMD om het segment van 4-way servers 'open te breken'. Vandaag introduceert Intel dat antwoord in de vorm van Truland, een nieuw platform bestaande uit de E8500 Twin Castle-chipset en de nieuwe 90nm Xeon MP-cores Cranford en Potomac. In deze feature zullen we beschrijven op welke manieren Intel heeft geprobeerd om het gat met de concurrentie te dichten en welke mogelijkheden er in de toekomst nog benut kunnen worden om bij te blijven.

Een van de belangrijkste dingen die Intel aan moest pakken was de hoeveelheid beschikbare bandbreedte. Binnen het oude Xeon MP-platform is het namelijk zo dat tot vier processors een enkele 400MHz FSB moeten delen. Er is in die configuratie dus een schamele 800MB/s per processor aan bandbreedte beschikbaar, waarover niet alleen de communicatie met het geheugen, maar ook die met andere processors moet lopen. De eerste beslissing die Intel heeft genomen om daar verbetering in te brengen is om niet langer vier, maar slechts twee processors op een bus te plaatsen. Om toch nog vier processors per chipset te kunnen ondersteunen werd vervolgens een tweede FSB toegevoegd, waardoor de bandbreedte al direct verdubbeld werd. Bijkomend voordeel van deze beslissing was dat kortere bussen met minder belastingspunten ook hoger te klokken zijn, en dus kon men van 400 naar 667MHz gaan. In totaal is de bandbreedte hierdoor ruim verdrievoudigd naar 2,7GB/s per processor. Dit is nog steeds (veel) minder dan de Xeon DP en Opteron tot hun beschikking hebben, maar toch een grote stap in de goede richting, die een van de fundamentele bottlenecks van Intels serverplatform behoorlijk zou moeten verzachten.

Bandbreedte per processor (GB/s)
Pentium 4 XE 8,5
Opteron 8xx 6,4
Opteron 2xx 6,4
Pentium 4 6,4
Xeon DP (2006) 6,4
Xeon DP (2004) 3,2
Xeon MP (2005) 2,7
Xeon MP (2002) 0,8
Bandbreedte totaal
Opteron 8xx 25,6
Opteron 2xx 12,8
Xeon DP (2006) 12,8
Xeon MP (2005) 10,7
Pentium 4 XE 8,5
Xeon DP (2004) 6,4
Pentium 4 6,4
Xeon MP (2002) 3,2

Om de bandbreedte ook aan de andere kant van de pijp te kunnen vullen maakt de E8500-chipset gebruik van vier externe geheugencontrollers, de zogenaamde XMB (eXternal Memory Bridge) chips. Dit is een opvallende beslissing, want in plaats van het geheugen dichterbij de processor te brengen zoals AMD gedaan heeft, komt het bij E8500 dus juist een stap verder weg te zitten. Wat voor invloed deze architectuur heeft op de latency is niet bekendgemaakt, maar dat deze achteruit gaat is eigenlijk onvermijdelijk, zeker ook omdat er overgestapt wordt van DDR- naar DDR2-modules. De bandbreedte gaat er wel duidelijk op vooruit: iedere XMB ondersteunt dual-channel DDR2-400, en in totaal zijn er dus acht kanalen (oftewel 25,6GB/s) beschikbaar. Dit kan overigens niet volledig benut worden, want de zogeheten IMI-verbinding (Independent Memory Interface) die tussen de northbridge en de controllers zit ondersteunt maar 5,3GB/s. Hierdoor wordt het totaal beperkt tot 21,3GB/s, maar dat is nog steeds het dubbele van wat de FSB kan verwerken.

Intel E8500 Twin Castle geheugenbord
Extern geheugenbord voor Twin Castle-server

In het onderstaande diagram is te zien dat door de IMI-verbindingen dubbel zo snel gelezen als geschreven kan worden. Om het elektrisch ontwerp van het moederbord niet verder te compliceren en de ontwikkelkosten van de chipset te drukken is deze interface vermoedelijk gebaseerd op PCI Express. Deze standaard is unidirectioneel, wat betekent dat er voor communicatie van punt A naar punt B een andere lijn gebruikt wordt dan voor berichten in tegenovergestelde richting. Standaard PCI Express-slots zijn opgebouwd uit een aantal lanes (x1, x4, enzovoorts), waarbij iedere lane uit twee fysieke verbindingen bestaat. Als IMI werkelijk op PCI Express gebaseerd is dan zou het verschil in bandbreedte makkelijk te verklaren zijn door meer verbindingen upstream dan downstream. Wat voor gevolgen deze keuze heeft voor de prestaties is niet duidelijk, maar aangezien de meeste applicaties (veel) meer lezen dan schrijven en ook geheugenmodules over het algemeen minder snel kunnen schrijven dan lezen, zal het in veel gevallen waarschijnlijk niet eens te merken zijn.

Intel E8500 Twin Castle diagram

Toegevoegde waarde in de chipset

Leuk om te weten is dat de E8500 feitelijk Intels eerste echte Xeon MP-chipset is. Het harde onderscheid tussen DP (2-way) en MP (4-way+) Xeons werd namelijk pas voor het eerst gemaakt met de komst van de Pentium 4-generatie, en sinds dat moment heeft Intel alleen nog maar chipsets voor de DP ontwikkeld. Het maken van MP-chipsets werd overgelaten aan bedrijven als IBM en ServerWorks. Intel wilde echter duidelijk laten zien dat ze de kunst nog niet verleerd zijn, en heeft Twin Castle volgestopt met de laatste features op het gebied van I/O en RAS, en voorbereid op toekomstige toevoegingen aan de processors. De northbridge heeft 28 PCI Express-lanes aan boord, goed voor drie x8-slots en één x4-slot. Ze kunnen echter ook gebruikt worden om bijvoorbeeld meerpoorts gigabit ethernet of PCI-X-bruggen op het moederbord te integreren. De southbridge is op zich niets bijzonders, maar de voor desktopgebruik enigzins verouderde ICH5 voldoet nog prima voor servers. Alleen het gemis van een (standaard) geïntegreerde SATA-controller zou een minpunt kunnen zijn ten opzichte van de nieuwere ICH6, hoewel het te betwijfelen valt of mensen die servers in deze klasse kopen daar wakker van liggen.

* Intel Virtualisation Technology

De chipset ondersteunt Intel Virtualisation Technology, beter bekend als Vanderpool. In het kort is dit een technologie die software om meerdere (instanties van) operating systemen tegelijk te draaien makkelijker en sneller maakt. Toepassingen als Virtual PC, VMware en Xen zullen op een processor met Vanderpool beter werken omdat enkele van de meest complexe en crashgevoelige handelingen die nodig zijn voor virtualisatie straks gevat zullen worden in enkele instructies. Hoewel daardoor op zich geen nieuwe mogelijkheden ontstaan, denkt Intel dat het door de komst van hardwarematige versnelling wel een stuk populairder zal worden. Ook toekomstige dual- en multi-coreprocessors zouden het percentage servers waar meerdere operating systemen op draaien kunnen verhogen, omdat nu eenmaal nooit alle software geschikt zal worden om te verdelen over meerdere cores. Verder ziet Intel toepassingen op het gebied van systeembeheer en beveiliging.

Intel Vanderpool

* Active Management Technology

De oplettende lezer heeft in het bovenstaande diagram ook al AMT zien staan, oftewel Active Management Technology. Het idee voor deze feature is ontstaan op Intels eigen IT-afdeling, die moeite had om overzicht te houden over de vele tienduizenden desktops, notebooks en servers die het bedrijf wereldwijd heeft staan. Tijdens gesprekken met andere grote bedrijven bleek dat zij ook met dit soort problemen kampten, en dus werd besloten om aan een oplossing te gaan werken. Deze kwam in de vorm van een volledig autonoom deel van de machine; een simpele microprocessor, een simpel operating systeem en een klein stukje geheugen. Dit deel van het systeem werkt dus bijna volledig onafhankelijk van de rest. Of de machine nu gewoon in gebruik is, volledig gecrashed is of zelfs uit staat, de AMT kan van afstand benaderd worden om allerlei informatie uit te lezen. Naast de actuele status en hardwareconfiguratie van de machine kan bijvoorbeeld ook informatie over de fysieke lokatie en geïnstalleerde software in het AMT-geheugen worden gezet, zodat er altijd een overzicht is van bijvoorbeeld de hoeveelheid licenties die nodig is. Via AMT zou ook gecommuniceerd kunnen worden met een "Service OS", dat op de achtergrond patches installeert en ander onderhoud pleegt, terwijl de eigenaar van het systeem ondertussen gewoon doorwerkt op zijn normale OS.

* I/OAT

I/OAT is een andere techniek die alvast verwerkt zit in de chipset maar nog wacht op omringende onderdelen. Met een combinatie van verbeteringen in software en hardware denkt men het verwerken van TCP/IP (en andere grote datastromen waaraan gerekend moet worden, zoals RAID) te kunnen versnellen. Volgens Intel zelf heeft dit in 90% van de gevallen een positief effect, maar daar werd niet bij verteld hoe groot dat effect was en wat er in de andere 10% van de gevallen gebeurde.

Intel I/OAT

Reliability, Availability, Serviceability

Een belangrijke eis die vaak aan een server wordt gesteld is dat deze betrouwbaar is. Dat gaat veel verder dan alleen stabiliteit; het streven is vaak 99,999% uptime, dus ook tijdens onderhoud, de meest onwaarschijnlijke hardwareproblemen, pieken van kosmische straling of zelfs calamiteiten zoals een brand moet een server in principe gewoon foutloos door blijven draaien, of in ieder geval zo lang mogelijk. Met het nieuwe Xeon MP-platform is Intel erg ver gegaan om klanten te helpen dat streven te bereiken. Qua onderhoud kunnen processors, geheugenrepen en PCI Express-kaarten al toegevoegd en verwisseld worden zonder de stroom uit te schakelen. Vrijwel alle harde schijven voor servers ondersteunen ook al hot-swapping, dus bijna het hele systeem behalve het moederbord zelf kan uit elkaar gehaald en verbouwd worden terwijl het rustig door blijft draaien.

Daarnaast is het platform in staat om op allelei manieren defecte hardware te herkennen en isoleren. ECC - Error Correcting Code - is een bekende methode om eventuele fouten die tijdens het oversturen van data onstaan op te merken en te corrigeren. Het is bij servers vrij standaard om ECC op de geheugenbus te hebben, maar uniek voor Twin Castle is dat het ook op beide FSB's zit. Verder wordt het toegepast op de PCI Express-kanalen, zodat alle belangrijke communicatiepaden gedekt zijn tegen omvallende bitjes. Als het systeem opmerkt dat een bepaald onderdeel defect is zal het deze niet meer gebruiken, en in het geval van geheugen zelfs proberen te vervangen. De geheugencontrollers kunnen tot acht defecte chips opvangen voor ze falen, en zelfs in dat geval is nog niet alle hoop verloren. Zo kan er een online spare geïnstalleerd worden om een defecte reep automatisch te vervangen en kan desnoods het hele kanaal uitschakeld worden. Om dataverlies te voorkomen kunnen alle gegevens op twee plaatsen worden weggeschreven, en met Memory RAID ingeschakeld kan dat nog voor extra performance zorgen ook. De chipset wacht overigens niet af tot het misgaat, maar is in zijn 'vrije tijd' (waarin geen opdrachten van de processors verwerkt hoeven worden) continu bezig om te controleren of het systeem nog wel foutloos werkt. Hierdoor kunnen defecten al opgelost zijn voor de software ze ooit tegenkomt.

Intel E8500 Twin Castle 4-way Xeon MP moederbord

Value MP: prijsdruk op 4-way gebied

De nieuwe Xeon MP-processors Potomac en Cranford zijn gebaseerd op de laatste stepping van de 90nm Prescott-core. Dat wil zeggen dat ze alle nieuwste features aan boord hebben, zoals 64-bits extenties, EIST (Demand Based Switching) en het XD-bit. Hoewel de Xeon MP eigenlijk de eerste chip van Intel is waarvoor EM64T nodig was, komt de ondersteuning toch rijkelijk na die van de Xeon DP en zelfs iets later dan die van de normale Pentium 4. Dit is voornamelijk te wijten aan de veel strengere validatienormen die gelden voor Intels high-end serverchips, maar mogelijk is de timing ook zo uitgevallen vanwege de intentie om chipset en processor tegelijk te introduceren. Net als zijn voorganger maakt de nieuwe Xeon MP gebruik van een mPGA4 (Socket 604) verpakking. In 2006 zal in ieder geval de dual-core Xeon DP overstappen naar het nieuwe Socket J (LGA771), maar of dat ook voor de Xeon MP gaat gebeuren is op dit moment nog niet duidelijk. Intel belooft echter een lange levensduur voor dit platform, en het zou dus wel erg zuur zijn als een upgrade naar dual-coreprocessors niet mogelijk is.

Het voornaamste verschil tussen de Potomac en Cranford is het L3-cache van de eerste. Beide chips draaien op een 667MHz FSB met 1MB aan L2-cache, maar Potomac voegt daar 4 tot 8MB L3-cache aan toe. De prijslijst komt er als volgt uit te zien:

KlokL3-cachePrijs
Potomac3,33GHz8MB$3,692
Potomac3,00GHz8MB$1,980
Potomac2,80GHz4MB$1,177
Cranford3,66GHz-$963
Cranford3,16GHz-$722

Hoewel er voor de zware Potomac nauwelijks iets verandert in het prijsmodel ten opzichte van de vorige generatie, ziet het "Value MP" segment er wel een stuk aantrekkelijker uit dan eerst. Niet alleen is de 3,16GHz Cranford de goedkoopste Xeon MP ooit, maar tevens is de kloksnelheid van de lager geprijsde versie voor het eerst even hoog tot hoger dan die van de dure uitvoeringen. Tot vandaag was het goedkoopste model een 2,0GHz-versie van $856, en werden klanten met een kleiner budget dus gedwongen om zowel cache als kloksnelheid in te leveren. Nu kan er echter voor het eerst een afweging gemaakt worden tussen cache en frequentie, zodat er vaker een gunstige prijs/prestatieverhouding uit komt rollen. Deels is deze verandering in het beleid te verklaren door het feit dat Intel voor Cranford standaard Prescott-cores kan gebruiken in plaats van afwijkende versies met L3-cache zoals voorheen het geval was. De concurrentie van de 700 tot 1500 dollar kostende Opteron 8xx-serie zal echter ook een reden zijn geweest om juist de goedkopere Xeon MP-versies aantrekkelijker te maken.

Intel Xeon MP

Het TDP van de nieuwe processors is gelijkgesteld aan dat van de Pentium 4 600-serie en de aankomende dual-core 800-serie: 130 watt. De E8500-northbridge gebruikt afhankelijk van het aantal actieve geheugencontrollers 17,9 tot 24,5 watt, en de geheugencontrollers zelf doen daar per stuk nog eens 8,5 tot 9,1 watt bovenop (waarbij DDR2 overigens zuiniger is dan DDR). Een volledig uitgebouwd 4-way systeem met de maximale geheugenconfiguratie verstookt dus alleen voor de genoemde onderdelen al meer dan 580 watt, ongeveer de helft meer dan een soortgelijk Opteron-systeem. Deze factor zal voornamelijk een rol spelen voor bedrijven die waarde hechten aan de fysieke dichtheid van hun serverpark.

Tegenstrijdige benchmarks

Hoewel we zelf helaas geen Xeon MP-server hebben gekregen om mee te spelen, hebben we inmiddels wel uit drie verschillende bronnen (IBM, Dell en Intel) informatie binnengekregen over de performance van het nieuwe platform. Deze bronnen kunnen uiteraard niet objectief worden genoemd, omdat ze de processors en servers die ze testen tegelijk ook proberen te verkopen, maar de resultaten kunnen wel een indicatie geven van wat er te verwachten valt.

Intel zelf claimt dat Truland 7 tot 65% winst ten opzichte van het vorige platform oplevert. Op het eerste gezicht ziet dat er goed uit, maar bij nadere inspectie blijkt dat de twee hoogste resultaten afkomstig zijn van synthetische tests, terwijl de twee laagste scores juist vallen in de meer realistische benchmarks, gebaseerd op het soort applicaties dat deze systemen in de praktijk zouden kunnen gaan draaien. Andere benchmarks van Intel (die we helaas niet mogen publiceren) tonen wel aan dat de snellere en verdubbelde FSB in combinatie met het grotere L3-cache de schaalbaarheid van het platform significant verbeteren, wat wil zeggen dat de performance van een 4-way systeem nu dichter bij het dubbele van een 2-way systeem ligt dan voorheen. Waarom deze verbetering niet goed terug te zien is in de 'echte' benchmarks is niet geheel duidelijk, maar kennelijk zitten de bottlenecks daar op andere plaatsen.

Xeon MP Truland-platform (index 100 = vorige generatie)
SPECfp_rate_base2000 165
Linpack 157
TPC-C SQL (64GB geheugen) 130
SPECint_rate_base2000 120
TPC-C SQL (32GB geheugen) 115
SPECjbb2000 110
SAP 107

De eerste controversie in de benchmarks komt direct al met het tweede datapunt. In de aankondiging van de nieuwe Dell PowerEdge 6850 wordt namelijk een performancewinst van 32% gegeven voor SPECjbb2000 ten opzichte van de vorige generatie, terwijl Intel die zelf maar op 10% heeft geschaald. Welke van de twee dichter bij de waarheid zit is onbekend, maar het verschil tussen de resultaten van Intel en Dell is opvallend genoeg om nog wat extra zout op de rest van de benchmarks te scheppen.

SPECjbb2000 (4-way servers, ops/s)
IBM Power5 1,9GHz 170127
Xeon 3,6GHz - IBM 167515
Xeon 3,3GHz/8MB - Dell 155780
AMD Opteron 2,4GHz 147301
Xeon 3,0GHz/4MB - Dell 118031
Itanium 2 6M 1,5GHz 116466

Hoewel IBM het niet specifiek over het Truland-platform heeft gehad, brengt het wel een extra discussiepunt op tafel met zijn X3 'Hurricane'-chipset voor de nieuwe serie processors. Met deze chipset claimt het bedrijf een winst van 37% in TPC-C, net als Dell dus meer dan Intel zelf. Het opvallende is alleen dat IBM deze winst heeft gehaald met de goedkope Cranford-processors. Volgens het bedrijf is de X3-chipset zo efficient (ondere andere dankzij een bus snoop filter en sterk verlaagde geheugenlatency) dat de duurdere Potomac-chip met zijn grote L3-cache geen betere performance meer kan bieden. Benchmarks van Intel zelf - die we helaas ook niet mogen publiceren - beweren echter dat het L3-cache van de Potomac tot enkele tientallen procenten winst oplevert ten opzichte van de goedkopere Cranford. Het is onmogelijk om te weten of IBM het nut van L3-cache bagatelliseert, Intel het overdrijft, en/of de X3 echt zo ontzettend veel beter is dan de E8500, maar wederom werpen de benchmarks meer vragen op dan ze beantwoorden.

TPC-C performance - quad processor servers (TpmC)
IBM eServer p5 570Power5 1,9GHz 194391
HP Integrity rx4640Itanium 2 1,6GHz 161217
IBM eServer xSeries 366Xeon MP 3,6GHz 150704
HP Integrity rx5670Itanium 2 6M 1,5GHz 136111
HP ProLiant DL585Opteron 852 2,6GHz 130623
HP ProLiant DL585-G1Opteron 850 2,4GHz 123027
IBM eServer xSeries 365Xeon MP 3,0GHz 102667

Conclusie - Update

Hoewel de benchmarks van verschillende bedrijven nogal wat tegenstrijdigheden vertonen, kunnen we er toch wel een conclusie aan verbinden. Intel heeft met Truland duidelijk een grote inhaalslag gemaakt. Echter, de voornaamste reden dat die slag zo groot is, is omdat de laatste nieuwe processor in de Xeon MP-serie een vol jaar geleden uitkwam en de oude FSB zelfs nog uit 2002 stamt. De E8500 heeft meer dan genoeg features en lijkt op dit moment ook weer krachtig genoeg om mee te doen met de concurrentie, maar de chipset moet nog wel een paar jaar meekunnen. De kans bestaat dan ook dat deze voor het einde van zijn levensduur weer achterop zal raken, waarbij het grootste potentiële struikelblok de dual-coreprocessors zijn. De drievoudige bandbreedte zal met deze chips meer een bittere noodzaak dan een luxe worden. Intel lijkt op het gebied van FSB echter nog wel speelruimte te hebben: de Xeon DP heeft bewezen dat een bus met twee processors naar 800MHz kan. Wellicht komt er een revisie van Truland uit op het moment dat de Xeon MP Paxville (90nm) of Tulsa (65nm) verschijnt.

De IBM X3-chipset met soortgelijke features als de E8500 (dubbele FSB op 667MHz, quad channel geheugen) lijkt het een stuk beter te doen door juist lagere in plaats van hogere latencies te bieden ten opzichte van de vorige generatie. En of het nou waar is of niet dat Potomac geen extra winst kan bieden op deze chipset, de resultaten die het bedrijf met de goedkope Cranford-processors neerzet zijn veelbelovend. Aan de ene kant zal Intel hier niet zo heel blij mee zijn, omdat ze liever de dure Potomacs en hun eigen chipsets verkopen. Aan de andere kant zien ze echter ook nog altijd liever een Cranford dan een Opteron over de toonbank gaan, dus wat dat betreft hebben ze niet te klagen over IBM's alternatieve chipset.

IDF 2005 - Twin Castle server

De volgende revisie van het Xeon MP-platform staat gepland voor 2007 en zal fundamenteel anders zijn dan alles wat Intel tot nu toe heeft gemaakt. De zogenaamde CSI (Common System Infrastructure) bestaat uit geïntegreerde FB-DIMM geheugencontrollers en op PCI Express gebaseerde interconnects om de FSB te vervangen. Om vier processors met elkaar samen te laten werken zal dan geen northbridge meer nodig zijn, en iedere processor die wordt toegevoegd zal ook extra bandbreedte met zich meebrengen, precies zoals nu al met Opterons het geval is. CSI zal zowel gebruikt worden door de Xeon MP Whitefield als door de Itanium Tukwila. De IA-64 en x86-64 architecturen zullen dan niet alleen worden verenigd qua chipset en socket, maar zelfs naast elkaar in hetzelfde systeem kunnen draaien.

Tot CSI verschijnt zal de E8500 in Intels chipsetassortiment aan kop staan. Bijgestaan door concurrent-partners als IBM moet de Xeon MP daarmee kunnen overleven, zeker nu Intel met de snelle Cranford-processors heeft toegegeven aan de prijsdruk van AMD. Of het genoeg is om de gestage opmars van de Opteron in 4-way serverland tot stilstand te brengen kunnen we alleen maar raden, maar het is in ieder geval te hopen dat beide bedrijven elkaar scherp zullen blijven houden.

Update (1-4-2005):

  • Pagina 1: Correcte afkortingen voor IMI en XMB toegevoegd
  • Pagina 1: Informatie over geheugencontrollers herzien (blijkt feitelijk 8-channel te zijn)
  • Pagina 4: Stroomverbruik van Xeon MP en chipset toegevoegd
  • Pagina 5: SPECjbb2000-resultaat IBM toegevoegd
  • Pagina 5: Verbeterde score IBM in TPC-C doorgevoerd
  • Pagina 6: Conclusie licht bijgeschaafd naar aanleiding van nieuwe informatie

Reacties (23)

Wijzig sortering
Wat is het verbruik van deze processoren ongeveer? De Opteron is namelijk ligt gedaald met de laatste serie naar zo'n 85watt voor het snelste model als ik het me goed herinner.

De Prescott kennende en kijkend naar de 8mB L3 cache zal deze processor wel weer veel energie verbruiken en veel warmte produceren. Het moet natuurlijk wel allemaal koelbaar blijven in die serverhokken.
De basis is een 3,33GHz Prescott, die tegenwoordig rond de 70 watt gemaakt moet kunnen worden (aangezien binnenkort een dual-core 3,2GHz Smithfield uitkomt op 130 watt). Cache is een van de zuinigste delen van de chip, bij de Itanium (9MB) is dat in ieder geval maar een klein percentage van het verbruik. Een vermogen van 90~100 watt lijkt me dus wel een goede (realistische en ruime) schatting. Voor de 3,66GHz Cranford gaat het waarschijnlijk nog wel over de 100 watt heen, dus het is mogelijk dat Intel weer gewoon voor de hele serie een plafond van 115 watt instelt. Datasheet zal binnenkort wel verschijnen.
nouja, je doet of t weinig is...4x100w plus de rest is al gouw 800watt...moet je toch ruim 2 liter benzine verstoken per dag :+ zo'n server verbruikt dus netzoveel als mn auto

(binas: benzine-99oct: 33x10^9 J/m^3)
Uhm, wel iets minder hoor... nu ga je er namelijk vanuit dat jouw auto die benzine ook met een rendement van 100% omzet in bewegingsenergie, terwijl dit in werkelijkheid maar iets van 25-30% is...
om er geen gigantische hoeveelheid berekeningen achter te gooien, maar volgens het gewone verstand kan de berekening van rapzar niet kloppen. hij staat namelijk te verkondigen dat zijn auto de helft minder energie omzet als mijn stofzuiger (en die is 1800 watt) en ook als mijn frituurpan. ik denk niet dat je die auto ook echt ver weg krijgt met 800 watt aan energie
Bij de vergelijking van de "bandbreedte per processor" is het 3.2GB/s van Opteron<->geheugen niet meegerekend. Alleen de hypertransportbus. Bij de Xeon moet ook al het geheugenverkeer door de FSB.
Nee, juist alleen de bandbreedte naar het geheugen is meegerekend, dat is 6,4GB/s (dual channel DDR-400) De Hypertransportbussen brengen daar per stuk nog 4GB/s bij, wat bij de Opteron 8xx dus in totaal 18,4 GB/s wordt.
Ik denk dat Intel nu echt klappen gaat vangen. AMD had met de Opteron al twee jaar geleden een moderner systeem dan dit. Intel gaat in 2006 pas werken met NUMA, waar ze waarschijnlijk niet zo veel aan zullen hebben. MS zal namelijk niet zo een twee drie een nieuw SP speciaal voor Intel gaat uitbrengen om hun NUMA te supporten. Windows 2003 SP1 werkt echter wel al met de NUMA van de Opteron.

Even een paar dingen die ik niet echt voordelig vind:
- Lage geheugenbandbreedte. 2.7GB/s voor de Xeon vs 6.4GB/s voor de Opteron.
- 2 CPU's op één geheugenbus (gaat samen met 1). Dit is een techniek die AMD vroeger bij de AthlonMP gebruikte, en nu bij de budget Opteron systemen gebruikt. Dit is echter een no-go voor een echte server, omdat je nu enkel wat extra rekenkracht hebt, maar verder geen extra performance. Het grote voordeel van dual CPU is en de extra rekenkracht, maar zeker ook de extra geheugenbandbreedte.
- meer geheugenlatency door extra chip tussen geheugen en CPU. Ipv de Opteron die direct met het geheugen lult, zitten er nu 2 chips tussen (northbridge en die XMB).
- Maar 28 PCIe lijnen. Dus niet genoeg om 2 16x PCIe vga-kaarten te draaien zoals met de Tyan Thunder K8WE (S2895) voor de Opteron kan.
- Geen SATA. Dit klinkt niet als een gemis misschien, maar hierdoor zal Intel een stuk minder terug te vinden zijn in bijv workstations of de wat meer budget servers.
Hmmm... echt een "ik heb de klok horen luiden maar weet niet waar de klepel hangt" reactie.

Het gaat hier over de Xeon MP en jij neemt het woord workstation in de mond en als klap op de vuurpijl ga je het er uiteindelijk ook nog mee vergelijken. |:(
Tevens ga je met Xeon MPs al geen low-budgetservers bouwen (niet dat het kan trouwens).

S-ATA in een flinke server is leuk, maar daar zitten mensen echt niet om te springen hoor.
2 16x PCIe graka's .... leuk in je 4 way Xeon MP .... kun je d'r mooi op gamen :Y)

Ik kan je eigenlijk wel op ieder punt onderuit gaan halen hier, maar ik denk dat je zelf wel weet hoe fout je zit met jou reactie.
2 16x PCIe graka's .... leuk in je 4 way Xeon MP .... kun je d'r mooi op gamen
Je kunt meer met een moderne grafische kaart dan gamen.
Bij Astron gebruiken ze de GPU's als super snelle (en goedkope) DSP's om de ontvangen data van de schotels te verwerken. Nu met PCIe zou je die data ook weer rap uit de kaart kunnen lezen en hoef je die dus niet meer van de DVI-aansluiting af te tappen.
De Xeon MP's met 8MB cache zullen waarschijnlijk dicht in de buurt van of beter dan de snelste Opteron 800-serie processors presteren. De Opteron bereikt het prestatiemanier op een efficiëntere manier (zonder een bootlading aan cache). Voor eindgebruikers is dat echter niet relevant. De prijs van de snelste Xeon MP's is wel hoger, dus dat zal een aantal klanten overhalen om 4-way Opterons aan te schaffen.

Voor zware visualisatiesystemen die meerdere PCI Express-videokaarten kunnen gebruiken is de Opteron nu wellicht interessanter vanwege het grotere aantal PCI lanes van de nForce Pro 2200/2050 chipset. De 4/8-way plankenset van Tyan heeft overigens 'slechts' twee PCIe x8 slots. Voor servers is 28 PCI lanes voldoende. RAID-adapters hebben doorgaans een PCIe x8-interface en andere soorten PCIe-kaarten zullen daar niet overheen gaan.
Deze maniet vandoen is gewoon latency offeren voor bandbreette, aangezien niet enkel de bandbreette word verhoogd, maar onvermijdelijk door de dubbele fsb en de apparte geheugen controller ook de latency.

De benchmarks zullen dus heel verschillende beelden kunnen gaan geven in welke de snelste is, in games zal de opteron winnen. :)

Wel leuke dat de muren tussen itaniums en de rest van de wereld ooit worden afgebroken, laat ons bidden dat het niet te laat is.

Ik snap niet waarom intel zoveel geld steekt in ontwikkeling van die I/O, ze zouden zo bij HT kunnen. En anders kunnen ze de techniekjes van rambus kopen....ik snap niet waarom intel toch zo moeilijk doet.
Ik snap niet waarom intel zoveel geld steekt in ontwikkeling van die I/O, ze zouden zo bij HT kunnen. En anders kunnen ze de techniekjes van rambus kopen....ik snap niet waarom intel toch zo moeilijk doet.
Een processor voorzie je niet zomaar van een geïntegreerde geheugencontroller en een ander soort FSB of I/O link. Het verdubbelen van de FSB was waarschijnlijk de makkelijkste oplossing om de bandbreedte te verhogen.

In de toekomst wil Intel blijkbaar PCI Express gaan gebruiken om processors te verbinden. PCIe is een industrie-standaard. Met gaat dus niet moeilijk doen door een nieuw soort interconnect te ontwikkelen.
In de toekomst wil Intel blijkbaar PCI Express gaan gebruiken om processors te verbinden. PCIe is een industrie-standaard. Met gaat dus niet moeilijk doen door een nieuw soort interconnect te ontwikkelen.
CSI zal niet letterlijk PCI Express zijn. Op zijn minst zullen ze het protocol vervangen c.q. zwaar optimaliseren voor cache coherentie mechanieken, maar ze zullen waarschijnlijk ook de nieuwe 5GHz- en misschien zelfs de geplande 10GHz-versie van de fysieke laag gebruiken in plaats van de huidige 2,5GHz-versie. Ook daar zouden ze nog kunnen afwijken van de standaard door bijvoorbeeld te tunen voor korte afstanden. Hoe dan ook zullen ze niet voor het normale PCIe gaan omdat ze anders de macht verliezen om te bepalen welke chipset- en CPU-bakkers er gebruik van mogen maken.

De reden om dan toch wel voor iets te gaan dat veel op een bestaande standaard lijkt is omdat alle systeembussen (CSI, PCIe, FB-DIMM, misschien nog meer) straks dezelfde elektrische eigenschappen krijgen, iets wat het leven van moederbordontwerpers een stuk makkelijker maakt. Die moeten nu zo onderhand voor ieder stukje moederbord een aparte stroomvoorziening aanleggen.
Dat latency-probleem zal wel mee vallen van wege de grote L3-cache van de Potomac.
Eigenlijk komt dit juist goed uit voor intel, omdat de prestatieverschillen tussen de Potomac's en de Cranford's toenemen.
Je kunt niet zomaar latency inleveren en daardoor grotere bandbreedte creeren. Intel moest wel, zoals je in het artikel kunt lezen, om in de toekomst dan ook op een simpele manier andere geheugen varianten snel aan het platform (wat het nu toch is: Truland, zoiets als het Centrino platform) toe te voegen. Dankzij het XMB kan men dus in de toekomst zomaar overstappen op DDR2-667 wat dan weer een hogere geheugenbandbreedte opleverd, zeker omdat we het hier (doorgaans) over quad-channel hebben. En dit zonder a) een nieuwe chipset te ontwerpen en b) de klant weer een nieuwe server moet kopen, er is dus meer speling om in de toekomst hier en daar je server nog wat op te voeren, wat de klanten zeker blij zal maken.
Nu de xeon MP's per 2 op een bus zitten en de zelfde socket hebben als de DP zou het wellicht mogelijk zijn DP's in quad aan de praat te krijgen.
Intel kennende zullen ze hier wel iets voor bedacht hebben zodat het niet zal werken en de zware thuis gebruiker weer alleen kan dromen van zo'n apparaat.
Het lijkt wel alsof ze gewoon een soort dual core versie van hun DP northbridge hebben gemaakt.
dus volgens die allereerste benchmark is de Pentuim 4 XE sneller als een opteron? :r
Nee, beter kijken. Volgens de eerste tabel heeft de Pentium 4 XE de hoogste geheugenbandbreedte van alle single processor systemen. 'Hoogste geheugenbandbreedte' betekent lang niet altijd 'snelste processor'.
Zie ik dat goed? een 266MB/s verbinding met de southbridge? Zelf budget SIS chips hebben al jaren een 1GB link.
Desktopborden gebruiken de PCI (Express)-bus van de southbridge en sluiten daar ook andere randapparatuur op aan (ethernet, audio, ATA, enz.). Bij E8500 loopt al het PCIe/PCI-X verkeer via de northbridge, waardoor een snelle verbinding met de southbridge niet nodig is.

Op dit item kan niet meer gereageerd worden.


Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Smartphones

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True