Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 21 reacties
Bron: Real World Technologies

De mensen van Real World Tech hebben in een Intel-presentatie gedetailleerde informatie aangetroffen over Tukwila, een versie van de Itanium die als alles volgens plan gaat in 2008 ge´ntroduceerd wordt. De specificaties zijn niet alleen interessant vanwege de processor zelf, maar vooral ook vanwege de details die er over de post-FSB systeeminfrastructuur worden gegeven. De Tukwila is een highend serverchip met vier cores en 6MB cache per core (totaal 24MB). Aan het beloofde prestatieniveau van 40 gigaflops per socket valt af te leiden dat men zich op een kloksnelheid van 2,5GHz richt. Al eerder is bekendgemaakt dat de chip op 65nm gebakken zal worden.

De Tukwila krijgt een ge´ntegreerde geheugencontroller die vier FB-DIMM-kanalen aanstuurt. Uitgaande van DDR2-800 zou dat 25,6GB/s aan geheugenbandbreedte per socket opleveren, een flinke vooruitgang ten opzichte van de gedeelde 10,6GB/s bus waar de huidige generatie, alsook Montecito, het mee moet doen. Tukwila's zullen direct met elkaar kunnen praten via een HyperTransport-achtig systeem dat onder de voorlopige naam CSI bekend staat. Iedere processor krijgt vier CSI-links voor communicatie met andere chips en daarnaast nog twee 'half-width' links voor externe I/O. CSI werkt full duplex en ondersteunt snelheden van 4,8 en 6,4GT/s. Omdat nog niet duidelijk is hoe breed de links zijn kan de bandbreedte nog niet met zekerheid bepaald worden, maar 8 bit brede interconnects zouden al 64GB/s op kunnen leveren. Met 16 bits (net als HyperTransport) zou dat 128GB/s zijn.

Tukwila

Met CSI kunnen tot zestien processors 'glueless' (zonder hulp van een chipset) aan elkaar worden geknoopt. Een van de problemen die bij dit soort grote systemen zonder hulpchips komt kijken is de schaalbaarheid van het systeem om de caches synchroon te houden. Voor een core een bepaald stuk data kan gebruiken moet gecontroleerd worden of het niet door een andere core of processor gewijzigd is. De meest eenvoudige manier om dit te doen is door stomweg alle andere cores te vragen of ze iets met die data gedaan hebben. Voor een systeem met 64 cores die ieder tientallen gigabytes per seconde kunnen verwerken wordt dat echter een enorme stortvloed aan verkeer, genoeg om de prestaties ernstig onderuit te trekken.

De Tukwila lost dit probleem op door een onboard router en directory. In de directory wordt precies bijgehouden welke core met welk stuk data bezig is, zodat niet steeds opnieuw iedere core lastiggevallen hoeft te worden. Routers zorgen ervoor dat het CSI-netwerk niet te snel overbelast raakt, door gegevens alleen de relevante kant op te sturen in plaats van deze te broadcasten. Hoewel dit soort technieken sowieso interessant zijn voor highend servers, zal het uiteindelijk ook zijn weg vinden naar de gewone Xeon. Verwacht wordt dat serverchips gebaseerd op Nehalem (de opvolger van de Core-architectuur) net als Tukwila op CSI zullen inhaken, en ook in hetzelfde socket zullen passen. In principe zal het zelfs mogelijk worden om Xeons en Itaniums naast elkaar op hetzelfde moederbord te draaien.

Moderatie-faq Wijzig weergave

Reacties (21)

Ik heb het idee dat het idee voor gelijke sockets voor de Itanium en de Xeon niet "Een Xeon past straks in een Itanium socket" is, maar precies andersom. Nu verkopen de Itaniums relatief slecht. Als je straks een Itanium in een Xeon socket kan stoppen kan dat mooi als upgrade pad dienen. Xeon servers worden bij bosjes verkocht. Als een bedrijf meer capaciteit nodig heeft dan de Xeon kan leveren, kunnen ze de Xeons vervangen door Itanium en de investering in de overige hardware behouden.
Het kan inderdaad beide richtingen op werken. Intels doel is om Itanium twee keer zoveel prestaties voor hetzelfde geld te laten bieden als een Xeon. Serverbouwers kunnen in ieder geval veel kosten en tijd besparen als ze maar ÚÚn ontwerp nodig hebben voor beide processors, en de markt moet dan maar bepalen met welke chips ze die sockets gaan vullen. Het al dan niet overleven van Itanium wordt zo een direct gevolg van zijn prestaties tegenover de Xeon.
en na die upgrade van Xeon naar Itanium moet dan ook alle software vervangen worden van de x86 naar de Itanium versie wat misschien toch wat problemen met zich zou kunnen meebrengen
Als ik het goed begrijp kan er nu dus gesteld worden dat Intel eindelijk de achterstand op AMD m.b.t. de Hypertransport probeert in te halen?

Omdat AMD al naar Hypertransport 3.0 gaat (met de nodige extra's) lijkt het mij logisch dat AMD naar een soortgelijk oplossing toe gaat als Intel nu toont in zijn presentatie en volgens mij was dit ook te leiden uit een post een paar weken terug over HTT 3.0 en de roadmap van AMD.

EDIT: Beetje kansloos dat iedere reactie op dit nieuwsbericht waarin het woord "AMD" of "HyperTransport" voorkomt als off-topic wordt gemodereert. Dit is vergelijkbaar als een discussie over Crossfire waar SLI bij wordt gehaald. Kennelijk mag dit niet; jammer!
Er gaan geruchten dat AMD een vierde link gaat toevoegen in K8L en HyperTransport 3.0 zal de maximale datarate opvoeren tot 5.2GT/s (maar of dat gedaan wordt is een tweede - de huidige standaard ondersteunt ook meer dan de K8 gebruikt). CSI ziet er qua datarate en aantal links net iets beter uit en Intel kan dus inderdaad een enorme inhaalslag maken, mits het niet verder uitgesteld wordt en de breedte van de links niet tegenvalt.
En niet alleen op gebied van HT: wat dacht je van de geitegreerde memcontroller?? Ook dat heeft Intel duidelijk overgenomen van AMD! Betekent meteen dat iedereen die zei dat dit geen voordeel was van AMD tov Intel nu door Intel zelf terecht wordt gewezen!
Serverprocessors als Power, Sparc, PA-RISC en Alpha hadden allemaal al ge´ntegreerde geheugencontrollers voor AMD ermee begon. Het is dus een beetje onzin om te zeggen dat Intel het van AMD heeft overgenomen, het is gewoon een algemene industrietrend.
FB-DIMM is iets waar intel al jaren aan aan het werk is hoor, waarschijnlijk al sinds voor dat AMD met de A64 op de markt kwam...
@knirfie: Ik vind het beetje hopeloos om allerlei kreten te schreeuwen waarvan 1% waarheid is. Post wat als je de feiten weet. Weet je het niet zeker zoek het op. FB-DIMM is alleen parallel data (van DDR geheugen) serieel overzenden. Zo heeft de mem controller een encoder/decoder-chip die het serieel vertaald en elk geheugenplakje heeft weer een encoder/decoder-chip zodat die het weer kan omzetten naar parallel. Intel is inderdaad al lang bezig met FB-DIMM. Moederbord layouts etc worden simpelere erdoor. Intel was echter niet van plan om geheugen controller op de CPU te doen. Nu dus blijkbaar wel. Dit staat dus los van FB-DIMM of wat dan ook... DDR zegt ook niets alsof AMD onboard mem controller wou of niet...

Trouwens ik betwijvel alsof Intel al toen met FB-DIMM bezig was. Zo'n CPU ontwerp duurt jaren. Intel was paar jaar terug begonnen. Amd was toen allang bezig met zijn K8 te ontwerpen. Maar dat staat helemaal los hiervan...
De vergelijking met de Hypertransport Bus met de techniek vna Intel, vind ik persoonlijk niet echt erg sterk. De Itaninium is totaal een andere cpu en ook voor een totaal andere markt bedoeld dan waar de AMD's zijn plek hebben. CSI (zouden ze mikken op populairiteit van ÚÚn of ander tv-programma???) Is techniek die zo het er naar laat uit zien op een ander niveau zich afspeelt.

DAARNAAST : CSI werkt van CPU naar CPU en niet van CORE naar CORE zoals hypertransport word ingezet (Naast de andere doelen van CPU naar CPU en soms ook richintg chipset)
HyperTransport werkt niet van core naar core, dat verkeer loopt via de system request interface. Een vergelijking tussen CSI en de infrastructuur van AMD is zeker wel interessant omdat de Xeon het ook gaat gebruiken, maar het is gewoon moeilijk omdat er te weinig bekend is over de toekomstplannen van AMD.
Je post wordt offtopic gemod omdat je A ) over een heel ander merk begint te discussieren. en B ) Je appels met peren aan het vergelijken bent.

AMD heeft helemaal geen echte concurrent voor de Itanium.

CSI wordt bij intel pas in 2008 ingezet voor hun high-end server platform. Terwijl AMD HyperTransport al lang gebruikt in hun high-end desktop tot server processoren. Wie weet waar AMD is over 2 jaar...
Uitgaande van DDR2-800 zou dat 25,6GB/s aan geheugenbandbreedte per socket opleveren
Tegen 2008 zal de bandbreedte toch wel hoger liggen dan DDR2-800? Of verwacht ik nou te veel?
Beschikbaar zijn wil nog niet zeggen dat het ook voor highend servers gebruikt wordt :). Vaak is de hoeveelheid geheugen belangrijker dan de snelheid, en dan komt de prijs per megabyte om de hoek kijken, die voor nieuwe soorten geheugen meestal niet echt goed is. Ook wordt er altijd veel langer en uitvoeriger getest voor men het genoeg vertrouwt.

Het mooie aan FB-DIMM is dat de klant zelf kan kiezen wat voor soort modules (DDR2 of tegen die tijd misschien DDR3) hij wil gebruiken, en niet door de processorleverancier gedwongen wordt.
dat is natuurlijk wel zo maar dan moet de verbinding van FB-dimm controler naar CPU/northbridge natuurlijk ook genoeg bandbreedte blijven houden om volledig gebruikt te kunnen maken van de snelheid van het nieuwere geheugen.
zo maar even upgraden zal er dus wel weer niet bij zijn.
echt veel voordelen boven een directe controle heeft het dus ook weer niet.
het grootste voordeel is dat je niet zo veel verbindingen hoeft te hebben op het mobo om 4 channel geheugen te gebruiken, omdat dat allemaal op de geheugen modules geregeld word, en je alleen dus nog maar de relatief kleine FB-dimm links hoeft te leggen.

AMD heeft iniedergeval al een on-board ddr3 in de planning staan voor 2008.
de latency daarvan zou iniedergeval een stuk lager moeten zijn als die van FB-dimm ddr2 of 3
AMD gaat net zo goed naar FB-DIMM voor de Opteron. Directe ondersteuning voor DDR3 staat alleen voor notebooks en desktops op de planning.
mmmh "geen" speciale northbridge meer nodig bij MP Platforms :)
Niet bij alle MP platforms. De Xeon zal het denk ik nog wel even moeten stellen met een NB.

Een tijdje terug hier gelezen dat Intel de Xeon en Itanium op het zelfde moederbord willen uitbrengen (zelfde Socket??). Mocht dit zo zijn dan moet het hele ontwerp van de Xeon worden aagepast omdat die dan nog geen CSI heeft.
ten tweede de mogelijkheid opent om Xeon- en Itanium-chips op dezelfde moederborden te gebruiken, eventueel zelfs tegelijkertijd. Samen met Tukwila is echter ook CSI uitgesteld naar 2008, waardoor de voor 2007 geplande quad-core Xeon MP 'Whitefield' ineens geen infrastructuur meer had.
Jammer dat er geen linkje bij staat naar AMDs (en anderen) tegenhanger, Hypertransport 3.0.

Over CSI kan je meer info vinden in de gerelateerde nieuwsberichten (zie hierboven).

Over Hypertransport 3.0 versus CSI is er een (speculatief) artikel te vinden op The Register, maar dat is ondertussen al bijna vijf maanden oud. Daarin stellen ze dat CSI beter is dan Hypertransport. Daar tegenover staat dat Hypertransport 1.0 & 2.0 er nu al zijn, wat Hypertransport 3.0 meer kans op slagen geeft, aangezien deze volledig backwards compatible zou zijn.

Het is in ieder geval nog toekomstmuziek, zowel CSIs introductie als de eerste Hypertransport 3.0 serverchip worden pas begin 2008 verwacht. Ondertussen heeft AMD op dit vlak de overhand over Intel met Hypertransport (1.0 & 2.0).
Het is niet echt zinvol om Intels complete infrastructuur te vergelijken met de door AMD gebruikte verbindingstechnologie. De snelheid die door de standaard wordt ondersteund is niet noodzakelijk bruikbaar voor een Opteron, en aan zaken als routers/directories, het aantal links en de net zo belangrijke geheugencontroller(s) gaat het volledig voorbij.

Je hebt wel een punt als je zegt dat AMD door incrementele verbeteringen aan te brengen minder risico loopt dan Intel door CSI in een klap in te voeren in een zÚÚr veeleisend marktsegment. Maar goed, met een groot deel van het Alpha-team aan boord is er wel de nodige ervaring aanwezig op dat vlak.
cool ken ik eindelijk wolfenstein 3d draaien :+

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True