De mensen van Real World Tech hebben in een Intel-presentatie gedetailleerde informatie aangetroffen over Tukwila, een versie van de Itanium die als alles volgens plan gaat in 2008 geïntroduceerd wordt. De specificaties zijn niet alleen interessant vanwege de processor zelf, maar vooral ook vanwege de details die er over de post-FSB systeeminfrastructuur worden gegeven. De Tukwila is een highend serverchip met vier cores en 6MB cache per core (totaal 24MB). Aan het beloofde prestatieniveau van 40 gigaflops per socket valt af te leiden dat men zich op een kloksnelheid van 2,5GHz richt. Al eerder is bekendgemaakt dat de chip op 65nm gebakken zal worden.
De Tukwila krijgt een geïntegreerde geheugencontroller die vier FB-DIMM-kanalen aanstuurt. Uitgaande van DDR2-800 zou dat 25,6GB/s aan geheugenbandbreedte per socket opleveren, een flinke vooruitgang ten opzichte van de gedeelde 10,6GB/s bus waar de huidige generatie, alsook Montecito, het mee moet doen. Tukwila's zullen direct met elkaar kunnen praten via een HyperTransport-achtig systeem dat onder de voorlopige naam CSI bekend staat. Iedere processor krijgt vier CSI-links voor communicatie met andere chips en daarnaast nog twee 'half-width' links voor externe I/O. CSI werkt full duplex en ondersteunt snelheden van 4,8 en 6,4GT/s. Omdat nog niet duidelijk is hoe breed de links zijn kan de bandbreedte nog niet met zekerheid bepaald worden, maar 8 bit brede interconnects zouden al 64GB/s op kunnen leveren. Met 16 bits (net als HyperTransport) zou dat 128GB/s zijn.

Met CSI kunnen tot zestien processors 'glueless' (zonder hulp van een chipset) aan elkaar worden geknoopt. Een van de problemen die bij dit soort grote systemen zonder hulpchips komt kijken is de schaalbaarheid van het systeem om de caches synchroon te houden. Voor een core een bepaald stuk data kan gebruiken moet gecontroleerd worden of het niet door een andere core of processor gewijzigd is. De meest eenvoudige manier om dit te doen is door stomweg alle andere cores te vragen of ze iets met die data gedaan hebben. Voor een systeem met 64 cores die ieder tientallen gigabytes per seconde kunnen verwerken wordt dat echter een enorme stortvloed aan verkeer, genoeg om de prestaties ernstig onderuit te trekken.
De Tukwila lost dit probleem op door een onboard router en directory. In de directory wordt precies bijgehouden welke core met welk stuk data bezig is, zodat niet steeds opnieuw iedere core lastiggevallen hoeft te worden. Routers zorgen ervoor dat het CSI-netwerk niet te snel overbelast raakt, door gegevens alleen de relevante kant op te sturen in plaats van deze te broadcasten. Hoewel dit soort technieken sowieso interessant zijn voor highend servers, zal het uiteindelijk ook zijn weg vinden naar de gewone Xeon. Verwacht wordt dat serverchips gebaseerd op Nehalem (de opvolger van de Core-architectuur) net als Tukwila op CSI zullen inhaken, en ook in hetzelfde socket zullen passen. In principe zal het zelfs mogelijk worden om Xeons en Itaniums naast elkaar op hetzelfde moederbord te draaien.