Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 36, views: 12.345 •

De nieuwe generatie Itanium-processors zullen niet begin dit jaar, maar halverwege 2009 verschijnen, zo heeft Intel bekendgemaakt. De reden is dat de fabrikant de Tukwila-serverchips van meer features wil voorzien, zodat de cpu's bij de tijd blijven.

"We hebben het releaseschema bijgewerkt om een aantal voordelen voor de eindgebruiker en ontwikkelmogelijkheden toe te kunnen voegen", vertelt Susan Tauzer, verantwoordelijk voor de marketing bij Intel, aan IDG. De fabrikant wil de nieuwe processors, met de codenaam Tukwila, voorzien van geheugentechnologie genaamd scalable buffer memory. Deze onboard-component kan de communicatiekanalen tussen de cpu en het ddr3-geheugen zodanig manipuleren, dat de limiet van de maximale hoeveelheid geheugen waarmee de chip overweg kan, opgerekt wordt. Ook neemt de bandbreedte waarmee de quadcore-processor met het geheugen communiceert, toe. Verder wil Intel ervoor zorgen dat de chips socket-compatible zijn met de huidige generatie Itanium-cpu's.

De Tukwilla-processor zal over in totaal 30MB on-die cache beschikken; de nieuwe generatie Itaniums kunnen acht threads tegelijk afhandelen. Net als Nehalem communiceren de vier cores onderling via QuickPath-links. Volgens Intel zal de kloksnelheid maximaal 2GHz bedragen en zal de chip bestaan uit maar liefst twee miljard transistors. Oorspronkelijk had de nieuwe Itanium-generatie nog in 2008 moeten verschijnen, maar de releasedatum werd vorig jaar al verschoven naar begin dit jaar. Het nieuwe uitstel zorgt ervoor dat de claim van de fabrikant dat Tukwila dubbel zo snel wordt als de huidige dualcore-Itaniums uit de 9100-serie, opnieuw aan kracht verliest. De Tukwila wordt overigens op 65nm gebakken: Intel slaat bij deze cpu het 45nm-stadium over en zal de volgende generatie, met de codenaam Poulson, op 32nm fabriceren.

Tukwila

Reacties (36)

65nm? Is dat niet achterhaald? En meer warmte, wat slecht is in een serveromgeving?
dat is ook waar ik aan dacht
misschien is dat voor de itanium processoren wel normaal omdat dat waarschijnlijk met een techniek gebeurt die zichzelf al bewezen heeft.

Verder vraag ik me af waarom niet snel releasen en dan in de tweede helft een update doen? het lijkt mij dat je dan meer kunt verkopen
Deze chip wordt echt gigantisch, blijkbaar vinden ze hun 45nm proces toch nog niet goed genoeg om daar zo een grote server chip (yields, kortere levensduur) op te maken.

Stabiliteit, kwaliteit en levensduur is bij servers veel belangrijker.

Daarnaast kan je weinig zeggen over het verbruik, 65nm Core2's zijn bijvoorbeeld ook redelijk zuinig.

@Ron.IT - De (meer dan 2, waarschijnlijk) 2.1 miljard transistors van de Itanium 2 is toch een goede 50% meer als de 1.4 miljard van de GT200. Daarnaast zijn er bij een GPU nog wat blokjes uit te schakelen als deze niet goed werken (GTX260/280). En waarschijnlijk zijn de Yields van de GT200 niet al te super...

[Reactie gewijzigd door knirfie244 op 4 februari 2009 23:45]

Klopt helemaal, de yields op 45nm zijn gewoon nog niet goed genoeg. Met zo weinig chips per wafer kun je zo een hele wafer afschrijven.

Er zijn creatieve oplossingen zoals de Cell van IBM/Sony/Toshiba waarbij het geheel modulair is en ze bij uitval van de helft van de modules nog steeds een werkende chip hebben. Of zoals bij AMD waarbij ze cores apart kunnen uitschakelen zodat defecte quads nog als tri-core te gebruiken zijn. Of zoals vroegah gewoon de helft van de cache uitschakelen (waar het defect zit) en het als budget model verkopen.

Maar bij dit complexe ontwerp is dat allemaal niet zomaar mogelijk, er mogen geen fouten in de chip zitten anders werkt het hele ding niet meer. In de servermarkt kun je ook niet zomaar de specs wat omlaag bijstellen (minder cores of minder cache).

[Reactie gewijzigd door TRRoads op 4 februari 2009 21:16]

Platters zijn de interne schijven van een harde schijf, dus bedoelt voor magnetische data opslag. Wat jij bedoelt zijn wafers, schijven puur silicium, waaruit ze de processoren maken.
Voor de rest ben ik het wel met jou eens.
Oeps foutje bedankt ;)

Ik bedoelde inderdaad wafers
Voor ieder die denkt dat bij 45nm de yields nog niet goed genoeg zijn en daarom voor 65 is gekozen heeft het mis. Dat Intel bij 65nm blijft komt omdat dit product eigenlijk al in 2007 gereleased had moeten worden toen er nog geen 45nm was. Dit omdat het wisselen van proces technologie niet iets is wat je zomaar doet omdat het vreselijk complex is, is Intel bij 65nm gebleven.
Idd, die processor is gewoon al enkele keren uitgesteld. Om het nu nog om te zetten naar 45nm zou onbegonnen werk zijn. Het productieproces moet vanaf het begin van de ontwikkeling vastgesteld worden en kan niet meer veranderd worden, anders is het verschrikkelijk veel werk om dat nog even om te zetten naar 45nm.

Trouwens als die op 65nm wordt gebakken zal het energieverbruik enorm zijn, wat ook de genomen frequentie verklaard. 2GHz lol.
Heel die Itanium lijn is weggesmeten geld voor Intel. Hoeveel hebben ze hier al niet aan verslies gemaakt? Kan me niet inbeelden dat dit winstgevend is.
Ook al hebben ze het 45nm proces onder de knie, dat staat in het niet bij de kwaliteit van het 65nm proces. Op dit moment behaalt Intel met gemak zeer hoge yields op 65nm en zal zelfs dicht in de buurt van 100% zitten. Itanium servers zijn bedoeld voor critical-mission setups, waar 100% uptime niet alleen verlangt wordt, maar ook een vereiste is. Een 2 miljard transistors lijkt veel in vergelijking met een Core2Duo CPU, echter in vergelijking met een GT200 GPU van nVidia (die ook oorspronkelijk op 65nm werd gemaakt) is het ineens bijna hetzelfde.

Nu is dat mooie marketing praat voor Intel, maar waar het uiteindelijk om draait zijn de centjes. Alle consumenten versies, en in soortgelijke mate de Xeon Server CPUs, worden gemaakt met hoog volume en lage marges, en zijn dus veel meer geschikt voor 45nm. De Itanium CPUs staan namelijk wat verkoop aantallen betreft volledig in het niet, maar maken dat weer goed wat betreft de winst marges.

Intel heeft een zware klap verkregen met de economie, de winst daalde bijna 90%, dus het is er hun aan gelegen om zo lang mogelijk de leeftijd van de oude machines te rekken. Tevens liggen ze op dit moment ver voor ten opzichte van AMD, die het al lastig heeft om tegen de Nehalem Xeons een goed passend antwoord te vinden in de server markt.
Maar ook ver achter op de Power6 van IBM. De Itanium moet toch echt een flinke slag maken om concurrerend te worden. Eerlijk gezegd verwacht ik weinig bijzonders van deze chip. Too little too late. Pas de volgende generatie die eindelijk van de modernste productietechnieken kan profiteren, lijkt mij een echte sprong voorwaards te worden. Maar of het genoeg is in de strijd tegen IBM en Fujitsu. Geen idee...
Hoezo ver achter? Per kloktik is de Itanium snellet in deze SAP benchmark:
redactieblog: Benchmarkblog SAP-SD
30 MB cache?
Dat moet toch een joekel van een processor worden?
Volgens het bericht 2 miljard transistors, gemaakt op 65nm...
Inderdaad gigantisch :|
Ter vergelijking: een Core i7 heeft 731 miljoen transistors, gemaakt op 45nm.

Niet alleen heeft de Tukwila 30MB cache, maar er komen ook nog 2 memory controllers bij! Ik vrees echter dat er ook nog een joekel van een prijskaartje aan vast gaat hangen: de yields van zo een grote chip kan nooit meteen goed komen (zie Nvidia met hun eerste GT200 chip, 1,4 miljard transistors op 65nm, met een chipoppervlak van 576mm≤, die had yields van slechts 40%). Als Intel een processor maakt die nog eens 30% groter is, dan zullen de yields in het begin dus nog lager zijn.
Ook nog een gevolg van een grote chips is dat er slechts weinig processors uit een wafer gehaald kunnen worden, wat het prijskaartje nog maar eens groter maakt (als ik weer naar Nvidia's GT200 zie, dan konden er 100 chips uit een 300mm wafer, en een 300mm wafer kost bij TSMC ongeveer $5.000 ;) ).

[Reactie gewijzigd door Malantur op 4 februari 2009 19:19]

Het zal inderdaad wel een groot chipje worden, ik heb even jouw speculaties doorgenomen (De grote van de chip). En ik kom uit op een grove oppervlakte van 745mm≤ uit. En dan vraag ik me af, zou er dan NOG een ander voetje komen? Hoeveel pinnetjes zou hij dan wel niet krijgen? 2366? :9

Ik bedoel, ze maken nu de 1366,771 en 775 op de mainstream markt. Voetje B wordt gemaakt voor de (latere/heden) high-end markt. En dan wordt er ook nog voor de mid-end markt een gebaseerde Nehalem gemaakt. En doen moet er ůůk nog een voor de servers komen, de Tukwila? Ik reken snel even dat er dan 4 verschillende sockets tegelijk worden gemaakt.

[Reactie gewijzigd door Dead Pixel op 4 februari 2009 21:16]

745mm≤ betekend ongeveer een chip van 27x27mm. De IHS van een normale S775 is net 34x34mm groot :9. Hij is dus nog steeds niet groter dan een S775 socket.

Het aantal pinnen heeft eigenlijk weinig te maken met de grootte van de processor, deze zijn wel nodig om meer stroom en signalen tegelijk aan te voeren, maar bij mijn weten is echter de grootte van de socket niet vergroot, hoewel het aantal pinnetjes bijna verdubbelt is (S1366 tegenover S775).
Als ze over de 34x34mm willen gaan zullen ze wel een grotere socket moeten maken, maar deze hoeft daarom nog geen extra pinnen te krijgen.
Hoe kom je bij 745mm2 als ik vragen mag? Ik denk namelijk dat het heel erg afhangt van de kundigheid van Intel's ontwerpers. De cache zou bijvoorbeeld best wel eens klein kunnen worden.
Denk dat je Intel-proces niet zo gemakkelijk kan vergelijken met TSMC-proces.
Misschien eens vergelijken met een Core 2 op 65nm: 291 millioen transistors op 143 mm^2. Even de regel van drie toepassen: Itanium 2000 millioen transistors op 983 mm^2.
Komen we weer, NVIDIA had 40% yields? Waar haal je dat vandaan? Van Charlie "Wereldkampioen NVIDIA-Bashing" Demerjian? Of heb je inside informatie van NVIDIA topmensen? Ik heb er al eerder in een discussie bij een ouder bericht over gehad, en ik quote mezelf voor het gemak maar even:
-Alleen de aller-allerhoogste stafleden bij NVIDIA weten daadwerkelijke yield-cijfers. Dit is ontzettend geheime informatie die verder niemand te weten krijgt.
-De topmensen bij NVIDIA zullen dit soort gegevens nooit lekken, laat staan aan Charlie.
-Yields van een chip zijn op veel meer dingen gebaseerd dan alleen grootte. Dit was vroeger anders, maar tegenwoordig is het ontwerp de bepalende factor
-Yields op een volwassen procedee bij TSMC zullen heel goed zijn, ook bij grote chips
-NVIDIA ontwerpers hebben al veel ervaring met 65nm, en zullen dus geen beginnersfouten maken
-Yields zijn van te voren heel goed in te schatten. Als ze te laag waren geweest had NVIDIA wel ingegrepen.
-NVIDIA topmensen hebben zelf al lang aangegeven heel tevreden te zijn met de yields, die volgens hen boven verwachting waren.
http://tweakers.net/nieuw...rv790-gpus.html#r_2931513

Reken maar dat een bedrijf als Intel (net als NVIDIA) prima yields weet te halen, ook wel met een "gigantische" chip die nog groter kan zijn (maar niet hoeft te zijn) dan G200. Als het economisch niet verantwoord zou zijn zou Intel ook niet de moeite nemen.
(als ik weer naar Nvidia's GT200 zie, dan konden er 100 chips uit een 300mm wafer, en een 300mm wafer kost bij TSMC ongeveer $5.000 ).
Mag ik vragen hoe je aan dat cijfer komt? Ik heb nog nooit echte prijzen van TSMC kunnen vinden zelf :)
Klopt, zat me net ook te bedenken dat mijn eerste pc 16 MB geheugen had, het dubbele zit nu al in de proc zelf, LOL
Vergeet niet dat het om de servermarkt gaat. Daar kunnen ze niet ff snel wat releasen omdat het belangrijk is voor het desbetreffende bedrijf.
is er eigenlijk iemand hier die deze CPUs wel eens gebruikt heeft? Over het algemeen werk ik met zwaardere systemen (15k voor een server is dan niets), maar ik heb nog nooit een berekening kunnen maken die in het voordeel van een Itanium server is.
Ze zijn vrij zeldzaam want het is geen x86. Ze zijn voornamelijk geschikt voor hard rekenen met complexe rekenmodelen. Een redelijke nichemarkt (geologische gegevens doorrekenen bij oliebedrijven bijv.).
Bij het bedrijf waar ik gedetacheerd zit gebruiken ze Itanium servers.
Snel kan ik ze niet noemen (in een test kwam een simpele core2duo laptop als 4 keer zo snel uit de bus) maar dat maken ze wel redelijk goed met "veel"

Veel GB aan ram, veel CPU's en veel beheermogelijkheden (CPU's en RAM toevoegen en verwijderen zonder rebooten bijvoorbeeld)

Ik heb die servers nog nooit in real-life kunnen aanschouwen trouwens, ze zitten ook waarschijnlijk zo'n 10-20 KM van ons vandaan.

Het zijn HP Superdomes, ik weet niet precies welk model
Ik durf te wedden dat native IA64 code een stuk scheelt. Je moet niet vergeten dat de Itaniums op een volledig andere instructieset werken en dat x68 slecht wordt afgehandeld.
We gebruiken een Java Virtual Machine van HP, dus volgens mij is dat wel native IA64.

(je zou kunnen zeggen dat Java de superdome langzaam maakt, maar datzelfde geldt natuurlijk ook voor de laptop waar we het mee vergeleken)
15k voor een server is niets ;)

Wij werken inderdaad wel eens met Itaniums, Power en Sun systemen. Vooral in situaties waarbij een x86 niet voldoende schaalt en er niet zomaar extra systeempjes bijgeprikt kunnen worden.

Als er dan ook nog een hoge beschikbaarheid vereist wordt, is de Itanium een optie In mijn ogen is een IBM Power6 op dit moment aantrekkelijker, maar als bedrijven al een geschiedenis hebben met HP is het qua beheer niet realistisch om zomaar even over te stappen. Maar het is tijd voor een flinke update van de Itanium architectuur want qua prijs/prestatie ligt intel wel achter
15k voor een server is niets
Dat zeg ik toch ook :P
HP Integrity machines met good old OpenVMS OS wordt door onze klanten wel gebruikt, als opvolger van de Alpha met openVMS. Deze oplossing is zeer snel en zeer betrouwbaar. Er is ook een windows versie voor Itanium maar ik heb geen idee wat het performanceverschil is tov een x86-32 of x86-64.
Misschien wordt het zo'n PII en P!!! kaartje, met de cash op het kaartje (was toen ook de reden dat ze het op een kaartje deden)
Misschien wordt het zo'n PII en P!!! kaartje, met de cash op het kaartje (was toen ook de reden dat ze het op een kaartje deden)
nee hoor deze heeft de *cache* op de Die ;-)
ik denk dat we nu echt wel aan het punt zijn gekomen dat een Ghz amper een maatstaf geworden zijn. Of is 2Ghz gangbaar in serveromgeving?
lees hierboven, met deze processors kun je er zoveel bij prikken als je wil dus 100 processors op zo'n lieve server kan dat. (waarschijnlijk zijn er dan ook wel andere en betere oplossingen maar toch).

Het enige wat belangrijk is voor deze dingen is dat ze 1000% stabiel draaien, de nieuwe i7 voor server markt is, en dus waarschijnlijk best goed vooral nu al die extra mogelijkheden erin zullen zitten.

Naar hierboven(de upgrade over half jaar) deze lieve schatjes mag je waarschijnlijk op $1000 of meer per stuk afrekenen, die ga je liever niet na een half jaar vervangen met nog eens $1000.
Damn, crazy. Zijn dat Xeons of opvolgers van de i7?
nope,
Itanium is the brand name for 64-bit Intel microprocessors that implement the Intel Itanium architecture (formerly called IA-64). Intel has released two processor families using the brand: the original Itanium and the Itanium 2. Starting November 1, 2007, new members of the second family are again called Itanium. The processors are marketed for use in enterprise servers and high-performance computing systems. The architecture originated at Hewlett-Packard (HP) and was later developed by HP and Intel together.
van: http://en.wikipedia.org/wiki/IA-64

[Reactie gewijzigd door teh_twisted op 6 februari 2009 01:54]

De wereld is echt groter dan Windows & Linux. HP faseert zijn huidige PA-risc processors uit en gebruikt in hun Integrity lijn de Itanium processor (voor HPUX=Unix) systemen. De goedkoopste varianten van die systemen liggen al onder de 10k. Ook Windows & Linux is leverbaar op Itanium, maar die varianten ken/gebruik ik zelf niet.

De performance van een stevige dual quad-core Xeon met Linux erop, komt m.i. akelig dicht in de buurt van de Itanium, en dan voor de helft van de prijs. Maar qua schaalbaarheid, bandbreedte etc is Itanium toch een andere klasse. En zeker met een serieus OS als HPUX (wat toch wel wat andere uptimes kent dan windows, en echt multi-user (net als Linux overigens) is. HPUX kent bijv allerlei virtualisatie voorzieningen etc en HP zelf is gepokt en gemazzeld in deze wereld (tientallen jaren bestaan ze al met grote servers). Wel zorgt een stevig presterende Xeon oplossing - gelukkig - voor prijserosie bij HP (maar je kunt nog steeds voor enkele tonnen een systeem kopen).

Ik had gehoopt dat de Tukwilla sneller zou komen, veel nieuws is er de afgelopen tijd niet geweest in Itanium land en de concurrentie zit niet stil (IBM en in mindere mate Sun).

Op dit item kan niet meer gereageerd worden.



Populair: Vliegtuig Luchtvaart Crash Smartphones Laptops Google Apple Games Politiek en recht Rusland

© 1998 - 2014 Tweakers.net B.V. onderdeel van De Persgroep, ook uitgever van Computable.nl, Autotrack.nl en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013