Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 17 reacties
Bron: DailyTech, submitter: grizzlybeer

Voor het eerst in jaren heeft Intel een ontwerpcentrum geopend buiten India. Het chipbedrijf heeft namelijk een nieuwe microprocessorontwerpfaciliteit in Fort Collins in het Amerikaanse Colorado in gebruik genomen. Intel zal aldaar vooral nieuwe Itanium-chips gaan ontwerpen.

Intel-logo (nieuw/klein)Fort Collins is bekend gebied voor Intel. Enkele jaren geleden werkte 's werelds grootste chipbedrijf daar samen met HP aan de ontwikkeling van de eerste Itanium-chips. In 2005 nam Intel de microprocessorontwerpgroep van HP over, waarna het bedrijf alleen doorging met de Itanium-ontwikkeling. Het nieuwe ontwerpcentrum van Intel is te vinden direct naast AMD's 'Mile High Design Center'. Het is niet voor het eerst dat Intel een nieuwe faciliteit opent dit jaar. Eind maart liet het bedrijf weten dat er een nieuwe productiefabriek voor 300mm wafers gebouwd wordt in China. Enkele dagen terug maakten Intel en STMicroelectronics bekend een joint venture te zijn aangegaan om gezamenlijk nand- en nor-flashgeheugen te produceren.

Lees meer over

Moderatie-faq Wijzig weergave

Reacties (17)

Het lijkt de laatste tijd wat stiller geworden te zijn rond de Itanium. Eigenlijk wel jammer, want het op zich zeker geen slecht ontwerp; de poging van Intel om helemaal overnieuw te beginnen met een radicaal nieuwe architectuur in plaats van door te breien op die antieke x86 basis.

Helaas wil het niet echt lukken met die plannen. Een desktop Itanium versie lijkt er ook gewoon niet meer te komen, waardoor de Itanium veroordeelt zal blijven tot een niche plekje in de server markt.
Ach, de Itanium zelf zal nooit naar de desktop komen, daar is ie gewoon te duur voor en bovendien ook nooit voor bedoeld, netzomin als de Power6 dat is. Het is dus ook niet zo verwonderlijk dat je buiten de wereld van supercomputers en high-end servers er niet zoveel van hoort.

Wat wel zou kunnen is dat de architectuur, IA64, ooit naar de desktop komt. Dit is natuurlijk niet iets wat echt snel gebeurt maar helemaal uitsluiten voor de toekomst zou ik het niet.

Het probleem is dat de consumentenmarkt vrij inert is, vrij traag beweegt. Zelfs een moloch met veel geld en marktaandeel als Microsoft heeft maar beperkte invloed op de koers en snelheid waarin de consumentenmarkt zich beweegt. Kijk naar hoe moeizaam de introductie van EFI of 64 bits (drivers!) verloopt. Iedereen wacht op iedereen en niemand heeft er zin in om iets te produceren wat incompatible is met >80% van de bestaande markt.

Misschien is hier wel een plaats weggelegd voor Apple. Doordat ze zowel soft- als hardware producent zijn hebben ze een klein eco-systeem waarbinnen bepaalde zaken vrij snel kunnen veranderen. Ze hebben laten zien dat ze vrij pijnloos en soepel grote transities van complete CPU architectuur, 32bits naar 64bits en OpenFirmware naar EFI voor elkaar kunnen krijgen. Heb je als fabrikant geen zin om 64 bits drivers te schrijven? Dan komt je product gewoon niet in de nieuwste Mac. Het resultaat is dat fabrikanten voor Apple bereid zijn om die drivers te schrijven, en voordat het OS af is, in plaats van maanden later.

Volgens mij vindt Intel het wel prettig dat Apple met spullen uit haar schatkamer aan de slag gaat die ze zelf al jaren niet in de markt kreeg, EFI is daar een goed voorbeeld van. Misschien is dat iets wat we met IA64 ook wel gaan zien. Niet binnen een paar jaar, zeker niet. Maar wie zegt waar we in 2012 zijn?
t.a.v. apple op de itanium:

Ervan uitgaande dat er ooit software zou komen die kan draaien op die itanium voor apple klanten, wat direct al betekent dat Apple nooit aan het traject beginnen KAN, dan nog zit Apple met een aantal praktische en minder praktische problemen. Welke typische Apple software kun jij opnoemen die ook op itanium draait?

Enfin, aangaande andere problemen anders dan de software van derde partijen:

Apple op itanium te laten lopen is vrij lastig natuurlijk. Ten eerste is OS/X gebaseerd op een unix variant die zich zeer lastig leent om massaal parallel ingezet te worden. Ten tweede gebruikt apple in os/x 10.4.9 voornamelijk gcc 4.0.1 en niet intel c++ compiler, kortom je haalt totaal geen performance uit die itanium chip met zo'n kneusachtige compiler als gcc is voor de itanium.

Maar het belangrijkste argument is de prijs die zelfs voor apple te hoog ligt. Die itanium chips zijn stinkend duur om te drukken. Paul DeMone rekende voor dat ze rond de 250-400 dollar per stuk kosten om te drukken.

Intel kan dat dus dan alleen met enorme winstopslag, pak hem beet voor rond de 1500 dollar per stuk, aan apple doorverkopen.

Apple zoals we weten hanteert een fenomenaal grote winstopslag, waardoor de chips al snel $3000 per stuk gaan kosten.

Dat betekent dan dat een quad itanium solution begint bij een kostprijs van rond de 20000 dollar.

Als 4e argument is het zo dat men gaat klagen over de tegenvallende memory performance. De huidige latency van itanium is rond de 280 nanosecondes voor random read latency.

Die ligt op 60-111 ns voor quadcore2/k8l, terwijl in de grafische wereld deze latency behoorlijk belangrijk is (understatement), wat het target publiek is van apple.

Kortom in eerste instantie presteert zo'n box dan al factor 2 slechter dan huidige oplossingen (8 core xeon) die apple nu levert.

Nu hebben we nog even 1 praktisch probleem overgeslagen en dat is de teringherrie dat die itaniums produceren wegens hun koeling. De huidige apple boxes maken relatief weinig geluid, maar bij een quad itanium praat je over een monster dat 1000+ watt verslindt.

Dat koel je niet erg makkelijk zonder jumbogeluiden te produceren.

Dat geluid alleen al, dat gaan apple klanten simpelweg niet accepteren.

Apples break-even overweging zal dus heel snel negatief uitslaan.
Ervan uitgaande dat er ooit software zou komen die kan draaien op die itanium voor apple klanten, wat direct al betekent dat Apple nooit aan het traject beginnen KAN, dan nog zit Apple met een aantal praktische en minder praktische problemen. Welke typische Apple software kun jij opnoemen die ook op itanium draait?
Apple is anders wel het bedrijf dat op 68000 begonnen is, daarna overstapte op PowerPC, en sinds kort op x86 zit (en bezig is met x64).
Het is ze dus al meerdere malen gelukt om over te stappen van architectuur, en software te maken die op meerdere architecturen tegelijkertijd kan werken.
Itanium krijgen ze ook wel voor elkaar als het moet.
Apple op itanium te laten lopen is vrij lastig natuurlijk. Ten eerste is OS/X gebaseerd op een unix variant die zich zeer lastig leent om massaal parallel ingezet te worden.
Leuke moeilijke termen, maar dit slaat echt nergens op.
Ten tweede gebruikt apple in os/x 10.4.9 voornamelijk gcc 4.0.1 en niet intel c++ compiler, kortom je haalt totaal geen performance uit die itanium chip met zo'n kneusachtige compiler als gcc is voor de itanium.
En overschakelen naar Intel's compiler is niet mogelijk? Natuurlijk wel. Sterker nog, men gebruikt ook onder linux vaak de Intel compiler ipv gcc.
Apple zoals we weten hanteert een fenomenaal grote winstopslag, waardoor de chips al snel $3000 per stuk gaan kosten.
Gebaseerd op wat precies? De stand van de maan?
Apple hanteert de laatste jaren behoorlijk scherpe prijzen.
Als 4e argument is het zo dat men gaat klagen over de tegenvallende memory performance. De huidige latency van itanium is rond de 280 nanosecondes voor random read latency.

Die ligt op 60-111 ns voor quadcore2/k8l, terwijl in de grafische wereld deze latency behoorlijk belangrijk is (understatement), wat het target publiek is van apple.
Behalve dan dat er gigantisch grote caches op de Itanium zitten, en je bijna nooit buiten die caches hoeft te komen met grafische bewerkingen.
Kortom in eerste instantie presteert zo'n box dan al factor 2 slechter dan huidige oplossingen (8 core xeon) die apple nu levert.
Veel te kort door de bocht. Wat een enorme opeenstapeling van drogredenen kun jij fabriceren, zeg...
@ddbruin

Amen

Die hardwareaddict luld echt een slag in de ronte.

Maar anyway Apple heeft in het verleden idd bewezen te kunnen overstappen.
Maar itanium op dit moment lijkt me niet de juiste keus vlak na een overstap naar x86 > x64 en de ontwikkelingen op het gebied van de Laraby van intel en mogelijk zelfs (ik heb Apple die kant nog niet uit zien kijken) AMD Phenen, en later Fusion.

Er zijn nu teveel ontwikkelingen de geruchten op een nVidia processor, videocombinatie zijn ook nog steeds aanwezig voor CBIT 2008.

Het zou voor Apple slimmer zijn de kat uit de boom te kijken.

Maar wat ik echt niet snap is dat intel nog steeds zoveel geld in de Itanium stopt terwijl ze ook aan de Larabie werken (GPU CPU met veeeeeeeeeeeeel simpele cores)
En ze aan alle kanten bezuinigen.

Tenzij ze alle opties open willen houden om de snelste proc te produceren, ik vind de Itanium EPIC archtectuur best interressant en effe aan die gasten hierboven.

DE ITANIUM SNELSTE LOOPT 1.6 GHz niet 300 a 400 Mhz.

En de dual core verslaat een core 2 duo makelijk en ik denk zelfs een Quad bovendien schaald de itanium naar veel meer processors als de C2D.
Misschien is hier wel een plaats weggelegd voor Apple. Doordat ze zowel soft- als hardware producent zijn hebben ze een klein eco-systeem waarbinnen bepaalde zaken vrij snel kunnen veranderen. Ze hebben laten zien dat ze vrij pijnloos en soepel grote transities van complete CPU architectuur, 32bits naar 64bits en OpenFirmware naar EFI voor elkaar kunnen krijgen. Heb je als fabrikant geen zin om 64 bits drivers te schrijven? Dan komt je product gewoon niet in de nieuwste Mac. Het resultaat is dat fabrikanten voor Apple bereid zijn om die drivers te schrijven, en voordat het OS af is, in plaats van maanden later.
Hier ben ik het zeer mee eens. Het is tegenwoordig nogal mode om alles 'open' en 'vrij' te hebben... Maar de technologische ontwikkelingen, zowel qua hardware als qua software, gaan altijd veel chaotischer en trager dan bij een 'gesloten' systeem als dat van Apple.

De vraag is wel in hoeverre het beperkte marktaandeel van Apple te wijten is aan het feit dat het gesloten is... Koos men juist voor de IBM PC omdat dat meer open was, of zou het juist zo zijn dat een systeem dat dermate populair is, wel behoorlijk open MOET zijn omdat het onmogelijk is om zo'n groot aanbod aan hardware en software een beetje in het juiste spoor te houden?
itanium ontwerp was wel heel slecht.

predication in combinatie met kleine 1 cycle L1 kun je simpelweg niet erg hoog clocken en 't betekent dat een mega grote L3 cache zo'n kleine L1 en superkleine L2 moet gaan opvangen.

Dat betekent enorm dure productie prijs per cpu en dientengevolge een kneus van een cpu, want niemand kan er wat mee dan.

Lijkt me dat ze daar geen itaniums gaan ontwerpen, want ik zou niet weten hoe dat ding ooit kan concurreren tegen de pc processors.

Een 1.5Ghz itanium2 leverde ongeveer 6 gflop.
En dat voor een initiele introductieprijs van die chip van rond de 8000 dollar per stuk. Daarvoor konden niet-US bedrijven ze overigens niet krijgen.

Alleen de US government schijnt deze chips goedkoop te kunnen krijgen (zie NASA met zijn 10240 processor machine). Geruchten deden de ronde volgens engineers aldaar, dat het ding rond de 60 miljoen dollar gekost heeft destijds. Dit betekent dat ze dus de cpu's bijna gratis gekregen hebben van intel.

De rest van de wereld kon kortom niet veel met die cpu, gezien de hoge prijs, het enorme energie verbruik per node en de tegenvallende prestatie.

Dus het is zinvol om dan een chip te gaan ontwerpen bij je opdrachtgever in de buurt.

Dat wordt natuurlijk dan wel een lachwekkende chip, want die chip kan simpelweg niet zonder megagrote L3 cache en heeft daarnaast een off-chip memory controller.

Dan loopt 't altijd een process technology achter, dus we kunnen een 90 nm itanium verwachten terwijl de rest van de planeet al op 65 nm of 45 nm loopt.

Hoe ga je ooit een 16 core variant in 90 nm ontwerpen als je een off chip memory controller en zulke grote L3 caches per chip nodig hebt?

Je krijgt dan een op 2Ghz geklokte chip verder, die dus 2 bundels van 3 instructies execute.

Dus dat is per core een theoretische limiet van:
6 * 2Ghz = 12 gflop.

Tegen de tijd dat die chip in 90 nm werkt, werkt core2 al in 8 core versies op 45 nm en op 4Ghz natuurlijk.

Die knikkert er dan een theoretische 4 instructies per cycle uit kortom:

4Ghz * 4 = 16 gflop per core en dat natuurlijk tegen een factor 10 lagere prijs op zijn minst.

Nu hebben we 't nog niet over AMD gehad met zijn K8L barcelona core, die al spoedig te koop is terwijl deze itanium chip nog dient uit te komen.

Die itanium chip gaat natuurlijk gezien megagrote L3's niet snel meer dan quadcore worden.

Kortom die itanium is totaal dood behalve voor de US government.
Wat een verhaal zeg... Jammer dat het een hoop gegoochel is met cijfertjes en foute aannamen.
Klopt dus niet veel van.

Verder snap ik niet waarom je denkt dat de Itanium met x86 vergeleken moet worden...
Waarom je AMD noemt, weet ik niet... Momenteel bouwt Intel verreweg de snelste x86s... dus als iemand de Itanium de markt uit zou drukken met x86-processors, dan zou het Intel zelf zijn... In welk geval Intel natuurlijk geen geld in de Itanium zou pompen... Of mensen nou voor x86 of voor Itanium kiezen, de keuze is toch Intel, dus Itanium niet doorontwikkelen is goedkoper, als het toch nergens toe leidt.
Ik denk toch dat Intel er meer verstand van heeft dan jij, en ze komen dus tot een andere slotconclusie dan jij.
AMD is geen kleintje met K8L op floating point gebied net zo min als intel dat gaat worden met komende quad core 2's.

AMD's aandeel in highend verkopen was tot voor kort 50%, daar in highend de memorybandbreedte enorm belangrijk is en de huidige quadcore van intel daar enorm achterloopt. Daarnaast verkoopt intel geen quad socket solutions anders dan de totaal verouderde itanium.

Intel pompt extreem weinig geld zelf in itanium op dit moment, dat zie je simpelweg al jarenlang aan de totaal verouderde processtechnology waarop 't geproduceerd wordt en de lage clock (wat was 't 1.6Ghz nu ofzo voor montecito????)

Het is ook een logisch feit dat intel zelf met nieuwe core2's dus die itanium wil gaan opvolgen.

Zie SSE4 waar ook instructies als popcount in opgenomen zijn.

Overigens K8L heeft die ook al in instructieset zitten (allemaal binnen de 2-4 cycles), dus het is vrij logisch dat komende supercomputers allemaal uit quadcore x64 chips bestaan.

Kortom intel&amd zijn veel realistischer dan jij en drukken momenteel de itanium er al enorm uit.

Vandaar dat het ook niet verbazingwekkend is dat afgelopen kwartaal de verkopen van itanium gehalveerd zijn in vergelijking met het laatste kwartaal 2006.

Voor hen die wel 1 supersnelle 'chip' (al dan niet blok van 8-) willen kopen voor enorm veel geld, die kopen power6 op 4.7ghz natuurlijk.

Tot slot: heb je zelf wel eens software gedraaid op die itanium?
Sjonge, wat een onsamenhangend gebazel...
AMD's aandeel in highend verkopen was tot voor kort 50%, daar in highend de memorybandbreedte enorm belangrijk is en de huidige quadcore van intel daar enorm achterloopt. Daarnaast verkoopt intel geen quad socket solutions anders dan de totaal verouderde itanium.
Dat doet Intel wel. De Xeon MP.
Die is nu nog gebaseerd op de netburst, maar Intel heeft maanden geleden al een systeem met 16 cores gedemonstreerd, opgebouwd uit 4 nieuwe Xeon MPs met de nieuwe Core2-architectuur: nieuws: Intel demonstreert quadcore Xeon MP 'Tigerton'
Intel pompt extreem weinig geld zelf in itanium op dit moment, dat zie je simpelweg al jarenlang aan de totaal verouderde processtechnology waarop 't geproduceerd wordt en de lage clock (wat was 't 1.6Ghz nu ofzo voor montecito????)
Kloksnelheid zegt niks, we hebben het over totaal andere architecturen. Itanium heeft altijd al relatief lage kloksnelheden gehad, en zet daar relatief hoge IPC tegenover. Kloksnelheden vergelijken met andere architecturen heeft dus weinig nut, zeker als je IPC buiten beschouwing laat.
Dat Itanium achterligt zal wel te maken hebben met het feit dat het grotere dies zijn, en Intel eerst met 'gewone' x86 processors het procede volwassen genoeg wil krijgen om er 'grote' Itaniums op te bakken, net zoals men eerst flash-memory etc bakt alvorens men aan de x86-processors begint.
Het is ook een logisch feit dat intel zelf met nieuwe core2's dus die itanium wil gaan opvolgen.
Niet dus.
Zie SSE4 waar ook instructies als popcount in opgenomen zijn.
Uhhh... een duffe instructie om het aantal bits in een operand te tellen? Nou, de Itaniums kunnen meteen de deur uit hoor!
Wat een flauwekul.
Overigens K8L heeft die ook al in instructieset zitten (allemaal binnen de 2-4 cycles), dus het is vrij logisch dat komende supercomputers allemaal uit quadcore x64 chips bestaan.
Ja, want alle supercomputers moeten alleen snel bitjes kunnen tellen!?
Sorry, maar het slaat echt als een tang op een varken.
Er komt zoveel meer bij supercomputers kijken, en x64 is echt niet de enige weg die naar Rome leidt.
Right tool for the right job.
Kortom intel&amd zijn veel realistischer dan jij en drukken momenteel de itanium er al enorm uit.
AMD moet vooral uitkijken dat ze zelf niet uitgedrukt worden.
En Intel opent een nieuw ontwerpcentrum voor Itanium, dat staat nogal haaks op jouw beweringen.
Tot slot: heb je zelf wel eens software gedraaid op die itanium?
x86-software bedoel je zeker?
Niet van toepassing, ik schrijf m'n eigen spul.
Ja dit is inderdaad wel jammer. Het is natuurlijk wel een aparte processor aangezien het geen x86 cpu is.

Het is overigens misschien wel beter voor Intel als ze gaan werken aan een Itanium 3 processor, want de eerste Itanium was nu iet bepaald een spetterend success en van 2 hoor je nu ook weinig
Om Linus te quoten: "the tiny and cheap pc processors have won".

Er is een simpele verklaring hiervoor natuurlijk, namelijk de 2e wet van Moore die intel hanteert, namelijk dat bij elke verkleining van processtechnology deze nieuwe fabrieken factor 2 in prijs duurder zijn.

Combineer dat met het feit dat als je aan een processor werkt met een klein superprofessioneel team bestaande uit de beste hardware designers op de planeet, dan klokt zo'n chip na jaren noeste arbeid op de huidige 65 nm en 90 nm technology ongeveer op 250-333Mhz.

Je hebt dus letterlijk honderden zo niet duizenden engineers nodig om dus zo'n chip te optimaliseren naar de 2.66-3+ Ghz waarop de huidige chips klokken.

Om een lang verhaal heel kort te houden, om die ENORME kosten van vele miljarden dat een fabriek kost en om die enorme loonkosten van vele honderden zo niet duizenden engineers te betalen, moet een fabrikant miljoenen chips per maand verkopen.

Zo'n pc chippie is dus eigenlijk een ongelooflijke prestatie met name op klokhoogte t.o.v. highend chips, vooral als je het energieverbruik vergelijkt.

Wat intel nu doet lijkt meer een soort van contractuele verplichting waarbij een klein team kan voortmodderen en dan die chips op wat al oude fabrieken mag produceren. De nieuwste en duurste fabrieken worden ingezet edoch voor de pc processors.

Waar je overigens niemand over hoort ten aanzien van die itanium chip, maar dat is ook wel een argument dat ik graag even noem, wat op de sideline wel meespeelt, is dat zo'n chip natuurlijk wel software nodig heeft.

De games en massasoftware die op je pc draait, die is low level enorm geoptimaliseerd, vaak met enorm veel assembly die de multimedia afhandelt.

Zonder dat soort software is het lastig om een nieuwe instructieset ondersteund te krijgen.

De windows NT kernel is ook in assembly geoptimaliseerd bijvoorbeeld, naast natuurlijk de high level ports die er zijn ervan.

De instructieset van de itanium is ongelooflijk complex om in assembly voor te programmeren. Het vereist niet alleen vreselijk zeldzaam goede assembly programmeurs om voor die chip te programmeren, maar ook nog eens is het zo dat die gasten dan enorm veel langer bezig zijn om iets bugvrij aan de praat te krijgen.

Een ENORME investering in met name tijd dus om software voor zo'n itanium te bakken, terwijl de chip architectuur wel zo is dat je default pokketraag op die chip loopt en dus wel degelijk die enorme optimalisaties nodig hebt om een beetje snel te lopen op de chip.

Tenslotte is het niet makkelijk om maar liefst 2 bundels van 3 instructies te vullen met zinvolle instructies anders dan de vele nop's die de compilers default genereren.

Er is dus van 2 kanten geen ruimte voor een chip als itanium. Vergeet ook niet dat hoofdengineers erg schaars zijn en duurbetaald (salarissen van 500k dollar zijn GEEN uitzondering per jaar), dus die zet intel liever in op andere projecten dan itanium.
De instructieset van de itanium is ongelooflijk complex om in assembly voor te programmeren. Het vereist niet alleen vreselijk zeldzaam goede assembly programmeurs om voor die chip te programmeren, maar ook nog eens is het zo dat die gasten dan enorm veel langer bezig zijn om iets bugvrij aan de praat te krijgen.
Ten eerste programmeert bijna niemand meer in assembly... Ten tweede programmeert men soms in assembly op x86, omdat dat MOET. De instructieset is dermate complex dat een compiler geen efficiente code kan genereren.
Bij de Itanium is het precies omgekeerd... Met de hand is het niet zo makkelijk, omdat mensen niet al te grote hoeveelheden informatie tegelijk kunnen bijhouden, maar de instructiset is uitermate logisch en consistent van opbouw, en leent zich perfect voor het algoritmisch optimaliseren van code. Je *hoeft* dus geen assembly te programmeren, net zoals op alle moderne architecturen.
Tenslotte is het niet makkelijk om maar liefst 2 bundels van 3 instructies te vullen met zinvolle instructies anders dan de vele nop's die de compilers default genereren.
Tsja, bij een Itanium staan er nops in de code, bij een x86 krijg je stalls in je pipeline, en zitten al die execution units voor het grootste gedeelte van de tijd niets te doen (waarom dacht je dat HyperThreading zo goed werkt... omdat je ook allemaal 'nops' hebt in je pipeline).
Netto komt het op hetzelfde neer: niet alle execution units doen elke cycle nuttig werk.
De Itanium heeft wel veel hogere IPC dan een x86, dus in de praktijk is de Itanium toch efficienter bezig.
Er is dus van 2 kanten geen ruimte voor een chip als itanium. Vergeet ook niet dat hoofdengineers erg schaars zijn en duurbetaald (salarissen van 500k dollar zijn GEEN uitzondering per jaar), dus die zet intel liever in op andere projecten dan itanium.
Blijkbaar niet, want ze openen net een nieuwe centrum, waarbij ik er voor het gemak even vanuit ga dat dat centrum ook bemand gaat worden.
De Itanium is nu voornamelijk een concurrent voor de IBM Power chip. De performance is op zich prima maar een itanium systeem is gewoon te duur voor veel kleinere bedrijven. Daarnaast draait ook standaard x86 code niet. Echter, met het gebruik van CSI lijkt het kostenplaatje omlaag te kunnen en door het gebruik van Java en .Net kunnen veel programma's steeds makkelijker naar een itanium worden geport.

Hoewel het een lang traject lijkt en Intel waarschijnlijk al veel eerder meer itaniums had willen verkopen is er nog steeds uitzicht op succes. Maar voorlopig zal de itanium eerst moeten afzakken naar de kleinere servers voordat de desktop zelfs maar in het vizier komt.
Ik zou liever die capaciteit gebruiken voor de opvolger?
Lol, direct naast AMD... Juist ja, een "Itanium" ontwerpcentrum waar ondertussen de verrekijkers op de buren zijn gericht :+
Intel kan bij AMD toch alleen afkijken hoe je je top-positie kwijtraakt?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True