Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 80 reacties
Bron: Intel

Intel heeft zijn roadmap van Itaniums uitgebreid met de codenaam Kittson. Na Montvale, Tukwila en Poulson is dit de vierde toekomstige generatie van high-end serverchips waar aan gewerkt wordt. Hiermee hoopt het bedrijf meer vertrouwen te wekken in de toekomst van de omstreden architectuur.

Behalve het verlengen van de roadmap deed Intel een andere belangrijke aankondiging: toekomstige generaties van de Itanium zullen niet meer met verouderde productietechnieken gebouwd worden, maar gewoon met x86 mogen meedoen. Om in te halen komt er geen 45nm-versie, maar springt men direct van 65nm (Tukwila) naar 32nm (Poulson). De Itanium-roadmap heeft in voorgaande jaren een paar flinke klappen opgelopen, toen het huidige Montecito-ontwerp vele maanden werd uitgesteld en uiteindelijk nog steeds niet aan de verwachtingen voldeed. De later dit jaar verwachte Montvale is eigenlijk wat Montecito destijds had moeten zijn, maar zal nu waarschijnlijk geen grote indruk meer maken. Met Poulson wil men een grote inhaalslag gaan maken.

Tukwila is echter ook een interessant product om in de gaten te houden: dankzij csi-techniek en geÔntegreerde geheugencontrollers biedt deze vele malen meer bandbreedte per socket dan zijn voorganger. Omdat men met deze chip ook de stap van dualcore naar quadcore maakt valt er een flinke sprong in de prestaties te verwachten, die overigens hard nodig is om de Power6 in te halen. Naast betere prestaties biedt de chip ook nieuwe features op het gebied van betrouwbaarheid: huidige Itaniums kunnen een hardwarefout in ťťn chip van een geheugenmodule opvangen, terwijl Tukwila voor twee defecten tegelijk kan compenseren. Niet bepaald nodig voor de desktop, maar voor installaties met vele terabytes aan ram kan het toch weer wat extra uptime betekenen. Na Tukwila maakt men de grote sprong van 65nm naar 32nm. Over Poulson is nog weinig bekend, maar men hint naar een nieuw core-ontwerp met veel threads en veel cache. Kittson wordt de opvolger van Poulson, maar dat is dan ook meteen alles wat we weten.

CodenaamProcťdťCoresThreadsL3KlokBandbreedteIntroductie
Merced180nm114MB800MHz2,1GB/s FSB2001
McKinley180nm113MB1,0GHz6,4GB/s FSB2002
Madison130nm116MB1,5GHz6,4GB/s FSB2003
Madison 9M130nm119MB1,6GHz10,6GB/s FSB2004
Montecito90nm2424MB1,6GHz10,6GB/s FSB2006
Montvale90nm2424MB2,0GHz?12,8GB/s FSB2007
Tukwila65nm4824MB2,0GHz?>100GB/s CSI+IMC2008
Poulson32nm8????>100GB/s CSI+IMC2010?
Kittson???????

Hoewel de Itanium de laatste jaren constant zwaar onder vuur heeft gelegen blijft de penetratie langzaam maar gestaag groeien. Vorig jaar werd voor 3,4 miljard dollar aan Itanium-hardware verkocht, ondanks het feit dat de Montecito was uitgesteld en pas tegen het einde van het jaar in de servers van HP - met ruime afstand de grootste Itanium-verkoper - verscheen. Hoewel de chip bij lange na niet altijd de beste prestaties biedt, blijkt er toch een gezonde markt voor te bestaan. Intel heeft al twee keer gezegd dat de afdeling winstgevend is, en marktonderzoekers verwachten de komende jaren meer groei.

Moderatie-faq Wijzig weergave

Reacties (80)

blijft de penetratie langzaam maar gestaag groeien.
Is er eigenlijk hier iemand die deze cpu's echt gebruikt? Ik ken zelf eigenlijk helemaal geen enkele locatie waar een Itanium CPU echt wordt toegepast. Het leek me destijds zo'n mooie architectuur, maar tegen de tijd dat men een Itanium chip echt gaat gebruiken is de architectuur net zo oud als die die het destijds had moeten vervangen.
top500-supercomputers met IA64 architectuur
Verder worden ze ook wel op onderzoeks-gebied toegepast.
Andere gebieden kan ik zo 1-2-3 niet verzinnen. Grote renderfarms hebben volgens mij meer aan Xeon- of Opteron-systemen. (prijs/prestatie verhouding is daar beter)
De eerste 70.000 hebben we dus al te pakken met de supercompu's. Eigenlijk best bizar hoe weinig Intel hier nog maar mee verdient (afgezien van de investering). Ik schat zo dat deze CPU's voor gemiddeld 1000 euro over de toonbank zijn gegaan. Dus ze hebben hier 70 mln euro aan binnengekregen.

Maar waar volgens mij Itaniums het meest voor gebruikt worden (net zoals PowerX) zijn omgevingen waar grote datasets gebruikt worden. Deze kunnen dan over meerdere geheugen-clusters verdeeld worden.
Volgens mij worden steeds meer OpenVMS computers op Itaniums overgezet.
En veel OpenVMS cluster systemen zitten door hun grote betrouwbaarheid aan allerlei vitale applicaties en worden dus niet zo maar eventjes op unix overgezet.

Ik denk dat best nog veel banken, verzekeringsmaatschappijen en verkeersdiensten gebruik maken van derglijke systemen en deze stads vaker gewoon laten overzetten op Itanium. Die legacy systemen werken vaak nog prima. Je kwakt er even een webvoorkantje tegenaan en ze kunnen nog tig jaren mee.
De Itanium zit natuurlijk in een deel van de markt waar veel tweakers weinig mee te maken hebben. Maar eigenlijk elke markt waar uptime belangrijk is (bv banken, utilities of telecom) kan niet om de Power, Sun of itanium gebaseerde systemen heen. In deze branches is overstappen van de ene leverancier naar de andere niet echt reeel dus zie je dat bedrijven die 10 jaar geleden op een Dec Alpha chip werkte die hardware nu vervangen door HP Itanium systemen.

Als je bedenkt dat de markt voor systemen die op deze drie chips gebaseerd zijn ongeveer net zo groot is als de markt voor x86 servers, begrijp je dat er wereldwijd nogal wat itanium chips worden gebruikt en je er waarschijnlijk dagelijks van afhankelijk bent :)
Ik heb te maken met deze processor op Windows 2003.
Het is echt een ramp software te vinden die echt voor deze processor is gecompileerd (ia64). x86 software draait in compatibiliteits modus maar sommige tools werken hier niet goed mee. Antivirus producenten zoals Symantec en McAfee supporten de processor al een tijdje niet meer in hun nieuwe versies. En de oudere versie van bijv. Symantec die wel onder ia64 geinstalleerd konden worden was ook niet native voor ia64 gecompileerd. Ik zou zeggen deze processor is wat betreft Windows absoluut een slechte keuze. Voor besturingssystemen zoals Linux of. HP-UX heeft hij zeker nog wel toekomst.
HP Integrity NonStop:
http://h20223.www2.hp.com...che/307953-0-0-0-121.html

Worden o.a. veel gebruikt in de financiŽle wereld voor de besturing van netwerken van geldautomaten en betaalautomaten, ook in Nederland.
Met redelijke regelmaat heb ik met deze processoren te maken.
In deze thread lijkt bijna iedereen te denken dat deze processor alleen in supercomputer achtige systemen voorbij komt wat absoluut niet waar is.
Voor HP is de Itanium oa de opvolger van de PA-RISC processor die nu te vinden is in de HP9000 series.
Hoe meer HP9000's vervangen worden hoe meer Itaniums je in die markt dus zult zien.
Itaniums zie je dan ook op plaatsen waar je ook HP9000, RS6000 en noem de andere Unix systemen maar op zult tegen komen.
Veelal zul je ook Oracle op een dergelijk systeem aantreffen.

Daarnaast zijn er natuurlijk ook Itaniums waar Windows, Linux danwel OpenVMS op draait.
Behalve het verlengen van de roadmap deed Intel een andere belangrijke aankondiging: toekomstige generaties van de Itanium zullen niet meer met verouderde productietechnieken gebouwd worden, maar gewoon met x86 mogen meedoen.
Kan iemand deze zin uitleggen?
Tot nu toe hebben alle Itaniums productietechnieken gebruikt die minstens ťťn generatie achterliggen op die van x86-processors. Op dit moment is de nieuwste Itanium bijvoorbeeld een 90nm-chip, terwijl de Xeons en Opterons op 65nm zitten. De Montvale die later dit jaar uitkomt is nog steeds 90nm, terwijl de eerste 45nm x86-chips dan al van de band komen rollen. Door niet de nieuwste techieken te gebruiken laat Intel een hoop prestaties op tafel liggen, waardoor de architectuur soms slechter lijkt dan hij is. In de toekomst (vanaf Poulson) zal dat nadeel voor Itanium grotendeels verdwijnen.

[Reactie gewijzigd door Wouter Tinus op 16 juni 2007 12:46]

De ontwikkeling van Itanium processors loopt op het moment vrij langzaam. De ontwikkeling van x86 (consumenten) processors gaat veel sneller. Daardoor worden de Itaniums meestal op een productietechnologie gemaakt die al verouderd is, op het moment dat hij uit komt.
In de toekomst zegt Intel hier vanaf te willen stappen, en ůok Itaniums op hun nieuwste productietechniek te willen produceren.

Overigens is het niet de eerste keer dat Intel dit zegt. Vanwege de extra controles (een Itanium wordt nůg uitvoeriger getest dan een gewone x86processor) en de extra complexe en grote processor, zal een Itanium niet eenvoudig het ontwikkel schema van een x86 processor bij kunnen houden. Intel moet dit dus enorm pushen het snelle x86 schema bij te houden, of simpelweg een stap overslaan.
Aan de roadmap te zien kiezen ze voor het laatste, zodat ze iig in het ontwerp van de Poulson genoeg tijd kunnenbesteden, zonder zich te moeten haasten om een die-size te halen.
Als je kijkt naar de gebruikte productie processen van de Itaniums, dan zie je dat die steeds minstens 1 productieproces achter liep op de x86-CPU's.
bijv tot nu toe op 90nm, terwijl de Core(2)-CPU's al tijden op 65 nm gemaakt worden.
En in 2002 zat de P4 (Northwood) al op 130 nm, terwijl de Itaniums toen op 180 nm gemaakt werden. (Bron: BalusC-CPU-lijst)
Wow kijk die enorme sprong in bandbreedte van 12,8 naar 100+. Werdt echt eens tijd dat Intel van zijn FSB afstapte en betere alternatieven ging proberen zoals AMD heeft gedaan.

Ben benieuwd wat ze allemaal kunnen ookal zal ik daar zelf denk ik nooit mee werken.

Edit: Yup dat CSI ook in de desktop komt weet ik maar doelde meer erop dat ik waarschijnlijk nooit met de Itanium ga werken.

Trouwens die Itanium is een 'echte' 64 bit en niet backwards compatible maar kan ie nou de 64 bit versie van xp of vista draaien?

Ook wel leuk dat tabelletje ziet eruit alsof Intel een naam bedacht heeft maar verder nog geen flauw idee heeft wat ze ermee willen doen (oke hebben ze vast wel maar dat geven ze nog niet vrij)

[Reactie gewijzigd door SRI op 16 juni 2007 14:58]

Trouwens die Itanium is een 'echte' 64 bit en niet backwards compatible maar kan ie nou de 64 bit versie van xp of vista draaien?
Met *een* 64-bit versie, ja. Deze wordt meestal aangeduid met alleen '64', waar de x86-64 versie 'x64' heet.
Deze was er overigens al een paar jaar eerder. Windows XP 64 wordt overigens niet meer ondersteund, alleen server-versies van Windows worden nog ontwikkeld voor Itanium. Een 'Vista'-variant is er dus ook niet, omdat dat het desktop-OS is.
Inderdaad... xp64 en vista zijn x64, terwijl de itanium ia64 is. Is iets heel anders.
Nee, het heet geen XP64.
Er is een Windows XP Professional x64 Edition.
Er is ook een Windows XP Professional 64-bit Itanium Edition (zie hier bv: http://technet.microsoft.com/en-us/library/bb457053.aspx toen het overigens nog geen 'Itanium edition' heette, want er was nog geen sprake van 64-bit x86-varianten)

Er zijn dus twee verschillende 64-bit versies van Windows, eentje voor x64, eentje voor Itanium.
Zo ook voor de server-edities van Windows:
x64: http://www.microsoft.com/servers/64bit/x64/overview.mspx
Itanium: http://www.microsoft.com/servers/64bit/itanium/overview.mspx

Van Vista is er alleen geen Itanium-variant, en die gaat waarschijnlijk ook niet komen, aangezien de vorige desktop-versie van Windows (XP dus) ook van de markt is gehaald na de komst van x64, en dus eigenlijk het (voorlopige) doodvonnis voor Itanium als desktop/workstation.

Dat zei ik dus net al... Beetje jammer dat je met jouw post weer verwarring zaait.

[Reactie gewijzigd door ddbruijn op 17 juni 2007 11:58]

csi zal over een paar jaar ook in desktops wel gebruikt worden. AFAIK is intel wel die richting in aan het gaan.

dus, wie weet dat ook wij stervelingen de kans nog eens krijgen :+
huidige Itaniums kunnen een hardwarefout in ťťn chip van een geheugenmodule opvangen, terwijl Tukwila voor twee defecten tegelijk kan compenseren. Niet bepaald nodig voor de desktop, maar voor installaties met vele terabytes aan ram kan het toch weer wat extra uptime betekenen
Is 't niet zo wouter dat die ECC gedaan wordt om juist potentiele fouten uit berekeningen op te vangen? De uptime lijkt me niet zo'n probleem aangezien deze cpu's toch wel hot-swap zullen zijn?
Omdat servers liever kiezen voor een crash dan voor datacorruptie zal een oncorrigeerbare fout meestal toch downtime betekenen. Nog erger is een fout die onopgemerkt blijft; die kan uiteindelijk ook tot een crash leiden, maar god weet hoeveel schade er wordt aangericht door rekenen met de verkeerde waarde voor het tot een 'BSOD' leidt. Voor een verzekeraar of bank is zoiets een nachtmerriescenario. Hotswap is handig om onderdelen waarvan je weet dat ze defect zijn te vervangen, maar waar dit soort bedrijven bang voor zijn is het idee dat hun hardware kan falen zůnder dat ze het weten. Een techniek om twee fouten tegelijk op te kunnen vangen lijkt misschien overkill, maar naar mate systemen meer geheugen krijgen en de bitjes in steeds kleinere (en dus gevoeligere) transistors worden opgeslagen, is het voor bepaalde segmenten toch een geruststellend idee dat het gecontroleerd wordt.
Is 't niet zo wouter dat die ECC gedaan wordt om juist potentiele fouten uit berekeningen op te vangen?
Het is maar net hoe je het uitlegt. Die ECC doen ze om fouten in de overdracht tussen CPU en geheugen te kunnen detecteren (en eventueel ook in geheugencellen zelf) en repareren tot op zekere hoogte.
Het gevolg hiervan is dat je dus ook meer zekerheid hebt dat de ingevoerde data voor de berekening klopt. Het is niet zo dat ze daarmee je berekening zelf controlleren.
De uptime lijkt me niet zo'n probleem aangezien deze cpu's toch wel hot-swap zullen zijn?
Hot-swappen van CPU's doe je volgens mij in de praktijk alleen maar om de boel te upgraden en mischien een heel enkele keer omdat er 1 kapot is gegaan. Maar als ik kijk naar het aantal defecte CPU's in de consumentenmarkt, dan is dat heel weinig tegenwoordig en bijna altijd DOA of door de gebruiker of als gevolgschade doordat een mainboard oid. defect raakte.
Maar de uptime is zeker wel belangrijk van dergelijke systemen. Als ze namelijk geen ECC toepassen en er is een keer een bitje omgevallen, dan kan je hele systeem vastlopen of mogelijk erger, fouten maken.
Deze CPU's zijn niet per definite hot-swap.
Lijkt er een beetje op dat iedereen alleen maar denkt aan super systemen als Itanium tersprake komt.
Itanium is gewoon een processor die je bij bijv HP terug vindt in lowend, midrange en high-end systemen die oa HP-UX draaien.
Afhankelijk van het type systeem is zo'n cpu dan wel of niet hot-swap.
Dit zijn CPU`s voor brute reken kracht. waarbij ze meestal in 10 of honderd tallen verkocht worden.

Samen zullen deze CPU`s een gigantische heoeveelheid data kunnen verstouwen. En als je ziet dat de bandbreedte verachtvoudigd is. Gaat het inderdaad langzaam maar beter met de Itanium. Als veel software makers er ook nog software voor hebben is het helemaal mooi. Microsoft heeft zelfs een apparte Windows Server versie voor de Itanium (IA64). Dan zal Microsoft er ook wel enige heil in zien.
Wel jammer dat Intel alleen aan de CPU zijn geld verdient. IBM kan een hoge premie vragen voor hun systemen en daarna nog eens voor consultancy.

Eigenlijk kan wat Intel doet alleen in een markt waar nauwelijks concurrentie is (en waar dus ook voor de CPU alleen een premie gevraagd kan worden). Anders kunnen ze nooit het geld bij elkaar schrapen voor de enorme investeringen die hiermee gemoeid zijn.

Enige voordeel voor Intel is dat ze de state-of-the-art fabrieken toch al hebben staan voor x86.
Intel zegt zelf dat de Itanium winstgevend is, dus dat zal wel in orde zitten. Voor de systemen van de Itanium, heeft Intel met HP een prima partner. Aangezien HP in het verleden flink heeft mee geinversteerd in het Itanium project, zal het niet snel meer hier uitstappen.
De markt van de Itanium is misschien nie zů breed, maar er is zeker wel concurrentie. Het aantal aanbieders is zelfs verkleind, juist omdat Intel betere producten kon bieden dan de concurrentie. Op het moment is IBM in deze markt eigenlijk veel groter dan Intel, dus je kan hier zeker niet spreken van een Intel monopoly.

Natuurlijk kan Intel doordat ze zo breed in de computermarkt zitten, wel allerlei schaalvoordelen toepassen, en tegenslagen opvangen. Maar dat geldt voor al hun producten. Als de Intel ergens een foutje maakt, en een matig product lanceert, hebben ze gewoon genoeg adem een of zelfs twee generaties later terug te slaan, zonder in de problemen te komen. Natuurlijke en luxe waar andere bedrijven alleen maar van kunnen dromen.
Wat betreft die concurrentie:

Wat ik eigenlijk bedoel is dat Intel volgens mij de enige is in het enterprise segment die kale CPU's aanbiedt (nou ja, ze zijn niet helemaal kaal, ook chipsets en waarschijnlijk uitgebreide ontwikkelomgevingen).

Ik dacht toch dat IBM alleen zelf compu's bouwt om de PowerX heen? En hetzelfde voor Sun?
R&D is vrijwel nooit voor 1 product.
De R&D afdelingen van server, desktop en mobile chips hebben toch wel een bepaalde synergie.
Tussen de Montvale en Tukwila zit een enorm verschil. Zeker in die van de bandbreedte maar dit komt door interne geheugencontrollers en csi. Dat is zeker netjes gedaan dan.

Meteen 45nm overslaan en doorgaan met 32nm is ook wat :*)
Dit geeft wel aan dat ze heel veel vertrouwen hebben in 32 nm. Nu zullen ze hier ook wel al mee bezig zijn, want 45 nm is al bijna klaar. Maar het verbaast me wel dat het tegenwoordig ogenschijnlijk allemaal zo "makkelijk" gaat.

Eigenlijk ben ik wel benieuwd waarom Intel nu nog "oude" techniek gebruikt en vanaf 2010 niet meer...
Goedkoper en betrouwbaarder. De oude fabrieken staan er tenslotte al en er is veel capaciteit vrij doordat de x86 producten op nieuwe productielijnen geproduceerd worden. Gegeven de marges op een Itanium processor maakt het weinig uit dat de chip extreem groot wordt en de yield laag is.

Het grote nadeel is natuurlijk dat het stroomverbruik en ook de performance van de oude processen slechter zijn. Precies de reden waarom Intel voor de x86 chips wel naar een kleiner proces overstapt.

Schijnbaar denkt Intel zoveel productiecapaciteit op het 32nm process te krijgen dat er ruimte is om ook de itanium op dat proces te gaan fabriceren.
Maar dan is het proces dus nog steeds minder betrouwbaar, zoals jij terecht aangeeft.

Wellicht gaan ze dit oplossen met nog meer testen of meer ECC op de proc.
Ja maar dit houd wel een keer op ze kunnen niet nog heel veel kleiner! ( 20 nm ) Dan moeten ze wel met een andere architekteur komen. met als gevolg echte inovatie :*)

[Reactie gewijzigd door wiskid op 16 juni 2007 09:09]

De Itanium is een nieuwe architectuur (IA64). Althans radicaal anders en niet compatibl met x86. De innovatie is er dus al.
De Pulson met 8 Cores? :D
Staan mooie tijden voor intel te wachten. alhoewel sommige nog wel even op zich laten wachten

[Reactie gewijzigd door sontax op 16 juni 2007 08:16]

De L3 cache en FSB lopen ook flink op.
De klok blijft wel (erg) laag.

[Reactie gewijzigd door Spammy op 16 juni 2007 15:42]

Ach het zou onderhand toch wel bekent moeten zijn dat een lage clocksnelheid nog maar weinig zegt.
De Itanium zal voor Intel echt geen goede tijden gaan bezorgen, de omzet in dit segment is echt niet hoog in vergelijking tot de desktop/laptop x86 cpu's. De itaniums kosten wel veel en er is dus veel op te verdienen maar de markt is gewoon te klein
Het maakt winst volgens hun en dan is het misschien niet veel maar wel de moeite waar zou ik zeggen. Verder zeg je dat de markt te klein is maar dat klopt ook niet zou ik zeggen. Als ie te klein was zouden ze er geen geld in blijven stoppen en geen winst eruit halen.
Zolas mijn prof bedrijfeconomie het lang geleden verwoordde: omzet is een feit, winst is een mening.
Ik ken 'm als "cashflow is een feit, winst is een mening"
Wake up and smell the coffee!

Welke investeerder denk je dat er nu enige interesse heeft in AMD?

Ja, om het straks op te kopen en in kleine stukjes weer door te verkopen.
Sorry, maar dat is onzin , amd gaat echt niet binnen nu en paar jaar verdwijnen
ben geen FAN Boy heb alles van intel, maar wat ik bedoel amd werkt heel anders kwa Cpu's de opbouw het gebruik en vergeet niet AMD veel kleiner is als intel en met veel bedoel ik echt veel , voor AMD was het een grootte stap ATI overtenemen en daar komen ook de vruchten nog wel van trust me

Amd probeerd nieuwe dingen , intel behoud het oude , denk als zo door gaat met INTEL en hun Cpu's dat iedereen op de 8 gig geheugen gaat zitten om je Quads goed te benutten..

Terwijl de AMD cpu's heel anders te werk gaan vanaf het begin dus zo slecht is amd niet , alleen " lopen " ze een soort van achter maar wat is 1 jaar sinds dual core / core 2 duo er nou is ? Dat is voor een bedrijf zoals Amd natuurlijk niks de research en Fabriceren duurt veel langer , ( desondanks hoop ik wel ze met iets leuks komen )
maar ik vergeet niet de tijd dat AMD met de 64 bit kwam en de X2 en INTEL nog geen antwoord had :)
Amd probeerd nieuwe dingen , intel behoud het oude , denk als zo door gaat met INTEL en hun Cpu's dat iedereen op de 8 gig geheugen gaat zitten om je Quads goed te benutten..
Deze Itanium is anders een stuk 'nieuwer' dan AMD's 64-bit uitbreiding op Intels x86-architectuur uit 1978.
De Itanium is een uniek en gedurfd concept (de Pentium 4 strikt genomen ook (ik noem HyperThreading, Trace cache, double-pumped ALUs, extreem diepe pipeline), maar helaas was dat geen succes). De Athlon64 borduurt gewoon voort op bestaande concepten.
Verdiep je alsjeblieft eerst eens in de achtergrond van de Itanium. Je zult verbaasd staan.

Ik snap trouwens je opmerking over 8 gig niet?
maar ik vergeet niet de tijd dat AMD met de 64 bit kwam en de X2 en INTEL nog geen antwoord had
Tsja, strikt gezien is de Itanium natuurlijk de 64-bit processor van Intel, en is de Opteron daar het antwoord op.

[Reactie gewijzigd door ddbruijn op 17 juni 2007 01:17]

Ere wie ere toekomt maar HyperThreading is primair een DEC ontwikkeling. http://en.wikipedia.org/wiki/Simultaneous_multithreading / http://en.wikipedia.org/wiki/Hyper_threading

extreem diepe pipeline Is de grootste blunder van de P4, dit maakt de processor de snelste RAM pomp. Had heel snelle geugens transfer rates. Maar bij echte programma's dir niet lineair in het geheugen zit was deze langzaam, in verhouding tot de AMD processoren.

Ik wil niet negatief zijn. Maar zowel Intel als AMD kunnen/konden niet tippen aan DEC en IBM. Ze doen/deden veel meer fundementeel onderzoek. Is DEC ook gedeeltelijk fataal geworden.

Heel veel technologie die Intel aan boord heeft komt van DEC. http://en.wikipedia.org/wiki/Digital_Equipment_Corporation
<quote>
As part of a settlement, DEC's chip business was sold to Intel. This included DEC's StrongARM implementation of the ARM computer architecture, which Intel sold as the XScale processors commonly used in Pocket PCs.
</quote>

Daarbij heeft en gaat de Itanium heel veel Alpha technology overnemen: http://news.zdnet.com/2100-9595_22-826572.html

<quote>
Santa Clara, Calif.-based Intel is readying two new versions of its Itanium chip--code-named Montecito and Chivano--that will incorporate concepts from the Alpha architecture, according to sources.
</quote>

Ok vind het zelf wel grappig dat je in de HP/Compaq Notebooks nog kleine overeenkomsten met de DEC notebooks kan terug vinden.

Tsja, strikt gezien is de Itanium natuurlijk de 64-bit processor van Intel, en is de Opteron daar het antwoord op.

Itanium is een 64 bit processor van HP en Intel.
http://en.wikipedia.org/wiki/Itanium

<quote>
The architecture originated at Hewlett-Packard (HP) and was jointly developed by HP and Intel.
</quote>

AMD heeft heel goed naar het verlden gekeken. Het is veel moeilijker om compleet om te gaan naar een nieuw platvorm. Dan om het huidige "verouderde" platform te verbeteren. Hierdoor konden ze de x86 serie nog op het vereiste niveau tillen.

De Athlon64 borduurt gewoon voort op bestaande concepten.
Dat doet de Itanium in de zelfde mate. Het is heel gemakkelijk om AMD op deze manier onderuit te schoffelen, IMO niet terecht.
AMD heeft uiteindelijk ook de hyper transport ontwikkeld en x86-64.

Intel heeft twee van de slechtste implementaties op hun naam staan. IDE en USB, er waren op dat moment veel betere opties. Maar Intel wist het beter. Gelukkig is met SATA het roer omgegaan en hebben ze goed afgekeken bij SCSI.

Ik heb de laatste tijd buiten de cell en de transmeta processoren geen enkele revolutie in de CPU markt gezien.

[Reactie gewijzigd door worldcitizen op 17 juni 2007 16:17]

Ere wie ere toekomt maar HyperThreading is primair een DEC ontwikkeling. http://en.wikipedia.org/wiki/Simultaneous_multithreading / http://en.wikipedia.org/wiki/Hyper_threading
Primair een IBM-ontwikkeling, DEC de eerste die het in een CPU toepaste, Intel de eerste die het op de markt bracht (en zeker de eerste op de desktop).
In de desktop/x86-wereld was het wel degelijk zeer nieuw.
extreem diepe pipeline Is de grootste blunder van de P4, dit maakt de processor de snelste RAM pomp. Had heel snelle geugens transfer rates. Maar bij echte programma's dir niet lineair in het geheugen zit was deze langzaam, in verhouding tot de AMD processoren.
Als je revolutionair bezig bent, kun je wel eens een misstap maken ja. Neemt niet weg dat je revolutionair bezig bent.
Ik wil niet negatief zijn. Maar zowel Intel als AMD kunnen/konden niet tippen aan DEC en IBM. Ze doen/deden veel meer fundementeel onderzoek. Is DEC ook gedeeltelijk fataal geworden.
Dat zal je tegenvallen, maar ik krijg sterk de indruk dat jij van Intel weinig weet, naast hun x86 processors. Intel is nota bene het bedrijf dat de microprocessor heeft *uitgevonden*.
Nadeel bij x86 is dat veel technologie zo 'hedendaags' is... Als DEC of IBM iets doet, ziet er er dan automatisch 'exotisch' en 'interessant' uit.
Heel veel technologie die Intel aan boord heeft komt van DEC.
Nee hoor, kijk maar eens naar de datum van die overeenkomst. Pas in 1997 nam Intel de zaak over. Arm hebben ze inderdaad gewoon van DEC overgenomen en doorgezet.... Maar in 1997 was het ontwerp van de Pentium 4 al onderweg... En de P4 lijkt in de verste verte niet op een DEC-chip.
Hooguit dat ze nu wat technologie van DEC in de Core2 verwerkt hebben, maar ik zou niet weten wat, omdat in feite bijna alles van de Core2 wel terug te leiden is naar eerdere Intel-processors.
AMD heeft waarschijnlijk meer technologie van DEC in hun x86s dan Intel, want AMD heeft voor de K7 een hoop technologie van DEC in licentie genomen, oa de hele execution core, en hun snelle ALUs en FPUs zijn te danken aan de Alpha.
Daarbij heeft en gaat de Itanium heel veel Alpha technology overnemen: http://news.zdnet.com/2100-9595_22-826572.html
Tsja, maar de Itanium bestaat al jaren, en is zonder de hulp van DEC totstand gekomen... Dus?
Itanium is een 64 bit processor van HP en Intel.
http://en.wikipedia.org/wiki/Itanium
Dat weet ik, en dus? Intel staat er gewoon bij. AMD niet. AMD werkt trouwens veelvuldig samen met IBM, moeten we die ook steeds noemen?
AMD heeft heel goed naar het verlden gekeken. Het is veel moeilijker om compleet om te gaan naar een nieuw platvorm. Dan om het huidige "verouderde" platform te verbeteren. Hierdoor konden ze de x86 serie nog op het vereiste niveau tillen.
Niet iets waar ik blij mee ben. Intel had trouwens ten tijde van de 80386 ook al een 32-bit RISC architectuur in ontwikkeling, maar destijds hebben ze zichzelf uit de markt geprezen. Ze wilden deze keer die fout niet maken, maar nu heeft AMD de fout voor ze gemaakt. Zitten we weer zeker 10 jaar aan de x86 vast.
Dat doet de Itanium in de zelfde mate. Het is heel gemakkelijk om AMD op deze manier onderuit te schoffelen, IMO niet terecht.
AMD heeft uiteindelijk ook de hyper transport ontwikkeld en x86-64.
Absoluut niet. Weet je ook maar iets af van de Itanium? Wat de Itanium doet is op een aantal punten nog nooit eerder gedaan.
HyperTransport van AMD is niet uniek in de server-wereld. Dergelijke CPU-communicatiesystemen werden al jaren gebruikt in grote servers en supercomputers.
Verder is x86-64 absoluut niet boeiend, vanuit technisch oogpunt. Het is bijna precies hetzelfde als de gewone x86, maar dan met 64-bit registers en verwerkings-eenheden. Dat had iedere halve zool kunnen bedenken. Dat vind ik net zoiets als een dualcore processor met een quadcore vergelijken. Als je de technologie voor dualcore hebt, ligt quadcore nogal voor de hand. Meer van hetzelfde.
Intel heeft twee van de slechtste implementaties op hun naam staan. IDE en USB, er waren op dat moment veel betere opties.
Beter, maar vaak ook duurder. En dat is ook niet onbelangrijk.
Afgezien daarvan hebben alle bedrijven wel wat minder goede producten ontworpen door de jaren (de IBM-PC, waarmee het hele x86-verhaal begonnen is, was technisch ook om te huilen, vergeleken bij bv de Apples uit die tijd). Je kunt niet altijd winnen. Ik vind dat je steeds duidelijker tegen Intel aan het schoppen bent, ipv objectief probeert te kijken naar de technolgie en mogelijkheden van de Itanium (want daar gaat het nieuwsitem tenslotte om, en niet om IDE of USB of wat dan ook).
Ik heb de laatste tijd buiten de transmeta processoren geen enkele revolutie in de CPU markt gezien.
Was ook niet zo'n succes he (wat je bij Intel aandraagt als argument tegen een revolutionaire technologie)? :)
Verder is de Transmeta met z'n lichtgewicht VLIW-core en 'software' om de complexiteit van de code af te handelen eigenlijk meer verwant met de Itanium dan de x86.

[Reactie gewijzigd door ddbruijn op 17 juni 2007 16:09]

Dat zal je tegenvallen, maar ik krijg sterk de indruk dat jij van Intel weinig weet, naast hun x86 processors. Intel is nota bene het bedrijf dat de microprocessor heeft *uitgevonden*.

Niet overdrijven. Intel was de eerste die een alu en IO logica op een stuk silicium maakte. De ALU en IO bestond al, maar werd tot dan toe discreet uitgevoerd. Het was technisch zeker van hoogniveau, maar om iemand daarom alleen om dit gegeven tot de goden status te verheven lijkt me erg overdreven.
http://en.wikipedia.org/wiki/Microprocessor
http://research.microsoft...l/timeline/pdp-1story.htm
http://www.dbit.com/~greeng3/pdp1/pdp1.html

Zo heeft Telefunken het PAL TV systeem uitgevonden. Ik weet niet of ze nog bestaan maar ze stellen op dit gebied niets meer voor.

Philips is de uitvinder van optische media, ze zijn (helaas, ze hadden technologisch een gewelding produkt voor al enkel straals laser optics) verworden tot een trend volger.

Dat weet ik, en dus? Intel staat er gewoon bij. AMD niet. AMD werkt trouwens veelvuldig samen met IBM, moeten we die ook steeds noemen?

Dit slaat totaal nergens op. Het primaire ontwerp is van AMD dat verbeterd wordt met IBM technologie (OOk enorme verbeteringen in het productie proces zoals SIO strained slicium etc).

Bij de Itanium is de primaire ontwerp van HP dit is verder ontwikkeld door Intel samen met HP. Later is de hele ontwikkeling Intel geworden. HP heeft er wel degelijk de primaire bijdrage geleverd aan het primaire ontwerp.

Absoluut niet. Weet je ook maar iets af van de Itanium? Wat de Itanium doet is op een aantal punten nog nooit eerder gedaan.

Natuurlijk doet de Itanium een aantal dingen die nog nooit eerder gedaan zijn (bijvoorbeeld een extreem grote cache). Dat doen de Sparc (tm iV+ en de vooral de T1) en de Powers van IBM, de Cell en zelfs de x86 ook. IMO geen enkel verschil met de concurentie.

Verder is x86-64 absoluut niet boeiend, vanuit technisch oogpunt. Het is bijna precies hetzelfde als de gewone x86, maar dan met 64-bit registers en verwerkings-eenheden. Dat had iedere halve zool kunnen bedenken.

Ok als iedere halve zool dit had kunnen ontwerpen, dan geef ik je een heel eenvoudiuge opdracht. Ontwikkel van de grond af een 8 bits processor die alle instructies kan (niet met de zelfde mneumonics) dan de 6809 die ook een een floating point unit en een MMU heeft. Ik verzeker je dat dit veel eenvoudiger is als de x86-64 implementatie. Mogelijk bereik je nog niet eens de halve zool status, zoals je het zelf omschrijft.

Ik vindt het echt een erg domme opmerking. Je weet totaal niet wat de x86-64 implementatie inhoud, pecies wat je me verwijt t.a.v de Itanium. Het zijn helemaal niet alleen het toevoegen van registers. Het hele security model van de x86 is om gegooit tov de 32 bits implementatie, daarbij heeft AMD een IO-MMU toegevoegd. Het is mogelijk zelfs moeilijker om een 64 bits implementatie toetevoegen aan een bestaande processor, die bruikbaar is, dan een processor van de grond af op te bouwen. Je moet namelijk ook zorgen dat de oude zaken nog blijven werken.

* worldcitizen IMO is het duidelijk dat een duidelijke aversie tov AMD hebt.

AMD heeft waarschijnlijk meer technologie van DEC in hun x86s dan Intel, want AMD heeft voor de K7 een hoop technologie van DEC in licentie genomen, oa de hele execution core, en hun snelle ALUs en FPUs zijn te danken aan de Alpha.

Dat klopt daar is ook niets mis mee. Er is ook niets mis mee dat Intel dit doet. Maar veel mensen die Intel verafgoden willen dit niet zien, ze willen alleen zien dat Intel alles zelf uitgevonden heeft.

IDE en USB Beter, maar vaak ook duurder. En dat is ook niet onbelangrijk. Ja mogelijk licentie en politiek. Maar kosten niet IMO. De NCR 810 implementatie op de south bridge (In de tijd dat IDE begon) was minimaal duurder geweest. Voor USB bestond al een perfect werken alternatief, wat volgens mij zelfs licentie vrij is, Firewire c.q IEE1394.

Transmeta Was ook niet zo'n succes he (wat je bij Intel aandraagt als argument tegen een revolutionaire technologie)? :)

Totaal niet mee eens. De reden dat Transmeta "geflopt is" is puur commercieel en mogelijk produktie technisch. De lange pipeline in de P4 vertraagde deze processor in "real life" applicaties enorm. Door deze denkfout is deze processor uiteindelijk getermineerd. Natuurlijk kan zo'n denkfout ontstaan, en is mogelijk zelfs niet verwijtbaar. Maar het is wel primair de reden waarom deze processor als zwakste ontwerp in de Intel geschiedenis zal eindigen, technisch mogelijk enorm vernieuwend, maar "in real life" niet competatief.

AMD heeft ook een zwarte bladzijde in de vorm van de K5, ik ben er ook van overtuigt dat als AMD Nexgen niet overgenomen had het x86 avontuur van AMD geeindigd zou zijn.

Niet iets waar ik blij mee ben. Intel had trouwens ten tijde van de 80386 ook al een 32-bit RISC architectuur in ontwikkeling, maar destijds hebben ze zichzelf uit de markt geprezen. Ze wilden deze keer die fout niet maken, maar nu heeft AMD de fout voor ze gemaakt. Zitten we weer zeker 10 jaar aan de x86 vast.

Klopt is misschien jammer aan de andere kant zie ik persoonlijk geen enkele optie waar ik warm van binnen van wordt. De Power G* zijn IMO dood, daar had ik nog een beetje hoop op. De enigste waar ik een beetje op hoop is de Cell.

De x86 is zeker niet het beste ontwerp, heeft legacy zaken aan boord, maar heeft een enorm voordeel tov alle andere processoren. Het is betaaldbaar. Ik heb geen behoefte om de hoofdprijs voor een Power*, Itanium, Sparc IV+ te betalen. Doe me dan maar een x86 voor rond de 100 Euro.

Ik weet nog goed dat mainbaords met DEC alphas te koop waren. Ze vroegen er 2000 Gulden voor. Ondanks dat ik het de beste processor van die tijd vond, geen haar op mijn hoofd die er aan dacht om zoiets te kopen, voor die prijs.


Nog over of AMD imnnovatief is. Mogelijk vind je virtualisatie niet interresant. Naar AMD heeft IO-MMU Ontwikkeld dat in de toekomstige AMD64 processoren gaat komen. Door de IO-MMU kan vanuit een Virtual machine de Hardware direct aan gesproken worden. Vooral interressant voor Viide (PCI express). Waardoor je bijvoorbeeld ook alle spellen of 3D applicaties kunt doen vanuit ene virtual machine.

Links:
http://www.amd.com/us-en/...s_and_tech_docs/34434.pdf
http://www.amd.com/us-en/...51_104_543~117440,00.html
Niet overdrijven.
Jij moet niet overdrijven... Intel de grond in trappen vanwege IDE en USB, terwijl dit zeer succesvolle technologieen zijn is bv nogal overdreven.
Bovendien heeft het weinig te maken met hun processors, dus je dwaalt af.
Zo heeft Telefunken het PAL TV systeem uitgevonden. Ik weet niet of ze nog bestaan maar ze stellen op dit gebied niets meer voor.

Philips is de uitvinder van optische media, ze zijn (helaas, ze hadden technologisch een gewelding produkt voor al enkel straals laser optics) verworden tot een trend volger.
Maar dat heeft hier weinig mee te maken. Intel laat AMD alle hoeken van de x86-wereld zien, en de Itanium doet het ook niet onverdienstelijk in de serverwereld, en dat terwijl Intel nu eigenlijk pas serieus z'n resources op de Itanium wil gaan zetten, om zo ook daar de laaste technologie toe te kunnen passen.
Intel is dus nog prima bezig.
Bij de Itanium is de primaire ontwerp van HP dit is verder ontwikkeld door Intel samen met HP. Later is de hele ontwikkeling Intel geworden. HP heeft er wel degelijk de primaire bijdrage geleverd aan het primaire ontwerp.
Mag ik je eraan herinneren dat AMD x86-processors maakt, en het primaire ontwerp dus van Intel is? Je bent dus met twee maten aan het meten.
Natuurlijk doet de Itanium een aantal dingen die nog nooit eerder gedaan zijn (bijvoorbeeld een extreem grote cache). Dat doen de Sparc (tm iV+ en de vooral de T1) en de Powers van IBM, de Cell en zelfs de x86 ook. IMO geen enkel verschil met de concurentie.
Nee, maar je loopt op Intel af te geven dat ze niet genoeg nieuwe dingen doen. Nu geef je dus toe dat ze dat wel doen.
Overigens is de cache verreweg het minst boeiende aan de Itanium. Verdiep je eens in het idee van code-bundles en de manier waarop branches afgehandeld worden... en de keuze voor een 'starre' pipeline met de complexiteit naar software verhuisd.
Ik vindt het echt een erg domme opmerking. Je weet totaal niet wat de x86-64 implementatie inhoud, pecies wat je me verwijt t.a.v de Itanium. Het zijn helemaal niet alleen het toevoegen van registers. Het hele security model van de x86 is om gegooit tov de 32 bits implementatie, daarbij heeft AMD een IO-MMU toegevoegd. Het is mogelijk zelfs moeilijker om een 64 bits implementatie toetevoegen aan een bestaande processor, die bruikbaar is, dan een processor van de grond af op te bouwen. Je moet namelijk ook zorgen dat de oude zaken nog blijven werken.
Pfft, natuurlijk weet ik dat, ik ben nota bene assembly programmeur. Maar ik word er niet warm van. En moeilijk is het helemaal niet, ze konden gewoon afkijken hoe Intel het bij de 386 had gedaan. Gewoon met wat prefix bytes strooien hier en daar, wat aan het decodertje sleutelen en hop. Mede daarom kon Intel het ook redelijk eenvoudig aan de Pentium 4 toevoegen.

Itanium is compleet anders, en dat maakt het heel interessant. En jij hebt nog geen enkele opmerking gemaakt die mij doet vermoeden dat je ook maar enig idee hebt van hoe het werkt.
* worldcitizen IMO is het duidelijk dat een duidelijke aversie tov AMD hebt.
Nee hoor, jij ziet AMD als minstens gelijkwaardig met Intel, maar de waarheid is toch wel iets anders. AMD is veel kleiner dan Intel en beschikt over veel minder middelen, en heeft mede daarom ook minder innovaties op z'n naam en minder succesvolle producten. Dat is geen aversie, dat is de werkelijkheid. AMD doet het verder niet onverdienstelijk gezien hun mogelijkheden, maar ik denk wel dat ze boven hun stand geleefd hebben door het succes van de K8, en daar krijgen ze nu met Barcelona de rekening voor gepresenteerd. Jammer, maar helaas. Ik kan het niet mooier maken dan het is.
De lange pipeline in de P4 vertraagde deze processor in "real life" applicaties enorm. Door deze denkfout is deze processor uiteindelijk getermineerd. Natuurlijk kan zo'n denkfout ontstaan, en is mogelijk zelfs niet verwijtbaar. Maar het is wel primair de reden waarom deze processor als zwakste ontwerp in de Intel geschiedenis zal eindigen, technisch mogelijk enorm vernieuwend, maar "in real life" niet competatief.
Niets is minder waar.
Ten eerste is de Pentium 4 een van de langstlopende architecturen uit de geschiedenis van Intel, en ten tweede heeft men er nooit verlies op geleden, dus commercieel was het gewoon een solide product.
Ten tweede ben ik het als programmeur niet mee eens dat het probleem in de processor zit. Ik heb zelf nogal eens code voor de Pentium 4 geoptimaliseerd, en die processor kon in de meeste gevallen prima presteren als je je code had aangepast.
Zo heeft Intel altijd al gewerkt. Een Pentium was ook niet supersnel als je er 486-code op draaide. Met geoptimaliseerde code kon je veel meer uit de tweede pipeline halen. De Pentium Pro/II/III was op zijn beurt zelfs trager met Pentium-code qua IPC, maar kwam tot leven met geoptimaliseerde code.
De P4 zette deze trend gewoon voort... Ik denk dat deels de architectuur teveel afweek, en deels de programmeurs te weinig wisten van het schrijven van code voor de Pentium 4 (of dit vanwege het grote aantal Pentium II/III en Athlon-systemen achterwege lieten). Daarom heeft de P4 hele goede, maar ook hele slechte kanten. Desondanks was de P4 ten tijde van de Northwood compleet onaantastbaar, en kampte AMD met hitte-problemen omdat hun Athlon XPs tot op het bot geklokt moesten worden. Niet competitief? Ik denk dat AMD daar heel anders over denkt.
Ik snap dus niet zo goed dat men de P4 zo graag afzeikt. De Athlon64 is toch ook gedeklasseerd door de Core2, ook al was hij lange tijd onaantastbaar? Ik zie niemand de Athlon64 de grond in trappen. Weer die twee maten.
Ik vind de P4 absoluut geen zwarte bladzijde. Misschien niet de beste CPU die ze ooit gemaakt hebben, maar zeker ook niet de zwaktste (ik denk dat de Pentium Pro die eer toekomt, hoewel die ironisch genoeg dan weer ten grondslag ligt aan de PII, PIII, P-M en Core, die toch allen behoorlijk succesvol waren).
Klopt is misschien jammer aan de andere kant zie ik persoonlijk geen enkele optie waar ik warm van binnen van wordt. De Power G* zijn IMO dood, daar had ik nog een beetje hoop op. De enigste waar ik een beetje op hoop is de Cell.
De Cell vind ik maar een raar gedrocht (waar Sony een perverse voorkeur voor blijkt te hebben door de hele PlayStation-geschiedenis), en lijkt mij buiten specifieke systemen als de PS3 niet interessant. Het is te lastig om te programmeren, en voor generieke desktop/servertaken is het helemaal geen interessant ontwerp. Een 'gewone' multicore-processor is daar veel geschikter voor.
De x86 is zeker niet het beste ontwerp, heeft legacy zaken aan boord, maar heeft een enorm voordeel tov alle andere processoren. Het is betaaldbaar. Ik heb geen behoefte om de hoofdprijs voor een Power*, Itanium, Sparc IV+ te betalen. Doe me dan maar een x86 voor rond de 100 Euro.
Economies of scale.
Als Intel miljoenen Itaniums zou verkopen, zouden de R&D kosten over een veel groter aantal processors uitgesmeerd kunnen worden, en zouden de kosten veel lager liggen (en zou men misschien ook meer investeren in de ontwikkeling).
Omgekeerd zou een x86 ook enorm duur zijn als er maar een paar duizend per jaar van verkocht worden.
Een Itanium kan natuurlijk in theorie best voor 100e gemaakt worden. Haal de L3-cache eraf, en je hebt al een kleiner oppervlak dan een x86. Aan de productiekosten zal het dus niet liggen.
Nog over of AMD imnnovatief is. Mogelijk vind je virtualisatie niet interresant. Naar AMD heeft IO-MMU Ontwikkeld dat in de toekomstige AMD64 processoren gaat komen. Door de IO-MMU kan vanuit een Virtual machine de Hardware direct aan gesproken worden. Vooral interressant voor Viide (PCI express). Waardoor je bijvoorbeeld ook alle spellen of 3D applicaties kunt doen vanuit ene virtual machine.
En waarin verschilt dat precies van wat Intel heeft (en gezien de datum van het artikel ook al geruime tijd voor AMD)?
http://www.intel.com/tech...form-hardware-support.htm
Jij moet niet overdrijven... Intel de grond in trappen vanwege IDE en USB, terwijl dit zeer succesvolle technologieen zijn is bv nogal overdreven.
Bovendien heeft het weinig te maken met hun processors, dus je dwaalt af.


Sorry maar hier ga ik niet meer op in. Je legt me woorden in de mond.

Mag ik je eraan herinneren dat AMD x86-processors maakt, en het primaire ontwerp dus van Intel is? Je bent dus met twee maten aan het meten.

Ik heb het verkeerd verwoord. De x86 van AMD is naar specificaties van Intel door AMD ontwikkeld niet door IBM. IBM heeft wel meegeholpen met verbeteringen.

Pfft, natuurlijk weet ik dat, ik ben nota bene assembly programmeur. Maar ik word er niet warm van. En moeilijk is het helemaal niet, ze konden gewoon afkijken hoe Intel het bij de 386 had gedaan. Gewoon met wat prefix bytes strooien hier en daar, wat aan het decodertje sleutelen en hop. Mede daarom kon Intel het ook redelijk eenvoudig aan de Pentium 4 toevoegen.

Sorry maar je hebt het nu puur over software. Zeer waarschijnlijk ben je beter in programmeren dan ik. Maar je vergeet een belangrijk aspect, dit is de hardware. Ik heb het gevoel dat je dit deel heel erg onderschat.

Ten tweede ben ik het als programmeur niet mee eens dat het probleem in de processor zit. Ik heb zelf nogal eens code voor de Pentium 4 geoptimaliseerd, en die processor kon in de meeste gevallen prima presteren als je je code had aangepast.

Dat geloof ik direct. Maar de meeste code bestaat al en en maakt daardoor niet optimaal gebruik van de lange pipelines.

De Cell vind ik maar een raar gedrocht (waar Sony een perverse voorkeur voor blijkt te hebben door de hele PlayStation-geschiedenis), en lijkt mij buiten specifieke systemen als de PS3 niet interessant. Het is te lastig om te programmeren, en voor generieke desktop/servertaken is het helemaal geen interessant ontwerp. Een 'gewone' multicore-processor is daar veel geschikter voor.

Ik zou zeggen verdiep je eens in deze processor. http://www.research.ibm.com/cell/
Ik denk dat we hier veel meer van zullen zien dan veel mensen verwachten.

Een Itanium kan natuurlijk in theorie best voor 100e gemaakt worden. Haal de L3-cache eraf, en je hebt al een kleiner oppervlak dan een x86. Aan de productiekosten zal het dus niet liggen.

Jij en ik weten niet wat het effect is van het weg laten van de L3 cache, mogelijk gaat dit enorm ten koste van de performance.

En waarin verschilt dat precies van wat Intel heeft (en gezien de datum van het artikel ook al geruime tijd voor AMD)?
http://www.intel.com/tech...form-hardware-support.htm


De versie die ik noemde was 1.2. 1.0 was 1-2-2006 bekend gemaakt.

http://en.wikipedia.org/wiki/IOMMU

<quote>
# ^ AMD I/O Virtualization Technology (IOMMU) Specification Revision 1.0. Retrieved on 2006-02-01.
# ^ Mainstreaming Server Virtualization: The Intel Approach. Retrieved on 2006-03-01.
</quote>
Ik heb het verkeerd verwoord. De x86 van AMD is naar specificaties van Intel door AMD ontwikkeld niet door IBM. IBM heeft wel meegeholpen met verbeteringen.
Ja, maar daar wil je Intel geen credits voor geven, terwijl je bij de Itanium de inspanning van Intel teniet wilt doen omdat HP er aan heeft meegewerkt.
Maar je vergeet een belangrijk aspect, dit is de hardware. Ik heb het gevoel dat je dit deel heel erg onderschat.
Nee hoor, iedere goed opgeleide software-engineer heeft ook de nodige achtergrond meegekregen in computer organization.
Sowieso heb ik jou in dit topic al meerdere keren betrapt op een gebrek aan kennis van huidige x86-implementaties (zoals met de partial registers, of hoe legacy-instructies niet in hardware ingebouwd zitten etc), dus denk ik niet dat jij hier recht van spreken hebt.
Dat geloof ik direct. Maar de meeste code bestaat al en en maakt daardoor niet optimaal gebruik van de lange pipelines.
Dat doet op zich niets af aan de processor zelf. Performance is altijd een combinatie van hardware en software. In bepaalde sectoren, zoals 3d-rendering of audio/videobewerking wordt er wel een hoop tijd gestoken in het optimaliseren van code, en daar presteerde de Pentium 4 ook altijd glansrijk.
Intel durft tenminste iets nieuws te proberen qua architectuur. Als je de ontwikkelaars niet meekrijgt, begin je niet veel. Is AMD ook overkomen met 3DNow! destijds.
Op zich werkte dat best aardig (heb er zelf ooit eens een matrix/vector library mee geoptimaliseerd), maar geen hond die het gebruikte.
Ik zou zeggen verdiep je eens in deze processor. http://www.research.ibm.com/cell/
Ik denk dat we hier veel meer van zullen zien dan veel mensen verwachten.
Uiteraard had ik me er al in verdiept, en dit was mijn conclusie. Jij geeft blijkbaar ook geen concrete argumenten, dus hoef ik er verder niet op in te gaan.
Ik ga niet mijn goed onderbouwde mening aanpassen omdat jij een linkje plaatst.
Jij en ik weten niet wat het effect is van het weg laten van de L3 cache, mogelijk gaat dit enorm ten koste van de performance.
Jij misschien niet, ik wel. Dat is mijn vak.

[Reactie gewijzigd door ddbruijn op 19 juni 2007 10:12]

Waar borduurt de Itanium op voort dan ?
Overigens zou ik de EPIC architectuur van de Itanium weldegelijk revolutionair willen noemen.
Waar vroeger de processor ontzettend veel werk moest doen en laten we maar zeggen slim moest zijn is de Itanium een 'domme' processor waarbij de compiler ontzettend slim is en ervoor zorgt dat de Itanium de juiste hapklare brokken voorgeschoteld krijgt.
Jammer dat Intel met dit ontwerp dit ontwerp doorgaat. IMO past het niet in deze tijd te groot te duur en te veel vermogen.

Ik hoop dat Intel achter de schermen met een geheim project bezig is om een CPU te ontwikkelen die het beste van de [url=http://en.wikipedia.org/wiki/DEC_Alpha]Alpha[/i] in zich heeft.
Intel heeft alle rechten van de Alpha. http://web.archive.org/we...releases/20010625corp.htm

IMO de beste CPU die bestaan heeft. Jammer dat DEC zo'n "klote" marketing had en de hoofdprijs voor deze chip wou hebben.

[Reactie gewijzigd door worldcitizen op 16 juni 2007 16:37]

Hoezo jammer dat Intel hiermee doorgaat. Itanium kan best nog een x op de desktop komen hoor...

Ooit zal x86-64 aan een opvolger toe zijn. En Itanium kan in 2010 best de perfecte kandidaat hiervoor zijn. Als ze straks op de beste technologie gebakken worden hebben ze niet meer de nadelen van nu voor thuisgebruik. En met weinig cache erop kunnen ze gewoon goedkoop zijn.
Het grote nadeel van de Itanium is dat deze groot is:
http://en.wikipedia.org/wiki/Montecito_(processor)

<quote>
# Die size is 27.72 mm x 21.5 mm, or 596 mm≤
# 90 nanometer design
</quote>

Ik ben het met je eens dat de x86 een opvolger nodig zal hebben. IMO had dat al moeten gebeuren. Maarja, er niet altijd voor het beste gekozen. Dat heeft de tijd vele malen eerder bewezen, anders bestond de Alpha bijvoorbeeld nog.

Ik ben er van overtuigd dat met de huidige kennis en technologien een processor veel zuiniger en sneller kon zijn. Zeker als je legacy zaken er uit weg zou kunnen laten.

Als je ziet dat een Core 2 Duo 143 mm^2 is ondanks de legacy zaken. Is ongeveer 280mm^2 in 90nm.
http://en.wikipedia.org/w...el_Core_2_microprocessors

De tijden zijn ook veranderd, vermogen en milieu zijn nu veel belangrijker geworden. Hopelijk wordt dit de drijfveer om een keer een ultra zuinige processor te ontwikkelen.

Voorbeelden van zuiniger zijn, de ARM , MIPS en Transmeta.

Als ze straks op de beste technologie gebakken worden hebben ze niet meer de nadelen van nu voor thuisgebruik.

Ik verwacht dat ze nog steeds meer vermogen verbruiken dan strikt noodzakelijk is.

* worldcitizen performance technisch is de Itanium een goede processor, maar past IMO niet meer in deze tijd, ivm milieu belasting.
Montecito heeft slechts 28,5 mln tranny's per core. Zie:

http://en.wikipedia.org/wiki/Montecito_%28processor%29

Ik kan zo snel even niet vinden hoeveel dit er zijn voor de Core 2, maar ik neem aan toch minimaal iets van 3x zo veel.

28,5 mln is zo wienig dat je zo naar 8 of 16 cores kan met de litho technieken van de nabije toekomst (45 en 32 nm).

Ik ben i.i.g benieuwd :)

Edit: is reactie op worldcitizen

[Reactie gewijzigd door grizzlybeer op 16 juni 2007 23:12]

Als ik er de zelfde "botte bijl" methode op los laat:

Extra transistors Monecito = Totaal Transtors - Transistors Core = 267M - 57 M = 210M
Core 2 Duo Cores Transistors = Totaal Transistors - Extra Transistors = 291M - 210M = 81M

Per Core = 81M /2 = 40,5M tegen 28.5 M = 12 M meer

Aangezien de Core 2 Duo nog erg veel legacy zaken en Multi media extensies aan boord heeft vind is de Transistor count meevallen voor de Core 2 Duo.
12M meer op een totaal van 28.5M is wel erg veel. Ruim 40%.
Dat tikt erg hard aan als je veel cores gaat gebruiken.
Je moet wel meenemen dat de Itanium van het begin af al 64 Bits was. Dus er zitten geen 8, 16 , 32 en 64bits registers in zoals in een x86 processor. Aangezien het een server processor is heeft deze voor zover ik weet ook Multi media extensies en de manier waarop hoe de floating point unit verbonden is (is voor zover ik weet nog steeds legacy ivm de x87, coprocessor. Dan vindt als je dit in ogenschouw neemt de 12M Transistors niet echt veel.

Aan de andere kant moet ik toegeven dat me de grote van de core van de Montecito meevalt.

Ik heb wel nog het gevoel dat in de veranderende wereld geen plaats meer is voor de traditionele processoren. In 1994 was vermogensverbruik totaal geen issue.

Ik verwacht dat je van bestaande technologie heel moeilijk een heel zuinige processor kunt maken. Waarbij je delen van de processor kunt uitschakelen of omlaag kunt klokken onafhankelijk van andere delen.
Aangezien het een server processor is heeft deze voor zover ik weet ook Multi media extensies
Je bedoelt geen?
Lees mijn post dan. Ik link naar de Instruction Set Reference en geef aan dat ze er WEL zijn (waarom zouden ze niet in een server zitten? Ook HP heeft ze bv in de PA-RISC. Zijn reuze handig voor snel doorrekenen van lineaire stelsels, of het realtime genereren van multimedia-content op een webserver oid).
In een x86 zitten trouwens ook geen 8, 16 en 32-bit registers, op hardware-niveau.
Dat wordt allemaal gesimuleerd. Daar zitten ook haken en ogen aan. Zoek eens naar "partial register stall" in bv de Intel optimization manual. Dat legt het een en ander uit.
Ik verwacht dat je van bestaande technologie heel moeilijk een heel zuinige processor kunt maken. Waarbij je delen van de processor kunt uitschakelen of omlaag kunt klokken onafhankelijk van andere delen.
Waarom niet? De x86 is een van de oudste architecturen ter wereld, en daar hebben ze ook al die fratsen kort geleden in weten te bouwen.
Intel heeft ook jaren geleden al een Pentium 1 gemaakt die asynchroon was:
http://www1.cs.columbia.e...gyreview_oct_01_2001.html
In 1997, Intel developed an asynchronous, Pentium-compatible test chip that ran three times as fast, on half the power, as its synchronous equivalent.
Deze CPU was slechts een experiment, maar een deel van de technologie van deze clockloze x86-processor wordt ook gebruikt in moderne Intel-processors, als de Pentium 4, Pentium M en Core/Core2. Delen van de architectuur zijn al asynchroon.

[Reactie gewijzigd door ddbruijn op 17 juni 2007 12:41]

Waarom niet? De x86 is een van de oudste architecturen ter wereld, en daar hebben ze ook al die fratsen kort geleden in weten te bouwen.

Klopt maar daarvoor is de core van de processor wel helemaal omgegooid. Of dit ook zinvol is voor deze processor, de Itanium? Is in mijn ogen alleen maar interessant als je om bijvoorbeeld commerciŽle redenen een bepaalde architectuur aan wil houden.

Zie bijvoorbeeld de Transmeta (Die ruim minder dan 10 watt verbruikt):
http://www.fool.com/portf.../2000/rulemaker000225.htm

<quote>
Transmeta's Crusoe

For an outright clever solution to feeding VLIW instructions to multiple processor cores without sacrificing IA32 compatibility, let's look at Transmeta's approach. They basically took Intel's translation layer idea from the Pentium and decided to do it in software instead of in hardware.

The Crusoe translates IA32 instructions to VLIW in software and reorganizes the resulting code to keep all the processor cores busy. This is done by a VLIW program Transmeta calls the "Code Morphing" layer (very similar to Sun's Java JIT compiler). Instead of translating each instruction every time it sees it, the Crusoe keeps large chunks of translated instructions around in memory (actually in the CPU cache, which the Crusoe VLIW instruction set can address manually). This way, the Crusoe can spend more time executing translated instructions rather than retranslating them, and if it finds itself executing the same piece of code over and over, it can go back and put extra effort into optimizing it and reorganizing the instructions and such.

The other really cool thing about Transmeta's chips is their lack of heat. They were designed from the ground up for use in portable devices, and thus use much less power than anything else. (In part, this is because they need a lot less circuitry than a Pentium does because they moved so many tasks from hardware to software.) A Crusoe chip only uses one watt of power to run at full speed, and can scale back both its clock speed and its voltage to slow down when it doesn't need that much. What determines how much speed is needed, and controls the voltage and the clock? The code morphing layer, of course. So Crusoe goes in your wristwatch without draining the battery, rather than in a desktop with a big power supply and heat sinks everywhere.

But one big reason I think the Code Morphing approach is superior to what Intel is doing is that the underlying hardware can change. Intel is going through a big shock to introduce the IA64 instruction set, which is important because 32 bits isn't enough anymore and programs have to be rewritten. But if it decides to add more processor cores to each VLIW bundle in the future, programs will have to be recompiled AGAIN. Isolating those kind of details behind a layer of housekeeping software is just a whole lot tidier.
</quote>
Klopt maar daarvoor is de core van de processor wel helemaal omgegooid. Of dit ook zinvol is voor deze processor, de Itanium? Is in mijn ogen alleen maar interessant als je om bijvoorbeeld commerciŽle redenen een bepaalde architectuur aan wil houden.
Waarom niet? Er is al behoorlijk wat software voor de Itanium verkrijgbaar. Ik denk ook niet dat Microsoft staat te springen om Windows WEER te gaan porten. Ze vonden x64 al niet leuk.
Afgezien daarvan snap ik niet waarom je WEL van de architectuur af zou stappen?
Deze architectuur begint een beetje op stoom te komen... Moet je dan alles weggooien en weer opnieuw beginnen, zonder enige garantie dat het ook beter wordt dan wat je nu hebt? Ben je weer heel wat jaren verder, sowieso.
Verder zou ik uberhaupt niet weten wat er nieuwer/beter dan VLIW/EPIC zou zijn, volgens mij is dat gewoon nog state-of-the-art.
Zie bijvoorbeeld de Transmeta (Die ruim minder dan 10 watt verbruikt):
http://www.fool.com/portf.../2000/rulemaker000225.htm
Ja leuk, maar ook de Via Epia is heel zuinig, maar dan met conventionele x86-techniek. En ook de ULV-varianten van Core/Core2 zijn bijzonder zuinig, maar presteren ook nog eens heel behoorlijk.
De Crusoe was gewoon niet goed genoeg om het verschil te maken.
De Itanium draait trouwens op een vergelijkbare manier x86-code, met een JIT-compiler in het OS.
En ook de Pentium 4 heeft wel overeenkomsten met z'n trace-cache.

Verder ben ik nooit echt kapot geweest van die Transmeta. De rest van de wereld blijkbaar ook niet, gezien hoe de zaken gegaan zijn.
Dat laatste zou Foxton (een zeer geavanceerde vorm van powermanagement) dus moeten gaan doen. Is niet gelukt in Montecito, zit er wel aan te komen voor Montvale.

Ik zie overigens niet zo waarom een zuinige processor een andere architectuur/technologie zou vereisen. Ik stel me voor dat je in de toekomst gewoon in een BIOS/EFI achtige laag instelt hoeveel vermogen de proc maximaal mag trekken. Foxton regelt de rest, en zal de core maximaal efficient inzetten voor het gespecificeerde wattage.
Het vermogens verbruik van een Microprocessor wordt voornamelijk veroorzaakt door het schakelen van de transistors (MOSFETS).

In deze link zie je ook dat hoe hoger de frequentie hoe meer schakel verliezen.
http://books.elsevier.com...Chapters/02~chapter_1.pdf

<quote>
Digital systems draw both dynamic and static power. Dynamic
power is the power used to charge capacitance as signals change between
0 and 1. Static power is the power used even when signals do not change
and the system is idle.
Logic gates and the wires that connect them have capacitance. The
energy drawn from the power supply to charge a capacitance C to volt-
age VDD is CVDD2. If the voltage on the capacitor switches at frequency
f (i.e., f times per second), it charges the capacitor f/2 times and dis-
charges it f/2 times per second. Discharging does not draw energy from
the power supply, so the dynamic power consumption is
12
Pdynamic 2 CV DD f (1.4)
Electrical systems draw some current even when they are idle. When
transistors are OFF, they leak a small amount of current. Some circuits,
such as the pseudo-nMOS gate discussed in Section 1.7.8, have a path
from VDD to GND through which current flows continuously. The total
static current, IDD, is also called the leakage current or the quiescent
supply current flowing between VDD and GND. The static power con-
sumption is proportional to this static current:
Pstatic IDDVDD (1.5)
</quote>

http://en.wikipedia.org/wiki/Montecito_%28processor%29
In het vermogens overzicht van de Montecito zie je duidelijk dat het schakelen de vermogens disipatie veroorzaakt. De L3 Cache gebruikt maar 5 Watt vermogen ondanks dat deze uit 1550M Transistors bestaat. De rest gebruikt 80Watt en zijn 170M Transistors bestaat.

Simpel gezegd kunt je vermogens verbruik op 4 manieren beperken.
1) Spanning te verlagen
2) Frequentie te verlagen (In totaal of per niet gebruikt deel) Asynchrone proccessor?
3) Aantal transistoren te beperken
4) Het aantal actief schakelende transistors te verlagen (Als er bijvoorbeeld een Floating point instructie gedaan wordt, de transistors die hier niet bij horen niet laten schakelen) Delen van de processor uitschakelen.
(Waarschijnlijk is dit alles de gedachte van een leek, en zullen in een ARM en MIPS nog veel complexeren mechanismen in zitten).

Je ziet bijvoorbeeld aan een ARM en MIPS dat het design heel erg belangrijk is. Een huidige PC processor kan ook als deze veel lager geklokt is niet tippen aan de zuinigheid van de ARM en MIPS. Het is niet voor niets dat deze in low power devices gebruikt worden.
En dan zou de Itanium core nog wel wat efficienter moeten zijn dan die van de x86.

Bijvoorbeeld als je naar het aantal registers kijkt.
De grootte van de CPU is wel voor een groot deel afhankelijk van de cache, en daar heeft de Itanium, gezien zijn server-gericht ontwerp er heel veel van.
Een Netburst Xeon met 16 MB L3 cache heeft ook een veel groter oppervlak dan een 'gewone' Pentium, maar de architectuur is hetzelfde.

De cores van de Itanium zijn op zich zelfs behoorlijk compact, en daarom gaat deze CPU in de toekomst met multicore misschien beter voor de dag komen.

Mocht de Itanium alsnog naar de desktop komen, dan zullen uiteraard de cache en het verbruik omlaag geschroefd worden, zonder dat dit voor desktop-gebruik veel negatieve gevolgen voor de prestaties hoeft te hebben. In ruil daarvoor zou de kloksnelheid misschien ook zelfs wat omhoog gaan.
Zoals ddbruijn al zegt, de cores van Itanium zijn juist erg klein in vergelijking met bijv. Pentium 4 of Core 2.

Wat ik dus zelf erg "grappig" vind: Itanium is nu al bijna 20 jaar aan de gang.

Dit kost dus meer tijd dan de ontwikkeling van een nieuwe kerncentrale of de nieuwe space shuttle.

Toch opmerkelijk voor een stukje silicium met een grootte van een paar cm2.

[Reactie gewijzigd door grizzlybeer op 16 juni 2007 21:20]

Gelukkig geen 20 jaar, 13 jaar:
http://en.wikipedia.org/wiki/Itanium

<quote>
HP determined that it was no longer cost-effective for individual enterprise systems companies such as itself to develop proprietary microprocessors, so HP partnered with Intel in 1994 to develop the IA-64 architecture, which derived from EPIC.
</quote>

Ik heb even wat gerekend met de "botte bijl" methode.

http://en.wikipedia.org/wiki/Montecito_%28processor%29
<quote>
# 1.72 billion transistors per die, which is added up from:

* core logic — 57M, or 28.5M per core
* core caches — 106.5M
* 24 MB L3 cache — 1550M
* bus logic & I/O — 6.7M
</quote>

Een Montecito zonder L3 zou 57M + 106.5M + 6.7M = 170.2M Transistors

4MB Cache ipv 24MB zou (L2 = 2.5MB dus 1.5 te kort) 1.5 * 1550M/24 = 96.9 M Transisitors zijn

Het totaal is dus 170.2M + 96.9M = 267M Transistors

Terwijl een Core 2 Dou Extreme edition:
http://www.driverheaven.net/reviews/core2review/index.htm
291 M Transistors heeft.

Beide hebben vanderpool aan boord en de Core 2 Dou heeft nog legacy zaken en multimedia zaken aan boord zoals MMX , SSE1-4, 32 bits, 16 bit en Real mode, Protected mode, Unreal mode, Virtual 8086 mode, Long mode etc

Ik heb het vermoeden dat het tegen valt de core grootte helaas. Ze kunnen zich wel troosten want de Power5+ is ook een behoorlijk gedrocht.
http://www-941.ibm.com/co...cture?decorator=printable
276M transistors met 1,9MB L2 cache. Met 4 MB cache zou deze ruw weg op +135.6M = 411 M Transistors uitkomen.

Het lijkt erop dat de tijd van de RISC voorbij is.

Edit, Typo.

[Reactie gewijzigd door worldcitizen op 17 juni 2007 00:21]

Beide hebben vanderpool aan boord en de Core 2 Dou heeft nog legacy zaken en multimedia zaken aan boord zoals MMX , SSE1-4, 32 bits, 16 bit en Real mode, Protected mode, Unreal mode, Virtual 8086 mode, Long mode etc
Een hoop wordt in de Core2 Duo (en andere moderne x86, eigenlijk al sinds de Pentium/PPro ongeveer) via micro-code gesimuleerd. Alleen de meest gebruikte instructies zitten dus direct in de hardware-implementatie, en zijn dus ook in de transistorcount vertegenwoordigd.
Ook bij POWER is tegenwoordig niet alles meer in transistors uitgevoerd. Men kiest daar echter liever voor emulatie op software-niveau, waar dus het BIOS danwel OS ervoor moet zorgen dat bepaalde traps van de processor afgehandeld worden met functies die de instructies implementeren.
Eigenlijk is dit dus nog een stap verder dan RISC... De POWER-instructieset werd al als RISC gezien, maar is nu nog verder gereduceerd. Bij x86 doet men in feite hetzelfde. Een (post-)RISC backend en een stukje code eromheen voor legacy-instructies.

Itanium heeft trouwens een SIMD-instructieset die vergelijkbaar is met MMX/SSE (zie http://www.intel.com/design/itanium/manuals/245319.htm, in feite alle instructies die beginnen met 'p' -> 'parallel', analoog aan MMX/SSE naamgeving). Alle legacy-modes doen voor praktisch gebruik in feite niet ter zake. Er zullen geen nieuwe applicaties ontwikkeld worden voor deze oude modi.

Kortom, transistorcount zegt niet zo heel veel over de instructieset tegenwoordig.
Qua features zijn Itanium en x86 gewoon min of meer vergelijkbaar, en de Itanium heeft toch het voordeel qua transistorcount, volgens jouw voorrekening... Ook haalt de Itanium een significant hogere IPC.... dat kan dus nog wat beloven als Intel straks 45 nm-varianten introduceert.
Het zal gaan om de instructieset en architectuur die de hoogst mogelijke prestaties haalt met de minst mogelijke transistors. De Itanium laat zeker zien dat er potentieel in zit. En de Core2 is ook al een stap in de richting naar minder transistors, vergeleken met de Athlon64, en zeker de Pentium 4.

[Reactie gewijzigd door ddbruijn op 17 juni 2007 01:03]

Alle legacy-modes doen voor praktisch gebruik in feite niet ter zake. Er zullen geen nieuwe applicaties ontwikkeld worden voor deze oude modi.

Klopt maar zolang een PC Bios gebruikt zal de real mode aanwezig moeten blijven, geld niet voor Itanium heeft geen BIOS.
http://en.wikipedia.org/wiki/Real_mode

<quote>
All x86 CPUs in the 80286 series and later start in real mode at power-on
</quote>

<quote>
To this day, even the newest x86 CPUs start in real mode at power-on, and can run software written for any previous chip.
</qoute>

Daarom is het nog nodig om in elde x86 deze legacy zaken te implementeren. Ik heb helaas te weinig hedendaagse CPU kennis om te weten wat in micro-code zit en wat niet.

De transitie naar Interne Risc was bij de Pentium Pro, II etc. De Pentium 1 was nog puur CISC.

http://en.wikipedia.org/wiki/Pentium_pro

<quote>
Despite the name, the Pentium Pro was actually a completely new architecture, very different from Intel's earlier Pentium processor. The Pentium Pro (P6) core featured an array of advanced RISC technologies, although it wasn't the first x86 CPU with such approach -- before it, the NexGen Nx586 processor already utilized internal x86 translation to its own proprietary RISC86TM instruction set. Perhaps the most obvious sign that things had changed was that the CPU's "front end" decoded the old IA32 instructions into micro-instructions which the Pro's RISC core then processed.
</quote>

<quote>
Kortom, transistorcount zegt niet zo heel veel over de instructieset tegenwoordig.
Qua features zijn Itanium en x86 gewoon min of meer vergelijkbaar, en de Itanium heeft toch het voordeel qua transistorcount, volgens jouw voorrekening... Ook haalt de Itanium een significant hogere IPC.... dat kan dus nog wat beloven als Intel straks 45 nm-varianten introduceert.
</quote>

Hij gebruikt wel erg veel vermogen. Zie volgende link.
http://en.wikipedia.org/w...ecito_power_breakdown.JPG

40 Watt per Core op 1,6 GHz, 2 cores 80 Watt. Terwijl bijvoorbeeld een Core 2 Duo maximaal 65 Watt (TDP) verbruikt op 2,13 GHz.
http://www.intel.com/design/intarch/core2duo/spec.htm

Ik hoop dat het vermogen behoorlijk gedrukt kan worden. Ik geloof niet dat alleen een die shrink het Core 2 Duo vermogens verbruik mogelijk zou maken.
Klopt maar zolang een PC Bios gebruikt zal de real mode aanwezig moeten blijven, geld niet voor Itanium heeft geen BIOS.
http://en.wikipedia.org/wiki/Real_mode
Ik weet waarom het erin zit, in praktische zin, ik bedoel dat ik het in technische zin niet begrijp...
Een Mac heeft dat ook niet, en ik zie ook eigenlijk niet zo goed waarom een PC het nog moet hebben. Zijn er echt nog mensen die real-mode OSen draaien?
De meeste gangbare OSen (Windows, linux, FreeBSD, Solaris, Mac OS etc) die op x86/x64 gedraaid worden, zijn al lang protected mode. Kleine moeite om de bootstrap-code even om te bouwen zodat hij niet vanuit realmode zelf de switch hoeft te maken.
Ik snap niet dat men zo lang blijft hangen bij dat antieke bios.
De transitie naar Interne Risc was bij de Pentium Pro, II etc. De Pentium 1 was nog puur CISC.
Nee hoor. De Pentium 1 brak instructies al op in kleinere operaties. Dus er zat al een vorm van RISC in, en bepaalde instructies waren al niet meer specifiek in hardware opgenomen, maar werden gesimuleerd door een klein 'programmaatje'. En dat aspect, daar ging het me om, niet RISC op zich.
Bijkomend effect was dus ook dat bepaalde legacy-code niet meer zo heel vlot was op Pentium, en je het beter op een RISC-achtige manier kon opschrijven, met kleinere operaties.
Hij gebruikt wel erg veel vermogen.
Hij is dan ook gericht op dikke server-machines en veel performance.
Er zal vast geen SpeedStep oid in zitten.
Hij kan vast wel een stukje zuiniger gemaakt worden als hij ooit voor desktops of zelfs notebooks gebruikt moet gaan worden.
Aan de andere kant, vergelijk je deze 80w voor twee cores met bv de 6000+ van AMD, die ook 90 nm is... dan komt de Itanium er zelfs positief uit. AMD heeft namelijk 125 nodig.
En als je ziet hoe AMD zich op dat gebied verbeterd heeft met hun die-shrink naar 65 nm, dan zou de Itanium2 ook best wel van 80w naar 65w kunnen.

[Reactie gewijzigd door ddbruijn op 17 juni 2007 12:19]

is ook wel een handige processor om moorden mee op te lossen. Er zit namelijk csi techniek in. 8)7
(mod me maar weg; ben net wakker)

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True