Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 107 reacties
Bron: TG Daily

TG Daily meldt dat AMD gaat counteren nu het de prestatiekroon op desktopgebied is verloren aan Intel. De introductie van de Conroe-chips heeft ervoor gezorgd dat Intel nu de snelste processor in zijn assortiment heeft. AMD heeft tijdens de presentatie van de cijfers van het tweede kwartaal beloofd enkele zaken naar voren te schuiven op de roadmap om zo het gat met Intel zo klein mogelijk te houden.

Zo komt de quadcore-oplossing van AMD - codenaam K8L - vroeger dan ooit op de planning te staan. De nieuwe core zou halverwege 2007 het levenslicht moeten zien. Nog steeds een half jaar later dan Intel, want daar is de belofte gedaan dat er nog dit jaar processors met vier cores zullen verschijnen. De vergelijking tussen de quadcore-processors van beide merken kan enigszins scheef lopen, omdat Intel in eerste instantie twee dualcore-chips zal combineren tot een quadcore. AMD daarentegen zal met een processor op de proppen komen die daadwerkelijk nieuw ontworpen is en uit vier losse cores zal bestaan die op één reepje silicum worden geplakt.

Om de achterstand op Intel minimaal te houden, zegt AMD dat het voor het eind van 2006 processors met acceptabele yields op een 65nm procédé zal bakken. Om het gat verder te dichten wil AMD binnen 18 maanden na de eerste 65nm-chips overstappen op een 45nm-procédé en dat zou duiden op een datum rond de jaarwisseling 2007/2008. Op dit moment bedraagt de achterstand van AMD ten opzichte van Intel nog twaalf maanden op dit gebied. Als AMD het beloofde tempo waar kan maken, dan zou die achterstand in 2008 gehalveerd zijn tot slechts zes maanden.

AMD 45nm-wafer
Moderatie-faq Wijzig weergave

Reacties (107)

Ik vind het een beetje een raar verhaal. Is het omschakelen naar een 45nm proces dan zo eenvoudig dat je de planning gewoon een half jaar in kan korten als dat zo uitkomt? Hoe kunnen ze nou van tevoren al weten dat het zo makkelijk zal gaan? En stel dat dit inderdaad zou kunnen, dan vind ik het raar dat AMD tot nu toe kennelijk alles kalm aan heeft zitten doen. Ze hadden toch ook wel kunnen bedenken dat de mensen bij Intel ondertussen niet stil zouden zitten?
Omschakelen is niet eenvoudig: ten eerste moet je de productie aparatuur in je fabriek geschikt maken om dusdanig precies te kunnen werken. Dan het volgende: je kunt niet gewoon een 65nm ontwerp pakken, dit lekker onder het kopieerapparaat leggen, optie "verklein naar 45nm" aanklikken en "maak kopie" klikken. De elektrische eigenschappen van een CPU op 45nm zijn nml ook compleet anders. Je hebt een ontwerp van wat er allemaal in moet zitten en hoe dat aangesloten moet worden, maar de rangschikking van de transistoren en de verbindingslijnen moet compleet opnieuw worden gedaan ivm de kortere verbindingslijnen die je krijgt. Als je een moederbord van dichtbij bekijkt zie je nml ook allemaal opgerolde printbanen om de banen even lang te houden, dit wordt allemaal gedaan ivm timing en zal allemaal berekend moeten worden.
Wat denk je wat dat allemaal kost om om te schakelen naar nieuw procedee. Men wil natuurlijk zo lang mogelijk in 1 productlijn zitten en daar zoveel mogelijk op verdienen.
Bovendien is het ook niet echt leuk voor de consument wanneer er om het jaar veranderd word van sockets.

Rede nr2 is het zo lang mogelijk uitrekken met de mogelijkheden en troefkaarten die je als processorfabrikant achter de hand hebt, de markt moet natuurlijk zoveel mogelijk worden uitgebuit.
Nu Intel zijn conroe inzet moet men bij AMD wat zeilen bijzetten om bij te blijven en niet al te veel marktpositie te verliezen.

Het zou mij niets verbazen als ze al veel meer dan dit kunnen op processorgebied.
Wat denk je wat dat allemaal kost om om te schakelen naar nieuw procedee. Men wil natuurlijk zo lang mogelijk in 1 productlijn zitten en daar zoveel mogelijk op verdienen.
Dat is in het geval van een kleiner procede dus absoluut niet waar. Je bespaart enorm op grondstoffen met 65 nm tov 90 nm, of 45 nm tov 65 nm. De investering heb je er dus gauw uit, als de zaak eenmaal goed loopt.
Daarom zou je juist zo snel mogelijk naar een nieuw procede over moeten gaan... De situatie zoals ie nu is (Intel al heel lang op 65 nm, en intussen een zeer betrouwbare en rendabele productie, en AMD nog steeds op 90 nm), betekent simpelweg dat Intel gewoon z'n processors veel goedkoper produceert, en daarom lachend met prijzen kan stunten, en AMD in de problemen brengt. Als AMD ook al op 65 nm zat, zouden de komende maanden minder hard aan gaan komen.
Toen AMD nog de snelste processors had, was het niet zo erg. AMD bepaalde de prijzen, en Intel kon eigenlijk gewoon lachend hun goedkopere processors met meer winst verkopen. Nu de rollen zijn omgedraaid, bepaalt Intel de prijzen, en kan AMD niet anders dan de verliezen proberen te beperken.
Bovendien is het ook niet echt leuk voor de consument wanneer er om het jaar veranderd word van sockets.
Een ander procede hoeft helemaal geen andere socket te hebben.
Theoretisch heb je gelijk, maar in praktijk gebeurd dit dus niet. Anders zou men allang op de goedkoopste procedee zitten om kosten te besparen.
Men zal altijd zorgen dat ze iets achter de hand hebben om de markt te beìnvloeden.

En reken maar dat verschillende sockets veel invloed hebben, alleen al om de consumenten de nieuwste productlijn te laten kopen. Ze gaan bijv. niet voor niets stoppen met s939 socket.
Misschien zelfs ook door invloed van moederbordfabrikanten die toch ondersteunende moederborden moeten produceren (misschien erg ver gezocht, maar is om aan te geven dat men niet gauw zal kiezen voor nieuwe productlijn op dezelfde socket)
Theoretisch heb je gelijk, maar in praktijk gebeurd dit dus niet. Anders zou men allang op de goedkoopste procedee zitten om kosten te besparen.
Het gebeurt in de praktijk niet omdat AMD nog steeds problemen heeft om hun 65 nm productie rendabel te krijgen en op grote schaal toe te passen.
Het is dus geen keus van AMD... als ze de keus hadden, waren ze allang over op 65 nm... maar ze zijn er nog steeds mee bezig.
Als ze het achter de hand hebben, zoals jij beweert, waarom stappen ze dan niet nu meteen over? Ze hebben het nu hard nodig. Maar het gaat nog een half jaar duren. Dat is een half jaar dikke verliezen incasseren, en tegen de tijd dat ze over zijn, komt Intel al met 45 nm, en begint het weer van voren af aan.
En reken maar dat verschillende sockets veel invloed hebben, alleen al om de consumenten de nieuwste productlijn te laten kopen. Ze gaan bijv. niet voor niets stoppen met s939 socket.
Maar zoals ik al zei, een nieuw procede kan gewoon op dezelfde socket geimplementeerd worden, dus waarom kom je met dat socket-verhaal?
Je hebt toch nu ook 130 nm en 90 nm op dezelfde sockets van AMD? Daar kan best een 65 nm bij.
De reden dat ze stoppen met 939 is dat universiteit gewoon goedkoper is bij massaproductie. Hoe minder sockets, hoe minder verschillende producten AMD hoeft te kunnen produceren, en hoe makkelijker het wordt om alles te managen (je hoeft je niet af te stemmen op de vraag onderling).
Ze hebben de Am2-socket niet ingevoerd om mensen te laten upgraden, ze weten zelf natuurlijk ook dondersgoed dat die processors niet sneller zijn dan de 939-varianten, dus van upgrades is er geen sprake. Het zal vooral onder druk van OEMs gedaan zijn, die liever al hun systemen met DDR2 maken, wederom omdat dat goedkoper is.
Het gebeurt in de praktijk niet omdat AMD nog steeds problemen heeft om hun 65 nm productie rendabel te krijgen en op grote schaal toe te passen.
Het is dus geen keus van AMD... als ze de keus hadden, waren ze allang over op 65 nm... maar ze zijn er nog steeds mee bezig.
eigenlijk zijn ze nu waarschijnlijk bezig om hun machines om te bouwen, hun 65nm research is zo goed als af.

en het is zeker WEL een keuze van AMD om wat achter te lopen qua productie process omdat als je persee voorop wilt lopen je ook het meeste geld kwijt bent aan research en development.
6 tot 12 maanden achter lopen scheelt echt BAKKEN met research geld gewoon.
gezien de wat beperktere schaal waarop AMD chips produceerd (en amd maakt alleen cpu's basicly, intel nog veel meer) halen ze het geld er gewoon niet uit om altijd aan de cutting edge te staan.
het geld dat ze daarmee potentieel zouden kunnen besparen zou ruimschoots op gaan aan de ontwikkeling ervan.

en je ziet nu ook, nu ze hun productie flink hebben uitgebreid en nog aan het uitbreiden zijn, gaan ze ook minder achter lopen op intel omdat het nu dus wel gaat lonen om meer geld in de R&D ervoor te steken.

EDIT @ ddbruijn :
october 2005 voor intel vs eind 2006 voor AMD

zelfs als het voor AMD pas december word is het nog maar 14 maanden. dus wat nou ruim overschreden?

en de yeilds hoog genoeg krijgen valt onder research. het enige wat ze nu nog doen is het klaar maken voor grootschalige productie.
eigenlijk zijn ze nu waarschijnlijk bezig om hun machines om te bouwen, hun 65nm research is zo goed als af.
Dat weet ik, maar dan zijn ze er nog lang niet. Al die fabrieken ombouwen kost ene hoop tijd en geld... en dan moeten ze ook nog eens beginnen met produceren, en dan kunnen ze pas gaan beginnen met het finetunen van het proces, en de yields naar een acceptabel niveau tillen.
Vandaar dat ze vanaf nu dus zeggen dat dat nog een maand of 5 gaat duren (volgens mij hadden ze al een tijdje een nieuwe 65nm fab).
en het is zeker WEL een keuze van AMD om wat achter te lopen qua productie process omdat als je persee voorop wilt lopen je ook het meeste geld kwijt bent aan research en development.
6 tot 12 maanden achter lopen scheelt echt BAKKEN met research geld gewoon.
Maar je hebt achterlopen en achterlopen. Intel produceert al sinds novermber 2003 op 65 nm, en sinds ongeveer oktober 2005 ook hun processors.
Een beetje achterlopen is niet erg, en kan voordelig uitpakken, je leert van andermans fouten, maar AMD gaat de 12 maanden nu ruimschoots overschrijden, en dat scheelt bakken met geld, maar dan in hun nadeel.
Zit er prestatie verschil tussen 2 x dualcore of 4 losse cores?
AMD gebruikt hypertransport ipv een fsb. Dat van AMD is stukken sneller, ook kunnen de core's onderling veel sneller informatie uitwisselen omdat ze meer een geheel zijn. Bij Intel gaat alles alleen over een FSB die slomer is dqan hypertransport
Met quadcore cpu's komt Intel met een dubbele FSB. Als dit een dubbele FSB van 1066Mhz is, betekend dat het volgende:

266*64*2 = 34048Mbit/s -> 33,25Gbit/s voor Intel's FSB. Want Intel's FSB draait op 266mhz (Quadpumped: 1066Mhz), is 64bits breed en heeft dan een dubbele FSB.

En het volgende voor AMD's Hypertransport:

1000*16*2 = 32000Mbit/s -> 31,25Gbit/s voor de Hypertransport bus die AMD gebruikt. Hypertransport draait namelijk op 1000Mhz, maar is slechts 16bits breed (en dat zowel up & downstream: 2x).

Met een dubbele FSB kan Intel het communicatiegeweld van AMD's Hypertransport dus weer makkelijk aan, al heeft Intel natuurlijk niet de voordelen van snellere interne core-to-core communicatie. Ik weet ook niet of Intel wederom een arbiter gaat gebruiken om het communiceren met het geheugen op orde te houden, want dit zorgt natuurlijk wel voor stuk hogere latencies (die toch al hoger zijn bij Intel richting het geheugen, doordat Intel geen on-die geheugencontroller heeft).

Note: De berekening van AMD's Hypertransport kan niet helemaal kloppen, heb me er nooit veel in verdiept, mss kan iemand het verbeteren mocht het niet kloppen?
Note: De berekening van AMD's Hypertransport kan niet helemaal kloppen, heb me er nooit veel in verdiept, mss kan iemand het verbeteren mocht het niet kloppen?
hier komt'ie:

De 1000Mz moet je nog verdubbelen (soort DDR) dus dan kom je op 64000Mbit of 8GB/s
Daar komt nog eens een dual channel geheugencontroller bij van (even uitgaan van DDR2-800) 12,8 GB/s in totaal.
Kom je dus op ruim 20GB/s. atm. (DDR1 400, en 1Ghz HT 1.0) is het 14,4 GB/s.

Wat HT 2.0 / 3.0 zal doen weet ik niet, maar qua bandbreedte haalt intel het dus in ieder geval niet bij AMD.
Die van AMD zal nog veel hoger liggen omdat men dan over HT 3.0 beschikt.
Volgens mij zit AMD nu nog op HT1.0 en heeft AMD over een half jaar dus nog niet de stap naar HT3.0 gemaakt. Daarbij vereist dit waarschijnlijk een nieuwe core (K8L) die pas later uitkomt dan Intel's Quadcore plannen (eind dit jaar).
Dat is niet waar je heb een 1000Mhz 16bit uplink en een 1000Mhz 16 bit downlink, en die kunnen tegelijk gebruikt worden. Maar niet voor 2x uplink of 2x downlink je hebt dus maar 1x downlink en 1x uplink.

Dus 1x 32000Mb uplink, en 1x32000Mb downlink.
Zit er prestatie verschil tussen 2 x dualcore of 4 losse cores?
Dat hangt van 2 dingen af:
1) Op welke manier zijn de cores met elkaar verbonden (hoeveel bandbreedte, en hoe makkelijk communiceren ze over geheugentoegang ed?)
2) Hoeveel bandbreedte hebben je applicaties nodig, en wordt er geheugen gedeeld tussen meerdere cores?

In sommige gevallen zul je wel verschil zien, in andere niet.
Inderdaad. Ik denk dat je wel kunt stellen: als die 4 cores aan 4 threads van hetzelfde programma werken, dan meestal wel. Wanneer het afzonderlijke programmas zijn, dan niet.

Vandaar dat AMD tussentijds nog met een 4x4 uitkomt: twee dual cores die via een speciale hypertransport bus aan elkaar zitten, zodat je effectief een bijna een echte quad krijgt.
Inderdaad. Ik denk dat je wel kunt stellen: als die 4 cores aan 4 threads van hetzelfde programma werken, dan meestal wel. Wanneer het afzonderlijke programmas zijn, dan niet.
Ben ik het niet mee eens. Het gaat veel meer om de aard van de programma's en threads dan om het feit of ze afzonderlijk zijn of niet, naar mijn mening.
Bij afzonderlijke programma's heb je alleen de garantie dat ze niet elkaars geheugen zullen bewerken.
Maar een multiprocessor-applicatie kan natuurlijk ook op die manier ontworpen zijn.
Verder hangt een hoop af van de bandbreedte-behoefte van de threads/programma's, en daar kun je niets algemeens over zeggen.
Lang leve concurrentie!

AMD blijft echt niet stilzitten, ben ervan overtuigd dat intel straks weer het spit delft. Het blijft een spelletje..

Zolang geen van beide failliet gaan vind ik het prima. Heeft de consument alleen maar profijt van.
Concurrentie is prima! Ik hoop alleen dat er nu niet 'vervroegd' dingen op de markt komen die veel kinderziektes hebben......

Wat mij juist erg interessant lijkt zijn die uitbreidingen op de normale CPU's van AMD. Nu dat ze mogelijk ATi gaan overnemen.. zou dat duiden op een geintergreerde physics chip? (dat kan nl ook op een grafische chip)
ben ervan overtuigd dat intel straks weer het spit delft.
Wat maakt jouw daar zo zeker van? Beetje voorbarige conclusie lijkt me zo...
AMD heeft zijn hypertransport bus en geheugencontroller nog steeds als voorsprong.
Intel's prestaties hangen sterk samen met het kleinere process wat meer executie eenheden en Cache mogelijk maakt. Zolang alles in cache past, zijn ze sneller, maar hun front side bus is nog steeds een botleneck. Vier cores wordt voor intel een groot probleem, ze hebben daar gewoon de bandbreette niet voor. Zij moeten wel naar 2xdual, om twee bussen parrallel te hebben. Efficient is dat niet.
AMD kan momenteel niet opschalen omdat dan de chip te groot wordt in 90nm, maar het ontwerp opzich schijnt wel schaalbaar te zijn. Als zij een echte quad kunnen maken, konden ze Intel wel eens een slag voor zijn, want die moet zijn communicatie bus opnieuw ontwerpen.

Persoonlijk vind ik het wel een cowboy mentelateit die Intel laat zien. Hun 65 nm process heeft nog lage yields, en is eigenlijk niet af. Nooit eerder hebben ze producten gereleased terwijl de yield nog laag was. Feitenlijk kan het niet anders zijn dan dat ze geld toeleggen door hem nu zo goedkoop op de markt te brengen. Er is ze blijkbaar alles aan gelegen om AMD een halt toe te roepen.
Hun 65 nm process heeft nog lage yields, en is eigenlijk niet af.
nieuws: Intel: yields 65nm-chips op 90nm-niveau

Dat was dus in december 2005 al. Sindsdien zijn er nog vele miljoenen Pentium D 9xx- en Centrino Duo-systemen geleverd en bovendien verschillende verbeteringen doorgevoerd: de Presler zit nu bijvoorbeeld op 3,6GHz/95W, terwijl hij begon op 3,4GHz/130W. Er is geen enkele indicatie dat er ook maar iets mis is met het 65nm-procede van Intel. Dit in tegenstelling tot dat van AMD, dat bijna een jaar na de start van hun productie nog steeds niets zal bakken voor desktops dat sneller is dan de 90nm topmodellen.
@Wouter

Dat is een kwestie van prioriteiten. De Bulldozer mobiele chips (vermoedelijk een 2 core K8L) worden waarschijnlijk al in Q2 07 op de markt gebracht. Zoals ik hierboven al vermeld had, is een 5000+ x2 desktop chip nog concurrentieel met de laagste C2D modellen (en dit zijn de modellen die juist het beste zullen verkopen). Waarschijnlijk zullen de 2core K8L varianten al sneller op de markt komen, dit zullen de nieuwe FX chips worden (en dat verklaart meteen waarom enkel FX chips kunnen gebruikt worden met 4X4)

Ik denk dat het met SOI sowieso moeilijker is om heel hoge kloksnelheden te halen, dus ik denk dat Intel daar het voordeel heeft. Het voordeel dat AMD heeft (en waar intel ook nog geen tegenhanger van heeft) is z-ram.
Het feit dat de introductie van K8L vervroegd werd, toont alleen maar aan dat AMD al goede yields heeft op 65 nm met de Brisbane.
Hoe ik de originele bron ook lees, ik kan er niet uithalen dat de K8L vervroegd is. "Mid 2007" is wat AMD altijd al gezegd heeft. "Mid" kan net zo goed Q2 als Q3 betekenen, en men heeft het tot nu toe alleen over een quadcore (server)versie gehad. Het zou me niet verbazen als het echt Q4 wordt voor een dualcore K8L-afgeleide in desktops een significante rol gaat spelen.
Zou ook kunnen. Feit is dat AMD misschien wel de high end desktopmarkt verliest, maar de mainstream zeker niet (en hier is het te doen). En de servermarkt al helemaal niet. Ze kunnen dus rustig verderwerken tot intel met 45 nm komt. En dan zal de strijd losbreken.
Vier cores wordt voor intel een groot probleem, ze hebben daar gewoon de bandbreette niet voor. Zij moeten wel naar 2xdual, om twee bussen parrallel te hebben. Efficient is dat niet
Wat dacht je van quad channel? Zit al in hun 5000 chipset reeks. Core dual chips lijken, waarschijnlijk door de enorme cache niet zo bandbreedte hongerig. Ik geloof niet dat intel denkt dat ze een bandbreedte tekort hebben. Intel heeft middelen genoeg om een geintegreerde memory controller te ontwikkelen en binnen korte tijd, als ze al niet iets op voorraad hebben. En ik ben van mening dat intel dit verhaal beter kan beoordelen dan jij en ik. Enige dat ik hiervan nog herinner is dat intel er wel naar gekeken heeft maar het nog niet nodig vond.
Wel, er staat vandaag een interessant artikel bij Anandtech, waarin de memory scaling van C2D vergeleken wordt oa met deze van AM2 athlons. De FSB beperkingen komen hier duidelijk naar voor. De on-die controller van de K8 schaalt veel beter, zowel in latency als in bandwidth.

Ik zou dezelfde test eens willen zien met de kentsfield, hier zouden de beperkingen nog duidelijker moeten zijn. Trouwens, Intel heeft al beslist om van de FSB af te stappen, vandaar ook CSI op de roadmaps.
Geen conclusie, maar een ingeving.
Ik denk dat AMD wel degelijk op gelijke hoogt kan spelen als intel.
juich niet te vroeg, AMD heeft zich de afgelopen jaren eigenlijk vrijwel precies aan hun roadmap gehouden. Afwijking daaraan is niet altijd goed. Weet niet helemaal zeker of dit bericht niet gewoon bedoelt is als lokmiddel (mensen naar AM2 te leiden bijvoorbeeld) of gewoon overhaast werken.

Ben verder wel fan van AMD, dus het zou allemaal fantastisch zijn als het klopt. ben toch een beetje suspicieus...
Lang leve concurrentie!
Idd, ik poste juist hetzelfde op een ander forum ivm GPU's van ATI & Nvidia. Daar zit men ook grondig te concurreren, met als gevolg dat iedere 6 maand, je deftige speedjumps hebt, en niet zo een "refresh" jumps van een paar % zoals in het verleden.

Nadeel ofcourse, in het moment dat beide partijen, of het nu Intel/Amd, ATi/Nvidia aan het uitvechten zijn, is het slecht voor de concurrent om een high end stuk hardware te kopen, omdat deze te snel naar de midrange of lager zakken ( zeker op de GPU markt ).

Je ziet effe het effect vandaag met Intel hun nieuwe CPU. CPU komt uit, AMD verlaagt X2 prijsen 46% ... Ze zijn nog maar juist aangekondigt of ze verlangen ze nog meer naar 55% ... En ineens kunnen ze veel sneller omswitchen naar lagere productie procedees, en meer cores etc ...

Altijd al zo geweest, zolang men elkaar kan bij blijven, heeft de concurrentie een enorme versnelling van de technologie tot gevolg. Heeft één van de 2 partijen een GPU/CPU die niet kan volgen, dan gaat de andere partij rentenieren. En dan na 6 maand, een jaar, komt de één partij uit met een deftig concurrent, en vlam, dan begint de concurrentie cyclus weeral ( ofhankelijk of de tegenpartij tijdens de rentenier periode, wel deftig verder ontwikkeld heeft ).

Volgens mij heeft AMD sinds hun X64 te veel op hun gat gezetten, en zich niet voorbereid tegen een zet van Intel. Je merkt het aan de strategie, enorme prijsdrops, vervroegen van procedee changes, 4 core cpu's, maar geen "snellere" cpu zelf dat men ergens liggen had.

En ik vrees dat je een aantal hackjobs gaat zien van CPU's weeral. Snel snel een paar speed changes, & releasen, gewoon om te kunnen bij blijven.
Volgens mij heeft AMD sinds hun X64 te veel op hun gat gezetten, en zich niet voorbereid tegen een zet van Intel.
Het is niet AMD die op hun "gat" gezeten hebben, maar Intel. Terwijl Intel zich nog volop concentreerde op de GHz race (met de netburst), heeft AMD de hammer architectuur ontworpen welke een revolutie betekende voor het hele pc platform (en niet enkel de processor). Intel is een tijdje terug eindelijk tot de conclusie gekomen dat ze de bal volledig misgeslagen hebben, waarna ze alle doorontwikkelingen van de netburst architectuur hebben stopgezet en zich gefocust hebben op hun enige reddingsboei: de mobiele Pentium III gebaseerde processor. Itanium bood eveneens geen oplossing wegens te vernieuwend (waardoor zowat alle software moet herschreven worden).
Met de core 2 processor zijn ze erin geslaagd om niet volledig uit de boot te vallen tov de (toekomstige) AMD competitie, maar de kans is groot dat het voor Intel too little too late zal zijn.

Naar alle waarschijnlijkheid eindigt binnenkort dan ook de monopoliepositie van Intel. Hiervan zijn ze zich maar al te goed bewust, vandaar dat Intel probeert via chantage en andere louche praktijken hun positie te behouden. De core 2 architectuur is een prachtig ontwerp, maar het ontbreken van CSI (hypertransport tegenhanger) zal hem allicht de das omdoen. Enkel in de consumer desktopmarkt zal hij het waarschijnlijk kunnen waarmaken.

De volgende twee kwartalen zullen inderdaad moeilijk zijn voor AMD, maar nadien zal AMD opnieuw een grote brok marktaandeel kunnen afsnoepen van Intel, voornamelijk in de snelgroeiende mobiele en servermarkt. Dit is ook de reden waarom AMD momenteel alle fab capaciteit aanspreekt die het zich kan veroorloven. AMD heeft zelf ook een nieuwe markt gecreëerd in de supercomputersector, waarin bedrijven als Cray de plak zwaaien met systemen gebaseerd op geclusterde Athlon64 processoren.

Voor Intel zal alles dus afhangen van hoe snel ze een antwoord kunnen geven op de superieure interconnect technologie van AMD.
Terwijl Intel zich nog volop concentreerde op de GHz race (met de netburst), heeft AMD de hammer architectuur ontworpen welke een revolutie betekende voor het hele pc platform (en niet enkel de processor).
Wat is er dan zo revolutionair aan de Hammer? Het is in principe toch gewoon een doorontwikkeling van de K7?
De grootste verschillen zijn 64-bit en ondie-memory controller... 64-bit zou ik evolutie noemen (het breidt bestaande technologie uit, technologie die op andere platformen al jaren gebruikt werd, overigens), en ondie-memorycontrollers... Tsja, revolutionair zou ik het zeker niet noemen. En een evolutie is het misschien ook niet, want Intel bewijst met de Conroe dat je die prestaties ook zonder ondie-controller kunt behalen. Misschien dat AMD er ook weer vanaf stapt bij de volgende generatie. Als je geen prestatiewinst uit je ondie-controller haalt, heb je er alleen maar nadelen van (CPU en geheugentype zijn nu gekoppeld, wat enerzijds het configureren en upgraden van een systeem lastiger maakt voor de gebruiker, en anderzijds AMD op het moment dwingt om zowel DDR als DDR2-CPUs te produceren, en misschien komt DDR3 daar straks ook nog naast... dat brengt extra kosten met zich mee).
Intel is een tijdje terug eindelijk tot de conclusie gekomen dat ze de bal volledig misgeslagen hebben, waarna ze alle doorontwikkelingen van de netburst architectuur hebben stopgezet en zich gefocust hebben op hun enige reddingsboei: de mobiele Pentium III gebaseerde processor.
Daar doe je ze een beetje tekort.
Ten eerste, zoals de Amerikanen zeggen: "Hindsight is always 20-20", ofwel... achteraf praten is makkelijk. Het concept van de P4 was best interessant en werkte aanvankelijk ook erg goed, vooral ten tijde van de Northwood. Daarna kwamen de problemen pas. De bal (je bedoelt plank, neem ik aan) misslaan vind ik nogal overdreven... tegen de Northwood was de concurrentie echt niet opgewassen destijds.

Verder heeft men de mobiele Pentium III alleen voor de mobiele markt gebruikt, het is nooit een vervanger voor de P4 geweest, dus geen reddingsboei.
En om te zeggen dat de Conroe een Pentium III is, is natuurlijk ook onzin. Hij vertoont enkele overeenkomsten, maar dat is niet meer dan logisch als het allebei x86-processors zijn, uit ongeveer hetzelfde tijdperk.
Er zijn echter te veel fundamentele verschillen om te zeggen dat het dezelfde architectuur is. Ik zie de pipeline-lengte en het aantal execution-units (en de layout daarvan) als de belangrijkste kenmerken van een architectuur, en die zijn dus totaal anders.
Itanium bood eveneens een oplossing wegens te vernieuwend (waardoor zowat alle software moet herschreven worden).
Haal herschrijven en hercompileren niet door elkaar. Voor Itanium moest de software opnieuw gecompileerd worden (en eventuele aanpassingen gemaak om met de nieuwe compiler overweg te kunnen). Herschrijven doe je als je je oude code niet kunt gebruiken, bv als je een Windows-applicatie in X wilt draaien... Dan moet je dus bepaalde delen herschrijven, omdat ze van Windows-specifieke libraries gebruikmaken.
Voor de Itanium had je gewoon de populaire OSen als Windows XP, Windows Server en linux tot je beschikking, dus herschrijven was niet nodig.
Met de core 2 processor zijn ze erin geslaagd om niet volledig uit de boot te vallen tov de (toekomstige) AMD competitie, maar de kans is groot dat het voor Intel too little too late zal zijn.
Intel gaat niet stilzitten nu ze de eerste generatie Core 2 op de markt brengen. Ze zijn bezig met 45 nm, ze zullen de core verbeteren en over een jaar of wat een verbeterde core introduceren (zoals ze met de P4 ook 4 generaties cores gehad hebben... Willamette, Northwood, Prescott, Cedar Mill), en ze zullen de huidige productie tweaken en nieuwe steppings van de processor introduceren, die sneller en/of efficienter zijn. Ze zijn net pas begonnen.
De huidige voorsprong op AMD zal nog wel een tijdje vastgehouden kunnen worden, zo niet uitgebouwd, zolang AMD niet beschikt over 65 nm of beter, en een vernieuwde architectuur, en naar mijn mening is "too little, too late" vooral op de K8L van toepassing. Ik denk dat AMD het daar niet mee gaat redden, en ik kijk liever naar hun volgende generatie, maar daar is helaas nog niets over bekend.
Wat is er dan zo revolutionair aan de Hammer? Het is in principe toch gewoon een doorontwikkeling van de K7?
Wat maakt dat met AMD processoren supercomputers kunnen gebouwd worden, dat je met torrenza probleemloos verschillende co-processoren zal kunnen toevoegen? Juist: hypertransport!

Binnen x aantal jaren zit je geheugen op je processor (z-ram). Een on-die geheugencontroller is alvast de eerste stap in die richting.

Ik heb niet gezegd dat de pentium 4 een slechte processor was, integendeel. Hyperthreading was al de voorloper van dual core performance, en voor multi-taskers dus een heel sterke eigenschap. Wat ik zei is dat de pentium 4 slechts een processor-evolutie was, daar waar AMD het veel breder en meer toekomstgericht heeft bekeken. Binnen zeg maar 20 jaar heb je de hedendaagse computerkracht (en veel meer nog waarschijnlijk ook) in een apparaat met het formaat van een gsm, met één chip waarop een hele pc architectuur zit.
Om Itanium efficiënt te kunnen benutten moet je wél je code herschrijven (te veel parallellisme).

Ik heb ook niet gezegd dat core 2 een pentium 3 is, enkel dat hij er een doorontwikkeling van is (en daar bedoel ik niks slecht mee, pentium 3 was een goede processor). In een aantal opzichten is de core 2 ook superieur aan de k8 en toekomstige k8L.

Intel gaat niet stilzitten, maar ik verzeker je, als ze niet snel een hypertransport equivalente interconnect hebben, wordt Intel een kleine marktspeler. Tenzij AMD fundamentele procesproblemen krijgt (en dat lijkt zo niet te zijn momenteel).
Wat maakt dat met AMD processoren supercomputers kunnen gebouwd worden
Dat is toch niet revolutionair? Supercomputers bestonden al voordat AMD zelf processors maakte.
En er werden ook al jaren supercomputers met x86-processors gebouwd, oa met de Intel Xeon processors.
Dus misschien voor AMD 'revolutionair', maar zeker niet voor x86-in het algemeen... en voor de doorsnee PC-gebruiker helemaal niet interessant.
dat je met torrenza probleemloos verschillende co-processoren zal kunnen toevoegen?
Tsja, dat moeten we eerst zien... Ik kan me op dit moment niet echt voorstellen wat voor praktische toepassingen dat heeft.
Binnen x aantal jaren zit je geheugen op je processor (z-ram). Een on-die geheugencontroller is alvast de eerste stap in die richting.
Vind ik een beetje een non-argument... De geheugencontroller ondie maken is weinig meer dan copy-paste (in het geval van Intel dan, want zij maken hun eigen chipsets en geheugencontrollers).
Zolang dat geheugen niet op de processor zit, heeft het niet zo heel veel nut om de controller on-die te maken... en als dat geheugen wel op de processor gaat komen, zal Intel z'n hand er niet voor omdraaien om even die geheugencontroller uit de chipset te halen en ondie te plakken.
Ik vind het te onbenullig om het revolutionair te gaan noemen. Veel meer dan "het zat daar, en nu zit het hier" is het niet. Zeker niet nu Conroe er is, en laat zien dat je het voor de prestaties niet hoeft te doen.
Wat ik zei is dat de pentium 4 slechts een processor-evolutie was, daar waar AMD het veel breder en meer toekomstgericht heeft bekeken. Binnen 20 jaar heb je de hedendaagse computerkracht waarschijnlijk in een apparaat met het formaat van een gsm, met één chip waarop een hele pc architectuur zit.
PC-on-a-chip bestaat al veel langer. Verder ben ik er helemaal niet zo zeker van dat alles op 1 chip gaat komen, tenminste niet voor desktop computers/laptops. Dat heeft helemaal geen nut, is alleen maar lastig.
Voor PocketPCs/GSMs is het wel aardig, maar niet noodzakelijk dat alles op 1 chip zit. De apparaatjes zijn groot genoeg om een paar extra chips erbij te hebben. Je kunt ze niet te klein maken, want dan kun je ze niet meer gebruiken. Kortom, ik deel jouw toekomstvisie niet, en als dit de reden is waarom AMD de memorycontroller ondie heeft gemaakt (wat ik ook niet denk, volgens mij was dat vooral om de prestaties te verbeteren, ten koste van flexibiliteit), denk ik dat ze ernaast zitten.
Om Itanium efficiënt te kunnen benutten moet je wél je code herschrijven (te veel parallellisme).
Nee, de compiler doet dat voor je. Het is parallelisme op instructie-niveau, niet op thread-niveau.
Intel gaat niet stilzitten, maar ik verzeker je, als ze niet snel een hypertransport equivalente interconnect hebben, wordt Intel een kleine marktspeler.
Dat lijkt me zeer onwaarschijnlijk. Voorlopig zal AMD flink achter de feiten aan gaan lopen... de kans is dus aanwezig dat AMD ofwel de K8L niet op tijd afkrijgt, ofwel dat ze moeten snijden, en de K8L veel minder gaat presteren dan ze hadden gehoopt.
Hoewel ze dan misschien iets hebben dat technisch beter is, presteert het misschien niet beter dan wat Intel heeft, dus zal Intel zich niet hoeven aanpassen.
Verder zit je dat HyperTransport wel enorm omhoog te schrijven.
In feite is het gewoon een variant van de FSB... gewoon een simpel busje waarover je data kunt sturen naar een chipset, geheugen of andere CPU.
Het zal Intel geen enkele moeite kosten om hun FSB om te bouwen tot iets HyperTransport-achtig iets, mocht dat nodig zijn.
Vergeet ook niet dat de Itanium ook een processor is die ontworpen is voor gebruik in supercomputers met veel processors die efficient kunnen communiceren.
Intel heeft dus al de nodige expertise en ervaring in huis. Ze hebben het alleen nog niet allemaal op de x86 losgelaten omdat ze nu eenmaal een iets andere productstrategie hebben dan AMD. Eentje die tot dusverre altijd meer succesvol is geweest dan die van AMD (al dan niet door technologische voorsprong).
Dat is toch niet revolutionair? Supercomputers bestonden al voordat AMD zelf processors maakte.
En er werden ook al jaren supercomputers met x86-processors gebouwd, oa met de Intel Xeon processors.
Dus misschien voor AMD 'revolutionair', maar zeker niet voor x86-in het algemeen... en voor de doorsnee PC-gebruiker helemaal niet interessant.
Met dit verschil dat de snelste supercomputer ooit (de Cray Baker) is besteld door Oak Ridge NL, en dit beestje is enkel gebaseerd op de K8 en zijn opvolgers! Dus de Opterons hebben wel heel snel de top bereikt nietwaar?!
Tsja, dat moeten we eerst zien... Ik kan me op dit moment niet echt voorstellen wat voor praktische toepassingen dat heeft.
Ik wel anders, ik zou een extra floating point co-processor wel kunnen gebruiken (VB clearspeed).
De geheugencontroller ondie maken is weinig meer dan copy-paste (in het geval van Intel dan, want zij maken hun eigen chipsets en geheugencontrollers).
Misschien voor Intel wel. Feit is dat ze het nog niet hebben, en dat dit juist één van de redenen is waarom de opterons zo goed presteren in clusters (cfr cray supercomputers). Vergeet ook niet dat een on-die geheugencontroller op processorsnelheid loopt, daar waar een northbridge heel wat lager geklokt is.
PC-on-a-chip bestaat al veel langer. Verder ben ik er helemaal niet zo zeker van dat alles op 1 chip gaat komen, tenminste niet voor desktop computers/laptops. Dat heeft helemaal geen nut, is alleen maar lastig.
Off-chip communicatie kost veel power en latency, veel meer dan on-chip communicatie.
Nee, de compiler doet dat voor je. Het is parallelisme op instructie-niveau, niet op thread-niveau.
In theorie wel ja, in de praktijk moet je rekening houden met de manier waarop ILP geimplementeerd is. Waarom denk je dat Itanium zo slecht verkoopt? Omdat het heel wat werk vergt om hoogperformante software te herschrijven voor dit platform. Ook owv geheugenbeperkingen.
Intel heeft dus al de nodige expertise en ervaring in huis. Ze hebben het alleen nog niet allemaal op de x86 losgelaten omdat ze nu eenmaal een iets andere productstrategie hebben dan AMD. Eentje die tot dusverre altijd meer succesvol is geweest dan die van AMD (al dan niet door technologische voorsprong).
Intel heeft inderdaad de expertise en ervaring in huis. De reden waarom ze het nog niet geimplementeerd hebben in hun x86 designs, is omdat ze er niet de tijd voor kregen.
Vind je het normaal dat een bedrijf opeens de ontwikkeling van zijn topproduct volledig opgeeft (terwijl de roadmaps er waren)? Intel moest snel met iets komen, en dat iets moest héél goed zijn.

Nu ja, ieder zijn mening. Ik ben er rotsvast van overtuigd dat ik het bij het rechte eind heb. Dell is er blijkbaar ook van overtuigd en dat zegt wat! De overstap naar AMD heeft offers gevraagd van Dell mbt Intel, daar mag je zeker van zijn. Vandaar waarschijnlijk ook de uniforme pricing strategie die Intel nu hanteert.

Vind je het trouwens ook niet 'verdacht' dat AMD zijn productiecapaciteit nu vergroot (fab 38, Chartered), net nu Intel zijn killer-cpu gelanceerd heeft? En AMD hier bovenop ook nog eens ATI koopt? Dit laatste zal binnen een paar jaar het nekschot worden voor Intel als ze niet oppassen.
Is dat zo? Waarom zie ik dat systeem hier dan niet terug? http://www.top500.org/list/2006/06/100
Volgens mij is de hoogste Opteron-computer daar plaats 7. Daarboven staan nog enige Itaniums en IBMs, en als je naar de getallen kijkt, zie je dat die IBMs HEEL wat sneller zijn.

Voorlopig doen de Opterons het niet zo denderend in de top500...
Verder bedoelt men met clustering het verbinden van losse nodes dmv een netwerk, voor zover ik weet. Dit zou dan dus weinig met HyperTransport te maken hebben, omdat HyperTransport alleen binnen een enkele node z'n werk doet. Dat is ondergeschikt aan het netwerksysteem in dergelijke configuraties.
http://zdnetasia.com/news...,39042972,39369002,00.htm
Dat valt allemaal wel mee. Voorlopig is de Core 2 zuiniger EN sneller dan een Athlon/Opteron, dus dat on-chip-gedoe is blijkbaar niet zo heel erg van invloed.
Nu nog wel ja. Nogmaals: Off-chip communicatie kost veel meer vermogen dan on-chip, omdat de output-lijnen moeten gebufferd worden. Wacht maar tot binnen een paar jaar.
Wil je dat even uitleggen? Ik heb geen idee wat je bedoelt namelijk. Zolang je geen assembly programmeert, heb je toch helemaal niks te maken met de instructieset en hoe deze ILP implementeert? Dat doet de compiler allemaal voor je. Aangezien in de meeste hedendaagse software geen assemblycode meer voorkomt, heb je daar dus niks mee te maken... Of wat bedoel je precies?
http://www.intel.com/design/itanium2/manuals/251110.htm

[edit] Oeps, foute link. Hieronder de link die het moest zijn.

http://www.intel.com/intelpress/sum_programmingitanium.htm


[quote]
Nee, ze hebben het niet geimplementeerd omdat de Itanium voor de grote supercomputers bedoeld is, en de x86-lijn in feite budget is. Als ze de Xeons te goed maken, helpen ze hun eigen Itaniums om zeep in de supercomputermarkt.
[/quote]

Hun Itaniums zijn al om zeep.

[quote]
Naar mijn mening heeft Dell het slechtst mogelijke moment gekozen dat er is... Ze hebben natuurlijk die beslissing genomen op het moment dat de Athlon64 de betere processor was... Maar tegen de tijd dat dat die beslissing doorgevoerd is, is daar ineens de Core 2.
Ik denk dat de vraag naar AMD-systemen het komende jaar gewoon flink inzakt (want Core 2 is sneller, goedkoper, zuiniger, en AMD komt niet eerder met een nieuwe chip), en dat Dell zich gigantisch in de vingers snijdt.
[/quote]

Ik denk dat Michael Dell heel goed weet wat hij doet, en welke implicaties dat heeft. Hij heeft toch al niet slecht geboerd tot nu toe met Dell, niet?
AMD zal aan Dell leveren, en sneller dan je zou denken blijkbaar (q4 06).

Dell heeft trouwens die beslissing niet gebaseerd op de huidige processor generatie, maar op de volgende. Je mag er zeker van zijn dat Michael al werkende K8L systemen gezien heeft.
Hun Itaniums zijn al om zeep.
Ik weet dat dit een populair standpunt is, maar ik vraag me af of je gelijk hebt. Ik heb de indruk dat Intel en AMD nu toch ècht de laatste druppels performance uit de x86-architectuur aan het persen zijn.
De EPIC-architectuur van de Itanium herbergt echter nog een enorm potentieel voor verbetering en optimalisatie.
Okee, dus die computer is nog niet eens gebouwd.... Eerst zien, dan geloven, zeg ik dan maar.
Verder is het jammer dat je niet ingaat op het feit dat in de top500-lijst de Opterons onder de IBMs, Itaniums en Xeons eindigen.
Is inderdaad nog niet gebouwd, maar al wel verkocht dus ik ga ervan uit dat alle research al gebeurd is en ze enkel wachten op de chips zelf. BTW, ik zie maar bitter weinig Itanium/Xeon systemen in de hogere regionen. Cray is daarentegen wel goed vertegenwoordigd.
Ja, die heb ik gelezen, uiteraard. Kun je iets specifieker zijn? Want deze handleiding is gericht aan assembly programmeurs en compilerbouwers, en ondersteunt dus in feite wat ik zeg.
Je moet rekening houden met de onderliggende parallelle architectuur (vb geen lange kettingen met veel onderliggende afhankelijkheid, geen if's, ...). Het gebruik van niet-geoptimaliseerde code leidt tot grote performance hits (lage kloksnelheid Itanium), veel meer dan bij andere architecturen.

Waarom denk je dat die boeken er uberhaupt zijn als alles toch via de compiler zou geoptimaliseerd worden??
Daar ben ik helemaal niet zeker van. Ik ben er vrij zeker van dat er nog geen enkele werkende K8L bestaat. AMD is zover nog niet.
Heb je ook nog bronnen, of is dit slechts jouw eigen speculatie?
Als AMD nu nog geen engineering samples heeft van de K8L zouden ze er slecht opstaan. Dat ze nog niet in publieke demo's getoond werden is logisch; kijk maar naar het effect van de core2 demo op de markt.
Cray is een maker van supercomputers, niet van processors. Ze hebben in het verleden ook oa MIPS processors gebruikt. Zij maken de beslissing voor de processor aan de hand van wat de klant met de computer wil, en wat er op dat moment de beste keuze daarvoor is.
www.cray.com
Blijkbaar willen de klanten dan niets anders dan opteron gebaseerde supercomputers, met via torrenza gelinkte custom co-processoren.
Verder heeft de lage kloksnelheid er mijns insziens weinig mee te maken. Het gaat om de IPC, en die is bij de Itanium juist erg hoog, daarom kan ie met die lage kloksnelheid meekomen met de andere processors met veel hogere klok.
De IPC is net zo hoog omdat er zoveel parallellisme is. Als je code niet geoptimaliseerd is, verlies je aan parallellisme en/of krijg je pipeline stalls, waardoor de IPC veel lager is. De lage kloksnelheid is dus wel de boosdoener.
Iemand moet die compiler toch maken? En voor sommige dingen, zoals device drivers en OS kernels, heb je wel assembly nodig, natuurlijk. Maar dat geldt voor iedere architectuur, uiteraard. Voor de x86 heeft Intel precies dezelfde soort manuals beschikbaar. En ook AMD heeft een aantal van deze manuals.
Uit de tweede link naar het boek:
...
Code optimization advice, including low-level explanation of what happens under the hood when code is compiled
...

Geen assembly dus.

This is the book for you:
If you want to know how to create, optimize, and tune application software for the Itanium architecture
If you are making the transition from 32-bit to 64-bit addressing
If you are buying your first, perhaps your only, book on the Itanium family of processors

Geen verdere commentaar nodig.
Ik denk inderdaad niet dat AMD die heeft. Dit bericht beweert ineens dat de processor een half jaar eerder komt... waarschijnlijk niet omdat ze denken dat ze even 6 maanden van hun schema af kunnen halen, maar puur omdat ze het zich niet kunnen veroorloven om pas een jaar na Intel met een quadcore te komen.
Conroe samples waren er al lang vóór ze gedemoed werden. Testen, debuggen, proces optimalisatie... denk je echt dat je dit op een paar maanden rond krijgt? AMD heeft al k8L samples, van hun testlijnen.
Het probleem dat AMD heeft is dat ze slechts 2 fabs hebben, die moeten blijven draaien of ze vallen zonder inkomsten. Chartered werd ingeroepen om de overgang naar 65 nm te kunnen maken zonder veel productieverlies.

AMD's 65 nm (massaproductie!)proces moet eerst gefinetuned worden met een gekende architectuur, de K8. Vandaar de Brisbane core die in december op de markt komt (en nu dus volop geproduceerd wordt op 65 nm). Als het 65 nm proces goede yields haalt, kunnen ze dus sneller overschakelen op de K8L core, wat ze nu dus ook zullen doen. Conclusie: de omschakeling naar het 65 nm proces is naar alle waarschijnlijkheid een succes.
De banner rechtsboven op de Cray website al gezien? Dit is niet één klant, maar Cray die de ontwikkeling van zijn toekomstige ("next generation") supercomputers exclusief gaat baseren op AMD's k8 en nazaten.
Wat heeft dat met de kloksnelheid te maken? Dit geldt voor iedere CPU.
Bij een lage kloksnelheid is het voordeel juist dat je pipeline erg kort is, en daardoor stalls veel sneller opgelost worden. De CPU hoeft minder ver vooruit te kijken.
De Itanium heeft een pipeline van 10 klokcycli, de Athlon64 12. Het verschil in pipeline is dus erg beperkt (de K7 had er ook 10). Het verschil in kloksnelheid daarentegen is wel significant (1.6 GHz vs 2.8 GHz). De lage klok is dus de oorzaak.
We zullen het af moeten wachten, ik ben duidelijk veel minder positief dan jij over de situatie. Maar ik baseer dat dan ook op de aanloopproblemen die grote namen als Intel en IBM hebben gehad met 65 nm. Voor AMD zal het waarschijnlijk ook niet van een leien dakje gaan.
AMD gebruikt IBM's 65 nm SOI proces.
Verder vind ik december sowieso al veel te laat. Dat is dus 5 maanden lang op iedere processor verlies lijden... en dan maar afwachten of 65 nm daarna wel rendabel genoeg is om de productie over te gaan zetten... en intussen moet er ook nog een K8L uit geperst worden...
Tsja, het zou allemaal kunnen, maar gemakkelijk wordt het niet.
De volgende vraag is wanneer Intel met 45 nm komt, en het hele verhaal weer van voren af aan begint. Jij denkt meteen dat AMD een voorsprong gaat nemen, maar ik zie ze voorlopig nog niet eens hun achterstand goedmaken...
Dat is inderdaad het probleem wat AMD heeft. Anderzijds neemt de vraag naar opterons nog steeds sterk toe, en schakelen bedrijven ook niet dadelijk massaal over op een nieuwe architectuur. Dus hier hebben ze geen probleem. Ook in de mobiele markt kunnen ze wat leveren, aangezien merom nog niet op de markt is (en dat nog even zo zal blijven). Enkel op de desktopmarkt hebben ze een probleem, omdat Intel hun netburstlijn gaat dumpen aan dumpingsprijzen. De conroe werd zo goedkoop op de markt gebracht om de prijzen van de Athlons naar beneden te drukken.

Ik denk niet dat de vraag laag zal zijn, aangezien een x2 5000+ bv wel concurrentieel is met een C2D 6300-6400 bv. Het nieuwe 90 nm proces van AMD is ook 30-40% efficiënter dan het vorige. Bovendien zijn de hedendaagse dual core processors (netburst,K8 en C2D) een toekomstgerichte upgrade, met sterk voelbare prestatiewinst, voor zowat iedereen die nog met oude pc's werkt, en zo zijn er nog veel mensen. Ik heb dit jaar ook nog maar net mijn oude P3 800eb omgeruild voor een x2 3800+, en de snelheidswinst was enorm. En van zodra er meer multi-threaded x64 software op de markt komt, zal hij nog eens bijna 2 à 3 keer zo snel worden.

Het wordt ongetwijfeld super interessant de volgende jaren. Intel zal inderdaad zo snel mogelijk naar 45 nm moeten overschakelen, om zo het procesvoordeel te kunnen benutten. Het lijkt er ook op dat ze dat heel snel zullen doen, al in 2007 volgens de roadmap. Ik ben benieuwd, en ik ben vooral benieuwd naar wat ze de jaren nadien zullen uitbrengen (CSI/HT3? On-die geheugencontroller? een alternatief voor z-ram?).

Ik hoop ook dat beiden concurrentieel zullen kunnen blijven, dan zal er op korte tijd vééél gaan veranderen en heeft binnenkort iedereen een mini-supercomputer in huis.
En ik denk dat ook klimatologen de nieuwe krachtigere supercomputers zullen kunnen gebruiken...
Via de overname van ATi zal AMD in staat zijn om op termijn een SOI GPU te kunnen fabriceren met laten we zeggen 150 MB z-ram geheugen, dat dus loopt op GPU snelheid. Dat plug je dan in een HTX slot, of een AM2/3 socket. Als je meer performantie nodig hebt, plug je nog een andere in.

Het z-ram geheugen is volgens mij de grote doorbraak. Hier heb je cellen van 1 transistor per bit, dus een chip van 8x150 M cellen levert je ongeveer 150 MB op. Vermoedelijk verbruikt het ook weinig, omdat het gebaseerd is op een capacitief (neven)effect van SOI. Het z-ram geheugen zal ook in de processor zitten, en via hypertransport kunnen alle geconnecteerde cores aan al dat geheugen aan.

Dan nog heel wat types co-processoren, mram 'harde schijven' (die het geheugen van nu zullen vervangen) en dat beestje gaat vliegen. De AMD presentaties van begin juni bevatten reeds een roadmap voor jaren ver in de toekomst. AMD ziet het toekomstig pc platform als een lego blokkendoos, waar je naargelang je eigen behoefte je systeem kan upgraden door er een 'blokje' bij in te pluggen. Je pc zal dan ook heel wat langer meekunnen dan nu het geval is, wat ook goed is voor het milieu. Op termijn zal alles op de cpu geïntegreerd worden, wat ook duidelijk is uit de torrenza 'roadmap' uit Phil Hesters presentatie.
De banner rechtsboven op de Cray website al gezien? Dit is niet één klant, maar Cray die de ontwikkeling van zijn toekomstige ("next generation") supercomputers exclusief gaat baseren op AMD's k8 en nazaten.
Ja, maar mijn punt was dat dat volgend jaar zomaar weer Intel of iets anders kan zijn... het is sterk aan mode onderhevig. Een tijdje terug waren G4 en G5-systemen erg aantrekkelijk voor hun bang-for-the-buck... Toen Cray de beslissing nam, was Opteron dat... maar Core 2 zal dat waarschijnlijk in de nabije toekomst worden, zeker nu Intel de multicore-oorlog begonnen is.
De Itanium heeft een pipeline van 10 klokcycli, de Athlon64 12. Het verschil in pipeline is dus erg beperkt (de K7 had er ook 10). Het verschil in kloksnelheid daarentegen is wel significant (1.6 GHz vs 2.8 GHz). De lage klok is dus de oorzaak.
Ik denk niet dat we hier uit gaan komen... laten we het maar voor een andere keer bewaren. Ik denk namelijk dat je over het hoofd ziet dat de Itanium een volstrekt andere instructieset heeft, zodat instructies niet 1:1 te vergelijken zijn, en de pipeline ook niet. En kloksnelheid inderdaad ook niet... Maar dat is geen reden om zomaar naar assembly te moeten grijpen om een programma voor x86 te herschrijven.
Eigenlijk snap ik het punt ook niet echt, want alles wat jij tot nu toe noemt, heeft puur met optimalisaties te maken, en optimalisaties zijn natuurlijk niet noodzakelijk om een programma te kunnen draaien. Als je het hercompileert, werkt het wel, dat was het oorspronkelijke uitgangspunt. Of het al dan niet optimaal presteert, hangt van vele factoren af, en moet je per geval bekijken.
AMD gebruikt IBM's 65 nm SOI proces.
Precies, en IBM heeft daar nog wat probleempjes mee. Het is ook een van de redenen dat Apple over is gestapt naar Intel. Bij IBM zagen ze te weinig toekomst, mede omdat de processors van IBM te heet werden en te veel verstookten, en daar te weinig prestaties tegenover zette, en er weinig verandering op komst leek.
Ik denk niet dat de vraag laag zal zijn, aangezien een x2 5000+ bv wel concurrentieel is met een C2D 6300-6400 bv.
Het probleem is dat AMD niet significant goedkoper, sneller of zuiniger is. Daar staat tegenover dat Intel de snelste processors heeft en de grootste naamsbekendheid. Bij dergelijke kleine verschillen zullen de meeste mensen toch voor Intel kiezen.
Verder zijn er nog steeds meer Intel-bezitters dan AMD-bezitters, en die kunnen fijn bij hun vertrouwde merk blijven bij hun volgende upgrade.
AMD ziet het toekomstig pc platform als een lego blokkendoos, waar je naargelang je eigen behoefte je systeem kan upgraden door er een 'blokje' bij in te pluggen. Je pc zal dan ook heel wat langer meekunnen dan nu het geval is, wat ook goed is voor het milieu. Op termijn zal alles op de cpu geïntegreerd worden, wat ook duidelijk is uit de torrenza 'roadmap' uit Phil Hesters presentatie.
De toekomstvisie van Intel is al een tijd bekend: Itanium.
Zij willen liever alle legacy uit het PC-platform gooien, en een nieuwe start maken. Dat heeft natuurlijk voordelen... Een Itanium-core is in principe erg klein vergeleken met een x86-core... je hebt namelijk geen complexe OOO-logica en x86-decoders nodig... De IPC ligt ook heel hoog... dus het is een prima platform voor hoge performance-per-watt, en om veel cores op 1 die te zetten. Maar hiervoor zal eerst AMD uitgeschakeld moeten worden...
Het probleem is dat als het te lang duurt, dat de Itanium dan al weer een gedateerd concept gaat worden, en men weer opnieuw moet beginnen, als men niet in dezelfde fout van de x86 wil vervallen. De ideale architectuur is namelijk sterk tijdgebonden, omdat de productiemogelijkheden voor een groot deel vastleggen hoe deze architectuur eruit moet zien... Denk hierbij aan de verhouding tussen CPU en geheugensnelheid, het aantal transistors dat op een die past, de maximale kloksnelheid die te behalen valt, de kennis die voorhanden is, etc...
Vind ik een beetje een non-argument... De geheugencontroller ondie maken is weinig meer dan copy-paste (in het geval van Intel dan, want zij maken hun eigen chipsets en geheugencontrollers).
Onzin, het ontwerpen van high-end chips is geen kwestie van domweg met blokjes slepen. Hier zal echt nog wel wat ontwerptijd in gaan zitten. Natuurlijk is dat wel minder dan wanneer ze totaal geen ervaring op dit vlak zouden hebben.
Een Itanium-core is in principe erg klein vergeleken met een x86-core... je hebt namelijk geen complexe OOO-logica en x86-decoders nodig... De IPC ligt ook heel hoog... dus het is een prima platform voor hoge performance-per-watt, en om veel cores op 1 die te zetten. Maar hiervoor zal eerst AMD uitgeschakeld moeten worden...
Itanium is vanuit technisch standpunt een heel interessante processor, het tegendeel heb ik nergens beweerd. Volgend jaar zou Intel zijn Itanium ook uitbreiden met CSI en een on-die geheugencontroller, en zal ook de kloksnelheid verhoogd worden. AMD heeft ondertussen het oorspronkelijke HT stapsgewijs verbeterd, op basis van de heel wat opgedane ervaring. Als CSI van de eerste keer een schot in de roos is, is er nog een mogelijkheid dat Itanium overleeft. De weinige technische details die hierover te vinden zijn tonen aan dat het minstens op hetzelfde niveau zou moeten zitten als HT3. Maar de huidige gebeurtenissen geven mij weinig hoop voor CSI.

Ik denk dat ook de beschikbaarheid van co-processoren een belangrijke rol zal spelen. En ik blijf bij mijn mening dat de overstap naar Itanium moeilijk zal zijn owv het software aspect. Bovendien denk ik niet dat Intel direct een alternatief voor z-ram zal vinden, hoewel ook dit nog afwachten blijft.

Conclusie is dat we het gewoon moeten afwachten. Wat zeker is, is dat we binnenkort een sterke vooruitgang zullen zien van het hele pc platform, en dat de trend van miniaturisatie zich nog meer zal verderzetten. En ik denk dat we voor een doorbraak in artificiële intelligentie staan, wat verstrekkende gevolgen zou hebben.
Klopt. AMD kan dit trouwens wel, wegens hun modulaire structuur. Zij kunnen de core in de toekomst relatief makkelijk uitbreiden/aanpassen. De Core 2 die-shots tonen aan dat C2D weinig stuctuur bevat, wat verdere aanpassingen kan bemoeilijken. Duidelijk geoptimaliseerd voor snelheid. Intel zal dan ook core-gewijs gaan werken, met verschillende cores die allemaal verbonden zijn met een geshared cache. Het zal afwachten worden welke strategie het best is.
En ik blijf bij mijn mening dat de overstap naar Itanium moeilijk zal zijn owv het software aspect.
Mijn code werkt al op Itanium onder Windows.
Kostte me wel geteld 5 seconden (moest even de juiste processor kiezen in de project settings).
Mijn AMD64-code werkt gewoon as-is.
Ik denk dat dit voor de meeste code geldt, die report is naar AMD64, en daarbij meteen opgeschoond is. 64-bit Windows is ontworpen met portability hoog in het vaandel. Het is trouwens in Visual Studio niet meer mogelijk om inline-assembly te gebruiken in 64-bit code. Je *kunt* dus geen assembly schrijven in een Visual Studio-project. Je kunt het er alleen nog tegenaan linken.
Deze beslissing van Microsoft geeft eigenlijk wel aan dat iig Microsoft het met me eens is dat assembly voor doorsnee-programmeurs niet nodig is, compilers zijn goed genoeg.
Ironisch genoeg betekent dat dus eigenlijk dat ALS je x86-code moet herschrijven voor AMD64 of Itanium, dat je juist je assembly-code ERUIT moet halen, geen nieuwe erin doen. Maar de meeste programmeurs zullen waarschijnlijk alles eerst in een hogere taal schrijven, en zullen die code nog wel bewaard hebben, dus dat plak je dan gewoon terug.
Ik ben een grote voorstander van deze aanpak, en ben ervan overtuigd dat intelligente compilers de toekomst zijn. Het optimaliseren naar snelheid heeft véél nadelen:

- overzichtelijkheid van de code gaat er sterk op achteruit
- vergroot de kans op fouten
- portability van de code

Ik heb zelf geen ervaring met Itanium, maar heb toch regelmatig opgevangen dat de compilers niet van de efficiëntste zijn. De architectuur verklaart dit. Dat was dan ook mijn punt.
Ik heb zelf geen ervaring met Itanium, maar heb toch regelmatig opgevangen dat de compilers niet van de efficiëntste zijn. De architectuur verklaart dit. Dat was dan ook mijn punt.
Tsja, ten eerste staat de compiler-technologie niet stil... Natuurlijk is het lastig om meteen met een goede compiler te komen voor een compleet nieuwe architectuur als de Itanium. Maar er zit een constante ontwikkeling.

Ten tweede moet je inefficient niet verwarren met langzaam.
Een x86 is ook volstrekt niet efficient. Als je ziet hoeveel execution units het ding heeft, en hoe weinig IPC je eruit haalt... Maar toch is de x86 niet echt langzaam, omdat hij veel brute kracht herbergt. Er zijn een hoop efficientere architecturen die veel trager zijn. Het gaat om die balans tussen efficientie en brute kracht, die bepaalt de uiteindelijke snelheid.
Met dit verschil dat de snelste supercomputer ooit is besteld door Oak Ridge NL, en dit beestje is enkel gebaseerd op de K8 en zijn opvolgers! Dus de Opterons hebben wel heel snel de top bereikt nietwaar?!
Is dat zo? Waarom zie ik dat systeem hier dan niet terug? http://www.top500.org/list/2006/06/100
Volgens mij is de hoogste Opteron-computer daar plaats 7. Daarboven staan nog enige Itaniums en IBMs, en als je naar de getallen kijkt, zie je dat die IBMs HEEL wat sneller zijn.
Op plaats 6 zie je ook nog een Dell met Xeon processors. Die is sneller dan het Opteron-systeem, en doet dit met minder processors op de koop toe.
Uit deze lijst kan ik dus niet de conclusie trekken dat Opterons de ideale supercomputer-processors zijn... ze leggen het niet alleen af tegen de Itanium, maar zelfs tegen gewone Xeons.
Ik wel anders, ik zou een extra floating point co-processor wel kunnen gebruiken (VB clearspeed).
Ja, maar moet dat per se in een socket? Volgens mij kun je in de meeste gevallen net zo goed een PCI-e kaartje hebben... of gewoon extra processors bijplaatsen.
Zoals ik al zeg, ik moet het eerst zien, voordat ik weet of er uberhaupt een praktisch nut is. Voorlopig heb je sowieso de software en hardware niet om dit soort dingen te doen...
Misschien voor Intel wel. Feit is dat ze het nog niet hebben, en dat dit juist één van de redenen is waarom de opterons zo goed presteren in clusters (cfr cray supercomputers).
Voorlopig doen de Opterons het niet zo denderend in de top500...
Verder bedoelt men met clustering het verbinden van losse nodes dmv een netwerk, voor zover ik weet. Dit zou dan dus weinig met HyperTransport te maken hebben, omdat HyperTransport alleen binnen een enkele node z'n werk doet. Dat is ondergeschikt aan het netwerksysteem in dergelijke configuraties.
Off-chip communicatie kost veel power en latency, veel meer dan on-chip communicatie.
Dat valt allemaal wel mee. Voorlopig is de Core 2 zuiniger EN sneller dan een Athlon/Opteron, dus dat on-chip-gedoe is blijkbaar niet zo heel erg van invloed.
In theorie wel ja, in de praktijk moet je rekening houden met de manier waarop ILP geimplementeerd is.
Wil je dat even uitleggen? Ik heb geen idee wat je bedoelt namelijk. Zolang je geen assembly programmeert, heb je toch helemaal niks te maken met de instructieset en hoe deze ILP implementeert? Dat doet de compiler allemaal voor je. Aangezien in de meeste hedendaagse software geen assemblycode meer voorkomt, heb je daar dus niks mee te maken... Of wat bedoel je precies? Je mag het in detail uitleggen, want ik ben zelf een ervaren programmeur, ik heb door de jaren wel aardig gerommeld met compilers en assemblers, dus schroom niet om in technische details te treden, ik kan het wel aardig volgen, denk ik.
Intel heeft inderdaad de expertise en ervaring in huis. De reden waarom ze het nog niet geimplementeerd hebben in hun x86 designs, is omdat ze er niet de tijd voor kregen.
Nee, ze hebben het niet geimplementeerd omdat de Itanium voor de grote supercomputers bedoeld is, en de x86-lijn in feite budget is. Als ze de Xeons te goed maken, helpen ze hun eigen Itaniums om zeep in de supercomputermarkt.
Nu ja, ieder zijn mening. Ik ben er rotsvast van overtuigd dat ik het bij het rechte eind heb. Dell is er blijkbaar ook van overtuigd en dat zegt wat! De overstap naar AMD heeft offers gevraagd van Dell mbt Intel, daar mag je zeker van zijn.
Naar mijn mening heeft Dell het slechtst mogelijke moment gekozen dat er is... Ze hebben natuurlijk die beslissing genomen op het moment dat de Athlon64 de betere processor was... Maar tegen de tijd dat dat die beslissing doorgevoerd is, is daar ineens de Core 2.
Ik denk dat de vraag naar AMD-systemen het komende jaar gewoon flink inzakt (want Core 2 is sneller, goedkoper, zuiniger, en AMD komt niet eerder met een nieuwe chip), en dat Dell zich gigantisch in de vingers snijdt.
Vind je het trouwens ook niet 'verdacht' dat AMD zijn productiecapaciteit nu vergroot (fab 38, Chartered), net nu Intel zijn killer-cpu gelanceerd heeft? En AMD hier bovenop ook nog eens ATI koopt? Dit laatste zal binnen een paar jaar het nekschot worden voor Intel als ze niet oppassen.
Ik denk dat dit met Dell te maken heeft. Dell is een enorm grote klant in potentie, dus AMD moet meer produceren (als ik het goed heb, verkoopt Dell in z'n eentje al meer CPUs dan AMD er maakt in een jaar).
Dell heeft misschien ook aangestuurd op een eigen chipset-afdeling. Bij Intel gebruiken ze ook uitsluitend Intel-chipsets, een compleet platform van 1 leverancier scheelt vaak een hoop problemen, en problemen worden makkelijker opgelost. Misschien dat AMD daarom geinteresseerd is in ATi.
Als ik gelijk heb, hangt dit dus samen met het succes van Dell. De vraag is hoe ze het risico hebben gedeeld... Heeft Dell gewoon een contract waarin staat dat ze per jaar een x-aantal CPUs afnemen, dan komt AMD goed weg, als Dell ze niet kwijt kan.
Als er niets is afgesproken, dan kan het voorkomen dat Dell gewoon veel minder CPUs afneemt dan verwacht, en zit AMD ineens met overcapaciteit en een hele voorraad CPUs die niemand wil.
Dan is het een gevalletje van 'hoogmoed komt voor de val'.
Okee, dus die computer is nog niet eens gebouwd.... Eerst zien, dan geloven, zeg ik dan maar.
Verder is het jammer dat je niet ingaat op het feit dat in de top500-lijst de Opterons onder de IBMs, Itaniums en Xeons eindigen.
Nu nog wel ja. Nogmaals: Off-chip communicatie kost veel meer vermogen dan on-chip, omdat de output-lijnen moeten gebufferd worden. Wacht maar tot binnen een paar jaar
Vind ik sterk overdreven, het zal misschien een paar watts schelen, maar de gemiddelde desktop-CPU gebruikt toch 60-80w, dus dat is verwaarloosbaar. De meeste mensen kijken daar toch niet naar, zelfs bij laptops vaak niet.
Ja, die heb ik gelezen, uiteraard. Kun je iets specifieker zijn? Want deze handleiding is gericht aan assembly programmeurs en compilerbouwers, en ondersteunt dus in feite wat ik zeg.

[quote]
[edit] Oeps, foute link. Hieronder de link die het moest zijn.

http://www.intel.com/intelpress/sum_programmingitanium.htm
[/quote]

Ja leuk, ik heb dit boek niet, en ik ga het niet speciaal voor jou bestellen en lezen.
Het zou fijn zijn als je eens in technische details en argumenten trad in plaats van nietzeggende links te posten.
Bij het lezen van de omschrijving en inhoudsopgave van dit boek krijg ik de indruk dat dit net zoals de optimization manual gericht is op de assembly-programmeur en compilerbouwer, en heeft dit geen invloed op mensen die alleen compilertalen gebruiken.
Kortom, doe alsjeblieft eens een poging om uit te leggen wat je nou precies bedoelt, want ik krijg hier sterk de indruk dat je iets geroepen hebt dat je niet kunt onderbouwen.

[quote]
Hun Itaniums zijn al om zeep.
[/quote]

Ze staan anders nog steeds boven de Opterons in de top500-lijst. En een aantal dagen geleden is er een nieuwe dualcore-processor geintroduceerd, dus kun je nu nog meer rekenkracht in je supercomputers stoppen. Nog lang niet om zeep, dus.

[quote]
Ik denk dat Michael Dell heel goed weet wat hij doet, en welke implicaties dat heeft. Hij heeft toch al niet slecht geboerd tot nu toe met Dell, niet?
[/quote]

Resultaten uit het verleden geven geen garanties voor de toekomst.
Met jouw logica kun je ook zeggen dat de Pentium 4 de snelste processor was, alle processors daarvoor waren immers ook altijd de snelste.
Het zijn allemaal maar mensen, en ze maken ook wel eens de verkeerde beslissingen. Ik ben ervan overtuigd dat Dell hier een totaal verkeerde beslissing heeft gemaakt.

[quote]
Dell heeft trouwens die beslissing niet gebaseerd op de huidige processor generatie, maar op de volgende. Je mag er zeker van zijn dat Michael al werkende K8L systemen gezien heeft.
[/quote]

Daar ben ik helemaal niet zeker van. Ik ben er vrij zeker van dat er nog geen enkele werkende K8L bestaat. AMD is zover nog niet.
Heb je ook nog bronnen, of is dit slechts jouw eigen speculatie?
Ik weet dat dit een populair standpunt is, maar ik vraag me af of je gelijk hebt. Ik heb de indruk dat Intel en AMD nu toch ècht de laatste druppels performance uit de x86-architectuur aan het persen zijn.
Dat doen ze al een jaar of 10...
De EPIC-architectuur van de Itanium herbergt echter nog een enorm potentieel voor verbetering en optimalisatie.
Intel zet momenteel zeer aggressief in met hun nieuwe lijn, zowel qua prestaties als qua prijs.
Het zou best kunnen zijn dat de insteek is om AMD dermate de vernieling in te helpen, dat ze geen bedreiging meer vormen als Intel straks de Itanium op de desktop wil gaan brengen. Intel is dit namelijk al tijden van plan.
Sterker nog, eind jaren 80 had men ook al een 32-bit RISC-processor ontworpen... men wilde toen al van x86 af.
Ze hebben hetzelfde probleem als Microsoft met Windows 9x destijds... Microsoft wilde over naar NT, maar de markt bleef te lang vasthouden aan 9x.
Microsoft had het voordeel dat er geen concurrent was die Windows 9x-klonen maakte... Intel zit met het probleem dat als zij stoppen met x86, dat de markt dan voor de x86 van de concurrent kiest, in plaats van hun vervanger.
Daarom zou het me niets verbazen als Intel er nu echt op uit is om AMD zo ver terug te dringen dat het geen bedreiging voor de Itanium meer vormt, als het moment daar is.
(Het ontgaat blijkbaar ook iedereen dat AMD nu wel ineens roept dat ze van alles 6 maanden vooruit gaan schuiven... maar dat dat natuurlijk niet zomaar even kan. Er zat heus geen rek van 6 maanden in hun originele planning... ze gaan gewoon flink snijden in hun plannen, en we krijgen nu gewoon gestripte en minder goed geteste producten op de markt).
BTW, ik zie maar bitter weinig Itanium/Xeon systemen in de hogere regionen. Cray is daarentegen wel goed vertegenwoordigd.
Cray is een maker van supercomputers, niet van processors. Ze hebben in het verleden ook oa MIPS processors gebruikt. Zij maken de beslissing voor de processor aan de hand van wat de klant met de computer wil, en wat er op dat moment de beste keuze daarvoor is.
Itanium en Xeon zijn processors. Oa SGI bouwt supercomputers met Itaniums, en oa Dell met Xeons.
Je moet rekening houden met de onderliggende parallelle architectuur (vb geen lange kettingen met veel onderliggende afhankelijkheid, geen if's, ...). Het gebruik van niet-geoptimaliseerde code leidt tot grote performance hits (lage kloksnelheid Itanium), veel meer dan bij andere architecturen.
Ja, maar dat zijn nog steeds allemaal zaken die de compiler afhandelt. Voor x86 gelden overigens dezelfde soort regels, al zijn de details wat anders. Maar ook daar wil je niet te veel dependency chains, en in veel gevallen geen ifs... Maar de compiler kan dergelijke code redelijk makkelijk herschrijven, daar hoeft de programmeur niets van te weten. Er zijn natuurlijk uitzonderingen, maar die zijn er bij x86 ook... soms heeft het gewoon nut om een stuk code in assembly te optimaliseren.

Verder heeft de lage kloksnelheid er mijns insziens weinig mee te maken. Het gaat om de IPC, en die is bij de Itanium juist erg hoog, daarom kan ie met die lage kloksnelheid meekomen met de andere processors met veel hogere klok.
Waarom denk je dat die boeken er uberhaupt zijn als alles toch via de compiler zou geoptimaliseerd worden??
Iemand moet die compiler toch maken? En voor sommige dingen, zoals device drivers en OS kernels, heb je wel assembly nodig, natuurlijk. Maar dat geldt voor iedere architectuur, uiteraard. Voor de x86 heeft Intel precies dezelfde soort manuals beschikbaar. En ook AMD heeft een aantal van deze manuals.
Als AMD nu nog geen engineering samples heeft van de K8L zouden ze er slecht opstaan.
Ik denk inderdaad niet dat AMD die heeft. Dit bericht beweert ineens dat de processor een half jaar eerder komt... waarschijnlijk niet omdat ze denken dat ze even 6 maanden van hun schema af kunnen halen, maar puur omdat ze het zich niet kunnen veroorloven om pas een jaar na Intel met een quadcore te komen.
Intel heeft nu pas een quadcore demo gegeven met een van de eerste engineering samples, en die komt over een half jaar op de markt. Zelfs met het nieuwe schema van AMD, komt die van AMD pas 6 maanden daarna. Het lijkt me dus onwaarschijnlijk dat AMD nu net zo ver is als Intel (werkend engineering sample), terwijl ze 6 maanden langer nodig hebben (eigenlijk 12, voor deze nieuwe beslissing) om hem op de markt te krijgen.
Ik voorspel dat we over ongeveer 6 maanden de eerste engineering samples van AMD gaan zien.
Dat ze nog niet in publieke demo's getoond werden is logisch; kijk maar naar het effect van de core2 demo op de markt.
Als ze iets goeds hebben, is het nu JUIST het moment om een demo te geven... Intel heeft namelijk zojuist een processor op de markt gebracht die zeker het komende halfjaar vrij spel heeft, omdat AMD geen antwoord heeft.
AMD zou nu dus JUIST moeten laten zien dat ze binnenkort WEL met een antwoord komen, door een werkende K8L te laten zien. Zo niet, dan gaat er zeker niemand op AMD wachten, en neemt iedereen gewoon de Intels.
www.cray.com
Blijkbaar willen de klanten dan niets anders dan opteron gebaseerde supercomputers, met via torrenza gelinkte custom co-processoren.
Toevallig wil deze klant dat, op dit moment.
Het zou zomaar kunnen dat hun volgende grote order op de nieuwe Intels gebaseerd is... of op Cells, of noem maar wat...
De IPC is net zo hoog omdat er zoveel parallellisme is. Als je code niet geoptimaliseerd is, verlies je aan parallellisme en/of krijg je pipeline stalls, waardoor de IPC veel lager is. De lage kloksnelheid is dus wel de boosdoener.
Wat heeft dat met de kloksnelheid te maken? Dit geldt voor iedere CPU.
Bij een lage kloksnelheid is het voordeel juist dat je pipeline erg kort is, en daardoor stalls veel sneller opgelost worden. De CPU hoeft minder ver vooruit te kijken.
Eigenlijk precies de reden waarom Athlon64 en Core 2 beter met dergelijke code kunnen omgaan dan de Pentium 4. De Itanium is alleen nog een stap verder die richting in.
Uit de tweede link naar het boek:
...
Code optimization advice, including low-level explanation of what happens under the hood when code is compiled
...

Geen assembly dus.
Juist wel, 'low-level' en 'under the hood' slaan uiteraard op de assembly-code die de compiler genereert.
This is the book for you:
If you want to know how to create, optimize, and tune application software for the Itanium architecture
If you are making the transition from 32-bit to 64-bit addressing
If you are buying your first, perhaps your only, book on the Itanium family of processors

Geen verdere commentaar nodig.
Nee, dit geeft inderdaad duidelijk aan dat dit boek gericht is op mensen die (in assembly) willen optimaliseren voor de Itanium... dus mensen als compilerbouwers, driverbouwers, en bv mensen die photoshop-filters willen optimaliseren.
En het 32-64 bit verhaal...
Het gaat allemaal net zo hard op voor x86... Het zijn allemaal uitzonderingen waar je assembly programmeert, of moet weten wat er onder de motorkap gebeurt. Precies dezelfde uitzonderingen.
Dergelijke code moet je ook herschrijven voor een nieuwe x86, bv van 32-bit naar 64-bit, of nieuwe optimalisaties voor een nieuwe extensie van de instructieset zoals SSE.
De meeste programmeurs houden zich daar nooit mee bezig, en hebben dus genoeg aan een compiler. Als ze van 32-bit naar 64-bit gaan, maakt het niet uit of dat een AMD64 is of een Itanium... Je krijgt dezelfde problemen met de andere pointergrootte. Als je je code eenmaal aan de praat hebt op AMD64, kun je het in principe meteen compilen op een Itanium, en vice versa.

Ik heb in m'n carriere genoeg van dit soort boeken gelezen om met zekerheid te kunnen zeggen dat het niet voor de doorsnee-programmeur is.
Conroe samples waren er al lang vóór ze gedemoed werden. Testen, debuggen, proces optimalisatie... denk je echt dat je dit op een paar maanden rond krijgt?
Samples maak je pas op het laatst, hoor. Voor het grootste deel van het proces volstaat het om een simulator te gebruiken. Pas als de simulatie goed werkt, gaat men de CPU daadwerkelijk produceren. En als het dan meezit, dan is ie binnen een maand of 6 in productie.
Verder zal Dell toch echt een engineering sample moeten zien dat vergelijkbaar is met wat er geproduceerd gaat worden... een simulatie of een processor die op een veel lagere snelheid werkt of met bugs, zal niet genoeg zijn om een dergelijke beslissing te nemen.
AMD's 65 nm proces moet eerst gefinetuned worden met een gekende architectuur, de K8. Vandaar de Brisbane core die in december op de markt komt (en nu dus volop geproduceerd wordt op 65 nm).
We zullen het af moeten wachten, ik ben duidelijk veel minder positief dan jij over de situatie. Maar ik baseer dat dan ook op de aanloopproblemen die grote namen als Intel en IBM hebben gehad met 65 nm. Voor AMD zal het waarschijnlijk ook niet van een leien dakje gaan.
Verder vind ik december sowieso al veel te laat. Dat is dus 5 maanden lang op iedere processor verlies lijden... en dan maar afwachten of 65 nm daarna wel rendabel genoeg is om de productie over te gaan zetten... en intussen moet er ook nog een K8L uit geperst worden...
Tsja, het zou allemaal kunnen, maar gemakkelijk wordt het niet.
De volgende vraag is wanneer Intel met 45 nm komt, en het hele verhaal weer van voren af aan begint. Jij denkt meteen dat AMD een voorsprong gaat nemen, maar ik zie ze voorlopig nog niet eens hun achterstand goedmaken...
geen van beide failiet gaat, ik weet niet in wat voor een droom wereld jij leeft maar failiet zie ik geen van beide gaan, d.w.z intel al helemaal niet. Bekijk de jaarwinst van intel eens, ook al is deze nu minder dan nog praat je over minimaal 4 tot 9 miljard per jaar !!!

Er m oeten wel hele gekke dingen gebeuren voor dat intel failliet gaat.

Amd haar winstcijfers liggen stukken lager, aanzienlijk lager en een prijzenslag met intel zal amd zeker veel geld kosten, meer als intel. Intel zal zelfs bij een prijzenslag nog steeds winst draaien.
Laten we dan in ieder geval hopen dat AMD er niet te veel haast mee maakt, anders sluipen er te makkelijk fouten in die wel eens voor grote problemen kunnen zorgen.

Laten we gewoon aannemen, om positief te blijven, dat ze bij AMD iets hebben gevonden om het allemaal een stuk sneller te laten verlopen (het productieproces starten enzo) :Y)
AMD zou al het derde kwartaal 2006 komen met quad core's maar moest dit verschuiven naar 2007, derde kwartaal, omdat ze problemen hadden met het ontwerp.

Ook de "acceptabele yields" stemt mij niet tot gerustheid. AMD zou voor zichzelf eens wat meer duidelijke keuze's moeten stellen en zich daar aan houden. Het iedere keer aanpassen van je ontwerp proces omdat de concurrent je iets voor bij gaat bij een nieuw model is water naar de kraan dragen, je creeert voor een onrustige sfeer binnen je eigen bedrijf.

Als ze hun belofte en proces van de originele planning hadden kunnen waar maken dan was de Conroe juist helemaal geen bedreiging voor ze en hadden ze met een quad core Intel links laten liggen. Maar goed, zo te zien rennen ze konstant Intel achterna om een antwoord te kunnen geven op alles wat Intel doet. Volg je eigen weg en laat Intel met vragen zitten ;)
Eigen weg volgen... Hmmm... Ik vraag me dan het volgende af: als ze native quadcore gaan bouwen en ATi inderdaad overnemen. Kan het dan zijn dat ze zometeen een "cell-processor"-achtig design neer gaan zetten? Wat ik dus bedoel is een GPU die wellicht op het zelfde plakje silicium zit, of iig heel dicht in de buurt. Op die manier heb je minimale afstand en dus maximale bandbreedte. Al vrees ik wel dat ze dan geheugen moeten gaan delen. Of ze moeten de GPU integreren in de Northbridge ofzo. Dan zou je eventueel het geheugen appart kunnen houden. Al is de afstand dan weer niet veel korter dan je eerste PCI-e slot.

Wat ook nog zou kunnen, is dat ze de hele architectuur gaan aanpassen naar ATi's design (wat mij niet heel erg waarschijnlijk lijkt, maar toch) en dat een of twee van de 4 cores gereserveerd kan worden voor graphische processen (games en bewerken etc.) Ook dan zal dus het geheugen gedeeld moeten worden.

Ik gooi maar wat balletjes op en zoals een wijs man ooit zei in Red Alert: "Time will tell... Sooner or later, time will tell..."
Krijgen we hetzelfde verhaal als met dual core. AMD ontwerpt de zaak van de grond af aan, Intel plakt twee oudjes aan mekaar om daarna tot de conclusie te komen dat je dat van scratch af moet ontwerpen...
Tot die conclusie was Intel al veel eerder gekomen, het aan elkaar plakken van processoren was een noodloplossing om de dual-core concurrentie met AMD aan te kunnen gaan, "echte" dual cores stonden immers al jaren op de roadmap bij Intel.

Ik last een paar dagen geleden een artikel op The Inquirer over een quadcore Kentsfield die op core/performance zeer goed schaalde, wat betekent dat plakken of by design niet veel hoeft uit te maken.
Ja en daarom gaan ze het nog eens doen. |:(
Probleem met de vorige chips was dat ze het plakken gedaan hebben met CPUs die origineel al meet dan 100W vraten. Plak daar 2 van op een processormodule en je hebt een totaalprodukt wat enorm moeilijk te koelen is. Qua performance maakt het allemaal niet zo hele veel uit, qua warmte wel. De 9xx series hebben ze wel goed gedaan, maar die presteren gelijk aan de 8xx serie als je geen gebruik maakt van virtualisatie.
Bedenk dat één grote silicium-plak met vier cores economische minder aantrekkelijk is dan twee losse plakjes met ieder twee cores. Als er een foutje op de wafer zit, dan hoef je in het tweede geval maar de helft weg te gooien.
Ik vind het wel goed dat AMD die quadcores helemaal nieuw maakt en geen 2 dualcores samen plakt. Deze manier zal waarschijnlijk minder stroom gebruiken en efficienter zijn qua bandbreedte.
Voor mij lijkt het dat de AMD quadcores zullen winnen van de Intel quadcores (als ze dan al geen betere hebben uitgebracht)
Ze zullen het winnen van de quadcores die nog bestaan uit twee aan elkaar geplakte dualcores, ja. Maar zodra intel met een from-scratch ontworpen quadcore komt gaat dat niet meer op.
Ik heb deze vraag al eens eerder gesteld maar toen werd er niet op gereageerd.

Wat gebeurt er nou als we straks naar 65nm gaan, dan naar 45nm, dan naar 25?nm, 10?nm ... en uiteindelijk zijn we bij 0. En dan :?
De reeks gaat als volgt verder: 65, 45, 32, 22, 16 en 11 nanometer.

Uiteindelijk zijn we zeker niet bij nul. Dat is zowel natuurkundig onmogelijk als ook technologisch.

Ik denk dat er niet werd gereageerd omdat het zo voor de hand ligt dat deze ontwikkeling niet eindeloos door kan gaan. Zo kun je bijvoorbeeld niet met halve atomen gaan werken.

Daarnaast wordt het economisch ook steeds moeilijker om deze minisecule lithografische processen te kunnen realiseren. Er zijn nog maar enkele bedrijven die in staat zijn om zoveel geld (meerdere miljarden) te investeren in een state-of-the-art chipfabriek.
Lithografie zal uiteindelijk wel vervangen worden door nano-imprint mold-in. Dit komt omdat lithografie wat werkt mbv licht van steeds grotere frequentie nodig zal hebben om een kleinere resolutie te maken, waardoor we uiteindelijk bij electrons aan zullen komen, omdat je ook te maken hebt met refractie etc. Echter electrons zullen te traag zijn voor t proces, waardoor ik verwacht dat er mold-in wordt gebruikt: "een soort stempel waarmee je in het silicium drukt en zo t gewenste patroon krijgt".

En wat er komt na 10nm? Nano devices! RTD's bijvoorbeeld. Deze kunnen in THz regionen werken. Voor meerdere voorbeelden moet je de ITRS bekijken.
Uiteindelijk zal men af moeten stappen van silicium omdat de lasers te onnauwkeurig zijn en de effecten van schaalverkleining (lekstroom en dergelijke).

Men zal dus over moeten stappen op totaal andere technologie. Quantum technologie is een van de grote kanshebbers.
Ik denk dat men uiteindelijk wel tot een punt zal komen waarop wij de echte physische grenzen tegenkomen van stroom / licht en de eigenschappen van atomen en andere nanodeeltjes
Bij 0 hebben we oneindig veel transistors op een cm2
(0 zal dus nooit gehaald worden)

25nm
10nm
5nm
2.5nm
1.25nm
etc
:P
Het is niet meer als normaal dat AMD reageert.

Of die 'echte' quadcore dan ook beter zal zijn dan de intel vierklepper op dat moment, valt toch zeker af te wachten. Je kan nu nog niets definitiefs besluiten.

Enkel het feit dat ze na een prijsverlaging hun planningstrategie aanpassen alsook een mogelijke fusie met Ati voorleggen, wijst erop dat AMD niet stilzit, wat natuurlijk aan te moedigen valt!
8-)
Core 2 Duo introductie was 4 dagen uitgesteld remember?
Of die 'echte' quadcore dan ook beter zal zijn dan de intel vierklepper op dat moment, valt toch zeker af te wachten. Je kan nu nog niets definitiefs besluiten.
Inderdaad... natuurlijk is een echte quadcore in theorie mooier... maar zo gek veel scheelt het in de praktijk vaak niet.
Als je de Pentium D-benchmarks ziet, dan moet je concluderen dat dit 'plakwerk' in een aantal gevallen gewoon prima partij kan geven aan een 'echte' dualcore (ervanuitgaande dat de cores op zich vergelijkbare prestaties bieden, uiteraard).
De Cinebench-resultaten van de Kentsfield die ik onlangs voorbij zag komen, waren ook indrukwekkend, het schaalde zeer goed van 2 naar 4 cores.
Vandaar dat het devies me lijkt: Beter twee goede dualcores aan elkaar geplakt dan 4 slechte cores op 1 die.
Ik zal dus afwachten of AMD met goede of slechte cores gaat komen, voordat ik er iets zinnigs over kan zeggen...
En als Intel intussen dan zelf ook al een 'echte' quadcore heeft, tsja, had AMD dan ook niet beter gewoon even kunnen plakken? Dan hadden ze in ieder geval nog wat gehad om te concurreren. Voorlopig hebben ze niks, en het wordt maar afwachten of ze straks wel iets hebben dat de moeite waard is. Volgens mij maken ze bij AMD niet altijd de beste keuzes, bedrijfskundig gezien.
zijn er buiten de 4 cores nog andere (revelutionaire?)veranderingen op de k8l ,of blijft het bij kleine verbeteringen/aanpassingen?
anyone
De Cores zijn op zichzelf ook inderdaad aangepast.
bron: tweakers
Jazeker. Kijk eens hier:

http://www.realworldtech....ArticleID=RWT060206035626

Het is niet onwaarschijnlijk dat deze verbeteringen de prestatie per kloktik van AMD weer naar het niveau van de Core2 zullen brengen. Wellicht sneller op Floating point gebied, en wat langzamer op Integer.
Ik begrijp al het geblaat over quad-core niet. Het is handig voor servers (hint: virtualisatie), maar voor de thuismarkt is het vooralsnog volkomen onnodig.

Maar voor de serverkant wil je een goede oplossing hebben voor de verbinding tussen de CPU's. Daar wint AMD vooralsnog.

Verder vergeet men al snel dat op het moment de videokaart voor de poweruser (lees: gamer) de belangrijkste schakel is. Met een bijbehorend prijskaartje natuurlijk.
Een poweruser hoeft natuurlijk niet direct een gamer te zijn. En moet jij is opletten hoe een cpu kan bijdragen bij games van nu en in de toekomst.

En quadcore is ook nog genoeg uit te halen, als je 2 cores met elkaar kan multiplexen (omgekeerde HT) of zelfs 4 kun je behoorlijke prestaties halen uit 2 of 4 cores met 1 thread.
Allemaal ontwikkelingen die op het moment gaande zijn.

lees over het laatste hier meer: reviews: De zin en onzin van 'omgekeerde HyperThreading'
Ik begrijp al het geblaat over quad-core niet. Het is handig voor servers (hint: virtualisatie), maar voor de thuismarkt is het vooralsnog volkomen onnodig.
Hmm, wanneer je je gehele systeem zelf compileert, zoals ik doe met mijn Gentoo-linux systemen, dan is zo'n quad-core ook wel handig hoor. Ik zit nog steeds te wachten op een systeem wat glibc kan compileren in 2 minuten. ;-)
Leuk al die cores, maruh.... wat heb heb je eraan als MS maar 2 ondersteund? (of je moet Linux nemen uiteraard ;o) )
Hoe kom je erbij dat Microsoft er maar 2 zou ondersteunen?
De NT-kernel is al sinds jaar en dag een multiprocessor-kernel.
Met Windows Server zijn er in principe geen grenzen aan het aantal processors of cores (en er is ook een variant om clusters te bouwen).
Met Windows XP Professional heb je support voor 2 sockets, en in principe oneindig veel cores per socket.
Met Windows XP Home heb je support voor 1 socket, met oneindig veel cores... voor zover ik weet.

Wordt dus prima ondersteund.
MS ondersteunt twee proc's. Geen limiet op hoeveel cores per proc.
daar zal wel weer een update voor komen :+

nee, volgens mij kan windows 64 wel 2 of meer cores aan, maar dat weet ik ook niet precies !

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True