Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 45 reacties

Intel is van plan om zijn productiecapaciteit in de strijd te gooien om zijn positie op het gebied van servers te versterken. De komende jaren zullen x86-chips met zes en acht cores verschijnen. Ook de Itanium breekt nieuwe records qua grootte.

Momenteel gaat de prijs voor grootste chip die Intel ooit heeft gemaakt naar de Itanium 'Montecito', die 596mm² meet. De eind volgend jaar verwachte 'Tukwila' gaat daar echter nog een stap overheen. Op basis van recent gepubliceerde foto's van de chip schat processorguru Paul DeMone hem op 650 tot 700mm². Dat betekent dat er maar tachtig stuks van op een wafer passen, tegenover ruim zeshonderd voor een ontwerp als de 45nm Core 2 Duo.

Itanium Tukwila
Tukwila: vier cores, vier geheugencontrollers, vier Quickpath-links en 24MB cache

Hoewel grotere chips natuurlijk meer ruimte hebben voor zaken als extra cores, cache en geheugencontrollers, gaan de productiekosten rap omhoog naarmate ze groeien. Toch lijkt het erop dat Intel niet meer terugdeinst om dit soort monsters ook naar de x86-wereld te brengen. Vorig jaar maakte men voor het eerst een stap in die richting met de Xeon MP 'Tulsa', die dankzij zijn 16MB grote cache groeide tot 435mm².

Het grote L3-cachegeheugen van de op Pentium 4 gebaseerde Tulsa-processor was echter hard nodig om de Opteron van AMD bij te houden. Nu Intel een stuk sterker in zijn schoenen staat op het gebied van architectuur, is het weer teruggekeerd naar een bescheidener formaat voor de Xeon. De in september aangekondigde Tigerton meet 'maar' 286mm², wat bijna even groot is als de Barcelona van AMD.

Toch gaat dat weer veranderen: PC Watch Japan onthult plannen voor twee generaties van toekomstige Xeon MP-processors. De eind volgend jaar verwachte 'Dunnington' is gebaseerd op de Penryn-architectuur en zal zes cores, 9MB L2-cache en 12-16MB L3-cache op één chip combineren. Een jaar later komt op de Nehalem gebaseerde Xeon MP 'Beckton' uit, die acht cores en minstens 24MB cache op een chip propt. Dit monster zal ook in de buurt van de 600mm² zitten.

Hoewel Dunnington nog beperkt zal worden door de ouderwetse fsb, zal Beckton een hele sloot bandbreedte tot zijn beschikking hebben. De geheugencontroller is geschikt voor vier fbd2-kanalen, die met behulp van 'Mill Brook'-geheugenbruggen opgesplitst kunnen worden, voor een totaal van acht gewone ddr3-kanalen. Ook krijgt Beckton vier Quickpath-controllers om met andere chips te praten. Hiermee kan een glueless systeem van acht sockets gebouwd worden waarbij maximaal één stap tussen iedere twee processors in zit.

Nehalem systeemarchitectuur

Het slechte nieuws is dat de eind 2008 verwachte Dunnington nog behoorlijk beperkt zal zijn door zijn 1066MHz fsb, die maar 8,5GB/s kan leveren aan de zes cores, oftewel 1,4GB/s per core. Het L3-cache zal die beperking maar deels kunnen opvangen. De Beckton lijkt wel een waar monster in ieder opzicht, maar laat nog tot de tweede helft van 2009 op zich wachten. Tegen die tijd heeft AMD als het goed is ook zijn Bulldozer-ontwerp met Hypertransport 3.0 af, dus ondanks het grove geschut waar Intel mee aan komt zetten blijft het spannend in dit segment van de markt.

Lees meer over

Gerelateerde content

Alle gerelateerde content (29)
Moderatie-faq Wijzig weergave

Reacties (45)

Is het goed of slecht dat niet alle cores met elkaar in verbinding staan. Als ik het plaatje zo bekijk heeft elke core connectie met 3 andere cores. Is dit met een reden zo gedaan? Ik had veracht dat alle cores met elkaar zouden communiceren.
Dat zijn geen cores maar sockets die met elkaar in verbinding staan.

Als je alle sockets met elkaar wil verbinden dan worden de processors en vooral de moederborden veel duurder, terwijl het procentueel gezien niet zo heel veel winst oplevert.
Die onderlinge connecties lijken me een afgeleide van het "bedachte" Intel QuickPath maar bevestiging hierover kan ik niet echt vinden. Het zou in ieder geval een mooie oplossing zijn om bepaalde communicatie binnen de CPU te houden ipv een omweg buiten het socket.
de onderlinge connecties zijn tussen verschillende CPU's en niet tussen verschillende cores in 1 CPU (die kunnen alleen maar communiceren via de gemeenschappelijke cache)

verder is dit helemaal geen vondst van Intel, en bestaat de hypercube toplogie voor multiprocessor systemen al tientallen jaren, zie bv. dit artikel : http://ei.cs.vt.edu/~history/Parallel.html : 1981: A group led by Charles Seitz (computer science) and Geoffrey Fox (physics) begins development of a hypercube multicomputer at the Californa Institute of Technology.

dat is dan nog maar een verwijzing naar een eerste bouwpoging, de theorie bestaat al veel langer. wie zich een beetje verdiept in de theoretische informatica zal versteld staan hoeveel dingen die nu pas praktisch bruikbaar worden al decennia geleden zijn bedacht.

[Reactie gewijzigd door RickDeckard op 19 oktober 2007 15:26]

Als ik het verhaal zo lees geeft de afbeelding een systeem met 8-sockets weer. Elke socket zal weer uit 6-8 cores bestaan. Hoe de cores onderling communiceren wordt niet verder op ingegaan.
Wacht even, wie kan mij nu haarfijn uitleggen waarom deze chips zo enorm zijn. Ik begrijp dat het voornamelijk komt door het geheugen, maar dan nog...waarom is dat zo groot? Bandbreedte alleen?

[Reactie gewijzigd door vgroenewold op 19 oktober 2007 13:57]

Zulke grote caches bestaan uit ruim een miljard transistors. Helpt dat verklaren waarom het zoveel ruimte in beslag neemt?
Niet helemaal toch? Ik heb nu ook 4 mb cache op m'n core2duo, is 16 Mb dan opeens zoveel groter?
4x groter inderdaad; oftewel qua oppervlakte (indien de efficiency per vierkante inch niet toeneemt) dus 2x zo groot.

Het gaat trouwens om 24MB cache voor de nieuwe Intel-CPU's dus dat kan inderdaad qua oppervlak nog groter zijn om nog maar te zwijgen over de onderlinge verbindingen en/of ingebouwde controllers.
Jouw Core 2 Duo is 143mm² groot, wat bijna precies voor de helft uit cache bestaat. Neem nu vier keer zoveel cores (zeg wel 10% groter voor de verbeteringen van Penryn en Nehalem) en zes keer zoveel cache, plus nog eens 70mm² voor nieuwe geheugencontrollers, Quickpath-controllers en een crossbar/L3-controller en je komt uit op 813mm². Als je dan 30% verkleining realiseert door de stap van 65nm naar 45nm kom je uit op 570mm².
Riiight, ok, dat maakt het duidelijk. :) Ik zag niet zo goed in dat het geheugen zoveel in beslag nam en dat mijn core2duo alsnog zo "groot" was eigenlijk.
hmm " waarvan er maar 8 op 1 wafer passen"

misschien is het dan een idee om wafers te maken waarop niet alleen die mega chips worden gebakken, maar bijvoorbeeld ook "gewone" c2d processors?
Liever niet, nu kan men hetzelfde setje maskers gebruiken, en gewoon deze chip 'stempelen'. Wil je er ook C2Ds naast bakken, dan moet je wafer steeds heen en weer tussen de masker-apparaten. Wat dat kost weet ik niet, maar dit is echt veel handiger, ook als je je silicium verspilt. Uiteraard is een kleiner ontwerp nog beter, en ik verwacht dan ook dat ze ook met een ontwerp met 12MB cache komen. (of weer het oude L2-idee van de P-II, dus als losse chip, maar dan nu op volle snelheid). Grote chips vergroot het risico op misbaksels ook, en de yields met grotere chips nemen exponentieel af...
Langs de randen van een wafer met een mega-ontwerp, kan je anders nog een flinke hoeveelheid 'kleine'C2D's kwijt. De randen worden sowieso gekarteld, door een zo klein mogelijke structuur te gebruiken, volg je de ronde wafer het beste... Op zich is het dus best een goed idee om C2D's langs de randen van een wafer exotische chips te bakken...
Als dit inderdaad de plannen van Intel zijn voor X86 chips en Itanium, dan betekent dit definitief het einde van Itanium.
Intel is min of meer gedwongen door AMD om met X86 (Xeons) ook de high-end server markt te betreden. Intel heeft altijd gehoopt dit segment te veroveren met de proprietary Itanium chips.
Nu zie je meer en meer dat de nieuwe Xeons concurreren met de eigen Itanium lijn. Itanium zal dat niet gaan winnen van de goedkopere en meestal ook snellere Xeons. Daarmee verliezen Intel's Itanium chips hun bestaansrecht.

BTW. Paul Demone processorguru? Daar kun je over twisten. Hij is in ieder geval ook investeerder in Intel aandelen en die-hard Itanium aanhanger.
Waarom zou dit het einde van Itanium moeten betekenen? Er staan ook Itaniums op de roadmap met 4/8/12 cores, grote caches, nieuwe interconnects en geheugencontrollers, 32nm, 22nm, enzovoorts, dus het is niet alsof de Xeon vrij spel krijgt. Sterker nog: door 45nm over te slaan zal de Itanium straks voor het eerst in dezelfde fabrieken als de Xeons gemaakt worden, in plaats van steeds een of twee generaties achter te lopen. Verder hebben de twee architecturen altijd al overlap gehad, dus ik zie niet in wat dit bericht aan de stand van zaken verandert.
BTW. Paul Demone processorguru? Daar kun je over twisten. Hij is in ieder geval ook investeerder in Intel aandelen en die-hard Itanium aanhanger.
Dus omdat hij een mening heeft mag hij geen expert meer genoemd worden? Als het gaat om droge feiten als de grootte van een chip kun je iemand in ieder geval moeilijk van partijdigheid betichten.

[Reactie gewijzigd door Wouter Tinus op 19 oktober 2007 18:04]

Waarom ik denk dat het uiteindelijk het einde van Itanium betekent?
Er blijven steeds minder redenen over voor high-end servers om voor Itanium te kiezen.
X86 chips worden meer en meer toegepast in multi-socket servers, terwijl ze daar voorheen niet of nauwelijks bestonden. Nu kan men kiezen tussen Power, SUN, Itamium en X86 (in ieder geval al tot 8 sockets).
Het enige waar Itanium zich echt in onderscheidt zijn misschien enige RAS-features. Dit is een belangrijk koopargument voor sommige mission-critical systemen, maar ook die features verschijnen meer en meer ook bij Opteron en Xeon systemen.
Er is altijd overlap geweest, maar die was klein en wordt steeds groter. Itanium bestaat al niet meer als Workstation en is min of meer verbannen naar het segment van 8 sockets en meer. Maar hoe lang nog, nu Nehalem eraan komt, met een fatsoenlijke interconnect voor meer dan 4 sockets?

Je hebt gelijk dat Itanium steeds een process generatie achterliep. Maar tegelijkertijd kregen de Itaniums veel grotere caches en dus veel die-space ter beschikking. Intel gaat dezelfde infrastructuur straks gebruiken voor Xeon en Itanium.
Waarmee denk jij dan dat Itanium zich nog gaat onderscheiden in de toekomst?

Wat betreft Paul DeMone: Hij mag best expert genoemd worden, maar zijn mening moet wel in het licht gezien worden van het feit dat hij ook investeerder is. Door velen wordt hij als overdreven pro-Intel gezien, in het bijzonder pro-Itanium.
Maar als het gaat om chipgrootte heb je gelijk, dat heeft daar niet veel mee te maken.

[Reactie gewijzigd door ten99 op 19 oktober 2007 19:50]

*Voorlopig* heeft de Itanium het stokje overgenomen van Alpha en PA-RISC door als enige CPU nog OpenVMS en HP-UX te kunnen draaien. Pas na 2012 zullen de huidige contracten door HP aan de kant kunnen worden gezet, tot dan heeft de Itanium een niche markt voor zichzelf en is er geen concurrentie met x86.
De HP processor vervangingsmarkt heeft Itanium inderdaad nagenoeg voor zichzelf. Maar dat is inderdaad een niche te noemen, zeker gezien Intel's oorspronkelijke plannen om Itanium als enige 64 bit server processor te lanceren.
Ik denk wel dat de OpenVMS en HP-UX markt alleen maar kleiner wordt.
X86 chips worden meer en meer toegepast in multi-socket servers, terwijl ze daar voorheen niet of nauwelijks bestonden.
Hier ben ik het niet mee eens. Servers met vier x86-processors bestaan al sinds 1995, maar ondanks dat de architectuur nu al twaalf jaar de tijd heeft gehad om zich te vestigen en er ook al geruime tijd machines met 8/16/32 sockets zijn, is de markt voor (zware) niet-x86 servers nog steeds een dikke 26 miljard dollar per jaar waard, oftewel de helft van het totaal.

Er zijn ook geen tekenen dat die sector snel kleiner aan het worden is. Dus als het überhaupt verdwijnt zullen er in ieder geval nog heel veel jaren overheen gaan, waarin meer dan genoeg geld te verdienen valt voor chips als de Itanium, die inmiddels ergens tussen de 15 en 20 procent ervan veroverd heeft.

Itanium heeft nog steeds een aantal unieke RAS-features (zoals de mogelijkheid voor cores om elkaars resultaten te checken), draait in tegenstelling tot x86 systemen als VMS, NSK/Tandem, HPUX en Secure64 en schaalt door tot 2048 processors, waarbij 8 ineens verbleekt.

Maar op langere termijn kan hij zich natuurlijk maar op één punt onderscheiden, en dat zijn prestaties. En hoewel de Itanium heel veel tests verliest (is altijd al geweest ook), heeft hij maar een paar belangrijke overwinningen nodig om zijn bestaan te rechtvaardigen. Zoveel verschillende dingen doen kopers van high-end servers nou eenmaal niet.

TPC-C is in ieder geval wel een belangrijke, en daar zie je dat een score van een 90nm dualcore Itanium maar nét met 10% verbeterd wordt door de nieuwste 65nm quadcore Xeon. (Als binnenkort de iets vernieuwde Montvale verschijnt kan het goed weer gelijk liggen).

Als een Itanium met drie/vier* serieuze handicaps (helft van het aantal cores, helft van de bandbreedte, een generatie achterstand op productietechniek, Intels Foxton-blunder*) en een 15W lager TDP nog steeds zo dicht bij x86 komt dan heb ik er wel vertrouwen in dat in een toekomstig, gelijkwaardig speelveld, de architectuur zeker zijn mannetje zal staan, zelfs tegenover het Beckton-geweld. Voorwaarde is dan wel dat Intel zijn Itanium-teams ook vol gas laat geven en het niet om zakelijke redenen of wat dan ook afknijpt.

* Waar door Montecito en Montvale op 1,6GHz draaien in plaats van 2,2/2,5GHz, en de hele roadmap een jaar uitgesteld moest worden. Of je die mee wil tellen mag je zelf weten ;).

[Reactie gewijzigd door Wouter Tinus op 19 oktober 2007 23:04]

[...]
Hier ben ik het niet mee eens. Servers met vier x86-processors bestaan al sinds 1995, maar ondanks dat de architectuur nu al twaalf jaar de tijd heeft gehad om zich te vestigen en er ook al geruime tijd machines met 8/16/32 sockets zijn, is de markt voor (zware) niet-x86 servers nog steeds een dikke 26 miljard dollar per jaar waard, oftewel de helft van het totaal.
Inderdaad, tot 4 processor servers waren er voor de Pentium Pro ook al. Maar Intel heeft nooit erg haar best gedaan om met de X86 lijn de high-end markt te veroveren, omdat die voorbestemd was voor Intel's 64 bit architectuur, Itanium.
32 bit architectuur voor servers van 4 of meer sockets is niet erg interessant vanwege de hoeveelheid geheugen die geadresseerd kan worden. En je bent het toch met me eens dat Intel alleen gedwongen door 64 bit Opteron ook 64 bit Xeons is gaan maken. De winst-marges voor Itanium systemen zijn immers veel hoger.
Intel heeft een aantal eigenschappen lange tijd exclusief aan de Itanium lijn gegeven, te weten: 64 bitness, grote caches, goede infrastructuur / veel bandbreedte, RAS features, betere floating point unit en instructieset, goede cache-coherency systeem voor goede schaalbaarheid.
Vrijwel allemaal zijn deze nu al dan niet gedwongen door AMD nu ook aanwezig op x86 systemen: 64 bitness, grote caches, Hypertransport/ CSI, meer en meer RAS features, SSE2 i.p.v. oude stack-based FP unit. Het wachten is nog op een goed directory-based coherency protocol, maar de noodzaak daarvoor is met de 4 Hypertransport links in de toekomst ook minder geworden.

Dus ja, er was wel tijd voor X86 om zich in de high end te vestigen voorheen, echter de wil van Intel is er nooit geweest. Als die wil er wel was geweest, dan was Intel wel zelf met een 64 bit x86 instructieset gekomen.
Itanium heeft nog steeds een aantal unieke RAS-features (zoals de mogelijkheid voor cores om elkaars resultaten te checken), draait in tegenstelling tot x86 systemen als VMS, NSK/Tandem, HPUX en Secure64 en schaalt door tot 2048 processors, waarbij 8 ineens verbleekt.
Je hebt gelijk wat betreft de RAS features, maar dat is aan het veranderen. Itanium schaalt door naar 2048 processor servers, maar dat komt door de infrastructuur, niet door de processor en X86 en Itanium krijgen volgend jaar dezelfde infrastructuur bij Intel. Er is niets inherent aan x86 dat het weerhoudt om door te schalen. X86 heeft al de HPC markt voor grote clusters veroverd. Itanium is voor grote clusters simpelweg te duur en heeft geen performance voordeel.
Maar op langere termijn kan hij zich natuurlijk maar op één punt onderscheiden, en dat zijn prestaties. En hoewel de Itanium heel veel tests verliest (is altijd al geweest ook), heeft hij maar een paar belangrijke overwinningen nodig om zijn bestaan te rechtvaardigen. Zoveel verschillende dingen doen kopers van high-end servers nou eenmaal niet.
Er moet iets inherent beter zijn aan de Itanium instructieset waardoor de chip sneller/zuiniger kan worden gemaakt dan X86. Daar zijn de meningen over verdeeld. Misschien is het mogelijk als Intel evenveel resources op Itanium zou zetten als op x86. Dat zouden ze wel willen doen, maar kunnen ze niet, gedwongen door concurrentie van AMD in de server space. Ze kunnen het zich niet veroorloven AMD zijn gang te laten gaan in de serverspace. Intel heeft niet voor niets bij het uitkomen van Opteron veel mensen van Itanium projecten verhuist naar Xeon.
TPC-C is in ieder geval wel een belangrijke, en daar zie je dat een score van een 90nm dualcore Itanium maar nét met 10% verbeterd wordt door de nieuwste 65nm quadcore Xeon. (Als binnenkort de iets vernieuwde Montvale verschijnt kan het goed weer gelijk liggen).
TPC-C is erg afhankelijk van de hoeveelheid geheugen, bandbreedte en ook de hoeveelheid cache. Tulsa met de dikke cache deed het ook vrij aardig als ik me niet vergis. Dus ook hier denk ik dat het ligt aan systeemeigenschappen die niet exclusief zijn of blijven voor Itanium.
Als een Itanium met drie/vier* serieuze handicaps (helft van het aantal cores, helft van de bandbreedte, een generatie achterstand op productietechniek, Intels Foxton-blunder*) en een 15W lager TDP nog steeds zo dicht bij x86 komt dan heb ik er wel vertrouwen in dat in een toekomstig, gelijkwaardig speelveld, de architectuur zeker zijn mannetje zal staan, zelfs tegenover het Beckton-geweld. Voorwaarde is dan wel dat Intel zijn Itanium-teams ook vol gas laat geven en het niet om zakelijke redenen of wat dan ook afknijpt.
Net zoals Itanium een paar handicaps had, had X86 die ook ten opzichte van Itanium. Bij X86 zijn de handicaps over twee jaar bijna allemaal verdwenen. Of dit bij Itanium het geval is zal moeten blijken. Ik denk dat Itanium minder aandacht zal krijgen van Intel omdat ze simpelweg het niet kunen veroorloven iets weg te geven aan AMD.
Hoe dan ook, het zal een spannende strijd worden.
En je bent het toch met me eens dat Intel alleen gedwongen door 64 bit Opteron ook 64 bit Xeons is gaan maken. De winst-marges voor Itanium systemen zijn immers veel hoger.
Nee, dat is een mythe. Intel heeft halverwege 2000 (een jaar voor de eerste Itanium uitkwam en bijna drie jaar voor de eerste Opteron uitkwam) al besloten om een 64-bit x86-processor te gaan maken. Je hebt wel een punt dat Intel het zich door concurrentie van AMD niet kan veroorloven om de Xeon op een lager pitje te zetten, maar het is niet waar dat Itanium bedoeld is/was om alles over te nemen, niet in dit decennium in ieder geval.
Er moet iets inherent beter zijn aan de Itanium instructieset waardoor de chip sneller/zuiniger kan worden gemaakt dan X86. Daar zijn de meningen over verdeeld. Misschien is het mogelijk als Intel evenveel resources op Itanium zou zetten als op x86. Dat zouden ze wel willen doen, maar kunnen ze niet, gedwongen door concurrentie van AMD in de server space. Ze kunnen het zich niet veroorloven AMD zijn gang te laten gaan in de serverspace. Intel heeft niet voor niets bij het uitkomen van Opteron veel mensen van Itanium projecten verhuist naar Xeon.
Ik zie juist een beweging in de tegenovergestelde richting. Er zijn sinds kort twee teams die aan Itanium-producten werken, terwijl het voorheen allemaal door één team werd gedaan. Verder is er heel wat veranderd intern sinds HP niet meer direct met de ontwikkeling betrokken is, waardoor de samenwerking met de x86-groepen en het hoofdkantoor van Intel veel hechter is geworden (denk hierbij ook aan het gebruik van dezelfde software, ontwerpbibliotheken, enzovoorts). Er zijn een aantal *enorme* blunders gemaakt met betrekking tot Montecito en Tukwila, maar na deze drastische maatregelen is de kans dat zoiets nog een keer gebeurt veel kleiner.
TPC-C is erg afhankelijk van de hoeveelheid geheugen, bandbreedte en ook de hoeveelheid cache. Tulsa met de dikke cache deed het ook vrij aardig als ik me niet vergis. Dus ook hier denk ik dat het ligt aan systeemeigenschappen die niet exclusief zijn of blijven voor Itanium.
Laten we ze eens vergelijken dan:

4x Tulsa (8 cores): SQL2005 op Windows 2003, ~800 schijven, 64GB geheugen. Kosten (oktober 2006): $596.689. Score: 318.407 tpmC

4x Itanium (8 cores): SQL2005 op Windows 2003, ~600 schijven, 192GB geheugen. Kosten (juni 2007): $673.351 dollar. Score: 372.140 tpmC.

4x Tigerton (16 cores): SQL2005 op Windows 2003, ~1000 schijven, 128GB geheugen. Kosten (september 2007): $694.335. Score: 407.079 tpmC

Alle resultaten zijn afkomstig van HP en we kunnen er dus wel vanuit gaan dat ze met dezelfde zorg getuned zijn. Ik vind de Tigerton-score geenszins indrukwekkend te noemen tegenover die van Itanium. Zeker niet als je bedenkt dat Tigerton voor iedere processor een eigen bus heeft, terwijl de HP zx2-chipset nog steeds twee processors een bus laat delen.
Net zoals Itanium een paar handicaps had, had X86 die ook ten opzichte van Itanium. Bij X86 zijn de handicaps over twee jaar bijna allemaal verdwenen. Of dit bij Itanium het geval is zal moeten blijken.
Als je naar de roadmap kijkt lijkt het er meer op dat de Xeon MP achter de feiten aan zal lopen. Tukwila krijgt eind 2008 al CSI, terwijl Beckton pas eind 2009 komt. Ondertussen zit Dunnington nog op de FSB. In 2010 zal de Xeon MP waarschijnlijk wel weer een jaartje sneller zijn dan de Itanium, maar we praten dan nog steeds over 65nm vs. 45nm. Pas tegen het einde van dat jaar zullen we een eerlijke strijd tussen twee 32nm-implementaties zien, en dan gaat het er pas echt om spannen.

[Reactie gewijzigd door Wouter Tinus op 20 oktober 2007 14:03]

Intel stopt vele malen meer geld in x86 dan in IA64, puur omdat daar op korte termijn veel meer te halen is / ze daar meer omzet draaien. En zeker met AMD met een goed alternatief in de markt hebben ze niet de macht IA64 door te drukken. Ik verwacht dan ook dat de Itanium op de langere termijn verdwijnt.
Het is met al deze snelheden toch eerder de harde schijf die de bottleneck vormt.

zeker als je beetje gaat parren, rarren. dan kun je nog 8 cores hebben.
Aan 1 core heb ik dan ook wel genoeg...
En in 1983 hadden we aan 640Kb 'ook wel' genoeg. Toch?
Ja inderdaad!! Waar deze opmerking verder opslaat ontgaat mij helemaal. In de context van 1983 was 640Kb ook genoeg. Net zoals StefanDeGroot op dit moment genoeg heeft aan 1 core. Wil niet zeggen dat dit niet verandert.

Ik hoop toch echt dat je niet eeuwig blijft vasthangen aan een annekdote die ooit iemand heeft gedaan en die daarna alleen maar op de verkeerde plaatsen wordt toegepast.
eventjes, voor de mensen die het vergeten maken dan, niet zo maar iemand, maar bill gates zelf zei, dat je voor altijd genoeg zou hebben aan 640kb cache. Laat wel weer zijn toekomst visie zien... Nu ontkent hij het natuurlijk.
Aan 1 core heb je nu genoeg ja, maar daarom betekend het niet dat je niet verder kan blijven ontwikkelen, zodat de techniek ook gebruikt gaat worden. En voor de consument, toekomst-klaar is ook handig, kan je langer door met je pc..
En zie @ boven bij mij
@sirKay:

Het ging in Bill Gates's statement niet om cache maar om het gehele geheugen.
Cache was toendertijd helemaal geen factor waar naar werdt gekeken.
Dat kwam pas later bij de 386/486 om de hoek kijken. Maar toen zaten wel al ruim boven de 1MB grens.

Overigens over de datum waarop de uitspraak door Bill Gates werd gedaan bestaat veel onduidelijkheid. Hier wordt 1983 genoemd, op WikiQuotes wordt ergens jaren 70 genoemd, maar ook in dezelfde quote wordt 1981 genoemd.
http://en.wikiquote.org/wiki/Talk:Bill_Gates
Als ik een beetje google dan kom ik die 1981 het meest tegen, dus da zal wel het goede jaartal zijn..
Laat wel weer zijn toekomst visie zien... Nu ontkent hij het natuurlijk.
Jij hebt vorig jaar gezegd dat Intel twee dagen later failliet zou gaan. Laat jouw toekomstvisie ook zien. Nu zal je dat natuurlijk ontkennen.

Gemakkelijk he, woorden in iemands mond leggen zonder dat te hoeven bewijzen? :)
Ik hoop toch echt dat je niet eeuwig blijft vasthangen aan een annekdote die ooit iemand heeft gedaan en die daarna alleen maar op de verkeerde plaatsen wordt toegepast.
Ik hoop toch echt dat mensen niet eeuwig hun huidige gebruiken blijven projecteren op de toekomst en enige verbetering onmiddellijk in het belachelijk trekken.

-DAT- is waar de opmerking over gaat. 640Kb was voor de simpele text based dingen van die dag meer en meer dan genoeg. Alleen, we bleven natuurlijk geen simpele text based dingen doen, maar gingen onze computer voor veel meer gebruiken. Een navenante grotere hoeveelheid geheugen was dan ook al snel nodig.

Op de exact zelfde kortzichtigheid is de opmerking van Stefan gestoeld. Hij kraamt meteen maar uit dat 8 cores onzin zijn, alleen omdat hij niet verder kan denken dan dat je wat simpel internet met je computer. Alleen al de gedachte dat computers in de toekomst voor zwaardere dingen gebruikt gaan worden dan alleen wat internetten is klaarblijkelijk totaal ondenkbaar voor mensen zoals Stefan.

Hij internet alleen maar wat, dus 1 core is wel genoeg.

Voor Stefan is de wereld zo heerlijk simpel...

De vergelijking klopt dus nog steeds precies en de 640Kb annekdote zie je telkens weer herhaald worden.
Als jij later ooit nog IT Tycoon gaat worden, dan zal de volgende uitspraak je je hele carriere lang blijven achtervolgen. '1 core ought to be enough for anyone.'

Aan de rest van tweakers,

mocht bovenstaande waargemaakt worden, roep mij dan tegen die tijd uit tot Vuisionair. 8)7
Daarom zijn deze waarschijnlijk ook voornamelijk voor de servermarkt bedoeld ;)
True, maar ik moet zeggen dat als je een beetje multitaskt dat je het al zult merken hoor :D
Zelfs als je aan het internetten bent :p
Er wordt dan ook gepraat over "het gebied van servers".
dit is voor server's niet voor pc's, en ik denk dat ze hier serieus wel iets mee kunnen. Je hoeft in totaal minder cpu's in je mobo te stoppen, minder kosten. Of je kan in totaal meer cpu's hebben. Heb je weer minder servers nodig....

[Reactie gewijzigd door SirKay op 19 oktober 2007 14:15]

Waarschijnlijk had AMD dit allang zelf al bedacht ja. Ik ben alleen wel benieuwd wat voor yields je hieruit krijgt, en of er dan sommige kapotte 6 en 8 cores als quad verkocht worden?
p de Penryn-architectuur en zal zes cores, 9MB L2-cache en 12-16MB L3-cache op één chip combineren.
Ow srry, niet gezien, ze zijn dus wel native's, zou best eens kunnen, maar ik verwacht het niet omdat intel meestal weinig fouten maakt (las ik ergens), en deze niet veel worden verkocht, mainstreams veel meer. En ze zijn niet hetzelfde om chips aan te vullen.

[Reactie gewijzigd door SirKay op 19 oktober 2007 14:22]

Het worden wél natives, dat staat toch duidelijk in het artikel? En waar zie jij staan dat ze hem nu al hebben, er staat toch ook duidelijk dat hij pas eind 2008 uitkomt?
ik vraag het me echt af. Penryn is geen native quad core maar twee dual cores aan elkaar. Misschien hebben ze hier wel drie dual cores aan elkaar geplakt ?
En hoe hebben ze dan een gedeeld L3-cache er aan geplakt volgens jou?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True