Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 55, views: 17.006 •
Submitter: player-x

Intel heeft momenteel al chips die met een 14nm-procedé zijn gefabriceerd draaiende in zijn testlabs. De chipfabrikant is van plan om de eerste processors die van het 14nm-procedé gebruikmaken in 2014 op de markt te brengen.

Wafer IntelDat laat Intel-topman Paul Bliemer weten in een interview met nordichardware. Terwijl het bedrijf zich voorbereidt op de introductie van de nieuwe Ivy Bridge-architectuur met tri-gate-transistors op 22nm, zou ook het werk aan nieuwe nodes voorspoedig verlopen. Bliemer laat weten dat de eerste 14nm-chips al geproduceerd zijn en het bedrijf deze momenteel in zijn testlabs heeft draaien.

Het 14nm-proces moet, samen met de nieuwe tri-gate-transistors, het stroomgebruik van processors flink terugdringen. Vooral voor mobiele chips is dat broodnodig; Intel probeert al enkele jaren door te breken in de markt voor telefoons en tablets, maar de huidige Atom-chips van het bedrijf leggen het qua energiezuinigheid af tegen de concurrentie. De eerste 14nm-Atoms worden in 2014 verwacht.

Eerder dit jaar kondigde Intel al de bouw aan van een nieuwe fabriek, speciaal voor de productie van 14nm-chips. Het Fab 42-complex komt in de plaats Chandler in Arizona te staan en gaat 5 miljard dollar kosten. In 2013 moet Fab 42 klaar zijn voor gebruik.

Reacties (55)

Het is een kwestie van tijd voordat we 24-core processoren hebben op 3ghz met een TDP van 2 watt.

Echt opmerkelijk.
Ongetwijfeld gaat nu iemand hier ene lange comment op schrijven die uitlegt dat processoren een limiet hebben en meer als 4 of mss 8 processoren geen nut heeft vanwege dat limiet (iedere toegevoegde processor heeft een absoluut limiet wat betreft de verbetering in performance). Dus in plaats van meer en kleiner zullen totaal andere methodes moeten gezocht worden (wat ook weer andere beter zullen kunnen uitleggen als ik :+ ). Maja, u get the point :P . En verder wel mooi dat Intel nog op deze weg netjes bezig is verder en verder te gaan XD
dat hangt dan alsnog heel erg af van watvoor applicatie daaraop draait,
zie de knights ferry architectuur, die bijv geoptimaliseerd is voor oa raytracing.

OT: dat is erg indrukwekkend, de meeste fabricanten hebben net hun 3X proces gereed.
en enkeling is bezig op 28nm. en intel die al voorliep met 22NM trigate 3D transistoren heeft ook al eventjes 14nm klaar liggen op de plank... zeer indrukwekkend,

alleen dit doet ook geen wonderen voor de concurrentie positie van amd. die langzamerhand toch de handoek in de ring lijkt te gooien wat betreft de high-end x86 markt. (volgends de geruchten hoe betrouwbaar die ook mogen zijn).

ik hoop dat globalfoundries een consorten Intel toch een beetje gaan inhalen want het gat wordt wel echt onmetelijk groot zo.
Als je het artikel goed leest dan heeft dat 'voorlopen' van Intel op gebied van het verkleinen van nm procede ze niet het gewenste resultaat opgeleverd. Het verkleiner daarvan is dus meer een soort van prestige ding, want echt efficient vergeleken met de concurrent zijn ze blijkbaar niet....

De chips zijn kleiner en zuiniger dan de voorlopers van Intel zelf, maar de concurrent bakt 'grotere' mobiele chips met oudere methodes maar die chips presteren wel beter zoals het artikel al aangeeft, dat vooral op het gebied van verbruik (en dat is de belangrijkste factor bij een mobiele chip) Dergelijke winst heeft Intel dus nog niet gehaald, je kan het procedé wel blijven verkleinen maar dat gaat tot nu toe blijkbaar ten koste van efficientie.
Nee, de schaal vh procede is niet de enige variabele, dus je conclusie dat het verkleinen ten koste gaat van efficientie is niet juist. Je vergeet de invloed van de hele architectuur en opzet van een chip, instructiesets, bijbehorende chipsets etc etc. ;)
Dit is natuurlijk maar een tijdelijke voorsprong (maar dat is vaak het geval) aangezien ARM implementaties ook op deze 14nm schaal gerealiseerd zouden kunnen worden. Op zich hoeft dat geen slechte strategie te zijn.

Verder denk ik dat intel nog een flinke inhaalslag moet maken in de betreffende markt aangezien hun aandeel op dit moment nihil is te noemen.

Is de intel architectuur / instructieset nog wel effcient genoeg om het hoofd te kunnen bieden aan andere krachtige architecturen?

Een voordeel van intel cpu's blijft dan natuurlijk wel de terugwaartse compatibiliteit. Maar hoe relevant is dat in het mobiele segment...?

[Reactie gewijzigd door E_E_F op 5 december 2011 12:00]

MicGlou, wat je hier zegt klopt totaal niet.

Wat Voutloos zei is correct, hier kan ik aan toevoegen dat je in de generiekste zin geen conclusies mag trekken over een variabele bij de vergelijking van 2 producten, als die variabele niet de enige is die wijzigt. Het kan namelijk aan al die variabelen afzonderlijk liggen, of aan een combinatie ervan.

Je moet de variabele waar je een uitspraak over wil doen isoleren. En dit brengt mij bij het volgende argument. Op het moment dat intel zijn procedeverkleining doorvoert in zijn cpu's zonder de architectuur te veranderen, zie je dat ze efficienter worden. TDP gaat naar beneden bij een gelijke klok, of klok kan omhoog zonder meer te gaan verbruiken dan de vorige CPU.

Elektrotechnisch is 't ook compleet onlogisch. Als je naar een kleiner procede gaat, neemt het benodigde voltage af. Hierdoor neemt de warmteafgifte af, en zal de CPU gewoon minder stroom verbruiken.

Als voorbeeld: Een oude Pentium 1 gebruikte 5v, en het TDP was met zijn 10W vergeleken met zijn kloksnelheid hoger dan een hedendaagse CPU. Per berekening verbruikte deze CPU veel meer dan een hedendaagse CPU.

Waar het artikel op doelt is dat Intel een achterstand heeft op lowpower chips. Zijn Atoms zijn hoe je 't ook went of keert afgeleiden van desktop CPUs. En die hebben (hoogstwaarschijnlijk) een dusdanig andere architectuur dat ze lastig inzetbaar zijn voor lowpower toepassingen. Ik kom op dat idee omdat een moderne instap Core processor een stuk beter scoort in performance per watt dan de Atom CPUs. Waarom dat is, geen idee, maar Intel wil proberen het gat te dichten met het 14nm procede en waarschijnlijk optimalisaties in de Atom archictuur.

Of ze dat daarmee gaat lukken betwijfel ik. De concurrentie zal ook niet stil zitten, en bovendien heb ik het idee dat intel met zijn Atom CPU op het verkeerde pad zit, net zoals met de NetBurst architectuur het geval bleek. Atoms hebben namelijk ook een vrij simpele instructieset, net zoals de Pentium 4. Clock voor Clock presteert een Atom 1.6GHz ook absoluut veel slechter dan een Core cpu op 1.6GHz, ook als 't allebei dual cores zijn.

[Reactie gewijzigd door A Lurker op 5 december 2011 11:33]

Wat zeg jij nou anders in veel meer woorden? Ik reageer alleen specifiek op de gewenste resultaten van Intel op mobiele platforms en het verkleinen van het procedé. Intel had de insteek om het Atom platform (of x86 instructie) te verschalen naar het mobiele platforms zoals smartphones en tablets en is daar (tot nu toe) niet in geslaagd. Ondanks de verkleining van het procedé, wat volgens mij al het kleinste in productie is, kan Intel niet concurreren omdat hun chips in vergelijking met de concurrent niet voldoen; power zat maar het verbruik ligt te hoog. Nu 'verwacht' Intel nogmaals met het verkleinen van het procedé wel in de buurt van de concurrent te komen... de concurrent gaat op een gegeven moment toch ook over op kleinere chips? Dus ja, als het aankomt op efficiëntie op de mobiele platforms, zal nogmaals het verkleinen van het procedé in werkelijkheid de afstand niet verkleinen...
Wat de concurrentie betreft: Pas gelezen op Tweakers,

"TSMC in '14 of begin '15 op 14nm".

Dat Intel qua 'productieproces' ongeveer gelijk loopt met de concurrentie (iets voor zou ik zeggen, maar niet zo heel veel) was te verwachten. Ze gebruiken immers vziw dezelfde ASML lithografie-machines, en zitten in dezelfde onderzoeksgroep samen met IMEC Leuven te werken aan "3D-chips" maar ook aan "sub 22nm chips".
Zonder lang verhaal is het ook makkelijk uit te leggen dat meer processoren niet altijd veel snelheids winst hoeft te geven.
Stel je wilt iets uitrekenen dat 100 seconden duurt.
Stel het opsplitsen van de rekensom kost 10 seconden per extra processor.
Bij 1 processor 100 seconden.
Bij 2 processoren 100 / 2 + 1 * 10 = 60 seconden.
Bij 4 processoren 100 / 4 + 3 * 10 = 25 + 30 = 55 seconden.
Bij 8 processoren 100 / 8 + 7 * 10 = 12.5 + 70 = 82.5 seconden.

Het licht er wel een beetje aan wat voor rekenwerk je wilt opsplitsen, veel dingen zijn een stuk efficienter op te splitsen dan dit voorbeeld of het verder opsplitsen kan ook parallel, maar meer uitleg laat ik over aan andere.
Dat niet alles met het dubbele aantal cores (!= processors) ook echt veel sneller gaat is inderdaad waar maar je voorbeeld raakt kant nog wal.

Soms is het werk gewoon niet (goed) paralelliseerbaar, maar als dat wel kan kost het afsplitsen van een thread echt geen 10 seconden. Probeer je sommetje nog eens met 0.000001 seconden (en dan ben ik nog erg pessimistisch).
Je komt heel dicht bij een wet (waarvan ik even de naam vergeet). Deze gaat net iets anders:

Stel een taak kost 100 instructies, 90% van deze instructies kunnen tegelijkertijd gedaan worden, maar voor de laatste 10% van de instructies is het resultaat van de eerste 90% instructies nodig. Dus 90% kan tegelijkertijd gedaan worden en 10% is niet opsplitsbaar. (Dit is erg optimistisch). Stel je bijvoorbeeld voor dat je 1000 priemgetallen door elkaar wilt delen. Los kun je de priemgetallen genereren maar maar 1 processor kan de priemgetallen in een reeks door elkaar delen omdat alle informatie hiervoor nodig is. (Slecht voorbeeld, maar even voor het idee)

Bij 1 processor 100 seconden.
Bij 2 processoren 100 / 2 + 10 = 60 seconden
Bij 4 processoren 100 / 4 + 10 = 35 seconden
Bij 8 processoren 100 / 8 + 10 = 22.5 seconden
Bij 16 processoren 100/16 + 10 = 16.25 seconden
Bij 32 processoren 100/32 + 10 = 13.125 seconden

Etc... hoe veel processoren je ook toevoegt er is een harde limiet op 10 seconden waar je nooit onder zult komen.

PiepPieps verhaal is intuitief ook correct maar er zijn taken te verzinnen waarbij het inzetten van een extra processor geen tot nauwelijks overhead kost. Bijvoorbeeld een berekening waarbij elke processor weet wat hij moet uitrekenen aan de hand van zijn eigen nummer en het totaal aantal processoren. Dan is er totaal geen overhead totdat de data samengevoegd moet worden. Maar dat is natuurlijk meer een academisch spelletje dan een real-life scenario.
En deze regel heet overigens Gustafson's law. :)
http://en.wikipedia.org/wiki/Gustafson%27s_law

edit:
Oei, hier werd inderdaad Amdahl bedoeld.

[Reactie gewijzigd door Voutloos op 5 december 2011 10:54]

Op zich heel fijn dat je op één taak allicht kunt verdelen over meerder processors. Echter als je kijkt naar je computer zie je dat tegelijkertijd vele processen tegelijk draaien. Je systeem heeft derhalve echt profijt van meerdere processors.

Zeker als je de affiniteit gaat instellen per proces.
24-core processoren zijn er al voor servers, 24-core processoren mainstream kommer er ook wel.

Alleen een TDP van 2 watt, niet echt waarschijnlijk, de nieuwe 10-core Xeon welke binnenkort verkrijgbaar zijn hebben een TDP van 150 watt.

Het enige grote verschil met de oudere CPUs, is dat de max TDP omhoog is gegaan, en de min TDP omlaag.
Met als gevolg dat de MIPS-per-Watt veel en veel hoger is dan vroeger.

@skelleniels
10 core 20 threads Xeon 2687W LGA2011 3.1GHz 150W komt begin volgend jaar.
En er zijn berichten dat er een 16 core 32 threads Evy Bridge Xeon komt

[Reactie gewijzigd door player-x op 5 december 2011 11:54]

Dat zullen wel 4*6 cores zijn en niet 1 cpu met 24 cores. Het maximum cores momenteel mogelijk is die van Amd met 16 cores met 140W tdp op 2.6 ghz.

Intel zit momenteel vast op 10 cores(20 threads met hyperthreading) met 130W tdp op 2.26 ghz. De E7-8867L op 2.13 ghz heeft een tdp van 105 watt(met 10 cores)
...kun je nagaan wat de concurrentie te bieden heeft als zij naar die maat gaan...

Intel kan het qua wattage / performance nu al niet bijbenen.
En vergeet de UtraSparc T3 niet, ook met 16 cores:
http://en.wikipedia.org/wiki/SPARC_T3

Echter, Oracle (Sun?) is er van terug gekomen, en de opvolger T4 heeft 8 cores.
nou van mij mogen ze stoppen met multicore cpu's ik heb liever dat ze de cores zelf sneller maken aangezien veel programmas multicore niet eens ondersteunen koop je nu vaak een dure cpu waar maar de helft of een kwart van gebruikt word omdat er vaak maar 1 of 2 cores ondersteund worden.
en erger is nog dat nu een 4core cpu wel snelle is als een dual of enkele core maar dan aslleen als de software het ook ondersteund en dat de singlecore preformance niet altijd beter is dan de vorige generatie en dat vind ik toch een kwalijke situatie .
Jazeker, al betwijfel ik of de TDP 2 watt zal zijn, meer in de lijn van 100, maar dat is nog steeds opmerkelijk. Zie ook dit artikel met de titel "The Free Lunch Is Over: A Fundamental Turn Toward Concurrency in Software" waarin het eea wordt uitgelegd. Nu alleen nog wat beter gebruik maken van al die cores.
waarom zou je dan de 22nm-chips gaan kopen? als er na een jaar weer een big step for the computerkind gemaakt wordt dan loont het naar mijn mening voor de stroomrekening en dus op de langere termijn wel om je aankoop even uit te stellen, ik neem hierbij aan dat de meeste mensen voorlopig toch nog voor sandy-bridge zullen gaan aangezien de prijs/performance hierbij nog altijd het beste presteert!

op deze manier laat intel, amd wel ver achter zich in de processorstrijd.

nu hopen op redelijke prijzen
waarom zou je überhaupt nog iets kopen als er volgende jaar het jaar daarop en daarop weer iets nieuws komt....... omdat je het nu nodig hebt, c.q. er geld voor hebt.

Het is ook niet meer zo dat een pc gezien de snelheid 1 jaar meegaat. Op een 4 jaar oude pc met windows xp kun je nog gewoon internetten, word en excel doen.
Omdat je op een gegeven moment een nieuwe pc nodig hebt?
waarom kopen mensen sandy brige?of 2012 ? zo veel meer power bied het niet wel energie zuiniger.
heb je nu 1155 dan zit je daar ook aan vast ivory brige zal ook niet veel meer performace gaan geven...
22nm Q1 2012, 14nm waarschijnlijk Q4 2013 (als het al niet Q1 2014 wordt.

Intel heeft z'n tick-tock werkwijze. Q1 komt de 22nm Ivy Bridge (tick+), voor Q1 2013 staat de 22nm Haswell (tock) geplanned. De kans is groot dat de 14nm Broadwell (tick) dus pas in Q1 2014 komt (of op z'n vroegst december 2013) ook al is de fab eerder klaar.


Als je zo begint kan je altijd wel wachten omdat er een jaar later weer snellere processoren en/of videokaarten zijn.

[Reactie gewijzigd door knirfie244 op 5 december 2011 12:19]

De grens van die technologie die gebruikt wordt om die chips te maken ligt toch op 10nm? Bereiken ze de limiet nu niet wel heel erg snel, een opvolger om nog kleiner te gaan is volgens mij nog niet af.
Er zal wel meer geld richting onderzoek naar alternatieve productiemethoden gaan zodra de huidige technieken niet meer voldoen. Hoe nijpender het wordt, hoe meer druk erachter gezet wordt om met oplossingen te komen. Zelfde geldt voor rijden op alternatieve brandstoffen: als de olie opraakt of te duur wordt om aan te boren, moeten we wel met alternatieven komen en dan kan elektrisch rijden ineens wel omdat het probleem voor het alternatief nieuwe voordelen creëert :)
Kan een lang verhaal tikken, maar het antwoord is simpelweg nee. Als in, de grens ligt niet op 10nm maar ver daaronder. CMOS transistoren kleiner dan 5nm zijn al geproduceerd (niet met technieken voor massaproductie, maar toch). Dus ze kunnen nog wel eventjes door shrinken.

Uiteraard liggen de methodes om nog kleinere chips te maken nog niet klaar, anders zouden we dat nu al doen. Maar de belangen zijn zo enorm dat er weinig twijfel is dat het gewoon nog een tijdje door blijft shrinken, tot we echt tegen de fysieke grenzen aanlopen, als ik een gokje mag doen, Moore zal in ieder geval tot op zekere hoogte nog wel 10 jaar in stand blijven, daarna wordt het twijfelachtiger. 15 jaar lukt misschien ook nog wel, en dan moeten we echt wat anders gaan doen.
Ik denk dat je de grens van double patterning bedoelt. Dat is de technologie die gebruikt wordt sinds de 32nm node. Met een enkele belichting kom je niet beter dan 45 nm (193 nm golflengte / 4). Door twee belichtingsstappen kun je dat verder verbeteren. Dat werd dus wel langzamer en duurder.

Bij 14 nm zul je waarschijnlijk naar triple patterning toewillen. Nog langzamer, nog duurder, maar geen bijzondere technische doorbraak. Daarna is quad patterning nog een oplossing.
Wat ik me afvraag, vorige week was er op T.net een artikel over de problematische chipbak productie op 22 nm: nieuws: ASML en TEL versnellen 22nm-ontwikkeling (wat nu enigszins opgelost is)

Hoe krijgen ze 14 nm dan zo snel klaar voor massa productie?

[Reactie gewijzigd door kramerty88 op 5 december 2011 10:03]

2014 is nog ver weg hoor :o
Ze hebben ze gemaakt op 14nm voor in het testlab niet zozeer voor massa productie. En het is niet dat ze het niet kunnen maken maar dat het niet snel genoeg gaat of dat de Wafers geen goede yields hebben. Overigens moet je als bedrijf altijd door blijven innoveren stilstand is immers achteruitgang!

[Reactie gewijzigd door Decipher666 op 5 december 2011 11:59]

Ze hebben ze gemaakt op 14nm voor in het testlab niet zozeer voor massa productie. En het is niet dat ze het niet kunnen maken maar dat het niet snel genoeg goed of dat de Wafers geen goede yields hebben. Overigens moet je als bedrijf altijd door blijven innoveren stilstand is immers achteruitgang!
Klopt, maar 2013 is redelijk dichtbij en omdat ASML de bakkerijen levert aan intel en deze de 22 nm net toegankelijk hebben gemaakt, vraag ik me dus juist af wat de yields zijn en hoe dit dus gereed gemaakt wordt in een jaar tijd voor massa productie.
Alles wat Intel aankondigt wordt een aantal keer uitgesteld.
Ivy bridge zou als aller eerst eind 2011 komen maar dit is nu april-mei 2012 geworden.
Ik denk dat 2014 een betere datum is.
Die 22 nm is een gewone feature die op een normale manier wordt geschreven in een normale (productie) omgeving. Met zo een machine kun je kleinere lijntjes schrijven door onder andere double patterning, tripple en mutiple patterning toe te passen. Stukje van Wikipedia
Dit soort features schrijven met double patterning is duurder dan normaal omdat hier voor 1 laag meerdere bewerkingen nodig zijn. De uiteindelijke laag heeft dan misschien 2 of 3 keer zoveel bewerkingen gehad als een normale laag en ook duurdere principes gebruikt, omdat het soms ook speciale resist en andere chemicalien nodig heeft.

Neemt niet weg dat het mooie prestatie is, dat de eerste experimentele chips al geschreven zijn met 14 nm. Ik vraag me wel af welke features dit zijn, logic is namelijk moeilijker dan ram. Daarom zijn geheugenfabrikanten ook meestal eerder met de invoering van een nieuwe stap.
Stom vraagje misschien, maar als ze het hebben over "14nm-chips", wat is er dan precies 14nm groot? Één transistor?

(edit) Thanks! Best indrukwekkend eigenlijk, aangezien de grootte van één atoom al een paar tiende nanometer is.

[Reactie gewijzigd door kumquat op 5 december 2011 10:34]

Geen stomme vraag! Transistor size idd. Hoe kleiner ze zijn hoe meer er op een bepaald oppervlak passen.

Ergens op Tomshardware gevonden dat vat het wel mooi samen:
what it does (usually) equal is smaller transistors = more can be packed into the same/less space = higher feature/performance/core count = lower heat/power = higher clock speeds within an equal or lesser thermal spec = INCREASED PERFORMANCE

[Reactie gewijzigd door sbmuc op 5 december 2011 10:24]

Meer de ruimte tussen 2 transistors, en dan gedeeld door 2.

http://en.wikipedia.org/wiki/22_nanometer
nanometer refers to the average half-pitch (i.e., half the distance between identical features) of a memory cell at this technology level
Van wikipedia gepikt... kort maar redelijk duidelijk.

http://en.wikipedia.org/wiki/32_nanometer
Moet ik dan denken aan bijvoorbeeld een i5 quadcore op de volgende Samsung, iPhone, Pad generatie? (Ik noem maar willekeurig een paar merken)

[Reactie gewijzigd door RoyK op 5 december 2011 10:49]

Ik denk dat ze dan met gemak al aan de 6 of 8 cores zitten.. Zou wel leuk zijn zeggen dat je telefoon een i7 hexacore heeft

Ben alleen wel benieuwd wanneer het omslagpunt komt waar processor snelheid niet meer de prioriteit is van telefoons maar bijvoorbeeld de batterij duur, geheugen enz..

Ik heb met de iPhone 4 nu het idee dat het wel snel zat is, ja sneller is leuker maar of je nou 2 tellen of 1 tel moet wachten..
Nee. De quadcore is het probleem niet (ARM's Cortex A15 is bijvoorbeeld zo'n quadcore voor mobiel gebruik) maar de i5 architectuur (Ivy/Sandy Bridge) is niet geschikt voor mobiel gebruik. Zelfs een 15W TDP is onacceptabel voor broekzakgebruik. Intel's CPU voor dit soort toepassingen is de Atom.
Het valt mij echt op dat intel veel snellere en betere producten heeft. Dit ontgaat gewoon niemand meer.
Dat is anders niet wat er in het artikel staat, deze ontwikkeling is voor Intel pure noodzaak:

"Het 14nm-proces moet, samen met de nieuwe tri-gate-transistors, het stroomgebruik van processors flink terugdringen. Vooral voor mobiele chips is dat broodnodig; Intel probeert al enkele jaren door te breken in de markt voor telefoons en tablets, maar de huidige Atom-chips van het bedrijf leggen het qua energiezuinigheid af tegen de concurrentie."
intel heeft al jaren het geluk dat ze zowel veel fabs hebben als een product met een hoge marge.

AMD heeft ook een product met een hoge marge maar slechts 1 fab.
en TSMC heeft veel fabs maar producten met een vele kleinere marge.

daardoor kan intel heel veel geld uitgeven aan de R&D van een nieuw proces. 1 keer ontwikkelen meerdere keren uitrollen en vervolgens veel winst maken op de producten.

geen enkel ander bedrijf kan dat.
en intel probeerd(en) dat heel hard zo te houden met praktijken die het daglicht niet helemaal kunnen verdragen.

[Reactie gewijzigd door Countess op 5 december 2011 12:55]

AMD heeft 0 fabs. Global Foundries (afgesplitst van AMD) heeft er 7, met een achtste in aanbouw. TSMC is net zoals Global Foundries een bedrijf zonder eigen producten, ze pakken beiden hun marges op de fabricage voor anderen.
Ipv 14nm chips te bouwen waarom veranderen ze na al die jaren gewoon niet de architectuur x86?
Ipv 14nm chips te bouwen waarom veranderen ze na al die jaren gewoon niet de architectuur x86?
"Backwards compatibility".
X86 is al jaaaaren voorbijgelopen door andere, efficientere microcodes.
Intel heeft het ooit geprobeerd met Itanium voor de 64-bit markt, maar is daar inmiddels ook mee gestopt.
Dus hangen we nog steeds aan de DOS-Dozen van de jaren 80 van de vorige eeuw... ;)
Dat is veel makkelijker gezegd dan gedaan. Intel zou dit alleen voor elkaar kunnen krijgen als de gehele industrie eraan zou mee werken. Dit is dus inclusief alle (grote) softwarebedrijven, die hun software speciaal zullen moeten aanpassen/hercompilen voor de nieuwe architectuur. Het kost gewoon zo verschrikkelijk veel moeite om de hele markt over te zetten op een nieuwe architectuur, dat het bijna onmogelijk is.

Een aantal jaren terug heeft Intel volgens mij de intentie gehad om uiteindelijk over te stappen op EPIC (http://en.wikipedia.org/w...lel_instruction_computing) voor hun consumentenprocessoren. EPIC gebruikt Intel nu al in hun Itanium high-end server/mainframe-processoren. Ze hebben het toen ook gehad over een CI (Common Interface) platform, zodat zowel de consumenten als serverprocessoren over zouden gaan op één chipset/controller en waarschijnlijk ook hetzelfde socket. In eerste instantie zouden de consumenten cpu's gewoon met x86 blijven werken maar langzaam zou Intel willen overstappen op de nieuwere architectuur.

Dit hele plan lijkt echter niet meer door te gaan. Over CI heb ik de laatste jaren weinig of niets meer gehoord en de Itanium processoren lijken op sterven na dood. Bovendien lijkt daar de architectuur ook niet heel goed te schalen, iets wat x86 (nog) wel doet. Ik denk dus dat we voorlopig nog wel even vastzitten aan x86, aangezien Intel ook niet 'zomaar' een nieuwe architectuur uit de hoed tovert. x86 heeft zichzelf gewoon bewezen in de afgelopen jaren en de rek is er voorlopig nog niet uit. En waarom dan veranderen?
http://tweakers.net/nieuws/62951/windows-8-krijgt-128bit-kernel.html
Windows 8 zou aanvankelijk met een nieuwe architectuur komen (werd er gedacht).
Alleen is daar nu niet zoveel duidelijk over dacht ik zo.
waarom veranderen ze na al die jaren gewoon niet de architectuur x86?
x86 is niet echt een handicap. Oude instructiesets als ARM en x86 worden nog steeds veel gebruikt, en hebben al vele moderne pogingen (IA64, POWER, MIPS, Alpha) afgeslagen. x86 staat ook niet stil, er worden aan de lopende band nieuwe architecturen voor ontwikkeld, Sandy Bridge en Bulldozer zijn de laatste daarin. Die zijn in vrijwel niets niet meer te vergelijken met de originele 8086 cpu.

Uiteindelijk gaat het erom wie de slimste architectuur ontwerpt en de kleinste, zuinigste transistors kan fabriceren. Met welke instructieset je die chips benadert maakt in feite niet zoveel uit.

[Reactie gewijzigd door Dreamvoid op 5 december 2011 14:31]

de verkleinslag van intel wordt voornamelijk gedreven om hun processors op mobiele platformen concurrerend te krijgen met ARM, hun atoms bijvoorbeeld waren te groot voor het servet (smartfoon) en te klein voor het tafellaken (gamers pc), op deze manier kunnen ze toch hun x86 platform op de mobiel gaan pushen.
Het is een kwestie van tijd todat we 10nm hallen en we toch moeter terugvallen op meerdere core's.
Krijgen we wel een betere support voor multicore apps dus daar word ik dat wel weer heel vrolijk van ik merk zelf ook wel dat 8/16 cores zinloos is als er niet op gewerkt word.
Vooral bij emulators van console's gebruikt hij bijvoorbeeld 4% cpu :Y)
Zie ook wat ik eerder heb getikt: furby-killer in 'nieuws: Intel heeft eerste 14nm-chips werkend in testlabs'

En ik ben dit vorige week ofzo ook al bij reacties tegengekomen: het fabeltje dat we niet kleiner dan 10nm kunnen. Waar komt dat vandaan? Want het is gewoon onzin, maar het lijkt redelijk verspreid.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013