Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 43 reacties, 19.098 views •

Intel heeft de introductie van het 14nm-procedé in het Ierse Leixlip uitgesteld, de fabriek had oorspronkelijk in het begin van 2013 operationeel moeten zijn. De 600 personeelsleden die in New Mexico en Arizona waren voor hun training gaan in december terug naar huis.

Als reden voor het uitstel noemt Intel een dalende vraag naar zijn producten, het bedrijf heeft al langer te kampen met dalende winst- en omzetcijfers wegens een krimpende pc-markt en de economische crisis. De Ierse werknemers zijn bezorgd dat het uitstel mogelijk betekend dat Intel helemaal afziet van de productie in Leixlip. Intel is met 4500 werknemers de grootste private werkgever in Ierland en het sluiten van een fabriek zou een grote klap betekenen. De chipfabrikant zei echter dat de plannen voor Fab 14 niet ter discussie staan.

In mei van dit jaar maakte Intel bekend dat het een miljard dollar ging investeren in Fab 14. Naast Fab 14 gaan ook drie andere fabrieken van Intel processors volgens het 14nm-procedé fabriceren. De eerste processor die op 14nm wordt gebakken is Broadwell, een die-shrink van Haswell en de 'tick' in Intels tick-tock-schema. Daarna volgt met de nieuwe Skylake-architectuur op 14nm in 2015 weer de 'tock'.

Reacties (43)

14 nm is meteen een flinke stap kleiner dan 22, vraag me alleen af of er niet stiekem ook problemen met proces zijn, dat zou toch jammer zijn.
Dat kwam ook al ter sprake toen Broadwell niet werd getoond op IDF maar de tape-out is al maanden geleden geweest en volgens de geruchten zijn er geen grote problemen. Dit uitstel lijkt niet met problemen te maken te hebben. Het uitstel betreft ook slechts 1 fabriek, bij de anderen fabrieken die voor 14nm geschikt worden gemaakt is er geen uitstel.

http://www.fudzilla.com/h...4-nm-broadwell-chip-works
Ik meen toch serieus eens gehoord of gelezen te hebben dat met 22nm de ondergrens leek te zijn bereikt om een heel lijstje aan redenen. Ik kan het zo snel niet terugvinden, maar ik herinner het mij omdat daarmee de eerder bedachte theoretische grens van 30 nm was verbroken.

Van een onmogelijk lage yield door schade tot kwantumproblemen, ze hebben obviously een truukje bedacht.
Dat is heel vaak geweest dat ze grens bereiken in het lab, maar voordat ze het nodig hedden voor massa productie wisten ze het tot nu toe altijd op te lossen.

Toe we naar 180 nm gingen wisten ze ook nog niet hoe ze 22nm moesten maken en zaten ze tegen grens van bijvoorbeeld 90nm in lab. ASML wist nog niet hoe ze de machines moesten maken voor 22nm, intel had nog geen oplossing daarvoor.

Wil maar zeggen dat we gaan de weg telkens tegen grens zijn aangelopen en we toch elke keer voordat het echt nodig was een oplossing bedachten. Zo zijn ze nu al bezig met bedenken van probleem als we nog maar enkel nm over hebben en daar is laatst nog doorbraak geweest, tot die doorbraak was dat de grens van we mogelijk was, maar die is dus weer iets verlegd.

Kan dus best zijn dat je dat ergens gelezen heb, ook van eerdere procedé kan je dat gelezen hebben, maar ze zijn al veel verder dan 14nm, ze hebben werkende chips.

Enige wat er aan de hand kan zijn dat ze het massa productie niet goed krijgen opgeschaald, lees voldoende werkende chips uit wafer. Of ze spreken gewoon de waarheid en zitten ze met overschot, wat niet raar is gezien de omstandigheden van de pc markt en crisis. ;)

Edit/
Zit net wat te lezen en kom berichten tegen dat ze in 2001 al 15nm transistor wisten te maken.

IBM test ze nu op 10nm in lab.
http://www.techpowerup.co...g-Carbon-Nanotubules.html

Zijn ook testen met 4nm transistor.
http://www.dailytech.com/...Computer/article18476.htm

En 3nm kon nartuurlijk niet achter blijven
http://www.eetimes.com/el...e-record-with-3-nm-FinFET

Dat zijn de transistor die we over 10 jaar in onze pc zullen hebben. En laatste doorbraak geeft hoop dat we nog kleiner kunnen. Iets wat 10 jaar geleden als onmogelijk werd gezien.

[Reactie gewijzigd door mad_max234 op 10 november 2012 18:54]

Intel gebruikt ASML machines overigens, net als bijna iedereen op deze planeet in deze industrie.
Daarom haal ik ook asml aan natuurlijk.

Machiens moeten er eerst er zijn voordat je massa prodctie chips kan maken, als asml of andere bedrijf dat niet opgelost krijgt dan kan intel niet massa productie bakken, kan ze wel leuk hele kleine transistors en chipjes maken in lab maar daar leeft intel niet van. ;)

[Reactie gewijzigd door mad_max234 op 10 november 2012 18:58]

Kom op, denk na, Intel gaat echt geen miljarden investeren in 4 fabrieken van dat type als de machines niet leverbaar zouden zijn..
Dit is niet helemaal waar. Voor elke 4 ASML waferstappers heeft Intel 1 waferstapper van een ander merk staan. Feit is dat bedrijven graag niet afhankelijk zijn van één toeleverancier of producent, en hierbij is Intel geen uitzonderen.
Maar het dit is wel een dure grap om je ontwerp van het ene merk waferstapper over te zetten naar het andere merk waferstapper én de waferstapers van ASML zijn superieur vergeleken met de twee concurrenten. Om deze reden zijn er ook al een aantal grote jongens die zijn overgestapt naar een nieuwe strategie waarbij alleen nog maar ASML waferstappers worden gebruikt (ik meen dat TSMC er zo'n eentje is).
Van 22nm naar 14nm is een reductie die vergelijkbaar is met 32 naar 22, 32 naar 45, 65 naar 45 etc. Ongeveer altijd een factor 0,65/0,7x kleiner (1 dimensie).
Kunnen ze de StongArm niet uit de mottenballen halen, en daar een nieuwe revisie van gaan bakken op 14nm in deze Fab.
De 28-32 nm fabriek van AMD kostte al rond de 4.66 miljard dollar.

Naar ik vermoed kost zo'n 14 nm fab heel wat meer (en als je er 3 bouwt dan zijn ze per stuk misschien goedkoper maar bij elkaar zal het boven de 10 miljard aan investering zitten).

Alleen met high margin processors betaal je zo'n fab terug natuurlijk. Hoe ga je anders 20 miljard winst maken?
Hoe ga je anders 20 miljard winst maken?
Sommige olie-magnaten hebben hier anders geen probleem mee om het op een jaartje terug te verdienen hoor, dat bedrag... just an FYI :D
Dit lijkt inderdaad een kwestie van kosten. Het verkleinen van het procedé leidt ertoe dat de nieuwe chips behoorlijk prijzig worden en dus alleen op verbruik concurreren met oudere en goedkopere chips van Intel en de (minder zuinige) huidige chips van AMD. Qua snelheid is de huidige (en de Sandy Bridge) processorlijn namelijk prima.

Het probleem is dat de gewone consument met een desktop computer een goede en betaalbare chip wil die filmpjes in HD kan draaien en waarmee af en toe een spelletje is te spelen. Voor de laptop is het inderdaad handig dat de chip zuinig is, maar ja alle andere onderdelen nemen ook stroom.

Ik blijf het raar vinden dat Intel met zijn voorsprong op het gebied van het procedé niet meer doet op de markt met deze kennis. Waarom laat het geen videochips en ARM-chips in zijn fabrieken maken. Zo kan Intel ook op andere manieren verdienen aan de veranderende markt. Ze liggen namelijk zowel qua procedé als qua processor ver voor.
Over het algemeen is een kleiner procedé just goedkoper, omdat er zo meer chips uit een wafer gesneden kunnen worden. Natuurlijk moet er wel eerst geďnvesteerd worden in een productielijn voor dat procedé en moet de yield hoog genoeg zijn om ook daadwerkelijk meer werkende chips over te houden dan op een groter prodedé.
Ze liggen qua processor voor. Maar dat is een CPU.

GPU's dat zijn geen cpu's. Dat zijn heel veel kleine low power processortjes in 1 manycore.

Intel heeft nog nooit voor elkaar gekregen om een goede low power processor te bouwen. Overigens valt er weinig te verdienen aan low power processoren. De marges erop zijn klein.

Wat we zien is dat intel het goed doet doordat ze 1 generieke processor hebben die alles geniaal kan (maar wel enorm stroom vreet natuurlijk) met heel weinig transistors t.o.v. de concurrentie.

Als we uitrekenen op volledige performance de efficiency per watt van intel cpu's versus de snelste ARM/MIPS processoren, dan komt intel daar heel gunstig uit.

Dat neemt niet weg dat de markt aan het diversifieren is - noodgedwongen.

Naar ik aanneem zal ook intel zich moeten aanpassen aan deze veranderende markt.

Het is overigens niet voor de hand liggend dat ze dat goed lukt op manycore gebied. De laatste speech van een intel bobo waar ik onlangs bij was, kreeg ik eerst half dozijn sheets te zien met disclaimers dat alles rondom Knights *.* (met de * voor alle namen die het beestje gehad heeft)
dreadnought niet zou kunnen gaan lukken.

Aanvankelijk was het ook een gedrocht. Een combinatie van iets met cache coherency, wat het aantal cores limiteert met de nadelen van een gpu.

Dat is tussentijds nu aantal keer aangepast aan wat het beestje moet gaan doen.

Vergis je niet erin hoe lastig het is om een goede GPU te ontwerpen. Wat AMD en Nvidia daar doen zit echt aan de rand van wat mogelijk is. Naar ik aanneem bezitten zij ook de patenten voor wat zij doen. Intel is een compleet nieuwe speler op die markt daar die alleen maar een serie van mislukkingen geproduceerd heeft de afgelopen 15 jaar op gpu gebied.

De vraag is natuurlijk wel in hoeverre de integrated gpu op de huidige generatie CPU's het overnemen gaat en welk effect dat heeft op verkopen van stand alone gpu's.
Dat de ondernemingen AMD/Nvidia vol zitten met patenten omtrend GPU's lijkt me evident.
Dat Intel die markt wil gaan betreden lijkt me ook evident omdat het een aanvulling is op hun huidige product (X86/X64) waardoor ze een complete oplossing kunnen bieden.
Gezien hun specialisme op de procesor markt poep je niet zomaar, zonder gebruik te maken van eventuele patenten van de GPU boeren, er een snelle concurrent voor deze GPU boeren uit.
Dit ondanks dat ze hier en daar de technologie in huis gehaald hebben om überhaupt GPU's te kunnen ontwikkelen. Dit is in mijn ogen een typisch geval van schoenmaker blijft bij je leest want wat Intel te bieden heeft op GPU gebied valt in het niet bij wat de specialisten te bieden hebben.
wat Intel te bieden heeft op GPU gebied valt in het niet bij wat de specialisten te bieden hebben.
Het wordt allemaal een beetje een grijs gebied tegenwoordig, want als je Knights Corner een "gpu" noemt (of de AVX2 units van Haswell), dan doen ze wel weer aardig mee.
Nu haal je wel heel veel architecturen door elkaar heen.

Als je Knights Corner een GPU noemt dan komt hij zo tegen de factor 10 performance tekort single precision.

Wel erg dure GPU dan overigens. Naar verwachting was oorspronkelijke prijsbeleid ervoor zo tussen de 5k dollar en 10k dollar per stuk. Iets van 5k+ dollar wil je niet als GPU gebruiken natuurlijk. We praten dan over de HPC markt (high performance computing).

Haswell is een cpu: "Haswell is the codename for a processor microarchitecture to be developed by Intel's Oregon team as the successor to the Ivy Bridge architecture.[1] Using the 22 nm process,[2] Intel is expected to release CPUs based on this microarchitecture around March to June 2013 according to leaked roadmaps."

Knights Corner is een manycore architectuur, dus GEEN cpu. De manier hoe die Knights *.* architectuur eruit zou zien, dat is een paar keer veranderd.

Eerst was het een soort van opvolger van Larrabee met cache coherency en dat soort onzin wat het aantal cores enorm limiteerde. Later kwamen er geruchten dat de cache coherency eruit werd gesloopt, wat natuurlijk meer cores en dus meer performance tot gevolg zou kunnen hebben.

In alle gevallen was de bedoeling om vele duizenden euro's, zeker een duizendje of 5 of meer per Knights Corner kaart te vragen.

Ik noem expres de prijs erbij want als je die prijs noemt dan snappen de meeste mensen het al. Namelijk dat het ding enorme performance moet genereren voor wetenschappers anders is hij niet interessant.

Daar wringt hem ook precies de schoen continue bij intel.

Op gegeven moment dacht een intel marketeer, niet zo lang geleden: "goh we gaan claimen dat hij wel bijna 1 Tflop gaat leveren double precision".

Maar Intel heeft dat ding nog niet gereleased en ondertussen is de K20 uit van Nvidia en het lijkt erop dat die 2 Tflop levert.

Een slamdunk voor Nvidia dus.

Overigens ook geen goedkope kaart. In de prijslijsten die zijn opgedoken staat hij voorlopig tegen de 4000 dollar per stuk.

Een fractie van wat Intel voor knights corner zou vragen als hij dezelfde performance zou genereren.
Intel is een compleet nieuwe speler op die markt daar die alleen maar een serie van mislukkingen geproduceerd heeft de afgelopen 15 jaar op gpu gebied.
Intel is in de afgelopen 15 jaar de grootste gpu producent ter wereld geworden, "mislukking" is maar relatief :) . Je kan om de performance van die kleine/zuinige gpu's die ze met hun chips meebakken lachen, maar uiteindelijk beslissen de kopers van PC systemen voor zichzelf wel of ze tevreden zijn, en dat zijn ze blijkbaar. Intel gaat het om de centen, niet om de titel voor "allersnelste gpu".

AMD maakt snelle gpu's en schrijft al jaren rode cijfers, en bij nVidia haalt de 'consumer' gpu divisie ook niet echt spectaculair veel geld binnen.

[Reactie gewijzigd door Dreamvoid op 11 november 2012 11:04]

Je trapt in het marketing verhaaltje.

"Wij van apple hebben een keer een GPU geproduceerd en omdat ons bedrijf meer omzet heeft dan Nvidia zijn wij de grootste GPU producent ter wereld".

Zo iets?

In aantallen GPU's is intel een superkleine speler hoor.
Wat mensen zich niet realiseren is dat de CPU's die intel produceert high margin zijn.

Maar er worden een miljard ARM cpu's per jaar gedrukt bijvoorbeeld. Dus als je puur het aantal GPU's uitrekent dan ga sta je verbaasd wie de meeste levert. Dat is dus geen intel.

In GPU land daar is Nvidia echt de marktleider hoor.

Als je kijkt naar de high performance GPU's dan probeert Intel historisch vanalles en het mislukt elke keer weer.

Dus dit soort creatieve statements als dat Intel de grootste gpu producent is, dat soort uitspraken maak je je behoorlijk belachelijk mee.
De meeste ARM SoC's gaan in routers en andere headless zaken, die hebben geen gpu unit op de SoC. Bovendien is de ARM markt verdeeld tussen verschillende gpu chipdesigners (Imagination, ARM, nVidia, Qualcomm) en een ruim dozijn aan fabrikanten. Intel verkoopt rond de 400 miljoen x86 chips per jaar, de meeste met gpu. AMD en nVidia halen dat soort aantallen nog lang niet - dus ja, Intel is de grootste gpu fabrikant. Wil niet zeggen dat ze de snelste gpu's hebben. Toyota verkoopt ook niet de snelste auto's. Maar Intel lacht 'all the way to the bank'.

Natuurlijk is nVidia qua gpu technologie de grote trendsetter - met de CUDA instructieset, de Kepler architectuur en de Tesla HPC units lopen ze in het high-end segment voorop, en de rest hobbelt daar achteraan. Da's geen commerciele ramp, de high-end markt is niet zo groot - net zomin als dat IBM er bv bijster veel aan heeft dat ze de snelste mainframe cpu's hebben. Het gaat uiteindelijk om de knikkers, en die zijn in de mainstream markt te pakken.

[Reactie gewijzigd door Dreamvoid op 11 november 2012 13:30]

Je hebt echt geen idee wat een GPU is he?

De meeste SOC's hebben een ingebouwde GPU en die gaan in telefoons vrij massaal. Dacht je dat een telefoon zonder gpu kan?

Alleen al China heeft dus meer nieuwe telefoons de komende paar jaar dan
intel komende 10 jaar aan totaal aantal CPU's gaat produceren.

Als je alle productie van intel in zijn hele historie bij elkaar telt zit intel net boven de 1 miljard CPU's geproduceerd. Dat zijn dus CPU's. Sommige hebben een ingebouwde gpu tegenwoordig. Dat is echt een FRACTIE van het totaal echter voorlopig. Er worden meer dan een miljard ARMs per jaar gedrukt. Alleen al ARM.

Zie je het verschil? Wat Intel in een halve eeuw produceert dat produceert men alleen al voor ARM in een jaartje. De echte nog lower power cpu's drukt men overigens nog meer van.

Een ingebouwde gpu in een cpu is in de eerste plaats nog steeds een CPU.
Als je dat ziet als een stand alone gpu, dan
gaat dus deze creatieve manier van gpu's tellen van jou gaat op die manier ook nog mis.

je hebt echt geen idee wat de embedded markt is he?

In een auto uit eind jaren 90 zitten al snel tegen de 100 low power cpu's in. Oh ja en ook een paar gpu's. Wie heeft er geen schermpjes in zijn auto?

Wel eens aan WASMACHINES gedacht?

Het aantal cpu's dat intel produceert is vrij gelimiteerd hoor. Je praat over een beperkt aantal miljoen per maand maar. Dat is een lachertje vergeleken met de low power cpu's.

Verder zijn er enorm veel apparaten die een SOC hebben met een gpu erin die hoegenaamd niet gebruikt wordt als dusdanig, maar hij zit er wel in!

Wat intels business case is, is dus niet gpu's produceren. Hun business case is het harde feit dat men totdusverre behoorlijk bereid was VEEL te betalen voor goede CPU's.

Daarbij was 2011 overigens een geniaal jaar.

De vraag is hoe dat verder gaat komende jaren. Het kan natuurlijk beide kanten uitslaan. Aan de ene kant groeit de welvaart in de 3e wereldlanden. Die kopen dus duurdere cpu's. Ze willen luxe net als wij dat al heel lang hebben. Aan andere kant moet dat wel goedkoper zo lijkt het. We zullen zien wat er daar gebeurt! Uiteindelijk is het toch meestal de vernieuwing die bepaalt welke kant de balans uitslaat.

[Reactie gewijzigd door hardwareaddict op 11 november 2012 13:43]

Het aantal cpu's dat intel produceert is vrij gelimiteerd hoor. Je praat over een beperkt aantal miljoen per maand maar.
Ik weet niet waar je dat vandaan haalt, maar de x86 PC markt alleen is al 350+ miljoen stuks per jaar, met nog de x86 embedded en server markt erbij zit je ruim boven de 400 miljoen.

[Reactie gewijzigd door Dreamvoid op 11 november 2012 15:24]

Zuinig slaat niet enkel op de elektriciteitsrekening, ook op warmteontwikkeling. Minder stroomverbruik = minder gegenereerde warmte = meer overhead om hoger te klokken.
Intel heeft op dit moment een groot voordeel en dat zijn hun fabs, dit lijkt me toch niet een heel logische zet vanuit technisch perspectief aangezien TSMC geen slechte zaken doet tegenwoordig.
TSMC en SAMSUNG lopen op dit moment voor op als het om Fabs gaat, alleen intel loopt ver voorop als het gaat om hun instructie set, en x86 compatibiliteit.

Omdat intel ontwerpen zo complex zijn kunnen ze moelijk op 14nm gemaakt worden, en zullen daardoor altijd meer spanning gebruiken.

Intel heeft haar eigen StrongArm ontwerp verkocht, om zich voledig op Atom te kunnen richten, met een kleinere x86 instructie set en emulatie voor ingewikkelde Coprocessor instructies, zo kon hij toch volledig compatible zijn. Deze keuze is fout geweest, maar hoe gaat intel dan terug komen? Wat gaan ze maken in die FABS? Deal sluiten met Apple voor Swift? StrongArms?
Waarom zou Intel nu bewegen? Momenteel produceert ze als enige op 22nm. Als ik het wel heb produceren concurrenten als TSMC en AMD nog met 28 nm (CPU en/of GPU architecturen).

De enige vette worst is een verkleining van de productiekosten per chip, omdat er dan meer op een wafer passen. Deze voordelen zijn echter pas te verzilveren na een periode produceren. De switch naar een nieuw procedé vergt een enorme investering. Deze investering moet Intel voor aanvang productie nemen. Intel verwacht duidelijk niet extra afzet te genereren door het 14 nm procedé.

Met haar 22 nm procedé heeft Intel al een voorsprong, met bijbehorende productiekostenvoordelen. Pas als haar concurrenten ditzelfde voordeel gaan bemachtigen wordt het voor Intel noodzakelijk om door te stappen. Dat moment is nog niet nu.

Had Intel de zekerheid gehad van een vraagmarkt en een grote gegarandeerde afzet, dan had ze haar investering afzienbare tijd kunnen terugverdienen. Er was dan geen enkele reden geweest voor Intel om op haar concurrenten te wachten. Momenteel is die vraagmarkt er blijkbaar niet en wordt een dergelijke poging de voorsprong verder te vergroten risicovol. Intel kan zich door zijn voorsprong permitteren de pas in te houden en doet dit dan ook. Volstrekt logisch toch?
^dit dus. Intel loopt al 1 generatie voor op rest, zolang de marges nog goed zijn en er geen noodzaak is om sneller met de volgende generatie te komen, kunnen ze rustig aan doen met de cash en investeringen uitstellen (of eigenlijk, die R&D centen gebruiken voor de segmenten waar ze niet zo ver voor lopen, bv mobile SoC's en gpgpu).
14 tov 22, dat betekend meer dan het dubbele aantal transistoren op dezelfde oppervlakte, dat is een huge improvement.
Goed voorbeeld hoe de crisis vooruitgang afremt. Dingen als dit en ruimtevaart, wetenschap... nog een reden om te hopen dat er snel een einde aan die crisis komt!
Welke crisis heb je 't over?

Heb je het over dat een aantal overheden, met name USA, te veel uitgeven?
of heb je het erover dat de sterke euro de politici gewoon in hun hemd zet omdat het laat zien dat ze te veel uitgeven?

Dat is toch geen wereldwijde crisis. Dat is een aanpassing aan de werkelijkheid.

Wat we zien is de enorme opkomst van de 3e wereldlanden. Dus per saldo gaan er MEER cpu's en MEER gpu's verkocht worden alles bij elkaar. Alleen de prijs die men bereid is te betalen is gewoon MINDER dan in het verleden.

Dit waar het bouwen van nieuwe fabrieken enorm prijzig is. Een oude projectievan intel leert ons dat ze bang zijn tegen 2020 zo rond de 10 miljard dollar per fabriek te betalen.

Dat moet wel TERUGVERDIEND worden. Intel verkoopt met name high margin CPU's en hardware. Dus voor hen een CPU zoals een arm produceren waar je maar paar miljard aan verdient of minder, dat is niet interessant voor intel. Het moet significant bijdragen aan hun jaaromzet...
De vraag daalt niet vanwege de crisis maar vanwege de telefoonmarkt. Een onderzoek wees uit dat zelfs in tijden van crisis smartphone verkoop gewoon doorgaat, dit mede omdat we tegenwoordig haast niet meer zonder een smartphone kunnen leven.
Lieve hemel.
Dit heeft niets met het onderwerp te maken, maar ik wordt wel ontzettend jaloers op Intel.
Dat ze al 14nm chips kunnen maken, zit ik hier nog met een AMD.
Ik hier met een bende oude L5420 Xeon cpu's. Maar als je kijkt naar de prijs op ebay waarvoor je die kunt kopen dan zie je dat je dus een 8 core machine met 8 echte cores kunt bouwen voor iets meer dan 100 euro. Met verzendkosten zo tegen de 200 euro.

Geen goed gamersplatform natuurlijk maar wel geniaal voor alle andere berekeningen :)

Intel is simpelweg een high margin fabrikant. Elke cpu die ze verkopen is stinkend duur de eerste paar jaar en er zijn altijd goedkopere alternatieven op de markt om een betere performance te verkrijgen, meestal heb je dan wel meer dan 1 socket overigens.

We zien hoe wereldwijd de behoefte van de gewone consument afneemt om de snelste CPU te willen kopen, wat intels omzet enorm drukt.

Intel speelt hier ook op in. Alleen de server cpu's krijgen meer cores, maar dat gaat ook heel langzaam hoor. Tergend langzaam.

We zitten nu op 8 cores (vergeten we even de oude 8800 series die tot 10 cores ging) bij de E5 wat een Sandy Bridge is overigens, dus niet Ivy Bridge.

We zien ook hoe intel de zaak goedkoper probeert te doen. Ivy Bridge is veel goedkoper in elkaar gesleuteld dan Sandy Bridge, wat ervoor zorgt dat je Sandy Bridge beter kunt overklokken en Ivy Bridge hoegenaamd niet.

Dit alles zet de omzet van intel enorm onder druk hoor. Het zal niet lang duren voor er alternatieven komen voor het hebben van een 2 socket intel Xeon machine met gpu's erin voor de supercomputers.

Dus we moeten maar zien wanneer en waar intel zijn nieuwe fabrieken neerzet en doorgaat naar de volgende generatie.

Met de introductie van de Q6600 hadden we jaren geleden een CPU met in de package 4 cores. De ivy bridge cpu's die intel nu in 2012 verkoopt hebben nog steeds maar 4 cores.

In dat opzicht dus weinig progressie.
Intel hoeft niet meer te moderniseren - AMD is bijna dood - en ARM is nog geen concurrent. Men wil de rendabiliteit opkrikken - en wie nu nog meer CPU nodig heeft - zal meer moeten dokken, want meer cpu's moeten kopen.
Intel moet niet langer innoveren om winst te kunnen toveren - de cpu's zijn meer dan snel genoeg!
Zuiniger is nodig - en aan de onderkant van de markt wordt men zeer kwetsbaar. En daar kan AMD nog net overleven - dus als Intel er daar in slaagt om de markt helemaal kapot te maken, is 't RIP AMD.
De core i3 en core i5 zijn gewoon veel te duur voor wat 't is - en daardoor heeft AMD nog een markt.
AMD bijna dood? Heb je daar enige vorm van onderbouwing voor?
Waarom gaat Intel niet ook gewoon ARM instructie set cpu's maken? Zijn ze in een keer terug in de markt. Is toch niks mis met een beetje mixen van de instructie sets om je vraag op peil te houden. Snap niet waarom hun zo graag met Atom proberen door te breken.
Tsja, waarom maakt Mercedes geen BMW's, waarom schrijft Geert Mak zijn boeken niet in het Engels, waarom gebruikt Coca Cola niet het Pepsi recept?

Voor het gebruik van de ARM instructieset moet flink geld worden betaald aan ARM, dat houden ze liever op zak - en WC Eend Intel is uiteraard van mening dat hun eigen x86 ISA beter is en dat ze meer geld kunnen verdienen met x86 chips dan met chips met een ARM, MIPS, POWER of SPARC instructieset. Het zou ook een beetje zonde zijn als iedereen dezelfde instructieset ging gebruiken, er moet wel een beetje innovatie en concurrentie blijven.

[Reactie gewijzigd door Dreamvoid op 11 november 2012 15:12]

Op dit item kan niet meer gereageerd worden.



Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBWebsites en communities

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True