Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 90 reacties

Over dertien jaar denkt Intel chips op 4nm te kunnen bakken. De hardwarefabrikant verwacht daarmee dat Moore's Law nog wel even standhoudt. Intel geeft wel toe dat de fabrikant nog een grote doorbraak nodig heeft om dit te kunnen waarmaken.

Intel maakte de verwachting bekend tijdens een persevenement voor Japanse journalisten. De fabrikant liet weten dat de in 2007 geïntroduceerde high-k metal-gate-techniek in ieder geval nog tot 2011 gebruikt kan worden voor het 22nm-productieprocedé. Tegen die tijd zal mogelijk wel van koper afgestapt moeten worden als materiaal voor de interconnects.

In 2012 moet de massaproductie van de 22nm-chips op gang gekomen zijn, gevolgd door de productie van 16nm-chips in 2014, 11nm in 2016, 8nm in 2018, 6nm in 2020 en 4nm in 2022. Tegen die tijd zal de integratie-capaciteit gestegen zijn tot 1024 miljard transistors, waar die bij het 45nm-procedé op 8 miljard ligt.

Een woordvoerder van Intel verklaarde dat er een doorbraak nodig is om het doel van 4nm in zicht te krijgen. Het bedrijf kan dan ook nog niet zeggen welke materialen het gaat gebruiken. Wel gaf de chipfabrikant toe dat de uitdagingen op het gebied van lithografie, het ontwerp en de integratie van materialen groter worden. Ook nemen de kosten per eenheid voor het testen flink toe naarmate het productieprocedé kleiner wordt en ziet de chipgigant zich genoodzaakt steeds meer package-varianten te produceren voor het toenemend aantal productcategorieën waarin de chips verwerkt worden.

Intel slides Japan Intel slides Japan Intel slides Japan Intel slides Japan
Moderatie-faq Wijzig weergave

Reacties (90)

Ik denk dat de doorbraak de overstap naar photonics zal zijn, en dat de consequenties daarvan de schaalverkleining zullen overschaduwen.

New Nanolaser Key To Future Optical Computers
Ik denk eigenlijk niet dat er snel op zo'n techniek overgestapt gaat worden. Je kan namelijk geen goede optische schakelingen maken in Si (is een indirect bandgap materiaal, wat het erg onaantrekkelijk voor optische doeleinden maakt). De halfgeleider industrie zal niet zo snel van Si als hoofdmateriaal afstappen aangezien de kosten dan enorm toenemen en productie vele malen moeilijker wordt. Daarnaast zijn de delays om een elektrisch signaal om te zetten naar een optisch enorm.

Door 3D integratie toe te passen kan de levensduur van koper als interconnect nog wel worden opgerekt. En een transistor van 4 nm is ook wel te maken in Si met wat trucjes zoals strained Si en quantum dots. Eventueel met wat meer exotische materialen als grafeen of carbon nanotubes om ervoor te zorgen dat de performance niet achteruit holt. Maar dit zal zeker wel de nodige eisen aan de lithografie stellen.

Beetje loze opmerking van Intel eigenlijk. De hele industrie gaat er van uit dat in 2022 de lengte onder 10 nm gedoken is. Kijk maar is naar de International Technology Roadmap for Semiconductors (een organisatie bestaand uit mensen van de halfgeleider industrie en universiteiten) http://www.itrs.net/Links/2008ITRS/Update/2008_Update.pdf (bijvoorbeeld figuur ORTC1). Het zou juist een verbazing zijn als Intel denkt dat we dat niet gaan halen, want dan is er een trendbreuk met de Wet van Moore.
Maar wat zouden we eigenlijk met al die extra transistors op een cpu kunnen doen? Nog meer cores erbij? De meeste software gebruikt nog steeds niet meer dan 1 core.
Of anders nog meer peripherals op de cpu inbouwen? Dat wordt ook steeds minder nuttig lijkt me, Intel begint volgend jaar al met een cpu met ingebouwde igp maar volgens mij zit lang niet iedereen daar op te wachten ..
Vele duizenden cores is (volgens intel) wel te verwachten wellicht nog met verschillende specialisaties. Het zal een uitdaging worden om compilers zo ver door te ontwikkelen dat ze optimalisaties voor de programmeur kunnen uitvoeren zonder dat de programmeur rekening hoeft te houden met threads, spinlocks en mutexes. Denk bijvoorbeeld ook aan processen die full time op één of meerdere dedicated cores draaien en dus niet meer gescheduled hoeven te worden. Voor de servermarkt zijn natuurlijk tal van virtualisatie mogelijkheden te bedenken. Ik geloof dat het snel kan gaan, begin 2007 had Intel al CPU's met 80 cores.
Maar wat zouden we eigenlijk met al die extra transistors op een cpu kunnen doen? Nog meer cores erbij?
Meer transistors zijn geen noodzaak.

Stel je even voor: een Core i7 975 die onder full load 2 watt gebruikt voor een paar tientjes. In 2022 zit hij misschien wel in je mobieltje. :+ Ook dat is iets wat mogelijk gemaakt kan worden door een kleiner productieprocedé.

Bovendien kan je dit doortrekken naar alle chips in je PC. Moederbord chipset, videokaart, netwerkchip, geluidschip, gewoon alles. Voor die laatste twee gebruiken ze trouwens vaak een ouder procedé omdat dat een stuk goedkoper is. Maar dat verschuift natuurlijk iedere keer, dus met de introductie van 22nm zit het er dik in dat ook netwerk/geluidschips weer iets zuiniger kunnen worden.

Om het op een andere manier weer te geven: je zou met de techniek van vandaag waarschijnlijk een volledig functionele 486 computer kunnen bouwen met alles erop en eraan die maar 1 watt gebruikt. Eigenlijk is dat bijna precies wat je in de mobieltjes van vandaag ziet. Die gaan op diverse gebieden (hardware 3D acceleratie) zelfs al over die 486 heen, al weet ik niet hoeveel een mobieltje exact gebruikt.

[Reactie gewijzigd door W3ird_N3rd op 25 augustus 2009 00:42]

Ga even terug in de tijd naar 12 jaar geleden. Toen hadden we nog genoeg aan een 486 en was er helemaal geen behoefte aan de 4 of 6-core monsters die nu de servers bevolken. Tegelijkertijd is er nu nog steeds behoefte aan systemen met meerdere CPUs. Dus de vraag naar CPU kracht is gestegen en dat zal de komende 12 jaar nog wel even doorgaan. En wat de drivers zullen zijn? Geen idee, maar hopelijk iets zinnigers dan spelletjes en een trage webpagina. :)
Een tekstverwerker blijft een tekst verwerker. Al is de nieuwe Office 2007 natuurlijk wel wat uitgebreid met handige features. Maar in zekere zin kunnen veel applicaties nog enorm klein gehouden kunnen worden waardoor je al die CPU's niet nodig hebt.

Waarom dan wel? Het gaat er in zoverre niet om waar we ze voor nodig hebben, ze worden gewoon gemaakt, en men koopt die dingen omdat dat is wat in de winkel ligt. Dan heb je nog altijd mensen die altijd het nieuwste willen hebben voor die net wat meer FPS in hun game en zo is het cirkeltje weer rond. Op een gegeven moment stopt een PC gewoon met werken omdat hij oud is of weet ik veel wat en dan moet je een nieuwe kopen. Dan is er weer wat anders in de winkel en dan ben je verplicht tot het kopen ervan.

Maar om nou te zeggen dat we echt een quad core nodig hebben om te mailen of om wat tekst te verwerken...
Je hebt helemaal gelijk: een pc voor word en IE hoeft niet krachtiger dan een paar jaar terug. maar het punt is net dat de verwachtigen veranderen. nu wil iedereen ook vlot foto's bewerke, filmpjes kijken/hercoderen, gigantische databases benaderen (file indexing), starttijden van enkele seconden enzovoort.
En het meeste daarvan red je inderdaad met een pc van een paar jaar oud; maar je PIII en zelfs 4, is daar ondertussen echt neit meer tegen opgewassen.

Ik zal het anders zeggen: toe mp3 ontstond, waren er amper computers die het deftig konden afspelen, en encoderen was helemaal een werk van lange adem. Datzelfde toen DVD gemeengoed werd en tegenwoordig hetzelfde met Blu-ray.

Hoezo geen nood aan vooruitgang :?

Ik ben het overigens wel met je eens dat 95% van de computergebruikers geen nodd heeft aan een state-of-the-art high end syteem; gelukkig maar. Een pc kan dan toch een paar jaar mee...
Integratie van componenten, meer cores, meer cache, meer/betere SIMD units. Natuurlijk gebruikt de meeste software dit nu nog niet, maar we zijn amper drie jaar in het multicore tijdperk, en het manycore tijdperk begint pas over een paar jaar. Laten we over vijf jaar eens weer praten over het gebruik van die extra cores.
Waarom zien spellen er nog steeds hoekig uit? Waarom zijn animaties nog steeds niet levens echt? Waarom zijn "vijanden" in computer spellen nog steeds "dom"?
Omdat de huidige computers nog ONTZETTEND veel rekenkracht missen om alles "als echt" weer te kunnen geven. Zowel CPU en GPU. En aangezien deze 2 steeds meer geintegreerd gaan worden zijn er nog een gigantische hoeveelheid aan transistors en cores benodigd om dit doel te bereiken.
Natuurlijk heb je geen 1024 cores nodig voor Word 2020, maar computer spellen, 3D render programmas en dergelijke zullen hier zeker van profiteren. Bovendien is de huidige hardware niet eens in staat om de huidige software snel en zonder schokken af te kunnen spelen. Dus wat dat betreft is er ook nog heel wat nodig.
Maar niet alleen de hardware benodigd verbetering. De programmeurs dienen zich ook te ontwikkelen voor multi-core programming. Iets wat helaas nog niet echt (voldoende) op gang komt.

[Reactie gewijzigd door Remco Kramer op 24 augustus 2009 21:48]

Wel gaf de chipfabrikant toe dat de uitdagingen op het gebied van lithografie, het ontwerp en de integratie van materialen groter worden.

Een deel van de doorbraken moet dus van externen zoals ASML komen. Ik vraag me af of we hier niet tegen bepaalde grenzen aanlopen. Iemand een theoretische onderbouwde stelling hieromtrent? Ik dacht zelf al aan golflengtes van "licht" om 4nm te kunnen belichten.
Momenteel werkt ASML aan EUV tools, waarvan er volgend jaar 6 geleverd gaan worden voor 22 nm. Aangezien ik, laat ik zeggen nauw betrokken ben, vergelijk ik deze technologische uitdaging veel complexer dan een missie naar Mars. Niet alleen het tool, maar ook de introductie ultra clean vacuum technologie (dat is iets anders dan ultra hoog vaccum) en importante andere zaken. Maar het gaat lukken. De golflengte van het gebruikte licht is 13.5 nm en met technologieen als double patterning kan je hiermee naar 6 nm. Echter er is ook al aangetoond dat we de golflengte van het licht nogmaals kunnen halveren, maar zo'n tool zal honderden miljoenen gaan kosten. Vind daar maar een business case voor.
veel complexer dan een missie naar Mars

Nou, laten we niet overdrijven, ik wil best geloven dat het moeilijk is maar het wandelen op de maan kostte 24 miljard (in de jaren 60), 400.000 mensen en 20.000 bedrijven en universiteiten.

Bemand naar Mars is beraamd op 500 miljard.

Ik geloof dat je nauw betrokken bent erbij maar dat ben je denk ik niet bij de ruimtevaart zo te lezen.

No 'fence.
Er is alvast één grens (met de klassieke transistor uiteraard) waar we sowieso niet over geraken : de grootte van een atoom. Nu hebben ze reeds geleiders die maar enkele atomen dik zijn.... veel kleiner zal dan moeilijk gaan natuurlijk.

Voor die lithografie klopt het dat er wel kortere golflengtes nodig zijn maar dat lijkt mij geen (theoretische) grens te vormen..
Dus [..] intell weet niets, heeft nog geen baanbrekend werk verricht, en denkt potentieel dat te mogelijk te kunnen realiseren ....
almet al boel speculaties die gedaan worden, met als conclusie; wet van moore klopt voorlopig nog :?

[Reactie gewijzigd door himlims_ op 24 augustus 2009 16:52]

en de aandeelhouders en andere geldschieters zijn weer even tevreden gesteld met dit positieve praatje. :)
Daar komt het volgens dit artikel wel op neer ja.
Ze hadden ook gewoon kunnen zeggen dat ze denken dat de wet van Moore tot 2022 stand zal houden, maar dat klinkt wat minder nieuwswaardig. :+
Ik denk dat ze al redelijk op weg zijn of wel mogelijkheden zien waarmee hun doel te realiseren is, vandaar ook het onderstaande:
Het bedrijf kan dan ook nog niet zeggen welke materialen het gaat gebruiken. Wel gaf de chipfabrikant toe dat de uitdagingen op het gebied van lithografie, het ontwerp en de integratie van materialen groter worden.
Dat is veel te kort door de bocht. Achter de roadmaps van Intel zit veel meer dan even de wet van Moore doortrekken. Dat heeft het verleden al lang laten zien. Die roadmaps van Intel kloppen meestal wel.

Natuurlijk is het zo dat hoe verder je in de toekomst kijkt, des te vager de plannen worden, maar dat is altijd zo met dit soort dingen. Reken er maar op dat ze tot 2012 precies weten wat ze gaan doen, tot 2014 ongeveer en daarna zal het vager worden.
Er stond eergisteren meen ik een verhaal over IBM en DNA nanotubes de praktijk is er nu al, massa productie nog niet.
ze hebben in ieder geval wel ambities
Als AMD een groter marktaandeel had dan waren we allang al voorbij de 16nm en was die technologische doorbraak er al geweest.

Die technologische doorbraak komt pas als Intel een paar miljard erin investeert omdat ze het nodig hebben, als Intel het niet investeert doet niemand het want behalve Intel heeft niemand dat geld.

Wanneer echter AMD het geld om te investeren had dan zouden AMD en Intel om en om het geld kunnen investeren en waren we veel verder dan de 45nm van nu.

Dit vind ik echt jammer want de kennis die opgedaan wordt bij dit soort productie technieken kan voor veel meer dingen gebruikt worden dan alleen CPU's.

En uiteindelijk zou de mensheid een stap verder zijn geweest in zijn technologische ontwikkeling.
AMD? Dacht je dat echt? AMD is een kleine speler, en heeft maar een fractie van het marktaandeel van Intel en andere bedrijven hebben. Miljardenbedrijven als Intel, Samsung, Texas Instruments en Toshiba besteden elk jaar een veelvoud van het geld dat AMD in research steekt. Intel loopt al jaren voor op elke andere chipfabrikant omdat ze miljarden in R&D steken, en jij denkt dat AMD daar invloed op heeft?
Lezen a.u.b.

Ik zeg ALS.

Bovendien heb je blijkbaar ook geen verstand van de CPU markt.

Toshiba, Samsung, Texas Instruments, Philips enz. enz. stellen allemaal niks voor vergeleken met AMD als je kijkt naar de grootte van de CPU''s.

AMD bouwt CPU's met honderden miljoenen transistors.

Dat kan alleen op een goedekope manier als je een moderne fabriek hebt die Miljarden kost en met 300mm wafers kan produceren.

Het enige wat AMD tegenhoudt is te lage inkomsten, die inkomsten zouden hoger zijn ALS AMD een groter marktaandeel had waardoor ze elke 2 jaar net als Intel een grotere fabriek konden bouwen die dan weer met modernere proces technieken kon produceren.

Dit zou Intel vervolgens onder druk zetten om ook sneller met een nieuwe procestechniek te komen enz enz.

Dat AMD nu klein is heeft in het voorgestelde scenario helemaal niets mee te maken.
.... Hij heeft het dan ook over halfgeleidertechnologieen. De basis van een CPU.

Al die bedrijven die jullie opnoemen + IBM, TSMC e.d smijten jaarlijks minstens evenveel als intel tegen R&D.

Jij bent degene die hier de bal goed mis slaat.
Er is momenteel een gigantische concurrentie in de halfgeleidermarkt, en die zit VEEL, VEEL complexer ineen dan AMD vs Intel.

[Reactie gewijzigd door BieBiepGTR op 24 augustus 2009 18:40]

Dan reageert hij op de verkeerde persoon.

Intel en AMD zijn de enigen die de markt echt vooruitduwen door de grenzen van wat natuurkundig mogelijk is opzoeken.

Er zijn een aantal bedrijven die nu een beetje op gang komen zoals TSMC en Toshiba maar ondanks de felle concurrentie tussen die bedrijven aan de ene kant is de concurrentie niet zo hevig als bij AMD en Intel aan de andere kant.

Wat ik bedoel is, stel je eens voor dat AMD 50% van de CPU markt in handen had.

Dan had AMD de concurrentie veel meer verhevigd dan al die andere fabrikanten.

Je ziet een merkbaar verhoging van de tempo wanneer Intel in het nauw zit.

Kijk naar de Core2 CPU's die Intel heeft moeten ontwikkelen onder druk van AMD.

Op dit moment hadden we allang al 16 core CPU"s als AMD meer geld had te besteden dat is gewoon bijna gegarandeerd.
Sorry maar jij bent hier toch niet op de hoogte hoor. Je onderschat zeer duidelijk partijen zoals IBM en TSMC door je scheel te kijken op het belachelijk kleine marktje van CPU's in de totaalmarkt van duizenden verschillende producten. Intel kon in die markt zelfs niet mee en heeft alles van hun ARM verkocht omdat ze er geen zin meer in hadden.

C2D is overigens een resultaat voortgekomen uit de pentium mobile. Dat onderzoek waren ze al voor het falen van de p4 begonnen met ook de bedoeling om er uiteindelijk desktopcpu's van af te leiden.
Zelfs met 50% marktaandeel zou AMD niet hetzelfde kunnen want ze zijn niet op evenveel markten actief als Intel waardoor ze bij slechte resultaten meteen zwaar moeten inbinden op onderzoek. Wat dus ook is gebeurd nadat ze K8 maar niet voldoende geproduceerd kregen. We moeten bidden dat AMD nooit hetzelfde gaat doen bij de gpu's als het eens tegenzit, NVIDIA is pas een tiran op prijsstelling.
Ik denk dat jij juist niet op de hoogte bent van wat er speelt in de CPU markt.

Je hebt het over Intel die ARM en dergelijke verkoopt.

Wat denk je dan van IBM die Cyrix verkoopt?

AMD gaat door met dat weinige geld en maakt er dan toch nog een success van.

Dat vind ik een veel en veel grotere prestatie, elke zichzelf respecterende Tweaker zou dat in moeten zien en ziet ook in hoe belangrijk AMD is.

AMD zou met zelfs een 40% marktaandeel Intel vermorzelen, vandaar ook dat Intel dit koste wat kost wilt voorkomen.

De kleinere processors die in TV's, handhelds, auto's en dergelijke worden gebruikt zijn wel een grote markt maar duwt niet de grenzen van procestechnologie.

Jij staart je blind op de rest van de markt terwijl ik juist het over de technologische ontwikkelingen heb die het mogelijk maken van hogere kloksnelheden en lagere lekstromen mogelijk moet maken.

Als er een technologische doorbraak komt zoals het gebruik van Grafeen of Koolstofnanobuizen zal Intel jammer genoeg de eerste zijn die het gebruikt in massaproductie en niet vreemd genoeg IBM of al die andere fabrikanten die meer geld hebben dan AMD.

De omvang van AMD heeft toch niets te maken met of ze wel of niet eerder kunnen zijn dan de rest van de halfgeleider industrie, het is vink ik alleen jammer dat hun niet Intel nog harder op hun staart kunnen trappen.
Nee, sorry Dark_man, jij maakt jezelf echt belachelijk. IBM's POWER CPU is sneller en groter dan Intel en AMD's CPU's. ARM daarentegen verslaat de x86 niet op pure snelheid, maar juist op efficiency en kosten. De verdienste van Intel en AMD is dat ze voor minder dan €250 euro en minder dan 100W een snelle desktop CPU kunnen leveren.

En de reden dat AMD als kleine speler zo efficient kan zijn is juist die kleine schaal. Intel was ten tijde van de Athlon en de 1GHz race simpelweg te log. De ingenieurs en de managers praatten simpelweg langs elkaar heen.
En de reden dat AMD als kleine speler zo efficient kan zijn is juist die kleine schaal. Intel was ten tijde van de Athlon en de 1GHz race simpelweg te log. De ingenieurs en de managers praatten simpelweg langs elkaar heen.
Daarom is een groter marktaandeel voor AMD nog niet slecht, alleen tot welke grootte zou dat voordeel blijven. Enerzijds heeft AMD intern korte communicatielijnen, kortom een efficiënte organisatie, anderzijds profiteert Intel van efficiëntere productie door schaalvoordelen.

De huidige verdeling is echter te extreem, waardoor Intel machtsmisbruik kan maken.
De meeste consumenten/werknemers denken als kuddedieren. Mensen willen er graag bij horen en kopen ook enkel dat wat nummer 1 in de hitparade staat en gaan dat mooi vinden. Stond datzelfde niet in de hitparade, dan vinden de meeste mensen het foeilelijk. Net zoals velen geen eigen smaak hebben, hebben ze geen eigen inzicht en kopen enkel wat het bekendste is: Één merk processor (intel), één merk OS (ms windows), één merk geluidskaart (soundblaster), één merk Officepakket, één merk ... zonder check of dat de beste keus of de juiste waarheid is. Een vergelijking trekt zich met de bijbel: Er is één God, en de weg naar het leven is smal en moeilijk begaanbaar maar de meesten kiezen de brede en makkelijk toegankelijke weg.

Los van het markaandeel van AMD is enkel een kleiner marktaandeel voor Intel met meer spelers een goede oplossing. Wat voor de ene persoon de beste keus is, is dat niet noodzakelijk voor de ander (laat staan voor alle anderen) daarom is keuze goed. Ik denk dat het optimum waarschijnlijk ligt rond vijf tot zeven spelers, echter slechts drie of vier zou ik ook al mooi zijn. Voor meer, zouden andere platformen waarschijnlijk eerst een even groot belang moeten krijgen als x86 nu heeft op de mainstream desktop/laptop/nettop/... markt. Met Intel, AMD, Via, nVidia, IBM (Cell), Arm kom ik dan al snel op zes, en dan mis ik zeker nog een paar cpu's gebruikt in telefoons.
Als er een technologische doorbraak komt zoals het gebruik van Grafeen of Koolstofnanobuizen zal Intel jammer genoeg de eerste zijn die het gebruikt in massaproductie en niet vreemd genoeg IBM of al die andere fabrikanten die meer geld hebben dan AMD.
Die doorbraken komen er niet door Intel of AMD. De nieuwe technieken voor het eerst op grote schaal gebruiken gebeurd niet door Intel of AMD. Ze lopen er net op achter waardoor ze een goedkoper product kunnen leveren, dezelfde strategie van AMD tegenover Intel om hetzelfde aan lagere prijzen te kunnen verkopen maar gewoon een jaartje later.
Maar het is duidelijk dat er 10mensen het je mogen proberen uitleggen, Intel en AMD zijn blijkbaar de koningen van Si en iedereen danst naar hun pijpen.
Rizon, hier ga je te kort door de bocht.
Veel technologië worden op universiteiten ontwikkeld en zijn dan soms voor anderen toegankelijk. Ook bij grote bedrijven (IBM, Philips, ik noem er geen meer omdat van de andere uit genoemde lijstjes niet weten of ze fundamenteel onderzoek doen) worden soms technieken ontwikkeld die ze zelf niet gebruiken en dan beschikbaar komen voor anderen. In zoverre heb je gelijk.

Sommige doorbraken komen van leveranciers zoals ASML en straks Global Foundries.

Het is echter volslagen onjuist om te stellen dat technieken die beschikbaar komen gelijk door Intel gebruikt gaan worden en pas een jaar later "als ze goedkoper geworden zijn" door AMD. Als de technologie van extern komt, dus beschikbaar is voor beiden, dan zullen ze er beiden gebruik van maken, mits het ook voor beiden zinvol/lucratief is. Technologie die gepatenteert is wordt ook niet gewoon een jaartje (of twee) later al goedkoper. Daar gaat echt langer overheen, en echt goedkoper wordt het pas na twintig jaar als het octrooi vrijvalt.

Als AMD een jaar na Intel met een vergelijkbare techniek komt (of omgekeerd) dan kan dat twee oorzaken hebben:
1) men heeft een licentie genomen Daaraan vooraf zijn onderhandelingen geweest, en daarna heeft men moeten uitewerken hoe de technologie in het eigen product te verwerken. Dat heeft dan een jaar gekost.
2) men heeft een jaar onderzoek gedaan naar een manier om hetzelfde te bereiken zonder het patent te schenden. Vergelijk AMD-V en Intel-VT, vergelijk Speedstep en Cool&Quiet (en PowerNow!)

Een heel mooi voorbeeld van het laatst, hoe men kunstgrepen uithaalt om patenten te omzeilen is de Voïgtländer Superb. Dit is een tweeoog spiegelreflexcamera uit 1935. http://de.wikipedia.org/w...Voigtlaender-superb-2.jpg
Om de patenten die Rollei had op technieken in hun tweeoog reflexen Rolleiflex en Rolleicord niet te schenden, moest men bij Voigtlander allerlei originele constructies bedenken. Het resultaat was een voor die tijd uitstekende camera die nu onder vezamelaars nog steeds geliefd is. Dat geld trouwens ook voor de Rollei's.
http://de.wikipedia.org/w...=Datei:Rolleicord_sst.jpg
Voorbeeld van Rolleiflex, maar van een van de laatste series (na jaren 60)
http://de.wikipedia.org/w...tei:Rolleiflex_camera.jpg

[Reactie gewijzigd door BeosBeing op 25 augustus 2009 16:44]

Deels gelijk. Jij vind dat Dark_man Intel onderschat. Ik weet niet of dat zo is maar zijn argumenten kloppen wel. De markt van CPU's is op het geheel inderdaad belachelijk klein. De andere fabrikanten zijn echter niet zo gek om daar in te springen.

Intel is op de markt van cpu's groot enkunnen daardoor in die markt voordeel behalen waar een ander bedrijf, zeker die uit de genoemde lijstjes, als die daarin zou willen stappen dat niet kan (Amd, Via en nVidia mischien uitgezonderd, omdat die al raakvlakken daarin hebben).

Intel is ook in andere markten groot. Dat ze dan in sommige daarvan, door gebrek aan schaalgrootte niet mee kan is niet onlogisch. Daarvoor verwijs ik naar de argumenten van Darm_man. Dat ze vervolgens de activiteiten in die markten verkopen is vanuit het oogpunt van rentabiliteit niet meer dan normaal.

C2D is inderdaad een doorontwikkeling op de Pentium-M die weer een doorontwikkeling was van de Pentium III, en dat ze daarmee voor het falen van de P4 zijn begonnen is ook niet meer dan logisch, want de Pentium-M werd steeds naast de P4 gevoerd als energiezuinige processor voor notebooks. Dat heeft met het falen van de P4 niets te maken. Bij gelijke klokfrequentie was de P3 altijd sneller als de P4 het probleem was echter dat destijds de P3 niet meer hoger geklokt kon worden en de P4 wel, en met gemak. Toen de bijwerkingen van het steeds hoger klokken van de P4 te groot werden en de problemen met de P3 door o.a. kleinere productieprocessen waren verholpen, was de doorontwikkelde P3 weer de betere.
Intel had kunnen weten dat de P4 slechts tijdelijk soelaas kon bieden, echter men moest tegen de Athlon (XP) concurreren.
Het was echter wel handig voor Intel dat dit ernaast doorontwikkelen is gebeurd omdat ze daarmee zo verder konden toen de P4 en Pentium D werden uitgefaseerd.

Iets soortgelijks hebben ze gedaan met als resultaat de Atom, die echter financieel natuurlijk niet zo'n success is als de C2D, maar dat komt mischien nog. Zo zie je dat het voordelen heeft om groot te zijn waardoor je kunt doorontwikkelen aan branches die mischien niet of op korte termijn niet winstgevend zullen zijn. AMD heeft die mogelijkheden niet en zal keuzes moeten maken en risico's moeten nemen, en dat hebben ze gedaan, ondermeer met door 3DNOW!, NX, AMD64 en AMD-V te ontwikkelen in plaats van alleen licenties te nemen op MMX, SSE(t/m4) en Hyperthreading, en vooral bij AMD64 heeft dat vruchten afgeworpen. Een tweede voorbeeld van keuzes maken en risico's nemen is het onderbrengen van de productie in een apart gefinancierd bedrijf.

AMD is inderdaad niet op zoveel markten actief en zou bij slechte resultaten mischien moeten inbinden op onderzoek. Als ze dat niet doen, maar gewoon doorzetten is dat dapper en nodig want door het onderzoek niet door te zetten ga je achterlopen op de concurrentie. Gelukkig is AMD nu ook actief op de gpu-markt, maar het blijft een smal gebiedje. Door je productie te spreiden over meerdere markten loop je minder risico, maar je moet wel binnen je specialiteit blijven. Zou AMD nu opeens koelkasten of hifi-systemen gaan bouwen, dan wordt dat een flop, geluidskaarten chips zou mischien weer wel kunnen en dan inderdaad later hifi-systemen (als die markt dan nog bestaat, want dat discrete geluidskaarten is ook zo goed als passé.)

Hoe belangerijk AMD is, denk even na wat Intel zou doen als AMD niet meer bestond:
Zoals elke monopolist: Prijzen verhogen. PC's waren altijd schribarend duur, tot en met de komst van de Pentium. Intel koos niet voor niets pas vanaf toen die naam in plaats van het niet te beschermen codenummer 80x86, er was serieuze concurrentie gekomen. Uiteraard is de prijs van de cpu slechts een klein deel van die van een pc, maar iets soortgelijks heeft zich op andere markten voorgedaan: Eerst bestond er een merk geluidskaarten: Soundblaster. Toen kwamen er fabrikanten bij en concurrentie en iedere pc kreeg een geluidkaart. Toen dat een vast onderdeel was werd het zo goedkoop dat het door alle fabrikanten werd geïntegreerd in het moederbord en verdwenen de fabrikanten van losse geluidskaarten weer behalve de bekendste en de professionele. Er is nog wel concurrentie op geluidschips, maar daar wordt de keus gemaakt door de moederbord-fabrikanten. heeft zich op de pc-onderdelenmarkt ook voorgedaan, geholpen door grotere productieaantallen.
Pas na de 1e pentium is de prijs van een pc, aanvankelijk per generatie, gigantisch gaan kelderen.

Of AMD met 40% marktaandeel Intel zou vermorzelen is de vraag. Mischien wel als AMD net zo hard blijft proberen te verbeteren, en Intel terug op z'n gat gaat zitten omdat de Core i7 en i5 zoveel beter zijn. Echter net zoals Intel met de P4 kan miskleunde, kan AMD dat ook en dat zou voor AMD wel eens funest kunnen zijn.

Doordat AMD relatief klein is kunnen ze nu op sommige gebied niet meekomen. Ze profiteren minder van schaalvoordelen. Daarnaast kunnen ze te weinig R&D doen in fundamenteel onderzoek, wat IBM of die andere groten wel kunnen. De R&D van AMD is voor een groter deel direct praktisch toepasbare oplossingen. Op langere termijn, nl als de huidige productietechnieken geheel achterhaald zijn is dat mischien funest.
Intel en AMD zijn echt niet de enige die opzoeken wat natuurkundig mogelijk is. Het zijn overigens niet de grootste klanten van ASML. Samsung en Toshiba kopen veel meer high-end tools dan die Intel krentenkakkers.
Wel de enigen die het doen in massaproductie en in betaalbare producten.

En niet producten die in high end apparatuur gebruikt worden of voor duizenden euro's verkocht worden.

En laat dat nou net het punt zijn waar high-tech producten nut hebben, als jan met de pet het kan betalen.

Als je een Bill Gates moet zijn om 16nm producten te kopen heeft het natuurlijk allemaal weinig nut.
Er bestaan tig meer gsm's dan pc's.
Elk moederbord heeft een veelvoud aan ic's en meestal 1 cpu.
Elk huishouden heeft meer ic's in een microgolfoven dan aantal cpu's.

Dat zijn slechts 3producten in de goedkope massaproductie en elk apart komen ze veeltalliger voor dan enkele cpu's.
Al die bedrijven die jullie opnoemen + IBM, TSMC e.d smijten jaarlijks minstens evenveel als intel tegen R&D.
Alleen zitten die partijen in veel lucratievere markten dan consumer CPU markt.

Er zijn maar twee markten waarbij geregeld halfgeleiders onder producten kosten worden verkocht dat zijn CPU en memory markten.
Er is momenteel een gigantische concurrentie in de halfgeleidermarkt, en die zit VEEL, VEEL complexer ineen dan AMD vs Intel.
En die markt is vele malen groter dan CPU & memory markten bij elkaar.

Als je ziet hoe veel moeite AMD maar ook verschillende memory producenten hebben om te kunnen overleven is het haast vanzelfsprekend dat de "slimmere" spelers zich niet op deze markten begeven.
Bovendien heb je blijkbaar ook geen verstand van de CPU markt.
Wat maakt de CPU markt uit? Intel heeft misschien 10-15 procent van de totale chipmarkt in handen, en dat is inclusief alle niet-CPU chips die Intel bakt. CPU's zijn helemaal niet de driver van schaalverkleining in de semi-industrie. Geheugen is minstens net zo belangrijk, en loopt ook altijd voor op CPU technologie.
Toshiba, Samsung, Texas Instruments, Philips enz. enz. stellen allemaal niks voor vergeleken met AMD als je kijkt naar de grootte van de CPU''s.
En wat dacht je van Cell? Niet complex genoeg voor je? En als we naar de pure play foundries gaan kijken kom je bij TSMC al snel AMD en NVIDIA tegen, die chips maken die vele malen groter zijn dan een Intel CPU. G200 heeft twee keer zoveel transistoren als Nehalem (1.4 vs 731 miljoen), terwijl Nehalem op een kleiner procedee is gebakken. G200 is al weer meer dan een jaar oud, en G300 (die op ongeveer dezelfde grootte wordt gebakken als Nehalem) gaat ongetwijfelt nog meer transistoren gebruiken. Zelfs G80, uit 2006, had al 680 miljoen transistoren.
Oh, en laat ik FPGA's natuurlijk niet vergeten. Wat dacht je van Altera's Stratix IV? 2.500.000.000 transistoren. Dat is bijna 3,5 keer zoveel als Nehalem.
Dit zou Intel vervolgens onder druk zetten om ook sneller met een nieuwe procestechniek te komen enz enz.
Intel is al jaren marktleider in de semi-markt. Intel staat er om bekend dat ze de grootste, de snelste, de beste zijn. De duimregel is dat zelfs de beste concurrent altijd 6 maand achter ligt op wat Intel doet. Een meer controversiele regel zegt zelfs dat Intel's vorige generatie procedee vergelijkbaar is met de huidige generatie van de concurrent, al weet ik zelf niet of ik dat wel helemaal geloof. Jij denkt echter dat Intel zich inhoudt? Jij denkt dat Toshiba, TI, Samsung, de IBM fab-club allemaal samen niet genoeg concurrentie bieden en dat Intel een beetje zit te flierefluiten tot ze "echte" concurrentie krijgen? Waar gaan die miljarden (letterlijk miljarden) aan Intel process R&D geld dan naar toe?
Toshiba, Samsung, Texas Instruments, Philips zijn groten, investeren meer in R&D als AMD, maar op ander gebied. Het zijn wel allemaal halfgeleiders, transistoren, processors, maar die zijn van een heel andere orde van grootte en complexiteit als computer-cpu's en gpu's. Intel maakt echter veel meer als alleen cpu's en gpu's.

In principe hebben jullie dus beide deels gelijk.

Alleen Sun en IBM zijn mischien deels te vergelijken met Intel in dat opzicht omdat die ook cpu's maken (Sun de SPARC UltraSparc series enz, IBM de Power-serie, RS64, PPC, Cell, Broadway, Xenon enz)
Die technologische doorbraak komt pas als Intel een paar miljard erin investeert omdat ze het nodig hebben, als Intel het niet investeert doet niemand het want behalve Intel heeft niemand dat geld.

Wanneer echter AMD het geld om te investeren had dan zouden AMD en Intel om en om het geld kunnen investeren en waren we veel verder dan de 45nm van nu.
Als Intel nou eens een paar miljard investeert in AMD? ;)
Gaan ze zelf over het huidige deel wel een boel minder verdienen natuurlijk.
En ze mogen natuurlijk geen zeggenschap krijgen.
Vraag: de wet van Moore is toch dat het aantal schakelingen iedere 2 jaar verdubbeld? http://nl.wikipedia.org/wiki/Wet_van_Moore
Is dat sowieso niet nog een lange tijd houdbaar door het opvoeren van het aantal cores?
Met de bijbehorende toename in rekenkracht natuurlijk, door intelligente algoritmes, want het aantal schakelingen kan nooit een doel op zich zijn.
De Wet van Moore is economisch, en dus praktisch, alleen haalbaar als ook het aantal schakelingen dat op een gegeven oppervlak iedere 2 jaar verdubbeld. En daar is dus dat kleinere proces voor nodig.
En erger nog, het blijk dat de Wet van Moore eigenlijk alleen opgaat als het wereldwijd aantal verkochte transistoren sneller dan elke twee jaar verdubbeld. Dan genereert de ontzettende cashflows waarvan alle research betaald moet worden.

Bij die aantallen moet je niet alleen denken aan PC CPU's. De 3 miljard mobiele telefoons bevatten elk ook miljoenen transistoren, om maar een ander grootverbuiker van transistoren te noemen.
Precies, het is dus eigenlijk geen "wet van" maar de "uitspraak van Moore". Een wet staat vast en dit zeker niet.

[Reactie gewijzigd door Warmetuuter op 25 augustus 2009 09:06]

Het aantal cores levert niet altijd een lineare verhoging van de snelheid op als je maar een paar core's op de CPU gooit en verbindt met een trage communicatie bus.

Dat is een verspilling van silicium.
Volgens intel is er na 11nm al een doorbraak nodig, ze hebben daan nog geen techniek voor, theoretisch weten ze hoe ze 16nm en 11nm zouden kunnen maken, nu nog in de praktijk brengen en kijken of het mogelijk is om er complexe chips mee te maken.

Maar 8, 6, en 4nm hebben ze geen idee hoe ze dat moeten gaan realiseren. Is dus niks meer dat ze de lijn doortrekken van de resultaten van het verleden. Dit bericht van 4nm is gewoon een reclame stunt om wat aandacht te krijgen, imo
2022... is 13 jaar later. In 13 jaar kan je een hoop onderzoek doen. Denk wel dat ze 4nm gaan halen; ze verzinnen wel wat.

Het lijkt echter wel dat ze juist naar die wet van moore toewerken. "owjee, we lopen achter aan de wet van moore, we meoten harder werken." of juist "ah, we lopen voor. Nu kunnen we ff rusten." :P

Niet dat het mij uitmaakt; laat ze maar lekker door kloten. Zolang ze maar betere chips gaan maken want wil GTA IV spelen op hoogste settings :+

En natuurlijk wil een spel zien met realistisch water, realistisch stof en prachtige physics...

Ik wil dingen uit elkaar zien scheuren en dan ook echt scheursporen zien; Ik wil kleding soepel zien wapperen in de wind; ik wil een kogel zien die een rond gat maakt in een plaat metaal en daarbij een deel van het metaal verbuigt zonder gebruik van een simpele texture met een zwarte vlek/put erop.
Maar waarom denk je dat? Ingenieurs weten dat we geen 0,22 nm gaan halen, ook al zijn we van 2200 nm (circa 1990) naar 22 nm (vandaag) gegaan. Het simpele probleem is dat atomen groter dan 0,22 nm zijn. Weliswaar zijn ze geen 4nm groot, maar op dat punt begint de grootte van de atomen zelf toch al bezwaarlijk te worden.
Er zijn dan nog inderdaad wel een aantal revoluties nodig: o.a de lithografie maar ook het materiaal zal niet meer volstaan.

Hoe kleiner alles wordt hoe meer men 'last" krijgt van de kwantumfysica. Die geleiders in deze chips liggen zo dicht bij elkaar dat er geregeld elektronen tunnelen van de ene geleider naar de andere geleider. Zo krijg je effectief lekstromen die de werking van de transistor storen. Nu wordt er druk onderzoek gedaan naar stoffen die dat tunnelen zoveel mogelijk kunnen voorkomen....
Ik denk dat ze met die ontwikkelingen richting 4nm ook wel waardevolle dingen zullen ontdekken die prima toegepast kunnen worden op de toekomstige Quantum-CPU's.

Oftewel, tegen de tijd dat die-shrinks niet of nauwelijks meer mogelijk zullen zijn, ze echt nog wel een paar truukjes zullen uithalen om het nog wat verder te rekken, en tegen die tijd zullen Quantum CPU's hun intreding beginnen te maken in de consumentenwereld.
Hopelijk gaan de clockspeeds, cache's en bussen significant omhoog na 32nm, want uiteindelijk zit vrijwel niemand te wachten op een CPU met 3000 cores die allemaal op 3ghz lopen en allemaal 4mb cache hebben (misschien wel interessant voor GPU's, maar da's een ander verhaal.)
Programma's schrijven die 4 cores optimaal gebruiken is al moeilijk genoeg en hoe groter het aantal cores hoe minder de prestaties schalen t.o.v. het aantal cores, dus hopelijk krijgen we snellere cores ipv. gewoon meer.
Je moet niet altijd elke instructie verplicht splitsen, als je zorgt dat verschillende instructies worden verspreidt ben je ook al multicore bezig.
De programmeertalen zullen meegaan om het beter te gebruiken, zoals je bij GPU's ziet eigenlijk. Er is al voldoende onderzoek geweest en developers lijken niet simpel over te zetten op een multicore werkwijze. Hoewel onze hersenen niets anders doen, blijken we zelf niet in staat om onze werkwijze aan te passen.
kleine kans, eerder dat ze op hersens gaan lijken, lage clock, veel processing units
Dat design functioneert al miljoenen jaar perfect.
Makkelijker op een slide te plempen dan te doen neem ik aan. 4nm is wel belachelijk klein en met 1024 miljard transistors ook wel heel erg extreem ingewikkelde processoren die ook wel heel erg lastig te testen zullen zijn. Met 8 miljard schakelingen lijkt het me al lastig om te bewijzen dat het ding dat je net gebakken hebt ook echt goed werkt maar als je daar nu een kleine 1016 miljard extra schakelingen aan toevoegt dan zou ik echt niet meer weten hoe je zo iets moet testen...

Knappe koppen daar bij Intel, IBM die ook al aankondigde goed op weg te zijn naar features kleiner dan 22nm het lijkt er dan toch op dat we nog wel even een tijdje door kunnen krimpen. Ik denk alleen dat het lithografische proces uit eindelijk toch op moet gaan houden en men in de richting gat van zelf assemblage of organische assemblage om met zulke kleine features te kunnen werken licht lijkt me op dat moment niet meer toereikend.
Over dat testen: daar vinden ze bij Intel ook nog wel een grote doorbraak voor. ;)
ag er is niemand die kan controleren hoeveel transistors er op de cpu zitten. Naar mijn geweten kan niemand tot 1 miljrd tellen laat staan 1000 miljard. Ze kunnen alles wel beweren maar dat maken ze mij niet wijs

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True