Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 35 reacties
Bron: The Inquirer

Intel 300mm waferpan met Dothan poffertjesTerwijl Intel de markt voorbereidt op de overstap van 130 naar 90 nanometer, beweert The Inquirer dat de fabrikant problemen heeft met de toekomstige overstap van 90 naar 65 nanometer. Het gaat met name om de Jonah-core. Dat is de opvolger voor de op 90nm gebakken Pentium M 'Dothan', waarvan de lancering overigens met twee maanden uitgesteld is. Het grootste probleem dat 's werelds grootste chipfabrikant ondervindt bij de productie op 0,065µ klinkt bekend in de oren: het opgenomen vermogen zou te hoog uitvallen. Toch heeft Intel er naar eigen zeggen vertrouwen in dat het goedkomt door de vergelijking met de overstap naar 90nm te trekken: die bracht soortgelijke problemen met zich mee, maar uiteindelijk zijn de grootste euvels van de baan.

Moderatie-faq Wijzig weergave

Reacties (35)

Ik vraag me af wanneer het met de huidige vorm van produceren nu een keer afgelopen is. Op welk punt kunnen we niet meer kleiner en moeten we echt een radicaal nieuwe productiemethode ontwikkelen?
Ik denk dat binnen enkele jaren (5 a 10 jaar, zo niet eerder) de overstap naar nanobuisjes gemaakt zal worden. Ik weet er niet het fijne van, maar durf wel te zeggen dat schakelingen niet alleen 5 a 10 maal zo klein kunnen worden, maar ook veel efficienter.
Ik denk dat binnen enkele jaren (5 a 10 jaar, zo niet eerder) de overstap naar nanobuisjes gemaakt zal worden.
Bijna alle processoren die op dit moment verkocht worden zijn gemaakt volgens het 0,130 micron procédé. Zoals in dit artikel te lezen is kunnen we dit jaar de overstap naar 90nm verwachten. Zowel AMD (voornamelijk socket 939) als Intel (voornamelijk socket 775) zullen deze overstap nemen. Het verkleinen van het procédé is echter niet meer dan het verfijnen en tweaken van al bestaande technieken. Er worden wel nieuwe technieken toegepast, zoals strained silicon en SOI, maar dat kan men niet eeuwig blijven doen. Vervolgens is de overstap naar 65nm (2005 - 2006) onvermijdelijk. Daarna krijgen we misschien wel EUV-technologie waarmee men 45nm (2007 - 2008), 32nm 20nm, etc kan fabriceren.

Naarmate men een productiemethode steeds meer tweakt, is het van belang dat men methodes gebruikt om ongewenste bijwerkingen te voorkomen. Lekstroompjes is hier een voorbeeld van. Maar je moet ook denken aan de kosten van het produceren van het product, de prestaties, stroomverbruik, hitteproductie, etc.How EUV Chipmaking Works geeft een redelijk goede indruk over wat EUVL precies is en wat het doet. Deze techniek is de opvolger van Deep Ultraviolet Light en zal er waarschijnlijk voor zorgen dat silicon nog wat langer mee kan gaan.

Met de huidige vooruitzichten zou het wel eens tot 201x kunnen duren voordat we de eerste echte producten tegenkomen op het gebied van nanotechnologie. Er worden bijna elke maand wel redelijk belangrijke ontdekkingen gedaan, maar goede productiemethode die goedkoop is en ook nog eens het gewilde product kan produceren is er nog lang niet. Nanontechnologie zou inderdaad een goede opvolger zijn voor de huidige Silicon lithografie.
Ik weet er niet het fijne van, maar durf wel te zeggen dat schakelingen niet alleen 5 a 10 maal zo klein kunnen worden, maar ook veel efficienter.
Met de huidige silicon productie methode zullen we weinig vooruitgang boeken. Althans, in vergelijking tot nanotechnologie en molecular computation. Een nanotechnologie processor moet toch wel enkele duizenden keren beter presteren dan silicon processoren. Met molecular computation moet je denken aan rekenkracht die meer dan miljoenen keren meer is dan de rekenkracht van de huidige processoren. Molecular computation is, in tegenstelling tot nanotechnologie, een veld waar bijna niemand aan werkt. Hopelijk zal er een groei plaatsvinden in het aantal wetenschappers die zich bezig gaan houden met dit soort technologieen.
Ik heb geen idee wat de opvolger van Silicium gaat zijn. In nano technologie is namelijk nog nooit energie versterking aangetoond. Dat is wel een voorwaarde voor een werkend circuit. Zelfs theoretisch is het nog niet zeker of die nano buisjes dat kunnen.

Maar er is nog iets anders wat best interesant is. Nano circuits zijn per definitie onbetrouwbaar. Dat komt omdat je op een schaal werkt waar de klassieke mechanica niet meer geldt en het gedrag door de quantum mechanica beschreven wordt.
Hier wordt inmiddels aan gewerkt, want de huidige computer techniek is dan niet meer bruikbaar. Een interesante oplossing is dan neurale netwerken, waarin de grote redundantie voor betrouwbaarheid moet zorgen. Die techniek is afgekeken van de menselijke hersenen (die na een stevig avondje stappen wel zeer doet maar geen "page fault" genereerd). Het aardige is dat simulaties aantonen dat deze netwerken dankzij hun massale parralel structuur enorme snelheden halen. (Nee dit is geen AI, maar dat behoort wel tot de mogelijkheden)

Tien jaar lijkt me een beetje kort, maar we gaan het zeker memaken.
Carbon Nanotubes is niet het Nanotechnologische wonder waar iedereen op wacht.

Carbon Nanotubes is gewoon een simpelere maar uiterst effectieve en handige vorm van Nanotechnologie.

Deze vorm van Nanotechnologie is niet onderhevig aan de wetten van Quantum mechanica, zelfs vergevorderde vormen van Nanotechnologie hebben geen last van de nadelige werking van Quantum mechanische invloeden, dit komt doordat Nanotechnologie met de hedendaagse Natuurkunde te verklaren is.

Carbon Nanotubes is bijna zeker de opvolger van Silicium, het heeft zo ernorm veel voordelen dat het gewoon belachelijk zou zijn om het niet te gebruiken in de CPU industrie, het is gewoon de perfecte opvolger van Silicium.
Als je kleiner produceerd is er minder lekstroom, dus minder warmteproductie. Hierdoor kan de snelheid omhoog. Dus als je het zo bekijkt is het produceren op kleinere schaal een "eenvoudige" manier om een cpu sneller te laten lopen.
Juist niet. De lekstromen zijn groter bij een kleinere productie. Dat is net het probleem dat Intel heeft. Een te grote lekstroom met een te groot energieverbruik en een te grote warmte afgifte tot gevolg.
De eerstvolgende stap zal waarschijnlijk een meerlaagsprocede worden. Warmteontwikkeling wordt dan een nog groter probleem. De daarop volgende stap zal vermoedelijk atoomstapeling worden, dus chips per atoom opbouwen. Daarna moeten we Einstein weer tot leven zien te wekken, want dan zijn we door de huidige trucs heen.

Quantumprocessing ?
Uiteindelijk lossen ze dat toch weer op. Welke chipbakker kent geen problemen bij het overschakelen....
Alleen als er staat "The Inquirer" is er al de helft van de geloofwaardigheid af :z
Hetzelfde verhaal is terug te vinden in een iets meer betrouwbare bron. Zoals we daar zien, moet Intel de uitdaging aangaan om "Jonah" onder de 45 Watt te houden (Intels eigen doelstelling natuurlijk) maar uit het verhaal blijkt dat dat steeds moeilijker word naarmate de processen kleiner worden.
Identiek aan het verhaal van de Inquirer dus.
Volgens mij is het juist makkelijker om het kleiner te maken want kleinere schakelingen vergen minder stroom dus minder warmteontwikkeling. Maar als je de spanning (en dus indirect de stroom) te laag maakt dan krijg je teveel last van storing. Maar ze stoppen wel meer transistors op zo'n plak dan. En dat schiet dan niet op. Dan wordt het nog steeds te warm. En dus moeten ze de gulden middenweg zien te vinden.
Ja dat was vroeger ook zo, maar nu wordt alles zo klein dat de transistors dichter op elkaar geplakt worden. Ze worden kleiner, en de isolatorlaag wordt dan automatisch ook dunner, met als gevolg: lekstromen. Dat veroorzaakt natuurlijk veel van de warmteproductie..
Ook het feit dat 60 nm nog maar telbare atomen bevat (stuk of 100)... drom wordt het er niet makkelijker op. En ja lekstromen worden dan een groot probleem.
Ik heb toch altijd begrepen dat het met een kleiner procede de bedoeling was minder stroom door de chip te jagen, zodat er hogere kloksnelheden mogelijk waren.
Dat klopt, alleen heeft Intel last van lekstroom. Lekstroom onstaat als er tussen de transistoren onbedoelde en ongewilde stroompjes overspringen waardoor je rare dingen krijgt. Om dat tegen te gaan moet je meer voltage gebruiken maar het nadeel daarvan is, is dat de CPU veel warmer wordt. Je kan het vergelijken met het overklokken, om hogere snelheden te behalen moet je meestal ook het voltage verhogen om de lekstroom tegen te gaan.

IBM en AMD hebben dat opgelost (deels dan) door SOI te gebruiken, dat is een speciale laag waardoor het overspringen moeilijker wordt en er dus minder voltage nodig is. Dat het nut heeft laat IBM met de PowerPC CPU's zien.

Intel ziet in de huidige vorm van SOI niets en is met een iets andere variant bezig die straks gebruikt moet gaan worden. Of die iets andere techniek ook gaat helpen is dan pas te zien. Tot die tijd is het dus een beetje behelpen voor Intel.
Dat is ook wat ik heb gelezen, in dat artikel stond ook dat ze bezig waren met "nanotubes" dat is zoiets als "strained bucky-balls". Maar dat duurt nog wel ff voordat ze dat klaar hebben volgens de schrijver van dat artikel.

edit:
'k zie een paar post hierboven dat het "carbon nanotubes" genoemd wordt.
Lijkt me meer dat de lekstroom toeneemt als het voltage toeneemt (I = V/R). Het probleem van de lekstromen komt door de steeds dunnere lagen waardoor de weerstand afneemt en er dus meer stroom weglekt (vandaar SOI = Silicon On Insulator, ze zetten er iets tussen met meer weerstand waardoor minder lekstroom).

Er heeft hier ooit een heel artikel over SOI gestaan, waarbij ook over alternatieven werd verteld (SON, Silicon On Nothing van ik dacht Toshiba).
waarom gaat het altijd van 130 nm naar 90 nm en daarna naar 65 nm (en daarna naar 32 nm) zit daar een logica in? (is nl. hetzelfde bij ibm..) :?
Het is elke keer een halvering van het oppervlak. Een voorbeeldje met het opppervlak van een vierkant:
130nm x 130nm = 16.900nm2
halvering oppervlak = 8.450 nm2
Lengte 1 zijde = wortel uit 8.450 = 92nm

Volgende halvering oppervlak = 8.450 / 2 = 4225 nm2
Lengte zijde = 65 nm

46nm, 32nm, 23nm, 16nm, ....
Dat is dan wel het oppervlak van een schakel, het blijft toch nog een schakel op dat niveau??
Maar de oppervlak van de chip blijft vaak hetzelfde door meer transistors, meer cache ed.
Is er niet eerst een tussenstap mogelijk dan?
Jawel, dat is mogelijk. Dat kost een paar miljard en de problemen zijn precies dezelfde als met de overstap naar 65 nm, maar het is mogelijk.
Waarom blijven ze steeds geld kloppen uit huidige technologieën terwijl de opvolgers al staan te drummen? Mja, die vraag beantwoord zichzelf, geld dus. Zo lang je met de huidige metalen werkt, zal je een enorme warmteontwikkeling hebben, alleen al omdat koper/silicium/e.a. nog steeds een relatief hoge weerstand hebben.

Wanneer start men eindelijk met glasvezelprocessoren? Dan moet er geen electriciteit maar licht door de tubes gestuurd worden = passief gekoelde 5Ghz? COOL, letterlijk dan
Ik denk dat 'technische moeilijkheden' het sleutelwoord is :9

De processoren kunnen niet veel groter dan nu (omdat de lichtsnelheid ze dan zou beperken), en ook zijn er nog geen logica-elementen & 'lampjes' uitgevonden die geen stroom nodig hebben.
Het is niet de stroom die verbruikt wordt in de signalen die de meeste warmte opwerkt, maar de stroom die in elementen gelekt wordt.
Simpwel omdat de opvolgeres voorlopig alleen in luchtkastelen staan te drummen....

Een enkel werkende prototype schakeling in een labo is nog wel iets anders dan een complete cpu, die dan ook nog eens goedkoop gemaakt moet kunnen worden.
Problemen?

Tuurlijk hebben ze prblemen, Dat heet ontwikkeling !!

Als het zo makkelijk was dan zou het er al lang geweest zijn. De kunst is om die problemen op te lossen.

je zou dus kunnen zeggen:
INTEL : Specialist is het oplossen van CPU productie problemen.

Tuurlijk is het een probleem, en tuurlijk lossen ze het op. |:(
Kleine correctie:

Intel is een kei in het bedenken van problematieken en die dan op te lossen.

Het blijft de vraag of ze wel de goede problematieken bedenken. Ik blijf mij verwonderen over het verschil in ghz-en tussen Intel en AMD en het kleine verschil in performance.

Zoekt intel het niet gewoon in de verkeerde richting. Ben benieuwd wat er gebeurd als de probleemoplossende kracht van Intel wordt aangewend voor AMD's productontwikkeling.
Ze zoeken gedeeltelijk in de verkeerde richting (langere pipelines, hogere clock (>4ghz)

Maar aan de andere kant staan de pentium M en de Itanium (ok, das een server cpu, maar toch)
Allebei op een hele lage clock en toch goeie performance, het verbeteren van de core vind ik altijd een betere oplossing dan het langer maken van de pipelines (minder performance) om een wat hogere clock te halen (weer wat meer performance)

Overigens bedoel ik hier niet mee dat een 4 ghz prescott langzaam zou zijn, maar wel dat een 2,5hz Pentium M of Athlon64 em makkelijk inhaalt.
Het probleem bij deze procede's zal misschien niet de lijndikte en de materialen zijn, die bij de lijn gebruikt worden, maar de controle, van de lithorgrafie machines, die de bouwtekening van een pentium moeten gaan maken.

Probeer maar eens zonder lineaal een vierkant te tekenen. Dit gaat niet echt lukken, laat staan dat het mogelijk is om een gevanceerde tekening van verschillende lijnen te maken. Dit moet een lithografiemachine wel kunnen, om een pentium te kunnen maken.

Als de lijndikte dunner wordt, en de afstand tussen de lijnen steeds kleiner wordt, wordt het steeds moeilijker om recht te blijven, omdat de slingering in de laser gelijk blijft, terwijl de foutenmarge om binnen specificatie te blijven, steeds kleiner wordt.

Op deze schaal opereren is met een boeing 747 onder de erasmusbrug doorvliegen en ondertussen ook niet te pletter slaan in rotterdam.
Met een lithografie machine teken je niet. Het is meer projectie.
Indit geval gaat het om scanners wat meer lijkt op een copieer machine (alleen beweegt het object ook in tegen gestelde richting). En de vergelijking met een boeing 747 is correct alleen dan 2 vliegtuigen die elkaar in tegen gestelde richting op enkele centimeters passeren :)
Okeej, ik ga Intel helpen met het voorbereiden van de consument op de prescott.

OKEEJ, iedereen luisteren, willen jullie aub allenmaal jullie verwarming op zijn hoogst zetten??
Alvast ff wennen hoe het is om een Prescott te hebben :+
kleiner maken = wel meer weerstand maken R = V / I

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True