Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 40 reacties
Bron: X-Bit Labs, submitter: T.T.

X-Bit heeft een aantal videofragmenten van EE Times bekeken en heeft daaruit op kunnen maken dat AMD zijn negende generatie processors op 0,09 micron zal bakken. EE Times publiceerde een videointerview met Fred Weber van AMD en daarin werd onder andere het bovenstaande duidelijk. Overigens zal men tijdig overschakelen op een 0,065 micron procédé, aldus de Chief Technology Officer Computational Products Group van AMD. Men is zelfs al bezig om tot een productieproces op 20nm te komen en de visie is dus duidelijk gericht op de toekomst. Halverwege 2005 moeten de K9-chips verschijnen en dat is meer dan drie jaar na de introductie van het Hammer-platform. De nieuwe Fab 36 in Dresden zal een belangrijke rol in het toekomstige productieproces gaan spelen, aldus X-Bit.

AMD Fab 30 cleanroom dude met wafer
Moderatie-faq Wijzig weergave

Reacties (40)

Ik heb weleens gehoord dat de chips die het meest in het midden zitten bij zo'n wafer dat je die het hoogst kan klokken. Klopt dit?
De reden hiervoor is te vinden in de zuiverheid van het silicium. Het silicium in het midden van de staaf is over het algemeen van betere kwaliteit dan aan de randen. Zoals Hacku3 zegt wordt de schijf ingedeeld in ringen etc bla bla.

Dat je een CPU hebt die uit het midden van de schijf komt wil niet zeggen dat je een CPU hebt die verder te klokken is. Dat een CPU een bepaalde snelheid krijgt van de fabrikant ligt puur aan de vraag van de markt en test die uitgevoerd worden.

[fictief voorbeeld]
Tegenwoordig heeft men een productieproces dusdanig goed onder de knie dat alle CPU's als 2600 MHz CPU bestempeld kunnen worden. Omdat er toch nog mensen zijn die een 2200+ willen hebben wordt deze CPU teruggeschroefd in snelheid. Puur om aan de vraag van de markt te voldoen.
[/fictief voorbeeld]

Wat een heel ander verhaal is, is de high-end processor. Dan gaan ze een CPU testen om te kijken wat de maximale snelheid is die gehaald kan worden terwijl de CPU toch aan de door de fabrikant gestelde criteria blijft voldoen. Voldoet de CPU niet, dan gaat men een stapje lager, dit herhaalt zich steeds tot de CPU goed blijft werken. Het zelfde gebeurt met de cache van de CPU werkt een deel van de cach niet, dan wordt deze uitgeschakeled en krijgt de core een andere naam. Het meest bekende voorbeeld is waarschijnlijk de de Celeron processor van Intel.
Dat klopt.
Een wafer wordt in ringen verdeeld.
Alle cores in de A rind halen de hoogste snelheid bv 2ghz.
De cores in de B ring halen dan maar bv 1.8ghz.
De C ring bevat dan de "gehandicapten", die halen dan maar bv 1.6ghz en waarvan enkel bv de helft van het cache werkt.
dat klopt wel en niet.
hoewel wat ze zegt over het algemeer goed op gaat word elke core toch appart getest op hoe ver hij te clocken is. een core uit the midden is namelijk niet altijd goed, en een core aan de zijkanten heeft niet altijd fouten in de cache.
In een vorig bericht stond ook dat AMD pas in de 2de helft van 2005 DDR2 zal gebruiken. Kan het zijn dat er pas vanaf de K9 DDR2 gebruikt zal worden en K8 enkel DDR?
K9 samen met DDR2 eind 2005. Lijkt me een goed plan.

DDR2 gaat volgens mij in 2004 nog maar weinig potten breken. In de eerste fase zal het erg duur zijn en afaik ook geen bandbreedtevoordeel hebben tov het huidige DDR. Het zal er ook van afhangen wat Intel er mee wil aanvangen, als zij het snel willen invoeren zal de acceptatie sneller gebeuren. Kijk maar naar de massa mensen die op de rambus trein gesprongen zijn.
Toch denk ik dat er wel moederborden komen die de k8 en ddr2 zullen ondersteunen. Zeker eind 2005 als de k9 nog niet te krijgen is /onbetaalbaar is.
Toch denk ik dat er wel moederborden komen die de k8 en ddr2 zullen ondersteunen. Zeker eind 2005 als de k9 nog niet te krijgen is /onbetaalbaar is.
Dat denk ik niet: de geheugencontroller zit bij de K8 immers in de core gebakken, waardoor de mobofabrikanten niet kunnen beslissen over het ondersteunde geheugen. AMD zou dus het ontwerp van de K8-core moeten aanpassen, wat niet evident is. Ze zullen dus waarschijnlijk wachten tot de volgende core (K9) om DDR2 ondersteuning toe te voegen. Het zou veel te veel moeite kosten om DDR2 ondersteuning aan de K8 toe te voegen, terwijl het in de eerste jaren waarschijnlijk toch geen prestatiewinst zal opleveren.
Je hoeft niet de geheugencontroller in de CPU te gebruiken. Een extern geheugen controller op de Hypertransport bus moet ook mogelijk zijn, al is het grote voordeel van de lage latency tijd dan weg.
of gewoon een northbridge gebruiken om die aan te sturen :+
Dat is het sowieso wel met DDR2 geheugen, want die reepjes kunnen nog steeds niet de lage latency aan die gewoon DDR aankan... daarmee zou een K8 processor uiteindelijk eerder trager worden dan sneller met het huidige DDR2 geheugen
Je hoeft niet de geheugencontroller in de CPU te gebruiken. Een extern geheugen controller op de Hypertransport bus moet ook mogelijk zijn,
800mhz keer 16bit = 12.8Gb/s = 1.6GB/s
dan how je dus niet erg veel geheugen bandbreedte over. en heb je dus al helemaal geen voordeel bij DDR2.


de core van de k8 is erg modulair. de ddr1 geheugen controler vervangen door een
een ddr2 geheugen controler kan zonder dat de hele core opnieuw ontworpen hoeft te worden.
het zou bijna zoiets zijn als een core maken met meer of minder cache erbij, of de hypertranceport bus vervangen door een snelere.
ja ze zijn wel optimistich, ik heb net op de universiteit geleerd dat je niet zomaar een chip kan blijven verkleinen, want als de afstanden te klein worden dan gaan de magnetische krachten (die ook zeer klein zijn) meespelen tussen componenten, wat dus meer kans op een productie fout oplevert ... ben benieuwd of het een beetje gaat lukken met dat verkleinen :)
daarvoor is dat nog niet direct voor de deur dat ze met dat productieproces beginnen. Op een paar jaar tijd wordt er vééél aan onderzoek gedaan ;)
Ja, idd. Maar 100 jaar geleden dachten ze ook dat een atoombom bouwen onmogelijk was. Het is gebleken dat dat niet zo is. Hiervoor moeten ze dus dingen onderzoeken om het toch kleiner te maken zonder dat er last is van "storing".
Oke, mischien uber noob vraag en een beetje offtopic, maar wat is die plaat die die vent in de handen heeft?
Dat noemt men een wafer.
Een chip wordt vervaardigd op een wafer. Dat is een ronde plaat die de basis vormt van vele chips. Die wafer is rond omdat als er substraten op worden gesmeerd, dat gebeurt terwijl die wafer in de rondte draait, zodat men een uniforme laag erop krijgt.
Na het bak process [ga maar zoeken op google, gebruik iets van 'how is a computer chip made' ofzo], als alle lagen van de chips die op de wafer moeten komen erop zitten/eraf zijn gehaald, dan worden de rechthoekige chips (dezelfde chip wordt een aantal keer op andere, naast elkaar liggende plekken, op die wafer belicht) uit die ronde wafer gesneden.
Daar komt dan ook het begrip 'yield' vandaan: het aantal werkende chips dat uit zo'n wafer wordt gesneden; een hoge yield betekent ook een lagere prijs.
Een grotere wafer betekent dan ook meer chips uit diezelfde wafer...wat betekent een hogere yield en dus een lager prijs voor die chip.
[ontopic]
Ik snap alleen niet wat deze foto toevoegt aan dit bericht. Het had net zo goed een 130 micron wafer kunnen zijn die die man daar vasthoudt. Ik ben alleen wel benieuwd naar de grootte van de wafers die AMD gaat gebruiken.

Hoe groter de wafer, hoe minder restmateriaal je hebt bij het uitsnijden van de chips, tel daarbij op dat een kleinere procédé voor meer chips uit een wafer zorgen, dan kom ik toch uit op een gunstige prijsstelling voor de consument :P

Ik zou alleen wel oppassen om niet gelijk met te kleine procédés te gaan werken. We hebben gezien wat voor problemen dat bij Nvidia heeft opgeleverd. ATI kon toen erg goedkope GPU's leveren omdat ze nog op 0,15 micron aan het bakken waren terwijl de conucurrentie veel problemen had met 0,13 micron
Voor de K9 zullen 300mm wafers gebruikt worden, maar op dit moment gebruiken ze nog 200mm.
Ik zou alleen wel oppassen om niet gelijk met te kleine procédés te gaan werken. We hebben gezien wat voor problemen dat bij Nvidia heeft opgeleverd. ATI kon toen erg goedkope GPU's leveren omdat ze nog op 0,15 micron aan het bakken waren terwijl de conucurrentie veel problemen had met 0,13 micron
Dat komt omdat een gpu veel complexer is dan een cpu.
Met een cpu heb je nooit zoveel problemen. In het begin zijn de yields wat laag maar dat is vlug opgelost.
Wat jullie beweren is inmiddels alweer achterhaald. CPU's zijn de GPU's in een hoogtempo aan het inhalen. De huidige CPU's, denk bijv. aan een P4EE, die maar liefst 170 miljoen!! transistors telt. Dit is dus 60 miljoen transistors meer, dan een Ati Radeon 9800! Het grote cachegeheugen speelt hierin natuurlijk een grote rol. Ter vergelijking, een Athlon 64 heeft "maar" 105 miljoen transistors.
Als GPU's complexer dan CPU's waren geweest, zouden ATi en nVidia niet in staat zijn geweest om in het huidige rappe tempo nieuwe cores op de markt te brengen. Ik geloof er niets van dat een GPU complexer is dan de huidige x86 processors met hun geavanceerde out of order execution en branch predictors.
zit daar dan ook geheugen bij ...

ik bedoel :

GeForce 4 ti 4200 ... 128 MB ??
Athlon XP 2000+ .... 1 MB (cache) ??
die 128mb zit niet op de core maar zijn aparte chips die om de core heen liggen.
meestal gewoon de zelfde soort chips die je ook op je systeem ram reepjes terug vind, alleen wat hoger geclocked.
kijk maar op je eigen kaart, zal je ze vast wel zien zitten, (of de heatsinks die erop zitten)
Is het niet zo dat een cpu juist veel complexer is dan een gpu?
Nee, een gpu is complexer, die moet nl pixel & vertex shaders en nog andere ingewikkelde zaken kunnen berekenen. Een gpu heeft ook veel meer transistoren dan een cpu.

(sla me dood als ik me vergis ;))
Nee. GPU's hebben veel meer transistoren dan 'gewone' CPU's. Ze hebben ook veel meer rekenkracht die ze helemaal gebruiken voor specifieke zaken. Shaders, FSAA,..

Om je een ideetje te geven:
GeForce 4 ti 4200 : 63 miljoen transistoren
Athlon XP 2000+ : 37.5 miljoen transistoren
De huidige CPU's, denk bijv. aan een P4EE, die maar liefst 170 miljoen!! transistors telt.
Aan dat is kennelijk te merken aan de yields, want ik heb hier in de regio nog nergens een P4EE aangeboden gezien...

Verder is de complexiteit van de CPUs idd veel verhoogt, denk maar aan de ingebouwde geheugencontroller en firewall van de Athlon 64. Natuurlijk is een GPU nog wat complexer; waarom denk je dat deze qua kloksnelheid zo achterophinken?
Wat jullie beweren is inmiddels alweer achterhaald. CPU's zijn de GPU's in een hoogtempo aan het inhalen. De huidige CPU's, denk bijv. aan een P4EE, die maar liefst 170 miljoen!! transistors telt. Dit is dus 60 miljoen transistors meer, dan een Ati Radeon 9800! Het grote cachegeheugen speelt hierin natuurlijk een grote rol. Ter vergelijking, een Athlon 64 heeft "maar" 105 miljoen transistors.
Ja 170 maar dat komt door de grote hoeveelheid L3 cache. Zo is het niet moeilijk he ;)

Daarbij zeggen transistors niks over de complexheid van een cpu of gpu.
Het is wel een feit: gpu's zijn complexer dan cpu's.
zit daar dan ook geheugen bij ...

ik bedoel :

GeForce 4 ti 4200 ... 128 MB ??
Athlon XP 2000+ .... 1 MB (cache) ??
inderdaad femme, ik denk ook dat men dit lichtelijk fout inschat..

transistor aantallen zeggen vrijwel niks over hoe complex een architectuur is
dan kom ik toch uit op een gunstige prijsstelling voor de consument
Dat zou inderdaad waar zijn indien de investeerings kosten in nieuwe fabs niet zou meeschalen.. Maar een huidige fab is duurder dan een fab die een paar jaar geleden werd gebruikt, en een fab die over 2 of 3 jaar wordt gebruikt zal weer veel duurder zijn dan fabs die nu worden gebruikt.
is het ook niet zo dat de chips in het midden van de wafer van betere kwaliteit zijn dan de chips uit de buitenkant? stepping heet dat geloof ik?
Dat is een wafer en daaruit worden de cpu cores gesneden.
zoiets heet een wafer, en al die vierkantjes zijn potentiele cores voor chips/procesoren :)

edit: danm, men is rap met antwoorden :P
Dit is altijd een leuke site om zoiets te vinden: http://www.howstuffworks.com en om op jouw vraag terug te komen:

http://computer.howstuffworks.com/euvl.htm
ah, een noob-vraag, zo heb ik er ook nog 1.
Wat is er nou precies 90nm (een transistor, de dikte van een laag, de breedte van een baan??)
wat ik altijd erg grappig vind aan die mannen in die pakken.. Ze zijn bijna helemaal ingepakt.. maar hun ogen en wenkbrauwen enzo niet.. Eik zou ie dan toch ook nog een beschermings bril moeten dragen want ook daar kan van alles opzitten/afvallen.. Van huidschilvers tot en met wimpers.. dus snap ik niet dat ze het pak nog aan trekken.. bovendien vraag ik me altijd af hoe ze die afdelingen schoonmaken.. want lijkt mij dat als je met je stofzuiger binnen je komt een super zwaar probleem hebt.
De mannen die echt met de wafers werken hebben een marspak aan. Denk hierbij aan de reclame van Intel een jaar of 5 geleden. Allemaal teletubies met een helmpie en perslucht op de rug :)
Als ze zo snel willen overschakelen 0.065micron overwillen, dan hoop ik dat ze bij AMD niet ook van die problemen krijgt met lekstroom zoals men nu bij Intel heeft... men is eindelijk een beetje de reputatie aan het kwijtraken van 'heethoofden'.

Maar AMD gaat goed de laatste tijd, zou dit dan het jaar van AMD kunnen worden?
AMD's SOI techniek zou de lekstroom een heel stuk minder moeten maken als bij intel het geval is.
maar er zijn al geruchten dat een AMD 90nm CPU iets meer stroom gaat verbruiken als zijn 130nm tegen hanger, alleen lang niet zo veel meer als bij intel het geval is.
Het maximaal vermogen voor het 90nm wordt op 105W geschat, de stroomsterkte rond de 80A.
MAAR dit is enkel voor de modellen hoger dan 2,6ghz.

Alles lager dan 2,6 zal minder verbruiken. Daar waar de 0.13 Opteron 2ghz nu max 89W verbruikt, zal de 0.09 Opteron 2ghz maar 50W verbruiken.

Die 105W is enkel voor 2,6ghz en hoger. (bv 3,5ghz)
Dat is een wafer met cpu's

K...was erg laat zie ik!

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True