Onderzoekers maken wafer van grafeen

Onderzoekers van een Amerikaanse universiteit hebben een grafeen-wafer gemaakt die tot snellere chips zou kunnen leiden. Elektronen kunnen zich sneller in grafeen bewegen dan in silicium, wat hogere klokfrequenties in processors mogelijk maakt.

Grafeen staat bekend als een alternatief voor silicium in de halfgeleiderindustrie: eerder werden al schakelingen van grafeen gebouwd met kloksnelheden van 26GHz: het zou zelfs mogelijk zijn snelheden tot 1THz met grafeen te realiseren. Dat zou mogelijk zijn dankzij de hogere snelheid waarmee elektronen zich in grafeen kunnen bewegen: het elektronmobiliteit van de 'tweedimensionale' kippengaasstructuur van koolstofatomen in grafeen ligt een factor tien hoger dan in silicium.

Hoewel onderzoekers al met succes schakelingen van grafeen hebben gebouwd, kon grafeen vooralsnog niet als alternatief voor silicium als basismateriaal voor chips dienen. De productie van grafeen als wafer-materiaal was onbetrouwbaar: de dikte en distributie van het grafeen bleek onvoorspelbaar. Onderzoekers van het Electro-Optics Center, een laboratorium van de universiteit Penn State, hebben echter met succes grafeen-wafers met een doorsnede van 100mm gemaakt.

Zij verhitten hiertoe wafers van siliciumcarbide in een sublimatie-oven, waarbij het silicium van het oppervlakte migreerde en een laag koolstof achterliet. De koolstof organiseerde zich in grafeenlagen van één tot twee atomen dik. In deze grafeenlagen werden onder meer field effect-transistors gemaakt waarvan de prestaties momenteel worden geëvalueerd. De onderzoekers werken aan methodes om de elektronmobiliteit in de grafeen-wafers te verhogen en willen tevens 200mm-wafers, bruikbaar in commerciële processen, ontwikkelen.

Grafeenstructuur

Door Willem de Moor

Redacteur

24-01-2010 • 10:30

102

Lees meer

Grafeen ingezet in ultracondensators
Grafeen ingezet in ultracondensators Nieuws van 18 september 2008

Reacties (102)

102
91
58
10
2
8
Wijzig sortering
1. Qua massaproductie kan dit nog wel even duren. Dit proces is een wafer per wafer proces, terwijl gewone Silicium wafers uit gigantische boules komen.

2. Waar ik ook wat problemen mee heb: etsing en het groeien van structuren op deze wafers. Grafeen is een 2D structuur en veel minder stabiel dan Si wat een diamant structuur heeft (3D en stabiel).

3: Uit http://www.imec.be/ScientificReport/SR2008/HTML/1224975.html blijkt dat de stroom vrij moeilijk te moduleren is doordat grafeen een semi-metal gedrag heeft.

Wat me wel interessant lijkt is de mogelijkheid tot single molecule devices. We hebben hier een 2D hexagonaal rooster en door gebruik te maken van magnetische velden kan het in de toekomst mogelijk zijn om 1 zulke ring als transistor te gebruiken.
Wat betreft massa productie is er inderdaad nog een zeer lange weg te gaan. Het proces wat ze gebruikt hebben (Si sublimatie) gebeurt bij extreem hoge temperaturen rond de 1500 graden celsius in een vacuum of met een edelgas om de sublimatie van Si te controleren... niet echt een goedkoop proces, zeker omdat het idd per losse wafer (of in een batch van losse wafers) moet gebeuren. Daarnaast is het substraat, siliciumcarbide (SiC) extreem duur. Voor een wafer van 2" betaal je al snel 2000 dollar. Ter vergelijking: een 4" hoge kwaliteit productiewafer is een 'maar' een paar honderd euro (ja, industrie gebruikt 300 mm wafers, maar daarvan weet ik de prijs niet aangezien wij in ons lab 4" wafers gebruiken :P).

Daarnaast zijn de snelheden van geproduceerde grafeen transistoren nog ver verwijderd van de maximale snelheden die met CMOS of bipolaire Si transistoren gehaald kan worden. Deze is momenteel zo'n 300 GHz voor commerciële toepassingen. Deze hoge snelheid transistoren vind je echter alleen in bijvoorbeeld radar en communicatie apparatuur. Voor een normale CPU met 1 miljard transistoren zou de benodigde energie en warmte productie onhandelbaar worden.

En dan is grafeen ook nog eens een semi-metal, zoals geree22 hierboven al aangeeft. Alleen als je er bijvoorbeeld een lint van een paar nanometer breed van maakt wordt het een halfgeleider... maar zulke kleine patronen maken is niet eenvoudig.

Ter info: grafeen maken met plakband werd in 2004 ontdekt. Dus in5-6 jaar tijd is het onderzoek zeker al aardig opgeschoten.
Heb je puur SiC nodig of is een SiC laag op een silicon wafer goed genoeg? Als SiC strained silicon eenmaal in massa produktie gaat wordt dat tweede automatisch een stuk goedkoper.
Ik denk dat een laag SiC ook zou werken... echter dan moet de kwaliteit waarschijnlijk wel hoog zijn. Een laag SiC gedeponeerd in een PECVD reactor of LPCVD oven is vaak redelijk amorf (= heeft geen duidelijke kristalstructuur)... ik heb zelf nog geen papers gezien waarin dit gebruikt wordt om grafeen te maken.
Ten eerste vind ik het raar om te zeggen dat alle koolstof atomen een binding missen en daardoor de elektronen moeilijk zijn te controleren. Grafeen is een enkele laag van geconjungeert, sp2 gehybridiseerd koolstof, en dit maakt juist dat het zo'n grote ladings drager mobiliteit heeft. De volledige conjugatie zorgt voor een pi-wolk boven het oppervlak waardoor elektronen zich relatief ongehinderd kunnen bewegen. Zou het koolstof naar de sp3 hybridisatie gaan (en dus geen binding meer missen..) dan zou het ten eerste niet meer vlak zijn en ten tweede geen pi-wolk meer voortbrengen.

De productie is echter niet zo triviaal als hierboven geschreven met het plakband exfoliatie. De truck ligt hem juist in de perfectie van je structuur. Zodra er defecten in je laag komen, of stacking van meerdere lagen verliest het grafeen zijn magie. De plakband truck is leuk, maar geeft niet echt goede controle over het oppervlak. Meer belovend zijn technieken als chemische functionalisatie om het grapheen op te lossen, en dus handelbaar maken, of termische decompositie van koolstof precursors op metaal oppervlaktes.

Maarja, ben benieuwd hoe ze het hierboven voor elkaar hebben gekregen. In mijn ogen is een synthetische botum-up vanuit dendrimeren de beste methode, maar hier moet (en wordt) nog een hoop werk aan verricht (worden).
Beste heer Laurens,

Klinkt allemaal heel interessant, maar heb je de reacties voor je gelezen? Dan snap je het gemiddelde nivo met betrekking tot dit onderwerp, van de mensen die op dit artikel reageren. Ik denk dat 9 van de 10 mensen hier geen idee hebben waar je allemaal over schrijft, hoewel 't ongetwijfeld interessant is. Dus als je het opnieuw kan formuleren op een wat eenvoudigere manier wordt dat ongetwijfeld door velen gewaardeerd. Bij voorbaat dank :)
valt goed mee hoor, ik zit in het 5de jaar secundair onderwijs en heb alles wat hij hier zegt al gezien (zij het oppervlakkig). Dit zou toch bij de meeste opseminst een belletje moeten doen rinkelen
Ik (als elektrotechnisch ingenieur) heb wel behoorlijk wat scheikunde gehad, dus ik snap wel waar het over gaat. Maar het is niet echt briljant goed te lezen, want ik zie een enorme berg jargon zonder interpunctie of hoofdletters en super/subscript bij afkortingen. ;)
Ik zit niet in dit veld, maar wat ik me afvraag is wat is de gemiddelde tijd dat zo'n uitvinding gepubliceerd wordt totdat het gerealiseerd wordt in commerciële producten? en hoeveel van zulke uitvinden worden uiteindelijk gebruikt in de praktijk?
Dat verschilt per techniek, maar ter vergelijking:

De eerste werkende transistor in een lab is gemaakt in 1947.
In de jaren '50 was de transistor beperkt tot militaire toepassingen.
Vanaf de jaren '60 begon de transistor gemeen goed te worden (transistor radio).
http://www.pbs.org/transistor/album1/index.html
http://en.wikipedia.org/wiki/Transistor
In eerste instantie las ik de kop niet goed. Ik las: Onderzoekers maken water uit grafeen!
Ik dacht toen: Uitermate knap, maar zeer nutteloos. :9

Dit soort ontwikkelingen klinkt altijd erg mooi. Ik ben alleen wel benieuwd hoe lang het duurt voordat we het in massaproductie gaan tegenkomen.. Ik vraag mij ook af of de mogelijkheid tot hogere kloksnelheden de processor ontwikkeling weer zal omgooien. Voorheen was het een MHz race en toen kwam men min of meer tegen een grens aan. Men ging men over op multi-core. Zou men hiermee weer terug gaan in de Ghz race?
Waarschijnlijk wel. Je kan immers zoveel cores maken als je wilt maar op een gegeven moment is dit gewoon niet meer nuttig. De hoeveelheid software threats die je kunt laten draaien om al die cores 100% te vullen is beperkt. Dus, de performance winst zal dan weer moeten komen door meer MHz'en en meer doen per klok tik.
Dat niet alleen, het effect van meer cores neemt ook af. Omdat alle cores dezelfde buitenbus delen krijg je op een gegeven moment instructies en data niet meer naar de cores aangeleverd, ook niet met veel L3 cache.

Met de huidige technologie is 4 cores ongeveer optimaal qua percentage dat de individuele cores bezig zijn. Boven de 8 cores wordt de CPU zelfs langzamer, een 16 core CPU performt vergelijkbaar met een quad core. Dit geldt voor general purpose cores, niet voor dedicated functie cores zoals GPU's of een Cell processor.

Natuurlijk zal er wel iemand weer wat slims bedenken om ook die grens te verleggen, maar de verbetering door meer cores is eindig.
Stuur dan snel een mailtje naar IBM en Sun dat ze terug naar een quadcore moeten. Je kan hun bedrijf redden van een technologische ondergang. Idioten zitten cpu's met 16cores te maken en dan nog eens 16 threads per core :X
Idioten zitten cpu's met 16cores te maken en dan nog eens 16 threads per core :X
Die komen anders prima van pas voor de servertoepassingen waarvoor ze bestemd zijn.
Daar is niks :X aan.
Was maar om aan te kaarten dat een onzinpost met informatie als "een 16 core CPU performt vergelijkbaar met een quad core." hier op Tweakers weer +2 krijgt. Ze moeten eens stoppen met mensen laten modereren die de kennis niet hebben om correct te modereren.
Ach je had natuurlijk ook de post eens goed kunnen lezen er staan nog al wat termen als op dit moment en geld alleen voor general purpose CPU's etc...

Op dit moment is het gewoon zo dat er vrijwel geen desktop applicaties zijn die gebruik kunnen maken van meer dan 4 cores met in totaal 8 threads. Dat komt voor een groot deel omdat lang niet iedereen 8 threads beschikbaar heeft en als je een applicatie maakt je het liefst een applicatie maakt voor zo veel mogelijk CPU's zonder dat je een klant 20 verschillende downloads aan hoeft te bieden.
Om die reden ook zijn er nog maar relatief weinig applicaties die gebruikmaken van dingen als CUDA, of de AMD variant hier van. Zelfs de laatste Intel/AMD extenties voor de CPU instructie set worden nog maar zelden of nooit gebruikt om precies deze zelfde reden.

Dat Sun en IBM CPU's maken die tot wel 256 threads tegelijk kunnen verwerken wil niet zeggen dat brompot758 het helemaal verkeerd heeft alleen dat dit geen gewone general purpose CPU's zijn. Zo als beide bedrijven al meerdere malen hebben aan gegeven zijn deze CPU's met namen bedoelt voor server toepassingen en dan met name toepassingen als webservers waar relatief weinig rekenkracht maar heel veel concurrency erg belangrijk is. Deze CPU's zullen dus echt niet instaat zijn om bijvoorbeeld Word, Photoshop, 3d Studio Max of de gemiddelde game te draaien gewoon omdat ze daar ook echt niet voor gemaakt zijn. Een van de redenen is dat bij de design gedachte er van uit gegaan is dat de CPU's en dus ook de threads voor een heel groot deel op zich zelf staande processen zullen verwerken die niet of vrijwel niet met elkaar hoeven te communiceren.
Precies zo als brompot758 al zei de communicatie tussen de CPU cores is het grote struikel blok in deze het is belachelijk moeilijk om een communicatie bus te maken die 16 of meer CPU cores allemaal met elkaar kan laten kletsen zonder dat je belachelijk lange wachttijden krijgt of je enorme hoeveelheden nieuwe controllers in moet gaan zetten die dit alles weer in goede bannen kan leiden.

Intel met hun research project waar een CPU met 80 cores is gemaakt is precies gericht op dat probleem. Hoe kun je op een efficiënte manier 80 cores met elkaar laten kletsen zonder dat je tegen de voor genoemde problemen aan zal lopen. En daar naast er even van uitgaande dat je dat probleem op kan lossen hoe kun je efficiënt gebruik maken van al deze rekenkracht zo dat het ook nog nut heeft op bijvoorbeeld een laptop.

Maar goed gelukkig zijn er ook moderators die niet alleen weten waar ze het over hebben maar ook nog eens de moeite nemen te lezen en dan te begrijpen wat er geschreven wordt voor ze een negatieve score toekennen. ;)
Ik zie hier één groot, zelfs enorm voordeel:

Grafeen is koolstof. Halfgeleiders zijn altijd uit silicium geproduceerd, beide zijn 4-waardige elementen, maar Si heeft een heel ander bronmateriaal (namelijk zand of glas) dan koolstof (fossiele brandstoffen). C is één van de meest veel voorkomende elementen op aarde, dus dit zal ook betekenen dat de grondstoffen geen ruk meer zullen kosten en chips nóg goedkoper zullen worden.

Bovendien merk je het 'elektronen bewegen beter door grafeen dan door Si' overal wel: Dat betekent gewoon dat de weerstand per nanometer véél minder is dan silicium, C is namelijk een geleider, terwijl Si een halfgeleider is. Resultaat: Je kan meer stroom door de chip heen jagen zonder veel bij-effecten, en de RC-effecten naar je substraat toe zijn stukken lager. Samengevat kun je hiermee meer GHz'en halen, heb je lagere propagation delays (dus strakkere geheugentimings) en is je TDP factoren lager.

Bovendien is C wat vriendelijker tegen andere organische verbindingen (hint: OLED's), dus dan is het veel makkelijker om daar een goed werkend AMOLED panel mee te produceren.
Als de 1ste chips met deze soort wafer zijn... Het enige is dat; worden chips nou juist duurder of goedkoper?!
ik weet niet hoe duur grafeen is, maar aan silicium is toch langzamerhand een tekort aan eht ontstaan? dat zou betekenen dat silicium redelijk duur is.
grafeen is als ik het goed lees een soort koolstof, en zover ik weet zijn alle koolstoffen redelijk goedkoop, echter geld hier weer dat ik het mis kan hebben.

toch denk ik dat dit nog heel handig kan worden, als het echt goedkoper is.... voor 100 euro een 30Ghz quadcore kopen, en die overclocken tot 50Ghz.... en dan nog een leuke radeon HD7xxx erbij die ook grafeen-based is :P

dan denk ik aan budget gamingkaarten met 400 stream processors die per stream processor meer kunnen als huidige processor cores!

volgens mij als iedereen op nieuwe grafeen processoren overstapt, is het tijd voor een nieuwe revolutie, ARM. als de ARM chips uit je smartphone ook 100 keer zo snel worden; zouden ze x86 kunnen emuleren met hogere snelheid als huidige chips, en dan zou je andere leuke dingen krijgen, zoals:
-linux word populairder omdat ze ARM native zijn
-modern warfare 2 op je smartphone
-stroomverbruik van 10 watt voor een 50Ghz (ARM) quadcore die alle huidige technieken voorbij rent.
-PASSIEF GEKOELDE PC's

[Reactie gewijzigd door appel437 op 22 juli 2024 21:06]

Een tekort aan silicium? Kijk eens in je achtertuin zou ik zeggen. :P

Maar on-topic: Ik herinner me een artikel van ca. 30 jaar geleden over galliumarsenide als vervanger van silicium. Toen werd er gesproken over een snelheidswinst met een faktor 3. Alleen kosten vormden nog een belemmering, maar er waren al miltaire toepassingen en silicium zou z'n langste tijd ècht gehad hebben. :z
Inmiddels wordt voor dat materiaal schakelsnelheden gehaald van 250Ghz, maar waar blijven die processors? Aangezien dit artikel een stuk voorzichtiger is, verwacht ik er dus niet al te veel van.
Ik zou niet zoveel conclusies trekken uit de "voorzichtigheid" van een artikel, er wordt zoveel onzin verspreid over hoe de toekomst eruit zal zien, het gaat meer om de inhoud van het artikel. En dan nog weet je niets zeker.
Heb er eigenlijk nog nooit eerder over nagedacht, maar ja, vanwaar blijft al dat silicium komen? Als je zo'n paar tonnen van dat spul in je achtertuin hebt, denk ik wel dat je je schaapjes op het droge hebt. Processors, grafische kaarten, gsm's, consoles, ... overal vind je het terug.

Alleen wat je zei over en zover ik weet zijn alle koolstoffen redelijk goedkooop, we zullen diamant dan maar niet meetellen? :D
Heel grof, kort en simpel gezegt:
Silicium (Silicon in het engels) wordt gewonnen uit zand en daar is voorlopig genoeg van, alleen het reiningen (ondoen van ALLE onzuiverheden) is erg kostbaar.

(En nu niet gaan zitten muggeziften want ik weet ook wel dat het iets ingewikkelder zit! :) )

edit: typo.

[Reactie gewijzigd door RitBit op 22 juli 2024 21:06]

Denk ook niet dat er in de nabije toekomst een tekort zal ontstaan van silicium.

Volgens wiki:

Na zuurstof is silicium het meest voorkomende element in de aardkorst.

Denk dat het eerder één van de bijkomende exotische materialen zal zijn zoals gallium arsenide ofzo.
Een ander aspect van de kosten voor het materiaal, zijn de kosten die je hebt voor het winnen. Koolstof komt namelijk voor in de lucht als koolstofdioxide, weet niet of het makkelijk daaruit te winnen is, maar zou ook weer een bijdrage leveren voor het milieu.
Of je schept wat steenkool omhoog, heb je pure koolstof. Stuk makkelijker.
Anoniem: 320263 @RitBit24 januari 2010 13:03
Inderdaad, de meeste mensen hebben wel wat silicium in hun achtertuin liggen, maar het is het refinen dat veel geldt kost. Een kilo siliciumoxide (= zand) kost bijna niets, maar een kilo zuiver silicium kost ruwweg 3500$
Heb er eigenlijk nog nooit eerder over nagedacht, maar ja, vanwaar blijft al dat silicium komen? Als je zo'n paar tonnen van dat spul in je achtertuin hebt, denk ik wel dat je je schaapjes op het droge hebt. Processors, grafische kaarten, gsm's, consoles, ... overal vind je het terug.
Je hebt er een paar tonnen van in je achtertuin liggen. Er staat alleen een huis bovenop en er groeit gras overheen.

Si wordt namelijk gewonnen uit (zilver)zand en kwarts. Dat is voorlopig nog niet op. ;)

EDIT: lol, hieronder....

[Reactie gewijzigd door Stoney3K op 22 juli 2024 21:06]

Aan slilicium komt inderdaad geen tekort. Ik verwacht eerder dat er aan Lithium voor batterijen een tekort gaat komen. Ik weet dat dit offtopic is maar toch ook wel erg handig voor laptops elektrische auto's e.d.

[Reactie gewijzigd door piratepraat op 22 juli 2024 21:06]

Wat ik mij ook afvroeg was ofdat dit zou betekenen dat ook videokaarten die volgens mij op het moment ook op Silicium worden gebakken, OOK over stappen op Graphene. Ik denk namelijk dat deze dan ook meteen een dikke boost voorgeschoteld krijgen.

In ieder geval zou dit dan wel eens een nieuw tijdperk kunnen betekenen waar we de 10Ghz nooit zullen zien verschijnen, maar waar we van de huidige records van 6-8Ghz meteen over zouden springen naar 26Ghz. Dit zou best wel eens een flinke klap kunnen zijn in alle ontwikkelingen die daarna volgen voor zowat elke industrie. Aangezien de computer op het moment toch echt de back-bone is van een groot deel van de industrieen. (Denk aan dingen van 3D Animaties die nu levensecht kunnen lijken omdat het 'renderen' nu een dragelijke tijd kost, tot aan complexe simulaties te laten draaien waar we bijvoorbeeld ons effect op het klimaat van verschillende standpunten te laten simuleren)
Om niet te spreken van en/decryptiemogelijkheden.. een clustertje grafeenprocessoren op 1 ThZ zal een 256 bit AES-encryptie een heel stuk sneller bruteforcen dan de huidige technologieen!
de encryptie sterkte kan dan ook weer verhoogd worden.
dus dat balanceerd elkaar altijd wel weer uit,
behalve als er ineens zo'n sprong gemaakt wordt.
maar dat zie ik nog niet 1 2 3 gebeuren
Nee.

Encryptie werkt zo dat het veel makkelijker is (minder rekenkracht kost) om te versleutelen, dan om te breken. En de tijd die het meer kost om te breken, schaalt exponentieel.

Dat betekent dat je de sleutel kunt verdubbelen (we ontwerpen een 512 bit AES encryptie), en dan kost het de versleutelaar en de decodeerder 2 maal zoveel tijd, en de brute-forcer een paar miljard keer zoveel tijd. Dit is een strijd die je altijd wint als versleutelaar, want hoe groot en snel de cluster van de bruteforcer ook is, door de sleutel te verlengen maak je die hele cluster nutteloos, terwijl het jezelf maar een klein beetje extra tijd kost.
Zou 26GHz of 1000GHz niet een beetje heel veel stroom slurpen?

Als de transistors even groot zijn als de 45nm silicumgebakken versies, en als het er even veel (zo'n 700miljoen) zijn als een standaardprocessor, moeten ze met z'n allen dan niet heel veel verbruiken als ze op 26GHz - 1000GHz tikken?

Wel even een normaal programma aannemen dat niet voor het stressen alle voor het cache gebruikte transistors overspoelt met 'volt' in plaats van 'niks'.
Zoals hierboven wordt vermeld gaat hij volgens mij ook niet echt veel meer power slurpen maar eerder veel warmer worden (als we ze op 26GHz - 1000GHz gaan laten draaien).
Dus ik denk dat in de toekomst als we met deze technologie verdergaan we waterkoeling als standaard gaan hebben.

[Reactie gewijzigd door mr_greenguy op 22 juli 2024 21:06]

Warmer is meer energieconsumptie, immers de enige manier waarop een processor energie kan omzetten is warmte generatie. (Als je processor licht geeft of uit je socket knalt is er iets mis ;))

[Reactie gewijzigd door Sphere- op 22 juli 2024 21:06]

Dit vind ik net even te kort door de bocht.

In het artikel staat " het elektronmobiliteit van de 'tweedimensionale' kippengaasstructuur van koolstofatomen in grafeen ligt een factor tien hoger dan in silicium."

in http://en.wikipedia.org/wiki/Electron_mobility staat dat v = mu*E
mu is de elektronmobiliteit, v de bewegingssnelheid en E het elektrische veld
Als je E hetzelfde laat een mu maak je 10x zo hoog, wordt v dus ook 10x zo hoog.

Hieruit zou ik zeggen af dat er bij dezelfde energieconsumptie in grafeen een 10x zo hoge kloksnelheid mogelijk is als in silicium, op 26 GHz zal je processor dus waarschijnlijk niet warmer worden dan de huidige processors.
Op 1000 GHz is het een ander verhaal...
Vergeet ook even niet dat elke transmissielijn op een chip opgebouwd is uit RC-netwerkjes, waarbij het substraat een groot deel van die R voor zijn rekening neemt. Dat is de oorzaak van de 'lage' kloksnelheden, een grote R beperkt de snelheid waarmee je de C op kan laden. (In theorie: een supergeleider met R=0 kan een C in 0 seconden opladen, en dan kun je een kloksnelheid van oneindig halen)

Trek je de R omlaag door een ander materiaal te kiezen, dan win je zowel op maximale kloksnelheid (bandbreedte) als op TDP. De C omlaag halen is wat we de afgelopen jaren gedaan hebben, door steeds kleinere chip-processen te ontwikkelen waardoor er minder oppervlak parallel naast elkaar loopt en de afstanden tussen de 'platen' (sporen op een chip) kleiner werden.
Jazeker, warmte, licht en elektriciteit zijn allemaal een vorm van energie. Warmte is meestal of bijna altijd een bijproduct van reacties.

Deze keer ook: een transistor kan '0' of '1' tikken. Bij die twee horen geen volt en max volt. Die tikken zijn nooit helemaal zuiver, maar ze moeten wel weg blijven van de helft, want dan ga je fouten maken, doordat nullen per ongeluk enen worden en andersom.

Daar komt jammergenoeg weer warmte bij vrij.
maar ze moeten wel weg blijven van de helft
Het omslagpunt ligt ruimschoots beneden de helft. Daar zijn verschillende redenen voor. Allereerst is het veel makkelijker (en sneller) om een uitgang naar aarde (VSS, 0 volt) te trekken dan om de spanning omhoog te krijgen. Daarnaast ligt een '1' altijd een stuk onder de voedingsspanning (VCC, VCore) vanwege de weerstand in de schakeling.

Om je een idee te geven: ouderwetse TTL levert aan de uitgang tussen de 2.0 en 3.3 volt voor een '1' en een 0 moet tussen 0 en 0,35 volt zitten. De tussengebieden worden als ongedefinieerd beschouwd. Het officiële schakelpunt is 1,5V. En dat allemaal bij een voedingsspanning van 5V, ofwel bij 40% van de voedingsspanning heb je al een geldige '1'. Bij CMOS en andere technologieën liggen die spanningen anders, maar het principe is vergelijkbaar.
Waarom zou het warmer worden? De frequentie wordt met dezelfde energie die er in gaat hoger omdat de elektronen minder weerstand ondervinden. Deze lagere weerstand zorgt ook weer voor minder warmteproductie.

Sowieso, de hoeveelheid elektrische energie die je er in stopt, is ook de maximale energie aan warmte die je er uit krijgt. Stel dat je een processor op silicium hebt met een TDP van 50W, en een vergelijkbare proc op grafeen met eenzelfde TDP van 50W, dan zullen ze even warm worden. Echter, zal de grafeen processor op een ongeveer tien maal hogere frequentie opereren.
Nee, elektronen kunnen gemakkelijker door grafeen bewegen dus is er minder energie nodig om een elektron in beweging te zetten. Waarschijnlijk kan zo'n processor dus op 26-1000Ghz werken met de zelfde energieconsumptie als huidige processors.
Mij lijkt het wel interessant om gewoon een bestaande processorontwerp te etsen op zo'n wafel en te produceren. Kijken of het überhaupt werkt en hoe snel dat dan is.
De elektronen waren toch best lastig te beheersen omdat alle C-tjes in het rooster een binding missen en allemaal elektronen nodig hebben?

Een Phenompje II of een Core i7 op grafeen is inderdaad wel een leuk idee, leuk voor de overclockers. Kan je gelijk je extreme koeler weggooien als je onder de 10GHz blijft. :P
De huidige ontwerpen zijn wel heel erg afgestemd op de karakteristiek van Silicium, dezelfde etsen gebruiken kan dus niet zomaar ;)
Anoniem: 231661 24 januari 2010 10:56
Stilstaan is achteruit gaan. Hoewel de commercialisatie nog even op zich zal laten wachten, lijkt het me toch een enorme verbetering. Een factor 10 is niet niets, en zo komen we steeds dichter bij de fysische limiet van de computerarchitectuur. Deze evolutie houden we geen 20 jaar meer vol. De volgende stap zal hoedanook quantum computing worden, maar dat is natuurlijk niet voor de komende 10 jaar (op commercieel niveau althans).
mag ik die glazen bol ook eens lenen?

Als er morgen iemand een geniale doorbraak in quantum computing maakt waarmee je quantum chips even makkelijk en goedkoop kan bouwen als normale chips, dan zweer ik je dat je binnen de 5 jaar bijna alleen maar quantum PCs meer zal kunnen kopen.

Er kan 10.000 man verkeerd bezig zijn, maar er moet maar één geniale geest goed denken om een gigantische sprong te maken.
Welnee, een Quantum Computer is absoluut ongeschikt voor het normaal draaien van programma's. Hooguit een spelletje schaak, als de qc na relatief korte tijd het perfecte antwoord van het schaakprobleem "wat is momenteel de beste zet" weet te produceren.
Maar een generiek spel zoals we die momenteel spelen zal niet mogelijk zijn.

Als we dan toch de glazen bol mode aanzetten, een aannemen dat er een oplossing komt om eenvoudig quantum chips te maken zijn, dan wordt dat hooguit een insteekkaart, waar ouderwetse sequentiele programma's specifieke problemen kunnen uitbesteden aan de quantum chip.
5 jaar tussen geniale ingeving en het verdringen van het oude systeem? Denk toch maar snel iets anders, als je op 5 jaar QC van geniale doorbraak naar een systeem krijgt dat bruikbaar is voor de consument mag je spreken van een mirakel (ik zou zelfs daar 10 jaar als zeer optimistisch stellen). Plus mag je er ook nog eens op rekenen dat QC duur zal zijn (hele hoop R&D terug uit te winnen), tegen dat dat betaalbaar wordt, zit je ook zeker 5 jaar verder.

Om maar een voorbeeld te geven: Blu-ray is ergens in 2000 als prototype voorgesteld op een beurs, tegen 2002/2003 waren de eerste spelers pas op de markt (prijs bijna 4000 USD) en het heeft nog tot begin 2006 geduurd om een stabiele standaard voor BR te maken. Dus tegen half 2006 kwamen pas de eerste BR's zoals we die nu kennen.
Ondertussen zitten we bijna tien jaar later dan de prototypes en pas nu beginnen BR-spelers een beetje goed aan te slaan, maar DVD is nog bijlange na niet uit de markt gedrukt of in de minderheid: als je in de winkel loopt zie je enerzijds nog het grootste deel DVD's en DVD-spelers staan.

Je vergeet wellicht dat QC zo hard verschilt van deterministische computing dat je heel grote delen van de informatica opnieuw moet opbouwen (of finetunen) om het bruikbaar te maken op een quantumcomputer en het ook nog eens sneller te krijgen dan de huidige techniek (of de techniek over 5 jaar). Op een QC heb je andere algoritmes nodig dan op een normale computer; dus ook qua software is het geen kwestie van 5 jaar; plus dat je je ontwikkelaars ook toegang moet geven tot een machine die min of meer klaar is.

Zeker in de beginjaren van QC gaat het nog maar de vraag zijn of het sneller is dan deterministisch; sowieso zullen er taken zijn waar QC trager is dan deterministische computing. Ik weet echter niet genoeg van de achterliggende fysica om te kunnen zeggen of dat zo zal blijven of dat QC wel de huidige computing gaat vervangen (mijn gevoel zegt in ieder geval van niet, ik zie eerder een soort symbiose ontstaan tussen beide vormen).

[Reactie gewijzigd door ILUsion op 22 juli 2024 21:06]

Ik denk dat marketing ook nog voor wat vertraging zorgt, want fabrikanten willen echt niet ineens overstappen op een andere techniek om waffers te produceren, zij willen eerst nog wat meer winst maken op de technieken waar zij de middelen al voor hebben om ze te maken. Waarschijnlijk zal de snelheid maar langzaam omhoog worden gevoerd, zodat consumenten steeds dingen blijven kopen, want anders lopen de fabrikanten de winst mis die ze anders hadden kunnen krijgen voor chips en processors met de snelheden daar tussen.
Fabrikanten proberen ook de Wet van Moore te volgen, dus er niet overheen te gaan.
Anoniem: 231661 @Niosus24 januari 2010 15:58
Uiteraard kan ik niet exact voorspellen hoe de zaken gaan lopen. Maar wanneer vandaag iemand een geniale uitvinding doet, betekend dit niet dat dit direct op de markt komt. Ooit al gehoord van bijvoorbeeld de STAIR-battery? Deze batterij heeft 10 maal meer energiecapaciteit dan LI-ION batterijen. Werkt men al jaren aan, hoewel het concept al langer bestaat.

Ik denk dat het verleden genoeg heeft bewezen dat het jaren duurt om van concept over te gaan op commercialisering. En in dat opzicht is mijn post niet zo uit de lucht gegrepen.
Huh, zijn ze nu al toepassingen aan het maken van grafeen? Een paar maandjes geleden las ik in de kijk dat ze pas een makkelijke methode hadden gevonden voor het maken van grafeen: plakje grafiet pakken en die met plakband steeds dunner maken zodat je 1 laag hebt van grafeen, 1 molecuul dik. Dat ze nu met deze methode bezig zijn betekent dat de wetenschap óf sneller is dan gedacht (ik maar denken dat die wetenschappers eerst jaren zitten te proberen voordat ze het echt doen) óf dat het artikel in de Kijk nogal outdated is.

Maar ik ben benieuwd! Grafeen is een wondermateriaaltje, dus laten we zien wat we ermee kunnen. :)
Die methode die jij in de Kijk hebt gelezen lijkt mij zeer onwaarschijnlijk, omdat het mij zeer onnauwkeurig lijkt. Als je door met plakband steeds een laagje er af wilt halen, kan je niet weten wanneer je nog maar een laag over houd en als je wel op het juiste moment stop heb je nog steeds de kans dat je als nog meerdere lagen hebt die elkaar deels overlappen. Heb voor mijn eindwerkstuk een STM onderzoek gedaan op de Radboud Universiteit in Nijmegen, waarbij ik zelf het resultaat heb gezien dat lagen van grafeen ophouden en daar onder een laag verder gaat. Hier kan je een aantal resultaten er van zien

Maar over deze ontwikkeling zelf. Ik ben zeer benieuwd tot hoever we met deze techniek verder kunnen ontwikkelen op het gebied van performance van processoren. Ik vraag me nu wel af na hoeveel tijd de consumenten hiervan toepassingen kunnen kopen.

[Reactie gewijzigd door kwinvdv op 22 juli 2024 21:06]

Anoniem: 236438 @kwinvdv24 januari 2010 20:59
De omschreven methode wordt wel degelijk toegepast op wetenschappelijk niveau. Het is namelijk een extreem goedkope methode om kleine hoeveelheden (enkellaags!) grafeen (voor onderzoek) van voldoende kwaliteit te verkrijgen. Op Fysica 2009 heeft prof. van Wees (RuG) hier een mooi verhaal over gehouden.

Massaproductie zit er natuurlijk niet in :)

[Reactie gewijzigd door Anoniem: 236438 op 22 juli 2024 21:06]

Volgens mij is dit niet zo nieuw. ik kan me herinneren dat 5 jaar geleden ook al een dergelijke transistor werd ontwikkeld die ook 100Ghz kon geleiden. Maar vooralsnog is dit een enorm goede ontwikkeling. De mogelijkheden die hiermee gepaard gaan zijn vrijwel eindeloos.

Maar zoals hierboven word gezegd dat de elektronen in een wolk boven het oppervlak zouden komen te zitten. Zou dit dan niet erg foutgevoelig zijn?
"Volgens mij is dit niet zo nieuw. ik kan me herinneren dat 5 jaar geleden ook al een dergelijke transistor werd ontwikkeld."

De nieuwigheid is dat ze nu wafers kunnen maken, wat een belangrijke stap richting massaproductie is.
Ziet er zeer veelbelovend uit.

De prijs van SIC is inderdaad nog een pak hoger dan Si maar kan zeer snel zakken.
Een andere mogelijkheid zou kunnen zijn om SIC te groeien in een EPI maar dan is de 1500gr C voor sublimatie net iets te groot.

De wafers zouden er nogal krom uitkomen :)

Wat betreft het procedé in een reactor onder vacuum op hoge temperatuur met een edelgas: zoooo duur is dat nu ook weer niet: elke wafer vandaag de dag ondergaat meerdere van dergelijke stappen. Wel niet op 1500gr C.

Groeten,
Bert.
Dit duurt nog wel een paar jaar voordat ze er CPU's van kunnen maken.

Maar de reden dat het nog wel even duurt is omdat Intel er nog geen onderzoeksgeld in heeft gestopt, zodra Intel dit denkt nodig te hebben en geld in de ontwikkeling van grafeen CPU's stopt zal het in een stroomversnelling raken.

En dat is precies waar de schoen wringt, Intel is door de jaren heen bijna niet beconcurreerd waardoor ze vrij spel hadden en minder geld in dit soort nieuwe processen en materialen hoefden te stoppen dan eigenlijk zou moeten.

Want als AMD Intel iets beter kon beconcurreren waren we misschien al in het grafeen tijdperk.

Op dit item kan niet meer gereageerd worden.