Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 140 reacties
Submitter: rvdm

Onderzoekers van de universiteit van Illinois, Verenigde Staten, hebben ontdekt dat transistors die van grafeen gemaakt worden, zichzelf kunnen koelen. Zij konden dat meten dankzij een speciale microscoop, die zij gebruiken als thermometer.

Grafeen belooft al geruime tijd een aantrekkelijk alternatief te zijn voor silicium in elektronische schakelingen. Transistors gemaakt van het enkellaagskoolstof zouden veel sneller kunnen schakelen dan silicium versies en hun unieke materiaaleigenschappen zouden de transistors bovendien zuiniger maken. Aan dat lijstje veelbelovende eigenschappen kan ook de warmte-ontwikkeling van grafeentransistors worden toegevoegd; ze zouden zichzelf kunnen koelen.

Het afgeven van warmte is niets nieuws; alle elektronica doet dat, maar silicium schakelingen ontwikkelen meer warmte dan passief kan worden gedissipeerd. Twee onderzoekers van de universiteit van Illinois, William King en Eric Pop, ontdekten echter dat grafeentransistors zichzelf wel degelijk kunnen koelen.

Met behulp van een zogeheten atomic force-microscoop, die zij gebruikten als thermometer, maten ze de temperatuur van een werkende grafeentransistor. Bij de interface tussen grafeen en de metalen contacten waarmee ze werden aangesloten, bleek het grafeen sterker af te koelen dan op te warmen, waardoor ze effectief gekoeld werden.

Volgens een van de onderzoekers kan de meting betekenen dat toekomstige grafeenschakelingen met weinig of geen koeling toekunnen. Meer onderzoek is nodig om de thermische eigenschappen van grafeenschakelingen volledig te doorgronden. Bovendien vergen die schakelingen zelf nog de nodige ontwikkeltijd. De onderzoekers willen naast grafeen ook andere nanomaterialen, zoals koolstofnanobuisjes, onderzoeken met hun thermometer.

AFM-thermometer op grafeen

Gerelateerde content

Alle gerelateerde content (25)
Moderatie-faq Wijzig weergave

Reacties (140)

Wat ik eruit afleidt is dat de warmte-geleidingscoëfficiënt simpelweg groter is, en dat hij daardoor zijn warmte snel kan afstaan aan de omgeving, dan dat hij warmte produceert. Dit maakt heatsinks dus min of meer overbodig, maar fans zullen de warmte blijven moeten afvoeren, pc's worden dus helaas niet significant stiller...
Inderdaad, dat was mijn eerste gedachte ook.
Het grafeen is een paar Angstrom groot/dik, de transistor zelf een paar nm (waarschijnlijk hebben ze lithografie gebruikt)... en dan zet je er een AFM naald bij met een grootte van 10-100 µm.

Er zijn twee manieren om een AFM te gebruiken: contact mode of tapping mode. Bij de eerste, zoals de naam al doet vermoeden, is er direct contact met het sample met een constante kracht op de tip. Dit kan resulteren in krassen in/op een sample.
De tweede methode is non-contact, waarbij de naald met een vaste frequentie oscilleert over het sample, zonder direct contact tussen naald en sample. Als de naald op een afstand van 1-10 nm boven het sample gehouden wordt, dan zorgt de VanderWaals kracht voor een verlaging van de resonantie frequentie van de naald, wat indirect een meting is voor ruwheid/hoogte van het sample.

Jammer dat ze niet aangeven welke methode ze gebruikt hebben, maar gezien het verschil in grootte tussen transistor en AFM naald, kan ik me voorstellen dat de naald als heatsink fungeert.
Verder, zoals Otkurom ook al zegt, de warmte geleiding van grafeen is groter dan silicium, waardoor de warmte efficienter dissipeert naar de omgeving.
Met andere woorden, deze transistoren kunnen zuiniger zijn dan silicium, omdat ze efficienter hun geproduceerde warmte kwijt kunnen. Maar... dit is nog steeds in theorie, want ze bekijken hier een enkele transistor en niet de vele miljoenen die later in een chip op/naast elkaar zitten. :)
Ik denk dat dit de enige juiste conclusie is.... Het is niet waarschijnlijk dat dat de "chip" netto meer warmte opneemt dan dat deze afgeeft, dat zou namelijk wereldnieuws zijn...!

Het zou namelijk betekenen dat de warmte (= energie) in iets anders wordt omgezet, vermoedelijk elektriciteit? Klinkt onwaarschijnlijk, en dat is het volgens mij ook... Al zou het natuurlijk wel een mooie vervanging zijn van de stirlingmotor :+
Er zullen minder fans nodig zijn, misschien nog maar één of twee grote case fans die niet gek veel geluid produceren.
Volgens het artikel:
However, we found that in these graphene transistors, there are regions where the thermoelectric cooling can be larger than the resistive heating, which allows these devices to cool themselves. This self-cooling has not previously been seen for graphene devices.
Het is dus niet zo dat een grafeen CPU zichzelf kouder maakt dan de omgeving, alleen sommige regio's op de processor zouden zichzelf kunnen koelen. Als ze die koude regio's kunnen gebruiken om de warmere gedeeltes ook te koelen dan heb je ook echt een passief gekoelde processor.

Dat zou mooi zijn, maar dan moet het ook maar zo blijven werken voor als je 'echte' processors gaat maken met grafeen. Het zou zelfs de andere kant op kunnen, als een grafeen processor zichzelf meer koelt dan het opwarmt, waardoor de temperatuur van de CPU daalt onder dat van de omgeving... dan kun je condensvorming krijgen :p Moeten we straks CPU's actief gaan verwarmen?
Warmte moet altijd ergens heen en het is onmogelijk dat warmte spontaan van koud naar warm stroomt.
'Zelfkoelend' klinkt heel actief, maar het is puur dat grafeen in een chip sneller warmte af kan staan dan het opbouwt door de weerstand. Die warmte gaat gewoon in de omgeving zitten en je zult dus nog steeds je lucht moeten verversen. Anders krijg je na een tijdje een heteluchtoven ;)

EDIT: Als de omgeving warmer is dan het grafeen zal het waarschijnlijk ook heel snel die warmte opnemen. Dus het blijft gewoon belangrijk dat de temperatuur in je kast goed blijft, alleen heb je geen grote koelblokken meer nodig om je chips net zo koel te houden.

[Reactie gewijzigd door lennartje op 7 april 2011 11:17]

Veelbelovend.
Zouden we weer terug kunnen naar een passief koelblokje i.p.v. die 16 cm hoge koeltorens die huidige processoren nodig schijnen te hebben?
bleek het grafeen sterker af te koelen dan op te warmen, waardoor ze effectief gekoeld werden.

Met andere woorden: het grafeen is van zichzelf koeler dan de omgeving? Ik heb hier geen verstand van maar probeer te begrijpen wat dit betekent.
bleek het grafeen sterker af te koelen dan op te warmen, waardoor ze effectief gekoeld werden.

Met andere woorden: het grafeen is van zichzelf koeler dan de omgeving? Ik heb hier geen verstand van maar probeer te begrijpen wat dit betekent.
Nee het word niet koeler.

De zelfkoelend term klinkt beter dan het is.

Het is eigenlijk dat grafeen een lagere thermische weerstand heeft.
This self-cooling effect means that graphene-based electronics could require little or no cooling, begetting an even greater energy efficiency and increasing graphene’s attractiveness as a silicon replacement.
Bij een bepaalde frequentie zal grafeen ook niet meer "zelfkoelend" zijn c.q. er zal meer warmte geproduceerd worden dan er afgevoerd kan worden.

[Reactie gewijzigd door worldcitizen op 7 april 2011 11:04]

Doet me wel denken aan de Terminator chip, werkt beste bij kamer temperatuur (en zal waarschijnlijk ook niet hoger worden) en dan nog al die afzonderlijke cores. Ik denk als ze een grafeen cell cpu maken dat we dan al aardig in de buurt zitten.
In theorie zullen ze dus de omgeving afkoelen.

Moeten we zometeen geen waterkoelers gaan in bouwen maar terras verwarmers omdat ze anders te koud gaan worden!
Tweede hoofdwet van de thermodynamica zegt dus dat dat niet mogelijk is :).

Wat waarschijnlijk bedoeld wordt is dat, als het materiaal wordt opgewarmd, het langer duurt om in temperatuur toe te nemen dan om het weer te koelen via de metalen interconnects. Dus de warmteoverdrachtscoefficient is zeer groot.

Maar lager koelen dan de omgevingstemperatuur is niet mogelijk zonder arbeid toe te voegen (in de vorm van een compressiekoelmachine bijvoorbeeld).
Toch jammer, die toekomstige computers kunnen dus niet als airco's gaan dienen...
Mja, een airco onttrekt nog steeds minder warmte dan hij afgeeft :P.
Nee, een airco verplaatst de warmte, dus hij geeft wel meer warmte af dan er opgenomen wordt, maar de warmte wordt buiten de te koelen ruimte afgegeven, waardoor de in de ruimte wel degelijk meer warmte opgenomen dan afgegeven wordt, daardoor koelt ie.
Nee, het gaat hier om het "Seebeck effect" :
The Seebeck effect is the conversion of temperature differences directly into electricity.

The effect is that a voltage, the thermoelectric EMF, is created in the presence of a temperature difference between two different metals or semiconductors. This causes a continuous current in the conductors if they form a complete loop.
Dus je moet nog steeds de metalen contacten van grafeen koelen om dit effect te bereiken.
Ik zou wel eens een Peltier element op basis van grafeen willen zien. Als de warmteweerstand van grafeen inderdaad zo laag is moet dat interessante koelblokjes opleveren.
Het is verstandig nooit lager dan omgeving temperatuur te koelen, omdat je anders condens vorming krijgt. En daarbij komt weer dat het geïsoleerd moet worden.

Maar al met al vind ik dit wel een mooie ontwikkeling, ik ben benieuwd hoelang het nog gaat duren voordat ze voor de consument beschikbaar worden. In principe kunnen ze het nu al gelijk maken door gewoon de silicium voor grafeen te vervangen, of gaat dat niet zo 1, 2, 3.
Silicium genereert meer warmte dan het passief kan dissiperen, en moet dus voorzien worden van een koelblok. Dit koelblok hoeft niet persé actief gekoeld te zijn, omdat het door het grotere oppervlak de warmte beter verspreidt en daardoor kwijt kan.

Grafeen kan wél meer warmte dissiperen dan het zelf genereert, en zal dus de temperatuur van de omgeving aannemen. Deze zal nog steeds opwarmen, maar je hebt dus geen externe koeling nodig.
Grafeen kan wél meer warmte dissiperen dan het zelf genereert, en zal dus de temperatuur van de omgeving aannemen. Deze zal nog steeds opwarmen, maar je hebt dus geen externe koeling nodig.
Met andere woorden: Grafeentransistors zijn ook een stuk zuiniger. De wet van behoud van energie zegt immers dat er evenveel energie uit moet komen als je erin stopt, omgekeerd: Omdat er weinig uit komt betekent dat ook dat je er weinig energie in hoeft te stoppen. ;)
Het zegt helemaal niets over de zuinigheid. Het zegt iets over de warmte geleiding. De ontwikkelde warmte wordt bij grafeen sneller afgevoerd naar de metalen contacten, dan bij silicium.
Álles moet actief gekoeld worden, stilstaande lucht is namelijk een uitstekende isolator ;)
Álles moet actief gekoeld worden, stilstaande lucht is namelijk een uitstekende isolator ;)
Niet altijd. Ooit wel eens van convectie gehoord? :Y)
Convectie is lucht die (opwaarts) beweegt , en dus per definitie iets anders dan "stilstaande lucht" ;)
Daarom is zijn opmerking ook juist, door de warmte zou de lucht zelf gaan circuleren, en is het geen stilstaande lucht meer.
Stralingswarmte?
Niet koeler dan de omgevingstemperatuur, maar op omgevingstemperatuur. Transistors warmen op door de stroom die er doorheen loopt, maar als ze van grafeen zijn blijken ze dus die warmte bijzonder goed af te kunnen voeren :)
lol tijd om van een pc ook een tijdelijk vriezer te maken :P
Bij de interface tussen grafeen en de metalen contacten waarmee ze werden aangesloten, bleek het grafeen sterker af te koelen dan op te warmen, waardoor ze effectief gekoeld werden.
Hier begrijp ik dat deze chips zelfs zelfkoelend kunnen zijn. :9~ dus zeg maar dag tegen koelblokjes in het algemeen :9~
Maar waar gaat de energie dan heen? Alle electronica produceert warmte, en die warmte moet ergens heen. En volgens de thermodynamica zal die warmte niet worden omgezet in elektriciteit oid, dus het is en blijft warmte, en dat moet uiteindelijk afvloeien.

Koelen bestaat namelijk helemaal niet, enkel het verplaatsen van warmte ergens anders heen.
Het zou een mooie actie zijn als ze hiermee de warmte energie uit de omgeving naar electriche energie omzetten... Maar er staat dat dit effect bij de aanhechtingen van de transistors en het metaal werkt. Ik vermoed dat dat betekent dat ofwel de transistor zelf ofwel het metaal de warmte opneemt.
Als dat het geval is, dan scheelt het alsnog slijtage in de transistors.
In het geval van warmte --> electra omzetting... één van de heilige gralen?
Ik geloof de tweede hoofdwet van de thermodynamica verbiedt dit. Helaas....
Blijkbaar is de temperatuur verschil tussen de ruimte waar de chip in zit en de warmte die geproduceerd wordt door de chip zo groot dat de chip meer warmte energie verliest aan de omgeving dan dat hij produceert. Vriezer werkt ook zo de vriezer haalt de warmte uit het koelvak en de producten verliezen daardoor warmte(afkoelen).

Leraar zei dat er eigenlijks geen kou is wat wij mensen als warm en koud ervaren is gewoon de overgang van warmte. Het is zelf zo dat als je iemand zou blinddoeken en hem vertelt dat je hem een heel warm object aangeeft maar eigenlijks een heel koud object aangeeft dat hij het verschil niet kan voelen maar dat is dan wel met heel koud en niet min 10 meer min 40 zeg maar. Wist niet of ik dat nou moest geloven. :P

Weet nog zeker dat er een natuurkundige formule voor was iets met delta T.
Hoefde de moeilijke formules nooit te onthouden omdat je een binas erbij kreeg op de toetsen.
Blijkbaar is de temperatuur verschil tussen de ruimte waar de chip in zit en de warmte die geproduceerd wordt door de chip zo groot dat de chip meer warmte energie verliest aan de omgeving dan dat hij produceert. Vriezer werkt ook zo de vriezer haalt de warmte uit het koelvak en de producten verliezen daardoor warmte(afkoelen).
Niet bepaald. Een vriezer zorgt er inderdaad voor dat de warmte uit het koelvak wordt gehaald, maar om dat te doen moet je er warmte extra in stoppen (een vriezer gebruikt immers stroom). Die warmte gaat aan de andere kant van de kast weer naar buiten, daar zit niet voor niets een flinke radiator. ;)

Deze chips hebben alleen een grote warmtegeleiding naar de buitenwereld toe en hebben dus al een 'ingebouwde' heatsink. Iets van een aantal vierkante centimeters koel houden is een stuk makkelijker dan een oppervlak van een paar vierkante micrometer. :)
en hun unieke materiaaleigenschappen zouden de transistors bovendien zuiniger maken.
Daaruit kun je opmaken dat hij dus ook minder stroom verbruikt dus hoeft hij minder warmte te dissiperen. Dus hij produceert minder warmte en kan het beter afvoeren, ideale combinatie dus.
Ik heb totaal geen verstand van hoe deze grafeenverbindingen werken, maar om het volgens de fysica te laten kloppen zal het grafeen warmte uit de omgeving moeten gebruiken om zijn taak uit te voeren.

Het lijkt me ook redelijk vreemd dat het mogelijk is, maar ik denk dat deze wetenschappers wel zullen weten waarover ze het hebben :)

EDIT: of we zijn de regel fout aan het interpreteren: als ze het bij het koelen hebben over het dissiperen van warmte en bij het opwarmen over warmte die gegenereerd wordt door gebruik, dan is het inderdaad niet koelen zoals wij het interpreteren (= kouder worden dan de omgeving).

[Reactie gewijzigd door Glodenox op 7 april 2011 10:32]

Maar waar gaat de energie dan heen? Alle electronica produceert warmte, en die warmte moet ergens heen. En volgens de thermodynamica zal die warmte niet worden omgezet in elektriciteit oid, dus het is en blijft warmte, en dat moet uiteindelijk afvloeien.
Stel je voor dat de chip van zichzelf al een enorme heat-spreader is op het substraat. (Logisch ook, koolstof is een prima geleider). De eisen voor koeling worden daardoor een stuk minder dan het koelen van een geconcentreerde hot-spot van een paar micrometer groot.

Bovendien is koolstof een betere geleider dan metaal, waardoor de chip van zichzelf al een lagere weerstand heeft en dus minder energie verstookt. :)
Ik vraag me af: Produceerd deze grafeen versie minder warmte dan de silicium versie?

Als de Grafeen versie beter zijn warmte kwijt kan, dan moet die warmte toch nog ergens anders heen?

Net zoals een peltier element, die moet je aan de 'warme' kant extra gaan koelen.

[Reactie gewijzigd door DrBashir op 7 april 2011 10:17]

Afgifte van de warmte zal (zeer) waarschijnlijk gewoon aan de lucht zijn. Dit betekent wel dat je dus nog steeds een goede airflow nodig hebt om de verwarmde lucht uit je pc te krijgen (vrij logisch ook, want die warmte moet ergens naar toe).
daar zit dus het verschil,
in silicium transistoren gaan moneculen sneller bewegen als er meer stroom op komt te staan,
maar in deze Grafeen transistoren gebeurd dan niet, het materiaal warmt niet op; het wordt koeler...
ik vraag me alleen af of dit effect versterkt of verzwakt naarmate je er meer stroom op gaat zetten...
Dus we kunnen Moore's Law weer oppakken. Op naar de 10Ghz cpu's single core :-)
Lijkt mij niet, ik heb liever een multi-core processor met minder GHZ dan één dikke single core. Ongeacht hoe snel een single-core processor is, taken kan ie alleen serieel afhandelen en ontstaat er dus altijd enige wachttijd voor de taak opvolgend. Een multicore kan welliswaar wellicht minder snel een taak uitvoeren, maar wel parallel en dus meerdere tegelijk.

Zeker in de hedendaagse multitask omgevingen, blueray bekijken, binnenkomende mail bewaken en tegelijk twitteren heb ik liever een wat slomere multi-core.
Hetzelfde programma op een single-core op 10GHz doet net zo lang over 2 taken als op een dual-core op 5GHz.
Maar, als je maar 1 taak hoeft uit te voeren dan is je 10GHz single-core 2 keer zo snel als je 5GHz dual-core.

In de praktijk zal de dualcore het zelfs bij 2 taken nog slechter doen dan de 2 keer zo snelle singlecore, omdat de 2 taken nooit precies even zwaar zijn.
Met andere woorden: Een 2 keer zo snelle singlecore is altijd te prefereren boven een langzame dualccore. (Zaken als energieverbruik, productiekosten etc. even buiten beschouwing gelaten)
Je mag natuurlijk de overhead van het switchen tussen twee taken niet vergeten. Want in de praktijk zal die singlecore meestal continue wisselen tussen die twee taken, en deze niet serieel afwerken. Dat wisselen kost ook tijd.
Dat kun je ook zeggen voor dual core, welke core krijgt nou welke taak.
In realiteit lopen er naast je 2 hoofdtaken talloze achtergond porcesse die ook wat rekentijd krijgen, dus in realiteit zit je zelfs op een 12-core ook voortdurend te switchen en heb je dus ook die overhead.
Maar synchroniseren tussen 2 threads/processen op 2 cores neemt veel meer tijd in beslag dan tussen 2 threads/processen op 1 core...

Bovendien: wat doet het er toe: maak gewoon meteen een multi-core op 10GHz! :+
geef mij er dan maar vast 1tje... of meer
Mag ik jullie allemaal even wijzen op de MHz mythe?

http://www.youtube.com/watch?v=I3WnXaWjQYE

Snelheid is niet volledig afhankelijk van de GHz
Wel als je twee dezelfde architecturen neemt...
Wat dus de reden is voor nieuwere architecturen.

Het opschroeven van de hoeveelheid Mhz laat alles wat op de chip gebeurt sneller gebeuren, maar als dat niet erg handig gedaan wordt maakt dat niet uit. De hoeveelheid Mhz raakt het limiet met silicium vandaar dat er zo hard gewerkt wordt aan architecturen.
Ook niet bij 2 dezelfde architecturen, kijk maar naar het verschil tussen AMD en Intel processoren, of tussen Intel Core en Intel P4 processoren. Allemaal x86 architectuur ;)

De verschillen in snelheid kunnen op vele gebieden zitten, en de kloksnelheid is slechts 1 van vele factoren.
Hetzelfde als wat iedereen denkt met geluidsinstallatie's/boksen. Des te meer Watt, des te harder hij kan ;(
En daarnaast: Als het hard kan wil nog niet zeggen dat je er gebruik van maakt. Dus met andere woorden: Heb je zoveel vermogen echt nodig........ :+
Snelheid is afhankelijk van meerdere dingen. Dat weet iedereen, als ie goed nadenkt.
Haha wat een verkoop praatje van Apple is dit weer. Dat stukje over de pipeline, klopt geen zak van :p (mijn excuus voor het offtopic zijn)
In de realiteit zul je geen keuze maken tussen single op 10GHz en dual op 5GHz. De keuze zal zijn dus single op 10 en dual op 8. En dán hangt het er dus maar net van af hoe goed je applicatie kan multithreaden.

Dat zie je momenteel ook gewoon op de multi-core systemen. Wanneer je perfect schalende software hebt, is het aantal cores veel belangrijker dan de kloksnelheid. Schaalt de software niet zo goed, dan is de kloksnelheid belangrijker.
Hoewel multicore wel degelijk beter is dan hersenloos te gaan OCen, toch zeker met de huidige siliciumchips, is wat je zegt enkel waar omdat we tegen de 3/4Ghz limiet zitten.

Dat je op een quadcore zit, en zelf maar 2 taken denkt uit te voren (bv browsen en mailclient) wil helemaal niet zeggen dat je PC maar 2 dingen doet: er lopen tig processen op de achtergrond, goed voor in idle toch al een paar honderd threads die gelijktijdig lopen: ook met een modern multicore systeem heb je dus die waxhttijd waarvan je spreekt.

CPUs zijn echter zo snel dat je dat allemaal niet merkt.

Als je dus een 12Ghz single core CPU zou hebben, is die door de bank genomen sneller dan een 3Ghz quadcore (in termen van rekenkracht: cahcemissers etc neit meegerekend).

Het grote voordeel van multicore is echter het lagere energieverbruik: als je van 3 naar 4 Ghz gaat neemt het verbruik immens veel toe, terwijl ne relatief weinig extra stroom nodig hebt om een extra 3Ghz core toe te voegen.

Daarnaast hebben multicores ook betere chacheprestaties: er zijn verschillende L1 en L2 caches, waardoor minder cachemissers optreden: onze theoretische 12Ghz CPU zou een 4 keer grotere cache nodig hebben om de quadcore op cache-vlak te evenaren, maar als je een cache groter maakt wordt die ook trager.


@i-chat:
Wat jij zegt klopt nu echt helemaal niet hoor, enkele puntjes:
-ik heb nooit gezegd dat het exponentieel is, maar het verband frequentie-benodigde spanning is boven de GHz zeker neit lineair: das ook de reden dat men in smartphones nu dualcore chips steekt op 1Ghz: die verbruiken minder dan 2Ghz modellen.
-hoe verhoog je de stroomsterkte in de CPU? juist, door het voltage aan te passen... We beschikken namelijk enkel over een spanningsbron, niet over een stroombron.

Verder argumenteer je over dingen die ik helemaal niet gezegd heb: ik duidde enkel aan dat het nut vn dual cores dat van single cores in termen van rekenkracht niet overtreft (vandaar mijn 4x3GHz vs 1x12GHz uitleg). Natuurlijk is een 4x 12GHz beter dan een 1x12 GHz... Iets anders heb ik nooit beweerd.

Verder verwijs je ook naar het artikel, maar mijn post ging niet over grafeen, enkel over werking van multi-cores. lees dus aub voor je gaat bazelen dat iemand fout is...

[Reactie gewijzigd door kiang op 7 april 2011 12:23]

wat je nu zegt klopt echter, niet,

het energie vebruik stijgt niet exponentieel meer als je gebruik maakt van andere materialen, dat wil niet zeggen dat er bij dit soort koolstoffen niet een vergleijkbare grens is, maar die zal niet op 3ghz liggen.

maar misschien 8, 10 of zelfs 15ghz.

het door jouw omschreven probleem heeft namelijk alles te maken met de geleidende eigenschappen van een materiaal, bij silicium betekend dit at je bij dit soort voltages te veel last krijgt vn de werkstand als de stroompjes te kort bursten. je kunt dan alleen maar de streemsterkte verhogen, / tot het punt dat er zoveel stroom doorheen gaat dat je chip begint te smelten verbranden of dat de machnitische velden te groot worden.

als je een veel lagere weerstand hebt kun je dus ook veel sneller schakelen.

om nog maar te zwijgen over de incompleetheid an je argumenten, we praten namelijk niet over, de vraag of we nu quadcore 3ghz of single core 12ghz moten gan bouwen, we praten enkel over de vraag of we van 3 naar 12ghz willen.

als die weerstand lager is, en we dus met gelijke stroom, meer klocks kunnen maken, betekend dat in feite dat we de huidige chips niet pers NOG efficenter hoeven te maken, maar maar dat we gewoon een 12ghz core i7 zouden kunnen krijgen.

nu blijkt ook nog eens dat deze stof mogelijk beter koelt, waardoor we mindersnel naar stroomvretende koeling moeten grijpen. als je alle banen en chips op het mobo kunt vervangen door deze stof, zou dat behalve aanzienlijke snelheids verbeteringen, ook kunnen betekenen dat we weer pc´s krijgen met voedingen van maximaal 500 in plaats van 1000 watt..

dat lijkt me alleszins toch een prima beweging.
het energie vebruik stijgt niet exponentieel meer als je gebruik maakt van andere materialen, dat wil niet zeggen dat er bij dit soort koolstoffen niet een vergleijkbare grens is, maar die zal niet op 3ghz liggen. maar misschien 8, 10 of zelfs 15ghz.
Laten we zeggen dat de grens nu bij 3 GHz ligt (voor een quadcore) en bij 4 GHz (voor een singlecore). Als je dan naar grafeen gaat zullen die snelheden hoger komen te liggen, maar ik heb geen enkele reden om aan de nemen dat er geen verschil blijft bestaan tussen single- en multicore chips. Dus (volledig fictief getal!!) als je grafeen quadcore tot 15 GHz komt, dan kun je een singlecore misschien wel tot 18 GHz opkrikken.
om nog maar te zwijgen over de incompleetheid an je argumenten, we praten namelijk niet over, de vraag of we nu quadcore 3ghz of single core 12ghz moten gan bouwen, we praten enkel over de vraag of we van 3 naar 12ghz willen.
Voor de duidelijkheid, wat mij betreft waren we aan het reageren op freakandel's "Lijkt mij niet, ik heb liever een multi-core processor met minder GHZ dan één dikke single core.".
Ik denk niet dat je hier veel mensen zult vinden die (bij gelijkblijvende aanschafprijs, stroomverbruik, etc. etc.) liever een 3 GHz chip willen dan eentje op 12 GHz, dus die vraag is verder niet heel interessant.
als die weerstand lager is, en we dus met gelijke stroom, meer klocks kunnen maken, betekend dat in feite dat we de huidige chips niet pers NOG efficenter hoeven te maken, maar maar dat we gewoon een 12ghz core i7 zouden kunnen krijgen.
Ja, in theorie, maar waarom zou je dat willen? Het duurt waarschijnlijk nog wel een paar jaar voordat we grafeen-transistoren kunnen maken, dus waarom zou je "verouderde" techniek alleen maar een hogere kloksnelheid meegeven?
Verder, laatste wat ik ervan gehoord hebt is het niet bepaald triviaal om van het ene (silicium) procedé over te schakelen naar het volgende (bijvoorbeeld van 40 nm naar 32 nm), dus ik heb het vermoeden dat bij het overschakelen naar een compleet andere technologie (van silicium naar grafeen) echt wel iets meer komt kijken dan "zelfde ontwerp, klok wat sneller en klaar".
nu blijkt ook nog eens dat deze stof mogelijk beter koelt, waardoor we mindersnel naar stroomvretende koeling moeten grijpen. als je alle banen en chips op het mobo kunt vervangen door deze stof, zou dat behalve aanzienlijke snelheids verbeteringen, ook kunnen betekenen dat we weer pc´s krijgen met voedingen van maximaal 500 in plaats van 1000 watt.. dat lijkt me alleszins toch een prima beweging.
Misschien dat, tegen de tijd dat we grafeen-processoren kunnen maken, mensen ook eindelijk doorhebben dat "meer is beter" helemaal niet op gaat voor voedingen. Dat de techniek zuiniger wordt is mooi, maar als mensen dat niet doorhebben zullen ze veel te zware voedingen blijven kopen.
Ik vraag me af of multicore altijd wel sneller en beter is. De huidige oplossing met meerdere processoren is ontstaan doordat men niet meer efficiënt door kon ontwikkelen in de single core cpu's, haal je het niet in de lengte, dan maar in de breedte.
Maar is een pc nu echt parallel bezig? Je komt in de computer altijd wel een bottleneck tegen die niet parallel samenwerkt met je hardware.

(http://tweakers.net/nieuw...en-niet-altijd-beter.html

[Reactie gewijzigd door defiler1974 op 7 april 2011 10:50]

De kwestie is gewoon dat multi-core systemen véél meer berekeningen aankunnen dan single-core systemen.

Het probleem is echter dat je je software dan ook parralleliseren. Soms is dat goed mogelijk, en soms is dat lastig. Feit is wel dat er véél meer parrallel kan worden gedaan, dan men tot nu toe deed. Maar het is veel lastiger om zoiets te ontwikkelen, en dus komt dat pas op gang wanneer het ook daadwerkelijk vruchten afwerpt.

Nu de hardware op een punt kwam dat het echt niet langer ging om de snelheid uit single cores te halen, en men wel naar multi-cores moest gaan, is nu begint tijdperk waarin de software aangepast wordt om daad ook goed gebruik van te maken.

Je zult nu zien dat de toekomstige software steeds beter in staat wordt om al die cores ook daadwerkelijk te gebruiken.
Je ziet dat in Matlab, dat tegenwoordig heel veel berekeningen paralleliseerd, zonder dat de gebruiker daarvoor iets hoeft te doen. Je ziet het in DirectX 11, dat veel beter geschikt is om multithreaded te werken. Je ziet het in LabVIEW dat nu de mogelijkheden levert om bijvoorbeeld een for-loop autmatisch in meerdere threads op te delen, zonder dat de programmeur daar iets voor hoeft te doen.
Het is inderdaad erg goed dat er nu gedwongen wordt om meer te parallelliseren. Wanneer in de toekomst met grafeen het mogelijk wordt om de hz te gaan verhogen zijn de processen beter en worden ze ook nog eens sneller verwerkt.
Wat een mooi materiaal is dat Grafeen toch, sinds dat bekend hoe dit gemaakt kan worden lijkt het alsof er om de haverklap nieuwe ontdekkingen/bevestigingen aan het licht komen. Mooi.
Dat is wel een erg versimpeld beeld, het ligt in een werkelijke chip toch wel echt wat ingewikkelder. Ik ben het met je eens dat multicores flinke voordelen kunnen hebben, maar er plakken ook nadelen aan: lang niet alles is goed te paralleliseren (http://en.wikipedia.org/wiki/Amdahl%27s_law), Daar staat tegenover dat je wel prima meerdere processen op 1 core kan draaien, mits goed gescheduled. Kijk maar naar je windows, osx of linux omgeving; zonder ook maar een webbrowser of officepakket te openen, draaien er toch al snel 20 of meer processen.
Amdahl trapt daar een gigantische open deur in! Ik sta er verbaast van dat men het als een wetmatig benoemt...
Dat was geen open deur toen de uitspraak gedaan werd. In het mainframe tijdperk had iedereen 0,1 core. Het was dus best revolutionair om na te denken wat je met meer cores zou gaan doen.
Soms gaat het er alleen om, dat je het als eerste documenteert en erover publiceert.
De multi core-processor is iets wat we alleen maar uitgevonden hebben omdat de ontwikkeling met de single core-processer niet veel verder meer kon.
Ik heb liever een krachtige single core-processor. Daar is makkelijker voor te programmeren en je hebt geen last van concurrency en message overheads.
De multi core-processor is iets wat we alleen maar uitgevonden hebben omdat de ontwikkeling met de single core-processer niet veel verder meer kon.
Ik heb liever een krachtige single core-processor. Daar is makkelijker voor te programmeren en je hebt geen last van concurrency en message overheads.
Volgens mij is dat onzin. Er zijn taken die je enorm goed kan paralleliseren zoals sommige vormen van fotobewerking (RAW-bestanden ontwikkelen bijv.). De snelheid schaalt dan bijna 100% met het aantal cores. Aangezien we al (betaalbare) cpu's met 8 cores hebben, haal je dat niveau nooit met een single core.
Juist, maar waarom hebben we cpu's met 8 cores? Omdat we met single cores tegen een plafond kwamen. Als dat plafond met de grafeenmethode verdwijnt, dan zouden multicores in principe niet meer nodig zijn en kunnen we terug naar singlecores.
Dus je beweert dat dat op deze processor 40x sneller draait dan op een enkele core? (http://www.engadget.com/2...science-ships-to-univers/)

Er is geen mens die die 48-core processor kan programmeren. De complexiteit stijgt alleen maar met het aantal cores, wat voor vertraging zorgt.
USB is ook sneller dan je parallelle poort.
SATA vs IDE

Het is steeds dezelfde ontwikkeling, het eigenaardige aan de industrie om Moore's law te kunnen volgen.

Eerst maken ze een component, verbeteren die. eens ze aan een limiet komen dan ontdubbelen ze dat. Daarna komt er weer een snellere Technologie uit, en eigenaardig genoeg is de enkelvoudige tech sneller dan de oude , ontwikkelen ze verder tot ze aan een lim......

of je dit nu toe past op communicatie of verwerking het doet er niet toe.
Maar als ze een nieuwe tech maken, denken ze er nooit aan om die direct parallel te maken ;) iets met ruimte laten om later nog nieuwe dingen te kunnen verkopen O-)
USB is ook sneller dan je parallelle poort.
SATA vs IDE
(..)
of je dit nu toe past op communicatie of verwerking het doet er niet toe.
Maar als ze een nieuwe tech maken, denken ze er nooit aan om die direct parallel te maken ;) iets met ruimte laten om later nog nieuwe dingen te kunnen verkopen O-)
Ten eerste, parallelle poorten en IDE zijn juist wel parallel, waar USB universal serial bus en SATA serial ATA juist serieel zijn. Waar jouw "Maar als ze een nieuwe tech maken, denken ze er nooit aan om die direct parallel te maken" vandaan komt is me een compleet raadsel...!?
Verder, communicatie en verwerking maakt wel degelijk ontzettend veel uit. Als je het over communicatie hebt waarbij je parallel data verstuurd dan loop je namelijk tegen skew aan; de draadjes in je kabel zijn net niet even lang, waardoor de signalen (die je aan de ene kant tegelijk op alle draadjes tegelijk zet, aan de andere kant) niet tegelijk aankomen. Door slechts één signaaldraad te gebruiken (in combinatie met een PLL om beide kanten netjes "in de pas" te laten lopen) kun je veel sneller schakelen. Zoveel sneller dat de netto-snelheid van de gehele kabel flink omhoog kan, ook al gebruik je veel minder data-lijnen.
Bij CPUs zijn de verschillende threads (tot op zekere hoogte; af en toe zul je wel moeten synchroniseren natuurlijk, maar lang niet na elke instructie) juist redelijk onafhankelijk; als ik vier threads heb dan zal het me een zorg zijn als ze niet op exact hetzelfde moment klaar zijn. Zelfs al is het na 1,01; 1,02; 0,89 en 2,00 seconde, dat is nog steeds een stuk beter dan als een singlecore het er in 4 seconde doorheen werkt. Omdat we singlecores niet meer (op een efficiënte manier) sneller kunnen maken, maar extra cores toevoegen relatief eenvoudig is, moeten we het juist daar van hebben. Wel zou je kunnen roepen dat een singlecore hoger klokt dan een multicore, maar dat verschil weegt, bij processing, op geen stukken na op tegen het lagere aantal cores; tegen het lagere totaal aantal operaties per seconde; mits je genoeg threads hebt, wat bij hedendaagse (niet-number crunch) code nog wel eens een bottleneck kan zijn.
En email en twitter trekken ook zoveel GHz van een moderne CPU...
Ik heb liever een dual-core van 10Ghz dan een dual-core met minder Ghz.

Elke vordering op single core is een vordering op dual, quad etc.
Dus dit kan postief zijn voor de tech branch en dus voor ons.
Daarentegen kan een dikke single core natuurlijk sneller die taken afhandelen, waardoor een single core die snel genoeg is theoretisch gezien die parallele taken net zo snel uit zou kunnen voeren met context switching.

Snellere single cores zijn sowieso wel praktisch als je kijkt naar de extra moeite die het kost om code van single processes te paralleliseren. Hoewel multicores natuurlijk mooie ontwikkelingen zijn is ook de speedup die ermee gerealiseerd worden bounded en daarom is het goede zaak dat ook de losse cores steeds sneller worden in plaats van alleen maar overal meer cores bij te plakken.
In eerdere berichten werd aangeven dat 100Ghz al gehaald is:

Tweakers
IBM

Ik heb ook een keer ergens gelezen dat theoretisch 1Thz mogelijk is op grafeen, maar kan zo even de bronvermelding niet terugvinden.
Dat is niet het soort transistors dat in CPUs gebruikt wordt. Een eerder bericht van IBM claimt zelfs dat graphene in het geheel niet geschikt is voor transistoren in processors omdat ze niet een aan/uit staat hebben zoals we die kennen in silicon:

http://www.geek.com/artic...n-in-processors-20110124/

Nog een paar uitdagingen voor we zover zijn zullen we maar zeggen :)
Die hoge clocks halen ze oa doordat ze andere type transistors gebruiken BJT's ipv MOSFET's.

Maar ze bouwen die als een mosfet schakeling omdat het te duur wordt om een geheel BJT transistor schakeling te maken, omdat het standaard met MOSFET's worden gemaakt.

Ze zouden toch met deze grafeentransistors een quantumcomputer maken, tenminste dat was wat wikipedia erover vertelde :P .
En dat allemaal voor 2 e-mailtjes per dag van het kruidvat :+
Waarom zo zwart/wit... een 5Ghz octa core lijkt mij ook prima hoor :)
Geef die 4 of 8 cores die je nu hebt eerst maar eens wat zinnigs te doen..
Wel mooi dat dit komt nadat de GHZ race over is...
Aan de andere kant, alle hitte die gegenereerd wordt en alle methodes om die af te voeren is allemaal verspilde energie. Ik voorspel dat chips gemaakt van dit materiaal computers stukken zuiniger gaan maken.
wauw dat is zeker wel vet maar zal zeker nog enkele jaren duren voor dit uiteindelijk gebruik kan worden in electronica leuke eigenschappen zuiniger , minder warmte , sneller
Volgens mij staat er dat alleen de transistor zelf koeler is. Z'n omgeving wordt wel nog opgewarmd.

mocht dat niet zo zijn, dan zijn ze niet automatisch zuiniger. koelen kost, net zoals opwarmen, energie.

[Reactie gewijzigd door powerflux op 7 april 2011 10:16]

Was het grootste probleem niet de dichtheid van transistors? Het is handig dat ze zich zelf kunnen koelen (weg met de stofzuigers!) maar straks kom je er toch weer bij dat ze zo kort op elkaar komen te staan dat ze elkaar gaan beinvloeden.

Volgende aspect, wat kost dit ten opzichte van silicium? Als het goedkoper is dan zal er ook wel een snelle adoptie mogelijk zijn.
Dit lijkt bijna te mooi om waar te zijn...Kan het niet zo zijn dat deze AFM invloed heeft gehad op de metingen? en dus het grafeen sneller laat afkoelen dan het zonder zou moeten? ik ben geen expert maar wat ik van de AFM weet is dat ie heel dichtbij moet komen/komt om een meting te doen en zo misschien wat warmte overneem/helpt bij het afkoelen?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True