Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 36, views: 15.208 •

Onderzoekers van het California Institute of Technology hebben technologie ontwikkeld waarmee elektronische circuits zichzelf herstellen na schade. Aan de hand van sensors en regelektronica op de chip, en de gewenste output vindt het systeem zelf een work-around.

Bij huidige chipontwerpen kunnen kleine defecten op transistorniveau er al toe leiden dat een hele chip onbruikbaar wordt. Onderzoekers van het High-Speed Integrated Circuits-laboratorium van de afdeling Engineering and Applied Science van Caltech hebben nu een systeem ontwikkeld waarbij de chips zichzelf, in beperkte mate, kunnen herstellen en zelfs optimaliseren.

Het systeem bestaat uit verschillende robuuste on-chip-sensors, die informatie over temperatuur, stroom, spanning en verbruik kunnen doorgeven aan een speciale asic op de chip, die als het ware fungeert als brein van het zichzelf herstellende systeem. Aan de hand van de aangeleverde sensorinformatie en de gewenste output kan de asic op eigen houtje een herstelmechanisme op de chip activeren. "We hebben het systeem zo generiek mogelijk ontworpen, zodat het zelf de optimale stand van alle actuators kan bepalen, zonder externe interventie", aldus Stephen Bowers van het laboratorium.

Caltech signaalversterker met zichzelf herstellende circuits

De Caltech-onderzoekers hebben hun nieuwe technologie gedemonstreerd aan de hand van minuscule, hoogfrequente signaalversterkers, voorzien van het ontwikkelde 'immuniteitssysteem'. De chips werden in de experimenten op verschillende wijzen beschadigd, waaronder het meer dan eens blootstellen aan een krachtige laser.

Hoewel hierbij meer dan de helft van de versterker en een groot aantal componenten weggevaagd werden, was de chip in staat zich te herstellen. Met de asic werkend op een kloksnelheid van 50MHz duurde dit herstelproces slechts 0,8 seconden, terwijl dit met 200MHz terugliep naar 0,2 seconden.

Hoewel blootstelling aan een krachtige laser in de praktijk niet snel voorkomt, kan het zelfherstellende vermogen van het voorgestelde systeem ook gebruikt worden voor onder meer het herstel van productiefouten, voor een lagere uitval. Ook bleek uit tests met 20 verschillende chips dat de zelfherstellende variant betrouwbaarder is. Tot slot claimen de onderzoekers dat het energieverbruik van zelfherstellende chips de helft lager kan zijn dan dat van een conventioneel chipontwerp, al geven de onderzoekers daarvoor geen verklaring.

Actief zelfhelende circuits universiteit Caltech

Reacties (36)

Dit bied vast veel mogelijkheden in de ruimtevaart, hoop wel dat jan de man er ook van profiteer.
Ja. Leg je er maar bij neer, er is zoveel innovatie die gewoon komt uit de oorlogsvoering.

Internet (welja, het redundante systeem dat de pakketjes bezorgt), GPS, ...
Nou moet ik toch eerlijk gezegd wel even achter mijn oren krabben om te bedenken waarom dit nou nog nooit eerder bedacht is...

In Software Development is het toch ook gewoon dat je fall-back mechanismen programmeert in je code zodat niet elke willekeurige error leidt tot een crash van het (gehele) programma?...

Het zal wel aan mij liggen maar ik vind dit nou niet een wonderbaarlijke ontwikkeling.. meer iets van "dat werd tijd!".
Voor 'oorlogsrobots' lijkt dit me geen onmisbaar systeem. Hoevaak gebeurt het dat je een chip 'half kapotschiet'? Ik denk dat het redundant uitvoeren van elektronica veel betere resultaten oplevert dan microchips die zichzelf kunnen repareren.
Ik ben niet zo heel erg bekend in de oorlogs robots, het enige dat ik me echt voor geest kan halen zijn de onbemande vliegtuigen. Volgens mij is bij die dingen inderdaad niet het probleem dat de chips stuk gaan maar dat er essentiŽle onderdelen van de body missen om te kunnen vliegen nadat het ding beschoten is.
Ik denk het niet.

Dit is compleet indeterministisch gedrag, en dus volkomen onbetrouwbaar. Je wilt geen zelf-reconfigurerende hardware in je modules hebben.

Je weet immers niet:
  • of deze technologie je chip kan repareren, misschien is de fout te groot
  • of de technologie bij het repareren nieuwe fouten introduceert en andere onderdelen kapot maakt
  • of de technologie goede stukken "per ongeluk" reconfigureert
  • hoe snel de technologie een oplossing gevonden heeft, wat de "WCET" van deze technologie is
Dus je hebt er eigenlijk niks aan. Je kan beter een tweede chip meenemen voor het geval dat de eerste er mee ophoudt, want dan heb je alles onder controle. En dat laatste is het enige wat telt. Niks statistisch en ongeveer, maar harde feiten. Dit geldt voor alle "kritische" gebieden voor chips, dat gaat ook niet zo snel veranderen.

Dat neemt niet weg dat het idee van zelfhelende chips geweldig is. Maar dan niet voor kritische doeleinden, maar juist voor de doorsnee gebruiker. Je kan hiermee yields verbeteren en in plaats van chips weg te gooien kunnen ze zichzelf opnieuw configureren. Ook kleine designfoutjes worden verbeterd, waardoor je minder vaak complete ritsen chips met een designfout weg kan gooien. Wat dat betreft: thumbs up!

[Reactie gewijzigd door Garyu op 12 maart 2013 17:43]

Garyu, euh?...

indeterministisch gedrag?... wat?

weet je Łberhaupt waar je het over hebt?

chips werken gewoon op een deterministische wijze en ook deze chip is geen uitzondering.
Wat deze ontwikkeling inhoudt is dat deze chip een controle module heeft welke input, output en throughput van overige modules in de chip kan monitoren en indien het afwijkend gedrag waarneemt (wegens schade) het de beschadigde modules kan rerouten door onbeschadigde modules.

Om een vergelijking te trekken welke jij wellicht begrijpt:
Jou CPU heeft 4 cores en jij draait 4 processen; een op elke core.
Wanneer een van de cores stuk gaat neemt <controle module> dit waar en reroute het de op die core draaiende software over de overige 3 cores.
Je verliest dus geen functionaliteit en je output blijft hetzelfde, het enige wat verminderd is je maximale rekencapaciteit (van 100% naar 75%). De processen die draaien gaan dus gewoon ongehinderd door.

Dit is ongetwijfeld geen 100% accurate vergelijking maar komt iig dichter in de buurt dan jou 'non-deterministische' interpretatie.

Deze oplossing is net zo min 'zelf-reconfigurerend' als een pnp OS die detecteerd dat jij een usb stick erin plugt/eruit plugt en automatisch het toevoegen/verwijderen verzorgt.
De mensen die deze controlemodule gemaakt hebben weten echt wel wat het in welke omstandigheden doet (dat hebben ze nl. zelf zo geprogrammeerd/ontworpen!)
Nou of denk iets dichterbij dan de ruimte: namelijk je mobiel.
veelal wanneer deze niks meer doen is er een miniscule condensator ontploft.
op deze zelfhelende manier zouden ze dus een stukk langer mee kunnen gaan.
handig voor overklokkers. zo'n 10 jaar in de toekomst dan. er gaat eens wat fout de cpu wordt te heet brand door.
fixed zichzelf en klokt zichzelf weer naar beneden. eerste keer daarna opstarten de melding uw cpu heeft zich hersteld van een intern defect. vraag me alleen af of fabrikanten er zo blij mee zullen zijn. die zien liever dat iedereen om de 2 jaar weer wat nieuws koopt.

[Reactie gewijzigd door coolkil op 12 maart 2013 15:45]

De reden dat mensen iedere om de zoveel jaar iets nieuws koopt is in de CPU wereld omdat er dan weer betere modellen zijn, niet omdat CPU's zo snel kapot gaan..
Ideaal voor space, maar hebben we hier op aarde zoiets nodig? Ik heb nog nooit meegemaakt dat een chip kapot ging door zoiets verfijnd als een laserbeam of straling etc. Of dat ding was echt 100% verbrand of beschadigd door een breuk, maar niet iets plaatselijks en met een paar circuits.
Voor de ruimtevaart is dit echter zeer interessant. Daar is veel meer (gamma) straling, die dwars door alles heen gaat. Met de huidige grootte van chips en transistoren kan dit gemakkelijk tot een defect leiden. Hierdoor kunnen straks zeer compacte, snelle en energiezuinige apparaten ook in de ruimte fungeren met tenminste dezelfde betrouwbaarheid als hun oude broers (zoals de 8086).
In de ruimte wemelt het van het ruimteafval van de honderden. zo niet duizenden satellieten die als puin rondzwerven- na een gebruiksduur van gemiddeld 15 jaar.
Een satelliet (en overig materiaal dat de ruimte in gaat) wordt door-en-door getest op straling, trilling etc. Alles met puur goud uitgevoerd (electronic circuits en IC's) voor goede geleiding en tegen oxidatie enz.

Als er met gamma-straling problemen waren geweest, dan waren er niet zoveel satellieten werkzaam geweest tot op heden.
Desalniettemin ben ik met je eens, dat het wel tot een verbetering en hogere garantie kan leiden dat bij een fail een herstelprocedure plaatsvindt :Y

Waar ik meer aan denk, is AI.
Bij Artificial Intelligence een machine (Teminator) die met zelf helende circuits het langer uithoudt, bijvoorbeeld. He is een mooie vooruitgang, er waren al zelf helende netwerken, gecombineerd met zelf helende circuits is dit ook een stuk duurzaamheid t.b.v. het milieu- devices (al dan niet embedded) die weer minder snel obsolete is en daarom minder snel vervangen hoeft te worden. Nu nog de vraag of het economisch rendabel is om meer te investeren dan de zaak vervangen, helaas zal dit waarschijnlijk nog het meest de doorslag geven, boven de groene factor. :/

[Reactie gewijzigd door johncheese002 op 12 maart 2013 16:11]

Klink interessant, maar wat als de asic stuk gaat, hoe wordt deze dan hersteld ;)
Klink interessant, maar wat als de asic stuk gaat, hoe wordt deze dan hersteld ;)
Dat is precies wat ik ook dacht. Moeten we twee van deze chips hebben. Toch weer meer chips...
Ken je klassieken! :) Van HAL9000 waren 3 exemplaren online: wanneer er 1 afwijkt, weet je dus waar de fout zit.
Gelukkig dan maar voor Dave, met zulke elektronica had hij nooit HAL9000 uit kunnen schakelen.

Sorry Dave, you can`t do that, I just rerouted my circuits.....your actions don`t matter, my mission is to important to fail....
Sorry Dave, you can`t do that, I just rerouted my circuits.....your actions don`t matter, my mission is to important to fail....
Sorry Dave, you can`t do that, I just rerouted my circuits.....your actions don`t matter, my mission is to important to fail....
etc....

Zelfs SAL9000 had niets bij kunnen dragen,

Sorry dr Chandra, your actions don't matter...I have all the information I need. I think you are wrong, I don`t believe I will dream, so I just rerouted my circuits...
Sorry dr Chandra, your actions don't matter...I have all the information I need. I think you are wrong, I don`t believe I will dream, so I just rerouted my circuits...
Sorry dr Chandra, your actions don't matter...I have all the information I need. I think you are wrong, I don`t believe I will dream, so I just rerouted my circuits....
etc...

Wel lekker lange films.... :P

[Reactie gewijzigd door Teijgetje op 13 maart 2013 17:58]

Jawel voor embedded systemen is dit ideaal. Denk maar eens mission critical omgevingen, zoals kernreactoren of iets zoals industriele automatisering. Plekken waar de impact van een storing hoog is.
Ik weet niet of ik dan wel zou willen vertrouwen op een systeem dat zichzelf zou kunnen fixen, maar misschien ook wel niet. Dan liever alles redundant uitvoeren en zorgen dat als systeem A wegvalt, B het overneemt en er een melding komt dat A nagekeken moet worden.
Voor mission-critical systemen word er meestal erg voorzichtig omgesprongen met het in gebruik nemen van nieuwe technologiŽn. Doorgaans zijn er uitgebreide en strenge certificatie-trajecten, waarbij voor zo'n ingrijpende techniek de chip-fabrikant openheid zal moeten geven over het chipontwerp. Daar staan de fabrikanten vast niet om te springen.

Dit soort technologiŽn zullen pas in mission-critical systemen terecht komen als ze zich lang en breed in andere markten hebben bewezen. Neem de avionica-sector; die begint ook pas langzaamaan begint te kijken naar multi-core, met bijvoorbeeld uitgebreide onderzoeken over (neven)effecten van multi-core op de interne bussen/caches van processoren.

Methinks dat de yield van commerciŽle chips verhogen is een veel winstgevender en belangrijker toepassingsgebied is voor deze techniek.
Door straling gaat er heel veel kapot, maarja ligt er wel aan waar je werkt. Ik werk bij een onderzoeksreactor en daar moet er altijd over nagedacht worden of de electronica ertegen kan.

Voordat iedereen begint te roepen dat ze die reactor dan dicht moeten doen. Ik werk op het moment aan nieuwe medicatie en diagnostische methoden voor zietkes als Alzheimer, Parkinson en kanker. Hier is het op dit moment nog wel noodzakelijk om radioactiviteit te gebruiken, bijvoorbeeld voor gebruik in PET scanners.
Is er ook onderzoek gedaan naar mogelijk brandgevaar na het gebruik van die zelfhelende circuits?

Het is leuk dat zoiets dan "nog even werkt" maar doordat de kanaaltjes met electriciteit niet meer op de orginele grootte werken, is er meer warmte ontwikkeling...

Lijkt me niet erg handig om dat soort electronica nog lang te gebruiken in allerlei toepassingen...
Ik zie dit eerlijk gezegd nog niet in chips zoals moederborden voorkomen...
Als een moederbord Nooit meer kapot kan gaan hoef de consument ook geen nieuwe te kopen en draaid de fabrikant verlies |:(

Of denk ik nu helemaal verkeerd??
Als je alleen maar een nieuw moederbord van de zelfde fabrikant koopt als de oude stuk is, heb je helemaal gelijk.

Zelf koop ik 'n nieuwe als de oude niet meer voldoet, en ik graag wat snellers wil.
Mocht het moederbord stuk gaan, is dat meestal in mijn boekje een minpunt voor de fabrikant, en zal ik in het vervolg eerder naar een concurrent gaan.

Met andere woorden, ik denk dat het vrijwel geen impact op het koopgedrag zal hebben.

[Reactie gewijzigd door KompjoeFriek op 12 maart 2013 16:15]

Ik zie dit eerlijk gezegd nog niet in chips zoals moederborden voorkomen...
Als een moederbord Nooit meer kapot kan gaan hoef de consument ook geen nieuwe te kopen en draaid de fabrikant verlies

Of denk ik nu helemaal verkeerd?
Jup, consumenten kopen hardware omdat er iets snellers is. Niet omdat het kapot is...

[Reactie gewijzigd door useruser op 12 maart 2013 18:48]

Denk dat de meeste PC's weg gaan omdat ze oud zijn en niet stuk. Heb zelf nog steeds een 8088 staan, werkt nog prima, maar heb ondertussen toch wel een nieuwe gekocht (meerderen zelfs in de tussentijd).

Ik koop juist een moederbord niet meer bij de fabrikant als het moederbord na 2 of 3 jaar stuk is gegaan. Dan is de kwaliteit naar mijn mening niet goed genoeg. Dus een moederbord wat niet stuk gaat klinkt voor mij prima en zou voor mij niet een reden zijn om nooit meer te upgraden.
"Bij huidige chipontwerpen kunnen kleine defecten op transsistorniveau er al toe leiden dat een hele chip onbruikbaar wordt."

Erg interessant dat deze techniek dit kan verhelpen. Nu ben ik echter wel benieuwd naar de invloed op de performance van de chip; wanneer deze techniek een 'onbruikbare' chip bruikbaar maakt, hoe weerhoud de prestaties van deze bruikbaar gemaakte chip zich ten opzichte van de chips die vanaf de productielijn zijn goedgekeurd? Of gaat het hier om dusdanig kleine fouten dat het in de praktijk niet merkbaar zal zijn?

Interessant om te zien dat er steeds meer 'zelfhelende' techniek voorbij komt op Tweakers. Het begint met kleine stappen, maar wie weet waar we over twintig jaar staan. :)
Dacht ik ook al. Mij lijkt het dan dat voor een signaal dat niet meer op plaats A kan geraken, een oplossing gevonden wordt om via via via via... andere componenten een signaal daar te krijgen. Of een signaal ergens anders wat voor de buitenwereld van de chip hetzelfde effect heeft. Maar aangezien dan die componenten daar ook voor moeten zorgen lijkt me dat die zich niet meer 100% op hun eigen taak kunnen concentreren.

Bij componenten die weinig te doen hebben gaat dat nog, maar wanneer daar drukke componenten gaan tussenzitten lijkt mij dat het toch een impact voor de performance zal hebben.
En dan moet nog gezorgd worden dat de timing overal overeenkomt.
Lijkt me perfect voor ruimtereizen en missies naar andere planeten waar elektronica gauw last heeft van ruimtestraling. Al vraag ik me af in hoeverre bij continue bestraling/beschadiging de elektronica dit uit kan houden, op een gegeven moment zijn de beschadigingen misschien te groot geworden om nog hun werk goed te kunnen doen. Maar mocht op deze manier de houdbaarheid kunnen worden opgerekt lijkt me dat een goede vooruitgang.
Dus die chip zoekt gewoon een omweg oid? Flauw systeem, is er niet iets te verzinnen met galvanische corrosie oid?
Werkt dit ook voor schade aan chips door statische ontlading?
Eens gezocht hoe ze dat nou doen, want ook in het bronartikel staat geen enkele informatie over de methode. Gelukkig is het al eerder gepubliceerd: http://ieeexplore.ieee.or...?tp=&arnumber=6242268 (voor de mensen met IEEE toegang).

Voor degene zonder, het gaat hier eigenlijk over twee aparte onderwerpen die wel gerelateerd zijn. Het eerste is dat ze een hoop digitale logica erin hebben gegooid waarmee ze elke instelling kunnen aanpassen (eigenlijk de on-chip variant van een schakeling vol met potmetertjes gooien). Combineer dat met wat analoog - digitaal converters, en ze kunnen de performance meten, en dan wat aan knopjes draaien. Voeg een hillclimbing algorithme toe, en hij zoekt zelf zijn optimale punt afhankelijk van je eisen. Ik denk dat ook daar hun stroombesparing vandaan komt: Je hoeft hem minder te overdimensioneren.

Dan komen we bij het gedeelte dat ze met een laser spul eruit kunnen fikken. Daarbij is het punt gewoon redundantie: De hele power-amplifier zit er twee keer in. Normaal staan ze allebei half aan. Maak je ťťn kapot, dan zal je controle circuit zien dat zijn output power te laag is, en gaat hij eraan draaien om output power hoger te krijgen. De ťne zal niet reageren (immers kapot), de andere helpt wel, dus die zal hij dan maximaal instellen. Dus ipv dat je output power met de helft zakt, is het met minder (niet 0, hij zakt nog wel significant).

Eigenlijk is dat dus hetzelfde als gewoon redundant chips in je printplaat erin gooien, maar wel met een voordeel: stel je voor je chip heeft 5 componenten, en je hebt alles redundant, dan kunnen er 2 componenten kapot gaan en blijft hij het doen (tenzij het 2 dezelfde zijn). Als je 2 chips hebt, en in beide gaat 1 component kapot, is het einde verhaal.

Oftewel de conclusie is: Leuk, interesant, onderzoek, wat best praktisch ingezet mogelijk gaat worden. Echter, met zo'n titel denk je dat de chip zichzelf echt fysiek gaat herstellen, dat is dus absoluut niet het geval.

Waarvoor zou dit nuttig kunnen zijn? Ik verwacht echt niet dat je dit in een mobiele telefoon terug zal zien. Misschien base stations wel, gezien dat daar betrouwbaarheid enorm belangrijk is. Eerder genoemde ruimtevaart is ook een goede, al moet je nog wel oppassen dat je logica genoeg redundantie heeft, en niet dat je chip ermee kapt als die logica beschadigd raakt, want die zal een stuk gevoeliger zijn voor hoog-energetische straling dan een PA.

Waar je het absoluut niet terug in zal vinden: Alles digitaal. Oftewel je moederbord, processor, etc zal je dat niet op deze manier terug zien. Sowieso hebben digitale chips al lang de mogelijkheid voor tests, maar je hebt weinig behoefte om hoop redundantie te moeten toevoegen op chips als dat niet absoluut noodzakelijk is.

[Reactie gewijzigd door Sissors op 12 maart 2013 16:41]

Op dit item kan niet meer gereageerd worden.



Populair: Samsung Gamecontrollers Smartphones Processors Sony Microsoft Apple Games Consoles Politiek en recht

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013