Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 65, views: 26.599 •

Onderzoekers denken een methode te hebben bedacht waardoor defecte chips toch in computers of smartphones kunnen worden gebruikt. Dat zou niet alleen de chipopbrengsten verhogen, maar ook zuiniger apparatuur tot gevolg hebben.

Een chip die van een wafer komt en defecten vertoont, wordt momenteel in veel gevallen weggegooid, zeker als het processors of socs betreft. Chips die niet correct functioneren, zouden echter prima in computers of smartphones gebruikt kunnen worden, aldus Andreas Burg. Burg leidt het Telecommunications Circuits Lab van de École polytechnique fédérale de Lausanne, een Zwitsers onderzoeksinstituut. Zijn lab houdt zich onder meer bezig met data-overdracht en, net als bij transmissie van data, zou ook bij processors tolerantie voor fouten kunnen worden aangebracht.

Test-geheugenchipsDat zou het gebruik van 'beschadigde' chips mogelijk maken en daarmee hogere 'yields' of opbrengsten per wafer met zich meebrengen; er hoeven minder defecte chips weggegooid te worden. Bovendien zouden dergelijke chips makkelijker op een kleiner procedé geproduceerd kunnen worden, omdat de hogere defectkans die daarmee gepaard gaat, geen obstakel voor gebruik vormt. Dat zou het verder verkleinen van chips haalbaarder maken, zo stelt Burg. Kleinere productieprocedés brengen een lager energiegebruik met zich mee, waardoor apparatuur zuiniger wordt.

Door fouttolerantie af te kijken van datanetwerken zouden processors kunnen werken met een zeer lage spanning, waarbij fouten sneller optreden. Vooral telefoons worden als voorbeeld aangehaald; die zouden kunnen schakelen naar een zuinige modus, waarbij de lage werkspanning fouten en kleine vertragingen kan opleveren. Fouttolerantie zou een telefoon in staat stellen om nog steeds te functioneren met een bijna lege accu, zij het wat langzamer om de fouten te compenseren. In een simulatie bleek geheugencorruptie van weinig invloed op het functioneren van een telefoon.

Reacties (65)

Maar er word alsnog niks verteld hoe ze deze fouten gaan opsporen en verbeteren/herstellen..
Deels wel:
Door fouttolerantie af te kijken van datanetwerken zouden...
Ja, maar dat is een beetje een dooddoener, als hij er niet bij vertelt hoe dat dan toegepast kan worden. Mij lijkt het namelijk alles behalve duidelijk hoe je dat dan af zou moeten kijken en het zou me zelfs niets verbazen als het helemaal niet mogelijk blijkt te zijn. Bij datanetwerken gaat het er om dat je bij punt B dezelfde data achterhaalt die bij punt A het transport medium in ging. Daarbij kun je dus algorithmes toepassen die checken of het inderdaad nog hetzelfde is. Bij een chip echter moet het juist niet hetzelfde zijn, die chip moet bepaalde bewerkingen uitvoeren op de data, dus hoe ga je dan controleren dat de output correct is? Dan zou je er al net zo'n chip naast moeten zetten en de output alleen accepteren als ze allebei hetzelfde zeggen, maar dat gaat niet zuiniger zijn.
Nee, dit klinkt mij een beetje als "als we de zwaartekracht op kunnen heffen dan kunnen vliegtuigen veel efficÔenter vliegen" (of falsum impliceert alles, voor de logica buffs).

edit @Fireshade; Ja dat eerste artikel was ik ondertussen aan het lezen en daar staat het wel al duidelijker in (de researchpaper gaat me iets te ver ;)). Uit het t.net artikel leek het ook een beetje alsof je hedendaagse cpu's kapot toch zou kunnen gebruiken, maar het gaat veel meer om chips op een compleet andere manier ontwerpen waardoor ze zelf fouttoleranter worden en dat klinkt inderdaad al een stuk logischer.

[Reactie gewijzigd door finraziel op 27 juni 2012 17:09]

als hij er niet bij vertelt hoe dat dan toegepast kan worden.
Dat doen de onderzoekers uiteraard wel (of bedoel je onze Tweakers.net redacteur?).
Het gaat uiteraard niet lukken om het gehele onderzoek in dit artikel te plaatsen.
Misschien biedt het wat meer opheldering als je de bron even doorleest:
http://sti.epfl.ch/page-78653.html
En hier is de onderzoekspaper:
http://dl.acm.org/citation.cfm?doid=2228360.2228451
Succes ermee!
Het hoeft niet helemaal uitgediept te worden, maar vertellen hoe is uiteraard een cruciaal onderdeel van zo'n nieuwsbericht ja. Niet slechts een sommatie van de voordelen als je defecte producten toch kan gebruiken. Dat kunnen we zelf ook bedenken.
Het naar mijn mening een beetje een dooddoener: fault tolerance technieken worden ook in chips voor satelieten gebruikt. IBM had jaren geleden ook FT ingebouwd in test circuits die de yield verbeterden.

En waarom wordt dit niet standaard gebruikt? Omdat de circuits een stuk ingewikkelder worden. Tevens gebruik je meer oppervlakte waardoor het geheel nog duurder wordt...

Dan kun je beter die 5% weg gooien en nieuwe wafers bakken - dat is goedkoper dan alles in drievoud uitwerken om een hogere yield te krijgen.

Dit begint pas commercieel interessant te worden als het "resilient" maken automatisch gaat, en daar gaat de paper dus niet over... 25 jaar geleden was dit nieuws - de media grijpen er nu op omdat het nu (in theorie!) met een mobieltje gedaan is...
Ik dacht dat dit reeds al gebeurde met huidige pc chips. waarbij chips op bepaalde hogere frequenties fouten vertonen af fabriek lager geklokt worden en voor een langzamere worden verkocht. vandaar ook dat de ene CPU met zelfde specs soms minder ver geklokt kan worden dan een andere.
dat zijn dan ook technieken die bij wijze van bijna net zo oud zijn als de bit zelf, dingen als CRC ECC checks en meer zouden je niet onbekend in de oren moeten klinken.

Waarschijnlijk gaat het dus om vergelijkbare dingen, waarbij het zelfs zo kan zijn dat bij sommige data absolute correctheid minder belangrijk is dan algemene correctheid (bijvoorbeeld analoog geluid, dit mag best wel wat vervormen voordat woorden niet meer te onderscheiden zijn)
Maar heb je geen goedwerkende chip nodig om de CRC uit te voeren?
Hoe ga je de check uitvoeren als de entiteit die de check doet niet te vertrouwen is :+

Of gaan ze een aparte chip zonder fouten toevoegen alleen voor de controle?
Met ECC kan de geheugen chip van lagere kwaliteit zijn, omdat je de data kan reconstrueren. De chip die de data verwerkt/controleert moet inderdaad wel foutloos zijn.
Ja, wat ze ook vergeten te vertellen is hoe blij de winkels wel niet worden als we ze vragen of we alle telefoons van model X die ze op voorraad hebben mogen benchmarken om de snelste mee te kunnen nemen ;)
Quote : "Een chip die van een wafer komt en defecten vertoont, wordt momenteel in veel gevallen weggegooid, zeker als het processors of socs betreft."

Ik vraag me af of dat wel rendabel is. Een chip die van een wafer afkomt moet nog door een ingewikkeld constructie- en productieproces alvorens het een bruikbare chip betreft. De kosten van de overige materialen en de mankracht om het geheel in elkaar te zetten komt daar nog eens bovenop. Die kosten moeten ook weer terug worden verdiend aan potentiŽle klanten, anders loop je het risico met onbruikbare restposten te blijven zitten.

Fabrikanten zullen echt wel goed uitgerekend hebben wat voor hun de voordeligste werkwijze is. AMD gebruikt bijvoorbeeld quad-cores die 1 defecte kern hebben als triple-cores. IBM doet hetzelfde met de CELL-processor.

edit : waarom is dit offtopic ?

[Reactie gewijzigd door Titan_Fox op 27 juni 2012 22:19]

Een chip die van een wafer afkomt moet nog door een ingewikkeld constructie- en productieproces alvorens het een bruikbare chip betreft.
Daarom test je zo vroeg mogelijk, zodat je die stappen over kunt slaan voor chips die toch defects zijn.
Fabrikanten zullen echt wel goed uitgerekend hebben wat voor hun de voordeligste werkwijze is.
Ja tuurlijk, maar daarbij hebben ze mogelijk ("waarschijnlijk"?) deze optie niet meegenomen, omdat dit een nieuw idee is. Het is op zich prima mogelijk dat een nieuwe optie beter is dan wat tot nog toe de beste aanpak was.
AMD gebruikt bijvoorbeeld quad-cores die 1 defecte kern hebben als triple-cores. IBM doet hetzelfde met de CELL-processor.
Zo ongeveer iedereen doet dat, vooral bij GPUs is het schering en inslag dat delen van chips uitgeschakeld worden zodat ze (met een ander typenummer) alsnog verkocht kunnen worden.
Ik vind het nogal apart dat fabrikanten hier zelf geen oplossing voor hadden bedacht. Althans Intel en AMD hebben respectievelijk de Celeron en Duron. Maar fouttolerantie nooit toegepast? Intel met de miljarden onderzoeksgeld? Hoe krijgen ze zoiets voor elkaar om niet zelf een toepassing uit te vinden? Nieuw als in "het bestond niet", is het niet, want fouttolerantie is er al langer.

[Reactie gewijzigd door Grrmbl op 28 juni 2012 09:23]

Klinkt als een zeer interessant idee, maar ik begrijp niet zo goed hoe dit zou moeten werken. Wie of wat doet dan die eigenlijke foutcontrole, en op basis waarvan? Het zou leuk zijn om over dit idee een wat meer in-depth artikel te lezen waarin wat meer staat uitgelegd hoe dit dan in zijn werk moet gaan.
Zoiets als dit (wordt aangehaald in het artikel):

http://sti.epfl.ch/page-78653.html
Zeer interessant :)

Voor ons als consumenten zou het ontelbare voordelen hebben, lagere prijzen, langere accuduur etc.

Daarnaast is het voor het mileu ook nog is extra goed omdat er minder weggegooid hoeft te worden, wat dus betekend dat de kosten qua grondstoffen en energie omlaag gaan voor de productie :)

Zou zoiets ook niet in te voeren zijn in de schermen btw ? Terugschalen naar andere resoluties ? Of kleurfuncties uitschakelen om op lage accuduur door te gaan.
Doet me een beetje denken aan de 3x phenoms (die eigenlijk defecte 4x zijn). Ik dacht dat dit al wel toegepast werd om eerlijk te zijn
Klopt, alleen bij de X3's gaat het om 1 defecte core waarbij de rest van de chip wel 100% functioneert. Hier zullen ze het wel hebben over een deels defecte hele chip in plaats van een enkele core. Anders is het inderdaad niks nieuws :+

[Reactie gewijzigd door ronald89 op 27 juni 2012 16:22]

Dit is volgens mij heel anders.
Hier wordt de chip niet uitgezet of weg gelaserd.
3X Phenoms zijn quad cores met een defecte core. Er zijn dan ook maar 3 cores actief.

Wat hier beschreven wordt zou het mogelijk maken dat zelfs een single core met defecten nog bruikbaar is. Dit is dus heel iets anders dan bij de 3X.
Het is nog duurder om zeg 30% van je wafers weg te gooien omdat ze het niet doen.
Ze gebruiken hoogstwaarschijnlijk automated test equipment.
Nog een linkje gevonden: http://casualzone.blogspo...from-sand-to-silicon.html
En zelfs dat was niet nieuw, bij intel had je ook bij de oude celeron's zoiets. Dat waren afgekeurde P4 waarvan de helft van de cache niet werkte. Goedkope manier om toch je "misbaksels" te verkopen. En voor gewoon desktop gebruik was het ook prima...
Bovendien zouden dergelijke chips makkelijker op een kleiner procedť geproduceerd kunnen worden, omdat de hogere defectkans die daarmee gepaard gaat, geen obstakel voor gebruik vormt.
En die fouten worden zonder stroom opgelost? Hoe meer fouten hoe meer er verbeterd/opnieuw gedaan moet worden, oftewel dat kost dan weer MEER stroom...

De vraag is of de winst het verlies opheft natuurlijk, maar zo simpel als in het artikel gesteld wordt is het duidelijk niet.
ik snap dat iedereen de opmerkinge als ongewenst beschouwd, maar zo'n slecht voorbeeld van chipfouten is het niet. Het idee is dat elke processor af en toe een vergelijkbare fout maakt, maar als je bijvoorbeeld 2 keer de som 1+1=0 laat uitzoeken door de CPU, hij vervolgens merkt dat het antwoordt anders is en hem nog een keer uitvogelt.
Manieren om uit te vinden hoe je 1+1=0 fouten uit een processor haalt is vergelijkbaar met de manieren om dit soort chipfouten uit te zoeken.
tja maar dit gaat wel ten koste van rekenkracht lijkt mij waardoor je grote verschillen kan krijgen tussen telefoons uit dezelfde serie.

zeg piet koopt een lg 4x hd en hij haald 51 fps, ik koop er 2 maanden later en en die haald maar 41 fps dan voel ik me toch goed genaait.
de telefoon gaat dan toch echt zonder pardon terug wat vele malen meer kost voor ze dan alleen de goede chips gebruiken en de defecte weggooien.

je kan niet 1 product met varierende prestaties uitbrengen mensen lezen revieuws en verwachte te krijgen wat ze zien.
Daar heb je een goed punt, nu zijn er vast markten waar dat er niet toe doet (bijv als je een server met 100 van die dingen wil is de gem. rekenkracht waarschijnlijk wel bekend), maar dat zijn dan niche-markten...

Je kan natuurlijk ook zeggen dat er een max verschil van 10% is, oftewel er mogen wel fouten in een chip zitten maar net te veel waardoor het verschil in prestatie niet veel scheelt maar er wel meer chips gebruikt kunnen worden. Maar dat moeten ze weer testen wat extra tijd kost.
tja voor slimme wasmachines en koelkasten en zo met een arm chipje zal dit inderdaad zeker niet interesant zijn maar voor telefoons blijft het een slecht idee.

dan krijg je straks weer zoiets als de intel K chips of wat de amd BE chips ooit waren.
extra betalen voor een beter functionerende chip.
dan word het niet de samsung LG 4X HD (ja ik wil m) maar de LG 4X HD+ die dan voor 25 euro meer in de winkel ligt wat natuurijk niet wenselijk is.

al is het in THEORIE wel interesant dat een veel grotere yield de prijzen van soc's(wat toch 1 van de duurdere onderdelen in een telefoon is een 20% hogere yield you toch zo 10 euro per telefoon kunen schelen qua kosten.
maar ja dat blijft theorie aangezien iemand onderweg die prijs wel hoog houd voor zijn bmwtje dat is helaas de nare waarheid in in deze graaiwereld (kijk maar naar de nvidia gtx 680 prijzen meer chips per platter en toch nog steeds rete duur).
Een intel i7 is ook niet duurder om te maken dan een i3. Ze moeten nou eenmaal veel eenmalige/research kosten eruit halen. Die 20% yield is dan fijn, maar het zal niet merkbaar een product goedkoper maken.
De vergelijking met auto's is daarom ook nogal een slechte vergelijking.
Trouwens: volgens jou voorbeeld zou de processor in een telefoon 50 euro kosten voor de fabrikant?

[Reactie gewijzigd door martijnpatelski op 27 juni 2012 18:40]

bedoelde daarmee de consumenten prijs (een onderdeel dat 20 euro kost voor de fabrikant is tegen de tijd dat het via alle tussenstops bij de consument aankomt al gestegen tot 50 a 60 euro alsniet meer dus 20 euro besparen in de fabriek is al snel een grote besparing voor de consument)
maargoed om bij intel te blijven die ontwikkel kosten hadden ze ook bij de 2600k die groter gebakken was en ze dus minder chips uit een platter haalde.
hoe je et ook went of keerd de prijs zou moeten kunnen zakken tenzij de yield zo belabberd is dat ze evenveel chips uiy 22 nm halen als dat ze bij 32 deden maar dan is er iets goed mis lijkt mij.
Daar is binning voor.
Dan ga je ervan uit dat ze alle cpu's boor elkaar doen.

of ze maken een hele snelle cpu net als nu voor hun vlaggeschip telefoons en alle "kapotte chips" gebruiken ze in de wat goedkoper en langzamere telefoons.
dat zou el een optie zijn ja maar dan nog heb je het probleem dan de ene telefoon van 200 euro 30 fps haald en de andere 35 dat valt gewoon niet goed bij klanten.
tenzij je per telefoon de prijs aan zou passen aan de preformance van de chip maar we weten bijde dat dat onrealistisch is.
het theoretische idee vind ik dan ook geweldig minder verlies en betere yields.
maar ik kan niet anders dan denken dat dit voor de consument slecht gaat worden omdat de prijzen omhoog gaan van de top producten , zo werkt het namelijk helaas in deze wereld.

[Reactie gewijzigd door computerjunky op 27 juni 2012 18:20]

Tja je zal wel een losse chip ernaast moeten hebben voor de foutchecks.
Anders kan het namelijk zover komen dat hij juist op dat moment een fout als goed aanziet.
Dat moet je al helemaal niet hebben

Wel een leuk idee! maar absoluut alleen te doen met het brute kracht gedeelte van je processor, er moet een gedeelte zijn wat gegarandeerd goed werkt, anders kun je nergens vanuit gaan.
Het probleem met kapotte chips op wafers is volgens mij niet dat ze kapot zijn, maar dat ze niet helemaal goed zijn, en daardoor niet voorspeld kan worden hoe en wanneer ze echt kapot gaan, en wat ze dan verkeerd gaan doen (en dus gecorrigeerd moet worden). Dat kan dan berekend worden, maar dat kost dan weer zoveel dat het veel goedkoper is om die gewoon weg te gooien en een andere te maken.
Ehm nee, een groot deel van de fouten is deterministisch en blijft (over de tijd heen) constant. Veel fouten worden namelijk veroorzaakt door short circuits (twee dingen die verbonden zijn, terwijl die verbinding er niet had moeten zijn) en open circuits (twee dingen die niet verbonden zijn, terwijl er wel een verbinding had moeten zijn). Zelfs een slechte verbinding (met een weerstand die meerdere grootte-ordes kleiner is dan "geen verbinding" en meerdere grootte-ordes groter dan "wel een verbinding") zal in veel gevallen reproduceerbaar gedrag vertonen.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013