Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 18 reacties

Intel heeft aan de vooravond van de ISSCC, een conferentie waarop bedrijven hun nieuwste ontwikkelingen op het gebied van halfgeleidertechnologie tonen, een aantal technieken voor zuinige chips laten zien waaraan het bedrijf werkt.

De International Solid-State Circuits Conference wordt al ruim zestig jaar georganiseerd als podium om de nieuwste halfgeleiderontwikkelingen te bespreken. Intel heeft een aantal papers voor de ISSCC gepubliceerd, waarin het bedrijf onderzoek naar energiezuinige processorbouwstenen en communicatietechnologie uit de doeken doet. De ontwikkelingen van Intel Labs verkeren echter nog in het r&d-stadium; het zal nog even duren voordat de gepresenteerde technieken in producten te vinden is.

Voor gebruik in smartphones en tablets heeft het bedrijf een nieuwe gpu-core ontwikkeld die vooralsnog op 22nm gemaakt kan worden. De testchip kan op zeer lage spanning werken, maar kan ook bij hogere spanningen gebruikt worden om de prestaties op te krikken. Ook bedoeld voor consumentenproducten is een nieuwe seriële interface ter opvolging van pci-express en usb. Intel Labs ontwikkelde een zuinige interface die 32Gbit/s per kanaal haalt, waarbij slechts 205mW verstookt wordt. De benodigde fysieke kabels en connectors kunnen bovendien goedkoop geproduceerd worden.

Voor meer industriële toepassingen presenteert Intel op de ISSCC een paper over een network-on-a-chip die op 22nm geproduceerd wordt. Daarmee moeten tot honderden cores op een chip met elkaar verbonden worden, waarbij snelheden tot 20,2Tbit/s gehaald worden, terwijl slechts 0,9V gebruikt wordt. Het bedrijf bespreekt ook papers over embedded dram om bottlenecks tussen cpu en geheugen te verminderen, en een geheugeninterface voor ddr4- en gddr4-geheugen. Ook een chip die encryptiesleutels uit variaties die optreden bij chipproductie genereert en een preview van Ivytown, een Xeon-familie met 15 cores, passeren in de komende week de revue.

ISSCC

Moderatie-faq Wijzig weergave

Reacties (18)

Meer omtrent Ivytown vind je al hier: http://gadgetznews.com/in...-with-37-5-mb-memory.html

En een overzicht van alle komende Xeon E7 chips: http://thepgm.com/intel-x...bridge-ex-chips-detailed/

[Reactie gewijzigd door JS1982 op 9 februari 2014 21:50]

Ook een chip die encryptiesleutels uit variaties die optreden bij chipproductie genereert
Wat belet een grote gouvernementele organisatie om Intel te verplichten:
- deze keys uit te lezen voor het shippen (als het one-time keys zijn)
- deze keys volgens een bepaalde gekende sequentie te laten genereren (als het on-request keys zijn)

Intel's random instructies worden nu ook al lauw onthaald. Wat mij betreft is elke closed-source entropiebron, en al zeker door een groot Amerikaans bedrijf, onbetrouwbaar.
Met het gegeven dat het einde van de Wet van Moore (verdubbeling aantal transistors elke twee jaar) toch echt in zicht komt, is het geruststellend om te weten dat ze bij Intel nog steeds allemaal trucs in de coulissen hebben.

Toch blijf ik benieuwd. Ze zijn al tegen de bovengrenzen van de clock rate gelopen, en ook lopen ze over een paar jaar tegen de ondergrenzen aan bij de produktieprocessen (het aantal atomen in een transistor bij zulke lage feature sizes is op je vingers na te tellen). Als we geen doorbraken in materiaaltechnologie, of liever, in quantum computing krijgen, dan is over 10-15 jaar de ontwikkeling van computing op een maximum gekomen.

Dan is dat nog steeds een mooie halve eeuw aan razende ontwikkeling geweest, daar niet van. Maar net als met auto's: vanaf dan zal het allemaal niet veel sneller worden, op zijn hoogst zuiniger en betrouwbaarder.

[Reactie gewijzigd door Keypunchie op 9 februari 2014 22:40]

Niet geheel een objectieve partij mbt Moore's law, maar een medewerker van intel zegt dat het eind nog lang niet in zicht is:
http://java.sys-con.com/node/557154

Deze mederwerker zit er al vanaf '79, dus mi heeft hij wel een beetje autoriteit.
Ach, de ene Intel meneer tegen de andere ;)
(Bob Colwell werkt nu overigens voor DARPA)

http://www.extremetech.co...l-be-dead-within-a-decade
Presentatie: http://www.cra.org/ccc/files/docs/esda/esda_keynote1.pdf

Review blog: http://preshing.com/20120...threaded-cpu-performance/
De grafieken uit die blog, maar gepdatet voor vandaag: http://imgur.com/a/jbu7I
Kan zijn dat het een en ander ontbreekt als de merknamen inmiddels veranderd zijn.
--> Momenteel is Moore nog niet echt dood, enkel ietsje langzamer.

Of anders AMD:

http://www.pcworld.com/ar...the-horizon-says-amd.html

[Reactie gewijzigd door Henk Poley op 10 februari 2014 11:20]

Het is een artikel van bijna 6 jaar terug.
In het artikel zeggen ze dat ze een zicht hebben op de ontwikkelingen tot 10 jaar in de toekomst, dus tot 2018 ten tijde van dit artikel.

Ik vraag mij af of ze nog steeds 10 jaar in de toekomst kunnen kijken.
De ontwikkeling van de processor is dan op een maximum gekomen, de ontwikkeling van de computer zelf nog niet.
We hebben nu ARM, X86, X64, POWER en nog een aantal.
Er kan nog een nieuwe architectuur komen die zuiniger omgaat met hetzelfde aantal transistors ( al zal dit geen verdubbeling geven in rekenkracht, hooguit enkele procenten).

En als je dan als thuisgebruiker meer rekenkracht wilt hebben zetten we de processoren toch allemaal online. Veel data slaan wij nu ook al online op ( in de coud). als processoren niet kleiner kunnen, worden ze weer groter om toch meer rekenkracht te kunnen bieden.
Vul volledige datacenters met processoren en hier huur je dan processortijd.
Of je krijgt thuis een processor net zoals nu veel mensen een NAS hebben. Alle computers laten de berekeningen dan door de centrale processor in huis uitvoeren, deze kan je dan groter of kleiner maken afhankelijk van de benodigde rekenkracht ( of combineren met online waardoor je bij pieken online gebruikt en anders alleen de thuisprocessor.

Moet alleen het internet een stuk sneller worden, maar daar is intel ook al mee bezig denk ik.

het is nu dus 22 nm met 32Git/s met een verbruik van 205mW.
het limiet qua grootte is dus 5nm, maar wat zijn de natuurkundige limieten van snelheid en stroomverbruik op dat niveau?
Die nieuwe architectuur is er allang en heet IA64. Veel sneller dan x86 maar helaas erg traag in het emuleren van x86 wat een (geleidelijke) overstap onmogelijk maakte. IA64 is een vroege dood gestorven. ARM komt nu in de buurt van x86 wat gebruik betreft. Helaas heeft Microsoft destijds besloten om geen volwaardige ARM-versie van Windows uit te brengen. En zelfs Linux distro's voor ARM zijn vanwege een gebrek aan drivers niet zonder problemen. Lees maar eens na hoe slecht Ubuntu nog steeds draait op bijv de Asus Transformers. Ik vrees dat we dus voorlopig nog niet van x86 verlost zijn dus ben ik weinig hoopvol.

[Reactie gewijzigd door 2fish op 9 februari 2014 23:29]

Op het computergebiedt zijn we denk ik over 5 a 10 jaar wel volledig verlost van 32-bit, dan ik 128-bit vast in zicht al heeft dat meer nut voor bedrijven.

Op het mobiele gebiedt blijft 32-bit nog lange tijd de baas, Android moet nog beginnen en iOS (Apple) heeft de eerste stapje genomen.
Ik begrijp je punt. maar lees dit:

http://superuser.com/ques...-will-be-what-gets-better

Het beschrijft tevens waarom wij nog lang geen 128 bits apparatuur nodig hebben.
Op het computergebiedt zijn we denk ik over 5 a 10 jaar wel volledig verlost van 32-bit
Echt niet, er bestaan over 20 jaar nog steeds 32 bit systemen. De microcontrollers zijn nu net een tijdje in het 32bit stadia beland en 8 bit micro's worden ook nog gemaakt. Het is maar net wat het doel is. Als een 8 bit microcontroller voldoende is dan zal deze ook zuiniger kunnen zijn.

Verder zegt 32 bit zonder context ook niet zoveel. 32 bit wat registers? adressruimte? datapad? instructiebreedte? etc. etc.

Als er iets meer gaat veranderen is dat er steeds meer specifieke chips voor een bepaald doel gemaakt gaan worden.

Wat betreft Moore's law, als we straks layers kunnen stapelen (3D chips) dan zouden we weer een tijdje vooruit kunnen. Voor zover ik weet is gaat de regel over het aantal transistors op n chip, dus als we ze nu steeds 2 keer zo groot maken kunnen we ook nog even vooruit

[Reactie gewijzigd door PuzzleSolver op 10 februari 2014 15:28]

We gebruiken vandaag op de 64-bit architectuur tussen de 40 en 44 bits om het geheugen te addresseren en iedere bit die een computer meer gebruikt is een verdubbeling van het bruikbaar geheugen. Anno 2014 is 64-bit nog steeds onvoorstelbaar veel. Je zult de hele stad Utrecht vol moeten zetten met high capacity disk arrays om de hoeveelheid data die je met 64-bit kan addresseren, daadwerkelijk te kunnen gebruiken.
We hebben nu ARM, X86, X64, POWER en nog een aantal.
Er kan nog een nieuwe architectuur komen
Nieuwe architecturen komen er altijd, maar dat is niet altijd met een volledig nieuwe instructieset. Door de jaren heen zijn de onderliggende architecturen van ARM, x86 en Power chips enorm veranderd, maar zijn de instructiesets gewoon meeveranderd: nieuwe instructies erbij, oude depreciated.
Wellicht wordt het tijd voor optische chips?
300.000 km/uur in miniatuurvorm. Kun je een paar jaartjes Moore's law mee opschuiven denk ik.
Scheelt denk ik ook wel wat warmte-ontwikkeling....
Wellicht wordt het tijd voor optische chips?
300.000 km/uur in miniatuurvorm. Kun je een paar jaartjes Moore's law mee opschuiven denk ik.
Scheelt denk ik ook wel wat warmte-ontwikkeling....
http://www.technischweekb...ip-vertraagd.254524.lynkx

Waarschijnlijk over een paar jaar, op dit moment zijn de problemen nog niet helemaal opgelost.
Het probleem is dat die lichtbronnen moeilijker zijn om net zo klein te maken als transistoren. Bovendien gaat elektriciteit door een kabel wel minder hard dan de lichtsnelheid, maar doordat de kabels zeer dun zijn, is die snelheid wel bijna de lichtsnelheid. Dus daar is vrij weinig winst mee te behalen.
Bij mobiele apparatuur is de maximale gebruiksduur van de batterij zonder twijfel het zwakste punt. Als ik -zonder rekening te houden met de huidige mogelijkheden- bedenk wat ik een wenselijke batterijduur zou vinden, dan denk ik aan 1 of meerdere weken tussen opladen. Er is op dat vlak dus nog veel winst te behalen.

Als ik aan de andere kant denk aan het aantal pixels dat ik graag zou zien op mijn mobieltje, dan moet ik contateren dat full hd op m'n Galaxy s4 bijna over de top is. Meer pixels zou zinloos zijn, omdat ik ze toch niet kan zien.
Voor wie in de technische details wil duiken, bij deze een groot deel van de sheets van de ISSCC:
http://www.anandtech.com/...ell-details-at-isscc-2014

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True