Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 39, views: 111.889 •

Tot slot: nog zuiniger

Op het gebied van gezondheid zouden er eveneens grote veranderingen komen. Zo is de rekenkracht die kan worden ingezet om menselijk dna te 'sequencen' dermate toegenomen dat de kosten van ruwweg twee miljoen naar enkele duizenden euro's zijn gedaald. Daarmee zouden medicijnen, vooral kankermedicijnen, veel doelgerichter te werk kunnen gaan en effectiever ziektes kunnen bestrijden.

Ook het meten van vitale data, zoals bloeddruk en hartslag, kan met slimme sensors worden gedaan. Intel demonstreerde hoe een armband nu het werk van een flinke machine kan doen en hoe een prototype pleister die armband weer kan vervangen.

Wearables voor de gezondheidszorg

Na de Quark-socs moeten er nog zuinigere producten komen om al die hardware en sensors intelligent te maken. Een processor verstookt nu nog enkele watts, maar dat wordt met Quark tienden van watts. Prototypes die Intel nu werkend heeft, zitten in het milliwattbereik, maar ook dat zou voor veel toepassingen nog veel te veel zijn.

Om wearables niet steeds te hoeven opladen, zou het opgenomen vermogen in de microwatts of lager moeten zitten. Dan zouden de apparaten energie kunnen halen uit bewegingen, uit omgevingslicht of met andere 'scavenging'-technieken. Ter illustratie had Intel een accelerometer met draadloze zender ontwikkeld die door de galvanische reactie van koper en zink in een glas wijn kon worden aangedreven. De accelerometerdata werd daarbij gebruikt om een gerenderde bloem de oriëntatie van de sensor in realtime te laten weerspiegelen.

Door wijn aangedreven accelerometer


Door Willem de Moor

- Reviewer

Willem werkt sinds 2008 bij Tweakers en heeft een voorliefde voor wetenschap en een passie voor hardware. Deze combinatie gebruikt hij bij het schrijven van zijn verhelderende achtergrondartikelen, maar komt hem ook goed van pas bij het testen van de nieuwste processors, ssd's en laptops. Zijn informatie haalt Willem het liefst uit de eerste hand bij de fabrikant, ook als dat betekent dat hij daarvoor naar Taiwan moet vliegen.

Volg Willem op TwitterVolg Willem op Google+

Reacties (39)

Ook al staat niks vast natuurlijk moet ik toegeven dat dit niet geheel onverwachts komt natuurlijk, Intel was met Ivy Bridge en Haswell al begonnen met hun processoren zuiniger te maken en het is meer dan logisch dat ze met Broadwell en de nieuwe Atom's dit verder zullen uitvoeren.

Verder lijkt het me ook spannend om te zien hoe Intel zal concurreren met ARM-processors en hoe ze daarin zullen slagen of niet!
Dit gaat over gewone silicium processors maar volgens mij houdt Intel het nog geheim maar dit soort slimme sensors en CPU's zullen waarschijnlijk met grafeen of carbon nanotubes geproduceerd moeten worden.

Het lijkt me sterk dat je dermate zuinige CPU's kunt maken met silicium.
Zijn gewoon nieuwe type uC, intel variant van avr, pic, cortex m serie, etc. Alleen dan laatste nieuwste versie. Een avr heeft maar paar mA nodig om te werken, zit dan ook aan aantal mW, met wat slim programmeren kan die prima vanaf glas wijn draaien. Zijn erg oude ontwerpen, als je dat men nieuwste technieken maakt kan dat stuk krachtiger. Cortex m0 is alweer stuk moderner dan avr, heel stuk krachtiger en even zuinig, maar dat ontwerp is ook al weer jaren oud.

AVR @ 1.8v verbruikt 3.6mW in actief mode.

AVR verbruikt 2mA actief.
1.8v * 0.002A = 0.0036w (P = E x I)

Edit/
Voor duidelijkheid, wil dus zeggen dat niks speciaals is, en hoogst waarschijnlijk gewoon silcone gebruikt zal worden, zoals andere fabrikanten al jaren doen voor dit soort chips.

Hackers/crafters/etc maken al jaren eigen wearable electronica en andere dingen et dit soort chips, intel wilt nu gewoon ook punt van die taart.

Edit/2
Cortext M0
13.36 µW/MHz dynamic power requirement

Cortext M0+
11.21 µW/MHz dynamic power requirement

M0 zit zelfs in de µW per Mhz, om accelerometer uit te lezen en wat data te verzenden heb je niet zoveel Mhz nodig, 24Mhz lijkt me meer dan snel genoeg voor M0 om die taak uit te voeren. AVR @ 16Mhz lukt dat al, M0 @ 24Mhz is dus al zware overkill.

[Reactie gewijzigd door mad_max234 op 15 september 2013 19:34]

met een niet te gek hoge render framerate (zeg 25FPS) kun je die M0 ook nog eens een groot deel laten slapen, dan is het verbruik vrijwel 0. Die demo van intel is imo niks bijzonders (er vanuit gaande dat het een uC is)
Ja dat kan, in save mode zit avr op elke uA, maar dat gaat nu niet echt op bij realtime accelerometer metingen.

Maar stel je wilt temperatuur meten, elke seconden 1 meting. Sensor uitlezen en data wegschrijven/zenden n kost je 100mS, dan kan je cpu 90% van tijd in save mode draaien en kan je dus 90% langer met je batterij doen.

AVR kan op die manier meer dan jaar op twee AAA draaien en temperatuur metingen doen. :)

Dat trucje kan elke bekende uC wel zover ik weet, pic, avr, cortex, etc.

Ik ben ook niet echt onder de indruk, niks nieuws en volgens mijn ook niet beter dan bestaande producten, mits het is wat ik denk wat het is. :D

Edit/
Ik probeer beetje in te schatten waar deze soc moet plaatsen, denk wel net A serie, A5 of zo? Huidige Atom zitten op niveau van A9, denk dat Quark toch wel heel wat trager zal zijn dan huidige atom.

[Reactie gewijzigd door mad_max234 op 15 september 2013 21:28]

De huidige Saltwell Atom core (1 core met HT) zit op niveau van een dual-Cortex A9, maar dat is alweer een vijf jaar oude architectuur, Intel mag hopelijk wel iets verder zijn dan dat.

[Reactie gewijzigd door Dreamvoid op 16 september 2013 14:07]

Je bent 1/10 van de tijd actief, dus verbruik je 1/10 van de stroom, dus kun je 10 keer zolang met je batterij doen. Er zijn al genoeg apparaten die op die manier jaren meegaan.
Iedereen praat over stroomverbruik en over beweging of licht als bron van energie. Maar verbeter me als ik het fout zie maar produceert het lichaam niet onwijs veel energie in de vorm van warmte? Hebben we geen materialen die warmte energie omzetten in elektrische energie?
Ik bedoel maak een dun vliesje in de vorm van een armband die je om je arm kan doen en bouw daar zo'n chip op. Het menselijk lichaam moet een constante temperatuur van 37,6/7 graden aanhouden dus er is energie genoeg! Matrix anyone?

Verder hoop ik dat Intel zich kan houden aan deze roadmaps want dit zou betekenen dat we over 5 jaar tegen het limiet van silicium aanlopen en bedrijven dus moeten overstappen op grotere chips of een ander materiaal. En koolstofnanotechnologie blijkt zeer interessant te zijn!

Ik ben benieuwd wat de techniek ons zal brengen over 5 jaar!
Het is inderdaad mogelijk om electriciteit op te wekken uit warmteverschillen. Het probleem is alleen dat je organen 37 graden moeten blijven, je vingers hebben dat niet nodig en die zijn dan ook behoorlijk koeler om efficient met warmte om te gaan. Zelfs de huid op je buik en rug zijn behoorlijk koeler dan 37 graden, dankzij een isolerende vetlaag.

Daarnaast is het rendement nog erg laag: minder dan 10%. Het is niet onmogelijk, maar (voorlopig) onpraktisch.
Zoals mad_max al beschreef, nog steeds "gewoon" cilicium, hoewel de 3D transistor enorm helpt, omdat die het makkelijker maakt om snelheid tegen stroom verbruik uit te wisselen. Verder is het vooral slimme en uitgebreide energie beheersing.

Wat echter niet allemaal silicium is, is die "real time health monitoring". Daar wordt gebruik gemaakt van organische elektronica (plastik): http://tweakers.net/nieuw...-plastic-transistors.html.

Plastik elektronica heeft vooral medisch veel belangstelling, omdat het buigzaam is, en omdat je er wegwerp elektronica mee kan maken. Bijvoorbeeld pleisters, naalden, e.d. zijn alle voor eenmalig gebruik. In Leuven heeft men al een 8bit microprocessor in plastik gemaakt, en laten zien dat je elektronica met batterij en zonnecel op een en dezelfde plastik chip kan printen.
Fantastisch allemaal, heel Sci-Fi. Maar ik neig er toch naar om m'n aluminum folie hoedje op te doen.

Met de dingen van de docu "terms and conditions may apply" in het achterhoofd, dat alles wat op social media en mobiele telefoons staat nu al door de politie en de staat gebruikt word voor van alles en nog wat vind ik het een beetje eng dat straks mijn DNA of gewoontjes worden afgelezen door de broodrooster @.@
Dat Internet of Things, maar vooral dat meer mensen en bedrijven willen dat je telefoon veel meer van je persoon weet, zoals dat je in een vergadering zit of met wie je praat... NEE. Slimmere apparaten in die zin wil je juist niet, het zou de domheid der dingen moet heten. Als je telefoon zo precies weet waar je mee bezig bent, kan een hacker, de overheid of wie dan ook dat ook weten. Apparaten die alles van je weten is simpelweg de Big-Brother maatschappij in vermomming, jakkes. Een chip voor je gezondheid zou genoeg voordelen kunnen opleveren, en kun je zonder wifi-verbinding maken. Maar om voor simpele gemakken zoals niet gebeld worden, een hele samenleving á la Big Brother inrichten? De domheid, het is gewoon pijnlijk.
'Als de tijd komt, laat je dan ook een chip onder je huid implanteren?' - hyperbole vergelijking van menig conspiracy theorist over de vergaande schending van de privacy en hoe erg het allemaal wel niet is.
2013: 14 nm, 2014: 10 nm, 2015: 7 nm.
En wie gaat die chipmachines maken?

Volgens een artikel in het no.1 nummer van Techno! (2013) heeft ASML namelijk een heel groot probleem:
Er is géén licht bron beschikbaar met voldoende vermogen met een golflengte van 13.5 nm! laat staan een lichtbron om de 7 nm chips te kunnen belichten.

Volgens dit artikel hebben Canon en Nikon de ontwikkeling op het gebied van deze extreme UV lichtbronnen voor chipmachines al stop gezet.
Wie weet hierover meer?
Nog steeds ASML, met nieuwe technieken. Het is niet voor niets dat Intel recent veel geld in ASML gestopt heeft. ASML ziet dit probleem al jaren aankomen dus ze zullen vast en zeker al wel is nagedacht hebben over die machine in 2017.
onlangs werd een techniek gedemostreerd, tapeout, om resten met pakband weg te nemen.

ze blijven maar grenzen verleggen, die slimme mensen
Als ik zo leest, is het ´game over´voor AMD in desktop markt.
Intel´s monopoly in desktop markt is te groot in de toekomst. Toch een goed idee van Microsoft om Windows RT te releasen.
Persoonlijk zie ik mij nog steeds niet Unreal III en BF spelen op een Tablet cq Laptopje. :-)
Om het maar niet over serieuze dingen te hebben zoals tekstverwerking, photoshop, videobewerking, coden, en ga zo maar door, en al helemaal niet als je meerdere programmas naast elkaar wilt draaien.

Maar er zijn wel degelijk toepassingen die ik ook zie zitten. mijn telefoon doe ik gerust weg als ik (allergie daargelaten) met een horloge uit de weg kan, gecombineerd met een tablet. Om het maar niet over domotica te hebben.
Ik bedoel de kans dat RT voor desktop en laptop in de toekomst is best groot. Het is afhankelijk hoe groot ARM de markt kan veroveren. Maar als ik het zo zie.. ARM wordt veel groter dan x86
Waar komt dit idee vandaan dat alles maar op 1 scherm moet gebeuren. Ooit gehoord van een externe monitor?

Beetje fantasie mag ook wel :)
Als ik het zo lees vind Intel de desktop inderdaad minder belangrijk worden. Sinds de Sandy Bridge eigenlijk geen baanbrekende snelheids verbeteringen op CPU gezien (intel graphics buiten beschouwing gelaten).

Op zich jammer, maar op zich is een laptop/ultrabook met extern scherm even goed tegenwoordig. Zeker met een i7 4XXXQM is elke taak prima uit te voeren. De U serie vond ik op de Ivy Bridge nog wat langzaam maar dat zal wellicht verranderen :) .

Waar ik wel op hoop bij toekomstige laptops is dat de mogelijkheid tot externe GPU gaat worden aangeboden. De Intel Iris is natuurlijk een beest als je kijkt wat ie verbruikt, maar het kan niet tippen bij een 680GTX :P. Dan heb je gewoon het beste van twee werelden: Een snelle laptop voor op reis, en een game/video bewerkbeest als je thuis zit :).

[Reactie gewijzigd door evanraalte op 15 september 2013 15:08]

Naar mijn bescheiden mening heeft Intel nog nooit een echte relevante visie gehad op de toekomst.
(ze maken silicium en doen dat prima maar erg dapper vind ik ze niet: advocaat voorkook speech = faal)

De grootste verandering in chipfabricage zijn de toevoegingen van GPU & Multi Cores op 1 stuk silicium (in het geval van Intel nog steeds vaak 2 stuks silicium.... :F).

Toen AMD kwam met de aankondiging om 2 Cores op 1 stuk silicium te plaatsten. Had intel dit ineens ook na een paar maanden in de pipeline zitten. Met het R&D budget van Intel lag er binnen een jaar een cpu met 2 cores ter display (2 losse plakken silicium welteverstaan, maar toch hij lag er). Na dat eerste jaar had AMD nog ruim een heel jaar extra nodig voordat zij met hun "micro" R&D budget ook eindelijk een dualcore ter display hadden. Enige verschil is wel dat het meteen een echte dualcore was uit 1 stuk silicium dus. Op vrijwel exact dezelfde wijze verliep de toevoeging van de gpu op het silicium van de cpu.

Dus van de toekomst visie van Intel heb ik de afgelopen 25 jaar nog nooit iets gezien wat echt vernieuwend & blijvend was. Zelfs thunderbolt faalt dramatisch.

@hieronder:
Klopt helemaal, ze hebben er ipv een paar maanden een jaar over gedaan om er 2 naast elkaar te plakken.
N.B. Vergeet niet dat dit de periode was dat Microsoft van plan was om per cpu EN per core 1 keer de licentie gelden van het OS te vragen. Intel wilde daarom beslist geen multi core cpu's. (zoek maar op)
Per Quad socket server met zestien core cpu's zou je nu dus 64 licenties aan M$ moeten dokken.

@Dreamvoid & loller11:
Graag beter lezen, dat voorkomt onzin reacties.
Er staat letterlijk 1 jaar in mijn post, jullie lezen en reageren alsof er een paar maanden staat.
Wel is het zo dat Intel een paar maanden na AMD ook ineens een dualcore aankondigt, alleen duurde het toen nog bijna een heel jaar voordat Intel er succesvol letterlijk 2 aan elkaar had geplakt, |:(

[Reactie gewijzigd door trm0001 op 16 september 2013 09:15]

Toen AMD kwam met de aankondiging om 2 Cores op 1 stuk silicium te plaatsten. Had intel dit ineens ook na een paar maanden in de pipeline zitten.
Ik snap dat je sympathie bij AMD ligt, maar je snapt toch ook wel dat Intel dat allang in het ontwikkelingstraject had zitten, en niet snel eventjes in een paar maanden ontwikkelt omdat AMD toevallig een persbericht uitbrengt 8)7

[Reactie gewijzigd door Dreamvoid op 15 september 2013 17:31]

Denk je nu echt dat Intel dat klaar heeft gekregen in de tijd dat AMD het aankondigde en zij zelf het uitbrachten? Hoelang denk je dat zo'n onderzoek duurt, 8 maanden? Wel het is "iets" langer dan dat.
Nee dat denk ik niet en staat er ook niet.
De toekomst volgens Intel: In de alles traceerbare toekomst zal er absoluut geen ruimte zijn voor dissidentie.


Vervolgd voor uw vrije schrijven, vrije praten, vrije bewegen en uw erfgoed van vrijheid, zult u geen permissie krijgen om u vrij te verplaatsen. De 'autoriteiten' zullen mentale 'gezondheidsexperts' consulteren op basis van uw door minichips verzamelde data. Natuurlijke mogen deze experts alleen expert zijn als ze voorstander zijn van de politieke diagnose "deviationistische paranoïde reformistische delusie". Dit politieke hulpmiddel zal de Staat(lees de linkschmens) toestaan om dissidenten permanent op te sluiten in psychiatrische instituten. Tevens zal er een 'anti-terreur' wetgeving komen waarmee mensen die geen traceerbare data hebben automatisch als terrorist bestempeld en vervolgd zullen worden.


"Unlike the present [1984] United States there will be no place for dissent in future Marxist-Leninist America. "
- Yuri Bezmenov also known as Tomas David Schuman -
Zeer interessant deze technologische ontwikkelingen, maar inderdaad was ook mijn gedachte dat dit meteen ook betekent dat mensen en hun activiteiten nog veel gemakkelijker gevolgd kunnen worden. Zoals je al aangeeft, vertaalt dat zich in een web waarin we verstrikt raken waaruit ontsnappen haast onmogelijk wordt, aangezien elk gedrag dat door machthebbers als 'dissident' wordt beschouwd, snel traceerbaar is en aangepakt kan worden.

Los nog daarvan kan ik me moeilijk voorstellen hoe de mensheid gelukkiger wordt van zo'n invasie van 'ubiquitous computing'. Dat het fascinerend is, jawel dat zeker. Maar of het bijdraagt aan de kwaliteit van leven? Op medisch vlak waarschijnlijk wel, plus hier en daar effeciëntieverbetering. Daarbuiten echter lijkt het vooral een kwestie van 'we maken het omdat het kan' (ongeacht of we het nodig hebben) en natuurlijk ook vanwege de afzetmarkt.

Daar waar ik voor mezelf juist sterke productontwikkeling zou willen zien (desktop systemen / workstations), laat Intel het afweten. Het gros van de consumenten vraagt er immers niet om. Maar willen consumenten dan wel computers en internet in elk object van hun leven hebben zitten?
Ik had het er niet bij gezet, maar die pleister deed me meteen denken aan de film In Time.

Linkje naar de In Time trailer:
http://www.youtube.com/watch?v=6Re51joTIYA

In the late 21st century time has replaced money as the unit of currency.
At 25 years old, aging stops and each person is given one more year to live.
Unless you replenish your clock you die!
Vergeet je Alu-houdje niet. Zolang wij mensen macht in eigen handen hebben en zelf nog kunnen beslissen dan kunnen we alles zo prive mogelijk houden.
Mijn voorspelling: de CPU en geïntegreerde GPU gaan volledig versmelten. Daardoor krijg je het dubbel aantal cores en krijgen alle applicaties de beschikking over het soort parallelle rekenkracht die momenteel enkel via omwegen van de GPU te verkrijgen is. Intel heeft immers reeds AVX-512 voorgesteld en dit brengt de rekenkracht van de CPU-cores zeer dicht in de buurt van de GPU.

Een homogene CPU is véél gemakkelijker te programmeren dan een heterogene, en dus lijkt Intel op veel betere weg dan AMD's HSA specificatie met nog steeds een gesplitste CPU en GPU.
Dat heeft Intel inderdaad al - kijk maar naar de AVX2 units. Dit brengt gpu-like execution units rechtstreeks de cpu in, zonder dat een inefficiente interconnect tussen gpu en cpu nodig is.
AMD gaat net de andere kant op met HUMA... Zien waar dat land :-)
Zoals tweakers mooi vermeld zijn de kosten voor sequencing inderdaad terug naar enkele duizenden euro's. Helaas kom je met sequencing alleen niet ver; er moeten nog altijd mensen (genetici en bioinformatici) uitzoeken welke genen verantwoordelijk zijn voor wat voor ziektes en dan pas kan er gedacht worden aan personal medicine.

Als derde jaars student Life Science zijn de verlaagde kosten voor het sequencen van een genoom natuurlijk perfect. Het blijft alleen nu nog gruwelijk veel werk om deze data te verwerken. Zo zijn wij nu bezig met een project op C.Elegans (een nemathode die veel op mensen lijkt ~63%) om uit te zoeken welke allelen verantwoordelijk zijn voor hyperplasie (huidkanker) en dit terug te herleiden naar het menselijke genoom door middel van orthologen.

Natuurlijk is dit wel een super vooruitgang die intel gaat maken met de wearables en ik kan niet wachten tot het allemaal op de markt komt :)

Op dit item kan niet meer gereageerd worden.



Populair: Gamescom 2014 Gamecontrollers Smartphones Apple Sony Microsoft Games Wetenschap Besturingssystemen Consoles

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013