Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 121 reacties

Intel heeft een chip gemaakt die op vergelijkbare wijze werkt als het neurale netwerk in de hersenen. Zo zorgen de componenten in de chip er onder meer voor dat een elektrisch signaal net als bij neuronen via pulsen wordt doorgestuurd.

De technologie is gebaseerd op lateral spin valves en memristors. De eerstgenoemde zijn kleine magneetjes die hun magnetisch veld van richting kunnen laten veranderen op basis van de spin van elektronen. Tezamen met memristors, weerstanden met geheugen, levert dit een circuit op waarin de elektrische signalen niet met een constante spanning worden doorgestuurd, maar juist pulserend werken.

Volgens de onderzoekers, die werkzaam zijn bij Intel, werken de spin valves in de chip op een aanzienlijk lagere spanning dan conventionele chips. De benodigde spanning is volgens de makers uit te drukken in millivolts, net als de neuronen in de hersenen. Uiteindelijk moet een dergelijk systeem, dat een neuromorphic chip wordt genoemd, het stroomverbruik kunnen terugdringen met een factor 15 tot 300 ten opzichte van conventionele chips.

In de hersenen worden ook elektrische circuits gevormd, waarvan neuronen de basis zijn. Zij vormen een elektrisch systeem waarin zij na activatie signalen in pulsvorm doorsturen. Daarbij wordt een sterker signaal weergegeven door een hogere frequentie van elektrische prikkels. Uiteindelijk worden de signalen geïntegreerd in het centrale zenuwstelsel, waarvan het brein het hoofdbestanddeel is.

De door Intel ontworpen chip kan ingezet worden om rekenkernen mee te maken die op vergelijkbare wijze werken als de hersenen, waardoor simulatie gemakkelijker wordt. Dergelijke systemen kunnen worden ingezet om de hersenen te bestuderen, maar ook om meer rekenkracht mogelijk te maken bij een lager stroomverbruik. Wel is daarvoor meer onderzoek nodig. Hoewel een neuromorphic chip al voor hersenachtige systemen kan worden ingezet, is er meer nodig om daarvan een volledig functionerend systeem te maken.

Neuromorphic chip - Intel

Gerelateerde content

Alle gerelateerde content (21)

Reacties (121)

Reactiefilter:-11210113+157+28+30
Moderatie-faq Wijzig weergave
Het artikel geeft een verkeerd beeld door te stellen: "Intel heeft een chip gemaakt die op vergelijkbare wijze werkt als het neurale netwerk in de hersenen".

Intel heeft de chip nog niet gemaakt, en die kunnen ze nu ook nog niet maken. Een aantal onderzoekers, waaronder mensen van Intel hebben een voorstel gedaan voor de te gebruiken componenten en een design dat de basis zou moeten zijn voor "ultra-low power neuromorphic hardware". Neuromorphic staat voor de on-chip electronica die neuro biologische architecturen nabootst die je zou kunnen vergelijken met ons zenuwstelsel inclusief de hersenen.

De aankondiging kun je hier vinden: http://arxiv.org/abs/1206.3227v1, download daar de PDF voor het hele verhaal.

Intel kan de chip niet maken omdat zowel de voorgestelde spin-devices als de voorgestelde memristors nog nauwelijks voorbij het stadium van idee zijn. Met spin-devices heb ik geen ervaring, wel enigzins met memristor.

Het idee dat er een memristance device gebouwd moest kunnen worden is in 1971 geopperd door Leon Chua. In 2008 is door Stan Williams van HP aangetoond dat zij een werkende menristor hadden gemaakt http://www.hpl.hp.com/news/2008/apr-jun/memristor.html. Na de weerstand, condensator, en spoel is de memristor het vierde basis electronica element. Memristors kun je zien als een weerstand met geheugen. Het mooie is dat dit geheugen niet alleen 1 bit is zoals in hedendaagse memory devices, maar dat het meerdere digitale, of zelfs een analoge waarde kan zijn. Memristance effecten treden op in heel kleine structuren (<5nm), dus de datadichtheid is erg hoog. Memristance is de hoop van de flash industrie om volgende generaties memory te maken, denk aan TB kaartjes. Memristors houden hun "state", data dus vast zonder onder spanning te staan, ook geweldig! Dat memristors ook analoog kunnen werken voedt uiteraard de gedachte dat dit een onderdeel van de oplossing zou kunnen zijn om hersenen na te bouwen.

Stan is met zijn verhaal de boer opgegaan. De belangrijkste reden ligt in het feit dat HP niet meer zelf de IC's maakt voor hun apparatuur, maar dat bijvoorbeeld aan Intel overlaat (denk maar aan de Itanium, helaas voor hen loopt dat erg slecht). Geen toeval dus dat nu Intel op dit pad bezig is.

Een ander leuk punt is dat Stan ook bij de oorspronkelijke uitvinder is langsgeweest bijna 40 jaar na zijn uitvinding. Leon Chua is dik in de 70 maar was erg in zijn nopjes met het werk van Stan.

Memristors en spin-devices zullen in de toekomst waarschijnlijk bouwstenen zijn waardoor we voorbij de huidige grenzen kunnen blijven miniaturiseren. Dus veel krachtiger CPU's, meer solid state memory, factoren kleiner en veel efficienter omgaan met energie. In het lab zullen we de resltaten de komende jaren zien.

Voordat dit volop in producten zit die we kunnen kopen en gebruiken zijn we wel jaren verder. Erover nadenkend waarvoor dit soort technologie allemaal kan worden ingezet kom je al snel aan een lange lijst. Volgens sommige het begin van de "Singularity", maar ik houd niet van doemdenken.

Goede bron van info als je meer wilt weten over memristors en waar zoals aan gewerkt wordt: http://www.memristor.org/
Precies. Wat misschien ook leuk is om toe te voegen is dat wat ze in dat paper doen eigenlijk niets anders is dan hardwarematig een neuraal netwerk te simuleren. Een neuraal netwerk bestaat softwarematig al veel langer, maar kost enorm veel computerkracht om te simuleren, wat met de komst van dit soort chips wellicht een stuk meer opgesnelt kan worden.

Een wiki over (softwarematige) neurale netwerken: link
De eigenlijke reden dat we hersenen hebbenm, is het mogelijk maken van gevorderde bewegingen. Hiervan is een TED talk: Daniel Wolpert: The real reason for brains. Het voortbewegen van ons lichaam is de 'core business' van de hersenen. Dat we beeld hebben door middel van de ogen is slechts een bijkomstigheid zodat we niet met onze snufferd tegen een rots aanlopen. Het zelfde geld in essentie ook voor onze oren, en andere zintuigen.

In de loop der tijd zijn de hersenen echter enorm geŽvolueerd. Dat we bijvoorbeeld goed kunnen rekenen, komt omdat onze hersenen dat de heledag door doen. Elke stap die je zet gaan complexe berekeningen aan vooraf. Wanneer til je je been op, steek je je been vooruit, zet je hem weer neer, en til je de andere op etc. Allemaal berekeingen. Dit wordt berekend aan de hand van verschillende invoeren. Je hebt input van je ogen, van de zintuigen in je benen, en ervaring vanuit de hersenen. Vooral het stuk van ervaring uit voorgaande berekeningen is enorm van belang voor de hersenen. Aan de hand van deze invoeren maken de hersenen een berekening en voorspelling. Je kunt je vast nog wel herinneren dat je als klein kind moeite had met lopen, echter hoe meer je het probeerde hoe beter het ging, omdat de hersenen aan de hand van ervaring door voorgaande berekeningen en voorspellen steeds accurater zijn geworden. Daarom is het ook zo hoe vaker je iets oefend, hoe beter het gaat. Ook herkenbaar is als je er met je gedachte mee gaat bemoeien gaat het vaak fout, terwijl als je je hersenen gewoon zijn werk laat het veel beter gaat.

De hersenen zijn enorm complex, en wetenschappers weten nog steeds niet hoe ze precies werken. Dat Intel het 'concept' van hersenen kan gebruiken voor rekenkernen is technologisch een vooruitgang. Het zal denk ik nog jaren duren doordat zo'n chip in de buurtkomt bij de capaciteit van de hersenen. De verwerkingssnelheid van zo'n processor is wellicht op ten duur sneller dan onze hersenen (door er bijvoorbeeld meer GHz tegen aan te gooien), maar op gebied van berekeningen tegelijkertijd en complexe (enigsinds accurate) voorspellingen hebben zulke chips nog veel te 'leren'.

Wat helaas wel het geval is, dat we 'ruis' hebben uit onze invoer. Kun je eenvoudig testen: Zet een stip op de tafel, en probeer steeds je vinger op de zelfde plek te krijgen. (Neerzetten, dan ongeveer 15 cm optillen, en weer neerzetten.) Dit krijg je niet voor elkaar. Na even oefenen gaat het wel veel beter, omdat de hersenen de ruis meenemen in de voorspellingen, en dit redelijk weten te compenseren. Maar 100% accurate bewegingen zijn niet mogelijk. Misschien dat zulke chips ooit in combinatie met onze hersenen gebruikt kunnen worden, om zo bijvoorbeeld de precisie van de hersenen te verbeteren. Al krijg je dan bij-effecten als voetballers die altijd raak schieten. (Inplantaat controle ipv doping :9)
geen berekeningen maar reacties op impulsen. Hersenen rekenen echt niet 3,5cm met een hoek van 2 radialen schuin naar boven. Een handeling aanleren is het aanpassen van het zenuwstelsel op prikkels (hoe heftig moet ik reageren op een uitrekking van 1cm van mijn biceps als dat niet de bedoeling is?).

robot zijn ook niet 100% accuraat, je hebt natuurlijk altijd invloeden uit de omgeving waar je rekening mee moet houden, die dan het aangeleerde proces verstoren.
Het is veel meer dan impulsen of berekeningen.

Het is ervaring, inschattingen, concentratie, zelfvertrouwen,redeneren, timing ect. ect.
Fysieke vermogen maar ook geestelijk vermogen zijn beiden een belangrijke rol.

Fysiek vermogen zullen we een heel eind komen maar het geestelijk vermogen zal altijd een gebrek zijn om ook maar in de buurt van de menselijke eigenschappen te komen.
Zo werkt evolutie niet. Evolutie houdt in dat er bepaalde (willekeurige) mutaties gebeuren die een voordeel opleveren om te overleven. De hersenen zijn ook aan evolutie onderworpen en zijn dus een resultaat van een reeks van mutaties die een voordeel met zich mee brachten. Complexe bewegingen zijn dan ook het gevolg van ontstaan van (grotere) hersenen, niet de aanleiding tot.
Een via evolutie ontstaan systeem afkijken om een efficient systeem te bouwen is altijd een goed idee. 100 miljoen jaar aan iteratie is niet iets dat je zelf `from scratch' in een lab wil uitvinden.
Mijn vraag:
Is deze structuur veel verandert sinds het begin? Of alleen de hoeveelheid/het gebruik?
En de natuur verandert nou eenmaal (heeel) langzaam... Dus misschien is 50 jaar labwerk toch wel een goede concurrent :p

Anders gezegt:
Onze hersenen werken en zijn verbeterd...
Dat wil niet zeggen dat ze het beste basisontwerp hebben, maar dat het basisontwerp werkte en verbeterd is...
Zoals x84 en ARM WERKT, met transistors...
Misschien moeten we het in de basis al aanpassen... Zoals hier magnetisch, of misschien wordt de quantum pc het wel helemaal...

[Reactie gewijzigd door pknl op 18 juni 2012 13:53]

Ik denk dat het absoluut geen concurrent is voor het menselijke brein. Je hersenen zijn ontzettend zuinig (al verbruiken ze 20% van je energie die je binnenkrijgt, op 2% lichaamsgewicht).

Het voordeel van een computer is dat hij iets wat ontzettend simpel is, zeer snel achter elkaar uit kan voeren. Maar gecompliceerdere denkstappen dienen hierdoor helemaal opgedeeld te worden en aangepast te worden aan wat een computer kan. (zoeken en optellen).

Ik kan bijvoorbeeld binnen enkele wiskundige stappen zeggen dat f'(x) van f(x)=tan(x) 1+tan≤(x) is (of 1/cos≤(x)) (dit weet ik alleen omdat ik hier proefwerk over had, maargoed, een computer moet ook geprogrammeerd worden, terwijl ik mijzelf zelf programmeer door te leren). Een computer heeft daar zeer veel stappen voor nodig, omdat hij nu eenmaal alleen zeer simpele dingen een voor een kan oplossen. Multicoreprocessing probeert hier een oplossing voor te bieden, maar het samenvoegen van parallel uitgevoerde taken is in een computer erg lastig.

Leren is bijvoorbeeld een proces wat tegelijk je hersencentra voor zien, denken (erg versimpeld, hier zit taal, redeneren etc. bij inbegrepen) en geheugen aanspreekt en het zeer effectief samenvoegt. Ondertussen adem je, hoor je wat er om je heen gebeurt, voel je je kleren op je lichaam, en wordt je hele lichaam aangestuurd (hoewel er een duidelijke scheidingslijn tussen het bewuste en onbewuste zenuwstelsel zit).

Daarbij maakt je onbewuste zenuwstelsel zonder impact van buitenaf geen fouten, wat een computer nog wel eens wil doen. Ik zou mij lichaam niet aan laten sturen door een 8-core Intel Xeon.

Ik denk dat onze hersenen verreweg het beste basisontwerp hebben, de verschillende delen communiceren perfect met elkaar, en ze verwerken echt alles tegelijk. Het enige voordeel van de computer is de snelheid van de elektriciteit, die op 2/3 van de lichtsnelheid gaat, in onze hersenen is dat maximaal 120 m/s.
"Daarbij maakt je onbewuste zenuwstelsel zonder impact van buitenaf geen fouten, wat een computer nog wel eens wil doen. "

Wij barsten van de fouten maar middelen die weg. Dat kan omdat meestal dezelfde 'berekening' over meerdere (soms wel duizenden of meer) paden loopt. Dan worden fouten een stuk kleiner.
Je hersenen zijn nogal noisy. 1 van de truuks om dat tegen te gaan is dus het gebruik van pulsen. En vandaar dus ook dat deze chip een stuk zuiniger kan werken. Je kan een stuk dichter op je noisefloor gaan zitten met je overdracht zonder dat de ruis een grote invloed heeft op het overgedragen signaal.
Verder leven wij van onvolledige data die we met verwachtingen invullen. Daarbij maken we geregeld inschattingsfouten etc.
Gelukkig kunnen we dat corrigeren met ervaring etc.

Het is onzinnig om te spreken van een 'beste' ontwerp.
Onze hersenen zijn niet ontworpen, ze zijn ontstaan.
Ze hebben zich ontwikkeld tegen een omgeving en zijn dus volledig gespecialiseerd om met die omgeving om te gaan.
Dat is iets dat we makkelijk vergeten als we aan een mens denken.
Maar dat is tevens 1 van de grootste struikelblokken voor AI.
Er werdt lange tijd gedacht dat omdat de mens zo ver ontwikkeld was dat onze hersenen de beste algemene informatieverwerkers op aarde zijn.
Helaas is gebleken dat mensen vooral een aantal subsets van taken goed kunnen uitvoeren maar voor een groot aantal andere taken totaal ongeschikt blijken. Verder spelen zaken als emotie een belangrijke rol in hoe onze hersenen functioneren en maken dat wij niet altijd de meest logische beslissing nemen. Delen van onze hersenen kunnen flink conflicteren (communiceert dus niet altijd goed met elkaar, mensen maken wel degelijk fouten).
Wil je dus een menselijke intelligentie namaken met alle emotie en drama die we kunnen ervaren en produceren dan moet je de hersenen als model nemen.
Wil je echter een algemene intelligentie ontwikkelen dan is waarschijnlijk een ander model beter van toepassing.
Ik vermoed zelf dat we eigenlijk een soort hybride model willen.

[Reactie gewijzigd door koelpasta op 18 juni 2012 17:42]

Bewustwording valt niet te programmeren.
Computer systemen zijn niet in staat om te beseffen dat ze leven en wie ze zijn.
Hiervoor bestaan ook geen algoritmes.

Een chip volproppen met algoritmes maakt is nog steeds geen enkel vorm van bewustwording. Er is dus meer tussen hemel en aarde.

Daarbij moet men rekening houden dat de wetenschap niet alles kan weten omdat we wellicht niet in staat zijn alle vormen van energien kunnen waarnemen. En als we het niet kunnen waarnemen zullen we wellicht niet eens van het bestaan afweten.

Daarom is het leven ook zo speciaal en dierbaar , immers het is onvervangbaar voor wat dan ook.
Is een mier in staat om zelf bewust te zijn? Ik denk het niet.

You get my point...
Dat weet jij dus helemaal niet, mieren zijn trouwens zeer intelligente wezens.

Bewustwording is niet een of algoritme algoritme wat je in een chip kan stoppen.
Capaciteit en AI in een computer stoppen is bij lange na nog geen leven.
Wat vaak wordt vergeten is dat evolutie(waarschijnlijk) niet naar een bepaald einddoel of perfectie werkt, maar alleen verder selecteert op wat beter werkt dat de voorgaande variant.

Precies wat jij zegt met de basis variant; die werkte toen het beste en is steeds verder verbeterd echter zou de werking wellicht beter kunnen als je met een andere basis variant zou beginnen.

Al valt het wel op dat er geen(?) andere manieren zijn in de natuur om dit te doen.

[Reactie gewijzigd door wouzy op 18 juni 2012 15:55]

100 miljoen jaar aan iteratie heeft geen dieren met wielen ontwikkeld...

Niet zo'n relevant argument dus.
Want natuurlijk zijn er al 100 miljoen jaar wegen. Wielen + offroad is barslecht. Je hebt geen controle over je zwaartepunt waardoor hoge snelheden halen zeer inefficient is op oneven terrein. Hellingen zijn hierdoor ook enorm moeilijk. Of wat als je komt vast te zitten in modder? of water moet oversteken? Hoe wil je springen of ergens op/over stappen?

Wielen zijn enorm goed op vlak terrein, maar waardeloos daarbuiten. Het Amerikaanse leger is niet voor niets fors aan het investeren in mechanische ezels voor transport op ruw terrein (voorbeeldje).
Ik mag hopen dat het bij de neuronale werking stopt (qua vergelijking). Het brein is geen computer, wat de mensen bij intel ook mogen denken.

Voor zover we nu denken (Dennet, Bradshaw, Angelaki) is het brein een waarschijnelijkheidsmachine (probability machine) die dmv neuronale populatie gemiddeldes een signaal (bijv. waargenomen richting) weergeeft.

Als je dit naar een pc vertaalt krijg je dus dingen als 'Excel denkt dat je de 2 ingedrukt hebt met een 95% waarschijnelijkheid' nee daar wordt je blij van

[Reactie gewijzigd door KoenHalfwerk op 18 juni 2012 13:42]

Ik zie in jouw post geen enkele reden om aan te nemen waarom het brein geen computer is. Nee het is geen binaire computer, (duh, no shit sherlock, etc etc). Maar dat betekend niet dat het geen computer is. Waarom zou als het een waarschijnlijkheidsmachine is geen computer meer zijn?

Sowieso zijn zulk soort dingen natuurlijk best in een binaire computer te programmeren, als je maar voldoende rekenkracht hebt. Zover bekend gebeurd er niks in een brein dat iets magisch is, hele handel is te simuleren als je voldoende rekenkracht hebt.

Ach en dit ding is sowieso een waarschijnlijkheidsmachine, als zijn pulsjes inderdaad in de millivolten zitten dan heb je flinke kans dat door de ruis je een puls mist/ziet die er niet is.
Sowieso zijn zulk soort dingen natuurlijk best in een binaire computer te programmeren, als je maar voldoende rekenkracht hebt. Zover bekend gebeurd er niks in een brein dat iets magisch is, hele handel is te simuleren als je voldoende rekenkracht hebt.
referentie? Daar zou ik en m'n promotoren erg blij mee zijn.
Dat het niets magisch is weten we. Zo bestaat het brein uit simpele 1e orde processen, vrij logische 2e orde processen en is het hypotethis zo dat 4e en 5e orde processen (Dennet, 2009) de orde zijn van rede en ethiek. maar deze laatste twee kostte Bradhaw en Shadmehr toch echt 2weken om te simuleren op een unix supercomputer (2011)
Zolang je voldoende rekenkracht hebt..
Dat is toch gewoon correct? Het enige probleem is dat we niet genoeg rekenkracht hebben om het te simuleren.

Je zegt het zelf, het kostte 2 weken om die 4e en 5e orde te simuleren op een supercomputer.
Nu ben ik maar een gewone neurowetenschapper en geen neuro-simulation expert, maar dat als iets wat onze herensen non-stop doen niet gesimuleert kan worden door een stikstof gekoelde supercomputer, dan betekent dat toch waarschijnelijk dat we iets verkeerd doen?

Vergelijk het met het kraken (sorry, gokken) van een wachtwoord. De raw power approach werkt altijd, gegeven genoeg power en tijd. maar om nu te zeggen dat dit optimaal is
Dat komt omdat een computer maar een informatie stroom per keer kan verwerken. De kracht van paralelle processen komen hier van toepassing, GPGPU is hier een voorbeeld van. En nu, met dit, kunnen ze het nog beter en specifieker maken.

En ik denk dat jij opnieuw je docteraat mag gaan halen, want de hersenen zijn wel degelijk een biochemishe computer. Ze zijn specifiek 'gemaakt' op zoveel mogelijk processen te automatiseren om de overleving van het organisme te vergroten.

[Reactie gewijzigd door Dead Pixel op 18 juni 2012 23:48]

Een brein is geen computer omdat:
- computer has no soul! :Y)
Maar is een waarschijnelijkheidsmachine geen soort computer dan?
Als je dit naar een pc vertaalt krijg je dus dingen als 'Excel denkt dat je de 2 ingedrukt hebt met een 95% waarschijnelijkheid' nee daar wordt je blij van
Ik denk dat je daar heel erg blij van kan worden! Niet met Excel, daar heb je gelijk in, maar ik zou het op prijs stellen als mijn computer dingen kan gaan doen als: "99.9%zeker dat jij dit spam-bericht niet wil hebben" of "ik denk met 97% zekerheid dat dit woord zojuist verkeerd is ingetikt en onderneem actie". Het grote probleem van computers is dat ze niet in nuances kunnen 'denken'. Misschien komt dat hiermee een klein stapje dichterbij...
Ik vind dit nogal vreemd, aangezien een tijd geleden op Tweakers een artikel stond dat meldde dat de snelste supercomputer pas net aan in de buurt kwam van het vermogen van ťťn lichaamscel.

Of hebben we het hier echt alleen maar over de "werking" en niet de rekenkracht?
Eigenlijk nog geen eens over de werking, het gaat meer over de gebruikte signaalvormen. Maar qua werking heeft het (volgens mij) nog weinig met neuronen te maken.
Dit gaat om de werking. Qua rekenkracht komen we nog lang niet in de buurt. Volgens IBM kunnen we tegen 2019 de hersenschors (slechts een deel) nabootsen:

nieuws: IBM: simuleren menselijke hersenschors kan over tien jaar

Ooit komen we er wel :)
Moet er niet aan denken dat zo'n chip faalt terwijl je aan het autorijden bent...
Wat hierboven in de tekst staat aangegeven (meer concentratie bij autorijden), het is en blijft een ding gemaakt door mens waar toch een defect in voor kan komen. concentratie in plaats van meer 100%, 100% minder... Dit gezegd hebbende denk ik niet dat de mensen die dit nu lezen het nog meemaken dat dit in het menselijk brein geÔmplanteerd gaat worden. hoe klein de aanpassing dan ook zou mogen zijn.

(Edit)
OT: Mensen in de cloud zou wel appart zijn
WE ARE THE BORG

[Reactie gewijzigd door KoningBob op 18 juni 2012 13:57]

Alsof de mens zelf geen fouten maakt bij het autorijden. Een chip die het menselijk brein kan simuleren zou theoretisch gezien net zo veel fouten maken als een menselijk brein.

Daar komt ook nog is bij dat het menselijk brein meer doet dan autorijden, terwijl een chip dedicated kan zijn aan 1 taak. Lijkt mij dus dat zo'n chip 99.9999% veiligheid zou kunnen garanderen, terwijl een mens misschien op 98% komt.. (er gebeuren ongelukken zat.)

[Reactie gewijzigd door Br4mmie op 18 juni 2012 14:54]

Of je beredeneerd het zo dat de chip een kans heeft op falen en jou eigen hersenen een kans hebben om afgeleid te worden.
Dus, dubbel kans op falen. Er gebeuren idd ongelukken zat maar wat niemand op dit moment kan doen is zeggen dat de kans op falen van zo'n chip minder is dan je eigen brein.

Voorbeeld: Een PC kan ook zomaar uitvallen door een defect geheugen.
Mensen hebben een eigen wil om een keuze te maken, welke beÔnvloed kan worden door vele factoren en ervaringen.

Een chip is slecht een opeenhoping van logische schakelingen die voorgeprogrammeerd zijn. Het heeft geen eigen wil, het heeft geen besef of ziel.

'Fouten maken is menselijk' is een zeer correcte uitspraak.

De enige reden dat een chip fouten kan maken is door ontwerpfouten, slijtage van onderdelen en programmeerfouten van de mens.

[Reactie gewijzigd door BoringDay op 18 juni 2012 19:14]

Als die chip dan evenveel stommiteiten doet of bedenkt als het mensDOM tot nu toe .. oh boy
Dan neemt de Google autobesturing je rijkunsten over 8)7
Ik lees atm in 90% van de chip verbeteringen dat ze zuiniger moeten en zullen worden. Vind het wel een beetje doorslaan. IMO willen mensen toch nog steeds betere prestaties?
En snellere chip kan ook zuiniger worden als er minder energie verlies in optreed, wat ook weer resulteerd in warmte.

Hier word in hoever ik het snap 3x een transit van gegevens/rekenen gedaan. lijkt me dat dit ook 3x verlies van cappaciteid opleverd. Is het niet handiger om het in 1x om te gaan zetten?
Het probleem van verbruik in chips is niet zozeer vanuit eco-perspectief een probleem. Het verhindert de ontwikkeling van krachtige elektronica voor mobiele toepassingen. Het is vanuit een gebruikersperspectief ontzettend onlogisch dat je alleen maar toegang hebt tot computing als je bij een bureau zit met een lompe bak die altijd in het stopcontact moet steken en draden nodig heeft om ook maar iets te kunnen doen. Er is fundamenteel geen vraag naar zulke elektronica; de enige reden dat we computers op deze manier gebruiken is uit pure noodzaak en technische beperkingen.

Het zuiniger en goedkoper maken van computing resources zorgt ervoor dat we ze overal in kunnen gebruiken. Over twintig jaar gebruikt niemand meer een desktop computer, dat is tegen die tijd een idioot concept geworden. We gebruiken wearable computers die altijd overal mee in contact staan, want dat is wat je eigenlijk ook wil hebben.
Ik vind een vaste werkplek die ik compleet onricht naar mijn wensen juist fijn. Dat iets dergelijks helemaal zal verdwijnen lijkt me niet logisch. Misschien dat het voor consumenten wel steeds minder zal worden (is nu ook al gaande, ik ken veel meer mensen met laptops dan desktops) maar voor ontwikkelaars blijft een desktop toch het meest ideaal.
Het is in de toekomst waarschijnlijk ook mogelijk om ťťn apparaat op verschillende plekken op verschillende manieren te gebruiken. Dan heb je altijd alles bij je en kan je toch met datzelfde apparaat als basis ook een vaste werkplek hebben.

Gezien de nog altijd groeiende smartphonemarkt en relatief grote hoeveelheid smartphonebezitters lijkt een smarphone me het meest logische apparaat voor een dergelijke toepassing.
Als je achter een bureau gaat zitten doe je je smartphone in een dock (gebruikmakend van bijvoorbeeld Ubuntu for Android) en voor onderweg doe je hem in een tablet-achtig apparaat (zoals een Asus Padfone) of draag je 'm los bij je.

Zo combineer je draagbaarheid en prestatie met het gemak van desktops en grotere schermen. Het is dan prima mogelijk een vaste werkplek te hebben en tegelijkertijd datzelfde apparaat altijd bij je te hebben.
You can have a cake and eat it too. :)

[Reactie gewijzigd door Ghost Dog op 18 juni 2012 14:22]

Een desktop is ideaal vanwege een aantal zaken:
  • rekenkracht
  • handige randapparatuur zoals toetsenbord en muis
  • keuze voor grotere en meerdere schermen
Uiteraard kun je een oplossing bedenken waarbij laptops ook geschikt zijn zoals losse monitor en interfaces, maar dat doet het nut van een laptop teniet.

De desktop zou kunnen verdwijnen als er goede randapparatuur komt, bijv. een apparaat dat je gedachten kan lezen. Zoiets bestaat al, maar is nog erg beperkt in functionaliteit. En verder is VR misschien wel iets, maar ik denk dat je daar niet echt lekker mee werkt als je je meerdere grote schermen wegdoet voor een VR brilletje.
Gedachten lezen? natuurlijk bestaat dat niet 8)7 en wees blij!
Zou dit niet een goede architectuur zijn om processors van te maken? Minder stroom volgt in minder warmte. Zo kun je ze simpel hoger klokken.
Dat staat ook in het artikel genoemd. Of hoger klokken zo simpel is, is natuurlijk de vraag.
Meer parallelle units verhoogt ook nog steeds de prestatie...
Verbaast me sowieso dat CPU's nauwelijks boven quadcore uit komen...
De GPU sectie bewijst dat meerdere cores toevoegen wel degelijk effect kan hebben...
Het hele multi-core verhaal stagneert momenteel omdat er geen software is die er gebruik van maakt. Het is erg moeilijk om nuttige alledaagse desktopsoftware te maken die gebruik kan maken van meerdere cores (> 8 threads).
En zie daar, nog een nuttige toepassing dus voor deze chips.
Volgens mij _is_ er geen klok meer in zo'n systeem, maar ik kan het mis hebben,
Hoger klokken heeft enkel zin als de omliggende componenten hier op zijn afgestemd.

Als ik al zie dat er laptopfabrikanten zijn die configuraties aanbieden met een FSB van 1600 MHz en je dan afschepen met 1066MHz geheugenkaartjes vraag ik me af of ze de plank niet een beetje hebben misgeslagen.

Ik ben er echt van overtuigd dat er met de huidige systemen nog behoorlijk wat prestatiewinst kan worden geboekt zolang de juiste onderdelen worden gebruikt.

Mijn laptop ondersteund 800MHz DDR2 (PC2-6400) en werd geleverd met 667MHz (PC2-5300).

Ik bedoel maar ...

[Reactie gewijzigd door Titan_Fox op 18 juni 2012 14:41]

PC2-5300 is 333 MHz, of de helft daarvan als je het hebt over de memory clock. De datarate daarentegen is wel 667 (MT/s)
I stand corrected. Maar je snapt mijn standpunt wel.
FSB, lang geleden dat ik dat nog heb zien passeren :P

Stel dat je dat latje van 667mhz naar 1066mhz geklokt krijg. Denk je dan dat je er zoveel van gaat merken?

Greetz
Sam
Daar gaat het niet om. Ik vind het gewoon belangrijk dat componenten goed op elkaar zijn afgestemd. Het zal qua performance waarschijnlijk niet zo belachelijk veel uitmaken of je latjes van 667 of 1066 MHz gebruikt maar het gaat mij om het principe.

Als je een FSB hebt van 1066 MHz gebruik je ook geheugenkaartjes met die kloksnelheid. Zo simpel is het.

Ik krijg gewoon het gevoel dat hardwarefabrikanten op die manier proberen om wat oude restposten weg te werken. Ze hebben een overschot van een bepaald soort "verouderde" geheugenreepjes en zadelen daar de klant mee op.

Je mag het misschien onbenullig vinden maar in feite is het gewoon bedrog. Ze rekenen de volledige prijs voor een laptop en verwerken er stiekem wat oude restjes in weg die niet optimaal aansluiten op de overige hardware.

Zo ben ik ook al splinternieuwe laptops tegen gekomen waar harde schijven uit 2009 in zaten. Nu zal daar in feite niks mis mee zijn (je hebt toch garantie) maar ze presteren natuurlijk minder dan de serie uit 2012 van dezelfde fabrikant.

Na bijna 15 jaar computers en laptops repareren ben ik het een en ander tegen gekomen aan zaken die eigenlijk niet meer zouden moeten kunnen.
Zou dit niet een goede architectuur zijn om processors van te maken? Minder stroom volgt in minder warmte. Zo kun je ze simpel hoger klokken.
Dat ligt aan de verwerkingscapaciteit van deze jongens dunkt mij?
Je ziet doorgaans als de industrie wil dat de standaard veranderd de rest van de randapparatuur en software ook snel mee veranderd. De vraag is of dit een nieuwe standaard zal gaat worden.

Ik zie hier wel potentie in, maar eerst zien dat ze alle kinderziektes kunnen oplossen en dat het bouw procede niet te kostbaar gaat worden.

[Reactie gewijzigd door defiler1974 op 18 juni 2012 14:05]

Mischien komen wij er nog eens achter of onze hersenen meer zijn dan de som van alle afzonderlijke delen.

Op dit item kan niet meer gereageerd worden.



LG G4 Battlefield Hardline Samsung Galaxy S6 Edge Microsoft Windows 10 Samsung Galaxy S6 HTC One (M9) Grand Theft Auto V Apple iPad Air 2

© 1998 - 2015 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True