Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 62 reacties

Onderzoekers denken neurale netwerken te kunnen verbeteren dankzij een ontdekking dat hersenen een veel grotere potentiŽle opslagcapaciteit hebben dan tot dusver werd gedacht. De ontdekking kan helpen zuinigere, maar precieze neurale netwerken te ontwikkelen.

De ontdekking dat hersenen een tienmaal grotere potentiële capaciteit hebben dan tot dusver gedacht komt voort uit een onderzoek naar synaptische verbindingen in de hippocampus van rattenhersenen. Dat gebied speelt een belangrijke rol bij onder meer het vertalen van korte-termijn- naar lange-termijngeheugen. Onderzoekers gebruikten een virtuele 3d-reconstructie van enkele kubieke micrometers en analyseerden de substructuren van de neuronen. Zij ontdekten dat er veel meer variatie in de afmetingen van synapsverbindingen zit dan tot dusver werd gedacht.

De afmetingen van de synaptische verbinding, waarmee neuronen met elkaar communiceren, zijn samen met hun aantal een maat voor de signaalsterkte: grotere synapsen geven een sterker signaal door en synaptische verbindingen worden sterker door succesvolle communicatie. Op die manier kan de 'opslagcapaciteit' van een neuron en van hersenstructuren worden geschat aan de hand van het aantal synapsen en hun relatieve afmetingen of signaalsterkte. Onderzoekers vonden in hun 3d-reconstructies geen handjevol synapsafmetingen, maar ten minste 26 categorieën. Daarmee groeide het aantal corresponderende mogelijke 'bits' van informatie van een of twee naar ongeveer 4,7 bits. De potentiële geheugencapaciteit is daarmee volgens de onderzoekers van het Salk-instituut een orde van grootte uitgebreider dan gedacht. Extrapolerend naar mensenhersenen zou de capaciteit ongeveer een petabyte bedragen, tien keer meer dan voorheen werd gedacht.

Met de ontdekking kunnen de onderzoekers beter begrijpen hoe hersenen werken en hoe ze met zo weinig energie toekunnen. De precisie zou te danken zijn aan het middelen van signalen over tijd en het variëren van de afmetingen van de synapsen onder invloed van signalen. Zo kan een enkel afwijkend signaal geen grote invloed hebben en worden succesvolle signalen steeds sterker. Die werking zou in neurale netwerken in computers toegepast kunnen worden om betere deep learning te realiseren. Neurale netwerken zouden dan gewenste signalen kunnen promoten en ongewenste signalen negeren, zodat het leren betere resultaten geeft. Bovendien zou de techniek zuinigere neurale netwerken kunnen opleveren.

Moderatie-faq Wijzig weergave

Reacties (62)

Absoluut een fascinerend resultaat, maar de sprong naar "betere kunstmatige neurale netwerken" is sterk overtrokken. Zelfs in het originele artikel is dat slechts een kleine opmerking in de laatste paragraaf over "mogelijke toepassingen", maar hier (en in andere nieuwsartikelen op het web) wordt het verheven tot titel.
Dat er verschillende groottes van synaptische terminals en verschillende oppervlakten van synaptische kloven zijn was al langer bekend. Hierop zijn ook al een aantal prototype systemen op gebaseerd. Een paar jaar geleden las ik in de quest dat ze aan een Universiteit in duitsland een netwerk van 200 computers hadden gerealiseerd en dat elke computer als een neuron gold waarbij er een bepaalde signaalsterkte van verschillende andere computers moest komen voordat een signaal werd doorgegeven. Net als bij echte neuronen.Op school heb ik ook al met systemen gewerkt waarbij complexe systemen gemaakt konden worden met impuls apparaten en en heleboel kabels om zo neuronen na te bootsen.

tl:dr: ik ben met je eens dat het erg interessant is maar het niet een plotselinge openbaring is voor netwerktechniek en dat als titel zou moeten zijn.

[Reactie gewijzigd door morris123 op 22 januari 2016 19:09]

Ik vraag me af na het lezen van dit artikel. Is het eigenlijk al bekend hoe gegevens in hersenen worden opgeslagen? ik neem aan dat het niet zo werk als het schrijven naar een harde schijf.
In de hersenen worden dingen opgeslagen door een bepaald patroon van neuronale actiepotentialen. Wanneer de herinnering wordt opgehaald word dit patroon nagebootst. Een bepaald schakelneuron start een actiepotentiaal wat vervolgens naar andere neuronen in bepaalde volgorde, snelheid en intensiteit wordt uitgevoerd. Dit is een uniek patroon wat een uniek geheugenobject oproept.
Dank voor de uitleg. Maar eigenlijk weten we dan nog niet veel. Hoe weten de hersenen dan welk gedeelte moet worden aangesproken en wat regelt dit dan precies.

Is het dan zo dat als ik iets mee maak op een dag dat hiervoor steeds nieuwe patronen van neuronale actiepotentialen wordt aangemaakt? of worden hier net als met bijvoorbeeld een geheugenchip bestaande patronen gebruikt? En zo ja wie of wat bepaald dan wat er precies overschreven wordt. Wie of wat bepaald welke sector voor welk type data wordt gebruikt.

En hoe kan het dat wij mensen met een peta byte aan data opslag bijna iedere herinnering, foto, of zelfs real time beelden bijna direct kunnen opvragen en opnieuw beleven. Hoe kan het dat wij mensen met de data die wij hebben opgeslagen in onze gedachte nieuwe dingen kunnen bedenken en met de beschikbare gegevens kunnen fantaseren over dingen die we nog nooit gezien of gehoord hebben?

Zelfs de grootste en beste super computer ter wereld kan niet wat wij met onze kleine brein kunnen. De hersenen raken niet over verhit en hebben amper energie nodig.

Fascinerend eigenlijk als je er over nadenkt.
Daar is nog erg weinig over bekend feitelijk.

Kijk van een afstandje gezien zijn de algoritmes die onze hersenen gebruiken totaal en dan ook compleet superieur aan welk algoritme dan ook dat we in de AI kennen.

Dus daar valt nog veel te leren. Het gros van de onderzoeken op dit vlak echter wordt uitgevoerd door wetenschappers die zo stom zijn als het achtereind van een koe. Betaald klooien met hersenen van apen.

Vind je dat goed idee?

Ik niet. En dat zeg ik als 1 van de grootste experts op kennispatroon gebied in de AI. Ik ben geweest in faciliteiten waar geklooid werd met hersenen van apen - totaal weerzinwekkend. Door onderzoekers die nog niet eens snappen wat ze aan 't onderzoeken zijn, laat staan dat er iets UIT dat onderzoek komt.

Ook dit onderzoek moet je met korreltje zout nemen. 4.7 bits opslag gemiddeld claimen? Op grond WAARVAN?

Hocus pocus berekeningen.

Laten we 't zo zeggen: het brein werkt analoog. Alleen al de redundancy die je hebt wegens analoog werken zal de geclaimde opslagcapaciteit (zover je analoog met digitaal kunt vergelijken) dus met factor 10 eenvoudigjes reduceren.

Dan zit je nog met een ander probleem: je kunt wel capaciteit claimen, maar kun je ooit die capaciteit effectief benutten?

Hoe zwaarder het zoogdier des te groter het totaal aantal hersenen of niet (zeg ik als niet-bioloog)?

Kortom misschien heb je voor aansturing van meer spieren en groter gewicht lichaam wel simpelweg meer hersenen nodig volgens de algoritmes in onze natuur?

Met andere woorden: het gros van die hersencapaciteit is al bij voorbaat niet benutbaar voor opslag informatie.

Wat je dan overhoud bij de gemiddelde mens is wellicht heel bedroevend dan als je het gaat vergelijken met digitale opslag :)

Wat we WEL weten is dat de mens ontzettend weinig informatie nodig heeft om conclusies te trekken.
Als bioloog kan ik zeggen dat inderdaad over het algemeen hersengewicht toeneemt naarmate het dier toeneemt in grote. (let wel absoluut en niet relatief) Dit is voornamelijk omdat grotere spieren meer vezels bevatten die dus door grotere of meer zenuwen moeten worden aangestuurd wat automatisch voor grotere hersenen zorgt. Daarnaast wordt in de hersenen ook veel hormonen en neurotransmitters geproduceerd en als je een groter lichaam hebt heb je daar dus ook meer van nodig om evenredig te verspreiden. Maar de belangrijkste factor zit hem in de complexiteit. Onze hersenen zijn een stuk complexer wat betreft interconnectiviteit en mogelijkheden. Dat zorgt ervoor dat het zo klein kan blijven. Wat ik wel nog moet zeggen is dat mensen relatief gezien de grootste hersenen hebben van alle dieren.

Aan je tirade zou ik nog wel willen toevoegen dat hersenonderzoek ondanks dat het niet ver is over het algemeen lang niet meer zo is als je beschrijft in je eerste paar paragrafen. In de experimentele neurologie afdelingen van academische instellingen waar ik ben geweest was het allemaal erg geraffineerd.
Sort of...

Google had pasgeleden wat research gepubliceerd van hoe kunstmatige neurale netwerken dat doen. Zou ik zeker opzoeken, in leuke plaatjes :)

Vwb de hersenen, we weten dat het te maken heeft met hoe de elektrische signalen worden doorgegeven - maar om eerlijk te zijn, we weten ook nog zoveel niet over de exacte details van hoe cellen werken dat het gissen is wat er op zo'n grote schaal precies gebeurt.

Je raakt het punt over "hoe denk je na" -- en werkelijk, ik heb na meer dan 15 jaar ervaring in AI geen flauw idee.

[Reactie gewijzigd door atlaste op 23 januari 2016 21:36]

Gezien we bij simulaties vaak 'Sigmoid neutronen' gebruiken en deze al veel meer categorieŽn kunnen simuleren veranderd er toch juist niets hier? Het enige dat hooguit veranderd is dat men een groter netwerk nodig heeft om een de equivalente biologische brein te kunnen benaderen.
De digitale neurale netwerken in computers hebben niets van doen met de neurale netwerken in onze hersenen. Een neuron is volgens mij een complete computer, niet een rekenelement die een optelsom van wat gewogen inputs verwerkt en doorstuurt. De vinders van het neurale netwerk hebben dit ook ooit gezegd maar op ťťn of ander manier houden mensen steeds vast aan dit onzinnige concept.
De digitale neurale netwerken in computers hebben niets van doen met de neurale netwerken in onze hersenen.
Eeh., jawel hoor.
Althans, als je het goed wilt doen (en dat is nu de trend).
Een neuron is volgens mij een complete computer, niet een rekenelement die een optelsom van wat gewogen inputs verwerkt en doorstuurt.
Je zou elke cel een computer kunnen noemen maar dat mechanisme is niet wat een neuraal netwerk laat werken.
Wat neuronen laat werken is wel degelijk een vrij eenvoudige operatie op een brei van inputs die vervolgens weer wordt uitgespreid naar andere neuronen.

Dat het inderdaad zo werkt kun je gewoon zelf zien door bijvoorbeeld siri te gebruiken.
De vinders van het neurale netwerk hebben dit ook ooit gezegd maar op ťťn of ander manier houden mensen steeds vast aan dit onzinnige concept.
Eeh,. Quote please?
Maar goed, het is bewezen dat het geen onzinnig concept is.
Tegenwoordig kunnen we vrij complexe simulaties doen van neuronen en guess what, ze gedragen zich als (tataa tataa) hersenen.
Waar het probleem um in zit is dat een gemiddeld brein achtelijk veel neuronen bevat die allemaal achtelijk complex met elkaar verbonden zijn. Het kost dus dubbel achtelijk veel resourses om zelfs maar een klein stukje hersens te simuleren.
Volgens mij hoor ik al jaren dat wij als mens maar een klein deel van onze hersenen gebruiken. Sterker nog bij mensen met een ongeluk, die een deel van hun hersenen verloren hebben, wordt de verwerking van dat deel door een ander deel overgenomen.

Het mag dus al veel langer bekend zijn dat we nog veel meer kunnen. Dat ze het nu in beeld brengen is leuk maar nieuw is het niet.
Er is een veelgehoord bakerspraatje is dat maar 10% van de hersenen gebruikt wordt. Dat is gelukkig niet waar (inneficiŽnt), maar op dit onjuiste idee zijn toch films als limitless gebaseerd. De gehele hersenmassa heeft functie maar is niet continue 100% actief, enigzins vergelijkbaar met een cpu.

Wel heeft het brein onder bepaalde omstandigheden de mogelijkheid om bepaalde functies over te laten nemen door andere hersengebieden. Er zijn inderdaad voorbeelden van mensen met minder hersenmassa die toch normaal kunnen funtioneren.

[Reactie gewijzigd door leeuwtje1 op 22 januari 2016 19:04]

Vrouwen hebben aantoonbaar minder hersenmassa maar zegt verder weinig over intelligentie.


Het is de vraag in hoeverre we de hersenen langdurig zwaar kunnen belasten. Langdurige zware mentale inspanning leid maar al te vaak tot burn-out of andere gerelateerde klachten.
Dat is een hartnekkig grapje. Ja, mensen niet continu de 100% capaciteit, maar elk deel van de hersenen wordt wel degelijk gebruikt. Ieder deel heeft een eigen functie en, indien nodig, wordt dit wel degelijk gebruikt.

Dat mensen meer capacititeit hebben, ben ik met je eens. Maar of die capaciteit door de hersenen benut kan worden, is nog maar de vraag.
Tuurlijk word dat benut. Waarom iets evolueren dat niet benut word, dat is onlogisch.
3rde ooglid? Verstandskiezen? Oorspieren? Mannelijke tepels?
Allemaal zaken die eerder in de evolutie wel gebruikt werden. Behalve de tepels, die worden nog steeds gebruikt ;)

Het verschil is dat die extra hersencapaciteit die niet gebruikt wordt in het verleden ook niet gebruikt werd.
Ik denk dat mensen in het verleden veel meer van hun hersen capaciteit gebruikten. Als je informatie niet anders kunt opslaan dan door het te onthouden en aan je kinderen/leerlingen door te vertellen ga je heel anders met je geheugen om.
Ik zou er niet aan moeten denken om de hele Ilias uit me hoofd te leren. Of Karel ende Elegast. Of de 150 psalmen. Nu zullen ook vroeger weinig mensen de hele Ilias uit het hoofd hebben kunnen declameren, maar dan nog. Zo iets is ondenkbaar geworden omdat wij anders met informatie om gaan en ons hersencapaciteit anders gebruiken.
Alle deze voorbeelden zijn opgeschreven, dus wat geheugenopslagcapaciteit betreft: mensen hoeven / hoefden die niet uit hun hoofd te leren. Deze verhalen zijn redelijk modern, hooguit 2.500 jaar oud en menselijke hersenen zullen niet zo veel zijn veranderd in die relatief korte periode.

Daarnaast kost het veel minder moeite om een verhaal te onthouden, zoals je het je herinnert, dan om het letter voor letter uit je hoofd te leren. (Ik denk niet dat je binair geheugen goed kunt vergelijken met menselijke synapsen trouwens.) Niemand kan het controleren als het niet precies klopt.

Het is juist aannemelijk dat we nu onze hersenen veel intensiever gebruiken dan ooit en daarmee ook ons geheugen. Zeker, we gebruiken hulpmiddelen om feiten te controleren, we noteren van alles omdat we geen eidetisch geheugen hebben en we gebruiken spreadsheets en dergelijke maar onze samenleving eist veel meer denkwerk dan zelfs maar een paar generaties terug.

Wat voor werk je vandaag de dag ook doet, je moet erbij lezen, schrijven en rekenen. Plannen en boekhouden zijn heel normale bezigheden en er zijn steeds meer banen waarbij je feitelijk alleen mŠŠr denkwerk doet.
Nou ben ik toch benieuwd naar waar jij mannelijke tepels voor benut.
Tepels ontwikkelen zich gewoon zowel bij man en vrouw net als dat we allebei handen hebben. We hebben hetzelfde DNA, dus overeenkomsten. Je hebt tepels (en ook niet volgroeide borsten) omdat vrouwen ze wel gebruiken.
Ik weet hoe en waarom we tepels hebben, maar de vraag was... waar benut hij ze voor?
We zijn zoogdieren dus tepels zijn cruciaal voor onze de voortplanting (althans overleving van onze kroost pre babyfles era) , persoonlijk denk ik dat het bij de verwekking het handig is dat beide paren iets dat zo cruciaal is infrormatie daarvan ingebakken zit de dna, voor "foutcorrectie" o.a. waardoor de volgende generatie een betere kans heeft om de eerste maanden te overleven.
https://www.youtube.com/watch?v=8DnHyn_QgOE SciShow
Why Men Have Nipples

[Reactie gewijzigd door stamp op 23 januari 2016 09:14]

wat niet gebruikt word verdwijnt langzaam net als spieren
als je traint krijg je meer spieren
Dat is een hele rare vergelijking die nergens op slaat. Spieren die je niet gebruikt verdwijnen heel snel (binnen weken) en worden relatief snel groot / dik bij trainen. Zelfde geldt bijvoorbeeld voor je botdichtheid.

Dingen die je niet gebruikt als mens/dier verdwijnen (meestal) in de loop van miljoenen jaren, dat is even wat anders en het heet evolutie en is een totaal, maar dan ook totaal ander mechanisme.
wat ik zeg is in principe hetzelfde alleen op kort termijn
Dat we maar ~10% zouden gebruiken is een volksmythe. En het compenseren gaat meestal ten koste van andere functionaliteit.
Een stoplicht gebruikt normaal ook maar 33% van z'n capaciteit, om even een anologie te trekken
Wordt er net drie keer uitgelegd dat het niet zo is, maak je gewoon weer dezelfde vergelijking.

Onze hersenen werken niet zo. Er is geen schaling van 0% naar 100%. Er is altijd ruimte voor verbetering maar dat betekent niet dat er nog 90% winst te behalen valt.
Jij wilt dus zeggen dat je continu alles van je hersens gebruikt?

Alsof je een pc zou hebben waar je hardeschijf volzit, je ram volzit en je cpu continu op maximum snelheid draait om het allemaal maar bij te benen.
Lees m'n comment nog een keer rustig nadat je diep heb adem gehaald en zeg het dan nog een keer. Je hersenen zijn actief op verschillende gebieden en in verschillende hoeveelheden. Dus ja, voor bijn elke situatie gebruik je gewoon wat er op dat moment aan potentie aanwezig is voor je alledaagse taken. Wat ook gelijk de reden is waarom wij als mens beter kunnen worden in alles en gemiddeld huis tuin en keuken computer niet. Als je beter wordt in iets, komt er, om even simpel te zeggen een aantal procent erbij maar dat wordt weer "gerekend" als 100%. Het is erg moeilijk om dit uit te leggen zonder een stuk tekst van 150 pagina's te schrijven. Sorry daarvoor.
Blijf me verbazen hoeveel gelijkenissen dee realiteit aan een computersimulaties heeft.
Het opwaarderen van succesvolle verbindingen is dacht ik niet nieuw in de AI, en volgens mij als leermechanisme al een gegeven.

Ik heb wat moeite dit artikel te duiden. Het is op zich goed leesbaar, daar ligt het niet aan. Misschien lastige materie om in een notedop samen te vatten. Is de doorbraak nu dat is vastgesteld dat dit leermechanisme door het schalen verbindingen ook in hersenen is aangetoond, of is de doorbraak de variatie waarmee dit aantoonbaar gebeurt?

Als ik met name naar dit stuk kijk
Onderzoekers vonden in hun 3d-reconstructies geen handjevol synapsafmetingen, maar ten minste 26 categorieŽn. Daarmee groeide het aantal corresponderende mogelijke 'bits' van informatie van een of twee naar ongeveer 4,7 bits
wordt er een behoorlijk gedachtesprong gemaakt die ik niet volg. Gaat het hierbij over de samengestelde signaalgrootte van met elkaar samenwerkende synapsen van verschillende grootte? Of gaat het over de variatie in de tijd van de grootte van synapsen die signaal variatie oplevert?

Bij het lezen van het artikel betrapte ik mij zelf nog op de vraag of hersens wel binair zijn. Zonder enige achtergrond interpreteer ik het model wat hier wordt besproken als binair. Signalen kunnen verschillende niveaus hebben, maar blijven verder aan/uit schakelaars. Is dit binair zijn voor hersenprocessen al een gegeven? Zouden de synapsen analoog kunnen werken, dan is de signaaldichtheid nog veel groter en is hun grootte alleen een limiet, een weging die bepaalt hoe belangrijk het signaal kan zijn.

[Reactie gewijzigd door teacup op 22 januari 2016 21:50]

Het opwaarderen van succesvolle verbindingen is dacht ik niet nieuw in de AI, en volgens mij als leermechanisme al een gegeven.
Kunstmatige neurale netwerken werken inderdaad ook door gewoon de sterkte van connecties aan te passen, echter op een geheel andere manier. In de meest populaire netwerken wordt de sterkte aangepast door back-propagation, met andere woorden een wiskundige formule om aan de hand van de afgeleide van de functie de gewichten zo aan te passen om de fout in de voorspelling te minimaliseren. Je kunt er gerust van uitgaan dat de biologische hersenen een heel ander principe gebruiken
Gaat het hierbij over de samengestelde signaalgrootte van met elkaar samenwerkende synapsen van verschillende grootte? Of gaat het over de variatie in de tijd van de grootte van synapsen die signaal variatie oplevert?
In het originele artikel staat dat aangenomen werd dat synapsen in ruwweg drie verschillende afmetingen voorkwamen. Je zou dus 1.58 bits nodig hebben per synaps om die grootte op te slaan. En vice versa, per synaps kun je met klasse van afmeting in dat geval 1.58 bits opslaan. Nu hebben ze echter vastgesteld dat het aantal klasses van afmetingen niet 3 maar eerder 26 is. Elke synaps kan dus veel meer informatie opslaan, in dit geval 4.7 bits (simpelweg log(26)/log(2)). Vergeleken met de eerdere schatting van 1.58 bits kunnen de hersenen dus 3.12 bits per synaps meer opslaan, wat overeenkomt met ongeveer een factor 10 (2^3.12). Dit resultaat is dus voornamelijk een stukje goochelwerk met informatietheorie waar aangenomen wordt dat de capaciteit gelijk is aan het aantal synapsen vermenigvuldigd met het aantal mogelijke "states" per synaps. Vergelijk dit bijvoorbeeld met TLC geheugen, waar elke cell 3 bits aan informatie op kan slaan (8 verschillende states). De totale capaciteit is dus het aantal cellen maal 3. Volgens deze studie lopen de hersenen dus bijna 2 generaties voor op TLC. :+
Bij het lezen van het artikel betrapte ik mij zelf nog op de vraag of hersens wel binair zijn.
Ja en nee. Hersenen werken met actiepotentialen ("spikes") die of wel of niet doorgegeven worden. In die zin zou je het binair kunnen noemen. Maar de exacte werking van de hersenen is een stuk complexer en of een spike doorgegeven wordt hangt van veel factoren af (o.a. de afmetingen van de synaps, de timing van de spike en voorgaande spikes, concentratie neurotransmitters, en volgens sommigen zelfs quantum effecten). Veel van deze factoren, zoals de concentratie neurotransmitters, zijn juist eerder analoog dan digitaal. Ik weet verder niet veel van neuroscience, dus helaas kan ik er verder ook niet dieper op ingaan.
of een spike doorgegeven wordt hangt van veel factoren af (o.a. de afmetingen van de synaps, de timing van de spike en voorgaande spikes, concentratie neurotransmitters, en volgens sommigen zelfs quantum effecten).
Wat je nog vergeet is de samenhang met andere neuronen.
Elke neuron heeft connecties met meerdere (soms vele) andere neuronen. De potentialen afkomstig van al die andere neuronen hebben invloed op de ontvangende neuron en creeren zo dus een context voor hoe de binnenkomende spikes worden verwerkt.
http://www.nature.com/new...solving-the-brain-1.13382

In 2013 werd nog geschat dat het menselijk brein 200 exabytes (factor 1000 groter dan een petabyte) zou kunnen bevatten. Een muis zou rond de 60 petabytes aan 'opslag' beschikbaar hebben.
Als ik de alinea in het stuk lees kom ik tot een andere interpretatie:
Perhaps the most daunting part of the brain challenge lies in storing and handling data. One cubic millimetre of brain tissue will generate an estimated 2,000 terabytes of electron-microscopy information using Lichtman and Denk's new microscope, for example. Denk estimates that an entire mouse brain could produce 60 petabytes and a human brain about 200 exabytes.
De alinea verteld volgens mij hoeveel elektronen microscoop informatie het hersenonderzoek van de hersens van een muis of een mens zou opleveren. Dit is iets anders dan een uitspraak doen over de informatie inhoud van de hersens zelf.
10.000 jaar beschaving en honderdduizenden mensen die daar door de jaren heen aan gewerkt hebben, heeft slechts een binaire en langzame, elektronische geheugencapaciteit van enkele petabytes opgeleverd, die veel stroom vraagt. Dat is uiterst primitief vergeleken met de complexiteit en de snelheid van onze hersenen. Zoals iedereen weet zijn die vanzelf ontstaan 😅
Dat is uiterst primitief vergeleken met de complexiteit en de snelheid van onze hersenen.
LOL.
Onze hersenen zijn dan wel weer het gevolg van miljoenen jaren evolutie.
Dan vind ik dat we met onze beschaving (en computers kennen we nog niet zo lang) al best wel ver zijn gekomen.

En dan is het ook maar de vraag wat je wilt bereiken.
Als ik aan jou vraag wat de wortel van 12,34567 is dan ga jij dat niet snel kunnen uitrekenen met je mensenhersentjes.
Vraag ik het aan mijn rekenmachine dan krijg ik gelijk antwoord, op tig decimalen nauwkeurig.
In bepaalse opzichten zijn onze hersenen dus enorm beperkt.
Maar ik kan dan weer niet aan mijn rekenmachine vragen om een auto te besturen of gezichten te herkennen. Daar zijn onze hersentjes weer beter in.
Nou als je de exponentieel toenemende denkcapaciteit van kunstmatige intelligentie beschouwd is dat een ontwikkeling die we met onze biologische hersens niet gaan bijhouden, tenzij we wild gaan muteren.

Niet alleen de elektronische denkcapaciteit neemt heel hard toe, maar de gebruikte energie neemt nu ook vlot af. Ik neem aan dat je wel eens van het singulariteitspunt hebt gehoord?

Edit: taal

[Reactie gewijzigd door teacup op 23 januari 2016 08:48]

Komt de Matrix toch weer een klein stukje dichterbij. Met het inladen van geheugen bij mensen.
*Off topic*

In een vsauce video (youtuber) is besproken dat onze hersencapaciteit 3.5 petabyte zou zijn.

Maar zou simpel is het niet aangezien onze hersenen op een logaritmische schaal werkt
De capacity van het brein en dergelijken is uiterst oninteressant
Hoezo? Als je weet hoe het werkt kan je het toch verbeteren? Zieke hersenen beter maken?
Volgens mij snapt niemand hier ook maar 1 zin van wat je post. Ik snap er ook erg weinig van. Misschien kan je een wat meer samenhangend verhaal plaatsen?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True