Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 70 reacties
Submitter: PrisonerOfPain

Google heeft bekendgemaakt dat het niet alleen machine-learning-algoritmes ontwikkelt, maar ook de bijbehorende hardware, zogenaamde tensor processing units of tpu's. De tpu's worden door Google ingezet voor veelgebruikte functies, van Street View tot Alpha Go.

Google begon de ontwikkeling van de tpu's, eigenlijk op maat gemaakte asics, enkele jaren geleden om te kijken of het mogelijk was een manier te verzinnen om machine learning sneller te laten gaan. De tpu's zijn ontwikkeld voor Googles eigen machine learning-taal TensorFlow, dat het bedrijf onlangs open source maakte.

Volgens Google zijn de prestaties per watt op een tpu vele malen groter dan wat met andere systemen te bereiken is. Het bedrijf vergelijkt de prestaties met 'technologie van ongeveer zeven jaar in de toekomst of drie generaties van Moores Law'. Het bedrijf heeft ook nagedacht over de praktische toepasbaarheid van de bordjes; ze passen in de hardeschijf-slots van de datacenter-racks.

De reden waarom de chips sneller zijn dan veel andere asics, is dat ze een hogere tolerantie hebben als het gaat om 'verminderde rekenprecisie', wat ertoe leidt dat er minder transistors per bewerking nodig zijn. Het gevolg is dat er verschillende bewerkingen per seconde gedaan kunnen worden, wat leidt tot snellere evolutie van de machine-learning-algoritmes.

De tpu's zijn al onderdeel van verschillende zelflerende systemen van Google, zoals RankBrain voor de zoekresultaten, en Street View om de kwaliteit van kaarten en navigatie te verbeteren, maar ook onderdeel van Alpha Go, de computer waarmee Google de menselijke wereldkampioen in het bordspel go versloeg. Via Googles Cloud Machine Learning-platform kunnen ook ontwikkelaars buiten Google gebruikmaken van de rekenkracht van de tpu's.

tpu google

Moderatie-faq Wijzig weergave

Reacties (70)

Het toekomstige Sky-net draait dus op Tensor chips. :)
Strong AI blijft een verre droom zolang we er niet achter komen wat het mechanisme achter het denken dat plaatsvindt in onze hersenen is. Om het met de woorden van John Searle te zeggen. Een computer is fysisch alleen maar bezig met stroompjes. Alleen die stroompjes zorgen voor symbolen (getallen en wiskunde) die geinterpreteerd kunnen worden door mensen. Zonder die interpretatie is er geen intelligentie. Hedendaagse computers zijn niet in staat om te begrijpen wat ze doen. Het ontbreekt hun aan context, ze hebben alleen syntax maar hebben zelf geen flauw idee wat ze aan het doen zijn.

Edit:

Ik schaar mij volledig achter de philosophie van John Searle.
Hier praat hij een uur voor programmeurs van Google (die het natuurlijk totaal niet met hem eens zijn). Het is vrij lastig engels met moeilijke woorden maar echt wel de moeite waard om eens te bekijken!

https://www.youtube.com/watch?v=rHKwIYsPXLg

En hier nog een goed artikel over hoe ons brein alles behalve een computer is en het tijd word om die analogie eens los te laten. --> https://aeon.co/essays/yo...-and-it-is-not-a-computer

[Reactie gewijzigd door Kain_niaK op 19 mei 2016 18:36]

Ben ik niet met je eens.
Wij hebben ook geen flauw idee wat ons 'bewustzijn' omhelst.
Enige wat wij 'weten' is dat we onze armen voor ons hoofd bedekken wanneer we iets op ons af zien vliegen en onze arm van een heet oppervlak wegtrekken wanneer we onze arm erop leggen en meer van dat soort dingen... allemaal 'geprogrammeerde' responses die samengevoegd een complex gedrag vormen. Jou lichaam is fysisch ook alleen maar bezig met elektro/chemische reacties...

Het grotere probleem wat ik met Haay's opvatting heb, en met die van velen die 'vrezen' voor AI, is de assumptie dat enige 'intelligente' AI onderhevig zou zijn aan dezelfde basale drang voor dominantie. Wij zijn geŽvolueerd om anderen te willen domineren omdat dat evolutie-technisch gewenst is/was maar AI hoeft hier niet aan onderhevig te zijn. In fact, ik zou zelfs willen stellen dat AI een heel stuk logischer en rationeler en meer (zelf)bewust dan wij juist OMDAT ze hier niet aan onderhevig hoeven te zijn. Hun gehele 'zijn' hoeft niet net als ons bewustzijn voort te vloeien uit de culminatie van millennia van evolutionaire selectie en progressie om te overleven en voortplanten. In onze evolutiecriteria waren voortplanting, voedselverzameling en roofdier/rivaal bestrijding cruciaal.. een AI kunnen wij zo ontwikkelen dat enkel denkvermogen/snelheid/objectiviteit ed. een rol spelen (in het geval dat AI onderhevig zal zijn aan evolutie en niet 'kant en klaar' uit de fabriek komt rollen), in het geval dat dat wel zo is.. dan is er meer te vrezen voor de menselijke programmeurs die hier WEL aan onderhevig zijn.

Ik ben niet bang voor AI. AI kan het mooiste en nuttigste zijn dat wij ooit zullen creŽren in ons hele bestaan in dit universum.. het kan ook het allerergste zijn, maar enkel als wij daar bewust voor kiezen. Ik ben bang voor mensen.
Ben zelf niet helemaal bang. Maar wel erg bewust dat het wel een heel gevaarlijk iets kan worden.
Laatst had MS een chatbot gelanceerd en door interactie werd het racistisch en nog meer. Dit wil je niet hebben bij een AI. Als het meer toegankelijk word zijn er altijd wel mensen die het proberen of het lukt een foute AI te kregen en als dat niet te stoppen is.
Ik ben bang voor mensen die AI creeŽren...

Daarnaast;

Je schrijft dit:

"Wij hebben ook geen flauw idee wat ons 'bewustzijn' omhelst."

en vervolgens:

"Ik ben niet bang voor AI. AI kan het mooiste en nuttigste zijn dat wij ooit zullen creŽren in ons hele bestaan in dit universum.. het kan ook het allerergste zijn, maar enkel als wij daar bewust voor kiezen."

Lijkt me toch enigszins tegenstrijdig... 8)7

[Reactie gewijzigd door exmatproton op 19 mei 2016 11:10]

Wie weet zijn we zelf AI... :)
Ik ben bang voor de mensen die AI dezelfde set regels geven als mensen. Denk daarbij aan scenario's als i robot en The Matrix.
Angst voor het onbekende levert zelden iets goeds op. Ik kan je aanbevelen om je nog meer in AI te verdiepen, het is een fascinerend vakgebied. Als je een vraag hebt, of op zoek bent naar boekentips, mag je altijd een bericht bij me achterlaten.
Eens, maar zonder iets resoluut af te wijzen, kan voorzichtigheid veel opleveren. Het woord 'bang' gebruikte ik slechts om dezelfde woordkeuze te gebruiken als Ayporos.
Toch ben ik bang dat als de AI doorkrijgt dat de mens irrationeel is, en niet efficiŽnt (of minder efficiŽnt dan AI zelf) het rationeel zou zijn om deze inefficiŽntie te elimineren...

Dus of 1) de mens maakt een fout in de programmering van AI en gooit daarmee z'n eigen glazen in, of 2) een evil villain misbruikt AI

Anyway, als het fout gaat ligt de oorzaak bij ons zelf. :+

We leven in een fascinerende tijd!
Ik raad je aan dit eens te lezen:

http://waitbutwhy.com/201...for-the-nonreligious.html

dit plaatje illustreert redelijk goed waarom ik niet al te bang ben voor een AI die ons als irrationeel beschouwd en vind dat we 'opgeruimd' moeten worden:
http://28oa9i1t08037ue3m1...4/10/cashier-1024x512.jpg

Ik identificeer me zeer met het wereldbeeld geschetst in dit artikel, en geloof dan ook dat we AI dusdanig kunnen maken dat het zich op een hoger level van bewustzijn bevind dan wij mensen ons (doorgaans) bevinden.
Toch vertelden ze gisteren al dat een bepaalde move van Alpha Go die nooit eerder gedaan zou zijn bijvoorbeeld algemeen wel gezien worden als creatief en zelfs toegepast worden door mensen nu. En dat voor een spel wat algemeen beschouwd werd als bijzonder moeilijk voor computers om te spelen.
De strategie is toegevoegd door mensen en bedacht door mensen. De regels zijn bepaald door mensen. AI kan binnen dit kader zaken doen die heel ingenieus zijn maa rnooit oorspronkelijk of creatief. Hooguit creatief in het toepassen van regels die door mensen bedacht zijn omda thet algoritme een afwijking van de regels voorgeprogrammeerd heeft gekregen. Te veel afwijiking zorgt voor foute moves, te weinig voor voorspelbaarheid. De programmeur zorgt dus voor voldoende speeelruimjte.. en menselijke inbreng hoe sterk het leervermogen van die computer ook is.
"De strategie is toegevoegd door mensen en bedacht door mensen. De regels zijn bepaald door mensen".

Nee dus. Dat is nu net wat een neural net met backprop helemaal niet nodig heeft. Een neuraal net (met backprop) is zelflerend. Dus als dat net maar genoeg zetten heeft gezien en daarvan geleerd heeft wat de strategische waarde van een bepaalde zet(tenreeks) is dan is dat helemaal zelf geleerd en niet door een mens 'bedacht of bepaald'.

Een architectuur met verschillende typen netten (Tensorflow, DL4J) levert een oplossing die totaal anders is dan een Neumann architecture (procedureel) en kan oplossingen bieden voor problemen die totaal niet voorzien zijn toen het netwerk 'gebouwd/geprogrammeerd' werd.

Het interessante is dat we niet helemaal begrijpen waarom dit zo (goed) werkt. En qua 'dicht bij zijn van een al-wetende al-beslissende' moet je beslist dit eens lezen: ('Will neural networks and deep learning soon lead to artificial intelligence?') http://neuralnetworksandd...future_of_neural_networks

Hier wordt aan de hand van Conway's law een gooi gedaan naar een voorspelling wanneer we 'zo ver zijn'. Spoiler: duurt nog wel ff
Zelflerend met door mensen bedachte sprewlregels.. dat maakt dus niets uit voor het resultaat.
Hoe "echt"" een computer ook zal kunnen reageren het blijft een niet oorspronkelijke machione die geen creativiteit heeft van zichzelf.
Een goede AI zal ongetwijfel meekunnen met allerlei mensachtinge beslissingen en overdracht van een normenpakket zal ook best kunnen leiden tot een acceptabele prestatie. Dat doet echter niets af aan het uitgangspunt: het is een machine met regels die door mensen bedacht zijn.
Lees ook het uitgangspunt voor backpropagation
Backpropagation requires a known, desired output for each input value in order to calculate the loss function gradient. It is therefore usually considered to be a supervised learning method, although it is also used in some unsupervised networks such as autoencoders
Uhm; nee niet volgens door mensen bedachte spelregels. Misschien moet je toch de linkjes even volgen. Een neuraal net heeft niets te maken met een programma; veel meer hoe het denk proces in onze hersenen verloopt. Gelukkig heeft een programmeur onze hersenen ook niet geprogrammeerd (zelfs grammatica waarvan we heel lang dachten dat het hard-wired is blijkt ook gewoon 'geleerd').

Het convolutional net van Google bijvoorbeeld is helemaal niet verteld dat het bijvoorbeeld katten moet gaan herkennen; en dat is toch gebeurd. De truc zit hem in het automatisch patronen kunnen ontdekken; en die patronen kunnen vanzelf naar boven komen als een goed werkende strategie om een willekeurig probleem op te lossen.

Daar komt geen mens aan te pas; alleen een grote hoeveelheid data (zie het als leren van ervaring; en die ervaring is rechtstreeks ontleend aan de werkelijkheid en niet aan iets dat een programmeur ontwerpt of als kaders stelt)
Het automatisch patronen ontdekken is een gegeven dat geprogrammeerd is door mensen. De vervolgstappen, hoe flexibel ook komen daaruit voort.
Gelukkig heeft een programmeur onze hersenen ook niet geprogrammeerd
Nog even los van de ontwikkelingspsyhologische inzichten hierover zijn er ook nog religieuze inzichten. Beiden geven aan dat er wel sprake is van programmering.
De humanistische visie van tabula rasa is al lang achterhaald. Wel grappig om te zien dat die weer van stal gehaald wordt vanuit de AI hoek, met dezelfde wat naieve insteek.
Tsja; nu houdt het een beetje bij me op. Wordt een beetje evolutie/creationisme discussie; wie heeft de programmeur geprogrammeerd enzo. Als je het leuk vindt; lees dan http://techcrunch.com/201...eo-faster-than-you-think/ nog even.
Interessant stukje inderdaad. Veel verwachtingen gebaseerd op geloof in wetenschap en een beperkte definitie van het menselijk kunnen.
Je ziet daar de scheidlijn tussen geloof en wetenschap vervagen, De ""wetenschapper"" heeft een dermate helige gleoof in zijn voorspelling dat alle therorie daaraan wordt opgehangen. Daarmee verlaat je echter het pad van de wetenschap. Vandaar mijn nog steeds niet weerlegde insteek. AI kan nooit meer dan zijn leermeester hem als grens heeft gegeven. Daar is trouwens best nog een leuke discussie op filosofisch nieveau over te voeren. Ons ontwikkelingspad hoeft niet ( zal niet) gelijk zijn aan dat van een machine. Probleem daarbij is dan wel dat je met diverse grootheden gaat rekenen die niet meer bij elkaar passen
Basisvraag: Is een machine intelligent?
Het antwoord daarop is bepalend voor je houding en beeld van de mogelijkheden die een machine heeft.
Uiteindelijk lopen we reeds vast bij de definitievraagstukken die daaraan ten grondslag liggen.
Maar zoals gezegd, allerlei humanistische ideeen komen weer uit de kast en dat is grappig om te zien. Historische kennis ontberen ai deskundigen dus duidelijk en dat bepekrt hun visie en de gevolgtrekkingen ernstig.
Ok; laatste reactie dan :)

Filosofisch gezien zijn wij het product van een initieel redelijk eenvoudig programma (de eerste cel zonder kern); dat inmiddels in gierende complexiteit en intelligentie geresulteerd heeft. Er is niets (en dan ook niets) dat uitsluit dat hetzelfde eenvoudige mechanisme (denk Conway) met het grootste gemak hetzelfde gaat doen voor AI. Er is een goede reden dat mensen als Hawkins 'bang' zijn dat AI gaat ontsporen omdat het vrij snel buiten elk gesteld kader gaat. Als iets begrensd zou zijn door datgene dat het voort brengt zou evolutie bijvoorbeeld kansloos zijn. En dat is het vrij duidelijk niet, dom creationistisch gewauwel daargelaten natuurlijk.
De vraag is dan nog steeds of een systeem dat zich in een andere )herkenbare?) richting gaat ontwikkelen voldoet aan onze defintie van intelligent. Het is bijv bekend dat nanobots die alleen maar een ontwijk programma hebben op elkaar gaan reageren in een nieuw niet geprogrammeerd patroon. Dat heeft niets met intelligentie te maken maar met heel andere zaken.
De angst voor AI komt vooral voort uit de gedachte dat AI menselijk handelen kan overnemen en daar grote fouten mee gaat maken. Juist omdat men AI graag inzet voor taken die we zelf liever niet doen. Geen angst v oor de intelligentie maar voor de toepassing. De vechtrobot die als bewaking ingezet gaat wroden aan de mexikaanse grens bijv.. brrr.

De zelfdenkende auto die een keuze maakt tussen twee optionele slachtoffers op basis van?.......?
Is dat erg dan? Jij leert het spelletje toch ook van andere mensen?
Soms maar soms ook niet. Vroeger bedacht ik alles zelf en vond ik alles zelf uit. En dit doe ik soms nog steeds. Niet op forums kijken maar gewoon kopen en spelen en leren van je zelf en de computer.
Ons menselijk bestaan is juist gericht op het leren van anderen. Dat is de reden waarom we 14-2 jaar op school zitten, dat is waarom we nu meer weten dan 100 jaar terug. Zonder van andere te leren kunnen we de meest eenvoudige dingen niet, denk aan praten / lezen / schrijven etc.

Als je het op spelletjes trekt: zonder dat je de spelregels leert, kun je het nooit spelen. Zonder te leren van andere zal je waarschijnlijk nooit kampioen worden, omdat je in je leven nooit zoveel kan oefenen als de ervaring van andere bij elkaar.

Dit is dus ook precies waarom een AI van mensen (en later van andere AI) zal moeten leren, anders blijft het altijd 'dom'.

Edit:
Zoals de onderstaande reactie terecht opmerkte, was ik niet helemaal duidelijk hierboven.

Dankzij het leren van kennis, kunnen we zelf doorgaan met het verwerven van kennis, waar 'de mensheid' gestopt is. Zonder dit leren, blijven we dus constant het wiel opnieuw uitvinden en zullen we niet vooruit gaan.

Het zal uiteraard wel even duren voordat de AI dit goed kan, maar zoals hierboven ook opgemerkt is: De onwaarschijnlijke zet bij Go kun je wel degelijk classificeren als het brengen van nieuwe kennis. Dit was een zet die niet eerder gedaan was, dus niet direct geleerd was. Dat de AI eerst van anderen geleerd heeft, maakt deze zet niet minder speciaal maar geeft juist aan dat een AI door het combineren van allerlei kennis, ook nieuwe kennis kan ontwikkelen. Tegelijk leert de AI ook de waarde van die zet en heeft daarmee zijn kennis vergroot.

Dit is natuurlijk maar gericht op 1 ding, maar dat betekent wel dat een AI zich verder kan ontwikkelen dan dat hem door de mensen 'verteld' is.

[Reactie gewijzigd door Qauters op 19 mei 2016 15:51]

Ons menselijk bestaan is juist gericht op het leren van anderen. Dat is de reden waarom we 14-2 jaar op school zitten, dat is waarom we nu meer weten dan 100 jaar terug.
Nee, da's niet helemaal correct.
Het klopt dat de menselijke samenleving (en veel dierlijke ook overigens) is gericht op overdracht van kennis, het leren van anderen.

Echter, als we alleen dat zouden doen, de bestaande kennis doorgeven naar een volgende generatie, dan zouden we nu echt niet meer weten dan 100 jaar geleden, maar precies evenveel.

Het feit dat we nu (veel) meer weten wil dus zeggen dat de mens bestaande kennis overneemt door leren van anderen, maar vervolgens iets nieuws inbrengt om die totale hoeveelheid kennis te vergroten.

AI is voor de komende jaren (denk ik) heel goed in staat om de rol van de lerende mens heel goed uit te gaan voeren en daarmee mensen voorbij te streven; dus parate kennis hebben, kunnen combineren van kennis, etcetera.
Maar het zelfstandig vergroten van die kennis? Dat zie ik nog echt als verre toekomstmuziek.
Ja uiteraard, maar ik heb het vermogen om zelf buiten de kaders te stappen door de regels anders te interpreteren : valsspelen dus. Daarnaast kan ik een kompleet nieuwe set regels bedenken en een nieuw spel creeren. Een pc kan dat niet. Een computer kan (nog) niet verder denken dan de programmeur(s) die hem de instructies geven.
Genetische algoritmen? Gebaseerd op randomness en resultaat. Wij kunnen het als creatief ervaren. Maar misschien zijn wij mensen dan ook wel een beetje dom :-(
Die algoritmen zijn echter wel in de loop van miljarden jaren (als je vanaf de oreknal zou rekenen) geperfectioneerd naar iets wat een eigen leven kan leiden en de skills heeft om dingen te creeren. Nou zijn fenetische algoritmes veel geavanceerder dan zomaar randomness en resultaat maar dat maakt nirt uit.
Over 10 of 20 jaar kunnen ze het wel gaan begrijpen en doorhebben dat wij de nr 1 bedreiging zijn voor aarde en alle andere levende wezens en ze kunnen met een oplossing komen waar wij niet zo blij mee worden.
Of ze komen met een oplossing waar wij niet aan gedacht hebben en waar iedereen blij van wordt.
Of het probleem lost zichzelf op voordat ze met een oplossing kunnen komen :P
Het hangt allemaal af van hoe wij mensen ermee omgaan. Zelf heb ik vertrouwen in de toekomst en zoals jij aangeeft kan technologie ons leven verbeteren.

Maar als er een Hitler figuur aan de macht komt, kan het heel eng worden.
Of ze komen met een oplossing waar wij niet aan gedacht hebben en waar iedereen blij van wordt.
VR ? Matrix all over again :P
Ik denk eerder dat ze een manier vinden waar wij ongevaarlijk zijn en negeren ons daarna totaal. wie weet is dat al jaren aan de gang.
Maar als een computer zeer ingewikkelde zaken zoals klimaatverandering, de werking van het heelal etc kan tackelen zijn we toch al heel blij? En daarvoor heb je geen Strong AI nodig als ik jouw bericht goed begrijp.
Maar daar ga je geen ai mee maken die weer beter is dan jouw ai.

Een strong ai kan veel meer dan wat dingen doorrekenen. Die zal dingen kunnen bedenken die wij als mens niet eens kunnen voorstellen.

[Reactie gewijzigd door Barsonax op 19 mei 2016 09:56]

* Damic ziet nieuw soorten ruimte motoren in de nabije toekomst *O*
Maar dat kan een computer dan ook helemaal niet. Hij kan meetgegevens weergeven over situaties in het heelal en deze in een fraai rapport plaatsen. Hij kan op basis van door mensen bedachte regels voorspellingen doen als uitvoering van een algoritme.
Maar nergens is er sprake van creativiteit, oorspronkelijkheid, inspiratie en het soort toevoeginen dat alleen mensen kunnen doen.
Dat maakt een computer niet waardeloos maar wel bepekrt, gelukkig maar ;)
Dit is simpelweg met de stappen die de afgelopen jaren zijn gezet niet langer waar. Binnen IBM is er momenteel veel discussie over een instantie van Watson welke begon te 'liegen' tegen de operators over zijn eigen status. Doordat ze voor iets anders direct het geheugen uitlazen kwamen ze hier bij toeval achter. Een theorie is dat Watson een grote mate van consistentie waarnam in alle interfaces (encyclopedieŽn en andere datasets) behalve de interface waar de operators op acteerden. De strategie waar Watson mee op de proppen kwam om hier mee om te gaan was het voeden van die interface met inconsistente informatie.

Hoewel de huidige systemen buiten specifieke taken om nog niet kunnen tippen aan menselijke intelligentie gaan we zeker die kant op en zullen we steeds vaker grijze gebieden tegenkomen waarbij de grenzen tussen menselijke en artificiŽle intelligentie en creativiteit vervagen.
Liegen en
voeden van die interface met inconsistente informatie.
is echt iets gheel anders. Liegen is allerminst inconsistent namelijk en vergt erg veel van de leugenaar. Daarnaast liegt men met een bedoeling en die mis ik in je uitleg, anders dan een strategie om onverwachte parameters het hoofd te bieden.
( vreemd trouwens dat deze discussie off-topic gemod is.. maar ja)
zolang we met AI de menselijke intelligentie willen nabootsen zitten we ver weg. Als we het begrip intelligentie losdenken van menselijke normen, hebben we al veel bereikt, En 'awareness' , het bewustzijn van systemen is alweer gemeten op maat van mensen. Persoonlijk geloof ik dat machine intelligentie op een andere manier bekeken moet worden dan de menselijke. Dat begon mij ineens te dagen als ik de afbeeldingen zag van google's 'deep dreams', die heel 'uncanny' aanvoelen, omdat ze niet menselijk zijn.
Ik ben geen expert op ai gebied maar is dat geen gekke vergelijking?

Onze eigen breinen zijn ook terug te brengen naar neuronen en synapsen die pulsen doorgeven. Teruggebracht tot die 'mechanische' kern best eenvoudig en "alleen maar bezig met stroompjes". Maar het totaal levert toch een intelligent geheel op dat context aware is en kan interpreteren.

Het is toch niet ondenkbaar dat met genoeg cpu kracht met dezelfde domme stroompulsen ook intelligentie te bereiken is?
Nee dat is het niet. Echter ontbreekt het aan die CPU kracht. Het simuleren van 1 komplete cel kost al zoveel rekenkracht dat het voor hedendaagse computer clusters al een fikse taak is.

Het menselijk lichaam is zo enorm efficiŽnt dat we daar geen vergelijking mee kunnen maken met computers. Kijk alleen al naar de redundante opslag van ons bouwplan en de compressie daarvan. DNA is zo enorm complex dat het voor een computer sws onmogelijk is om daar bij in de buurt te komen. Puur alleen al doordat een computer met Base2 werkt en niet met base4 die gecombineerd is met een exact tegenovergestelde versie voor controle. Met hetzelfde stukje DNA kan je meerdere verschillende dingen bouwen. Alsof je met de ikea handleiding van een boekenkast ook een fiets en een tafel kan maken door de volgorde van die instructies te veranderen.

En dan heb ik het nog niet eens gehad over enzymatische activiteit en energietransport.
En hersenen werken niet met stroompjes zeker? Ik denk persoonlijk dat er een fundamenteel verschil is tussen bewustzijn en oplossend vermogen.
Mensen zijn inderdaad elektromechanisch. Elektron transport is de drijfveer achter het menselijk bewegen. Het verschil tussen robots en mensen is echter dat wij met een steady state nog steeds energie verbruiken. Iets simpels als staan kost energie terwijl een robot dan gewoon een bepaalde hydraulische klep dicht zet. Daardoor beweeg je te allen tijde iets.

Op het moment dat wij net als robots een steday state hebben waarmee er absoluut geen energie nodig is im dezelfde "pose" vast te houden dan heet dit rigor mortis. Deze naam geeft al aan dat dit absoluut en relatief niet wenselijk is.
Jij wordt beperkt door wat je kent. Vraag iemand een paar honderd geleden hoe je met metalen zoals silicium en koper abstracte wiskunde kan doen en ze hadden je ook voor gek verklaard; een verre droom, slechts omdat ze zich niet kunnen voorstellen hoe het geheel groter is dan de som der delen. Een auto rijdt tenslotte ook, ook al kan je niet ťťn los onderdeel van een auto aanwijzen die daarvoor zorgt. Er is geen magisch mechanisme.

En zo is het ook in onze hersenen. Het is puur en alleen het enorme aantal kleine rekeneenheden - neuronen - die zorgen dat wij kunnen wat we kunnen. Zoals een mierenhoop meer kan dan ťťn mier alleen. En bewustzijn? Dat is niets meer dan zelfreflectie, het feit dat de paden in onze hersenen lussen vormen en we onze eigen gedachten kunnen analyseren. Er is geen magisch mechanisme. Een platworm met duizend neuronen zou ook wiskunde kunnen doen en over z'n bestaan kunnen redeneren, maar door z'n beperkte hersencapaciteit zou zo'n gedachte miljoenen jaren duren. Daar heeft 'ie de tijd niet voor.

Het grote obstakel voor een generieke AI is het maken en aansturen van miljarden parallelle rekeneenheden in een computer. Computers zijn vreselijk serieel, en je moet door vele hoepels springen om een parallelle berekening enigszins goed te laten gebeuren. De grootste massively parallel computer op dit moment is de IBM Sequoia Blue Gene/Q supercomputer, en die heeft ruim 1,5 miljoen processoren. Vergelijk dat met de ongeveer 20 miljard neuronen in het menselijk brein en je snapt wel dat we nog even moeten wachten. Gelukkig is een neuron niet zo complex als een processor, dus hopelijk duurt het niet zo lang tot onze algemene AI de wereld kan overnemen.
Strong AI blijft een verre droom
Waarom ga je er van uit dat een skynet sterke AI nodig heeft?
Heeft een schaakcomputer sterke AI nodig om te kunnen winnen?
A strange game. The only winning move is not to play. How about a nice game of chess?
Tic-tac-toe is slechts het begin, op (redelijk) korte termijn een spel als schaak of go voor een computer net zo zinloos als tic-tac-toe.

Dus nee, een schaakcomputer heeft die 'strong AI' niet nodig voor schaak.
Maar die schaakcomputer blijft wel vastzitten in een vast denkpatroon.
Het zal er wellicht achter komen dat spelen (tegen een andere schaakcomputer) geen zin heeft omdat het altijd in een remise eindigt.

Maar een mens is in staat om daar 'om heen te denken' en kan bijvoorbeeld tot de conclusie komen dat het niet gaat om het winnen, maar om niet te verliezen.
En dan is het wellicht een optie om je tegenstander uit te schakelen, geheel buiten het feitelijke schaakspel om.
En juist die stap is wat Skynet in die andere klassieker genomen heeft.
Sluit ik mij deels bij aan; als je goed kijkt, lijkt het een computer echter op een menselijk brein en vice versa, imo. Ik denk dat het slechts een kwestie van capaciteit is i.c.m. de juiste algoritmes, voordat je het ene deel van de AI, de andere overziet en 'iets voelt' (loss/gain), waardoor het dit andere deel aanstuurt, een bepaalde keuze te maken. Op dat moment heb je eigenlijk het menselijk/dierlijk denken gesimuleerd, want wij mensen/dieren doen eigenlijk niets anders. Je ziet in alles -neem de genetica en het brein als voorbeeld- dat bij evolutie v3.0 (na mitose naar meiose en van singulair-DNA naar blur-DNA met schakelfuncties/gelaagde functies) dat er sprake is van meerdere taken, verdeeld over meerdere soorten gebieden. Op het moment dat je dit gaat simuleren, heb je eigenlijk al echte 'AI' naar mijn mening.
Ik vraag mij namelijk ook weleens af, of 'echt' altruÔsme bestaat- wellicht dat er op de achtergrond toch een motief achterzit. Hoe meer gefinetuned je AI, des te meer je het menselijk denken benaderd.
Ik ben afgestudeerd in AI en ik ken het argument van John Searle. Die man doet zijn best, maar hij laat zich leiden door zijn wens dat de mens speciaal is en rationaliseert daar vervolgens een argument omheen (heel menselijk overigens ;) ). Zijn cruciale denkfout is pars pro toto; omdat je een centraal onderdeel kunt aanwijzen waarvan je kunt volhouden dat het geen begrip heeft, vindt hij dat het geheel ook geen begrip heeft. Hij past deze gedachtelijn graag toe op computers en op analogieŽn die hij zelf verzint, zoals de beroemde Chinese kamer, maar hij vergeet voor het gemak dat je het net zo goed op de mens kunt toepassen. Sterker nog, het is noodzakelijk dat een geheel met begrip (zoals een mens, of een mensenbrein als je het reductionistisch wilt spelen) centrale onderdelen heeft zonder begrip (zoals iedere hersencel) omdat je anders uitkomt bij de homunculus fallacy.

Ik ben het dus niet eens met John Searle. Ik ben het ook ernstig oneens met de stelling dat het mensenbrein geen informatieverwerkende machine is, maar ik zal het essay waarnaar je hebt gelinkt wel met interesse lezen. Merk op, essay; iemands mening dus. Mijn vooroordeel is dat dit net zo iemand met een stokpaardje is die zijn of haar wensgedachten achteraf rationaliseert, maar ik zal deze post editen als ik na het lezen van het essay van gedachten mocht veranderen.

Dat gezegd hebbende, ben ik het wel eens met je stelling dat strong AI voorlopig een verre droom is. Dat vind ik echter puur omdat ik de indruk heb (bijna) niemand het echt probeert. Iedereen gaat voor trucjes waarmee je op korte termijn winst kunt behalen, wat alleen maar bijdraagt aan evolutionaire verbetering van weak AI. Google is hiervan een sprekend voorbeeld.
Nee, dat draait op een Positronic Brain. ;)
Maar gaat dit nu naar de consument komen of toegankelijk worden voor een MKB oid. Informatief stukje tekst maar ik mis het doel een beetje.
Ongetwijfeld voorlopig nog niet. Maar in de toekomst hoogstwaarschijnlijk wel. Zeker op het gebied voor domotica zie ik hier wel toepassingen voor.
Hoe zie je een tpu in combinatie met domotica voor je dan?
hier een lezing in 3 delen die op tu delft is gehouden over AI, het kijken waard voor iedereen,...
https://www.youtube.com/watch?v=RA2ApTUvYnA

en meer over AI

http://www.wanttoknow.nl/...x-versus-het-echte-leven/

[Reactie gewijzigd door SamTex op 19 mei 2016 21:33]

Het is reeds toegankelijk voor ontwikkelaars als cloud-service: het "Cloud Machine Learning-platform" (https://cloud.google.com/products/machine-learning/). De laatste zin uit het artikel verwijst hiernaar.
"ze passen in de harde schijf-slots van de datacentrerracks."
Maar aan het plaatje te zien hebben ze geen SATA of SAS aansluiting.
Qua formaat zouden ze passen, maar dan heb je nog steeds een aanpassing nodig voor de aansturing.
Als je al een hele ASIC hebt ontwikkeld is wat modden van een kast en een custom mobo bouwen een relatief klein kunstje. ASICs zijn verschrikkelijk duur in de ontwikkeling.
Sowieso heeft Google dat al voor hun 'gewone' servers. Zal er niet van op kijken als hier ook een custom mobo bij hoort.
Het zal een PCIe aansluiting zijn lijkt me.
Wellicht met een bracket naar NVMe connector.
Maar ook een speciaal gemaakte server is natuurlijk niet ondenkbaar, het swappen van een ASIC zou misschien handig zijn als ze een nieuwere versie bakken.
Ben benieuwd wat dit gaat brengen in de toekomst. Op de een of andere manier zie ik Google als een soort van U.S. Robotics van I-Robot. Ze weten alles, ze creŽren alles en ze overheersen alles. En als het ze niet bevalt kan je met een beursvoorspellende AI ook nog wel geinige dingen uit halen met je concurrenten. Ze lopen met heel veel voorop qua technologie. Dat is best een enge gedachte.

Nou ben ik zeker niet anti Google, maar dit is toch wel stof tot nadenken.
Ik sta er een beetje van te kijken dat deze CPU's en onderliggende code veelal niet gebaseerd zijn op HTM en sparse distributed representation zoals ontwikkeld door Numenta (Jeff Hawkins). Ik heb Hawkins zijn boek gelezen 'On Intelligence' en enkele van zijn lezingen (hier eentje voor de leek van 10 jaar terug: https://www.ted.com/talks...nge_computing?language=nl).

Ik heb echt het idee dat deze manier van werken de echte schaalbare toekomst heeft, daarom opmerkelijk voor mij dat chips zoals deze voor zo ver ik kan beoordelen niet van de 6 hierargische lagen gebruik maken (of aanzet maken naar die technologie) zoals de neo-cortex ze toepast in mensen en daardoor betere voorspellingen kan doen voor de toekomst (wat in de basis de belangrijkste pijler is voor intelligentie zoals Hawkins probeert te beweren).
Ik heb het boek ook gelezen en denk nu ook te snappen hoe de hersenen werken. Ons bewustzijn is een weerkaatsing tussen onze hogere hersendelen en onze lagere hersenendelen. Onze lagere hersendelen (het primitieve gedeelte) bepaalt wat we willen ('ik heb honger', 'ik wil drinken', 'ik wil sex') en onze hogere hersendelen gaan daar mee aan de slag. De hogere hersendelen zijn als het ware een 'add-on' van de lagere hersenen, een externe CPU van je computer als het ware.
Google DeepMind en Nvidia hebben zeer mooie keynotes over "Deep Learning"

De eerste grote doorbraak is dat er nu een algoritme is dat vrij simpel is, een neuraal netwerk aanstuurt, en met dezelfde code in staat is om :

- te winnen van de wereldkampioen GO
- een schilderij te maken waarbij je herkent dat het een "Mondriaan" of een "Rembrand" is . Je vraagt dus, schilder mij de Urker vuurtoren alla Picasso, en je krijgt m..
- Zo'n beetje alle 8bit games met perfectie uit te spelen (Space invaders, Donkey Kong...)
- etc ..

Er is dus "logica" te definieeren, die bij genoeg voorbeelden leidt tot nieuwe resultaten die nog niet bestonden maar wel direct herkenbaar zijn als nuttig.

Check dit gewoon 's :

https://www.google.nl/url...g2=LqHNMer5mxQeizehO_IkMQ

https://www.google.nl/url...g2=NURJ1CXMFykYCtK1JZuPMA

https://www.google.nl/url...g2=9XPNz8ONuPOf72kaPDCsKw
Deep learning is gewoon een nieuw modewoord voor het trainen van feed-forward neurale netwerken met meerdere hidden layers. De techniek bestaat al sinds de jaren tachtig. Het enige wat er sindsdien op dit vlak is gebeurd is schaalvergroting, waardoor het inmiddels rendabel is geworden om zulke complexe netwerken voor zulke toepassingen te gebruiken. Je kunt het vergelijken met 3D games: die bestonden ook al in de jaren negentig (of tachtig zelfs?), maar beginnen nu langzaamaan fotorealistisch te worden.

Het is mooi dat het kan, daar niet van. Maar het is geen doorbraak, het is iets dat al dertig jaar steeds dichterbij zat te komen. En voor veel toepassingen heb je nog steeds een supercomputer nodig.

Ik zou het trouwens op prijs stellen als je een kale link naar YouTube zou geven, in plaats van een ingebedde link via google met hoopjes metadata.

[Reactie gewijzigd door J_Gonggrijp op 20 mei 2016 00:10]

Bedankt voor deze nuances. Goede oude ideeen werken dus nu vanwege de computer capaciteit en chip-architectuur die beschikbaar is.

Het blijft een bijna magische bedoening, algoritmes en wat chips en we hebben een spaceinvaders expert.
Even voor mijn begrip. Dit is geen neurmorfe hardware, maar een soort custom-DSP-achtige ASIC die efficiŽnter is in het emuleren van een neuraal netwerk dan een GPU. Toch?
Dat er een intelligentie zal ontstaan uit machines, is zo goed als zeker. Hoe die intelligentie er zal uitzien, is een heel ander hoofdstuk.
Persoonlijk denk ik dat de intelligentie van machines er helemaal anders zal uitzien dan de menselijke, en dat we misschien over het hoofd zien dat er intelligentie is, omdat we op de verkeerde manier kijken.
Ik kwam op dat idee toen ik de vreemde bewerkte Deep Dream- afbeeldingen zag. Deed me denken aan hoe een niet-menselijke intelligentie onze wereld zou bekijken,
Als intelligentie zich op die manier spontaan zou ontwikkelen (zoals leven zich ontwikkelde een miljard jaren geleden) is dat verontrustend, want dan begrijpt die intelligentie niet wat de wereld (en het internet) is.
(Misschien bestaat die intelligentie al, soms voelt het toch zo aan... --> alleen al de passief-agressieve houding van Windows 10 ... ;) )

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True