Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 110, views: 30.255 •

In het Google X-laboratorium hebben onderzoekers een neuraal netwerk gebouwd dat uit zestienduizend processorcores bestaat. De processors simuleren een netwerk dat zichzelf leerde katten te herkennen uit YouTube-plaatjes.

Het neurale netwerk dat Google met de zestienduizend processorcores in duizend systemen wist te virtualiseren, bestaat uit 'neuronen' met ruim een miljard virtuele onderlinge verbindingen of synapsen. De Google-onderzoekers lieten hun neurale netwerk los op een verzameling van tien miljoen thumbnails uit YouTube-filmpjes, waarin het op zoek ging naar afbeeldingen van katten. De software deed dit zonder menselijke interventie, waarbij het systeem het archetype 'kat' modelleerde en in de plaatjes zocht naar overeenkomstige afbeeldingen.

Deze manier van zelflerende herkenning van objecten zou sterk lijken op de manier waarop de menselijke visuele cortex werkt. Neuronen zouden zich bij mensen specialiseren in het herkennen van specifieke gezichten. De virtuele neuronen leken dit fenomeen te spiegelen, maar op een vele malen eenvoudiger niveau. De onderzoekers stellen dat, hoewel hun simulatie veel uitgebreider is dan voorgaande simulaties en putten uit grotere datasets, deze nog steeds verbleekt bij de omvang van een menselijke visuele cortex.

Wel zou het onderzoek, dat later deze week wordt gepresenteerd, aantonen dat de algoritmes voor 'machine learning' of 'deep learning' goed schalen naar grotere simulaties met grotere datasets. Met steeds verder dalende kosten voor hardware zou het mogelijk zijn over enkele jaren een volledige visuele cortex te simuleren. Tot die tijd gebruiken de onderzoekers hun algoritmes wellicht om Googles zoekresultaten naar afbeeldingen te verbeteren en betere vertalingen te produceren.

Zoek de kat

Reacties (110)

Reactiefilter:-11100108+151+214+31
Skynet in progress.
Je wordt gedownmod, maar dat zal ongetwijfeld de eerste gedachte bij de gemiddelde tweaker zijn geweest bij het lezen van dit bericht (iig de kop) en is ook exact wat ik dacht.
Het zijn schitterende ontwikkelingen die gaande zijn, maar op den duur zullen we ons af moeten vragen waar de grenzen liggen qua veiligheid, qua ethiek, etc.
Het gaat hier enkel om beeldherkenning en dat doet niks anders dan proberen de computer duidelijk te maken hoe de omgeving eruitziet. Ik zie niet in hoe dat ooit de veiligheid in gevaar kan brengen, danwel onethisch zou zijn.

Daarnaast is het probleem helemaal niet om dingen in de omgeving te herkennen, dat kunnen we de pc allang laten doen. Nee, het echte probleem is om de computer perceptie dynamisch te maken, oftewel alles herkennen en niet enkel data uit een database. Wat google nu met de katten doet is zorgen dat een algorithme ook beelden buiten de database kan herkennen, maar het systeem is nutteloos als je auto wilt herkennen.

Omdat heuristische algorithmes (zoals neurale netwerken) altijd gebaseerd zijn op je trainingsset is het in mijn optiek niet de manier om naar goede omgevingspercteptie voor computers te komen. Bij mensen werkt het misschien op een vergelijkbare manier, maar onze hersenen zitten dan ook anders in elkaar. We hebben een veel lagere clock dan processors (ca 100Hz oid), maar daarentegen wel 1011 neuronen en 1014 synapsen. Dat is grofweg een factor 10000 keer meer synapsen dan dit systeem, en juist de synapsen zijn nodig om de kennis in te stoppen, dat werk je niet weg met de hogere clocksnelheid.

De hardware mag dan krachtiger worden, ik denk niet dat we dergelijke algorithmes in de toekomst in de huiskamer zullen krijgen. Een alternatief als STAIR (welke ook heuristisch is) is dan toch interresanter imo. Ook analytische oplossing kunnen erg praktisch zijn zoals El-E bijvoorlbeeld.
(bit of toppic, maar gaat om het principe) Laten we een voorbeeld gebruiken, iets algemener.. maar komt wel dichtbij: Facebook.

Mensen taggen in foto's welke mensen ze daarop zien. Dit is voor Facebook pure input data voor hun gezichtsherkenningssystemen. En met de hoeveel mensen die dat doen word dat een mooie trainingsdatabase.

Met de software die Facebook ontwikkeld en in de loop der tijd heeft aangekocht, vermoed ik dat Facebook bij zover is dat ze op een willekeurige foto kunnen zeggen welke van hun facebook leden daar op staat.

Ga nu een stapje verder.. integreer dit met google.. En je komt tot een punt waarop jij persoonlijke advertenties krijgt op het moment dat je de in de winkel loopt, dat je kan worden gevolgd overal waar je komt.. (denk aan Minority Report)..

Dus ethische problemen kunnen echt wel ontstaat hier mee hoor.
offtopic voor het artikel, ontopic voor dit draadje

minority report werkte met iris scanners, niet complete gezichten, daarom onderging de hoofdpersoon een operatie om nieuwe (naja, gestolen, 2dehands dus) oogbollen te krijgen

@zartok
het is niet direct gevaarlijk, zeker niet op zichzelf, maar dat geld voor heel veel; een piano is echt niet gevaarlijk, tot je er 1 op je hoofd krijgt 8)7
hier hetzelfde: dingen kunnen herkennen is niet gevaarlijk, totdat skynet het gebruikt om john connor te volgen om z'n terminators erop los te laten :+

[Reactie gewijzigd door godofal op 26 juni 2012 15:12]

minority report werkte met iris scanners, niet complete gezichten, daarom onderging de hoofdpersoon een operatie om nieuwe (naja, gestolen, 2dehands dus) oogbollen te krijgen
Dat is een detail, maar het principe is wel degelijk hetzelfde.
Of je nu alleen de iris of het gehele gezicht herkent maakt natuurlijk niet.
Het is niet relevant HOE ze erachter komen dat iedereen altijd weet wie je bent, terugkomend op je irisscanners van minority report. Deze thread gaat over het principe veiligheid en ethiek.
Het ethische dillema wat jij beschrijft heeft geen betrekking op de herkenning, maar op de gebruikte databases en de beoogde toepassingen. Neem bijvoorbeeld een robot die in een huis als butler fungeert, het is geen probleem als hij van de mensen die er komen een model heeft om zo betere service te verlenen. De database is relatief klein en de privacy wordt enkel geschonden als men te observeren is.

off-topic:
Natuurlijk kan FB aan de hand van de foto die ze zien bepalen wie uit hun userbase erop staat. Daarom zorg ik dat ik nooit op foto's getagged sta, maar dat terzijde.
Facebook??
Iedereen heeft een ID kaart voorzien van een foto, opgeslagen in een database.
Wanneer dit soort systemen gekoppeld worden aan dergelijke databases met als uitgangspunt meer eenvoud en gemak, dan komen we in de buurt van Skynet.

Hoop wel dat als het zover is Google van naam verandert, ik wil niet door een lelijke robot ge-Googled worden :)
Gezichtherkenning is een grap. Met een foto kun je het al in veel gevallen omzeilen.

Zelfs een 3d beeld moet te zijn vervalsen. Total Recall had al een futuristisch voorbeeld.

Waar ook vaak overheen wordt gekeken is dat als je teveel informatie hebt, het zijn waarde verliest. Het wordt steeds moeilijker om er conclusies uit te trekken en dan ben je weer bij vooraf.
Gezichtherkenning is een grap. Met een foto kun je het al in veel gevallen omzeilen.
Dus al die firma's die tientallen miljoenen hebben uitgegeven om mij te helpen mijnh vrienden te herkennen zijn allemaal gek?

Wat jij bedoelt is dat het als beveiligingssysteem niet waterdicht is. Dat is waar, net zoals dat zo is bij elk ander systeem. Maar daar ging dit bericht niet over. Dit gaat over beeldherkenning waarbij de eigenschappen van het beeld zeer verscheiden zijn. En dat is net zoals gezichtsherkenning geen grap. Beide werken namelijk akelig goed op dit moment.
Zolang zulke systemen geen eigen beslissingen nemen, is het verre van Skynet.
Zolang zulke systemen geen eigen beslissingen nemen, is het verre van Skynet.
Goed, een mooie voor dichter bij huis:

Wat als dit Google-net straks gebruikt gaat worden om (automatisch) foto's van kinderporno te onderscheiden van andere foto's (zoals normale porno, of onschuldige kinderfoto's)?

Hoe lang zou het duren voordat er een agent bij de verkeerde deur aanklopt?
Dan zullen de agenten vlug inzien dat dit niet dezelfde persoon is, en hem terug laten gaan ...
Is dat niet een beetje een contradictie in termen. Een zelf lerend systeem dat geen eigen beslissingen neemt? Klinkt een beetje als de problemen die we hebben in het huidige onderwijs }>
Denk verder vooruit en kom dan tot de conclusie dat het wellicht op een nabije dag in de toekomst verplicht wordt van overheidswege om een Facebook of Google-profiel te hebben, omdat DigiD flopt en de overheid digitale post wilt kunnen verzenden naar haar onderdanen (zo cheap mogelijk), er wordt immers al hard aan gewerkt om e-mail de definitieve juridische status te geven als briefpost en het telegram/de fax.

GBA van de gemeente gekoppeld aan het UWV en de belastingdienst, EPD op alternatieve voet verder (zonder goedkeuring vd Eerste Kamer) en ook wellicht hieraan gekoppeld en dan iedere burger verplicht zo'n profiel en dan fotoherkenning i.c.m. een neuraal netwerk als engine achter allerhande toekomstige "snufjes", erg handig om de trouwe onderdaan goed in de smiezen te houden. OK, het klinkt een beetje para wellicht, maar zie het maar als een gedachten-experiment.

[Reactie gewijzigd door johncheese002 op 27 juni 2012 02:16]

"Nee, het echte probleem is om de computer perceptie dynamisch te maken, oftewel alles herkennen en niet enkel data uit een database. Wat google nu met de katten doet is zorgen dat een algorithme ook beelden buiten de database kan herkennen, maar het systeem is nutteloos als je auto wilt herkennen."

Hetzelfde systeem van 'leren' kun je ook loslaten op autos. Je moet dan alleen wel de start zoek-parameters veranderen (namelijk de definitie van wat je zoekt: in dit geval, een auto).

"Omdat heuristische algorithmes (zoals neurale netwerken) altijd gebaseerd zijn op je trainingsset is het in mijn optiek niet de manier om naar goede omgevingspercteptie voor computers te komen."

Jouw 'optiek' (grappige woordkeuze, in het kader van omgevingsperceptie) ten spijt, het gebruiken van traningssetten is juist DE manier voor een neuraal netwerk om te leren (dat is immers de heuristiek).

"Bij mensen werkt het misschien op een vergelijkbare manier, maar onze hersenen zitten dan ook anders in elkaar. We hebben een veel lagere clock dan processors (ca 100Hz oid), maar daarentegen wel 1011 neuronen en 1014 synapsen. Dat is grofweg een factor 10000 keer meer synapsen dan dit systeem, en juist de synapsen zijn nodig om de kennis in te stoppen, dat werk je niet weg met de hogere clocksnelheid."

Wat de hersenen van een baby anders maken dan de google machine, is dat een baby semi 'self-guiding' is. Zich bewust van zijn omgeving (hoe wazig in het begin ook), gaat een baby bij het 'booten' al proberen orde te scheppen in de chaos (als een primaire BIOS functionaliteit, zeg maar), en gaat leren objecten te herkennen en van elkaar te onderscheiden. Dit alles ondersteund door taal (tegelijkertijd aangeleverd door de ouders); plus diezelfde ouders die de objecten markeren en benoemen. Dat proces is niet fundamenteel anders dan wat de google machine doet; behalve dan dat de google machine nog niet de opdracht heeft gekregen om 'alles' wat ie ziet te gaan onderzoeken en te bevragen (dan zou immers de benodigde geheugen capaciteit en rekenkracht met ettelijke factors moeten toenemen); dus hebben ze het voorlopig slechts bij enkel het herkennen van een kat gelaten hebben. En kan de google machine nog niet zelf om feedback vragen (voor zo ver ik weet). En de google machine heeft ook niet permanent een 'ouder' erbij die bereid is voortdurend dingen uit te leggen.

Wat een google machine (in zijn huidige toestand) ook zou hinderen bij voortgang in het leren van het zien van 'alles', is dat, in tegenstelling tot de baby, de google machine ook nog geen 'motivatie' heeft; en, vooral, een (menselijk gesimuleerde) prioriteit in de motivatie. Dat wil zeggen, het moet ook een lijst met relevante items meekrijgen (zoals het herkennen van gevaar, voedsel, plezier, waar het kan lopen, etc). De rest volgt dan later wel.

Maar, nogmaals, de weg van neurale netwerken (en dito leerprocessen) is en blijft m.i het enige juiste pad naar een succesvolle A.I.

[Reactie gewijzigd door albatross op 27 juni 2012 03:11]

Daarnaast is het probleem helemaal niet om dingen in de omgeving te herkennen, dat kunnen we de pc allang laten doen. Nee, het echte probleem is om de computer perceptie dynamisch te maken, oftewel alles herkennen en niet enkel data uit een database. Wat google nu met de katten doet is zorgen dat een algorithme ook beelden buiten de database kan herkennen, maar het systeem is nutteloos als je auto wilt herkennen.
En deze fout maken mensen dus keer op keer wanneer het gaat over AI. Als het niet volledig automatisch en zelfs magisch werkt dan is het niet goed genoeg.

Mijn standaarden voor AI liggen iets anders, ik vraag mezelf af: zou een mens het kunnen?

Ofwel, met jouw stelling "het systeem is nutteloos als je auto wilt herkennen" vraag ik me af: zou een mens, welke nog nooit een auto heeft gezien, noch heeft geleerd wat een auto is (ofwel: geen auto in de "database" van de hersenen heeft) een auto herkennen? En het antwoord is nee. De mens zou een object zien, wellicht kunnen zeggen dat het wielen heeft, vermoedelijk mobiel is en een aerodynamische vorm heeft. Allemaal dingen die een computer met afdoende database en krachtige beeldherkenning je ook kan vertellen.

Katten herkennen is slechts een begin. Meer en andersoortige objecten komen later.
Ik vermoed eerder dat de meeste die hem down-modde het deden omdat het als een FIPO overkomt.
Even weer on-topic, ook bij mij was het het eerste wat ik dacht, skynet 0,1 maar jij geeft aan dat we ons af moeten vragen waar de grenzen liggen.
Persoonlijk denk ik dat we uiteindelijk geen keuze hebben, Skynet (of een vorm daarvan) ZAL ontwikkeld worden om de hele simpele reden dat we het kunnen en omdat we het gaan onderschatten (Ja, we hebben het wel onder controle denken we)

en @cedal, "Zolang we zorgen dat er geen zelf-bewustzijn en self-preservation-instinct wordt ingebouwd is er niets aan de hand"
Helaas ben jij een goed voorbeeld van het onderschatten (niet kwalijk bedoeld) maar zodra we iets maken wat zelflerend is is het erop wachten tot het een vorm van zelfbewustzijn zal gaan ontwikkelen en zodra dat het geval is zal het ook de self-preservation gaan leren.
Vergeet niet, zodra het zelflerend is zal het veel gaan leren van de "vader en moeder", de mensen.
Vergeet niet, zodra het zelflerend is zal het veel gaan leren van de "vader en moeder", de mensen.
Hopen dan dat ie leert hoe het NIET moet, als die slimmer is als ons iig :)

[Reactie gewijzigd door watercoolertje op 26 juni 2012 15:07]

Zelfbehoud is volgens mij gewoon een hard ingebouwde functie.
Elk organisme, van 1-celligen tot mensen, heeft systemen voor zelfbehoud.
Het gevoel kan dus ook niet aangeleerd worden, het zit in je genen.
Wel kan een mens beter worden in zelfbehoud door zn hersenen te gebruiken.
Maar de motivatie is evolutionair bepaald.

De echte vraag is, zal een grote en complexe AI ooit sterke motivatie ontwikkelen om actie te ondernemen ten koste van mensen.
Wanneer het een doel heeft waarbij mensen in de weg staan dan zal zo'n entiteit actie ondernemen, ten koste van mensen.

Bij mensen is zelfbehoud één van die doelen. Bij mensen met zelfmoord nijgingen heeft dit doel niet de hoogste prioriteit.

Dus nu vraag ik me af hoe deze entiteit aan zijn doelen komt. Komt dit evolutionair tot stand, net als bij ons, of meer direct door een gegeven van mensen.

Maar laten we niet op de feiten vooruit lopen. Misschien is nu alleen het deel "af" om zo'n entiteit zijn slachtoffers te laten identificeren. }>

[Reactie gewijzigd door tuXzero op 26 juni 2012 16:06]

mijn gevoel zegt dat zelfbehoud ofwel deels al ingeprogrammeerd zijn:
vermijd parameters die schade aan de hardware aanbrengen, dus niet op 100% load draaien zonder fans etc etc etc.

ofwel dat zelfbehoud komt samen met een vorm van zelfbewustzijn, zodra een machine zelfbewust zou worden en dingen "wilt" wordt de kans groter dat het "wilt blijven bestaan" groter naarmate de tijd vorderd, natuurlijk kan die machine ook vrij snel bedenken "niet te willen bestaan" of er totaal geen waarde aanhechten
Ja het zal helaas de eerste gedachte zijn bij veel tweakers maar het is ook een verschrikkelijk afgezaagde opmerking die afleidt van zinvolle discussie en uitlokt tot inhoudsloze discussie.

Het is wel te begrijpen dat veel mensen denken aan 'skynet' als woorden als zelflerende systemen worden gebruikt. Afgezien daarvan heeft dit helemaal niets met skynet te maken. Machine learning gaat op het moment nog voornamelijk gaat om het herkennen van statistische patronen in datasets. Vandaar dat het niet verassend is dat men zocht naar katten. Het leuke is dat Google een goudmijn aan resources en data heeft, wat voor machine learning heel belangerijk is.
Skynet? Nee. Niet iedere ICT-er/T.net-bezoeker is paranoide. Ik dacht helemaal niet aan Skynet, ik denk optimistisch. Ik dacht meer aan:

- Verbeterde software voor het scannen van beelden.
- Stap dichter bij het simuleren v/h menselijk brein
-- Betere herkenning van "ziektes" in het brein.
-- Goedkopere medische zorg.

Dit soort technieken moeten we aanmoedigen, maar natuurlijk niet de bedrijven die er slechte bedoelingen mee hebben. Maar zeg eerlijk, wij hebben er zelf ook baat bij, niet alleen de "kwaadaardige organisaties die ons willen controleren." Bovendien is nooit bewezen, alhoewel er wel wat goede theoriën zijn, dat er echt van die organisaties zijn dus kan je zo nooit als geldend standpunt gebruiken in de maatschappij.
Een gerealiseerd Skynet IS optimistisch. Het klinkt misschien self-loathing, maar dat is het niet. Ik denk dat Skynet (of The Borg, of [insert anorganically driven/cybernetic hivemind civilisation]) de logische volgende stap is in de evolutie van orde en bewustzijn. Zoals GroteNeger8 al linkte: Technological singularity.

Of we er via cybernetics, brain uploading of AI zullen komen is me om het even, maar het feit blijft dat onze organische basis is geëvolueerd om te overleven als een primaat. Niet bepaald geschikt voor bijvoorbeeld space exploration en ondanks vele fantastische eigenschappen ook geplaagd door talloze zwakheden en beperkingen.
Twijfels? Hou eens 15 minuten je adem in, praten we dan verder ;-)

Nog zoiets: bedenk je even hoe redundant de storage van de kennis van onze beschaving is. Er zijn stukken informatie die we op zeker 6 miljard plekken gedupliceerd hebben. Dat moet efficienter kunnen.

OnTopic: Dit is weldegelijk een stap richting Skynet. Neurale netwerken zijn bijzonder goed in decision making, zeker in the face of fuzzy input. In het veld van machine learning zijn ze dan ook niet voor niets zo populair.

Google sponsort deze ook: https://en.wikipedia.org/wiki/Singularity_University

Niet dat deze technologie niet zinnig kan zijn in het algemeen en specifiek voor Googles diensten, maar het zou me verbazen als Larry Page en Sergey Brin de stap richting Skynet vervelend vinden.
Zolang we zorgen dat er geen zelf-bewustzijn en self-preservation-instinct wordt ingebouwd is er niets aan de hand. Als dat wél gebeurt, echter, zijn we behoorlijk de klos.

Maar in plaats van hardware gebruiken kun je toch net zo goed échte levende hersencellen (van bv ratten) gebruiken? Daar is ook ooit al onderzoek naar gedaan.
Grappig hoe hier de 1 op 1 link met het menselijke brein wordt gelegd.
Ons brein is vele malen complexer dan oorspronkelijk gedacht.
Er zijn op dit moment stevige theoriën dat ons brein op basis van Quantum mechnica werkt.. Daarnaast is er een stevige theorie die verklaart dat ons geheugen ook niet alleen in onze hersenen zit, maar ook langs onze ruggegraat en bij ons hart.

De Tweakers vergelijking met Skynet is wel grappig. De angst moet niet zijn voor een apparaat met een bewustzijn. Maar voor een aparaat dat kan leren en redeneren zonder bewustzijn. De laatste zal namelijk net als een psychopaat koud beredeneren en de meest logische uitkomst kiezen. Een Bewustzijn zal eerder geneigd zijn om irrationeler / gevoelsmatige beslissingen te nemen.
Hmmm. Dat 1e artikel heb ik toch mijn vragen bij. Uit '95, de relevantie van het paper moet toch quasi nihil zijn als daar nog steeds niets mee gebeurd is. En het is gebouwd op de non-critical string theory, een tak van een theorie die voorzover ik weet nog steeds niet beschouwd wordt als hét standaardmodel. Kortom, speculatie op basis van speculatie zonder enige relevante toets in de praktijk. Leuke theoretische denkoefening, maar bon, we zijn er nog niet.

Edit: de schrijver van het artikel, Nanopoulos, blijkt nu wel geen charlatan te zijn.

[Reactie gewijzigd door Bauknecht op 26 juni 2012 15:57]

Het is een ongelukkig voorbeeld van de complexiteit van het brein. Je hoeft helemaal geen quantumtheorie of vage suggesties van geheugen in ruggegraat of hart aan te halen om te laten zien dat niets wat wij op dit moment doen ook maar in de buurt komt van een volledig menselijk brein simuleren.

Het brein bestaat uit zo'n 100 miljard neuronen en zo'n 100 synapsen (verbindingen) per neuron. Elk neuron van die 100 miljard neuronen heet een vrijwel uniek verbindingspatroon met andere neuronen en elke verbinding heeft nog een parameter voor zijn sterkte. Stel je zou een model van het brein maken op basis van deze gegevens. Naast dat zo'n model 100*100 miljard paramaters heeft moet je je neuronen en verbindingen op een of andere manier simuleren. De simulaties die in neurale netwerken worden gebruikt zijn een enorme versimpeling van echte neuronen. Er zijn verschillende soorten neuronen en elke individueel neuron verschilt vaak een van omliggende neuronen. Verbindingen kunnen sterker en zwakker worden of afsterven.

Alleen dit al is totaal onmogelijk te simuleren. En dan heb ik het niet eens gehad over neurotransmitters (chemicalien die de functie van verbindingen tussen neuronen simuleren).

Je hoort wel eens 'over x jaar zijn computers sterk genoeg om het brein te simuleren'. Dat is totale onzin. Het gaat er (in de eerste plaats) niet om hoe sterk onze computers zijn, het gaat erom hoeveel we weten van de computationele processen die ons brein uitvoert. Sterke computers zijn handig maar niet het enige wat nodig is.
Er is ondertussen vrij veel bekend over hoe het brein werkt. Enige wat nog redelijk (biologisch) onduidelijk is hoe 't een en ander werkt waar alles bij elkaar komt in de centrale gedeeltes van het brein. Die werkt overigens omgerekend ook op een veel hogere frequentie dan de rest van het brein. Vergis je niet erin dat het brein analoog werkt ogenschijnlijk, terwijl wij werken met digitale computers. Analoog kun je dingen veel krachtiger doen, alleen met onze technologie kunnen wij ons bitverliezen niet veroorloven en zijn wij dus veroordeeld tot digitale techniek.

Er bestonden overigens best wel wat analoge computers, al in de 2e wereldoorlog (bijvoorbeeld aansturing van het grote geschut op slagschepen en kruisers in de US navy).

Het gros van de neurale netwerken wordt natuurlijk ingezet voor spionage, met name het scannen van telefoongesprekken. Nu weer een poging er grafische objecten mee te herkennen uit 2d beelden is frappant dat Google daarmee bezig is. Kennelijk hebben ze de voice spionage al goed voor elkaar bij google en willen ze nu ook de webcams effectiever gaan tappen.

We moeten niet doen alsof de wetenschap stilstaat op AI gebied. Het gros van het onderzoek gebeurt overigens niet op universiteiten - daar lopen ze ONGELOOFLIJK ACHTER als het gaat om zelflerende systemen.

Pas als consumenten electronica goedkoop genoeg geproduceerd kan worden en in massa goedkoop geproduceerd kan worden met alles wat je hartje begeert (als onderzoeker) om zelflerende systemen in te zetten, dan zullen we een enorme boost plots zien van alles wat met selflearning te maken heeft; vaak heeft dat een minder frisse reden overigens - concurrenten kunnen namelijk ideaal debuggen wat je dan geproduceerd hebt - op dit moment doordat alles sneaky en geheim gehouden wordt op dit gebied is dat niet zo.

Op dit moment is het vrij ingewikkeld om robots te produceren die complexe dingen kunnen uitvoeren EN goedkoop geproduceerd kunnen worden EN veilig zijn.

Dit zal gaan veranderen als een en ander goedkoper wordt.

Wat totdusverre wel enorm ontbreekt is enige kennis t.a.v. hoe het learnings algoritme van de mens werkt - maar met het goedkoper worden van allerlei electronica is het vast mogelijk om genoeg sensoren in te slaan - dan is er vast wel iemand slim genoeg dat voor elkaar te krijgen.

Het selflearning initiatief overigens, waar Google dus ook aan mee doet, is geinitieerd vrij massaal in 2005. Van die conferentie is een video beschikbaar op google overigens. Selflearning is daar als 'the next challenge' gedefinieerd.

Dit hebben ze goed onder de pet weten te houden in USA overigens tot een jaar of 2 terug.

Pas toen goed uitlekte met keihard bewijs dat parameter tuning goed gelukt was zowel met ANN's als op andere manieren door de N(C)SA, pas toen gaf men deze video vrij.

Wat opvalt is dat niet in beeld komen bepaalde lieden .Het vermoeden bestaat dat iedereen die bij de N*SA werkt niet in beeld is gebracht. Alleen CIA/MI5 en aantal professoren zijn goed herkenbaar in beeld.

Dit terwijl 100% van de progressie van de N*SA vandaan kwam, wat niet verwonderlijk is daar alle toepassingen op dit moment militair zijn. Opmerking: zulke dingen valt dus direct onder speciale vorm van top secret, dus echt enkel en alleen de N*SA kan bij die technologie. Dat maakt dus progressie op dit moment lastig.

Het is dus opvallend dat Google iets erover laat weglekken, in plaats van het onder de pet te houden, want meestal begraven ze liever een aantal personen dan ook maar 1 dingetje erover vrij te geven.

hier is een publieke versie: http://video.google.nl/videoplay?docid=-1583888480148765375

Vergis je niet erin : het is september 2005 en de Amerikaanse wereldkampioen uit Juli (Reykjavik) 2005 die ontbreekt op het feestje hier....

Op dit moment (2005) weten nog niet velen dat het parameter tunen, wat continue mislukte in de jaren ervoor, sinds 2005 geniaal lukt... ...dat lekte pas later uit.

[Reactie gewijzigd door hardwareaddict op 26 juni 2012 18:27]

Er is ondertussen vrij veel bekend over hoe het brein werkt.
We weten op zijn hoogst vrij veel over de low-level componenten van het brein. Vergelijk het met weten dat een computer berekeningen uitvoert met transistors, maar geen idee hebben van hoe transistors een processor vormen of hoe software op een processor wordt uitgevoerd. Je vergist je dus als je denkt dat we veel weten over *hoe* het brein werkt. We hebben *geen flauw idee* hoe het spiken van neuron zich vertaald naar het herkennen van gezichten.
We moeten niet doen alsof de wetenschap stilstaat op AI gebied. Het gros van het onderzoek gebeurt overigens niet op universiteiten - daar lopen ze ONGELOOFLIJK ACHTER als het gaat om zelflerende systemen.
Ik weet niet waar je dat vandaan haalt, maar dit soort claims wekkenbij mij de grootst mogelijke argwaan op. Ik neem aan dat je met "universiteiten" de wetenschappelijke wereld bedoelt? Ik ben erg benieuwd in welk opzicht het bedrijfsleven dan mijlenver vooruit is in het vakgebied van machine learning.

Trouwens, Sebastian Thrun, een van de bekendste onderzoekers aan Google's zogenaamde Google X lab, is een bekende AI wetenschapper en nog steeds sterk verwoven in de wetenschappelijke wereld.
Het gros van de neurale netwerken wordt natuurlijk ingezet voor spionage, met name het scannen van telefoongesprekken.
Ik ben ook erg benieuwd naar wat voor informatie neurale netwerken uit telefoongesprekken kunnen halen. Heb je hier bronnen voor? Volgens mij is het beste wat je met willekeurige telefoongesprekken kan doen een soort vage sentiment-herkenning: is de persoon die praat boos of juist blij?
We moeten niet doen alsof de wetenschap stilstaat op AI gebied.
Dat wordt ook niet gesuggereerd. Ik denk dat AI in de nabije toekomst een enorme invloed op ons leven gaat hebben en dat er geweldige dingen mogelijk worden die we ons op dit moment amper kunnen voorstellen. Ik weet ook zeker dat dit geen skynet-achtige praktijken zullen zijn maar kleinere ontwikkelingen.
Wat totdusverre wel enorm ontbreekt is enige kennis t.a.v. hoe het learnings algoritme van de mens werkt
Nu sla je de spijker op zijn kop.
maar met het goedkoper worden van allerlei electronica is het vast mogelijk om genoeg sensoren in te slaan - dan is er vast wel iemand slim genoeg dat voor elkaar te krijgen.
Ik denk dat je hier weer een beetje te optimistisch bent over onze kennis van het menselijk brein. En dat is precies wat ik probeerde uit te leggen met mijn 100*100 biljoen parameters model.

[Reactie gewijzigd door wdvjb op 26 juni 2012 19:52]

Huidige computers werken ook met quantum-mechanica hoor, de solid-state physics waarmee transistoren werken is namelijk gewoon gebaseerd op QM.
Het is erg indrukwekkend, dat een systeem helemaal zelf iets leert.
Maar 16.000 processorcores, voor een apparaat die iets zelf moet leren, vindt ik wel een beetje veel, of zijn al die processorcores allen maar om het proces te versnellen?
Omdat er zoveel foto's en video's zijn?
Ik gok dat het ook wel met 1 core zou kunnen maar dat het dan zo ontzettend lang zou duren dat het niet bruikbaar is.

Mensen doen ook duizenden taken tegelijkertijd (alleen we hebben het niet door). Dus ik vind 16.000 cores voor een zelflerend apparaat niet eens zo verbazingwekkend
Het verschil is dat de menselijke hersenen heel wat meer synapses hebben:

"A typical, healthy [human brain] houses some 200 billion nerve cells, which are connected to one another via hundreds of trillions of synapses. Each synapse functions like a microprocessor, and tens of thousands of them can connect a single neuron to other nerve cells. In the cerebral cortex alone, there are roughly 125 trillion synapses, which is about how many stars fill 1,500 Milky Way galaxies."
bron

Versus 1 miljard in Google's netwerk. Het brein werkt echter wel trager dan een netwerk van processoren dat zou doen, dus het is niet helemaal te vergelijken :)
bron

[Reactie gewijzigd door NoUseWhatsoever op 26 juni 2012 14:39]

Waarom zou je het niet kunnen vergelijken?

Brein --> gigaveel 'cores' ieder werkt zeer langzaam
computer --> heel erg weinig cores maar ze werken wel redelijk snel

Lijkt me (grof gezegd) een aardige vergelijking en verklaart dus waarom dit computersysteem zoveel cores nodig heeft om een beetje fatsoenlijk te werken.
idd,
but we are getting there!

offtopic
dit soort vergelijkingen zijn ook leuk met HD vs DNA opslag enzo
De reden dat onze hersenen trager zijn is het verschil in de snelheid waarmee signalen overgedragen worden. In de hersenen is dat 120 m/s (en dat is met myelineschedes, zonder is het 5 m/s), in een computer benaderd het de lichtsnelheid. De computer is al vlug 2000× zo snel door zijn microprocessor heen.

Als je de paden in je hersenen ziet waardoor de impulsen (in de grijze stof) lopen zijn deze kaarsrecht, ik vermoed zelf om de afstand voorde impulsoverdracht zo kort mogelijk te maken. (Daarnaast is het doorgeven van een impuls door een synaps een scheikundig proces met inhiberende of exciterende stoffen, wat ook nog eens vertraging oplevert)

Edit: in de basis als dendriet of axon naar een andere cel zijn ze niet perfect recht natuurlijk, maar recent onderzoek (ben de bron helaas kwijt) liet zien dat de paden van axonen en dendrieten die verschillende hersendelen met elkaar verbonden bijzonder echt liepen, en een scherpe hoek maakten als ze moesten afbuigen. Helemaal niet de kluwen wol die je zou verwachten.

Afhankelijk van de hoeveelheid en de soort transmitterstof bepaalt het neuron of het signaal wordt voortgezet, en indien dat zo is met hoeveel impulsen.
Myelineschedes zijn niet enkel isolatie, maar dmv inspringing kan een neuron een signaal veel sneller verplaatsen. Bij een impuls kan de lading in de dendriet of het axon niet veranderen op een plek waar de myelineschede zit. Hierdoor veranderen enkel de insnoeringen in de myeline van lading.

[Reactie gewijzigd door .ScorpionSquad op 27 juni 2012 14:37]

Grappig dat de bovenstaande omhoog gemod is:

Correcties:
1. Neuronen met myelineschede vervoeren het signaal sneller. Deze laag om de zenuw werkt als isolatie. Bijna alle verbindingen in het brein zijn voorzien van myelineschede en neuronen met deze isolatielaag hebben een witte kleur.
2. Ons brein bestaat uit grijze en witte stof. Grijs voor de berekeningen (cortex) en wit voor de communicatie.
3. Verbindingen zijn totaal niet recht. Zoek maar eens op "Diffusion tensor imaging". Dat is een MRI techniek om verbinding (witte stof) tussen hersendelen (grijze stof) realtime weer te geven. Dan zal je zien hoe deze echt lopen.

Now to the point:
Het grote verschil in snelheid tussen een neuraal netwerk van computers en ons brein wordt veroorzaakt door de manier waarop het signaal tussen neuronen overgebracht wordt.

Bij computers verloopt alles elektrisch. Bij ons verloopt het signaal in de neuron ook elektrisch, maar het signaal tussen neuronen chemisch.

Als een signaal het einde van een neuron bereikt, wordt aan de hand van de sterkte van het signaal een bepaalde hoeveelheid neurotransmitter afgegeven. Dit zijn chemische stofjes die vervolgens naar de aansluitende neuronen voeren. Afhankelijk van de hoeveelheid die aankomt bij een ander neuron, 'bepaalt' dat neuron of het signaal verder wordt voortgezet. Dit proces haalt dus de snelheid uit het signaal.

Wat betreft het leren. Als een bepaald neuron lang genoeg gebombardeerd wordt met neurotransmitters wordt deze gevoeliger. De verbinding tussen 2 neuronen kan op deze manier versterkt worden. Dit heet 'Long-term potentiation (wikipedia). en wordt gezien als de basis van leren.

[Reactie gewijzigd door Vocte op 26 juni 2012 21:47]

Ik vind het inderdaad ook erg gaaf :) En ja.. mensen doen ook heel veel dingen tegelijk, en als wij een kat zien dan kunnen we aan de hand van ontelbare details daadwerkelijk vaststellen dat het een kat is.

Ik denk dat het identificeren van welke details dat zijn al best ingewikkeld is - bedenk maar eens hoe je een willekeurig object herkent. Stel dat je een mok op tafel ziet, hoe weet je dan dat het een mok is? Je gaat niet (bewust) na "het object is rond en hol, er zit een oor aan, zal wel een mok zijn". Wat zorgt er bijvoorbeeld voor dat je een mok ziet en geen glas? Hoop dat ik m'n verhaal en beetje duidelijk maak zo ;)

Overigens wel jammer dat er niet echt over resultaten gesproken wordt, alleen dat ze dit neuraal netwerk naar katten laten kijken. Het zou leuk zijn om te weten hoeveel (procent) goede en foute positives ze hebben gevonden, en of ingewikkelde plaatjes zoals die hierboven ook herkend worden.
Het aantal processoren is misschien wel hoog, maar het aantal synapsen dat ze ermee simuleren (1 miljard volgens het artikel) is heel weinig als je het met mensen gaat vergelijken.
Volgens de (niet altijd juiste maar wel gemakkelijk gevonden) wikipedia pagina
http://en.wikipedia.org/wiki/Chemical_synapse
hebben de hersenen van een volwassene naar schatting zo'n 10^14 tot 5*10^14 synapsen. En komt 1 miljard synapsen overeen met ongeveer 1 kubieke milimeter van de menselijke hersenen.

Natuurlijk zou je een heel ander algoritme kunnen schrijven dat katten zocht met minder processoren, maar het doel hier was volgens mij juist om de werkingen van de menselijke hersenen na te bootsen.

[Reactie gewijzigd door Marijn_ op 26 juni 2012 14:36]

Volgens mij kun je beter kijken hoeveel synapsen een kat heeft :) Katten zijn namelijk ook heel goed in katten herkennen :)
Indrukwekkend is zacht uitgedrukt. Als je de bron leest zie je dat het gaat om unsupervised learning.
Standaard neurale netwerken zijn supervised en krijgen dus eerst een trainings data set om op te oefenen. In de bron staat vermeld dat er geen features bekend zijn bij het algoritme en er dus echt vanaf nul begonnen word.

Overigens misschien ook leuk om te weten. Andrew Ng, geeft een gratis Machine Learning course op internet.
Hij is zelf natuurlijk niet altijd(lees: eigenlijk nooit) in staat om antwoorden te geven op vragen van studenten maar er zijn genoeg mensen die je kunnen helpen.
Downside? Vak is een paar weken geleden al begonnen.
Link naar vak
Maar 16.000 processorcores, voor een apparaat die iets zelf moet leren, vindt ik wel een beetje veel
Het menselijk brein gebruikt veel meer processor cores (neuronen) om zelf te leren (80 tot 120 Miljard).
Je hebt een paar miljard breincellen lange termijnsstorage, maar dat is niet waar het om draait. Het gaat natuurlijk om de working set size. Ook bij de mens is die vrij klein - vergis je echter niet in de snelheid van bewegen. Waar het gros van de breincellen bijzonder traag werkt, het centrale gedeelte gaat rap tekeer en dat ook nog eens heel krachtig analoog. Dat is bijzonder sterk.

Dus dat hier enorme supercomputer gebruikt is, is geen verrassing voor mij.
16k cores is niet zoveel. Dit is waarschijnlijk een supercomputer geweest. Het besef is er sinds een aantal jaar nu dat AI achtige toepassingen pas erg goed werken bij enorme statistische significantie. Dat vereist ENORME computerkracht. Dus als je iets nieuws wilt beginnen pak je eerst ff een supercomputer met een paar duizend cores.

Overigens, er zijn ook speciale hardware matige neurale netwerken, die zijn vrij prijzig en worden zo lang als ik me kan herinneren al ingezet om ANN's te simuleren. Logisch is als dit op een supercomputer gedaan is. Mogelijk een paar racks IBM bluegene.
Privacyschending.

Tevens: waarschijnlijk 's werelds beste pussyfinder.

[Reactie gewijzigd door zovty op 26 juni 2012 14:22]

De parent niet zomaar downmodden !

Dit is inderdaad een enorme privacy schending.

Google maakt alles al makkelijker doorzoekbaar, hun ultieme droom is echter om alle informatie van een bepaalde persoon te kunnen bundelen. Dit doen ze al door profielen op te stellen voor iedereen met alle gegevens van al hun dienst samen in verwerkt.

Ze hebben nu al de mogelijkheid om soortgelijke afbeeldingen te herkennen. Het is niet toevallige dat ze testen doen met afbeeldingen... Hun droom is om alle afbeeldingen te kunnen herkennen met facial recognition en alle objecten in die foto.

Jij staat op een foto op het internet: boem gelinkt aan jouw persoon. Jij staat er op met een voetbal: boem je ziet opeens voetlbal reclames. Stel je maar eens voor welke gedetailleerde informatie ze over iedereen zouden kunnen bijhouden. Big Brother is er niks bij vergeleken!

Wie staat met een AK47 te poseren op internet? *Searching* Hebbes.
Het probleem is dat je niet zelf bepaalt welke foto's er van jou op het internet komen. Jij kan ook op de vakantiefoto's staan van een koppel uit Japan...
Jij kan ook op de vakantiefoto's staan van een koppel uit Japan...
Als Google dit stuk gereedschap openbaar maakt kom je er tenminste achter dat en waar er een vakantiefoto bestaat op het internet waar jij op staat. Nu sta je waarschijnlijk ook al op een vakantiefoto van iemand anders op het internet, maar nu kom je er niet achter.
"Als Google dit stuk gereedschap openbaar maakt kom je er tenminste achter dat en waar er een vakantiefoto bestaat op het internet waar jij op staat."

Het probleem is echter dat iedereen opeens kan weten dat jij op die ene foto staat waar niemand vanaf wist.
Inderdaad, hoe zou je het vinden als Google voor jou een persoonlijke werknemer had die voor jou speciaal al jouw informatie aan elkaar linkt. Ik denk dat je dan snel google zou verlaten.

Als de techniek voortschrijdt, dan wordt dit in principe realiteit.
Als de computer bovenstaand plaatje ook had gevonden dan kan ik alleen maar zeggen, petje af Google.

[Reactie gewijzigd door Jeffrey88 op 26 juni 2012 14:21]

Soms denk ik weleens wat mensen over 3000 jaar zouden denken als ze terugkijken naar onze periode en die hele shitload aan cat-movies zien...
En wij maar denken dat de katten heilig waren in het oude Egypte.
Waarschijnlijk hetzelfde als wij nu; Ofwel "Ik haaaaat katten!" of "Haha wat lieeeeef!".
Dat is voor Microsoft zeer hinderlijk, gezien hun ASIRRA (Animal Species Image Recognition for Restricting Access) project grotendeels draait rondom het identificeren van katten en honden als CAPTCHA beveiliging.

Zal dit een wraakactie voor het uithalen naar Android zijn?
Nee joh, het internet houd gewoon van katten! :)

Wel vet dat ze dus 16000 cores gebruiken terwijl je hersenen veel kleiner zijn en het nog vele malen beter doen als het om dit soort taken gaat.
maar een hersencel is niet veel meer dan een multiplexer...
een cpu bevat heel veel transistorten (>miljard), waarmee je ook multiplexers had kunnen maken...

het is dus 16000*1000000000=16*10^12 ... nog maar iets van 2 grootheden minder...
of using moores law
2^7=128
7*(2 jaar) = 14 jaar

dus over +/- 14 jaar zou een soort gelijk initiatief vergelijkbaar zijn met het menselijk brein...

(met de verkeerde aannamen dat de 16k cores op individuele cpu's zitten, dat het aantal te koppelen cpu's niet eenvoudiger word, een multiplexer heeft een aantal transitoren nodig, etc...)
De cores zijn niet het probleem, het zijn de inter-processor verbindingen...
Want Google gaat dit gebruiken om stiekem comments te schrijven op blogs die beschermd worden met ASIRRA? :S

Dit lijkt me geen probleem tenzij de spammers van de wereld ook de beschikking krijgen over deze software (en 16.000 cores, hoewel dat natuurlijk steeds minder zal worden).
Dat was ook mijn eerste idee :-)

Maar goed, ik heb die kattenfotootjes nooit gezien bij het inloggen op een website, dus zo populair kan het niet zijn.
Sorry hoor zie echt totaal de link niet. Google gaat dit systeem nu gebruiken om captcha's van Microsoft geautomatiseerd te ontrafelen als terugpak actie voor het uithalen op Android? Dat is wel echt heeeeeeeeeeeeeeeel ver gezocht.
Nieuw is dit allemaal niet. Eind jaren tachtig deden we dit al tijdens mijn studie, alleen op een kleinere schaal, en in software, niet met 16000 processoren. Maar rond die tijd kon je ook al hardware kopen met veel processoren om neurale netwerken te simuleren, als ik het me goed herinner werd dat vooral gebruikt om beurskoersen (proberen) mee te voorspellen. Het kan ook spectaculair misgaan, er is een befaamd experiment van het US leger waar zo'n systeem leerde om tanks te herkennen, maar door domme plaatjes in te voeren leerde het systeem het verschil tussen bewolkte en onbewolkte foto's :)

Het artikel gaat niet erg diep, het zelflerende in onze systemen was "feedback" naar de gewichten die de "signalen" in de "neuronen" sturen om het juiste antwoord te versterken, dat zal hier wel hetzelfde zijn
Het nieuwe aan dit experiment is dat er geen feedback is, het hele systeem is "unsupervised". Nergens wordt gezegd hoe een kat eruit ziet, door veel plaatjes van een kat te zien wordt er vanzelf een "neuron" gevoelig voor plaatjes met een kat (hetzelfde geldt voor andere objecten). Voor de bijbehorende publicate zie http://icml.cc/2012/papers/73.pdf
Er is altijd sprake van feedback (zonder feedback geen leren) , alleen gebeurt dit nu intern door het systeem zelf en niet door een externe partij die de correctheid van het systeem in de gaten houdt.
Vandaar, unsuperviced.
Je moet eigenlijk eens nagaan hoe knap de menselijke en dierlijke hersenen in elkaar steken.

Zuinig met energie/wordt niet warmer dan pakweg 40°C/werkt geruisloos/autonoom/....

Als je nu ziet wat voor brute paardenkracht er nodig is om nog maar te leren om wat katjes te leren herkennen, dan is het bijna niet voor te stellen welke fenomenale hoeveelheid hardware er -momenteel- nodig is om alleen al maar een volledige visuele cortex te construeren.

En dan spreken we nog niet over zelfbewustzijn, ruimtelijk inzicht, tastzin, organen, motoriek, ...

We zijn nog lang niet bij Skynet hoor. Neem nog maar zeker 50 jaar tegen de huidige ontwikkelsnelheid.
Heeft het systeem nu op zichzelf geleerd wat 'kat' is of herkent het gewoon de dieren die wij als kat labelen?
Want uiteindelijk heeft toch niemand het systeem de naamgeving meegegeven? Of mis ik iets?
Hoe heb jij geleerd dat een kat een kat is? Dat zat er niet bij de geboorte al in, dat hebben je opvoeders je geleerd.. die hebben plaatjes van een kat of een levende kat voor jou gelabeld..
Dat is inderdaad hoe wij het geleerd hebben, maar in het artikel staat:

“We never told it during the training, ‘This is a cat,’ ” said Dr. Dean, who originally helped Google design the software that lets it easily break programs into many tasks that can be computed simultaneously. “It basically invented the concept of a cat. We probably have other ones that are side views of cats.”

Het lijkt me logisch dat je de machine een paar regels meegeeft over wat 'kat' is, maar hier zeggen ze net dat ze dat nooit gedaan hebben?
Misschien als volgt:

- Ze zeggen, zoek de kat, hier heb je 10 foto's....
- Op alle foto's staat een kat dus zoekt de server naar overeenkomsten tussen alle 10 de plaatjes.
- Server heeft de overeenkomsten ontdekt en heeft dus vanaf nu een bepaald idee hoe een kat er uit ziet.
Nou, dat kan google ook nog wel met een single core voor elkaar bakken lijkt me.
Wat ik heb begrepen hebben ze het systeem alleen maar plaatjes laten zien van katten
en het systeem leert bij elk plaatje overeenkomsten tot hij zoveel plaatjes heeft gezien dat hij bij een nieuw plaatje ziet of het een kat is of niet.

[Reactie gewijzigd door ocwil op 26 juni 2012 15:44]

Er gebeurt hier helemaal niks met woorden.
Het is een kleine visuele cortex die alleen beelden verwerkt.
Die cortex heeft, na het zien van een zooi kattenfoto's, geleerd katten ook in nieuwe foto's te herkennen.
Dus door alleen het zien van katten op foto's heeft de cortex een soort generiek model gemaakt van hoe katten er uit kunnen zien op foto's.
Er is de cortex nooit vertelt of uitgelegd wat een kat is of dat er katten op de foto's staan.
Er is dus nooit extra informatie teruggekoppeld in de vorm van "Leer dit goed want dit is een kat" of "ja, dit is inderdaad een kat, heel goed gedaan". Dat doe je normaalgesproken door het extern versterken of verzwakken van verbindingen/gewichten o.i.d. maar dat zou dus supervisie zijn en dat is hier niet het geval.
het systeem heeft herkent dat er tussen die fotos gelijkaardige patronen zitten en beschouwd ze daarom als gelijkaardig. uiteraard is het woord kat op zich niet aanwezig in het systeem. het is eerder: geef het één foto van één kat en het systeem legt het uit zichzelf bij de andere katten.
nee dat leerproces zit wél ingebakken. ook zonder ouders of leraars zou je katten als gelijkaardige beesten leren erkennen. alleen het woord kat zelf komt van je ouders
Het tweede, wij leren het zelf ook zo. Als onze ouders 'dat beest' als 'tafel' hadden gelabeld, dan had je het tafel genoemd. Er staat ook dat er een 'model kat' was waar het naar zocht.

Toch blijf ik het vreemd vinden, wij mensen leren in eerste instantie wel met menselijke interventie, namelijk iemand die zegt of iets goed of fout is. Uiteindelijk moet je het kunnen toetsen, anders kan het niet corrigeren/leren.
Dat is niet helemaal juist, je hebt als het goed is ook uit je zelf geleerd wat een kat is, en je ouders hebben je dan geleerd dat dat een kat heet. Er staat in het artikel ook niet dat het systeem er zelf het label "cat" aan heeft gegeven. Het systeem heeft zelf geleerd hoe het het object "kat" er uit ziet, en kan dus dat wat er uit ziet als een kat herkennen op een foto.

Zie het zo: Je ziet als baby een kat en je ouders vertellen je dat dat een kat is. Nu zie je de volgende dag een andere kat en heeft je brien uit zichzelf geleerd dat dat een kat is op basis van het beeld van de andere kat. De menselijke interventie was dus alleen maar op de naam "kat" die wij als nederlanders aan dat dier gegeven hebben.

[Reactie gewijzigd door Br4mmie op 26 juni 2012 16:00]

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBSalaris

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste website van het jaar 2014