Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 46 reacties

Amerikaanse onderzoekers van de Carnegie Mellon University voeden een computercluster met miljoenen afbeeldingen in de hoop dat het systeem via het leggen van verbanden een vorm van kunstmatige intelligentie kan ontwikkelen.

Het gebruikte cluster heeft de naam NEIL gekregen, ofwel Never Ending Image Learning. NEIL, dat bestaat uit 200 processors, heeft de afgelopen maanden al miljoenen afbeeldingen van het web voorgeschoteld gekregen, zo schrijft AP. Via verbeterde beeldherkenningssoftware is het systeem in staat om niet alleen vormen en kleuren te onderscheiden, maar ook om verbanden te leggen.

Met het onderzoeksproject, dat deels is gefinancierd door Google en het Amerikaanse leger, pogen onderzoekers een computersysteem 'gezond verstand' bij te brengen: de mogelijkheid kennis te verkrijgen zonder dat het systeem daar specifieke instructies voor krijgt. Deze associatieve eigenschappen zijn volgens ai-onderzoekers noodzakelijk om kunstmatige intelligentie mogelijk te maken.

Het systeem zou na het analyseren van miljoenen foto's meer dan 1500 objecten en 1200 scènes kunnen herkennen. Verder weet NEIL 2500 associaties te leggen, maar een aanzienlijk deel is incorrect of irrelevant. Desondanks zien de onderzoekers NEIL als een interessant alternatief voor het aanreiken van kennis waar normaliter vaak beschrijvingen in de vorm van taal voor worden gebruikt. In een volgende stap moet NEIL gevoed gaan worden met YouTube-video's.

Moderatie-faq Wijzig weergave

Reacties (46)

Meer informatie op de website van de universiteit zelf (http://www.cmu.edu/news/s...nov20_webcommonsense.html).

Tevens foto's van de werking beschikbaar
(http://www.cmu.edu/news/s...l-commonsense_410x190.jpg).

Het project zelf kan gevonden worden op: http://www.neil-kb.com

[Reactie gewijzigd door JS1982 op 25 november 2013 13:51]

Mijn eerste gedachte: Person of Interest :P
http://nl.wikipedia.org/wiki/Person_of_Interest

Mooie ontwikkeling, maar ben nogsteeds bang dat de computers de wereld over zullen nemen als ze te "intelligent" worden :P

[Reactie gewijzigd door _-SaVaGe-_ op 25 november 2013 13:49]

Ik geloof toch echt niet dat een computer ooit een bewustzijn zal hebben. Een bewustzijn is niet iets dat je kan programmeren of aanleren. Ik hoop trouwens ook dat het niet kan.
Wat is bewustzijn precies? En wellicht is dat juist het probleem bij dit soort zaken.
Bewustzijn zou inhouden, dat er een ethische keuze gemaakt zou kunnen worden.

Dat computers tot complexe zaken in staat zijn, is inmiddels een feit. Dat ze zaken van mensen overnemen is inmiddels ook een feit.
Er vliegen inmiddels drones die in staat zijn zonder verdere tussenkomst van mensen, te liquideren.
Er rijden auto's rond die in staat zijn zonder bestuurder door het verkeer te manoeuvreren.

Dit soort analyses zijn vooral bij punt 1 een beetje eng.
Het zou dan zo kunnen zijn dat je een drone laat rondvliegen die foto's maakt van wat hij op de grond ziet. Een server kan dan mensen en gedrag matchen en ook uit de omgeving verbanden leggen, waarop ter zijner tijd automatisch een besluit genomen zou kunnen worden om te gaan schieten. Zonder tussenkomst van mensen.
Voorbeeld: Aan de hand van terrein, kleding, locatie, gedrag kan van een groepje mensen automatisch worden bestempeld als vijandige strijder.
> Wellicht is hiermee in theorie in de toekomst de kans op friendly fire zelfs kleiner. Maar vanuit de ethiek gezien, is het lastig.
Ik denk dat computers niet zo snel een ethiek zullen ontwikkelen, vooral omdat we dat waarschijnlijk zelf niet willen. De techniek is een middel dat een bepaald doel dient; meestal het doel van de maker of eigenaar. Dit betekent dat het middel ook ingezet zal worden binnen het ethische kader van de maker / eigenaar. Als het om militaire zaken gaat, lijkt me dat zelfs cruciaal.

Een fundamentalist zal zichzelf bijvoorbeeld zien als een vrijheidsstrijder, maar kan in de ogen van een andere partij als terrorist gezien worden. Vanuit beide perspectieven zou je geweld kunnen rechtvaardigen. De fundamentalist vanuit een strijd voor bevrijding, de andere partij vanuit het bestrijden van terreur. Beide kunnen claimen dat het geweld een 'hoger' doel dient.

Wat ethisch is, laat zich dus moeilijk definieren en wordt vaak gedicteerd door doelen en belangen. Daarom is het onwaarschijnlijk dat we techniek de mogelijkheid zullen geven om een eigen ethiek te ontwikkelen.

Dit project draait echter vooral om het leren; dus het leggen van verbanden tussen verschillende stimuli. Zo werkt het brein in grote lijnen namelijk ook; we koppelen bijvoorbeeld een stimulus die we waarnemen aan bepaald gedrag. Cruciaal daarbij is echter dat die verbanden bekrachtigd of ontkrachtigd worden. Als je een appel ziet, de boom in klimt en dan kunt genieten van het opeten van de appel, zal het verband (in de boom klimmen bij het zien van een appel) versterkt worden. Bij deze computer gebeurd dat ook doordat een associatie goed of foutgekeurd wordt (de criteria worden alleen niet gegeven).

Terugkomend op ethiek; je kunt een computer op termijn dus misschien ethische oordelen laten vellen, maar deze zullen ook aangeleerd zijn vanuit een bepaald ethisch kader.
Er vliegen inmiddels drones die in staat zijn zonder verdere tussenkomst van mensen, te liquideren.
Even off topic, maar dit interesseert me wel, heb je een bron?
Drones met gezichtsherkenning. Lijkt me niet zo lastig, eerlijk gezegd.
Lijkt me inderdaad niet lastig, maar superheiz laat het schijnen alsof deze daadwerkelijk reeds in gebruik zijn, vandaar mijn interesse.
Laat me even de originele quote terug aanhalen:
Er vliegen inmiddels drones die in staat zijn zonder verdere tussenkomst van mensen, te liquideren.
Dat dat mogelijk is ontken ik niet, ik kan het echter moeilijk geloven dat het op dit moment echt zou gebeuren.
Ah juist ja, nee autonome zijn er nog niet voor zover ik weet.

[Reactie gewijzigd door moreasy op 25 november 2013 17:08]

De status is vergelijkbaar met die van de Metro in Amsterdam
http://nl.wikipedia.org/wiki/Metromaterieel_M1/M2/M3

In Amsterdam rijden al tientallen jaren metrostellen rond met bestuurder, waar dit technisch ook zonder bestuurder mogelijk is. Maar, mensen stappen niet graag in een metro zonder bestuurder, dus deze persoon is alsnog toegevoegd.

Veel drones, maar ook grondmaterieel, is technisch zeer goed in staat om autonoom een aanval te doen. De techniek is aanwezig, de software is aanwezig. Maar: Momenteel is deze nog overruled door software waardoor altijd nog een mens nodig is voor een daadwerkelijke aanval.

Vergelijk het ook met de Google Auto. Ding kan zonder problemen rondrijden en de ongelukken die wel zijn gebeurd (zo ver dit transparant is...) hadden alleen een menselijke oorzaak.
De grootste hobbels om een Google auto rond te laten rijden, zullen niet van technische aard zijn:
Bijvoorbeeld: Stel er gebeurt toch een ongeluk, wie stel je daarvoor dan aansprakelijk?

Met defensie materieel krijg je ook dit soort vraagstukken. Stel er wordt iemand gedood door friendly fire van een autonoom opererende machine? Of er worden burgers door gedood? Wie ga je dan aanklagen?
Wat wordt er over autonoom opererende machines gezegd in de conventie van Geneve, en wat zouden eventuele fouten voor invloed kunnen hebben op toekomstige conventies.

Maar: Een deel van de apparaten is in staat om autonoom te opereren.
Heel bijzonder is dat overigens niet, want een kruisraket doet dat eigenlijk ook al.
Een interessante bron mogelijk: Nashrullah Memon en Hsinchun Chen hebben op vlak van terrorisme al eea bereikt op dit vlak. Hun soft wordt iig al door het Amerikaanse leger aangewend. Het scannen bij de Mexicaans-Amerikaanse grens was - dacht ik tenminste - ook gebaseerd op een lerend systeem dat ervoor zorgt dat risicoauto's (mensenhandel en drugstoerisme) zoveel mogelijk door het systeem opgepikt wordt. Denk dat dit systemen idd al vrij courant zijn, maar nog zeker niet in de buurt komend van 'bewustzijn' (al blijft definitie hier lastig. Hoe meer systemen kunnen, hoe verder we de grens ook lijken te leggen).
De gedachte alleen al dat men zoiets zou toestaan gewoon omdat het kan, doet mijn haren rechtkomen. Wie gaat de door drones en bots genomen beslissingen controleren? Eerst schieten en dan nadenken krijgt plots een heel andere betekenis...
Er moet toch altijd een door mensen genomen beslissing zijn om aan te vallen? Wie neemt anders de verantwoordelijkheid? 'k Hoor een generaal al zeggen dat hij er niks kon aan doen dat er onschuldige vrouwen en kinderen gedood zijn omdat hij nooit de beslissing heeft genomen. "Het was een programmafoutje, meneer de rechter. Mss kunnen we de programmeur neerknallen?"
Bewust zijn... Ooit gehoord van Descartes? Cognito ergo Sum! Ofwel ik denk, dus ik besta.

Je programmeert niet het bewust zijn, maar je programmeert de middelen om verbindingen te kunnen leggen tussen componenten, zoals in de hersenen de synapsen enzovoort.

Net las ik van @superheiz dat bewustzijn het kunnen maken van ethische beslissingen. Dat is pertinent onjuist. Ethiek is de zwakte van het soort. Wij vinden het ethisch oogpunt belangrijk om ziektes als kanker en aids te genezen, echter vergeten we dat ziekte o.a. voorkomt dat slechtere genen doorgegeven worden. Hierdoor is stelling van Darwin, the strongest will surfive, te niet gedaan. Ethisch geen fijne uitspraak, maar voor de soort de verstandige beslissing.

Bewustzijn is, zoals het woord zelf al zegt, een zelf / organisme of een entiteit dat bewust is van zijn eigen bestaan in de omgeving waarin het zich bevind.

Vind je het eng? Begrijpelijk. Maar dan vind je het net zo eng, dat een aap gelijkwaardige intelligentie heeft. Of sterker nog, een alien soort die intelligenter is dan de mens.

Daarbij opgemerkt, het genoemde in het stuk, gaat niet over bewustzijn, maar over het automatisch herkennen en associeren.

[Reactie gewijzigd door timonb op 25 november 2013 18:55]

Wij vinden het ethisch oogpunt belangrijk om ziektes als kanker en aids te genezen, echter vergeten we dat ziekte o.a. voorkomt dat slechtere genen doorgegeven worden. Hierdoor is stelling van Darwin, the strongest will surfive, te niet gedaan. Ethisch geen fijne uitspraak, maar voor de soort de verstandige beslissing.
Ethisch niet fijn, maar ook evolutionair vrij dom... Evolutionaar gezien is maximalisatie van genetische variatie cruciaal is voor elke soort. Genetische variatie zorgt er immers voor dat zoveel mogelijk 'uitdagingen' overleeft kunnen worden. Ik hoop dat je dat punt in ieder geval ziet.

Nu is het zo dat een genenpool voor heel veel dingen codeert, veel meer dan alleen kanker of de aanleg daarvoor of de resistentie daartegen. Stel dat er iemand is die op zijn 10e kanker krijgt, maar die wel als enige op de wereld resistentie heeft voor aids. Volgens jouw stelling is zo iemand het redden niet waard; je zou deze jongen dood laten gaan, wellicht voordat zijn resistentie tegen aids ontdekt zou worden. Of ander voorbeeld; wellicht krijgt de jongen later op zijn 20e een geniale ingeving die vele levens redt.

Het zou dus behoorlijk dom zijn vanuit evolutionair oogpunt om de jongen te laten sterven. Je wilt diversiteit (genetisch, maar ook memetisch) in stand houden (zo lang mogelijk), ook al betekent het dat je mensen redt die op andere punten "zwakker" zijn. Veel van deze zwakheden kun je overigens ook compenseren. Voor slechtziendheid hebben we brillen, lenzen en lasers. Voor mensen die ledematen missen protheses, etc. Door deze hulpmiddelen (afkomstig van dat andere evolutionaire voordeel; het brein) kunnen mensen overleven als alle anderen.

Hulpmiddelen kunnen de selectiedruk dus veranderen en als dat gebeurd is dat evolutionair prima. De soort wordt niet zwakker, want goed kunnen zien is geen selectiecriterium meer. Mensen dan laten sterven heeft alleen maar nadelen, want daarmee verklein je (onnodig) de genetische diversiteit.

[Reactie gewijzigd door Morrar op 25 november 2013 22:20]

"Ethiek is de zwakte van het soort. Wij vinden het ethisch oogpunt belangrijk om ziektes als kanker en aids te genezen, echter vergeten we dat ziekte o.a. voorkomt dat slechtere genen doorgegeven worden. Hierdoor is stelling van Darwin, the strongest will surfive, te niet gedaan. Ethisch geen fijne uitspraak, maar voor de soort de verstandige beslissing."

Hier moet ik toch even reageren. Ethiek is iets dat ons mensen, beschaafd maakt. Mensen hebben gevoelens, dromen en bewustzijn. Als iemand ziek is proberen we die te helpen en te laten overleven als het moet. Dat is menselijkheid. We geven om het individu.

De 'gezondheid' van de soort is van secundair belang.
Interessant, alleen hebben termen als ethiek, beschaving en met name menselijkheid geen enkele toegevoegde waarde voor de evolutie van menselijke soort.

Natuurlijk wil je als mens niet dat je naaste ziek wordt, of sterker nog doodgaat. Echter doordat iemand wordt genezen worden deze defecte genen door gegeven aan de volgende generatie. Je lost daarmee het symptoom op, maar niet de oorzaak.

Diezelfde ethische en menselijke normen, waar je het over hebt, weigeren om de oorzaak van de ziektes weg te nemen. Bijvoorbeeld door met behulp van generische manipulatie de defecte genen te corrigeren.
Waarom niet? Organismen zijn ook machines, alleen zeer complex.
Daar gebeurt het ook.

Leuk om te lezen;
http://www.worldscientific.com/worldscinet/ijmc
Precies, ooit zit het er aan te komen.
Maar ik schat eerder binnen 4000 jaar dan binnen 40 jaar.

Men kent niks van de werking van het brein.
O ja:
- men weet dat er elektrische pulsen van de ene kant naar de andere gaan: dat is zo'n beetje als weten dat er elektrische pulsen op een printplaat van A naar B gaan.
- men kan soms een beetje geheugen uitlezen: dat is een beetje zoals weten dat "72 65 76 76 79" in het RAM geheugen staat voor "HALLO" in ASCII formaat.

Maar het ASCII formaat kent men niet, men weet niet wat voor codering er gebruikt wordt, of dat bij iedereen gelijk is of anders, etc.
Men weet nog niet eens welk OS er op draait of er uberhaupt een OS is.

Als men die "kleine" details oplost, dan kunnen ze misschien ooit eens beginnen dromen over intelligentie in machines.
Je onderschat de neurowetenschappen behoorlijk, maar ik zal niet ontkennen dat er nog veel vragen open staan.

Wel weten we al aardig wat over de opmaak van de hersenen; we weten wat neuronen zijn en hoe ze werken. We weten vrij redelijk hoe prikkels van het ene neuron naar het andere worden overgebracht. Ook kennen we al een flink aantal stoffen die de hersenen bij de prikkeloverdracht helpen (neurotransmitters + receptoren) en bij de communicatie tussen hersenen en lichaam (hormonen).

Verder weten we al vrij veel over de verschillende regionen in het brein en welke functies die uitvoeren. Zo weten we waar visuele stimuli verwerkt worden, welke gebieden ons lichaam aansturen, welke gebieden betrokken zijn bij het geheugen, welke centra actief worden bij genot of pijn, etc. Uiteraard zijn het vooral de verbanden tussen deze gebieden die interessant zijn en daar zijn nog veel vragen over.

Tot slot komen we ook steeds meer te weten over de ontwikkeling van het brein en hoe het zijn uiteindelijke (volwassen vorm) krijgt. Ook dit kan ons veel leren, bijvoorbeeld hoe bepaalde associaties tussen netwerken van neuronen gevormd en gefixeerd worden. Voor een deel lijkt dit op 'natuurlijke selectie'.

Kortom, het is zeker niet waar dat we "bijna niets" van het brein weten, maar we weten nog lang niet alles dat is waar. Het heeft ook al geleid tot "praktische" toepassingen, waarbij hersenen uitgelezen en / of aangestuurd konden worden:

nieuws: Wetenschappers gebruiken brein-interface om andermans ledematen te besturen
nieuws: Aap bedient virtuele armen met brein

[Reactie gewijzigd door Morrar op 25 november 2013 21:57]

Heb je wel eens bedacht dat de aanwezigheid van steeds "slimmere" machines hand in hand gaat met het uitvinden hoe echte hersenen werken?

En dat dit exponentieel omhoog gaat?
Waarom kan je het niet programmeren of aanleren?
Hoe denk je dat dit in de evolutie is gegaan?
Het bewustzijn is bijzonder ingewikkeld maar uiteindelijk niks anders dan een hoop moleculen en ladingen die op elkaar reageren.
Bij een bewustzijn komen zaken kijken die veel verder gaan dan logisch beredeneren. Logica is uit te leggen, maar hoe leg je ongeschreven gedragsregels of normen en waarden uit aan een computer? Hoe zou je een onderbuikgevoel aan kunnen leren? Of sarcasme?
Volgens mij heeft mijn kat een bewustzijn. Maar wil niet zeggen dat die weet wat sarcasme is of wat normen en waarden zijn.

Dus dat heeft vrij weinig met bewustzijn te maken.

Maar door middel van positieve en negatieve stimulans kan je een computer met een bewustzijn al die dingen leren hoor ;)
Dan mag je mij gelijk 'even' uitleggen wat bewustzijn is.

Zolang men het nog niet weet of over eens is (de discussie m.b.t. bewustzijn bestaat al eeuwen), kun je niet zeggen dat een computer nooit een bewustzijn zal hebben.
Bewustzijn:
Een subjectieve reflectie op externe indrukken of op eigen psychische processen
Je moet dus wel een psyche hebben...
...en subjectief kunnen reflecteren.

[Reactie gewijzigd door mrlammers op 25 november 2013 17:54]

Dan mag je mij gelijk even uitleggen wat de psyche (oftewel ziel) is en subjectiviteit inhoudt...

De enige van wie je zeker weet dat diegene een bewustzijn (zelfreflectie volgens jouw definitie) heeft is jijzelf. We gaan er voor het gemak maar vanuit dat anderen ook bewust zijn van zichzelf.
Via deze weg kunnen we ook redeneren dat we niet zeker zijn dat computers (ooit) een bewustzijn hebben, aangezien dat niet van buitenaf te zien of meten is.

M.b.t. het subjectieve deel; in mijn ogen is subjectiviteit niet meer dan aan de hand van interne gevoelens en persoonlijke kennis een mening of beoordeling vormen, m.a.w. aan de hand van variabelen een output geven. Oh wacht, doen computers dat ook niet..?
Hey, don't shoot the messenger. ;)
De definitie van bewustzijn is niet van mij, maar van wat vooraanstaande psychologen en filosofen. Die zullen het wel weten, toch?

Als ik Google op 'ziel' dan vind ik hele spirituele dingen. Ik spreek liever van psyche, maar hoe de definitie ook luidt, ik denk dat we mogen stellen dat 'kunstmatige intelligentie' vooralsnog geen psyche kan hebben. Hooguit een model dat een poging doet erop te lijken.
Doordat 'reflectie' van kunstmatige intelligentie altijd uitgaat van een model, dat aan regels is gebonden, is het per definitie niet subjectief. Een reflectie van een AI zal altijd gecalculeerd, feitelijk en onbevooroordeeld zijn, beredeneerd vanuit verzamelde feitelijkheden.
Een subjectieve reflectie is per definitie beÔnvloed door je persoonlijke mening en gevoelens... en dat moet je als AI ook helemaal niet willen. ;)

Vooralsnog zitten we op het niveau van meta-data vergelijken- en dat noemen we dan associatie. Eigenlijk heeft dat nog niet zoveel met intelligentie te maken...

[Reactie gewijzigd door mrlammers op 4 december 2013 12:47]

Een binaire computer wellicht niet, maar een binair systeem is slechts ťťn van vele verschillende manieren waarop je een computer kunt laten werken. Kwantumcomputers zijn de volgende stap, en alhoewel het nog lang zal duren voor je grote, kwantumcomputers zult zien die daadwerkelijk voor alledaagse taken ingezet kunnen worden kun je er alvast vanuit gaan dat de beperkingen die opgelegd worden door de binaire aard van halfgeleidercomputers daar niet gelden. Daarmee kan het zomaar mogelijk zijn dat intelligentie, eventueel bewustzijn, wťl binnen de grenzen van het realiseerbare liggen.

Waarbij het goed is te beseffen dat dat weer niet direct inhoudt dat we SHODAN-achtige praktijken moeten verwachten. Honden zijn ook zelfbewust en intelligent, en de mijne heb ik gisteren toch tot drie keer toe met z'n kop tegen de onderkant van de tafel zien beuken omdat hij onder een tafel gekropen was waar hij niet een behoorlijk kan liggen, laat staan opstaan, wat hij wel probeerde.
Daar moest ik al aan denken toen de NSA berichten van Snowden naar buiten kwamen. Toen dacht ik, Person of Interest zit er eigenlijk helemaal niet zo heel ver naast.
Heel erg boeiend, op termijn zou het dus mogelijk kunnen zijn om aan de hand van jouw en mijn foto's en filmpjes ofwel gedeelde content op het web een (virtuele) "werkelijkheid" te reconstrueren of te creŽren zoals deze door jou en mij samen in het verleden is waargenomen. Dit gekoppeld aan het "tijdsaspect" creŽer je daarmee een voorspellend vermogen door patronen te extrapoleren naar de toekomst toe. Voorspelbaarheid is in mijn ogen hierin het doel van dit onderzoek van zowel Google als Defensie die daar ieder hun eigen "belangen" bij hebben.
Eens, hoe fijn is het dat als ik jou advertenties kan laten zien waardoor je direct gaat kopen. Dat is beter dan met een losse flodder schieten en hopen dat je misschien in de toekomst ooit gaat kopen.

Sterker nog, voordat je denkt iets te willen kopen staat het postorderbedrijf bij je op de stoep met toevalligerwijs dat product.

[Reactie gewijzigd door timonb op 25 november 2013 19:02]

Ik ben wel benieuwd hoe dit systeem zich verhoud met Google's foto herken systeem dat soms slimmer is dan mensen als het op herkennen van objecten op foto's aankomt.

[Reactie gewijzigd door ruimtekoek op 25 november 2013 13:51]

ik hoop dat soort gelijke techniek ooit gecombineerd kan worden met de camera pil. Zo dat darmpatiŽnten zichzelf regelmatig preventief kunnen controleren op dat wat er niet hoort te zijn. Zonder dat de internist zelf 5000 foto's door hoeft te kijken.
stap drie: het analyseren van de beschrijvingen en (onder)titels en het beestje leert zijn eerste geschreven taal, stap vier taal koppelen aan audio en het leert praten, liplezen, non-verbale communicatie etc. Ik denk dat de NSA nog wel wat cameraatjes heeft hangen waar ze dit op toe zouden willen passen ;)

On topic:
Vraag me af of het ook abstracte verbanden kan herkennen; bijvoorbeeld afbeeldingen van mensen of objecten in pictogrammen. Dat zou bv bij kunnen dragen aan het herkennen van verkeersborden voor zelfrijdende auto's.
Bijzonder dat Google en de Amerikaanse overheid dit financieren op een Universiteit, die niet eens zo bekend is, en niet zelf doen. Ik denk dat ze zelf veel betere mensen hebben om dat te doen.

Wel een leuk concept, benieuwd wat eruit komt met YouTube.
Ik herinner me dat ik hier ongeveer 15 jaar geleden al een docu over zag, met neurale netwerken.
Je laat bijvoorbeeld gezichten zien, en dan moet het systeem kiezen of het een mannelijk of een vrouwelijk gezicht betreft. Ieder antwoord krijgt feedback in de vorm van goed of fout en na een tijdje kan ie prima mannen en vrouwen onderscheiden, echter zonder dat duidelijk is voor externe waarnemers op welke kriteria dat nu eigenlijk gebeurt.
En zo kon je systeem steeds meer laten doen, leeftijden inschatten en ga zo maar door, en na een tijdje was ie er even handig in als mensen.
Maar op basis waarvan? rimpels, neuslengte, oogstand, etc. etc. wie het weet mag het zeggen.

Militair was het ook interessant, kon ie op foto's vijandelijke tanks ontdekken en zo;
Het probleem was dat je dus niet de kriteria kende waarop het systeem onderscheid maakte; als voorbeeld werd gegeven dat de foto's met tank op een zonnige dag gemaakt waren en de foto's zonder tank niet, en tja...goede antwoorden maar op verkeerde, gevaarlijke kriteria.
Banken hebben geprobeerd het systeem te gebruiken voor kredietwaardigheid op basis van allerlei sociale variabelen, gaf ook interessante onvoorspelbare, en dus niet-transparante beslissingen.

Voordeel is dus dat er zeel veel verschillende en complexe situaties aangeleerd kunnen worden, nadeel is dat je niet weet wat er hoe aangeleerd is.
net zoals mensen eigenlijk...
Vooralsnog zijn het niet de apparaten waar we 'bang' voor moeten zijn, eerder de mensen die deze besturen.
Binnenkort hebben we nog een Judgement-Day en komt Terminator nog een keer waar.

Ikzelf vindt het mooi als zoiets uit wordt gevonden, zolang de computer maar geen dingen kan doen zoals met z'n AI, programma's hacken. Zolang ze niet kunnen lopen is het nog goed :P
te laat: http://www.geenstijl.nl/m...is_atlas_reddingsrob.html

[Reactie gewijzigd door gevoelig op 25 november 2013 15:05]

Toch vind ik het wel een eng idee dat we over een behoorlijke tijd (zal ik zeggen 30 jaar?), robots hebben rondlopen, beheerd door 1 bedrijf.
Nu krijg ik het gevoel van SkyNet en van iRobot.

De technologie erachter vind ik geweldig, alleen ben niet zo'n voorstaander van een AI die internetverbinding heeft of connectie kan maken met een datacenter.

Het blijft een eng idee.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True