Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 140 reacties, 39.189 views •

In Londen hebben wetenschappers een robot gepresenteerd die voor een groot gedeelte uit menselijke protheses bestaat. Met nagemaakte 'menselijke' onderdelen hopen de makers een volledig bionische robot te maken. De robot beschikt onder andere over een synthetisch hart.

De robot, die de naam Rex heeft gekregen, is ontwikkeld door de Johns Hopkins University in Baltimore en heeft tot nu toe ongeveer 1 miljoen dollar gekost. Volgens de makers is het de eerste bionische mens gebouwd uit protheses en synthetische organen. Rex beschikt onder andere over voet-, hand-, knie- en retina-protheses. Ook zijn er enkele inwendige organen ingebouwd, waaronder een kunstmatig hart dat zelfstandig kan functioneren.

In de toekomst willen de wetenschappers de bionische robot nog een aantal kunstmatige organen geven, waaronder een stel longen, een alvleesklier en een blaas. Het is nog onduidelijk wanneer Rex deze onderdelen zal ontvangen. Momenteel zou 60 tot 70 procent van de robot al uit nagemaakte menselijke onderdelen bestaan. Het zou echter nog niet mogelijk zijn om een mens in zijn geheel na te bouwen. Het is bijvoorbeeld nog niet mogelijk om de hersenen na te maken.

De wetenschappers verwachten niet dat er binnen afzienbare tijd een volledige functionerende mens nagebootst kan worden. Wel verwachten zij dat er binnen 10 jaar robots zullen bestaan die uit zichzelf een pen oppakken en ermee kunnen schrijven. Rex zal worden getoond in het Science Museum in Londen. 

Bionic man

Reacties (140)

Reactiefilter:-11400139+193+212+30
Ik weet niet meer wie het heeft gezegd, maar iemand heeft in ieder geval ooit gezegd dat robots alleen maar heel goed kunnen doen alsof ze het begrijpen, maar ze zullen het nooit echt begrijpen. Dit had dan te maken met taal, maar dat werkt net zo met menselijke interactie. Een robot kan menselijke interactie heel goed simuleren, echter zullen ze er nooit een gevoel bij hebben zoals wij mensen dat hebben.
Het was John Searle die dat beweerde in zijn paper (Minds, Brains, and Programs) op basis van de Chinese kamer.
Dit is een gedachte-experiment en komt op het volgende neer:
Een proefpersoon die geen Chinees kent bevindt zich in een kamer, met verder alleen een boek, pen en papier. Door een gleuf in de muur wordt papier met daarop (voor de persoon niet te begrijpen) Chinese karakters aangeleverd. Het boek bevat instructies, in de moedertaal van de persoon in de kamer (in de paper John Searle zelf), die beschrijven wat de persoon voor elk symbool moet doen: een symbool opschrijven, een papier met reeds geschreven symbolen door de gleuf de kamer uit schuiven, etc.

De kamer als geheel beschouwd is functioneel gezien symboolverwerkend systeem (Physical Symbol System): een computer. De persoon in de kamer is dan de processor, het boek een programma en de stapels papier vormen het geheugen.

Het gemaakte punt is echter zeer controversieel, en tot op heden is er geen consensus over de validiteit ervan.

In mijn ogen is er een sterke tegenwerping: Stel je een systeem of robot voor dat alles exact zo doet als echte mensen, van het beantwoorden van vragen tot het bereiden van een maaltijd.
Volgens Searle begrijpt dit systeem echter in de kern nog steeds niets. Toch is het systeem van buiten in gedrag niet te onderscheiden van echte mensen. Hoe kan het dan iets missen dat wij mensen wel hebben?
Vergelijk het met bewustzijn: je kan alleen van jezelf weten dat je bewust bent, precies omdat je dat zo voelt en merkt. Van anderen is onmogelijk zeker te zeggen dat ze een bewustzijn hebben omdat je niet kan ervaren hoe het is om hen te zijn. Toch neemt (bijna) iedereen in het dagelijks leven aan dat andere mensen ook over een bewustzijn beschikken omdat ze (voor een groot deel) net zo handelen als jijzelf: iemand waarvan je weet dat die beschikt over een bewustzijn. Als die robot ook zo handelt moet de aanname dus zijn dat die ook een bewustzijn heeft en dus begrip heeft.

[Reactie gewijzigd door Ghost Dog op 7 februari 2013 01:53]

@ SuperDre
Ik weet niet of dit erg off topic is, maar aangezien we over mens en robot hebben:
Wat is jouw definitie van een mens?
Als electrische signaaltjes de basis vormt voor jouw definitie van een mens, dan is bvb een smartphone of mijn thermostaat al een mens.

- Wanneer een machine/robot alle logica die het in zicht heeft om alles zo efficiŽnt mogelijk af te handelen, opzij kan zetten om iets DOMS en helemaal tegen diezelfde logica te doen, dan komt het in de buurt van de mens, of
- een uniek gevoel voor humor heeft,
- nieuwsgierigheid/koppigheid
- kan handelen op basis medeleven of juist 'evilness',
- depressief/euforisch kan worden,
- zelfopoffering/egoÔstisch kan handelen en begrijpen
- arrogant/bescheidend zijn
- zichzelf uniek ontwikkelen/evolueren/muteren
- meer/minder wilt zijn dan wat het is
- ontstaan/'geboren' en eindigen/'dood gaan' volgens een 100% natuurlijke proces
- de drang voor zelfvoortplanting of zelfvernietiging

Kortom: Karakter!
Vaak zien we de essentie van een mens bij de dood. Bijvoorbeeld op een begrafenis wordt vaak de karakter van de desbetreffende persoon beschreven en niet hoe slim/goed hij signaaltjes kan verwerken.

edit: wat tegenstellingen toegevoegd

[Reactie gewijzigd door vinnixx op 7 februari 2013 10:28]

CommerciŽle vluchten kunnen, mits met speciaal gecertificeerde vliegtuigen en staff, geheel op autopilot landen (en opstijgen). Dit is al jaren zo maar wordt meestal alleen gebruikt onder extreme omstandigheden waarin de computer de infostroom veel beter verwerkt dan de op instrumenten kijkende piloot en dus een veel veiligere optie is.
De piloten monitoren het proces dan alleen maar, ze mogen niet eens naar buiten kijken.....alleen op de instrumenten om eventueel in te kunnen grijpen.
Doorgaans landen de piloten echter wel vaak zelf, voorschrift is dan ook dat er altijd een piloot moet zijn om eventueel in te kunnen grijpen, maar je kunt autolanding dus deels zien als zelf landen omdat hij het monitort en omdat de passagier het niet fijn vindt om te weten dat een vliegtuig niet bestuurd wordt maar alles helemaal zelf regelt.
Dit is echter slechts een perceptie, zodra je niet weet dat er autopilot geland wordt zal een groot deel klappen voor de piloot die hen toch maar weer veilig op de grond heeft gekregen.(Nooit helemaal begrepen dat klappen....alsof je klapt als je buschauffeur stopt bij je halte en je er uit mag??? Ik ga er van uit dat zo`n man bevoegd is en zijn werk verstaat)
Maar autolanding wordt tegenwoordig meer en meer gemeengoed, het is simpelweg gewoon vaak veiliger. Maar vliegtuigen zonder een piloot erop mag dus (nog) niet. (behalve drones)

Een voorbeeld geven uit 2007, waarin het fout ging met het eerste toestel dat dit kon, is dus imo niet representatief, er zijn tal van voorbeelden waarin de piloten ook in de fout gingen (ook na die datum).
Dan nog is natuurlijk de vraag of dat eerste prototype van whatever, en waarvan geleerd is, ook zo vellig was als tegenwoordig? (neem bijvoorbeeld een moderne auto....)
Jouw voorbeeld is dus meer FUD en gebaseerd op verouderde techniek.
Hier hoe de Boeing 777 het deed in 2007.
Hier de wiki over autolanding met onderaan de laatste (en enige?) commerciele autolandingcrash in Amsterdam in 2009.
Ik denk eigenlijk dat er meer crashes zijn door toedoen van foute beslissingen van piloten dan door autopilots, en al helemaal als er defecten optreden waardoor normale besturing moeilijk of zelfs onmogelijk is en een computer wel snel berekeningen kan maken om eea juist te compenseren.
Pas als menselijke piloten onfeilbaar zijn en de computer fouten maakt dan kan je zoiets aandragen.
Dat het al in simulatoren fout gaat met menselijke piloten is bekend, helemaal als ze hem van autopilot afhalen en zelf landen. Gelukkig dus dat er simulatoren zijn.

M.i. is een autopilot die van goede sensoren en bakens uitgaat veiliger dan een menselijke piloot.
Zijn de sensoren defect dan kan er verschil zijn omdat de piloot zelf beslissingen neemt op basis van ervaring ipv data.
Maar dan nog ben je zonder zicht bij voorbaat kansloos.....

[Reactie gewijzigd door Teijgetje op 7 februari 2013 15:12]

Nog een nuancering/verdieping:
het statement van Dijkstra gaat ook over een fundamenteel probleem met alle gedachtenexperimenten, opmerkingen over karakter (en of een computer dat wel of niet kan hebben) en dergelijke;
  • we zijn gewend om zaken als intelligentie, voelen en karakter te definiŽren in termen van "wat mensen doen".
  • Als je daarover gaat nadenken kom je meestal tot de ontdekking dat je eigenlijk niet weet wat dat is, als je het zonder mensen probeert te definiŽren.
  • Dus komen de uitspraken vaak neer op een variant van
    • "denken, voelen, karakter is dat wat mensen doen, dus als een machine iets doet wat er op lijkt dan is dat niet hetzelfde." Meestal denken we dat dan zeker te weten omdat we bij de machine weten hoe het gebeurt en komen dan tot de conclusie dat het heel anders is dan bij mensen.
    • Of er wordt juist gezegd dat het waarneembare (gedrag) hetzelfde is, dus dat het dan wel hetzelfde moet zijn als wat mensen doen.
Beide conclusies zijn niet zomaar te trekken uit de feiten die voor handen zijn. Bovendien loop je het risico dat het al snel een woordspelletje wordt. Dat punt wordt heel duidelijk uit Dijkstra zijn opmerking over zwemmen versus varen.

Aangezien Searle genoemd werd, raad ik de geÔnteresseerde lezer aan om dan zowel zijn boeken als die van Daniel Dennett over dit onderwerp te lezen.

Nog een interessante vraag: waarom zou je een machine willen maken die hetzelfde kan als een mens? Twee mensen kunnen dat (voorlopig) toch veel beter. Bovendien krijg je weer allerlei ethische dilemma's als het je lukt (mag zo'n machine stemmen? mag je hem uitzetten?) en hij zal ook fouten gaan maken.

Een machine is veel interessanter als hij dingen kan die wij niet goed kunnen, zoals een miljoen keer hetzelfde lassen zonder fouten.
Dat is toch niet volgens de definitie van 'bionisch'?
Dit ding werkt niet samen met een biologisch wezen (c.q. mens). Het is gewoon een robot.
Wellicht dat android een betere benaming is (een robot die ontworpen is om op een mens te lijken). Bionisch is inderdaad een bijzonder vreemd gekozen woord in deze situatie, aangezien het pas bionisch is als het aan/in/om een mens hangt. Maar waar ze eigenlijk op doelen is dat de android is opgebouwd uit prothetische onderdelen en zouden theoretisch een heel groot gedeelte van een mens kunnen vervangen, het probleem is echter dat ze dit in de praktijk gewoon nog niet hebben gedaan...
Als de technologie met de huidige snelheid doorontwikkelt, zou dat wat je schetst al ergens tussen 2030-2040 kunnen plaatsvinden. Een man die zich al jaren met dit soort zaken bezighoudt, en wiens uitspraken vaak bewaarheid worden is Raymond Kurzweil.

Een tof boek die dit soort robotica behandelt is Wired for War van P.W Singer. Vanuit een militair oogpunt worden ontwikkelingen op technologisch vlak gegeven, die uiteraard ook hun weg gaan vinden buiten de frontlinie
Zijn boek en toekomstbeeld is echter gebaseerd op erg veel aannames, interpretatie en extrapolatie (desondanks wel interessant!).
De ontwikkelingen en verwachtingen van onderzoekers van Kunstmatige Intelligentie in de jaren '50 en '60 waren ook erg optimistisch en vrij breed gedeeld. Typerend is dit citaat van Herbert Simon, een van de meest vooraanstaande wetenschappers uit die tijd:
It is not my aim to surprise or shock you – but the simplest way I can summarize is to say that there are now in the world machines that think, that learn and that create. Moreover, their ability to do these things is going to increase rapidly until – in a visible future – the range of problems they can handle will be coextensive with the range to which the human mind has been applied.
Men dacht toen dat een volledige Kunstmatige Intelligentie met het vermogen van mensen rond de eeuwwisseling (2000) wel ontwikkeld zou zijn. Dat bleek echter een vele malen ingewikkelder onderneming dan verwacht.

Brute rekenkracht is zeker een factor bij KI, maar een veel grotere factor is het begrip van de werking van cognitie, en de interactie tussen (virtuele of fysieke) wezens, agents, die met een wereld om moeten kunnen gaan.
Het blijkt dat intelligentie in grote mate afhankelijk is van de wisselwerking tussen het brein, lichaam en de omgeving; het oude idee van de Sterke KI, 'brain in a box' lijkt een veel te simplistische visie. Hierdoor is een van de punten van Ray Kurzweil, het simuleren van een volledig menselijk brein, mogelijk veel ingewikkelder en van minder belang dan hij het doet voorkomen.

[Reactie gewijzigd door Ghost Dog op 7 februari 2013 02:05]

Op dit item kan niet meer gereageerd worden.



Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBWebsites en communities

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True