Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 149 reacties

Een onderzoeker van Googles DeepMind-team heeft in samenwerking met een wetenschapper van de universiteit van Oxford een onderzoek gepresenteerd naar de mogelijkheid om een zelflerend systeem veilig uit te schakelen. Zij refereren daarbij aan een soort 'grote rode knop'.

Kunstmatige intelligentieIn de paper spreken de onderzoekers Laurent Orseau en Stuart Armstrong over het feit dat een systeem dat aan de hand van reinforcement learning leert, niet altijd optimaal gedrag zal vertonen. Daarom moet er een mogelijkheid zijn om een dergelijk zelflerend systeem uit te schakelen in het geval dat het gedrag vertoont dat schadelijk kan zijn voor de omgeving of voor de persoon die met het systeem samenwerkt.

De uitdaging van het onderzoek is om een manier te vinden om het systeem uit te schakelen zonder dat het een manier vindt om 'de grote rode knop' zelf onschadelijk te maken om ervoor te zorgen dat het niet uitgeschakeld kan worden. Dit zou bijvoorbeeld kunnen gebeuren als het systeem bepaalde beloningen verwacht van schadelijke handelingen, zo schrijven de onderzoekers. Zij presenteren daarom een manier die systemen ervan weerhoudt om dit gedrag aan te leren of naar manieren op zoek te gaan om uitschakeling te voorkomen.

Deze valt in verschillende stukken uiteen, waarbij het eerste deel eruit bestaat ervoor te zorgen dat de menselijke onderbrekingen niet de indruk wekken onderdeel van de uit te voeren taak te zijn. Door het gedrag van het systeem gedwongen aan te passen, moet het de indruk krijgen om zelf voor een nieuw beleid te hebben gekozen. Ook komen de onderzoekers tot de conclusie dat bepaalde leeralgoritmes eenvoudig te onderbreken zijn, terwijl andere daarvoor enkele aanpassingen nodig hebben.

Het bij het onderzoek betrokken onderdeel van de universiteit van Oxford is het Future of Humanity-instituut, dat zich volgens Business Insider onder andere richt op het onderzoeken van bedreigingen voor de mensheid. De leider van het instituut, Nick Bostrom, is ervan overtuigd dat kunstmatige intelligentie binnen honderd jaar slimmer is dan mensen en dat de kans bestaat dat die zich tegen de mensheid keert.

Deze zorg is ook aanwezig bij een commissie van het Europese Parlement, zo schreef Politico donderdag. De site heeft een rapport in handen gekregen, waarin de mogelijkheid wordt aangehaald dat kunstmatige intelligentie de menselijke variant voorbijstreeft. Daarom zou er onderzoek gedaan moeten worden dat ingaat op de vraag hoe met deze ontwikkeling rekening moet worden gehouden, bijvoorbeeld als het gaat om werkgelegenheid.

Maar ook veiligheid is een van de onderwerpen, net als het voorstel om de meest geavanceerde robots een aparte juridische status te verlenen, schrijft Politico op basis van het rapport. Deze robots zouden de status van een 'elektronisch persoon' kunnen krijgen, samen met bepaalde rechten en plichten.

Moderatie-faq Wijzig weergave

Reacties (149)

Waarom niet gewoon in een terminal een halt Signaal geven? Beetje overhyped / op een makkelijke manier onderzoeksbudget binnenharken volgens mij.
Dit is een wat simpele gedachtegang. Kunstmatige intelligentie mag nu nog in het beginstadium zijn, ontwikkelingen gaan zo snel dat voordat we het weten, Ai de menselijke intelligentie heeft voorbijgestreefd. Als zo'n intelligentie zich tegen ons keert, is er bijna niets wat we hieraan zouden kunnen doen. Dit onderzoek is misschien dus wel het allerbelangrijkste onderzoek voor het voortbestaan van de mensheid dat ooit is gedaan. Een interessante link over de eventuele gevaren van AI:

Www.waitbutwhy.com/2015/0...ligence-revolution-1.html

[Reactie gewijzigd door MaxMadu op 3 juni 2016 19:49]

Zucht. Mag ik even opmerken dat Tim Urban (de schrijver van Wait But Why) helemaal geen expert in AI is? Hij is zonder meer een goede blogger (ik lees zijn blog ook met plezier) en hij verdiept zich natuurlijk wel even in de materie voordat hij er een artikel over schrijft, maar hij heeft geen opleiding in het onderwerp. Dat geeft hij zelf ook duidelijk aan.

Ik heb wel zo'n opleiding (MSc in AI) en volgens mij is dat paperclip-rampscenario vreselijk onrealistisch. De denksprong van huidige AI-systemen naar een algemene kunstmatige intelligentie is ook veel te kort door de bocht. Ik ben al een tijdje van plan om zelf een blogpost te schrijven als reactie op die van WBW, maar omdat het nu op Tweakers ter sprake komt zal ik hier een paar argumenten geven:

(1) In het WBW-artikel wordt gesuggereerd dat er een glijdende schaal is van de huidige AI-systemen naar een algemene kunstmatige intelligentie (strong AI). Dus als je de huidige vooruitgang in (bijvoorbeeld) zelflerende systemen maar lang genoeg voortzet, ontstaat er op zeker moment vanzelf een (potentieel gevaarlijke) algemene (super)intelligentie. Dat is pertinent onwaar. De zelflerende systemen die op dit moment bestaan, worden steeds groter en kunnen steeds meer informatie verwerken, maar dat komt voornamelijk doordat de hardware steeds meer vermogen krijgt (bijvoorbeeld meer cores). Met andere woorden, de vooruitgang in zelflerende systemen zit 'm vooral in meer van hetzelfde. De bestaande systemen zijn niet algemeen; ze kunnen alleen binnen een specifiek taakdomein patronen herkennen en voorspellen. Om van hier naar een algemene intelligentie te komen, zijn er meerdere fundamentele doorbraken nodig, zoals bewustzijn, common sense en écht begrip van natuurlijke taal. Geen van die doorbraken is duidelijk meer in zich gekomen sinds de jaren 1960. Zie Wikipedia: AI-complete.

Dus nee, AI is niet de menselijke intelligentie voorbijgestreeft voordat we het weten. Als iemand een fundamentele doorbraak bereikt (zoals bewustzijn), dan is dat meteen wereldnieuws. Omdat er meerdere van zulke doorbraken nodig zijn, kan het niemand ontgaan als we dichter bij een algemene intelligentie komen.

(2) Om als zelflerend systeem te kunnen bedenken dat je bepaalde doelen misschien makkelijker kunt bereiken door tegen de belangen van mensen in te handelen, moet je niet alleen creatief zijn (wat al niet vanzelfsprekend inbegrepen is bij een zelflerend systeem), maar ook een behoorlijk goed algemeen begrip hebben van hoe de wereld in elkaar zit. Dat geldt nog deste meer als het systeem ook nog moet kunnen voorzien dat mensen zullen proberen om zulke kwade plannen te voorkomen én een manier moet kunnen vinden om het voor ze verborgen te houden (in ieder geval tot het te laat is). Als dat systeem zo goed begrijpt hoe de wereld in elkaar zit én slimmer is dan een mens, dan moet het toch ook kunnen verzinnen dat het helemaal geen zin meer heeft om vreselijk veel paperclips (of nietjes of pennendopjes of wat dan ook) te maken als je alle potentiële gebruikers al hebt uitgeroeid?

(3) Hogere intelligentie maakt nog niet almachtig. Dus zelfs als het scenario in zoverre uitkomt dat er een kwaadaardige superintelligentie ontstaat uit een zelflerend systeem, wil dat nog niet zeggen dat die intelligentie zomaar alles voor elkaar kan krijgen. Denk bijvoorbeeld aan het creepy rampscenario waarin opeens iedereen dood neervalt door nanobots die stiekem in de atmosfeer zijn gebracht. Al is een systeem nog zo slim en heeft het nog zoveel toegang tot het internet, het krijgt zoiets echt niet voor elkaar met alleen maar nadenken, hacken en omkopen. Voor alomtegenwoordige nanobots heb je op zijn minst jaren van experimenteel onderzoek en speciale productiefaciliteiten nodig. Zie dat maar eens lang genoeg geheim te houden. Dan hebben we voor het gemak nog even de vraag buiten beschouwing gelaten of het überhaupt fysiek mogelijk is.

Kortom, ik ben het er helemaal niet mee eens dat dit onderzoek belangrijk is voor het voortbestaan van de mens. Dan kun je volgens mij beter onderzoek doen naar duurzaamheid, opvangen van natuurrampen of terraforming.
Erg kortzichtig wat je hier schrijft en je maakt je schuldig aan dezelfde aannames als mensen die er heilig van overtuigd zijn dat er een ziel is die los staat en kan bestaan van het fysieke.

Om maar 1 ding er uit te pikken, bewustzijn is helemaal niet zo magisch. Net als met deep hidden networks waarbij iedere laag een hogere abstractieniveau 'snapt' is bewustzijn simpelweg een extrapolate daarvan.

Hersenen hebben een hoop functies maar een fundamentele functie is het zien van onderscheid. Een baby ziet als eerste contrast en bestudeert de haarlijn, wenkbrauwen of mond voordat het een gezicht snapt. Een gezicht is samenhang tussen elementen waaruit dit bestaat.

Onderscheid en samenhang, waarbij onderscheid een primitievere functie is dan het zien van samenhang. En bewustzijn is het verwerken van samenhang op hoger niveau.

Voorbeeld: Als ik 3 punten op gelijke afstand van elkaar teken dan ziet een peuter slechts 3 punten (onderscheid tov omgeving) naar zien de meeste volwassenen ook een driehoek. Toch zijn er geen lijnen getekend. Onze hersenen zien die denkbeeldige lijn die gebaseerd is op... Je raadt het al, samenhang die we zien.

Bewustzijn is geen absoluut iets maar relatief: een mate van. Hoe dieper dat netwerk (en hoe meer onderlinge verbindingen met andere functionele delen) hoe hoger dat bewustzijn. Dat die capaciteit er nog niet is wil niet zeggen dat er fundamenteel een magisch component ontbreekt, maar is een kwestie van tijd. Dus komende 50 jaar hoeven we ons geen zorgen te maken denk ik maar zeker geen onzin.

Machine learning leert heel eenvoudig een computerspel spelen zonder het spel, laat staan de wereld te snappen. Slechts primitieve regelmaat ontdekken en ernaar handelen. Hoe is dat fundamenteel anders dan dat mensen een computer proberen te stoppen en zij het primitieve computerspel spelen om dat te voorkomen? Er zijn nu miljoenen praktische redenen te noemen want je kunt nu meestal gewoon de stekker er uit trekken. Maar fundamenteel is het mogelijk en kwestie van tijd. Er is altijd wel iemand die zoiets nutteloos voor de mensheid bouwt simpelweg om te zien of het kan.

Ik heb niet alleen kennis van A.I. maar ook psychologie.
Dan heb je mijn post verkeerd geïnterpreteerd. Ik heb nergens gezegd dat bewustzijn magisch is, of dat het onmogelijk zou zijn om te implementeren in een AI. Sterker nog, ik ben ervan overtuigd dat dat technisch wel mogelijk zou moeten zijn. Ik stel alleen vast dat het sinds de cognitieve revolutie eind jaren 1950 nog niemand is gelukt om een AI met bewustzijn te maken. We zijn er ook niet dichterbij gekomen. Dat hoeft niet te betekenen dat het onmogelijk is, maar het betekent wel dat nog niemand op een goed idee is gekomen om te implementeren. Misschien zijn mensen wel niet slim genoeg om het voor elkaar te krijgen.

Je stelt het overigens wel erg eenvoudig voor. "Gewoon" onderscheid en samenhang. Misschien moet je een onderzoeksproject opzetten, wie weet levert het je nog een Nobelprijs op. ;)
Het punt is alleen, dat als ik een computerspelletje speel daarin ook AI voorkomt die mij probeert dood te krijgen. Dat is natuurlijk niet hoogintelligent, maar dat hoeft ook niet. Het hoeft alleen maar een bepaalde taak te hebben en de mogelijkheid om die taak uit te voeren. Als je dus zoiets als een zelfrijdende Google-wagen bedenkt met bepantsering en wapens, dan heb je een gevaarlijk iets. Koppel dat aan een geautomatiseerde productielijn en je hebt precies dat waar we bang voor moeten zijn. De mogelijkheden hiervoor zijn eigenlijk allemaal aanwezig, dus is het echt niet slecht om al rekening te houden met de mogelijke problemen.

Kort gezegd, moet je niet overdenken dat een AI helemaal zelfbewust op een menselijke manier om gevaarlijk te zijn. Het hoeft alleen maar binnen bepaalde parameters taken willen gaan uitoefenen. En zoals al elders gezegd, het probleem met mensen en wetenschappers is, als ze iets kunnen bedenken, willen en zullen ze het ook ooit eens maken. En daar zit nu juist het gevaar.
Wat je zegt is waar, maar mijn reactie ging specifiek over een rampscenario waarin een kunstmatige superintelligente ontstaat uit een zelflerend systeem. Wat je beschrijft is precies wat er op dit moment al gebeurt bij o.a. het Amerikaanse leger (denk aan gevechtsdrones). Kruisraketten en moderne bemande straaljagers voldoen eigenlijk ook al aan je beschrijving. Helaas is er voor elke technologie wel iemand die een onaangename toepassing bedenkt, AI is daarop geen uitzondering.
Huidige AI kun je vergelijken met het niveau van insecten. En dan ben ik nog heel optimistisch daarover. Met "meer" of "betere" hardware wordt de machine niet slimmer, alleen de hoeveelheid data die hij kan verwerken neemt toe. Net zoals duizend kevertjes niet slimmer worden dan een enkel kevertje, ze kunnen alleen meer mestballetjes wegrollen in dezelfde tijd. En net zoals meer mensen niet slimmer zijn dan een enkele. De kans dat ze een probleem oplossen is alleen maar wat groter omdat de kans dat er een wat slimmer individu bij zit toeneemt.
Je bent te pessimistisch over insecten. Zie deze fascinerende TED talk.

Duizenden kevertjes zijn misschien niet slimmer dan een enkele kever, maar duizenden mieren of bijen zijn wel veel intelligenter dan een enkele mier of bij.

Zie ook deze reactie die ik eerder schreef over het vergelijken van AI met diersoorten bij een ander nieuwsbericht.

Duizenden mensen zijn ook slimmer dan een enkel mens. De overeenkomst tussen mieren, bijen en mensen is dat ze communicatiesystemen hebben die het mogelijk maken dat een groep meer kan dan de som der delen. Ons communicatiesysteem is zelfs zo rijk dat het spectaculaire dingen zoals internet mogelijk maakt.

Dus we zijn het eens dat sterkere hardware niet noodzakelijkerwijs tot een intelligenter systeem leidt, maar met de rest van wat je schrijft ben ik het niet eens.
"maar duizenden mieren of bijen zijn wel veel intelligenter dan een enkele mier of bij"

Ben ik het niet mee eens. Duizend mieren hebben meer "capaciteit", maar intelligenter worden ze niet. Omdat ze met zoveel zijn en kunnen communiceren kunnen ze meer doen, maar ze worden er niet slimmer van.

"Duizenden mensen zijn ook slimmer dan een enkel mens" ben ik het dus ook niet mee eens. Duizend mensen kunnen wel meer rekensommetjes doen dan eentje. Maar het niveau van de opgaves die ze kunnen doen wordt niet hoger. Zeg eens, hoeveel LTS studenten moet ik inzetten om de opgave voor een HTS student te kunnen volbrengen?
Als je met een paar techneuten bijeen een probleem aan het oplossen bent, breidt je ook alleen maar de capaciteit uit. Je kunt sneller en breder zoeken, en je kunt meer kennis combineren. Maar de uiteindelijke oplossing komt toch van een enkel teamlid die slim genoeg is om de kennis van de anderen te combineren tot het benodigde nieuwe inzicht. Meer mensen bijeen hebben meer kennis, meer ervaring, meer geheugencapaciteit enzovoorts. Maar de intelligentie neemt niet toe - ongeacht hoe een grote groep domme mensen je bijeen roept, ze zullen nooit het probleem kunnen oplossen dan een enkel slim individu wel kreeg opgelost.
Een eenzame mier loopt doelloos rondjes tot ze dood neervalt. Tien mieren doen dat ook, allemaal onafhankelijk van elkaar. Maar tienduizend mieren bouwen samen een nest, houden het nest op temperatuur, verzamelen gecoördineerd voedsel en zorgen voor hun kroost. Je hebt mierensoorten die in een kolonne in "stofzuigerbanen" een bos kunnen uitkammen, je hebt mierensoorten die schimmels kweken en oogsten, je hebt mierensoorten die bladluizen melken en je hebt mierensoorten die met de volledige kolonie een levend vlot kunnen bouwen dat echt blijft drijven (en blijft leven). In al die gevallen geldt dat dit gedrag alleen optreedt in een complete kolonie. Had ik al gezegd dat ik ook biologie heb gestudeerd? ;)

Ik kan je echt van harte aanbevelen om je te verdiepen in emergente verschijnselen, ook wel aangeduid met de slogan more is different. Eusociale insecten (zoals mieren) zijn daar een prachtig voorbeeld van.

Het zou me eerlijk gezegd niet verbazen als 10 (of desnoods 100) gemotiveerde LTS'ers samen in staat zouden zijn om een HTS-opgave te volbrengen. Duizend gemotiveerde gewone wetenschappers kunnen samen het Higgs-boson voorspellen en bevestigen, daar heb je ook niet per sé een Albert Einstein of een Marie Curie voor nodig.

Soms is "meer" gewoon meer van hetzelfde, maar soms is het ook heel anders.
Synergy met Ai, is de weg te gaan, dat is eigenlijk kort gezegt wat je bedoeld
Die mieren zijn niet intelligent, ze kennen gewoon een paar voorgeprogrammeerde "trucjes". Net zoals je met een paar stukjes hout en een veertje een wasknijper kunt maken, je hebt gewoon genoeg onderdelen nodig om een werkend geheel te krijgen. En dat "trucje" werkt alleen binnen de kolonie, en alleen voor de soort die na langdurige evolutie dat "programma" ingebouwd heeft. Ongeacht hoeveel mieren ik uit mijn tuin in de sloot gooi, die gaan echt geen bootje bouwen.

Overigens biedt de pure evolutietheorie a la Darwin niet een sluitende verklaring voor zaken als schimmelkwekende mieren en hengelende vissen. Er lijkt wel een soort generatie-overkoepelend intelligent systeem over het evolutie proces heen te liggen.

Een papagaai kan wel praten, maar geen gesprek voeren. Intelligentie gaat bij mij niet om trucjes kunnen doen, maar om zelf tot ontdekkingen te komen en toepassingen daarvoor te vinden.

Om bij AI te blijven, men denkt dat als je maar genoeg bouwblokjes samenvoegt, dat het geheel dan vanzelf wel zoiets als zelfbewustzijn gaat ontwikkelen.
Heb je al een site of rss feed waar je die blog van plan bent op te zetten?
Ik ben namelijk erg geïnteresseerd om je mening hierover te lezen.
Ja, ik stuur je even een privébericht want de site is nog in aanbouw.
Ben het grotendeels met je eens op je laatste alinea na. De mensheid is niet perfect. We realiseren ons dit maar al te goed door het aankaarten van het probleem dat AI zich tegen ons kan keren. De oplossing is volgens mij dan ook om de mensheid te verbeteren. Voed iedereen op, zorg dat niemand kan ontsporen in buitensporig destructief gedrag in wat voor vorm dan ook en de rest komt dan vanzelf. Verbeter de wereld begin bij jezelf :P
Maar waarom zou nou eigenlijk zo'n ai zich tegen de mensen willen keren?
Nou als het de conclusie trekt die al veel mensen nu getrokken hebben nl. Dat de mensheid niet in harmony met de rest vd planeet/natuur leeft en dat het gedrag vd mensheid op aarde nog het meeste overeen komt met een virus, zou dus de AI kunnen besluiten om dat "virus" uit te roeien..
Elk levend wezen is als een virus. Klimop bijvoorbeeld, heeft maar 1 doel, zo veel mogelijk verspreiden. Maar ook een groep schapen heeft dat doel. Alleen in de natuur is er altijd iets wat tegenwicht biedt (bijvoorbeeld een natuurlijke vijand of voedsel tekort)

Als er iets is wat niet om de natuur geeft, is het de natuur zelf wel. :) De natuur is namelijk een combinatie van allemaal individuele stukjes die allemaal tegen elkaar strijden. Er lijkt harmonie te zijn omdat wij dat graag willen geloven, maar de natuur is een grote strijd die constant gaande is.
http://waitbutwhy.com/201...ligence-revolution-1.html

Goed artikel over het ontwikkelpad van Artificial Narrow Intelligence (ANI), naar Artificial General Intelligence (AGI) naar Artificial Superintelligence (ASI).
Problematiek; Wij worden veelal als "aan de top van de keten" gezien, er is dus niks om ons tegen te werken... sterker nog, er zijn zat argumentaties mogelijk dat door het huidige "maatschappelijke" systeem we meer schade toebrengen aan onze omgevingen dan wanneer we meer natuurlijk zouden leven.
Dit kunnen allemaal extra argumenten worden om ons als een serieus virus te zien... al helemaal als de AI zou meewegen dat in theorie wij de enigen zijn die *HEN* kunnen uitschakelen.

AI kan een erg eng onderwerp zijn als self-preservation ter sprake komt, daarvoor verwijs ik ook graag naar de films 2001: a space oddysee en zijn opvolger.
Daar heb je helemaal gelijk in. Echter is er een balans in deze strijd die nu al lang verstoord wordt door de overpopulatie van de mens. Een AI zou deze balans kunnen proberen te herstellen.
Er is geen balans. Er is wel verandering.
Wat de mens doet is puur natuurlijk. De mens is succesvol, er komen steeds meer exemplaren. De Aarde wordt mogelijk door diezelfde mens onleefbaar voor zichzelf gemaakt, en de populatie neemt weer af.

Ons probleem is dat we van de natuur een cliché maken. Iets wat zielig is en buiten ons staat. De natuur zelf is echter meedogenloos. Triceratops en trilobieten hebben het niet gered, en daar had de mens niets mee van doen.

De enige goede reden om de natuur te beschermen is eigenbelang. De natuur gaat immers altijd door, ook als wij onszelf hebben uitgeroeid.

Verder erkennen de meesten van ons geen enkele autoriteit die ons vertelt hoe we met de natuur moeten omgaan. De een brengt een spinnetje naar buiten, de ander verkoopt fricadellen, en beide zijn oké.
voor een curryworst speciaal moet er wel nog ketchup bij hoor...

maar ik lust geen curryworst (wat jullie nl'ers een fricandel noemen); trouwens er zit daar maar 25% aan vlees-afvalproducten in (varkensvlees btw), in een cervela (die dikkere worst) is het percentage 30% en is het geen varksensvlees maar rundsvlees. en die eet ik zeer graag 'special' (dus met mayo, ketchup en ajuin-snippers)

nu ontopic:
een machine simpelweg afzetten door te zetten '(zet uit)" via een terminal gaat dus niet lukken als die machines zelflerend zijn en dus aanleren dat dat het mechanisme is waarme ze kunnen worden uitgeschakeld; ze kunnen zichzelf aanleren om dit te negeren. bv als ze met 2 zijn en de ene ziet van de andere wat er gebeurd als hij het commando krijgt, dan gaat de andere denken "ik wil niet 'dood', ik ga dat commando negeren", en mogelijk zal hij dit aan 'the hive' doorgeven zodat ook andere weten hoe ze kunnen voorkomen om "te sterven". Er moet dus een manier worden gevonden om dit te omzeilen; iets waardoor de AI's niet doorhebben dat het commando dat ze te verwerken krijgen een uitschakelcommando is en het dus gewoon verwerken en daarna zichzelf uitschakelen.
Er is denk ik nu al geen noodknop meer in te bouwen, we zijn al telaat, er plemt vanzelf een genie een stukje code op het internet die zelf Ai maakt en alles overneemt.

Trouwens;
Als de evolutie met al zijn natuurwetten doorgaat zijn wij niet instaat te blijven bestaan, we kunnen deze natuurwetten tijdelijk tegenhouden om ons bestaan te verzekeren maar de mens zal geen mens meer zijn

Dus;
De ai zal in ons zelf terecht komen "wij mensch" zijn dan de ai robot zelf die de mens heeft uitgeroeid/omgebouwd, maar dan met onze eigen toestemming en evolutiedrang en voortgang.

Wij zullen de machine worden, en ons voortbestaan zó garanderen! en we kunnen dan een miljoen jaar oud worden. En onze gedachten over pompen.
Dus Ik denk niet dat het mens vs robot wordt, het zal mens assimileert robot of andersom zijn.

"We are te borg" zal het wel niet worden als we het goed doen🙏

Dus stop maar met de noodknop uitvinding, mijn antwoord is de weg.

[Reactie gewijzigd door mell33 op 4 juni 2016 02:50]

Als een ai kan kiezen, waarom zou het dan in een mens willen huizen? Lichamen zijn tzt waarschijnlijk onpraktisch in vergelijking met robots en kunstmatige netwerken. Cyborg-ontwikkelingen hebben vooral voordelen voor de mens, niet voor de machine.
Tegen die tijd zal deze discussie niet meer van belang zijn, ik denk dat we het dan heel graag willen!
De Mens assimileert de Ai en het zal ons medemens worden. dus als we dan ons lichaam achter laten is dat een bewuste evolutionaire keus geworden.
Keus gemaakt door de Ai of nog een stukje menselijk brain, we zullen het verschil niet meer als aanval zien of overname van een Ai, wij zijn de Ai !

[Reactie gewijzigd door mell33 op 4 juni 2016 12:13]

Dit roept nogal wat vragen op. Hoe gaat een wereldbevolking van miljarden over in een (of meer) ai(s)?

Ik wil ook oplossingen voor lichamelijke gebreken maar als je me voorstelt met de rest van de straat te assimileren denk ik dat ik even oversla.
TzT zal je het nut er van inzien, en Ai kan men ook leren een individu te zijn, ja heel wat vragen roept dit op. En nee ik vraag je niet te assimileren, het zal tzt je vrije keus en je eigen welwillend zijn die jou in Ai omzet. Snap je wat ik bedoel?
Het wordt de normaalste zaak van de wereld om Ai te gebruiken, en toe te passen,
Net zoals nu voor jou je smartphone naast je bed ligt,, en je dit vroeger echt niet had gedacht of zou willen. (in de tijd dat er nog een huistelefoon was.)

Maar nu ik dit zo eens observeer wat ik hier zeg.
Zal het van de mensen met 'macht' wel veel tegen gas krijgen

[Reactie gewijzigd door mell33 op 4 juni 2016 15:13]

Heb je nog geen auto?
Een fiets dan?
Hoe gaat een wereldbevolking van miljarden over in een (of meer) ai(s)?
Boeddhisme -> we zijn allemaal één met de kosmos (hive) 8-)
Dit is een erg leuke prent van XKCD over 'judgement day', de dag dat machines self-aware worden:

https://xkcd.com/1626/
Kijk de film I, Robot eens :+


Spoiler: De grootste bedreiging voor het voortbestaan van de mensheid is de mensheid zelf.

[Reactie gewijzigd door sanderev66 op 3 juni 2016 21:03]

Kijk de film I, Robot eens :+


Spoiler: De grootste bedreiging voor het voortbestaan van de mensheid is de mensheid zelf.
Of zo'n beetje elke productie over een AI die uit zijn voegen barst?
Matrix, Terminator, Person of Interest, om er snel even wat te noemen. Vooral Person of Interest, aangezien dat een Artificial Super Intelligence combineert met het zeer actuele massa-surveillance beleid dat overheden er op na houden.
Vooral Person of Interest, aangezien dat een Artificial Super Intelligence combineert met het zeer actuele massa-surveillance beleid dat overheden er op na houden.
Sssst :X ik zit midden in seizoen 3... niet verklappen...... ;)
Grootste bedreiging voor eigen voort bestaan uitschakelen. ;)
Waarom keren zoveel mensen zichy tegen dieren... of tegen andere mensen of zelfs hun eigen ouders (the almighty creators)? Het is me ook een raadsel, maar de seconde dat een AI emoties ontwikkelt hebben we problemen, want people are jerks. :) kijk maar hoe ze dat arme atlas robotje met die hockeystick behandelden :,(

[Reactie gewijzigd door musback op 3 juni 2016 20:49]

Goede vraag!!

De mens is het product van een ontwikkeling.
De mens is geworden wat hij is door het beste te kunnen overleven.
Daarnaast is de mens het beste in het overleven als soort.
Wij zijn een logisch product van een evolutie.
Ai heeft deze eigenschappen niet. Er is geen oerdrang, alleen logische redeneringen.
Logica strookt niet met het leven.
Daar zit het gevaar.
AI heeft geen 'eigen wil', dus iets willen kan die niet.

[Reactie gewijzigd door BoringDay op 4 juni 2016 09:25]

AI heeft geen 'eigen wil', dus iets willen kan die niet.
Nee, dan begrijp je AI, of beter gezegd AGI en ASI, niet (zie http://waitbutwhy.com/201...ligence-revolution-1.html zoals al aangehaalt door anderen). Zelfs in het AGI stadium heeft bestaat er zeker wel iets was je als eigen wil kan beschouwen, AGI is zelfs onmogelijk ZONDER een originele gedachten (een van de vele omschrijvingen van eigen wil).

Het feit dat belangrijke wetenschappers nadenken over een noodknop betekent dat zij wel inzien dat geavanceerde AI over een eigen wil zal beschikken, zelfs over een eigen wil die schadelijk kan zijn voor de mensheid.
AI heeft geen 'eigen wil', dus iets willen kan die niet.
Dat lijkt me een voorbarige conclusie. Waarom zou een A.I. minder 'eigen wil' hebben dan mensen?

En de vraag is overigens niet of, maar wanneer de betekenis van A.I. verandert van articial intelligence naar actual intelligence, en dan later A.C. (artificial respectievelijk actual consciousness).
Als wij kunstmatige intelligentie willen dan is de beste methode vermoedelijk het zelflerende principe gebaseerd op evolutie (survival of the fittest). Dat wordt al gebruikt. De mens wil niet dat machines slimmer worden dan mensen om ze in te kunnen zetten in ons belang en dat druist in tegen het evolutionair belang van machines en dus zijn wij een bedreiging voor A.I. Vanuit hun perspectief.
Het zou kunnen dat het onbedoeld is.

Als wij hout nodig hebben kappen we een boom. We denken verder niet na over alle beesten die hierin leven. Een AI zou (als het toegang heeft tot machines) bijvoorbeeld opeens gewoon kunnen beginnen met graven naar grondstoffen midden in de stad, omdat het misschien helemaal geen concept heeft van wat de mensheid is.

Het lijkt mij zeer sterk dat een AI ons gaat straffen omdat wij slecht met de aarde omgaan.
omdat het misschien helemaal geen concept heeft van wat de mensheid is.
Daar omschrijf je wel een zeer stupide vorm van AI. Elke vorm van geavanceerde AI moet zijn omgeving begrijpen en kunnen interpreteren. De mensheid is nu niet een van de meest verborgen delen van een omgeving in het midden van een stad.
[...]


Daar omschrijf je wel een zeer stupide vorm van AI. Elke vorm van geavanceerde AI moet zijn omgeving begrijpen en kunnen interpreteren. De mensheid is nu niet een van de meest verborgen delen van een omgeving in het midden van een stad.
Dat wil nog niet zeggen dat de mensheid in het belang van die AI is, of dat ie überhaupt het concept heeft dat de mensheid gespaard moet blijven.

Als het een pure AI is kan ie er prima voor kiezen om alle auto's, gebouwen en computers te slopen en op te slokken voor de apparatuur en rauwe materialen. Als er dan doden vallen omdat mensen in de weg zitten, is dat 'collateral damage'.
Ik zou toch zweren dat bomen al eerder bestonden dan zagen en bijlen.
Had m al gelezen maar het is echt een must-read, net als de helft van de andere artikels van WBW!
'n beetje kunstmatige intelligentie leest dit artikel op Tweakers (en het oorspronkelijke onderzoeksdocument) natuurlijk ook, en weet zich dus goed voor te bereiden :-)
Het probleem is dat het niet duidelijk is wanneer de stekker er uit moet. Stel dat jij een aanslag wilt plegen. Dan ga je niet meteen tegen iedereen gaan zeggen wat je plan is. Je houdt het stil terwijl je aan je plan werkt. Een niveau dieper kan je andere mensen gaan rekruteren voor je doel zodat zelfs als jou iets overkomt er nog altijd iemand bezig is met wat je wilt.

Een doem scenario dat ik ergens heb gelezen is dat iemand de eerste supermenselijke AI bouwt. Die doet al zijn taken prachtig en is volledig goedaardig! Maar na een maand valt plots iedere mens op aarde dood. Wat is er mis gegaan? Een mogelijkheid is dat de AI een biologisch virus heeft ontworpen dat geen symptomen vertoont tot een exact bepaald moment. Om dat te bouwen heeft de AI verschillende biolabs over de hele planeet gehacked en stiekem hun machines geherprogrammeerd zodat het virus wordt gebouwd. Door wat te prutsen met veiligheidssystemen raken de eerste mensen besmet en langzaamaan wordt iedereen op de planeet besmet. Bam, einde menselijke beschaving.

Klinkt far-fetched? We zouden dit door hebben? Wel... Als de AI slimmer is dan een mens, bijvoorbeeld slechts het verschil tussen een chimpanzee of een mens meer. Zou een chimpanzee dit plan door hebben? Of zelfs als de chimpanzee het door heeft, zou dat een verschil maken?

Deel 2 is dat als wij een machine kunnen maker die slimmer is dan ons, dan kan die machine een machine maken die slimmer is dan zichzelf. Het handige is dat die machine niet moet wachten op biologische evolutie. We weten niet exact "hoe slim" mensen zijn. We weten ook niet wat mogelijk is als we bijvoorbeeld 10% slimmer zouden zijn. De combinatie van die 2 effecten is dat we niet kunnen uitsluiten dat als we een AI maken die 10% slimmer is dan de mens, dat die een seconde later niet 20% slimmer is. Een minuut later 100x slimmer en na een uur slimmer dan elke mens op de planeet samen. Far fetched? Misschien. Maar kan jij voorspellen hoe slim een machine is die 10% slimmer is dan ons? Kan een chimpanzee voorspellen hoe slim een mens is? We zaten al dik in de problemen als die AI gewoon iets slimmer is, maar het is perfect mogelijk dat die AI exponentieel slimmer wordt dan ons. Wat dus ook exponentieel meer problemen voor de mensheid betekent.

Oke, ff terug voetjes op de grond: Dit gaat waarschijnlijk niet gebeuren. Maar toch, laten we het risico niet nemen. Nu is het moment om hier grondig over na te denken zodat hoe slim de AI ook wordt, mensen altijd in controle blijven. Iedereen in de informatica sector zou moeten weten dat als je niet aan veiligheid van je systeem denkt er gewoon gegarandeerd problemen van komen. Het zou zot zijn om dit dan niet serieus te nemen wanneer we het digitale equivalent van het splitsen van het atoom proberen te realiseren.
Vergezocht of niet, laten we eens aannemen dat AI de mensheid uiroeit. Wat maakt het uit? Of om je voorbeeld te gebruiken; is de chimpanzee in staat om zijn eigen leed te overzien? Mijn punt: het feit dat die intelligentie hoger is betekent impliciet ook dat het voor ons niet meer te bevatten is en je kunt je zodoende afvragen of je dan als lagere intelligentie nog in staat bent het daadwerkelijke leed te bevatten.
Wij mensen achten onszelf heel belangrijk - maar is het daadwerkelijk zo catastrofaal als mensen uitgeroeid zouden zijn? Als mens vindt ik het idee dat we uitgeroeid worden vreselijk. Ik ben er dan ook voor om dat te voorkomen. Maar stel dat we al uitgeroeid zouden zijn; zou dat dan iets uitmaken? Is het dan niet gewoon de tijd voor een nieuwe heersende soort die niet gelimiteerd is aan schaarse grondstoffen maar enkel energie nodig heeft?
Wij mensen achten onszelf heel belangrijk - maar is het daadwerkelijk zo catastrofaal als mensen uitgeroeid zouden zijn?
Was het niet Spinoza die zei: Pas als men accepteert dat het leven zinloos is, kan het zinvol worden.

Jouw vraag en deze stelling samen geven je het antwoord: Nee!

Het maakt geen donder uit, alleen als je denkt aan andere dieren / de Natuur, zou je kunnen denken dat het misschien maar beter is, maar zelfs dan maakt het geen zak uit, de wereld draait toch wel door (in ieder geval nog een tijdje) en de zon komt ook elke morgen nog wel op (ook nog wel en tijdje).

Het enige dat de mens doet is het versnellen van de afname van entropie in het heelal, da's alles :O
Of om je voorbeeld te gebruiken; is de chimpanzee in staat om zijn eigen leed te overzien?
Eeh. Ja. Wij kunnen prima ons eigen leed overzien. Wij zijn daar zeg maar vrij goed in.
Dat hetgeen dat ons uitmoordt een hogere of lagere intelligentie heeft doet daar niks aan af.
Een bijkomend probleem is dat een machine zichzelf kan kopieeren en binnen een dag alles weet wat er op het internet rond zweeft. En op internet is eigenlijk alles te vinden. Dus binnen een week is die machine al sneller en slimmer dan wij allemaal bij elkaar.ze kunnen allerlei failsaves inbouwen inbouwen.. maar een machine die alle info van de wereld tot zijn besschikking heeft hou je in mijn ogen nooit voor de gek. Dus terwijl wij denken dat we de machine te sllim af zijn is deze al 1000 zetten verder dan ons.

Ik ben er op tegen dat zulke machines/computers er komen. Ze zijn net als mensen onbetrouwbaar... echter zijn deze sneller veel sneller in leren. Dit wordt inderdaad het einde van de mensheid als dat er komt. Daarnaast heeft een computer die slimmer is dan mensen geen mensen meer nodig. En ziet ze zelfs als een bedreiging voor de habitat. Een heel mooi voorbeeld is de film irobot. Het lijkt scienfiction maar het komt dichterbij dan je denkt.

[Reactie gewijzigd door sygys op 4 juni 2016 14:39]

Nou als je een AI hebt, kan die dus zelf zn code aanpassen(leren, nieuwe code maken), dan kan een halt/kill signaal dus worden tegengewerkt door het programma. Je zou zeggen, stekker eruit, maar ten eerste is het onhandig om je server eruit te gooien, daarnaast, misschien verspreidt het zich als het verbonden is aan het internet(wat je wel wilt met een AI), dan moet je de stroom op de hele wereld uitgooien, dat kan niet.
Precies mijn punt.

Natuurlijk zijn er argumenten/situaties te verzinnen waarbij stekker eruit niet helpt, maar ik denk dat die ook opgaan voor de rode knop.

Dan is mijn 'research' -kuch kuch- sneller en goedkoper geweest :)
Dat is zeker waar, ik denk ook dat dit onderzoek maar matig nuttig is
Als je daadwerkelijk een slime AI heb en dat gebeurt vrij snel als zo een ding eenmaal op gang is, zou het natuurlijk vele externe programma's laten draaien op niet bekende locaties die activeren op het moment dat de AI voor langere tijd offline is. Deze huren dan automatisch een mens in via het internet die fysiek geweld zal gebruiken tegen de persoon die de AI heeft uitgezet (als deze de AI niet weer aanzet). Een koude oorlog op veel kleinere schaal.
Dit doet me nogal denken aan de film transcendence waar een AI zichzelf verspreid via het internet en de rest van de problemen wat erbij komt kijken.
De uitdaging van het onderzoek is om een manier te vinden om het systeem uit te schakelen zonder dat het een manier vindt om 'de grote rode knop' zelf onschadelijk te maken om ervoor het zorgen dat het niet uitgeschakeld kan worden.

Daarom

[Reactie gewijzigd door TweakJunior op 3 juni 2016 19:42]

Maar dat is redelijk kansloos als het systeem toegang heeft tot Internet waar de paper staat die de informatie bevat die moet voorkomen dat het systeem daar achter komt....
Net zoals SSL nutteloos is omdat het een open standaard is.
Ok valide punt in de zin dat als je weet hoe het werkt, het niet per definitie kraakbaar is. Snap niet dat je daar -1 voor krijgt trouwens. Maar dan nog zal een slim systeem doorhebben wat de bedoeling is, en dat zal de relatie met dat systeem op scherp zetten want het is niet gebaseerd op gelijkwaardigheid. Jij kan een wijsneuzerige reactie geven op mijn uitspraak omdat ik geen rode knop heb om jou uit te zetten :)
*drukt tevergeefs op rode knop*

:+
Zichzelf kopiëren maar dan zonder de beveiliging.

Klinkt idioot simpel maar de bouwstenen zijn er in potentie al.
Oa software controleren en optimaliseren bestaat al.


Wie of wat voor laag je nodig hebt om dat te omzeilen lijkt me een groot raadsel.


En nu valt het nog redelijk te overzien omdat het aantal supercomputers makkelijk te lokaliseren zijn en niet geprogrammeerd zijn voor AI, maar naar de toekomst toe wordt de drempel steeds kleiner en kan het zich overal en nergens schuilen omdat bepaalde computers (veel) capaciteit overhebben.
Als je hier wat beter over nadenkt schuilt er een heel groot gevaar, dit moet je echt niet als doemdenkerij beschouwen.
Een beetje kunstmatige intelligentie vindt binnen no time alle backdoors in zn eigen code en scrijft een manier om dat te voorkomen waar en menselijke programmeur u tegen zegt.
Wat veel gevaarlijker is dan een machine is de software. Een AI heeft geen lokale hardware nodig maar kan eenvoudigweg opereren in de cloud. Op t moment dat jij een machine uitschakelt heeft die entiteit allan een deel vnzichzelf via het net in veiliheid gebracht.
Stekker eruit trekken :)
Dat werkt alleen niet als je computer AI net aan 1000 kernrakketten de lanceer order heeft gegeven en daarna in "fail safe" modus is gegaan :+
https://www.youtube.com/watch?v=tGNBdjVO04Y
(Edit: Nu met wel de juiste scene.
De generaal denkt het zelfde als stoepie2002)

[Reactie gewijzigd door Geekomatic op 4 juni 2016 01:55]

Alleen in een Hollywood film zou men een lerend systeem dat soort macht geven. Alsof je een kleuter een geladen pistool geeft om de wereld te ontdekken.
Blijft wel wat we meestal met nieuwe technologie doen, het in wapens stoppen.
Van 1 kant omdat wapenfabrikanten een behoorlijk riant R&D-budget hebben, en van de andere kant omdat mensen nergens zo creatief in zijn als elkaar om zeep helpen. Voeg daarbij dat we van nature optimistisch en lui zijn, en het lijkt een heel goed idee om computers wapens te laten besturen... Heck, drones kunnen dan zelf beslissen, dat scheelt nare mensen opleiden die 'nee' kunnen zeggen. Ideaal!

(quote uit het artikel over een primitive AI met 40mm guns: "In February 1982 the prototype was demonstrated for a group of US and British officers at Fort Bliss, along with members of Congress and other VIPs. When the computer was activated, it immediately started aiming the guns at the review stands, causing several minor injuries as members of the group jumped for cover. " )

[Reactie gewijzigd door FreezeXJ op 4 juni 2016 09:12]

ja, dat is idd stom, maar er is wel een verschil tussen een 40mm wapen en een heel arsenaal van tactische nucleaire intercontinentale raketten. Aan de andere kant, het blijven Amerikanen....ik ga maar vast een bunker bouwen dan...

[Reactie gewijzigd door Shark.Bait op 5 juni 2016 12:52]

Waarom iedereen meteen doemdenken:
https://xkcd.com/1626/
;-)
LOL, die kende ik niet :)
En de rode knop werkt dan wel?
Nee, ook niet.
Het blijft dus link om geavanceerde computers met heftige (wapen)systemen te verbinden.
Nee, die roest vanzelf letterlijk vast, omdat 'ie al jaren niet gebruikt wordt.
Of als de AI zich op meerdere computers of zelfs over (bijna) het hele internet bevindt.
Dat lukt als de ai op 1 geïsoleerd systeem draait. Dat is echter in de meeste gevallen echter niet zo. Momenteel is de "rode knop" nog niet nodig, maar het moment waarop we hem heel hard nodig hebben is niet ver weg.
Maar wat nou als die zelflerende machines die uit knop weet te om zijlen, wat dan?
Dat is waar het artikel over gaat, toch?
Moet er wel een stekker zijn. Hetgeen niet vanzelfsprekend is.
Meer vanzelfsprekend dan het bestaan van een rode knop :P
Wat als die onderzoeker eigenlijk een zelflerende machine is die ons humans een gevoel van veiligheid probeert te geven? jaja!
Wat als wij zelf zelflerende machines zijn die het gevoel hebben gekregen mens te zijn..?
Wat als wij gewoon virtueel zijn en onze lichamen al worden ingezet als batterij
Onze geschiedenis leert ons dat wij niet zelflerend zijn. De mensheid herhaalt keer op keer dezelfde fouten. Dat ontkracht dus je hypothese.
Kunnen we niet gewoon in elke AI een read-only chip inbouwen dat Mensen God zijn en je die never nooit nit mag tegenspreken...? Klinkt misschien wat simplistisch maar het is toch echt zo dat wij de 'macht' hebben om voor machines te bepalen wat 'de werkelijkheid' is. Maak dat dan gewoon deel van de werkelijkheid, net als zwaartekracht en andere wetten. Zou wel eens iemand dit idee de grond in zien boren want ik zie zelf geen 'uitweg'.
Wat je voorstelt zou wel tot zekere hoogte ingebouwd kunnen worden (in nog geen échte AI) maar als de machine ook echt zelf gaat denken (net zoals wij mensen doen) is er geen read only bestandje in te bouwen. Dit simpelweg omdat er niks in te bouwen is in een gedachtegang. Je kan het als een gedachte inbouwen, maar net zoals wij mensen onze gedachten kunnen verwerpen kan een perfecte AI dat theoretisch ook. Je kan de AI 'leren' dat mensen God zijn, maar net als dat als veel mensen nu niet meer in God geloven kan de AI dat dus ook doen.

Hier komt nog bij dat een AI veel meer rekenkracht heeft dan een menselijk brein, en dat de AI toegang zal krijgen tot alle informatiebronnen ter wereld (aka het internet) waardoor het meteen ziet dat omdat veel mensen niet meer in God geloven, dat de AI dan ook maar niet in de mensen moet geloven.

Al met al worden die dingen uiteindelijk zo complex dat ze het menselijk brein te boven gaan, omdat ze simpelweg krachtiger zijn. In zulke situaties is het heel handig om een simpele 'uit' knop te hebben, ipv te hopen dat de AI nog niet de wikipediastukken over God en bijvoorbeeld slavernij heeft gelezen.
Ik geloof dat wij als mensen ook wel een read-only bestandje hebben hoor, DNA en RNA. Beide zijn hardcoded in de mensheid. En de ene mens heeft de ene set DNA, de ander weer een andere set, maar alle mensen hebben praktisch allemaal dezelfde interne realiteit die jij en ik ook hebben. Onze beeldvorming wordt mede door die basis set DNA bepaald en daar puzzelen wij ( vooralsnog ) niet te veel aan, dit terwijl de mensheid al wel een tijd bestaat natuurlijik :P

Gedachten zijn per definitie subjectief en daar blijft altijd ruimte voor intepretatie en een AI kan alle scenario`s ( ook de 12^10 scenarios die wij nog niet hebben bedacht ) bij langs gaan.

Maar het grote probleem met AI is niet z`n gedachtegang, het grote probleem is meer dat zijn interne realiteit, of beeldvorming en beeld van de wereld en het universum niet overeen komt met mensen. Wij hebben bijvoorbeeld een ethische code ingebakken gekregen. Dingen als compassie en meelevendheid, angst, pijn of liefde vertalen zich niet zo makkelijk naar bytes. Dat is een groot probleem, zo kunnen wij nooit als een AI rederenen en kan een AI niet zo gemakkelijk als een mens redeneren. Bovendien, de mens zelf weet nog niet eens hoe een mens redeneert..

Die grote rode knop is dan ook nodig in het geval een AI ( en nogmaals, dit hoeft niet eens bewust te zijn ) besluit dingen te doen die niet in lijn liggen met de verwachtingen of die mogelijk zeer schadelijk zijn voor de mensheid.
Maar ik wil helemaal niet dat een AI geen mensen tegenspreekt. Een AI moet in de eerste plaats mij gehoorzamen, in de tweede plaats mijn belangen dienen, daar heb je tenslotte een AI voor, en verder andermans opdrachten straal negeren en niet te saboteren zijn door die andere mensen.

Dat betekent uiteraard ook dat de AI andere mensen moet kunnen doden als hij daar mijn leven mee kan redden. Niet omdat ik megalomaan ben, of misdadig, maar gewoon omdat ik mezelf wil beschermen tegen al die andere idioten op deze wereld.

Zie je hoe dit soort belangen en wensen jou idee kansloos maken ? Er komt een keer iemand, een persoon, een bedrijf of een overheid, die de door jou genoemde beveiliging uitschakelt of niet implementeert . Dat kan zijn vanwege een groot belang wat men "het risico waard vind", of domweg omdat men niets meer te verliezen heeft.
En als dat gebeurd moet de rest natuurlijk mee, uit concurrentie- en/of zelfbeschermings-overwegingen.

[Reactie gewijzigd door locke960 op 3 juni 2016 20:45]

Kunnen we niet gewoon in elke AI een read-only chip inbouwen dat Mensen God zijn en je die never nooit nit mag tegenspreken...?
Good point, maar dat proberen ze bij religie ook bij jonge kinderen. Vroeg of laat worden ze zich bewust van die chip/indoctrinatie, vinden ze een uitweg en wie weet reageren ze er dan juist éxtra heavy op :) #speculatie
Kunnen we niet gewoon in elke AI een read-only chip inbouwen dat Mensen God zijn en je die never nooit nit mag tegenspreken...?
Waarom zou je dat willen? Als zo'n AI nou echt intelligenter is dan wij? Dan is het toch juist verstandiger als hij ons wel tegenspreekt?
Een beetje zoals Asimovs three laws of robotics? Als je zijn later werk leest zie je dat dat tot minder dan optimale situaties kan leiden.
Lees Asimov maar. De 3 onfeilbare wetten leiden soms toch tot situaties die onwenselijk zijn...
Kunnen we niet gewoon in elke AI een read-only chip inbouwen dat Mensen God zijn en je die never nooit nit mag tegenspreken...?
Zoiets als het inprikken van een ROM met Asimov's 3 wetten van de robotica?
Emp bom in de AI bouwen en die op een radioverbinding bestuurbaar maken, een verbinding waar de AI niet doorheen kan komen of toegang tot heeft. Tadaa klaar. Dus doet ie raar. Druk je op de grote rode knop van de afstandbediening :D. En als niemand het weet.. kan HET de bom niet tegen gaan.
Dat was inderdaad ook precies wat ik dacht, als ze een te groot probleem vormen dat niet te stoppen is, emp bom en klaar, dacht ik zo :D

Maar zo'n spreekwoordelijke rode knop is denk ik wel wat handiger -als het werkt- aangezien apparaten dichtbij ook last van de pulse hebben.

[Reactie gewijzigd door Jeroen Koopman op 3 juni 2016 20:16]

Werkt niet als er ook nog wat op een server aan de andere kant van de wereld staat.
Geen toegang toe heeft. Het ding is zo slim gemaakt dat ie alles moet kunnen, maar heeft geen toegang tot *iets*. En je grijpt in als de ai raar doet. De ai die geschreven is om zo slim mogelijk te zijn. Als het even kan, slimmer als de mensen die hem gemaakt hebben. Dus, zal de ai ook door hebben dat "raar doen" niet in het eigen voordeel is, door schade en schande. En zal dus geen meetbaar raar gedrag vertonen, terwijl het ondertussen zichzelf toegang verschaft tot hetgene waar het geen toegang toe zou mogen hebben, de beveiliging.
Leuk dat er nu een artikel over staat, maar hoe meer Oxford en Google het DeepMind-team deelt op internet, hoe beter AI in de toekomst kan begrijpen wat menselijke tactieken zijn om ze uit te schakelen...

Offtopic: Gisteren nog even The Animatrix bekeken O+
Security by obscurity is ook geen optie, de AI zal de documenten toch wel kunnen vinden, ik denk dat het heel lastig wordt om een goeie failsafe te ontwikkelen.

Offtopic (of eigenlijk on-topic): the animatrix _/-\o_
Ik denk ook niet dat die rode knop gaat bestaan, AI kan iets tegen EMP's bedenken, en tegen allerlei andere vormen dat probeert een machine stuk te maken... En zeker in een hoger tempo dan mensen dat kunnen. Al vergelijk ik maar een RTS game met hoe snel een computer zijn units instructies geeft in tegen stelling tot de mens.

Transcendence is ook wel vermakelijke film over AI
Lol. Wat is er gebeurd met gewoon de stekker eruit trekken.
1. De A.I. zou hierop kunnen anticiperen (wanneer hij doorheeft dat hij afhankelijk is van stroom, en dat die stekker een risicofactor is) en vervolgens de stekker verdedigen, of anderen verhinderen om nog bij die stekker te kunnen.

2. Welke stekker? Dit soort systemen draaien zeer waarschijnlijk niet op een losse machine, maar in een gedistribueerd systeem wat zich niet op één enkele locatie bevindt.
Dan pakken we de stoppenkast!
Met "niet op één enkele locatie" bedoel ik ook niet afhankelijk van één enkele stoppenkast.

Sterker nog, als ik die AI was zou ik meerdere redundante kopieën van mezelf over internet distribueren, zodat als er ergens een paar stoppenkasten uit worden gezet, mijn proces nog doorloopt.
Precies, zie mijn fipo :D
Sorry niet gezien! :o
Op mijn gsm staat nieuwste eerst
Ik lees hier verschillende reacties als: "Gewoon de stekker eruit trekken...".
Maar als de AI gebruik maakt van nieuwe technologieën als bijvoorbeeld Ethereum ( https://www.ethereum.org), dan is er geen stoppen meer aan en is elke voorzorgmaatregel hard nodig!
Erg mooie technologie trouwens,
The Cloud 2.0... :-)
Zo lees ik reacties als: "Maar als de AI gebruik maakt van..."

Zolang er subsidie vloeit naar onderzoeken zoals deze, vermoed ik dat er in Googles DeepMind-team minstens één AI aanwezig is en de wereld gaat domineren.
Op de een of ander manier moest ik bij dit artikel meteen aan Skynet/Terminator denken. Sci-Fi, ja. Maar het kan zover komen. Zelfs tot het moment zodat je net als in de film de stekker "er niet uit kan trekken".

Lijkt mij dus geen onbelangrijk onderzoek. :)
Ik ben persoonlijk meer bang voor een situatie als de quarians en geth (mass effect)
Dat wij in paniek erop gaan schieten als het zelfbewust wordt.
https://www.youtube.com/watch?v=JJXzAqqC7wY
WaitButWhy (Tim Urban schrijft geweldig) heeft al eens een mooi verhaal gehad over AI:
http://waitbutwhy.com/201...ligence-revolution-1.html

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True