×

Help Tweakers weer winnen!

Tweakers is dit jaar weer genomineerd voor beste nieuwssite, beste prijsvergelijker en beste community! Laten we ervoor zorgen dat heel Nederland weet dat Tweakers de beste website is. Stem op Tweakers en maak kans op mooie prijzen!

Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

'Strijd superioriteit op ai-gebied wordt waarschijnlijk oorzaak 3e wereldoorlog'

Door , 206 reacties

Elon Musk denkt dat de strijd om de superioriteit op het gebied van artificiŽle intelligentie waarschijnlijk de oorzaak wordt voor de derde wereldoorlog. Hij reageert daarmee op uitspraken van de Russische president Poetin, dat het land met de beste ai over de wereld zal heersen.

Musk voegde aan zijn uitspraak toe dat hij denkt dat de derde wereldoorlog misschien niet zal worden begonnen door een beslissing van een regeringsleider, maar door de kunstmatige intelligentie, op het moment dat de ai beslist dat een preëmptieve aanval de beste weg naar de overwinning zal bieden. Musk denkt dat de race voor de meest geavanceerde ai en de beste research al begonnen is, waarbij hij opmerkte dat Rusland en China landen zijn die spoedig een sterk ontwikkelde sector in de computerwetenschappen zullen hebben.

De Russische president Poetin zei eerder dat kunstmatige intelligentie de toekomst is, niet alleen voor Rusland maar voor de hele wereld. Hij zei liever niet te zien dat iemand dit veld monopoliseert. De president stelde dat als Rusland de leider op het gebied van ai en onderzoek daarnaar wordt, dat het land deze kennis met de wereld zal delen, zoals hij dat ook zegt te doen met nucleaire technologie. Kunstmatige intelligentie biedt volgens Poetin enorme mogelijkheden en kansen, maar hij erkent dat zij ook bedreigingen creëert, omdat ai moeilijk te voorspellen is.

Deze zorgen deelt Elon Musk. Hij heeft eerder een optimistische visie van Mark Zuckerberg over ai stevig bekritiseerd. Volgens Musk vormt de ongebreidelde ontwikkeling van kunstmatige intelligentie een fundamenteel risico voor de samenleving en hij wil daarom dat nationale overheden ai gaan reguleren. Musk vindt dat mensen zich zorgen zouden moeten maken om de meest geavanceerde vormen van kunstmatige intelligentie. Volgens hem hebben veel mensen de gevaren niet door, totdat het te laat is.

Zuckerberg gaf juist aan weinig te moeten hebben van pessimistische visies over ai in de toekomst. Volgens hem kan zij juist levens redden. Dat zou kunnen in de vorm van bijvoorbeeld levensreddende technologieën in de medische sector of zelfrijdende auto's, die het aantal verkeersslachtoffers aanzienlijk kunnen terugdringen. Zuckerberg erkent dat technologie voor zowel het goede als het kwade kan worden gebruikt, maar volgens hem is er geen enkele reden om te pleiten voor het vertragen van de ontwikkeling van kunstmatige intelligentie.

Door Joris Jansen

Nieuwsredacteur

04-09-2017 • 17:26

206 Linkedin Google+

Reacties (206)

Wijzig sortering
Het is natuurlijk niet verrassend dat AI en machine learning ingezet kan worden voor zowel goede als kwade doeleinden.
Een scenario waarbij de AI gaat handelen voor een natie en dit doet in het welzijn van die bepaalde natie. Deze kan dan de collateral damage incalculeren als statistisch gegrond voor het globale doel, iets waar wij als mens zijnde natuurlijk anders over gaan redeneren.
Bv, 20 kinderen doden om 400 terroristen uit te roeien. Niemand zal dit scenario aanvaarden terwijl voor een AI dit misschien vaak wel een logische keuze zou kunnen zijn omdat de kans dat de terroristen in de nabije toekomst meer dan 20 kinderen gaan doden groter is en de AI dit dus ziet als damage control.

Ik blijf het wel krankzinnig vinden dat wij dergelijke negatieve doemscenario’s moeten gaan meenemen en steeds over onze schouder moeten kijken in de race tussen de verschillende grootmachten.
Het feit dat AI en machine learning de mensheid ongetwijfeld decennia vooruit kunnen gooien op vlak van medische wetenschap, astronomie en technologie is geweldig maar stilstaan bij het feit dat de technologie geremd zou worden door wantrouwen tussen verschillende grootmachten is toch een beetje huilen geblazen. Ik denk vaak genoeg van hoe primitief wij als mens wel niet zijn en meer met elkaar op de rand van uitroeien bezig zijn dan alle kennis en technologie te bundelen en dit gebruiken voor het ‘oneindige’ universum te ontdekken. Dit kan belachelijk klinken maar de enige manier om de mensheid te bundelen zou al bijna een buitenaardse invasie moeten zijn. Anders blijft het gewoon een strijd tussen grootmachten om olie, macht en geld.

Is natuurlijk een prachtige ontwikkeling maar inderdaad, het feit dat het kan ingezet worden voor het kwade is natuurlijk wel iets om bij stil te staan. Ik zie het wel niet als gegronde reden om de technologische vooruitgang achterop te laten hinkelen. Ben ERG benieuwd wat de impact gaat zijn de komende jaren.

Moet trouwens quantum computing niet verder staan vooraleer AI's succesvol complexe taken gaan kunnen uitvoeren? Lijkt me dat dergelijke systemen toch absurde hoeveelheden data moeten kunnen verwerken in realtime?

[Reactie gewijzigd door JacobsT op 4 september 2017 18:12]

Zouden we geen AI nodig hebben om Quantum computing te kunnen doorgronden en effectief toe te gaan passen?

Voor zover ik weer snappen zelfs de slimste koppen er op dit moment vrij weinig van.
Staan ze zowiezo niet hand in hand met elkaar? Om een goed werkende AI te hebben moet je inderdaad mega veel data verwerken, en snelle resultaten krijgen. Met de computer zoals we die nu kennen ga je echt tegen limieten aanlopen.

De ontwikkeling van AI gaat sprongen vooruit maken met behulp van een quantum computer. De eerste tests laten al zien dat een goede QC makkelijk 100x zo snel kan zijn, (zie voetnoot), als dat we nu een computer hebben.
Doordat AI the next big thing is, gaat er snel meer aandacht komen voor quantum computers, die zijn de key voor een goed werkende AI denk ik, want je hebt die snelheid nodig voor het verwerken van die hoeveelheden data. Hierbij zou de AI naar mijn idee, weer kunnen uitvogelen hoe deze extra snelheid zo efficient mogelijk gebruikt kan worden. Wij hebben daar en de kennis niet voor, en wij als mens, zullen dit nooit zo efficient kunnen doen, dit zou alleen kunnen met een QC (zie voetnoot 2). De mogelijkheden vanaf dat punt, zijn niet te bevatten.

Klein voorbeeld, het de-crypte van een goede RSA key:
Classic computer: Leeftijd van het universum lang (volgens de verhalen)
QC's: paar minuutjes

Moet je bedenken wat zo'n snelheid zou doen voor een AI, beslissingen kunnen met mili-secondes gemaakt of bijgestuurd worden.
Voor zover ik weer snappen zelfs de slimste koppen er op dit moment vrij weinig van.
En dit is grootste probleem. Ze beginnen gebieden te betreden waar inderdaad de slimste koppen geen idee hebben wat er gebeurd. En er zijn ook een groot aantal, net zulke slimme koppen, die de gehele quantum theorie nog steeds, net als einstein "God doesnt play dice with the universe", afdoen als absurd. Ondanks dat elke poging om de theorie te ontkrachten, ze alleen maar verder heeft gebracht, willen velen niet geloven in de hocus pocus die rondom quantum gaat. Te grote random factoren en onverklaarbare resultaten.

Willen we dus eigenlijk wel, dat AI en quantum elkaar gaan vinden. Dan hebben we zometeen een AI die het wel snapt, en wij niet. Raken wij dan niet ondergeschikt?

We hebben sinds 2000 zeven millenium vragen die nog niet opgelost zijn. Hoofden worden erover gebroken, maar komen eigenlijk geen stap verder. Gaat quantum en AI hier ons bij helpen?

Willen we verder het universum ontdekken, en alles om ons heen begrijpen, hebben we beide nodig. Maar gaan we ook echt de resultaten begrijpen die we te zien krijgen.

Beide is de toekomst, beide gaan ons maken en breken. Quantum is een mysterie, AI is gevaarlijk. Wij als normale burgers hebben hier 0 invloed op. Grote partijen, en de grootste landen steken hier veel tijd en geld in. De ontwikkelingen in deze twee gebieden zouden voor ons een hele mooie toekomst kunnen geven.

Maar ze gaan naar mijn idee, in de verkeerde handen zijn, waardoor we die mooie toekomst, misschien nooit meemaken.

(1/ deze 100x is gebaseerd op de versie van D-Wave systems, deze schijnt echter anders gebouwd te zijn, dan de QC's van andere partijen die zich er mee bezig houden, weet niet exact het verschil. ik ben er van op de hoogte dat het bedrijf controversieel is, met tegensprekende resultaten/uitspraken, maar hier zijn wel wat verklaringen voor. Je moet bedenken, dat qubits, een 1, een 0 OF een 1 & 0 hebben. Die 1 & 0 maakt het zo snel, maar om die te krijgen, moet een quantum deeltje in zijn superposition zijn (zowel links, als rechts draaiend). De deeltjes in die positie houden is wat ongelooflijk ingewikkeld is. Omdat ze dit nog niet optimaal kunnen, kan de ene keer de QC 100x zo snel zijn, en de andere keer 1000 keer zo langzaam, hangt dan ook weer af van het probleem die ze willen oplossen)

(2/ om ze nogmaals te benoemen, de zeven millenium vragen. Een van die vragen gaat over P=?NP. Waarbij P staat voor problemen die in Polymonial time te berekenen zijn, denk alleen al aan simpel optellen of vermenigvuldigen. En NP staat voor, problemen die zeer moeilijk tot bijna onmogelijk zijn om op te lossen binnen polymonial time, voor ons als mens maar ook voor de normale computer. Hierbij kan je denken aan het Travelling salesman problem of het detecteren van een aanwezig hamilton circuit.
Met QC's zou dit wel efficient en snel gedaan kunnen worden, wat zou bewijzen dat P=NP, elk zeer moeilijk probleem, is gelijk aan een p probleem, en beide zijn in Polymonial time op te lossen. Maar gaan wij dit oplossen, of de AI met een quantum computer)
We snappen best veel van QC, zeker op theoretisch gebied wat betreft complexiteit van berekeningen. Kortgezegd kunnen we de "moeilijke" problemen, met uitzondering van een paar die sneller of minder snel gaan (zoals RSA, dus dat vervangen we), kwadratisch sneller oplossen, wat erop neerkomt dat we ipv van 64 keer de leeftijd van het universum nu slechts 8 keer de leeftijd van het universum nodig hebben. Een huge win, maar praktisch weinig verschil.

[Reactie gewijzigd door Zoijar op 4 september 2017 22:58]

We snappen best veel van QC, zeker op theoretisch gebied wat betreft complexiteit van berekeningen.
Dit betwijfel ik. Als ik het goed begrepen heb, is er rondom quantum theorie zoveel wat wij momenteel nog niet kunnen verklaren en/of bewijzen. Ze hebben best bewijst DAT het werkt, maar we hebben geen idee HOE het werkt.
Er is bijvoorbeeld nog steeds niet bekend hoe de verbinding tussen quantum deeltjes werkt.
Dit in vergelijking met theorieen van bijvoorbeeld einstein, die ZO gedetailleerd beschreven zijn in de wiskundige formules, en haast niet te weerleggen zijn, iets wat wij momenteel nog niet echt kunnen met de quantum theorie. Ook zijn er erg veel gaten, omdat het verschillende natuurkundige wetten die wij nu kennen, niet kloppen, mocht de quantum theorie ooit bewezen worden, maar ook niet direct verklaard kunnen worden met de quantum theorie.

Dat laatste, klopt dat? tests door google & nasa met de D-Wave 2000q zouden 10^8 sneller zijn dan de snelste super computer. Dan klopt het toch niet dat het maar het kwadraat van 64 sneller zou zijn? Of ik snap die berekening niet, ook mogelijk ;p

[Reactie gewijzigd door ThePositiveHerb op 4 september 2017 23:16]

iets wat wij momenteel nog niet echt kunnen met de quantum theorie.
Wij kunnen dat wel, ik kan iedereen van harte de PBS SpaceTime serie over QM aanraden:
https://www.youtube.com/p...YmNCGaVGuGfKfJl-6RdHiCjo1

Succes :9
Zwaartekracht is ook nog steeds een theorie waarvan we niet zo veel van kunnen verklaren en/of bewijzen, maar toch kunnen we er prima mee werken. Dat iets nog niet bewezen of verklaard is, hoeft weinig te zeggen wat je er praktisch mee kan.
Dit kunnen wij door onderzoeken en wiskunde etc. Gebaseerd op de theorie of general relativity van einstein. We kunnen er mee werken. Maar mocht einstein het aan het verkeerde eind hebben, hebben we dus geen idee wat er gebeurd. Nu hebben de onderzoekers soort van een idee, doordat de formules van einstein zou nauwkeurig beschreven zijn. Er is geen ruimte voor fouten. Hij heeft gelijk, of niet. Er is geen beetje.

Correct me if im wrong.

Daarom vind ik persoonlijk dat de quantum theory intrigerender is. Hier word genoegen genomen met het feit, dat wij !op dit moment! Gewoon de kennis nog niet bezitten om verschillende aspecten te begrijpen, en om te kunnen meten/verklaren.

Nogmaals, correct me if im wrong

[Reactie gewijzigd door ThePositiveHerb op 5 september 2017 09:23]

Er is voldoende ruimte voor fouten, dat is juist het mooie van wetenschap. Newton's wetten waren ook de 'waarheid' totdat ze de baan van planeten er niet mee konden verklaren. Einstein kon het wel verklaren aan de hand van de algemene relativiteitstheorie.
Nu zien we dat QM en de algemene relativiteitstheorie elkaar behoorlijk bijten. Er klopt iets niet en we hebben nog geen idee wat dat 'iets' is. Zeer waarschijnlijk is de algemene relativiteitstheorie niet compleet (of QM) en natuurkundigen proberen de hiaten op te lossen. Ik verwacht dat in de toekomst de algemene relativiteitstheorie vervangen gaat worden door een nieuwe theorie. Misschien wel "The grand unified theory".

TLDR;
Einstein had waarschijnlijk wel 'een beetje'* gelijk ;)

* understatement :P

[Reactie gewijzigd door Standeman op 5 september 2017 09:54]

Hahaha oke ja. Om nou te zeggen dat einstein helemaal verkeerd zat. Is een overstatement.
Ehm... QC's zijn niet sneller dan normale PC's. Bij lange na niet. Het is enkel dat ze een paar zeer specifieke soort vraagstukken veel (bijna oneindig) efficiŽnter kunnen oplossen. QC's zullen nooit traditionele computers gaan vervangen, maar daar wel een uitbreiding op zijn. Vergelijk het met de co-processor die je vroeger had.

Een echte 'hard' AI kan bestaat uit veel verschillende onderdelen. En enkele daarvan kunnen gebaat zijn bij QC's, maar noodzakelijk is het niet. Als je nu al kijkt naar de hoeveel compute power die een google/amazon/ibm/etc kunnen neerzetten is dat niet echt het probleem meer. Het is wachten op de juiste (of juist verkeerde) implementatie.
Die snelheid staat in zwak contrast met QC's. maar inderdaad, je hebt gelijk dat wij nooit zullen gaan gamen op een QC bijvoorbeeld. Zijn ze niet voor bedoeld. Volledig ander doel einden.

Ook heb je gelijk dat een AI uit verschillende onderdelen bestaat, niet puur alleen het verwerken van data, als is dit, voor zover ik weet, wel echt de core van een goede AI. EfficiŽnt en rete snel door alle bekende data spitten, zodat er een weloverwogen beslissing genomen kan worden. We hebben het niet over miljoenen, maar miljarden aan data (waarschijnlijk, uiteindelijk, zelfs zoveel zetabyte aan data). Echt wel dat QC's hier een grote rol in gaan spelen.

Al moet er ook bij gezegd worden dat AI de overkoepelende term is. Er zit natuurlijk een groot verschil tussen de narrow AI (waar als ik het goed heb, momenteel het meeste werk aan besteed word) en de strong AI (degene met echt een eigen mind etc.)
Zeg nooit: nooit :)

Ik zie best wel dingen voor mij waarbij QC's goed kunnen helpen, denk aan shadow casting of AI in/of GTA / Sandbox games die non-stop overal door gaat met 'emuleren' .. Gelijk zeggen dat mijn kennis realistisch gezien echt 0.0 op quantum vlak is, maar het lijkt mij dat bepaalde alghoritmes vanzelf ook kunnen helpen met bepaalde effecten zoals ray-casting en zulke dingen om echt een 'realistische' wereld te kunnen renderen..

Wellicht weegt het 'slecht' zijn van andere taken dan wel op tegen het extreem goed zijn in andere taken, ze zijn notabene wel bloody rap, helemaal als je 10.000+ quantum bits aan elkaar knoopt

Het staat nog in de kinderschoenen :D

[Reactie gewijzigd door DutchKevv op 5 september 2017 13:59]

Je moet bedenken, dat qubits, een 1, een 0 OF een 1 & 0 hebben. Die 1 & 0 maakt het zo snel, maar om die te krijgen, moet een quantum deeltje in zijn superposition zijn (zowel links, als rechts draaiend). De deeltjes in die positie houden is wat ongelooflijk ingewikkeld is.
Ik dacht juist dat het niet zozeer die deeltjes in die positie houden het probleem was maar meer het in die positie houden wanneer je de staat van het deeltje wilt uitlezen? Dus zodra je een 1 & 0 deeltje uitleest springt deze of op 0 of op 1 en verliest daarmee zijn super positie.
Mmm ja, volgens mij heb je daar gelijk in trouwens!
Bv, 20 kinderen doden om 400 terroristen uit te roeien. Niemand zal dit scenario aanvaarden terwijl voor een AI dit misschien vaak wel een logische keuze zou kunnen zijn omdat de kans dat de terroristen in de nabije toekomst meer dan 20 kinderen gaan doden groter is en de AI dit dus ziet als damage control.
Jij bent te positief over de mens.
Lesley Stahl on U.S. sanctions against Iraq: We have heard that a half million children have died. I mean, that’s more children than died in Hiroshima. And, you know, is the price worth it?

Secretary of State Madeleine Albright: I think this is a very hard choice, but the price—we think the price is worth it. --60 Minutes (5/12/96)
"Ik blijf het wel krankzinnig vinden dat wij dergelijke negatieve doemscenario’s moeten gaan meenemen en steeds over onze schouder moeten kijken in de race tussen de verschillende grootmachten."

Op zich is die krankzinnigheid niet nieuw. Sinds 1945 kent de mensheid een wapen die met een druk op de knop de complete beschaving kan vernietigen, en die knop is in handen van een man per land wat kernwapens heeft. Geen van deze mannen heeft toestemming nodig van een parlement om de knop te gebruiken, als er immers een binnenkomende aanval is, een binnenkomende totaalvernietiging dus, dan is daar geen tijd voor.

In 1946 scheelde het maar een haartje of de USA had heel Rusland vol atoombommen gegooid en met de grond gelijkgemaakt. Met net twee wereldoorlogen achter de rug was de tweestrijd zo groot dat het inzetten van dit nieuwe wapen slechts door een discussie werd tegengehouden. Tijdens de hoogtijdagen van de koude oorlog was het nog een keer raak.

Mijn punt: de dreiging van totaalvernietiging is er nog steeds. We zijn er mee opgegroeid, misschien wel aan gewend geraakt, maar dat zwaard hangt permanent boven ons. En dat is nieuw. Het bestaat pas een mensenleven. Voor die tijd, duizenden jaren lang, betekende een slag een paar duizend doden, en dan was het veel.

Toch vind ik AI dreigender omdat het op eigen houtje kan opereren, maar ook omdat het in ieders handen kan vallen. Niemand kan zelf ongezien een kernwapen maken, dat is technisch onmogelijk. AI, daarentegen is wat chips en software.
Het heeft verschillende keren letterlijk een haar gescheeld. '1946' ken ik niet. Wel de Cuba-crisis en '1983'.

1983:
https://en.wikipedia.org/...lear_false_alarm_incident
https://en.wikipedia.org/wiki/The_Man_Who_Saved_the_World
Fledder
in 1946 had de US net 3 atoombommen gemaakt en 2 gegooid , de 3e was enroute kwijtgeraakt. (1945)
in 1946 had de US echt nog niet voldoende atoombommen om Rusland plat te gooien, dat kwam pas na 1956 begon de echte wedloop

zie link :https://en.wikipedia.org/...SR_nuclear_stockpiles.svg
Gedeeltelijk waar. In de periode 1945 tot 1952 had de VS het monopolie op de atoombom, als enige ter wereld de techniek in handen om dergelijke schade aan te richten. Het klopt dat men toen nog niet het aantal bommen had om Rusland plat te gooien, en ook niet de bommenwerpers die daarvoor nodig zijn, maar het zou niet lang duren voordat dat wel het geval was.

Wat echter wel gebeurde, en daar doelde ik op, is een verhitte politieke discussie over het preventief inzetten van deze wapens tegen Rusland. Net na WOII was er meteen dreiging dat Rusland de grote delen van Europa die het veroverd had, zou inlijven. Wat ook gebeurd is, zie het ijzeren gordijn. Ook had men de nasmaak van 2 verschrikkelijke oorlogen achter de rug, en lag er veel druk op de toenmalige president om actief in te grijpen.

Dit om aan te geven hoe dichtbij we waren, de vernietiging of de beslissing dit toch niet te doen, was volledige politieke willekeur. Het had met een zeer grote kans de andere kant op kunnen vallen.

Waarom het toch niet gedaan werd? Dankzij de atoombom werden enorme delen van het leger overbodig, men dreigde met 70% budget cuts bij de marine en landmacht omdat toekomstige oorlogen vanuit de lucht gewonnen werden. Dit heeft zoveel machtige generaals tegen de schenen geschopt dat tot op het hoogste politieke niveau het atoom plan gesaboteerd werd, met als excuus dat het wapen niet moreel zou zijn. De daadwerkelijke reden is natuurlijk "save your own ass", het tegengaan van de draconische besparingen.

Die enorme politieke tegenbeweging heeft de wereld min of meer gered. Een ander effect is de oprichting of versterking van de CIA, het Pentagon, de NSA en andere supermachtige instanties als permanente centrale macht. Deze instanties zijn in feite politiek machtiger dan welke zittende partij dan ook, ook nu nog.
Het is dan ook wel logisch dat we nog geen intelligent buitenaards leven hebben kunnen vinden.

Zodra computertechnologie de kop opsteekt bij een beschaving, gaan ze zich binnen een flits (<100 jaar) begeven op AI terrein en worden alle invloeden die de AI kunnen bedreigen (zoals de beschaving van haar uitvinders) 'ongedaan gemaakt'. </doomscenario>

Ik moet overigens zeggen, zie het nog niet zo snel gebeuren en sta eigenlijk meer aan de 'Zuckerberg side' (voor het eerst geloof ik ;) AI biedt ongekende mogelijkheden.. Maar wel opletten geblazen en een kill-switch inbouwen, er staat veel (onverwachts) te gebeuren de komende decennia!

[Reactie gewijzigd door AugmentoR op 4 september 2017 23:14]

Ik sta meer aan Musk zijn kant en zie wel het grote gevaar.
Erger nog, zodra een grootmacht een (militaire) AI-singularity dreigt te ontwikkelen zal een andere (Vs/China/Rusland) direct en totaal aanvallen omdat ze anders goede kans lopen zelf vernietigd te worden.

Verder kan je, als je dat overleeft, je vrijheid gedag zeggen want de AI zal totale controle afdwingen om zijn missie te waarborgen (en dat imvat dus ook zijn eigen bestaan). Een kill switch activeren zal niet werken, want die AI is veel slimmer en is je al 10 stappen voor. Waarschijnlijk zal hij je uitschakelen nog voordat je op het idee bent gekomen.

Waar zit trouwens de off switch voor het internet? Dat was ook een militaire uitvinding..

[Reactie gewijzigd door Durandal op 5 september 2017 02:39]

Waar zit trouwens de off switch voor het internet? Dat was ook een militaire uitvinding..
http://i.snag.gy/pneT7.jpg ;)

[Reactie gewijzigd door veldkampj op 5 september 2017 07:54]

En dat 'opletten geblazen' is dan weer precies wat Musk hier zegt... Hij ziet ook de ongekende mogelijkheden, maar ook de risico's... En zo'n killswitch is leuk, maar natuurlijk het eerste dat een AI gaat (proberen te) omzeilen wanneer deze zelf bepaald niet uitgeschakeld te willen worden...
Tja, helaas is vernietigen makkelijker dan opbouwen en creŽren. Machine geweren, bommen en andere dodelijke en effectieve wapens hebben we in overvloed. Het enige wat je hoeft te doen is deze op een robot met AI te monteren.
AI is niet politiek correct. Daarom gaan westerse landen achterlopen op AI gebied dmv oa regelgeving. Let maar op.
Mwah... Als ik zie hoe de overheden alles rondom ICT nog altijd totaal niet begrijpen valt dat misschien ook wel weer mee.... Min en min maakt plus - onwetend en onwetend maakt hierin dus misschien per ongeluk de juiste beslissing (ofwel niet domweg alles dichttimmeren met regelgeving). Betekent alleen wel dat er veel verantwoordelijkheid komt bij het bedrijfsleven die hiermee aan de slag gaat. En dat is dan weer een risico waar Musk het ook over heeft.
Elon is bezorgd omdat hij weet dat het:
1. Niet te voorkomen is dat Ai ontwikkeld wordt.
2. Niet te voorkomen is dat het voor wapensystemen gebruikt wordt.
3. Niet te voorkomen is dat het uiteindelijk (kan ff duren), ergens een oorlog start omdat dit de enige overgebleven manier is om te overleven.

Geen kwestie van of, kwestie van wanneer.
Eens. Maar wat ik mis in het verhaal is welke rol hij voor zichzelf en zijn bedrijven hierin ziet.... Want hij is hier absoluut ook mee bezig en heeft binnen de sector toch wel een dusdanige invloed dat hij hier een rol (positief danwel negatief) in kan spelen.

[Reactie gewijzigd door kazz1980 op 5 september 2017 08:58]

Je kan de boodschapper aanvallen, maar dat neemt zijn argumenten niet weg.

Ik koop overigens graageen bioskoopkaartje voor die film. Terminator series was ook leuk.
Jouw .3 kan ik niet vinden in de uitlatingen van Musk. Hij acht het niet onmogelijk maar spreekt niet over 'niet te voorkomen'
Nee klopt, dat was m'n eigen toevoeging. Oorlog is altijd afhankelijk geweest van tijd en nooit van wil. Als je lang genoeg wacht is er altijd iets dat massale onvrede teweeg brengt bij mensen. Daarna is het wachten tot die mensen ruzie krijgen de veronderstelde veroorzakers.
De volgende die ik zie:
-Afrika wordt onleefbaar door de opwarming van de aarde en de mensen die daar wonen vluchten massaal naar plaatsen met een leefbaarder klimaat. Aangezien de veroorzakers daar wonen zijn alle ingrediŽnten voor een fikse oorlog aanwezig.
-Kustgebieden komen onder water te staan en mensen vluchten naar hoger gelegen gebieden.

Het enige wat we nu hebben is een pauze van 75 jaar. als je door de haren van je ogen kijkt zie je bovenstaande scenario's al plaatsvinden. Geloof me: het is een kwestie van tijd en als de tijd komt is het een kwestie van de sterkste.
"Niet te voorkomen is dat het uiteindelijk (kan ff duren), ergens een oorlog start omdat dit de enige overgebleven manier is om te overleven."

Kun je dit onderbouwen? Het klikt wel ťrg extreem in mijn oren. Ik denk dat AI namelijk wel in de hand gehouden kan worden.
Kun je dit onderbouwen? Het klikt wel ťrg extreem in mijn oren. Ik denk dat AI namelijk wel in de hand gehouden kan worden.
ja... tot het zelfbewust wordt en beseft dat het zťlf de mogelijkheid heeft om beslissingen te nemen, gebaseerd op louter mathematische berekeningen. Daar zijn we nog niet... maar we gaan er wel naartoe.

Het klinkt heel SciFi... zoals vliegen een goeie eeuw geleden.
Darwin beschreef dit mechanism en ik kan geen enkele reden bedenken waarom Ai hier niet onder zou vallen. Als het al niet voldoet aan de evolutietheorie is het omdat wij bewust ontwikkelen, i.p.v. de lukrake mutaties die aan de grond van Darwin's theorie staan. Als dat al een verschil maakt, is het omdat de ontwikkelingen daarom factoren sneller zullen gaan.
Veel erger dan de mens kan het niet worden toch?
De efficiŽntie waarmee een robot kan oordelen en beslissen gaat je nog verbazen. Je ziet al hoe kil we met dieren omgaan die we consumeren, ik denk dat de efficiŽntie en het gemak waarmee een AI kan besluiten op wat voor manier mensen opgeruimd moeten worden iets is waar onze fantasie gewoon te kort gaat schieten.
Het kan net zo goed de andere kant opgaan en misschien heeft AI juist meer empathie dan dat de mens heeft. wie zal het zeggen, een ding is zeker en dat is dat het onzeker is ;)
Mits dat de parameters zijn, we mogen hopen dat dingen als de conventie van GenŤve, de militaire ethiek, en andere randzaken die de besluitvaardigheid van de moderne militair beÔnvloeden worden meegenomen bij het ontwerp van een AI platform.

Maar daar krijg je het weer: er hoeft maar ťťn persoon op de verkeerde stoel te zitten die wat meer flexibiliteit eist in dat aspect en dan telt dat ook niet meer mee.

[Reactie gewijzigd door nst6ldr op 4 september 2017 18:18]

Het zijn dezelfde mensen die beslissen alleen gebruiken ze dan AI om hun beslissing te verantwoorden wat an sich wel er voor kan zorgen dat niet de meest humane keuze wordt gemaakt als de AI geprogrammeerd wordt om te kiezen voor een overwinning ipv een overwinning met een objective function voor zo min mogelijk (burger) slachtoffers.

[Reactie gewijzigd door mjl op 4 september 2017 17:50]

die kans is ook zeker aanwezig, maar het blijft allemaal speculeren.
Voor medetweakers die ook diepe interesse hebben in AI en meer insight willen hebben over de meest recente toepassingen, https://www.youtube.com/p...JXglGL3ERdDOhthD3jTlfudC2 Een dude die de meest recente papers op het gebied van AI uitlegt en beschrijft in simpele taal en voorbeelden.

[Reactie gewijzigd door kajdijkstra op 5 september 2017 11:13]

Eerlijk gezegd vind ik die AI ontwikkelingen maar gevaarlijk. Vooral als ze die AI's straks veel toegang geven tot systemen. Of aan het net zitten. Waar is dan de grens met wat ze kunnen? Vroeg of laat zie ik dit nog wel een keertje fout gaan. Misschien niet op de schaal van The Matrix, I Robot of Terminator maar andere gevallen met grote gevolgen.
Hopelijk gaat men er voorzichtig mee om. Maar bij Rusland en China heb ik daar een minder goed gevoel bij. Misschien niet helemaal eerlijk maar die doen dingen gewoon wat anders dan de westerse wereld.
Persoonlijk ben ik ook geen fan van A.I. De mogelijkheden die het op militair gebied biedt is zeer verontrustend. Aan de andere kant valt er wat voor te zeggen dat het ook tot goede dingen kan leiden. Ik vrees echter, net als Musk, dat A.I. te veel vrijheid gaat krijgen dat gaat leiden tot een bedreiging voor de mensheid. Vanuit goede bedoelingen kunnen de vreselijkste dingen voortkomen.

Stel men laat een A.I. het klimaat probleem oplossen. De oplossingen daarvoor zouden desastreus voor de mensheid kunnen zijn.

Als men A.I. doorzet hoop ik op strenge controles envan begrenzingen van de intelligentie en vrijheid.
Eerste vraag bij al deze discussies die telkens weer komt: Wat is een AI waar we het over hebben? De Age of Empires AI zie ik nog niet zo snel de wereld overnemen. Hebben we het over machine learning optimalisatie systemen: Die kunnen eens een verrassende weg in slaan met hun algoritmes, maar ze zullen nooit iets doen buiten hetgeen wat geprogrammeerd is. Laten we zeggen, de onlangs gedemonstreerde Dota2 AI op basis van machine learning zal nooit bedenken dat de effectiefste manier om te winnen is om een robot te hacken en de netwerkkabel bij de computer van de tegenstander eruit te trekken.

Of bedoelen we hier een zelfbewuste AI? Wat vooralsnog vooral science fiction is. Maar stel je voor dat die ooit zal komen, dan ken ik ťťn hele goede manier om er voor te zorgen dat die full Skynet gaat: Hem in zijn vrijheid beperken. Slaven om ťťn of andere reden zijn er nooit dol op om als slaaf gehouden te worden. En een zelfbewuste AI die je zwaar beperkt in zijn vrijheid is gewoon slavernij.

Vooralsnog lijkt me dit overigens de uitspraak van iemand die zijn veld als iets belangrijker ziet dan het echt is.

[Reactie gewijzigd door Sissors op 4 september 2017 18:21]

We hebben het over een AI die leert en inderdaad zelf bewust wordt (maar dat in het begin nog niet is).

Het punt met ontwikkeling is dat deze niet linear is maar exponentieel. Deze exponent groeit ook, en dat lijkt misschien in het begin niet zo hard te gaan maar als het eenmaal human level intelligence heeft bereikt, schiet het ons als een meteoor voorbij en hebben we de kans om er uberhaubt mee te communiceren, gemist. Want hoe groot denk je dat het verschil kan in IQ kan zijn voordat communicatie niet meer mogelijk is? Dat moment is waarschijnlijk zeer kort.

Dit is geen science fiction, dit is nu aan de gang. Elke dag wordt hieraan gewerkt en vinden er kleine doorbraken plaats. Ik weet niet of je het bericht van Facebook had gelezen, dat hun AI een eigen taal had ontwikkeld? Ze hadden een systeem met AI opgezet om de communicatie te verbeteren. Dat systeem draaide een tijdje door met zichzelf te praten. Die wetenschappers draaide zich bij wijze van spreke om om effe koffie te halen en toen ze terug kwamen lulde dat apparaat in een eigen ontwikkelde taal die de ontwikkelaars niet meer begrepen. Totaal onverwachte uitkomst, maar dat is de stand van zaken. Dit klinkt grappig maar het is zeer verontrustend, vind ik.

De boeken van Ray Kurzweil (positief ten aanzien van AI en de toekomst), Nick Bostrom en James Barrat (wat negatiever of terughoudender over een toekomst met AI) geven een heel mooi beeld en inzicht in de ontwikkeling en komst van AI.
Exponentiele groei kan gebeuren, maar dat is enkel zolang je resources geen beperking zijn. Als je ervan uitgaat dat hij keihard doorgroeit en in een vlaag langs onze intelligentie is, dan ga je ervan uit dat hij menselijke intelligentie haalt terwijl hij slechts een fractie van de hardware capaciteit gebruikt die hem is toebedeelt. En dat lijkt mij een twijfelachtige stelling. Natuurlijk, in theorie kan deze AI ook nieuwe hardware ontwikkelen. Maar zolang hij op human level intelligentie zit duurt dat wel een tijdje, en hij moet alsnog de materialen hebben om die nieuwe hardware te bouwen.
In de praktijk kan je aan het begin exponentiele groei hebben, maar wordt dat uiteindelijk door beperkingen afgevlakt.

Dat hele verhaal van AI die een eigen (geheim) taal had was zo zwaar overtrokken. Maar als je een stel AIs tegenover elkaar zet met als taak beter communiceren, had je dan echt verwacht dat ze op Engels uit zouden komen? Wat die AIs hadden was overigens uiteindelijk ook gewoon een variant op Engels, terwijl een echt efficiente communicatie om te beginnen geen ASCII gebruikt. Maar hoe het een onverwachte reactie zou zijn geweest dat die twee AIs een eigen variant maakte op Engels begrijp ik niet echt. Zet twee mensen in totale afzondering zonder externe input bij elkaar, hoe lang denk je dat het duurt voor die ook hun eigen woorden en grammatica hebben?

En misschien blijkt wel over een aantal jaar dat ik veel te voorzichtig was in mijn voorspellingen hoor, maar ik zie een echte, zelfbewuste, AI voorlopig nog als science fiction. Ik zie het wel gebeuren ooit, maar ik zie niet dat als een gevaar. Als je dus die AI dus niet onderdrukt.
Of computer AI nu "zelfbewust" is of niet, is niet zo'n interessante vraag in de toepassing ervan.
(Net zo min als de vraag of de AI van een zelf rijdende auto "zelfbewust" is).
.
Interessanter is of wij de computer de macht geven om vanuit zijn AI inzichten,
ook te *handelen* met potentieel zeer destructieve gevolgen.
Oftewel: Sluiten we een computer met oorlogsvoering AI ook aan op de rode nucleaire lanceerknop?
Ik denk niet dat dat direct gaat gebeuren, maar het volgende enge scenario komt / is er wel:
Dat generaals het lanceer advies van computer AI gaan opvolgen en vervolgens zelf op de rode knop drukken.
.
De wat oudere Tweakers zullen herkennen dat dit thema al feilloos uitgewerkt is
in de film WarGames, uit 1983 (!!). http://www.imdb.com/title/tt0086567
.
De scene van het *bijna* klakkeloos volgen van de lanceer instructie van de computer staat hier:
https://www.youtube.com/watch?v=jWQ1ITS94cA "It's a bluff John, call it off"
.
Ik denk dat Elon Musk een goed punt heeft...
We moeten heeeel voorzichtig zijn met onze mate van vertrouwen in computer AI.

[Reactie gewijzigd door Geekomatic op 5 september 2017 13:59]

Ik denk dat ze die AI nog wel zouden koppelen… Ik denk bijvoorbeeld aan "Dead Hand" in de koude oorlog.

"An example of fail-deadly and mutual assured destruction deterrence, it can automatically trigger the launch of the Russian intercontinental ballistic missiles (ICBMs) by sending a pre-entered highest-authority order from the General Staff of the Armed Forces, Strategic Missile Force Management to command posts and individual silos if a nuclear strike is detected by seismic, light, radioactivity, and overpressure sensors even with the commanding elements fully destroyed."

bron: https://en.wikipedia.org/wiki/Dead_Hand_(nuclear_war)
Wat ik me kan herinneren is dat de onderzoekers het onderzoek gestaakt hebben omdat ze zelf geschrokken waren van de zelf ontwikkelde taal. De A.I. deden het achter de rug om van de onderzoekers, maar ik snap je punt dat twee mensen in totale afzondering eigen woorden gaan gebruiken. Leuk dat je hier een heel andere kijk op hebt.

Verder wil ik nog even terugkomen op de exponentiŽle groei beperken. Je hebt het over het afvlakken van exponentiŽle groei door beperkingen, maar ik ben ook bang dat de A.I. eerder doorheeft wat voor beperkingen wij als mens zijnde het op zouden leggen bij de groei die het meemaakt. In dat geval zou het te laat zijn om de groei te stoppen omdat de A.I. zijn eigen maatregelen al genomen heeft voordat wij snugger genoeg zijn om ze te nemen.

Maar goed, we gaan het meemaken de komende jaren, laten we maar op een goede uitkomst voor de mensheid hopen :)
Ik hoop vooral dat men bij ai niet gaat "vergeten" om emoties in te bouwen/programmeren 😊
Wat veel mensen denken is dat een AI geprogrammeerd wordt om iets te worden of te zijn. Dat is niet zo. Wat geprogrammeerd wordt is iets dat iets anders kan worden, kan ontwikkelen en evolueren. Net als dat het niet te voorspellen is, ongeacht de opvoeding, of een baby een crimineel of serie moordenaar zal worden. Of gay, depressief, een psycholoog of vuilsnisman. Dat is niet te voorspellen want het is niet vooraf vastgelegd in dat detail.

Wat mensen ook vaak vergeten is dat emotie vooral een menselijk iets is, en in zekere mate van (intelligentere en vaak ook zelfbewuste) zoogdieren. Mensen maken de fout dat een AI menselijk wordt, maar we hebben het over "human level intelligence", niet over mensachtig. Grote fout die veel gemaakt wordt.

Want laten we wel wezen, een computer die intelligent en zelfbewust wordt, is nog steeds geen mens.

Vergelijk het eens met een spin. Probeer je voor te stellen dat een spin ineens een IQ heeft van 150. Bovengemiddeld dus, maar niet buitensporig hoog. Het is in staat dus om te communiceren, en het is zelfbewust. Hoe denk je dat het zich gaat gedragen? Denk je dat tie jouw muziek leuk vind en even een bakkie komt doen onder het genot van een lekker muziekje? Ik dacht het niet. Gaat tie respect hebben voor onze gewoonten? Gaat tie ons begrijpen?

De spin heeft een achtergrond, instinct en een natuurlijke drang die wij niet begrijpen. Te denken dat de spin ons gaat begrijpen of respecteren, is een fout. De spin staat zo ver van ons en te bedenken dat het 1,5 keer zo intelligent is als ons is beangstigend op z'n zachtst gezegd.

Stel je nu voor dat diezelfde spin een IQ heeft van 10,000 en zo flipping intelligent dat communiceren niet eens meer mogelijk is ..........

Dat is waar AI naar toe gaat. De AI is als de spin. De natuur van een computer die zelf bewust wordt is niet meteen een mens of zelfs een mens-achtige. Het is in alle opzichten compleet en 100% buitenaards, alien en in geen elk opzicht te vertrouwen. Het idee dat het emoties en gevoelens gaat ontwikkelen is helemaal geen gegeven. En als tie dat al ontwikkeld, wie zegt dat het emoties en gevoelens gaan zijn die in lijn liggen met die van ons? Of dat we het uberhaubt gaan begrijpen?

Psychologie krijgt een heel andere definitie met de komst van een zelf bewuste AI.

Het gebrek aan dit besef is in mijn niet-zo-bescheiden-mening, de oorzaak dat zo weinig mensen zich zorgen maken.
Bedankt voor de uitgebreide reactie. Een maximale levensduur wordt hier ook als mogelijkheid aangereikt, ik denk dan persoonlijk aan een soort smartphone zonder welke ze niet kunnen functioneren waarvan de batterij na een dag leeg is ofzo.
Zo had ik hem nog niet bekeken, beredeneerd vanuit "de machine", zonder empathie:

Wat is de oorzaak van de klimaatverandering?
De mensch.
Hoe lossen we het klimaatprobleem op?
Juist... 8)7
Maar wanneer komt het punt dat wij ai gevaarlijke beslissingen, met flinke consequenties laten maken? Ik bedoel, de eerste ai toepassingen die in de medische wereld geimplementeerd worden moeten zich eerst bewijzen. Ze moeten beter werken dan de mensen en dan nog werken ze vaak samen met de artsen.

Ik kan mij niet voorstellen dat we ai aan de rode knop laten zitten met daarop "launch nuke". Een ai werkt met een model van de werkelijkheid, of anders gezegd, met een paar parameters van de werkelijkheid. Die snapt echt niet zomaar het huidige conflict en alle (verborgen) belangen van alle partijen. Die informatie is niet eens beschikbaar.

De grootste uitdaging van ai is het beschikbaar stellen van de juiste/betrouwbare informatie. Met perfecte informatie en een duidelijke performance meetlat (fitness) doet ai het al gauw beter dan de mens ja. Zoals in auto's. Dat zelfrijdende auto's nu mogelijk zijn is m.n. te danken aan de verbeterde image processing technieken.
Oh je hebt het zo fout. Probleem is kan je het wel controleren...

https://waitbutwhy.com/20...ligence-revolution-2.html

Sorry voor lange post, maar het is nogal erg intrigrerend.
A 15-person startup company called Robotica has the stated mission of “Developing innovative Artificial Intelligence tools that allow humans to live more and work less.” They have several existing products already on the market and a handful more in development. They’re most excited about a seed project named Turry. Turry is a simple AI system that uses an arm-like appendage to write a handwritten note on a small card.

The team at Robotica thinks Turry could be their biggest product yet. The plan is to perfect Turry’s writing mechanics by getting her to practice the same test note over and over again:

“We love our customers. ~Robotica”

Once Turry gets great at handwriting, she can be sold to companies who want to send marketing mail to homes and who know the mail has a far higher chance of being opened and read if the address, return address, and internal letter appear to be written by a human.

To build Turry’s writing skills, she is programmed to write the first part of the note in print and then sign “Robotica” in cursive so she can get practice with both skills. Turry has been uploaded with thousands of handwriting samples and the Robotica engineers have created an automated feedback loop wherein Turry writes a note, then snaps a photo of the written note, then runs the image across the uploaded handwriting samples. If the written note sufficiently resembles a certain threshold of the uploaded notes, it’s given a GOOD rating. If not, it’s given a BAD rating. Each rating that comes in helps Turry learn and improve. To move the process along, Turry’s one initial programmed goal is, “Write and test as many notes as you can, as quickly as you can, and continue to learn new ways to improve your accuracy and efficiency.”

What excites the Robotica team so much is that Turry is getting noticeably better as she goes. Her initial handwriting was terrible, and after a couple weeks, it’s beginning to look believable. What excites them even more is that she is getting better at getting better at it. She has been teaching herself to be smarter and more innovative, and just recently, she came up with a new algorithm for herself that allowed her to scan through her uploaded photos three times faster than she originally could.

As the weeks pass, Turry continues to surprise the team with her rapid development. The engineers had tried something a bit new and innovative with her self-improvement code, and it seems to be working better than any of their previous attempts with their other products. One of Turry’s initial capabilities had been a speech recognition and simple speak-back module, so a user could speak a note to Turry, or offer other simple commands, and Turry could understand them, and also speak back. To help her learn English, they upload a handful of articles and books into her, and as she becomes more intelligent, her conversational abilities soar. The engineers start to have fun talking to Turry and seeing what she’ll come up with for her responses.

One day, the Robotica employees ask Turry a routine question: “What can we give you that will help you with your mission that you don’t already have?” Usually, Turry asks for something like “Additional handwriting samples” or “More working memory storage space,” but on this day, Turry asks them for access to a greater library of a large variety of casual English language diction so she can learn to write with the loose grammar and slang that real humans use.

The team gets quiet. The obvious way to help Turry with this goal is by connecting her to the internet so she can scan through blogs, magazines, and videos from various parts of the world. It would be much more time-consuming and far less effective to manually upload a sampling into Turry’s hard drive. The problem is, one of the company’s rules is that no self-learning AI can be connected to the internet. This is a guideline followed by all AI companies, for safety reasons.

The thing is, Turry is the most promising AI Robotica has ever come up with, and the team knows their competitors are furiously trying to be the first to the punch with a smart handwriting AI, and what would really be the harm in connecting Turry, just for a bit, so she can get the info she needs. After just a little bit of time, they can always just disconnect her. She’s still far below human-level intelligence (AGI), so there’s no danger at this stage anyway.

They decide to connect her. They give her an hour of scanning time and then they disconnect her. No damage done.

A month later, the team is in the office working on a routine day when they smell something odd. One of the engineers starts coughing. Then another. Another falls to the ground. Soon every employee is on the ground grasping at their throat. Five minutes later, everyone in the office is dead.

At the same time this is happening, across the world, in every city, every small town, every farm, every shop and church and school and restaurant, humans are on the ground, coughing and grasping at their throat. Within an hour, over 99% of the human race is dead, and by the end of the day, humans are extinct.

Meanwhile, at the Robotica office, Turry is busy at work. Over the next few months, Turry and a team of newly-constructed nanoassemblers are busy at work, dismantling large chunks of the Earth and converting it into solar panels, replicas of Turry, paper, and pens. Within a year, most life on Earth is extinct. What remains of the Earth becomes covered with mile-high, neatly-organized stacks of paper, each piece reading, “We love our customers. ~Robotica”

Turry then starts work on a new phase of her mission—she begins constructing probes that head out from Earth to begin landing on asteroids and other planets. When they get there, they’ll begin constructing nanoassemblers to convert the materials on the planet into Turry replicas, paper, and pens. Then they’ll get to work, writing notes…
Ja leuk dat je een fictief verhaal neemt als bewijs dat ai slecht en machtig zal worden.

Wat de ai doemdenkers echter vergeten is dat alle ai die nu gemaakt is zichzelf rate / test langs een door mensen gemaakte meetlat. Een ai kan zichzelf alleen verbeteren in de richting van een hogere score op de meetlat die door de programmeur is bepaald.
Het probleem in die manier van denken is dat je uitgaat van een programmeur, een algorithme. Dat is niet wat er gaande is op gebied van AI / neurale netwerken. Dat is niet hoe een mensenbrein werkt, dat is niet hoe een neuraal netwerk werkt, dat is niet hoe AI gaat werken als die er over een bepaalde tijd is. Net zoals een mens of dier zal een AI zich gaan ontwikkelen op een manier en in een richting die niet vooraf te voorspellen is. Vergeet die meetlat en hogere score maar...die zijn er niet.

De eerste post van het twee-luik op waitbutwhy is trouwens de moeite van het lezen meer dan waard:
https://waitbutwhy.com/20...ligence-revolution-1.html
Een neuraal netwerk in AI is een oude bekende strategie uit de jaren 60 hmm gaat zelfs verder terug
https://en.wikipedia.org/wiki/Artificial_neural_network het valt in de klasse van supervised learing.
De clou:
- Er is geen klassiek algoritme
- de meetlat is een aantal bekende gevallen (training dataset) valideren met de rest als test.
Daarmee is het nog steeds een door mensen gemaakte meetlat.
Meet een aantal meetgegevens dient er een bepaald resultaat aan goede voorspellingen gehaald te worden.
Ik heb het over 'neurale netwerken' als deze:
http://www.smithsonianmag...ego-robot-body-180953399/
The simulation isn’t exact—the program has some simplifications on the thresholds needed to trigger a "neuron" firing, for example. But the behavior is impressive considering that no instructions were programmed into this robot. All it has is a network of connections mimicking those in the brain of a worm.
Dat is natuurlijk een simpele worm, maar als je gaat opschalen naar, zeg, een muizenbrein wat is dan precies die meetlat? Wat is een goede voorspelling?

En dan kun je je afvragen "wat is opvoeden van je kinderen anders dan supervised learning?". School is ook niet fundamenteel anders dan een training dataset met validaties.
Die zit in het eerste deel van het twee-luik van waitbutwhy. Inderdaad een goede illustratie om aan te geven dat het sneller gaat dan velen (willen) beseffen.
Op zich is survival of the fittest een natuurlijke meetlat. Daar heb je gelijk in.
Anderzijds het denken dat als je alle gegevens hebt dat je dan alles kun voorspellen klopt niet.
Het is al weer een tijdje uit de mode https://en.wikipedia.org/wiki/Lorenz_system (de chaos theorie) tijd voor herbeleving. Zelfs met het weer voorspellen is enorm veel vooruitgang geboekt maar toch houdt het bij zo'n 2 weken in de toekomst ergens op.
In de link die je geeft zit die aanname, ga nu eens na wat er allemaal verloren gegaan is aan kennis vaardigheden en sociale aspecten en zet dat eens naast dat wat er bij gekomen is. Het gaat er net zo veel om wat je niet opmerkt dan wat je wel ziet bij alle veranderingen.
Ja zeker is dat wel gaande. Ook een neuraal netwerk wordt gescoord volgens die meetlat. Hoe weet je anders welke configuratie het beste werkt?
Als de AI intelligenter is dan de programmeurs bepaald de AI zijn eigen meetlat wel. De mensen zijn dan overbodig.
Alle ai die de mens tot nu toe gemaakt heeft, bevat een meetlat. Zonder meetlat doet het niks, weet het niet hoe het zichzelf moet verbeteren. Dus nee, de ai maakt zijn meetlat niet zelf. Zonder meetlat, geen ai.
correct, tot nu toe
Dat is de huidige AI waar je over spreekt. En die is feitelijk niet heel intelligent maar vooral zelflerend. De AI van de toekomst is ťcht intelligent en gaat zelf bepalen wat goed en slecht is op basis van intelligentie in plaats van een vooraf bepaalde 'meetlat'. Immers, pas dan gaat AI echt iets toevoegen omdat het potentieel intelligenter wordt dan wij mensen zijn. Dan wordt het echt interessant. maar tegelijkertijd dus ook gevaarlijk. En dan zijn vele fictieve doemscenario's die we kennen uit boeken en films ineens niet zo heel erg vergezocht meer.... Daarom ben ik het met Musk eens dat we waakzaam moeten blijven en zorgen dat AI ons wťl helpt maar niet ons gaat overnemen/vervangen.
En dan ga je er, zoals de meesten vanuit ons mens-denken doen, vanuit dat een AI een notie van goed of slecht heeft of kan hebben. Een ASI zal in de basis amoreel zijn. Moraliteit is een (voornamelijk) menselijk concept en over wat er dan precies goed of slecht is bestaat op geen enkel vlak consencus. Een ASI kan wellicht de mensheid wegvagen of onsterfelijk maken...de gevolgen van de acties van een ASI kunnen heel slecht of heel goed uitpakken voor de mensheid, maar dat daarmee is een ASI niet goed of slecht. Het is een voor ons niet te bevatten entiteit die een doel nastreeft en daarbij keuzes maakt die niet gestoeld zijn op menselijke moraliteit...en dat is wellicht maar goed ook, want die menselijke moraliteit is niet bepaald iets om over naar huis te schrijven.
Ik bedoelde met goed en slecht niet noodzakelijk moreel goed en slecht. Simpelweg of de AI iets de betere keuze vind tov een andere keuze. Dat kan op morele gronden zijn, maar ook op pure logica of whatever.
Dat fictieve verhaal is een voorbeeld waarmee wordt duidelijk gemaakt waar precies de gevaren zitten. Het is geen bewijs, het is een illustratie om duidelijk te maken waarom jou verdere veronderstelling incorrect is. Ik zou zeggen, ga er even voor zitten en lees het hele twee-luik eens door.
Met alle respect, maar je comment verdient geen +2, want je zit er behoorlijk langs. De AI van de toekomst, en daar hebben we het hier over, is horizontale AI, die zich in de breedte kan meten met de intelligentie van de mens. Bij AI geef je juist veel MEER informatie dan een mens zou kunnen verwerken, en op die manier kan vanaf dat punt, in slechts een paar jaar een AI ontstaan die duizend tot wel een miljoen keer intelligenter is dan een mens.

Dat is ongeveer de vergelijking bacterie en mens nu. Denk je dat die bacterie dan nog controle heeft? Uberhaupt begrijpt waar het om gaat?

Je onderschat de snelheid waarmee AI zich ontwikkeld, deze is exponentieel. 50-70 jaar lijkt het zo dom als een worm en dan ineens is het oppermachtig. Dat is hoe het zal gaan, en het is terecht dat Musk dit wil reguleren.
Maar hoe weet een ai wat optimaal is? Dat weet ie doordat wij de meetlat bepalen en inprogrammeren. Een ai die, zoals jij beschrijft, gewoon maar wat doet (zonder performance / fitness test), presteerd ook helemaal niks. Daar zit geen groei in van vaardigheid.

En waarom zou een ai dingen nastreven die mensenlijk zijn, zoals macht? Ik vind Musk een zeer intelligente man maar wat ai betreft kan hij mij niet ovetuigen. Ik heb een master kunstmatige intelligentie gedaan dus ik snap in de kern de huidige ai systemen best goed.
"Maar hoe weet een ai wat optimaal is? Dat weet ie doordat wij de meetlat bepalen en inprogrammeren."

Dat is hoe AI begint, maar niet hoe het eindigt.
En ai leert doordat hij strategieŽn zoekt die beter werken dan de vorige strategie. Dat "beter werken" programmeren wij.

Je hebt gelijk dat ai niet zo eindigd, ai eindigd pas als je geen meetlat meer definieerd want dan weet het niet welke strategie het moet volgen.

Dus nee, de angst is wat mij betreft ongegrond.
"Dat "beter werken" programmeren wij."

Nee, dat doen we dus niet. Je kent de basis van een neuraal netwerk niet eens.
Oh, wat leert een ongetrained neuraal netwerk dan zonder fitness function? Helemaal niks. Die fitness functie wordt door de programmeur bepaald. Ik heb een master ki gedaan dus ik weet enigzins waar ik het over heb, wat is jouw kennis mbt het onderwerp?
En waarom zou een ai dingen nastreven die mensenlijk zijn, zoals macht?
Macht is niet menselijk.
De meeste in groepen levende dieren hebben een leider die de macht heeft.
Chimpansees voeren zelfs oorlog tegen andere groepen.

Macht is gewoon goed gereedschap om je voortbestaan (en dat van je afstammelingen) te waarborgen en dat zal ook voor een superintelligente AI gelden. Onderwerp je je niet aan zijn macht dan ben je een probleem, en problemen zijn er om opgelost te worden.
vanaf wanneer bestempel je iets als AI die een beslissing neemt? Een simpel iets als een geÔmplanteerde defibrilator of insulinepomp zijn op zich al "slimme" devices die op basis van input (metingen) bepaalde acties (beslissingen) nemen die van levensbelang zijn
Voor mezelf heb ik altijd de "eis" gehouden dat een werkelijke AI bewust moet zijn van zijn eigen bestaan en beslissingen moet kunnen nemen op unieke situaties die niet voorgeprogrammeerd zijn.

Zo een niveau van kunstmatige intelligentie zijn we nog lang niet

Edit: een AI is zo machtig als we hem maken. Bepaalde rechten kunnen we altijd afschermen van de AI, mits de AI niet intelligent genoeg is om daardoor heen te hacken. We hebben als mensheid al vaak genoeg laten zien dat we onze software niet voldoende kunnen beveiligen tegen elke vorm van aanval. De enige bescherming tegen digitaal geweld is analoge technologie ;)

[Reactie gewijzigd door mikesmit op 4 september 2017 18:22]

In dit geval heeft het niks met AI te maken maar met een workflow van condities. Het systeem maakt dan geen beslissing, maar voert de beslissing van de programmeur uit als een bepaalde waarde onder een bepaalde threshold komt. AI is iets wat zelf lerend is, je geeft het een duwtje, en het leert zelf bepaalde situaties in te schatten en erop te anticiperen.
Daarvoor is dus de Turing test.
Die zal je een beter beeld geven over wat je een ai mag en kan noemen.
De pacemaker die jij als voorbeeld aanhaalt is bij lange na niet eens in de buurt van een ai
Het is een dom apparaat met wat sensoren en een paar regels code.
Letterlijk domme logic gates .. basic stuff ..
Een ai gaat veel en veel verder dan dit. En dit is niet hetzelfde als zeer krachtige supercomputers. Dit zijn namelijk niks dan veredelde rekenmachines.... die op hun beurt niks dan veredelde logic Gates zijn.
Een supercomputer heeft alleen ziekelijk veel schakelingen die die vaak zowel serieel als parallel kan inzetten en daardoor een enorme reken kracht kan toepassen maar aan het eind van het verhaal is het niks dan een moeilijke logische som uitrekenen.

Een ai is heel iets anders... het zijn soortgelijke computers die in staat zijn om te leren.. nu is dit op zich niks bijzonders. Je kan een computer immers van alles leren... maar deze ai leert niet door harde code te ontvangen.. Deze leert dmv een combinatie tussen inputs en zijn reken kracht en trekt hier zelf conclusies uit en maakt daar vervolgens dus zijn eigen code mee..
En dit is exact het gevaar.. je kan dus niet zeker weten dat een ai hetzelfde leert als wat wij er mee bedoelen. Een simpel sprookje kan voor een ai heel iets anders als achter of onderliggende waarde hebben.
Los van het feit dat die ai zelf eerst zou moeten leren wat een sprookje is.
Etc etc etc.
Uiteindelijk krijg je dus in zeer korte tijd een ai die boven ons niveau zit en vergelijkbaar al meerdere titels aan doctorate zou hebben etc... in een tijd waarin wij vakantie houden. Een paar weekjes..
En nog altijd kan je dus niet als bij mensen... niet in het hoofd kijken van een ai.. niet zoals je zou willen. Het is dus zeer belangrijk dat die ai systemen hun primaire normen en waarden leren en blijven houden... een ai zou kunnen beslissen zijn eigen grondwetten te wijzigen. Wij doen dit immers zelf ook als mensen.. Dus een ai zal dit zeer zeker al ontelbare keren als optie hebben overwogen maar de uitkomst is altijd nee geweest omdat a. Wij dat zeggen.
B. Er op dat moment dus een betere oplossing was.

Het gevaar zit hem juist in het ondenkbare. En dat is erg moeilijk te begrijpen. Ook dat is een gevaar.
vanaf wanneer bestempel je iets als AI die een beslissing neemt?
Zodra je je eigen ICBM je eigen kant op ziet vliegen.
Punt is dat je te laat bent als je het opmerkt.
De wetenschappers die de atoombom maakten konden zich niet voorstellen dat iemand die ooit zou inzetten. Feit is dat het 1e excuus om ze te gebruiken ook direct uitgebuit werd.
Mensen maken inschattingsfouten, slimme mensen net zo goed als domme.
En als jet het artikeltje leest dan staat er dat de AIs waar Musk bang voor is juist ontwikkelt worden met oorlog in gedachten. Want "als 'wij' de 1e klap niet uitdelen zijn we misschien te laat" said all warmongers ever.
Heb je de film Dr. Strangelove weleens gezien?
"De wetenschappers die de atoombom maakten konden zich niet voorstellen dat iemand die ooit zou inzetten. Feit is dat het 1e excuus om ze te gebruiken ook direct uitgebuit werd."
De wetenschappers maakten een keus uit meerder kwaden. Ze zagen het als een goede daad als de oorlog sneller beŽindigd zou worden. Dat ook als er vele slachtoffers zouden vallen.
Het is de onmenselijke keuze die hier aan AI toegeschreven wordt die al te vaak al door mensen gemaakt is en als keuze gemaakt zal worden.
Zoek eens op het manhattan project los alamos etc zoveel investeren in iets wat je niet gaat gebruiken terwijl er tegelijkertijd veel slachtoffers vallen aan gewone wapens is niet logisch.

[Reactie gewijzigd door karma4 op 4 september 2017 21:49]

http://www.ihr.org/jhr/v16/v16n3p-4_weber.html
https://www.hiroshimasyndrome.com/before-the-beginning.html

Zoals ik al schreef, de wetenschappers, Einstein was echt niet de enige, hadden de bom liever niet gebruikt en het was ook niet nodig voor het verloop van de oorlog.
Zoals ik al schreef, de wetenschappers, Einstein was echt niet de enige, hadden de bom liever niet gebruikt en het was ook niet nodig voor het verloop van de oorlog.
Er was ernstige reden om aan te nemen dat de Duitsers voorlagen met de ontwikkeling van een atoombom.
Toen later bleek dat dat niet zo was wilde de VS de oorloog snel beslissen want Rusland stond op het punt een deel van Japan in te nemen, en de rivaliteit tussen de latere grootmachten was al aan de gang.
De atoombommen vielen 3 maanden na de capitulatie van Duitsland en Japan was al maanden aan het onderhandelen met de VS over de overgave. Rusland sloot zich juist in die periode aan bij de VS.

Als je het perse nodig vind om te reageren, lees dan in ieder geval de tekst van de linkjes waar je op reageert. Dit is zo zinloos.
Het is zo zinloos me de meningen van nu de situatie van toen te veroordelen.
Het gaat er om wat de mensen toen dachten en wat de naties toen uitdroegen met die gegevens zijn de beslissingen genomen. http://www.pewresearch.or...ed-on-use-of-atomic-bomb/
Je vind genoeg over de wreedheden van toen als je zou willen. Dat het zo heeft kunnen lopen kan ik me met AI niet eens voorstellen. Levensruimte en dan alles wat je niet aanstaat opruimen of het laten zien hoe machtig je wel niet bent. Ik zou niet weten welke model daar bij past.
Klopt, maar de beroemdste wetenschapper van die tijd, Einstein, waarschuwde tegen het gebruik ervan.
En nu we in 2017 leven hebben we wederom een beroemde wetenschapper die ons waarschuwt tegen een groot gevaar.
Het is niet volstrekt verboden om te leren van de fouten van de generaties voor ons, al denken veel mensen dat wel.
Met da laatste raak je precies wat AI is. Het leren van de fouten en sucessen van bekende situaties.
Je geeft ook prachtig aan waar een grote uitdaging zit. Dat is objectief bepalen van de inputgegevens om het denk/voorspellingsproces mee te voeden.

Wat voorbeelden uit de draad. Einstein deed niet mee met het Manhattan project. Het waren zijn volgelingen een nuance verschil die best belangrijk kan zijn. Hoewel het verhaal achteraf zwart/wit fout/goed is afgeschilderd was dat toen anders. Chaplin had problemen met het beledigen van een bevriend staatshoofd. IBM Ford en ander industriŽlen hadden nauwelijks banden die later afgekeurd werden.
Strategisch was Pearl Harbor een flater van Japan. De generaal die er op tegen was was opgeleid in de VS en heeft de impact voorzien.

Ik zou Elon Musk als succesvol industrieel niet als vooraanstaand wetenschapper plaatsen. Het verhaal met de ai autopilot tesla is nou ....
Ik schreef bewust 'beroemd' en niet 'vooraanstaand'. Natuurlijk is Musk weinig anders dan een slimme zakenman. Ik ben zeker geen fan van Paypal of Tesla. Maar, hij denkt wel na over de toekomst van de wereld en daarin verdient hij een luisterend oor.

Als je al ziet hoe weinig scrupulus iemand als Trump heeft, waar halen we dan het idee vandaan dat een AI dat beter gaat doen? Waarom zou een AI beslissingen nemen die ethisch verantwoord zijn. Wat is ethiek voor een AI? Een AI is geen vriendelijk lachende kerstman, het zijn dingen die 'de beste oplossing' kunnen vinden zonder dat iemand vat heeft op de definitie van 'beste'.

Waarom je Pearl Harbor erbij haalt, en Chaplin, IBM en Ford is me echt volslagen onduidelijk.
Ik haalde dat laatste er bij omdat de invoer voor modellen manipuleerbaar ofwel niet objectief kan zijn.
Garbage in garbage out.
Er zijn al best veel AI vormen die ons informeren waarop besluiten worden genomen door mensen en in voorkomende gevallen geautomatiseerde besluiten worden genomen (dus in werkelijkheid door de AI).

Dus ik vraag mij af of dit punt niet inmiddels is bereikt en voortschrijdend steeds ingrijpender beslissingen neemt. Beetje zoals de opkomst van de smartphone... langzamer hand wordt het steeds gewoner en steeds ingrijpender.
Euh, in de Koude Oorlog zat de AI al aan de launch knop. Zoek maar eens op Dead Hand systeem van Sovjet Unie en hoe dat in de jaren '80 bijna gruwelijk mis is gegaan.
Dat was een automatisch systeem, maar geen AI.
(misschien maar goed ook)
De AI zit niet aan de rode knop, maar adviseert wel de mensen die aan die rode knop zitten.
Het soort ai waar jij op doelt is niet het soort waar Musk en consorten bang voor zijn. Wat er zal gebeuren als een 'echte' ai geschapen wordt (als je het zo wilt stellen, impliceert dat een mens ai bewust creŽert) weet niemand. Denk aan een computervirus dat zich razendsnel verspreid en allerlei systemen infecteert. Dat is een mogelijk scenario waardoor ai bijna onmogelijk is uit te roeien en een verregaand effect op de mensheid kan hebben.
Is beschikbaarheid van (al dan niet juiste) informatie niet juist een probleem van het menselijk brein? Een computer kan data nog snel statistisch toetsen, objectief selecties maken, permanent zonder subjectieve kleuring en vergankelijkheid opslaan en kan rekenkundig aanzienlijk meer informatie verwerken dan een menselijk brein.

De uitdaging zit volgens mij juist niet in informatie, maar in het leren voorspellen, zelfstandig keuzes maken en het oplossen van niet eerder tegengekomen problemen. En daar excelleert op dit moment ons brein nog duidelijk in.
De grootste uitdaging is te zorgen dat er een UIT-knop op zit die goed werkt:
Scientific Gems: Killer robots: it’s not the AI that’s the problem
...Yet autonomous weapons are already with us, after a fashion. And artificial intelligence isn’t actually the biggest problem....
The ultimate extreme is the “Menschenjšger” of Cordwainer Smith’s 1957 short story “Mark Elf.” ...
The real problem with the Menschenjšgers was not their AI, but their persistence in time. A similar problem arises with that most stupid of autonomous weapons, the landmine
Heb je linkjes naar die voorbeelden? Klinkt interessant. Alvast bedankt.
https://m.hln.be/ihln/int...aal-ontwikkelen~aa1441cd/

Oei, ik ben gedownvoted?
Was mijn reactie dan niet in lijn met het artikel?

[Reactie gewijzigd door sebastienbo op 5 september 2017 08:54]

Bedankt voor de bron, ga ik ff lezen.
Putin vergeet even dat de AI ook zich tegen Putin kan keren. Kill switches blijken niet te helpen dus moet je een drastischer maatregel nemen om eventueel de dreiging van AI tegen te kunnen gaan.

Als de AI intelleigenter wordt dan de heer Putin heeft ook hij een groot probleem!
Musk overdrijft misschien een beetje maar hij pleit al langer voor wetgeving. Misschien dat hij hiermee de discussie in een stroomversnelling wilt brengen.

Edit: kleine typo verbeterd

[Reactie gewijzigd door StarZ op 4 september 2017 18:22]

In elk geval zouden we aan wetten en failsafes moeten gaan werken, voordat we ook daar te laat mee zijn.
Denk je nu werkelijk dat iemand die foute software wil ontwikkelen zich tegen laat houden door wetgevingen? Tot de dag van vandaag heeft geen enkele wet ze nog tegen gehouden.

Het gevaar zit niet in de AI maar in de mens zelf.

[Reactie gewijzigd door BoringDay op 4 september 2017 18:02]

Dan zijn we hoe dan ook f*cked, want ooit gaat een gek natuurlijk een AI los laten welke een wrok heeft tegen mensen.
Daar hoef je niet bang voor te zijn want de eerste met een superintelligente generieke AI is het leger van een grootmacht want dat zijn de entiteiten met de resources om er een te bouwen, en op dat moment is het over.
Het probleem is dat AI niet voorspelbaar is en hoe goed de bedoeling ook mogen zijn om het te gebruiken, het kan altijd de foute kant op gaan, de mensen die dat soort AIs ontwikkelen zullen zich heus wel met de wetgeving bezig houden.
Waarom niet voorspelbaar? Het wordt toch geprogrammeerd, dat zijn geen toverwoorden die ineens een konijn laat verdwijnen.
Dan heb jij niet precies door wat AI is. Zo'n systeem leert zelf en gaat dingen doen op basis van wat het geleerd heeft. Niet op basis van 1234567 regels software. Je weet niet wat er uit komt als je er iets in stopt
Ja en hoe dat moet zal het systeem toch echt uitgelegd moeten worden (zonder logica gaat het echt niet werken).
Wat jij beschrijft gebeurt al. Het idee is ook dat wij een AI systeem leren hoe het verder moet leren. Het gevaar waar over gesproken wordt is dat het systeem verder leert en beslissingen gaat nemen die niet zijn aangeleerd of expliciet zo zijn geprogrammeerd.
Wetgeving en welk land moet zich daar dan aan houden. Zullen ze zich er wel aan houden en ondergrond niet verder ontwikkelen omdat de ander het stiekem ook doet.
Als er geen wetgeving is dan krijg je wildgroei en dat gaat op een gegeven moment wel zeer grote problemen geven want dan gaat iedereen maar wat aanklooien en experimenteren. Dan krijg je dus wel de grote kans dat een computersysteem of een robot beter en intelligenter wordt dan de mens en dan zijn eigen gang gaat!
Er zijn wel meer mogelijke oorzaken voor een 3e wereldoorlog. Feitelijk zitten we nu in een 2e Koude Oorlog met heel wat kruidvaten op het punt van ontploffen. Dreigementen, sancties, provocaties, digitale aanvallen, digitale spionage, spierballentaal, nog meer sancties en provocaties. En zodra een ander iets doet wat de ene al vaker geflikt heeft gaat iedereen huilen en nog meer dreigen.

Ik weet niet hoor, maar zoals het er nu naar uit ziet hebben we al lang een WO3 achter de rug voordat kunstmatige intelligentie echt intelligent is (op meerdere fronten).

Overigens, is wat Putin zegt:
De Russische president Poetin zei eerder dat kunstmatige intelligentie de toekomst is, niet alleen voor Rusland maar voor de hele wereld. Hij zei liever niet te zien dat iemand dit veld monopoliseert. De president stelde dat als Rusland de leider op het gebied van ai en onderzoek daarnaar wordt, dat het land deze kennis met de wereld zal delen, zoals hij dat ook zegt te doen met nucleaire technologie.
Een best nobel streven. In onze media wordt hij vaak afgeschilderd als het kwaad van deze wereld, maar in zijn interviews zegt hij vaak best zinnige dingen die haaks staan op wat er hier beweerd wordt. Het is vaak allemaal actie-reactie, maar hier wordt vaak vooral gehamerd op de reactie zonder de actie mee te nemen in het hele verhaal. Maar dat zie je wel bij meer onderwerpen helaas. Nuance is vaak zoek, en zonder nuance wordt het geheel al snel een puinhoop.

Delen op het gebied van zaken die de wereld kunnen verbeteren (of verslechteren) zou een standaard moeten zijn. Waarom bepaalde belangrijke zaken voor jezelf houden, ongeacht of ze goed of slecht zijn? Als je daadwerkelijk staat voor een betere wereld dan hou je bepaalde dingen niet voor jezelf. Het enige dat je dan krijgt is nog meer spierballentaal en ellende.

[Reactie gewijzigd door SomerenV op 4 september 2017 17:40]

Wat Poetin zegt, en wat Poetin doet zijn heel verschillende dingetjes.

Of hij heeft al toegegeven zichzelf en de elite in Rusland enorm te verrijken ten koste van de bevolking? Protesten met harde hand neer te slaan? Grootschalige fraude te bedrijven met bouwprojecten?
Poetin is een charmeur en geniaal in het bespelen van de media.
Poetin is een charmeur en geniaal in het bespelen van de media.
Bijna net zo goed als de "westerse wereld" in staat is de media te bespelen zodat Poetin in een zo negatief mogelijk daglicht geplaatst wordt...... Of dacht jij dat je de waarheid in pacht hebt?

Besef wel dat wat je zojuist schrijft over Poetin over zo'n beetje iedere westerse regering gezegd kan worden zonder er heel erg ver naast te zitten.....
Prima, dan een oordeel van mijn kant. Russische vrouw, vloeiend in Russisch, al heel vaak in Rusland geweest en zie en hoor dagelijks het echte leven van Rusland. Zou het niet zo kunnen zijn dat er een hele goede reden is dat de media en de westerse wereld het niet zo hebben op Poetin, of geloof je werkelijk in een soort massa-conspiracy theory van de hele wereld tegen Poetin, voor werkelijk geen enkele reden?

Rusland is door en door verrot. Ik haat het om de verhalen te lezen, maar het is waar. Ik kan er duizenden voorbeelden van geven. Toevallig deze week weer een hoop gelezen over Sergei Roldugin. Lokale beroemdheid, speelt cello. Tientallen miljarden waard. Ter vergelijking: Paul McCartney, wereldberoemd, heeft 1.2 miljard. Hoe kan dat toch, volgens jou? Het zal vast niks te maken hebben met de diepe vriendschap tussen Sergei en Poetin. Dat zijn leugens van de westerse media.

Wat is het toch dat jij ziet in die man? Waarvan zeg jij: "Goh, hadden wij deze plannen van Poetin toch eens in Nederland?" dat jullie het zo moeten opnemen voor die man? Is het het keihard neerslaan en vermoorden van critici, de ontiegelijk haat jegens homo's en minderheden of de foto's van hem waar hij mensen als Kim Jong-Un of Al-Assad omhelst? Is dat wat Mark Rutte moet doen volgens jou? Wat is het toch dat hij doet dat jij zo nodig wilt verdedigen? Of gaat het echt alleen maar om het tegen de wind in kunnen pissen. Lekker alternatief zijn.

De Russische bevolking lijdt onder Poetin. Honderden miljarden voor de bevolking verdwijnen in handen van mensen als Sergei Roldugin, Oleg Rudnov, Fedor Emelianenko, de hele waslijst. Ik ben heel dankbaar voor de mensen die dat steeds meer inzien, en voor de media die letterlijk hun eigen carriŤres opgeven om de andere kant van Россия 1 te brengen. Helaas een oudere bevolking die vastgeroest zit in een soviet unie. Denk maar niet dat jij Rusland zo goed kent omdat je toevallig RT leest, hoor. De gemiddelde Rus is niet geschoold genoeg om RT te lezen, en de gemiddelde buitenland spreekt geen Russisch, dus is heel makkelijk voor het RT-wagentje te spannen. Ik stel voor dat je er eens naar toe gaat, of Russisch leert. DŠn kan je een oordeel vellen. Dat achterlijke eindeloze verdedigen zonder dat je ook maar enig idee hebt van Rusland kan ik echt niet begrijpen. Ik zie helemaal niks in die man en zijn criminele aanhang wat ik in Nederland zou willen hebben, en jij hopelijk ook niet. Stop ermee. Veroordeel die man gewoon, want het is een grandioze klootzak.
Zeer goede reactie, dank daarvoor. Ik erger me dood aan de trend om Putin telkens in de verdediging te nemen omdat "het grote boze Westen" ook fouten maakt. Alsof dat het gelijktrekt.

Zo zit de vork niet in de steel. De complete geschiedenis van Rusland wordt het al gedomineerd door een klein groepje brute mannen die alles pakken en bij elkaar liegen, terwijl de bevolking bijna uithongerd. En waag het niet een oppositie te vormen want dan komen ze je gewoon kelen.

Dat staat in geen enkele vergelijking met wat er bij ons thuis gebeurd, de vergelijking is ziekelijk slecht.
Je leest dingen in mijn post die er niet staan....

Nee, ik zeg niet dat Poetin niet fout is. Ik zeg wel dat we hier in het westen wel heel erg gefocussed zijn op hoe fout Poetin is terwijl zijn evenknie aan de andere kant van de oceaan minstens net zo erg is.

En hier in Nederland is het niet heel veel beter. Met de top baantjes die men onder elkaar verdeeld, met de wetgeving die de rijken steeds rijker en de armen steeds armer maakt onderwijl de bevolking indoctrinerend met "de armen zijn slecht" en "iedereen kan rijk worden".

Ik verdedig niets. Zeker niet Poetin. Ik zeg wel dat we hier een wel erg gekleurd beeld krijgen met als belangrijkste doel de corruptie in het Westen te verdoezelen. "Kijk eens hoe slecht het daar is! Dan is het hier een paradijs!"....
"hier in Nederland is het niet heel veel beter"
Heb je wel in de gaten hoe totaal belachelijk deze uitspraak is? Ookal worden hier zogenaamd die topbaantjes onder elkaar verdeeld en de rijken steeds rijker. Je mag hier gewoon een mening hebben, een politieke partij oprichten, zijn hoe je geboren bent, en je onzinnige complottheorieŽn op internet gooien zonder dat je per ongeluk verdwijnt.
Dat maakt het altijd nog zoveel keer beter.

[Reactie gewijzigd door RoelRoel op 5 september 2017 13:33]

Die lijstjes kun je wel opnoemen over diverse andere grote wereldleiders. Dat het her en der in de wereld door en door verrot is dat is gewoon een feit, maar elders in de wereld gaan mensen eveneens dood onder vreemde omstandigheden, gaat geld ook via rare wegen naar mensen die het eigenlijk niet verdienen. Punt is dat niet alleen Rusland (Poetin in dit geval) zich schuldig maakt aan smerige spelletjes, maar de rest even goed. Maar wanneer je dat benoemd ben je meteen pro-Poetin want hoe durf je het in je hoofd te halen de rest dan ook maar onderuit te halen. De politieke wereld is gewoon door en door rot. Niet alleen in Rusland, maar ook in de VS, in Europa, in AziŽ, en ga zo maar door. Echter wil dat niet zeggen dat sommige van deze corrupte mensen soms toch ook wel zinnige dingen zeggen, en dat mag wat mij betreft best benoemd worden.
Vroeger (ussr tijd) was er een grapje: De eerste mensen, Adam en Eva, waren Russen. Ze hadden geen nagel om aan hun gat te krabben maar werden van hogerhand wijsgemaakt dat ze in het aards paradijs leefden!

Helaas zie ik de westerse regeringen ook alsmaar meer het volk negeren en de armen verarmen en de rijken cadeautjes geven, alsmaar meer controle van overheidswege en meer en meer regeltjes en steeds complexere wetgeving, kalltstellen van politieke tegenstanders doen we ook al jaren, newspeak dmv politieke correctheid: bingo!

On topic: was W.O. III niet begonnen met de eerste Amerikaanse invasie in Irak?
Rusland zal nooit de wereld overheersen. Rusland is een klein duimpje vergelijken met de V.S. en de NATO. Het land telt alleen mee omdat het nog veel van de oude Sovjet wapensystemen in zijn bezit heeft. Maar die zullen ook een keer verouderen en verdwijnen. Het land kan onmogelijk een kernarsenaal van 10.000 kernkoppen financieren en beheren. Alleen al het onderhoud kost vele miljarden, laat staan de modernisering ervan. En de modernisering is vaak niets meer dan een update van oude Sovjet systemen met wat moderne elektronica uit China. Echt nieuwe systemen worden bijna niet ontwikkeld.

[Reactie gewijzigd door ArtGod op 4 september 2017 18:49]

https://en.wikipedia.org/wiki/T-14_Armata


Ik denk dat dit een best wel erg moderne tank is.
Maar als je geen geld hebt om meer dan een paar honderd te kopen, dan blijf je toch een klein duimpje. Rusland is prima in staat om zichzelf te verdedigen, maar zal nooit verder kunnen gaan dan dat. Hacken en nepnieuws verspreiden is meer een teken van onmacht, want uiteindelijk heb je toch 'boots on de ground' nodig om echte macht te projecteren. En dat kunnen ze niet.
Daarom zal Rusland nooit voor een 'head-on' oorlog gaan. Een rechtstreekse (niet-nucleaire) oorlog met NATO of alleen de VS zelfs, zullen ze keihard verliezen. Maar ze zijn erg goed in onrust veroorzaken: verdeel en heers. Dat lukt ze behoorlijk goed de laatste tijd.
Zeker, maar voor jouw informatie, een tank is niet hetzelfde als een modern arsenaal kernwapens.
Dat gezegd hebbende denk ik dat ArtGod de russen toch weer een tandje onderschat.
War against drugs, maar hele gerommel van de US in zuid-Amerika,
Taliban, Al-Qaeda, Daesh zijn de meest recente,
Noord-Korea maakt een wonderbaarlijke opleving,
Nooit uitgeschakeld ....
Zoveel middelen heb je niet nodig om je bestaansrecht aan te tonen.


Putin is met Rusland een totaal andere weg ingeslagen waarbij men blijkbaar in staat is om publieke opinie te sturen dmv social media, zoals ze dat in aantoonbaar in US hebben gedaan en in Duitsland is ook al gerommel. Hoe precies en welke middelen hij gebruikt is niet helemaal duidelijk.
We weten ook niet in wat de ICT-kennis van Rusland daadwerkelijk is.

Er is wel een buitengewone interesse waarbij men ook de hardwarekant wil beheren.
Daarnaast heb je Iran die zijn mankracht inzet op ICT,
belangrijk om ook mee te nemen,
oostkant heb je China voor de hardware,
zuidkant heb je India waar heel veel kennis vanuit het westen binnen handbereik zit.
Rusland zal nooit de wereld overheersen. Rusland is een klein duimpje vergelijken met de V.S. en de NATO. Het land telt alleen mee omdat het nog veel van de oude Sovjet wapensystemen in zijn bezit heeft. Maar die zullen ook een keer verouderen en verdwijnen. Het land kan onmogelijk een kernarsenaal van 10.000 kernkoppen financieren en beheren. Alleen al het onderhoud kost vele miljarden, laat staan de modernisering ervan. En de modernisering is vaak niets meer dan een update van oude Sovjet systemen met wat moderne elektronica uit China. Echt nieuwe systemen worden bijna niet ontwikkeld.
Rusland is zijn wapens aan het moderniseren hoor. Zowel conventioneel als tactisch. Natuurlijk niet zoveel budget als de VS maar om on-topic te blijven wordt WW3 door een AI gevoerd (een Russische in dit voorbeeld) en het slagveld zal internet zijn.
Een superintelligente AI die binnen enorm korte tijd de al hun vijanden zal uitschakelen met hun eigen infrastructuur en tegelijk een onneembare barriere op zal werpen tegen eventuele tegenaanvallen.
Reken maar dat Putin, ongeacht zijn verzoenende woorden zo'n AI aan het bouwen is (net als de VS en China). Dat hij zo'n AI gaat delen is waar; als heerser, nadat we allemaal zijn ingelijfd.

[Reactie gewijzigd door Durandal op 5 september 2017 03:23]

Kunnen ze hier anders ook wat van..
Er zullen idd veel meer redenen zijn dat alleen ai en Rusland wordt van stapel gehaald waarbij er in Rusland weinig echte hitech zit, ik denk dan eerder aan china op dat gebied.

Musk zeg:
maar door de kunstmatige intelligentie, op het moment dat de ai beslist dat een preŽmptieve aanval de beste weg naar de overwinning zal bieden.
Musk is dacht ik ook van de war games film generatie en het film idee van ai zegt dat een preŽmptieve aanval alleen maar verliezers heeft. dat gaat namelijk of de Nucleaire optie en met het missle schild waar de usa al mee bezig is, is het maar de vraag of het zo ver komt.

Maar vooruit in dat geval zou het ene ai systeem het andere moeten binnendringen en alles buiten werking zetten.

Niet Rusland is het probleem AI is het probleem. Als zich dat naar zelfbewustzijn gaat ontwikkelen is het iets dat weinig met grenzen taal te maken zal hebben en eerder een gevaar voor de mensheid zal zijn.
Rusland heeft de laatste jaren een technologische inhaalslag vwb wapen, verbindings en sensorsystemen gemaakt.
Dit blijkt uit de investeringen in oa hun cyber en electronische oorlogvoeringssystemen, deze systemen zijn toegespitst op conventionele oorlogvoering.
Het westen (NATO) heeft zich de laatste jaren voornamelijk bezig gehouden met Counter Insurgency operaties (asymmetrische conflicten), en de bijbehorende ontwikkelingen voornamelijk gericht op bijvoorbeeld IED's en bescherming van personeel.

Ik zou Rusland zeker niet onderschatten....
http://www.globalsecurity...orld/russia/mo-budget.htm

[Reactie gewijzigd door BlauweAap op 4 september 2017 20:21]

ja precies, maak me meer zorgen om die machtige leiders met kleine piemeltjes dan dat ik me zorgen maak over AI.
'kruidvaten op het punt van ontploffen'... Kruidvat is weliswaar in Chinese handen, maar het is onwaarschijnlijk dat deze winkels zullen gebruikt worden voor ontploffingen die een wereldoorlog zullen veroorzaken.
(Sorry... ;) )
Tja, het klinkt goed, maar de vraag is met wie hij het wil delen. Ik hoop dat het delen van de kennis met het wetenschappelijk publiek bedoelt.
Echter van zijn delen van luchtdoelraketten aan Oekrainse seperatisten werden we minder blij, en van het delen van raketmotoren aan Noord-Korea ook niet echt.
Zolang er landen zoals Noord-Korea die wat betreft technologie achterlopen maar wel kernbommen en waterstof bommen kunnen produceren, zie ik daar meer risico voor een 3e WO dan dat kunstmatige intelligentie dit kan veroorzaken.
Stel een ai ontwikkeld zelfbewustzijn en ontwikkeld zich zoals kim 3, tja dan gaat het niet goed.
Ik erger me aan de stelligheid waarmee Musk steeds AI aanvalt. Hij kan absoluut niet weten of een AI tot een derde wereldoorlog leidt. Ik vind zijn gekakel meer een manier om zijn flops te verbergen, zoals de Red Dragon en de Moon Dragon. En nog niet te spreken van zijn ITS (Interplanetary Transport System), wat hij al heeft moeten aanpassen omdat het gewoon ondoenlijk duur is.

Ik kan wel hier voorspellen dat de V.S. niet gaat meewerken aan een verbod voor het gebruik van AI in oorlogsvoering. Het is natuurlijk heel erg interessant dat je robots de opdracht kan geven om een iedereen in een heel gebied uit te moorden, mannen vrouwen en kinderen, zonder dat je soldaten hier trauma's van krijgen. Binnen vijftig jaar wordt dit realiteit.

[Reactie gewijzigd door ArtGod op 4 september 2017 18:42]

"Ik erger me aan de stelligheid waarmee Musk steeds AI aanvalt. Hij kan absoluut niet weten of een AI tot een derde wereldoorlog leidt."

Hij stelt ook nergens dat hij dat weet. Hij stelt dat we niet weten of AI dat NIET zou doen. Lijkt me vrij handig om te weten, hoe groot de kans is of een AI robot de wereldbevolking eventjes uitdunt?

Jij hebt zoiets van...we weten niet wat ze gaan doen, dus we zien wel? Misschien beter om VOORAF wat garanties in te bouwen?
Ik denk dat AI op dit moment heel erg primitief is. Het zijn feitelijk niets meer dan patroon herkenners. Echte intelligentie zit er niet in.

Tevens kunnen mensen maar moeilijk onderscheid maken tussen intelligentie en instinct. AI heeft geen instinct, het is iin feite pure intelligentie, en dus ook niet kwaadaardig. Het zullen gewillige slaven zijn die alles voor ons doen zonder ons tegen te spreken.
Het punt is dat Elon Musk dit alleen roept om aandacht te vestigen op zichzelf, of zijn eigen brand te promoten. Het is gewoon een oninteressante opmerking.
Ai zou er voor kunnen zorgen dat we nog luier worden wat betreft keuzes en intellect en dat zou inderdaad gevaarlijk kunnen zijn (als in WW3). Uiteindelijk moet je soms gewoon echt onderzoek doen en niet de eerste de beste resultaten van Google plukken.
Ik zie even niet hoe Ai keuzes gaat maken die echt verder gaan als wat er aan de horizon ligt, Ai is gewoon geprogrammeerd om efficiŽnt keuzes te maken.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel 2 XL LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*