Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

OpenAI traint kunstmatige intelligentie met Portal, Red Alert 2 en Shovel Knight

Door , 60 reacties

OpenAI, een non-profitorganisatie die onder andere gesteund wordt door Elon Musk en Microsoft, heeft een softwareomgeving aangekondigd voor het trainen van kunstmatige intelligentie. Het Universe-platform krijgt daarvoor toegang tot een groot aantal games en andere programma's.

De Universe-omgeving zet agents voor kunstmatige intelligentie in om programma's te gebruiken zoals een mens dat doet: door te registreren wat er op het scherm gebeurt en daarop te reageren met toetsenbord- en muis-input. Het platform werkt door programma's in Docker-containers te draaien via VNC en van die programma's te leren.

Dat leren gebeurt met behulp van Gym. Dit is een toolkit die OpenAI eerder dit jaar uitbracht en die ontwikkelaars in staat stelt reinforcement learning-algoritmes te gebruiken. Hiermee kunnen agents beter worden in taken door te leren van fouten. Met Universe kan elk programma eenvoudig in een dergelijke Gym-omgeving ingezet worden.

In eerste instantie hebben de ontwikkelaars van OpenAI de Universe-omgeving toegang gegeven tot tientallen Atari 2600-games, duizend Flash-games en een groot aantal browsertaken. Volgens OpenAI is er al toestemming om Universe-agents toegang te geven tot complexere en grotere games, waaronder Portal, Fable Anniversary, World of Goo, Command & Conquer: Red Alert 2, Mirror's Edge en Sid Meier's Alpha Centauri. Daarnaast willen zij de agents trainen met Wolfram Mathematica. Op termijn moeten agents wat ze in de ene applicatie leren, kunnen overbrengen op andere agents, zodat die de vaardigheden kunnen benutten. Het uiteindelijke doel is dat de kunstmatige intelligentie alles kan doen wat een mens ook achter de computer kan.

Microsofts Project Malmo-team gaat Universe inzetten bij zijn pogingen kunstmatige intelligentie te trainen met Minecraft. Games worden veel gebruikt voor ai-trainingen. Zo is er een jaarlijkse VizDoom-competitie waarbij een kunstmatige intelligentie zo goed mogelijk een potje Doom moet spelen. Google en Blizzard hebben StarCraft II geschikt gemaakt voor training van DeepMind, dat met het AlphaGo-programma een Go-wereldkampioen wist te verslaan.

OpenAI is een non-profitorganisatie voor het doen van onderzoek naar kunstmatige intelligentie. Onder andere Elon Musk van SpaceX en Tesla en voormalig onderzoekers van Google zijn betrokken bij de organisatie, die ook steun ontvangt van Microsoft.

Olaf van Miltenburg

NieuwscoŲrdinator

5 december 2016 10:23

60 reacties

Linkedin Google+

Reacties (60)

Wijzig sortering
Ik ben heel benieuwd naar de eindresultaten!

Beetje offtopic: Daarnaast om nog een stapje verder te denken, wanneer gaan computers ook leren programmeren? Ik heb al een paar voorbeelden gezien op internet met simpele voorbeelden waarbij de uitkomst x moet zijn, en de computer alle mogelijkheden probeert die in de buurt komen van x.

Maar de vraag die ik heb, hoe leg ik een computer uit hoe een programma exact zou moeten werken?
hoe leg ik een computer uit hoe een programma exact zou moeten werken?
Is dat niet een groot deel van het werk? Hoe je een programma-omschrijving omzet in een werkend product? Programmeren is precies gelijk aan een computer omschrijven hoe een programma werkt.

Wat een computer wel goed kan met kunstmatige intelligentie is optimalisatie. Met kunstmatige intelligentie kan er op runtime niveau kleine tweaks gedaan worden in code; kleine shortcuts wellicht. Er kan bijv. op runtime geexperimenteerd worden met meerdere varianten van "unsafe" optimalisaties. Als blijkt dat de "unsafe" optimalisatie consequent werkt en sneller is, kan de AI "onthouden" deze optimalisatie te gebruiken en eventueel te delen met andere systemen.

[Reactie gewijzigd door Gamebuster op 5 december 2016 10:35]

Exact! Of even helemaal ver gedacht, we zitten in een wereld waarbij de computer begrijpt wat we zeggen en willen, en de computer programmeert het programma terwijl we het gebruiken. Dus als ik in een venster zit, zeg ik: ik wil drie knoppen. Tegelijkertijd programmeert de computer de knoppen realtime. Vervolgens gebruik ik de knoppen en vertel ik wat er nu zou moeten gebeuren, welke verschillende states er zijn en welke voorwaarden. Waarop de computer weer realtime mee programmeert om het resultaat te bieden wat ik opgaf. Zo loop ik door heel het programma heen met alle mogelijke voorwaarden / opties.

Ik weet dit heeft nog haken en ogen, maar even globaal gezien lijkt mij dit the way.
us als ik in een venster zit, zeg ik: ik wil drie knoppen. Tegelijkertijd programmeert de computer de knoppen realtime. Vervolgens gebruik ik de knoppen en vertel ik wat er nu zou moeten gebeuren, welke verschillende states er zijn en welke voorwaarden. Waarop de computer weer realtime mee programmeert om het resultaat te bieden wat ik opgaf. Zo loop ik door heel het programma heen met alle mogelijke voorwaarden / opties.

Ik weet dit heeft nog haken en ogen, maar even globaal gezien lijkt mij dit the way.
Wat je omschrijft is simpelweg programmeren, al dan niet in combinatie met een WYSIWYG-editor. Ga je bijvoorbeeld met Visual Basic aan de slag in Visual Studio, dan krijg je een leeg window voor je neus. Dat is je canvas. Je vertelt de computer dat je drie knoppen wilt door op de knoppen-knop te klikken en drie keer een knop tevoorschijn te slepen. Vervolgens vertel je de computer wat zo'n knop moet doen door erop te dubbelklikken en relevantie code te schrijven.

Dan zeg je wellicht dat je bedoelt dat je geen code hoeft te schrijven, maar het de computer vertelt, maar ook dat doe je in feite al. Het heet niet voor niets een programmeertaal. Je vertelt de computer wat je wilt in taal die voor mensen te interpreteren is en dan gaat de compiler er vervolgens mee aan de slag. De compiler vertaalt jouw opdrachten geheel automatisch naar assembly-codes en/of binaire code die voor mensen lastig tot niet te interpreteren en begrijpen valt, maar waar computers mee aan de slag kunnen.

Dat programmeertalen bestaan is niet noodzakelijk een technische beperking. Menselijke taal is zeer redundant, altijd zeer gelaagd en op veel verschillende manieren te interpreteren. Zelfs tussen mensen levert dit stelselmatig problemen op. Dan is een exactere taal met minder ruimte voor interpretatie en fouten veel praktischer als je ťťn specifiek doel voor ogen hebt - een programmeertaal dus :)
Best leuk experiment eigenlijk om een soort van natural-language programmeertaal te hebben; Een programmeertaal die gewoon menselijke taal interpreteert. Uiteraard wel op een "domme" manier; Als je iets niet specificeert, doet-ie gewoon "undefined behavior"
om een soort van natural-language programmeertaal te hebben
Dat is eigenlijk al wat een programmeer taal doet t.o.v. assembler (machine taal) he. Daarna echt natural language zal het niet snel worden want er is voorspelbaarheid nodig die weer vraagt om meer specificatie en context. Op zich vind ik deze aanpak (laat een computer de user zijn van een mensen UI) nog niet zo verkeerd.

Een AI die een CLI gebruikt zou ik wel logischer vinden.. eigenljik wat Siri zou kunnen zijn als men geen menselijk toezicht nodig achte.

[Reactie gewijzigd door Barryke op 5 december 2016 14:13]

Een programmeertaal is veel te strict voor wat ik bedoel. Een systeem dat o.b.v. natural language werkt zal geen compile errors geven, maar doorvragen naar wat er gedaan moet worden in bepaalde cases of een aanname doen.
Ik begrijp je verhaal al klinkt het nog wel erg als simpele applicaties. Ik doel echt op complexe applicaties waarbij de computer uitzoekt hoe de applicatie aan de randvoorwaarden kan voldoen die ik stel.
En aan de andere kant krijg je een kunstmatige intelligentie die leert hoe mensen "denken" en wat voor GUI handig is voor een persoon om tegenaan te werken, zodat de computer zelf GUI leert maken voor mensen om bepaalde taken efficient uit te voeren in opdracht van mensen.

Zo moet de computer dus ook zelf bedenken wat een handige interface is voor mensen om aan te werken. De computer moet zelf bedenken welke 3 knoppen er komen en hoe die moeten heten. De computer moet dan dus werken met iconen en patronen die voor de gebruiker een bepaald concept duidelijk maken zodat de gebruiker kan werken met de software

[Reactie gewijzigd door Gamebuster op 5 december 2016 10:41]

Ja dat is nog een stap verder, waarbij de computer zelf bedenkt wat de mens nodig heeft, ik zat nog in de fase dat ik als mens aangeef wat ik nodig heb :)
Een oude bekende is dat de programmeur denkt te weten wat de gebruiker wilt, maar dat de gebruiker iets anders wilde dan de programmeur maakte.

Of dit stripje: http://www.tamingdata.com...ject-management-large.png

Ik betwijfel dat een AI ooit beter zal bgegrijpen wat wij willen, als wij het al niet eens kunnen.
Hmm, tegen de tijd dat dit gebouwd zou kunnen worden, zouden we dan nog GUIs gebruiken zoals we nu doen? :)
Als blijkt dat de "unsafe" optimalisatie consequent werkt en sneller is, kan de AI "onthouden" deze optimalisatie te gebruiken en eventueel te delen met andere systemen.
Nee sorry, dat gaat hem niet worden. Wanneer concludeer je dat iets "consequent" werkt; na 10 keer, na 1000 keer, na 1.000.000 keer? Hoe weet je dat het de 1.000.001e keer niet toch nog fout gaat? Want afschuwelijk zeldzame bugs zijn geen theoretische mogelijkheid, ze bestaan ook in het echt:
Though rarely encountered by most users (Byte magazine estimated that 1 in 9 billion floating point divides with random parameters would produce inaccurate results), both the flaw and Intel's initial handling of the matter were heavily criticized by the tech community. The man who found the bug points out that since it went unnoticed for a year in a popular product, that likely indicates that the bug was less harmful than IBM suggested.
(emphasis added)
Bovendien, jouw voorstel test alleen "gewone" invoer. Dikke kans dat zo'n unsafe optimisation normaal prima werkt, maar wel een exploit mogelijk maakt. Oeps!

TL;DR:
"Testing shows the presence, not the absence of bugs" - EWD
Juist niet..

Met dit soort AI technieken (machine learning) ga je juist niet de regels en het programma exact omschrijven. Je geeft het een groot arsenaal aan data en uitkomsten (eventueel gekoppeld aan extra penalties en rewards tijdens de game; reinforcement learning) en het netwerk gaat zichzelf optimaliseren om een zo goed mogelijk uitkomst te generen. Dit allemaal zonder dat je ooit vertelt hebt hoe je een unit moet maken in Red Alert of hoe je gebouwen moet maken in Civ.

Een interessante combinatie ontstaat als je deze, enigsins "simpele", aanpak gaat combineren met jouw ideeŽn (meer het rule-based). Daar gaan ze op dit moment mee bezig bij Uber (lees daar meer over in dit artikel: nieuws: Uber neemt ai-bedrijf over en richt Uber AI Labs op)
Ik denk dat je dan toch moet programmeren :P
^ Dit

Het specificeren van wat een programma zou moeten doen is gewoon hetzelfde als programmeren. Ik denk dat declaratieve programmeertalen bijvoorbeeld al volgens deze manier van programmeren werken.
Maar de vraag die ik heb, hoe leg ik een computer uit hoe een programma exact zou moeten werken?
Dit doe je door grenzen aan te geven waarbinnen dat programma moet werken.
wanneer gaan computers ook leren programmeren?
Hey, het is niet de bedoeling dat we straks zonder werk zitten ;)

Eigenlijk gebeurd dit al, middels ASM. Elke programmeertaal is uiteindelijk machinetaal die de computer uitvoert.

En, als je uitzoomt dan helpen ze ons al met programmeren. Een simpel maar doeltreffend voorbeeld is syntax highlighting. Stel je voor dat je programmeert zonder syntax highlighting? Of met verkeerde of slechte syntax highlighting? Welnu, hierdoor worden wij efficienter en beter in programmeren.

Indirect komt dat op hetzelfde neer; een efficientere samenleving. Het enige verschil is dat je bij het ene niets hoeft te doen (AI/ML programmeert), terwijl bij het andere jij zelf het werk doet. Maar op het moment dat een computer programmeert, zul je hem moeten controleren op fouten. Dan krijg je HAL9000 scenarios ;)
Daarnaast om nog een stapje verder te denken, wanneer gaan computers ook leren programmeren? Ik heb al een paar voorbeelden gezien op internet met simpele voorbeelden waarbij de uitkomst x moet zijn, en de computer alle mogelijkheden probeert die in de buurt komen van x.

Maar de vraag die ik heb, hoe leg ik een computer uit hoe een programma exact zou moeten werken?
Da's precies wat Machine Learning inhoudt.

Ik heb een input X en output Y. Verzin er maar een functie/hypothese/whatever bij die zorgt dat Y de uitkomst wordt als ik X als input geef. Met name neurale netwerken zijn black boxen die via simpele interne regels (wel of niet "vurende neuronen") toch complexe zaken als gezichts- of handschriftherkenning kunnen bewerkstelligen zonder expliciete if-then-else code aan te geven.

Zo kun je bijvoorbeeld een agent in Mario Bros leren via een neuraal netwerk om een level (optimaal) te doorspelen:
https://www.youtube.com/watch?v=05rEefXlmhI
Nog meer offtopic: Dit is wat ik mij afgelopen week ook afvroeg... Elon Musk zij ook al dat we hoogstwaarschijnlijk in een simulatie leven. Er zijn genoeg theorieŽn dat de wereld om ons heen een projectie is / een soort hologram. Persoonlijk heb ik ook al wat dingen meegemaakt die moeilijk te verklaren zijn als de wereld echt zo statisch is in zijn fysieke aard als men zou moeten geloven.

Anyway, wat als het apparaat waar we in zitten ook 1 grote neuronen computer is. Waar we overdag wat meer geconcentreerd zijn op wat we denken te moeten zien als we zijn waar we zijn, waar we s'nachts zonder concentratie van alles voorbij laten komen. Het valt mij op hoe mooi dromen een mengelmoes zijn van allerlei verschillende facetten die we een keer hebben opgedaan.

En het punt waar ik echt op wilde komen, dat de realiteit die we zien, de wereld buiten ons, misschien helemaal niet zo diep gesimuleerd moet worden (op het atoom) als dat we denken. Net als Deepmind text to speech kan doen, je stopt er X als input in, het apparaat weet niet wat het qua geluid aan het namaken is, en er komt Y uit. Misschien wordt onze realiteit ook zo gemaakt, we denken X te moeten zien, de grote neuronen computer maakt er een creatie van Y, waarbij het allemaal lijkt dat het waar is, maar eigenlijk is het een illusie (maya?)

[Reactie gewijzigd door Mic2000 op 5 december 2016 14:38]

Net zoiets als vrije wil, de realisatie van een gedachte komt later dan de gedachte zelf. Oftewel, je bent een slaaf van je eigen mentale processen.
Yes... denken we als in dat we een keuze maken, of is het telkens een afweging afhankelijk van voorgaande ervaringen en speelt alles zich gewoon uit.
"Het uiteindelijke doel is dat de kunstmatige intelligentie alles kan doen wat een mens ook achter de computer kan."

de mens vervangen? waarom zou je dat willen met zoiets?
Zie hier alleen maar een bot die getrained word beter te cheaten :P

AI blijft een eng topic.
Ik deel dit ineens. Als ik zie hoe de AI allerlei taken op hoge snelheid begint te leren of hun site, is dit de eerste keer dat ik schrik. Een AI wordt 'opgevoed' door mensen, net als een kind. Maar in de AI wereld lijken drie verschillen: 1) kinderen hebben een jeugd van 18 jaar, waarin ze in een relatief veilige omgeving rustig hun grenzen leren verkennen. Dit is ook een tijd die verzorger/opvoeder nodig heeft, omdat die niet prefect zijn en ook niet alles van tevoren kan verzinnen, 2) AI's zijn al snel een stuk capabeler/sterker (zijn zelf in staat grote dingen te doen, als bijvoorbeeld aankopen doen) en 3) AI's worden al na korte tijd losgelaten op de grote wereld (alsof je een 'kind' al direct een grote verantwoordelijkheid geeft)

Dit gaat allemaal zo snel, dat ik me kan voorstellen dat een verkeerd getrainde AI als heel veel schade aangericht kan hebben, voordat een mens dit doorheeft.
Je trekt parallelen die helemaal nergens op slaan. De vergelijking tussen het 'opgroeien' van een AI en een kind gaat op zoveel manieren mank dat ik niet eens weet waar ik moet beginnen. In ieder geval met de opmerking dat je te veel films kijkt en dat die je beoordelingsvermogen nogal hebben aangetast.

Wie zegt dat een AI niet rustig zijn grenzen kan verkennen? Wie zegt dat AI's al snel worden losgelaten op de grote wereld? Wie zegt Łberhaupt dat de ontwikkeling van een AI langs dezelfde wegen loopt als die van een kind? Een AI 'brein' werkt om te beginnen al heel anders, zaken als oorzaak-gevolg worden op een hele andere manier geleerd en geÔnterpreteerd. Het is onvergelijkbaar.

Vervolgens pak je al je eigen redeneringsvermogen, voedt het met angst, en bedenkt alleen de negatieve scenario's. Tja, zo kan ik ook een film schrijven waarin alles fout gaat.
Gelukkig heb jij recht op die mening.

Mijn mening komt voort uit dat ik vrienden heb die met AI bots op diverse fora en andere dingen zitten te experimenteren. Er is geen wet of beleid die dat verbied.

Een AI brein werkt inderdaad heel anders. Mijn vergelijking baseer ik op de "trainer": een ouder/programmeur. Die leert een kind/AI namelijk specifieke dingen aan en af en bedenkt wanneer een AI klaar is voor de grote wereld. De capaciteiten van die persoon zijn in mijn ogen een zwakke schakel.

Je mag mij een bangerik noemen. Ik merk dat jij extreem pro-AI bent: ik kan uit je profiel niet opmaken of je in dat vakgebeid werkt. Ik ben niet anti-AI, maar ik denk dat het ook niet goed is om blindelings technologie te pushen.
Wat jij AI-bots noemt staat natuurlijk enorm ver af van 'echte' AI. Als je Microsofts Tay als voorbeeld neemt, dan kun je daar enorm bang van worden als je dat vertaald naar een AI met daadwerkelijke toegang tot alle informatie die er is. Maar dat is dan wel angst die gebaseerd is op een gebrek aan kennis en interpretatievermogen.

Feit is dat dit soort 'experimenten' natuurlijk vrij weinig met AI te maken hebben. Althans niet met AI als daadwerkelijk zelfdenkende entiteit. Zo'n bot op een internetforum is hooguit een gimmick.

Ik ben overigens helemaal niet extreem pro-AI, dan heb je mijn eerdere posts over dit onderwerp niet gelezen (wat ik je niet kwalijk neem op een enorme site als deze, uiteraard, maar je oordeelt wel snel). Ik zie alleen enorme mogelijkheden, mits de juiste failsafes worden ingebouwd en een AI op de juiste wijze wordt ingezet is er geen enkele reden om bang te zijn.

We zijn nog ver verwijderd van echte AI op een niveau dat je spreekt over een zelfdenkende entiteit die mee kan denken in het oplossen van de grootste vraagstukken waar we mee geconfronteerd worden als mensheid. En natuurlijk is het belangrijk dat je een dergelijke entiteit de juiste 'genetische' bagage (programmering) mee geeft. Want nogmaals, waarom zou zo'n entiteit zich tegen de mens keren?
AI blijft een eng topic.
Alles wat onbekend is wordt door sommige mensen als 'eng' beschouwd. En dat wordt dan vervolgens weer leuk gevoed in de media met films, tendentieuze nieuwsberichten en schreeuwende 'experts'.

Het zit er bij de mens nogal ingebakken kennelijk om nieuwe dingen niet te omarmen en alleen de gevaren te zien. Dat is ergens ook niet erg, want het zorgt er voor dat we scherp blijven in het ontwikkelen van nieuwe zaken en dat we failsafes inbouwen. Maar laten we ook vooral in mogelijkheden gaan kijken waarin AI ons kan helpen met de uitdagingen van de toekomst.

Want laten we eerlijk zijn, zo verschrikkelijk goed doet de mensheid het niet als het gaat om het bereiken van het voorbestaan van onze soort. Wie zegt dat een AI niet juist een enorme bijdrage gaat leveren in onze toekomst? De angst dat een doorontwikkelde AI zichzelf ten doel gaat stellen dat de mens vernietigd moet worden is ongefundeerd.

Als een AI al een eigen wil of geweten gaat ontwikkelen, dan is de kans dat hij de mens ziet als zijn 'schepper' en dat hij deze wil beschermen, minstens even groot. Waarom zou deze zich tegen ons willen keren? Omdat hij Terminator heeft gezien tijdens zijn leerproces?
Daar verschil ik in mening over: de mens is nou juist berucht dat hij handelt voor na te denken en dan achteraf spijt heeft.
Er wordt vaak genoeg technologie 'omarmd' die achteraf niet optimaal blijkt te zijn. Atoombommen als grote voorbeeld. Technologie omdat het kan.
Zo hoor ik nu nog vaak genoeg mensen praten over Kernfusie. Die bedenken niet dat met 'onbeperkte' energie bronnen de aarde echt nog wel verder zal opwarmen. We zijn dan notabene kleine zonnetjes op de aarde aan het recreŽren!

AI draagt al bij aan onze huidige tijd. De vraag is of de bijdrage aan de toekomst een goede zal zijn.
Atoombommen zijn inderdaad niet optimaal. Tegelijkertijd zijn atoombommen wel de reden dat er tot op heden relatieve vrede is op aarde. Zonder atoomwapens waren WO 3, WO 4 en WO 5 inmiddels ook al uitgevochten op ons continent.

Daarnaast heeft je post wel een heel hoog 'kijk mij het allemaal beter begrijpen dan de rest'-gehalte, terwijl je volledig redeneert vanuit angst voor het onbekende.

Ja, kernfusie kan ook zijn negatieve kanten hebben. En ja, ook AI kan dat hebben. Maar als je daar vanuit gaat bij elke ontwikkeling en vervolgens maar op de rem trapt uit angst, dan komen we geen stap verder. En jij bent niet de enige op deze planeet die na kan denken, ga er maar vanuit dat (zeker in deze tijd waarin iedereen in een werkveld van de ontwikkelingen op de hoogte is) veel makkelijker failsafes ontstaan en veel verder nagedacht wordt over consequenties van handelen.

Ik vind je verhaal over onbeperkte energie wel een mooie. Je ziet een beperking die er helemaal niet hoeft te zijn en gebruikt dat om een ontwikkeling te willen remmen. Dat is gewoon angst, erger nog, angstzaaierij.
heel hoog 'kijk mij het allemaal beter begrijpen dan de rest'
Waar beweer ik dat? Ik ben wel de laatste die zou beweren dat ik alles weet. Er zijn maar een paar vakgebieden waar ik wat meer over weet, maar daarin zal ik mezelf niet eens zo snel 'expert' noemen.
Het enige wat ik naar mijn mening doe is nu vraagtekens zetten bij een specifieke technologische innovatie.

Overigens lijk ik uit jou reactie de volgende meningen op te maken, klopt dat?
- Technologische innovatie is vooruitgang.
- Kritisch zijn naar technologische innovaties remt de algemene ontwikkeling af.
- We komen geen stap verder als we er elke keer vanuit gaan dat technologie negatieve kanten kan hebben.
- Er is relatieve vrede op aarde.
- Die vrede is bereikt door atoombommen.

Zo ja, dan heb ik duidelijk een heel ander wereldbeeld dan jij.
Ik vind dat je veel verder gaat dan vraagtekens zetten. Maar misschien lees ik je berichten te scherp, zoals jij mij beticht van extreem pro-AI te zijn. Dat zou kunnen. Mogelijk komen we vanuit een andere invalshoek, maar zitten onze meningen dichter bij elkaar dan we denken. Om even je lijstje 'weredlbeeld' af te gaan:

- Technologische innovatie is niet per definitie vooruitgang. Dat type ik ook nergens. Vooruitgang wordt wel doorgaans bereikt door technologische innovatie.

- Overdreven kritisch en angstig zijn naar technologische innovaties remt vooruitgang ja. En in mijn beleving is dat jouw insteek.

- Er is relatieve vrede op aarde, in vergelijking tot de situatie die we zouden hebben wanneer er geen kernwapens zouden zijn. Dat lijkt me overigens evident.

[Reactie gewijzigd door Hoppa! op 5 december 2016 13:35]

Ik denk dat het gebrek aan kennis je banger maakt dan dat reŽel is.....

Met kernfusie maak je dermate kortlevende 'zonnetjes' dat het ťcht geen opwarming van de aarde veroorzaakt. CO2, dat schijnt de boosdoener te zijn. Er zit dermate veel CO2 in de atmosfeer zegt men dat de aarde z'n warmte niet meer kwijt kan. Dat is iets totŠŠl anders dan kernfusie.
Ik denk dat mijn onvolledige verhaal jou op het verkeerde been zet. ;)
Ik doel namelijk op iets anders: wanneer er "oneindige" energie is, heb je ook geen reden om energie te besparen. Dus geen noodzaak voor energiezuinige apparatuur.

Op dit moment wordt verwacht dat we in 2020 wereldwijd zo'n 25 biljoen (10^12) kWh per jaar verbruiken. Stel alle apparaten zouden een energie-efficiŽntie van 90% hebben, dan wordt de aarde dus met dus 2.5 biljoen kWh per jaar opgewarmd.

Stel we hebben oneindige energie en gaan 2x zoveel verbruiken, plus apparaten hoeven niet meer zijn niet meer zo energiezuinig te zijn (neem 80%). Dan wordt de aarde ineens met 10 biljoen kWh per jaar opgewarmd.

Niet dat dit perse de toekomst zal zijn. Ik probeer alleen maar aan te geven dat je moet blijven nadenken over de gevolgen van technologische innovatie.

p.s. bij CO2 moet je trouwens de andere broeikasgassen en ook waterdamp niet vergeten. De focus op alleen CO2 is te minimaal.
Ben het met jullie beiden niet eens. Mensen zijn uniek, de een wil juist graag ontdekken zie tegenwoordige wetenschappers. En andere blijven graag in het verleden (streng gelovigen). Mensen zijn van nature nieuwsgierig, dit begint in een vroeg stadium om zo dingen te leren. Later kiezen mensen er zelf voor om door te gaan met deze nieuwsgierigheid of het gewoon laten zoals het is.

De meeste ontwikkelingen beginnen met goede intenties, het probleem is echter dat technieken en ontwikkelingen ook gebruikt kunnen worden voor minder goede dingen. het is aan de mensheid zelf om te kiezen waar ze het voor gebruiken.
Automatisering is al jaren een groot onderwerp en vervangt al een heleboel mensen, dit is alleen een volgende stap daarin om complexere problemen op te kunnen lossen...
de mens vervangen? waarom zou je dat willen met zoiets?
Vrij simpel, en om dezelfde reden dat oorlog of F1 nuttig is; wetenschappelijke vooruitgang. AI (of eigenlijk: ML) staat in de kinderschoenen.
AI blijft een eng topic.
Zo ook messen, machinegeweren, granaten, exploits, programmeer fouten, hackers, cyber security, kernwapens, biologische wapens, bommen, vliegtuigen, RF, ledjes, wespen, muggen ... eigenlijk zo'n beetje alles dat in het nieuws komt kun je wel eng vinden, en alles dat je kunt bedenken heeft wel een bepaalde 'angle' die eng is.

Als iemand werkelijk alleen maar negatief en met angst naar dit soort onderwerpen kan kijken dan raad ik ten zeerste professionele hulp aan. Want dat is niet gezond. Ik kan het weten :)
Ik geloof nooit dat ze iets zinnigs kunnen doen met een game als portal. Althans voorlopig niet.
Portal speel je niet door random zooi te optimizen. Je moet o.a. plannen, wat suggereert dat er een stukje proces is dat al kan plannen (plannen evolueer je niet zomaar even, daar is weer specifiek geheugen bij nodig, allerlei dingen om associaties op te bouwen, etc, etc.).
Ik denk dus dat het nog wel even duurt voordat een AI een spel als portal kan spelen.
Als je de AI specifiek schrijft voor een game als portal, dan zijn er zeker een hoop mogelijkheden. Het gaat bizar hard: ze trainen nu de driving autopilot (DeepDrive) in GTA V las ik.

Wat bedoel jij met "voorlopig" en "nog wel even". Mijns inziens zal het eerder maanden dan jaren zijn...
Nou wat ik met name bedoel is dat een game als portal niet reactief is. Het is niet duidelijk hoe het doel te halen is en er zijn meerdere hogere functies (die al systemen op zich zijn) nodig om resultaat te halen.
Klopt, het is nog iets te random allemaal. Als je duizend apen een controller geeft zal er waarschijnlijk ook 1 door puur toeval het level halen.

Maarja het is ook lastig. Als wij naar een racegame kijken dan herkennen we meteen zaken al, zoals de auto, de weg, de omgeving. Alleen daaruit al concluderen we als mens dat het om een racegame gaat, en wat de win condities zijn. De AI gaat eerst helemaal aan de zijkant van de weg rijden. Een mens zal dat nooit doen (hooguit omdat je aan de controls moet wennen) omdat het het concept van racen al sinds je jeugd in je hoofd zit. Je kent het concept van 'een weg', sturen, gas geven, de weg volgen, etc.

Voordat je aan echt goede game AI kan beginnen moet je dus eerst AI hebben die gewoon begrijpt wat ie ziet.

[Reactie gewijzigd door Atmosfeer op 5 december 2016 17:27]

Maar een AI kan veel meer spellen spelen dan jij (parallel kan hij heel veel trainen), dus de kans is groot dat hij wťl ontdekt hoe het moet en zichzelf verbetert. En in games misschien zelfs onorthodoxe manieren ontdekt, die wij niet zien, precies om de reden die jij geeft.

Ik ken Portal niet goed genoeg om daar wat over te zeggen, maar het klinkt juist als een hele mooie taak voor een soort unsupervised learning (alhoewel er vast wel doelen zijn en een maat van hoe goed iemand het gedaan heeft). Geen regels introduceren en kijken wat het netwerk kan bereiken.
Ik ken Portal niet goed genoeg om daar wat over te zeggen, maar het klinkt juist als een hele mooie taak voor een soort unsupervised learning (alhoewel er vast wel doelen zijn en een maat van hoe goed iemand het gedaan heeft). Geen regels introduceren en kijken wat het netwerk kan bereiken.
Portal is een spel met 1 doel (de deur bereiken) en er is maar 1 weg, die soms anders bewandelt kan worden (wat geen invloed heeft op het oplossen van de puzzle). Je moet inzicht krijgen in wat het level van jou verwacht.
De kans dat je de juiste oplossing per ongeluk tegenkomt is ontzettend klein. Zonder hogere functies lijkt het me enorm inefficient om het met een neuraal netwerk te doen.
Maar goed, dat is alleen mijn inschatting.
Als wij naar een racegame kijken dan herkennen we meteen zaken al, zoals de auto, de weg, de omgeving.
Ja, ik snap dat. Maar portal is dus geen racegame.
Een race spel is zeg maar reactief. Je opdracht is om de visuele informatie direct om te zetten in gas, remmen, links en rechts. Dat is een vrij korte loop.
Bij Portal moet je zelf de informatie samenstellen (inzicht) in je eigen geheugen en daaruit een serie specifieke acties afleiden. Er is geen tijdsdruk. Je moet gaan begrijpen wat het spel van jou wil.
Ah zeker. Ik had even niet verder aan portal gedacht bij m'n reactie. Je hebt zeker gelijk.
Het leuke van veel van deze multi-player games is de mogelijkheid om ook menselijke spelers toe te voegen. AI vs AI kan in een ideale wereld nog wel op elkaar afgestemd worden. Menselijke interactie zal echter altijd onvoorspelbaar blijven.

Autonome voertuigen zijn dan ook makkelijker autonoom te krijgen als je alleen maar autonome voertuigen tegenkomt. De echte moeilijkheid is als er nog een x% menselijke voertuigen tussen zit.
Klein beetje off-topic om in te gaan op je autonome voertuigen, het is inderdaad zo dat het makkelijker is als je alleen maar autonome voertuigen hebt, maar deze moeten dan wel met elkaar kunnen communiceren. Maar de auto moet nog steeds met fietsers en voetgangers om kunnen gaan.
Nee, het is niet offtopic. Tesla/ Elon Musk is in OpenAI gestapt, juist om AI in zijn projecten, waaronder autonome auto's/ Tesla te gaan integreren.
https://www.wired.com/201...ficial-intelligence-free/
Musk was there because he’s an old friend of Altman’s—and because AI is crucial to the future of his various businesses and, well, the future as a whole. Tesla needs AI for its inevitable self-driving cars. SpaceX, Musk’s other company, will need it to put people in space and keep them alive once they’re there. But Musk is also one of the loudest voices warning that we humans could one day lose control of systems powerful enough to learn on their own.
Even Yuri en zijn mindless drones een pak slaag geven in red alert. Extra geld ophalen als een prototype werkt dmv een twitch stream. Ik zou sowieso kijken.
Een AI die effectief de muis moet bewegen en Klicken op elk individueel object , lijkt me veel toffer dan de huidige AI. Kan ge de moeilijkheidsgraad gemakklaijker gradueel aanpassen.
Ook een game waar je je kan focussen op strategie en minder op de acties lijkt me wel een leuke innovation.
Volgens mij is het gedrag van GladOS in Portal wel het laatste dat je een AI wil leren :+
liedjes zingen is toch ok? :)
Alsof het nog niet erg genoeg is dat ik in online games verlies van andere mensen, komen er straks ook nog digitale tegenstanders bij... :)

[Reactie gewijzigd door Tweakmans op 5 december 2016 11:35]

In hoeverre gaat dit nou echt om zo goed mogelijk een potje xyz te spelen? Dat konden erazer bots in quake 2 toch ook al heel goed? Dit gaat erom die algoritmes te optimaliseren. Die games verzorgen gewoon de dataset
Ik snap de hype hier omheen niet zo goed. Ik zie dit niet het niveau automatische piloot ontstijgen, iets wat we al heel lang doen. Games zijn regel gebaseerd en hebben maar een paar juiste uitkomsten. Simpele regels die makkelijk te beheersen zijn. Mis ik hier iets?
Human Intelligence past in Red Alert2 gewoon de .ini file aan.
Machtig spul, een Spy , Weapon=Tesla Coil, Range=200.

Benieuwd of Artificial ook toegang tot de cheats weet te vinden.

Op dit item kan niet meer gereageerd worden.


Apple iPhone X Google Pixel XL 2 LG W7 Samsung Galaxy S8 Google Pixel 2 Sony Bravia A1 OLED Microsoft Xbox One X Apple iPhone 8

© 1998 - 2017 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Hardware.Info de Persgroep Online Services B.V. Hosting door True

*