Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Amerikaanse defensie investeert 2 miljard dollar in onderzoek naar ai

Het Amerikaanse defensie-onderdeel Darpa, oftewel Defense Advanced Research Projects Agency, gaat omgerekend iets meer dan 1,7 miljard euro stoppen in onderzoek naar ai. Het doel is om ai's te maken die niet zoveel training nodig hebben als hedendaagse neurale netwerken.

De investering, die onderdeel is van het zogenaamde ai next-programma, wordt verspreid over meerdere jaren, vertelt Darpa. De beoogde third wave-ai moeten niet alleen met minder training kunnen werken, maar moeten ook veranderende omstandigheden aankunnen, bepaalde 'prestatiegaranties' geven en een onderbouwing kunnen geven voor de beslissingen die ze maken.

"We willen computers ombouwen van gespecialiseerde gereedschappen naar partners voor probleemoplossing", stelt Darpa-hoofd Dr. Steven Walker. Hij vat het werk verder samen als "onderzoeken hoe we machines mensachtige communicatie- en redeneringsvaardigheden kunnen geven, met het vermogen om nieuwe situaties te herkennen en zich daaraan aan te passen."

Het geld wordt onder andere gestopt in onderzoeksprojecten die Darpa met 'groot risico, grote beloning' bestempelt. Een project moet binnen 18 maanden van een idee naar een werkbaar ai-concept gaan.

Door Mark Hendrikman

Nieuwsposter

09-09-2018 • 14:01

81 Linkedin Google+

Submitter: John Stopman

Reacties (81)

Wijzig sortering
Ik vind het een zeer interessant initiatief, maar ben er erg sceptisch over. (Ter duiding, ik bezit een "advanced master's" diploma in AI en ben me aan het verdiepen in een doctoraatsproject in machinevertaling en NLP. Dat zeg ik niet om op te scheppen maar om duidelijk te maken dat ik bekend ben met het veld. edit: Ik vermoed dat enkele mensen me hier een 0 of zelfs -1 voor gegeven hebben, jammer.)

Zoals ik het hier lees willen ze meer bereiken met minder data ('training') (edit: bij het herlezen van het artikel zou het ook om minder training tijd (epochs) kunnen gaan, wat meer steek houdt). Een mooie uitdaging, maar een zeer moeilijke. Vergeet niet dat de basisalgoritmes binnen AI en machine learning (ML) als sinds de jaren 50 onderzocht worden (typevoorbeeld Naive Bayes) en grote vooruitgang dus niet op een jaartje gemaakt wordt. Tussen de jaren 70 en begin jaren 90 heeft het onderzoek naar efficiënte algoritmen ietwat stil gelegen. Deels uit desinteresse, deels uit scepticisme, en deels uit het gebrek aan computationale kracht. Je kan zoveel mathematische algoritmes uitvinden die je wil, maar om ze toe te passen en hun effect en impact te testen moet je wel over (relatief) krachtige hardware beschikken.

Ik zei dat grote vooruitgang niet op korte termijn gemaakt wordt. "Wat dan met Deep Learning, en neurale netwerken (NNs)?" De theorie achter deze technieken is niet hard veranderd. Het basis idee van een neuraal netwerk bestaat al sinds 1950s, waar men vertrok van een perceptron, de basiscomponent van wat wij kennen als een neuraal netwerk. Een perceptron is in wezen niets meer dan een enkele functie die uit een gegeven input een classificatie kan opmaken. Heden ten dage zijn neurale netwerken uiteraard veel groter, met veel meer van deze functies (inputs), en wordt de output van de ene functie als de input voor de volgende gebruikt (hidden layers).

Waar ik naartoe wil, is dat er op korte tijd geen grote theoretische veranderingen zijn gebeurd (neem dit met een korreltje zout, natuurlijk). Vooral praktisch werd er meer mogelijk. We kunnen grote neurale netwerken opzetten omdat we meer geheugen en processorkracht ter beschikking hebben. Maar vooral, we hebben veel data. Onze voorspellingen zijn zo goed omdat we al die informatie hebben die we als input voeden. Zo veel data zodat er een fine-grained model gegenereerd kan worden. En hier ben ik dus kritisch over de doelstelling van DARPA. Ze zullen grote theoretische vooruitgang moeten boeken (wat niet vanzelfsprekend is, zie boven) als ze betere prestaties willen neerzetten met minder data. Als je daarnaast ook zegt dat de accuraatheid van je model erop zal verbeteren ook al gebruik je minder data, dan vind ik dat de lat hoog leggen.

Then again, it's DARPA. Ze hebben de middelen om de beste wiskundigen, computer scientists, en AI-specialisten aan te werven (geloof me vrij, échte wiskundigen hun algoritmeskills overstijgen alles dat toegepaste wetenschappers kunnen bewerkstelligen - zelf ben ik geen wiskundige maar heb enorm veel respect voor hen). Dus wie weet. Ik ben benieuwd.

Bonus voor de mensen die heel dit dagboek gelezen hebben: er staat een online "playground" voor neurale netwerken op https://playground.tensorflow.org. Je kan op een visuele manier een beter inzicht krijgen in wat neurale netwerken doen, en hoe hun input/output propageert tot een uiteindelijke classificatie.

[Reactie gewijzigd door BramVroy op 9 september 2018 21:09]

Ik vind het een zeer interessant initiatief, maar ben er erg sceptisch over. (Ter duiding, ik bezit een Manama in AI. Dat zeg ik niet om op te scheppen maar om duidelijk te maken dat ik bekend ben met het veld.)
Ik heb een vergelijkbare opleiding en ik ben het grotendeels laaiend met u eens, maar....
Waar ik naartoe wil, is dat er op korte tijd geen grote theoretische veranderingen zijn gebeurd (neem dit met een korreltje zout, natuurlijk). Vooral praktisch werd er meer mogelijk. We kunnen grote neurale netwerken opzetten omdat we meer geheugen en processorkracht ter beschikking hebben. Maar vooral, we hebben veel data. Onze voorspellingen zijn zo goed omdat we al die informatie hebben die we als input voeden. Zo veel data zodat er een fine-grained model gegenereerd kan worden. En hier ben ik dus kritisch over de doelstelling van DARPA. Ze zullen grote theoretische vooruitgang moeten boeken (wat niet vanzelfsprekend is, zie boven) als ze betere prestaties willen neerzetten met minder data. Als je daarnaast ook zegt dat de accuraatheid van je model erop zal verbeteren ook al gebruik je minder data, dan vind ik dat de lat hoog leggen.
Ik denk dat de aanpak van DARPA wel degelijk de juiste is. Ik denk dit juist omdat ik vanuit mijn opleiding weet, dat als men eenmaal een bepaalde drempelwaarde aan verzamelde data heeft behaald, het nauwelijks nog iets toevoegt om meer data uit vergelijkbare bronnen te verzamelen. Eenmaal voorbij dat punt, moet de echte vooruitgang dan vaak komen uit data die "randgevallen" correct beschrijft in combinatie met een wegingsfunctie voor die randgevallen.

Om dit probleem te illustreren gebruik ik vaak het volgende argument:
Hoeveel data heeft een mens nodig om taalbesef te krijgen?
Een afschatting: Stel dat er in de eerste 30 jaar van uw leven, 24 uur per dag, 7 dagen per week en 52 weken per jaar op een normaal spreektempo tegen u wordt gesproken. Bij een gemiddeld spreektempo en gemiddeld taalgebruik blijkt dat al deze tekst ergens tussen de 26 en 38 GB aan data te zijn in plain text. Dus laten we uit gaan van 32 GB en dan is dat waarschijnlijk nog steeds een factor 3 te groot.
Van deze 32 GB is slechts een fractie "geannoteerde data" en die data wordt dan door "ouders" of "docenten" aangeleverd in de taal die men op dat moment al geleerd heeft.
Wetenschappelijk is dit argument natuurlijk niets waard, maar het geeft wel heel mooi weer dat wat de huidige technieken doen, nog steeds totaal niet lijkt op wat "echte intelligentie" (of menselijke intelligentie) doet. Daarnaast doet echte intelligentie het ook nog eens met veel minder data.

Ik denk dat deze aanpak van DARPA de juiste is. De projecten waar zij mee bezig zijn zullen waarschijnlijk veel zwaarder steunen op diepe analyse van bepaalde specifieke domeinen om dit doel te bereiken, dan op wat wij nu in zijn algemeenheid AI of ML noemen. Een voorbeeld is het onderzoek naar een onderliggende logica voor Commonsense Reasoning, want een goed theoretisch fundament om een dergelijk systeem op te bouwen ontbreekt nog steeds. Mocht DARPA hier echter deze weg bewandelen en een goed theoretisch fundament weten te leggen, dan ligt de lat ineens aanzienlijk lager.
Then again, it's DARPA. Ze hebben de middelen om de beste wiskundigen (geloof me vrij, échte wiskundigen hun algoritmeskills overstijgen alles dat toegepaste wetenschappers kunnen bewerkstelligen) en computer scientists aan te werven. Dus wie weet. Ik ben benieuwd.
Dan moet je niet de wiskundigen hebben van het soort: "Dit is berekenbaar", of "dit convergeert uiteindelijk". Daar heb je niets aan, maar het is wel hoe de AI op dit moment grotendeels werkt.
Het wordt niets zolang men blijft werken met één van de mantra's "Blijf proberen tot het convergeert", "Probeer het zolang en neem de beste" of "Zorg dat de foutmarge onder een bepaalde drempelwaarde komt". Daarnaast gaat men ook een klein legertje domein-experts nodig hebben.
Zeker akkoord hiermee. Ik wilde ook geen betoog voeren dat het een slecht idee is van DARPA, maar ik weet gewoon niet of ze zullen slagen. Ik wilde ook niet zeggen dat het alternatief moet zijn om gewoon nog meer data in een systeem te pompen en dan maar hopen dat je black-box alles zelf uitvogelt. Zo werkt het niet.

Menselijke intelligentie is iets dat nog lichtjaren van ons af ligt. Killer robots die de wereld overnemen uit eigen belang? Not even on the timeline. Ik denk eerlijk gezegd ook niet dat een neuraal netwerk (hoe diep ook) ooit het menselijk functioneren kan inhalen. (Misschien dat quantum-computing me ongelijk zal geven, maar eerst zien en dan geloven.) Maar jij lijkt hier wat meer hoop in te hebben, maar dan met een minder kwantificeerbare aanpak? Hoe zie je dat juist? Als je je systeem wilt trainen om met meer randgevallen rekening te houden, gaat de accuraatheid (niet zo gek) naar beneden in de modellen die we tot vandaag toe kennen. Daarom ook dat er geen enkel 'multi purpose' AI systeem is: elk model heeft z'n eigen sterktes en zwaktes.

Neem bijvoorbeeld spraakherkenning voor het Nederlands. Spraakherkenning is een moeilijke zaak. Als je je enkel focust op standaardtaal, zal dat ietwat meevallen. Maar dan is de vraag, wie spreekt er in godsnaam standaardtaal? Als je een nieuwslezer uit België en eentje uit Nederland naast elkaar laat praten (laat ons Antillen enz. even buiten beschouwing laten), hoort iedereen dat verschil! Geen standaard dus? Je systeem opsplitsen in eentje voor BE en eentje voor NL? Maar dat willen we ook niet, we willen een enkel krachtig systeem dat voor 'het Nederlands' werkt. Oké, dus je werkt met BE-NL en NL-NL data. Hier zal je dan standaardtaal mee kunnen detecteren en wat omgangstaal vast ook. Maar wil je échte natural voice recognition? Een systeem dat het Nederlands kan ontcijferen dat twee dorpsgenoten van 90 jaar oud kan verstaan? Dan moet je zo'n dialectische data er ook wel bijnemen. De kans dat je zo'n gesprek juist analyseert, wordt dan groter - maar de accuraatheid van je systeem in z'n geheel daalt - simpelweg omdat je het systeem 'meer mogelijke interpretaties geeft waar het moet uit kiezen' en hogere entropie = lagere accuraatheid.

Ik bedoel maar dat dat een moeilijk keuze is om te maken: accuraat systeem dat werkt op een gelimiteerde data set, of een matig systeem dat werkt op een bredere data set. Die beperking ga je naar mijn mening altijd hebben, waardoor je nooit tot menselijke intelligentie (/ accuraatheid) kan komen!

[Reactie gewijzigd door BramVroy op 9 september 2018 21:09]

Google zal dus aan de bak moeten met neurale netwerken die werken op kleinere gedeeltes van teksten en kleinere subsets van de natuurlijke talen. Met één groot overkoepelend RNN (zoals zij het nu doen, zie: https://arxiv.org/pdf/1609.08144.pdf) gaan ze het dus niet redden.
Misschien dat één overkoepelend RNN dat de uitkomsten van kleinere RNN's op subdelen van bepaalde teksten evalueert en daaruit een winnaar kiest, een aanpak is die kan werken?

Helaas betwijfel ik dat men dit voor elkaar gaat krijgen en ik durf zelfs vraagtekens te zetten bij de vraag of RNN's wel het juiste gereedschap zijn voor dit probleem.

[Reactie gewijzigd door vliegendekat op 10 september 2018 13:05]

Ik heb geen AI achtergrond maar een vriend van me is aan het promoveren op een methode om veel sneller en met minder data te leren. Naar ik begrijp heeft het te maken met het mechanisme wat in dieren/mensen dmv beloning het leren versneld. Een soort digitale variant van het hormoon/stofje, ik weet de naam niet meer...

Maar wat ik wil zeggen - best mogelijk dat een of andere promovendus opeens met iets geniaals komt, de globale investeringen in AI zijn echt enorm...
Wat je aangeeft met 2 90 jaar oude Nederlanders is dat voor mensen (met meerdere sensoren) de context meegenomen wordt om de inhoud van het gesprek mee te beoordelen. Een oude man bedoelt (kan bedoelen) iets totaal anders met een zinnetje als "dag meisjes" dan een tiener van 12. Echte AI zal dus naast taal data ook nog eens veel context data, ook uit een ander waarnemingsgebied, moeten herkennen.
Wat u beschrijft is het vakgebied dat zich bezig houdt met "commonsense reasoning". Oftewel, bouw Gezond Boeren Verstand (GBV) in een machine.
Ik heb er net zoals @BramVroy een hard hoofd in dat dat gaat lukken met (R)NN's of transfer learning. De aanpak van beiden is namelijk diametraal tegenovergesteld.
Een voorbeeld is het onderzoek naar een onderliggende logica voor Commonsense Reasoning, want een goed theoretisch fundament om een dergelijk systeem op te bouwen ontbreekt nog steeds.
"The book of why" wel eens gelezen van Judea Pearl? Dat gaat precies hierover...
"The book of why" wel eens gelezen van Judea Pearl? Dat gaat precies hierover...
Ik wist helaas nog niet van het bestaan van dit boek af. Dank!
Ik ben wel bekend met zijn wetenschappelijke bijdragen.
Waarde collega (hier nog een met een vergelijkbare opleiding, :) ), mijns inziens is de verwoording van DARPA een aankondiging van grootschalig onderzoek naar met name varianten van "transfer learning", wat de noodzaak tot data zou kunnen verkleinen.

Voor de niet collega's onder ons, het vermogen van een model is doorgaans een functie van het vangen van de informatie die zit in de traningsvoorbeelden. Om een geheel nieuw model te trainen zijn dan ook vaak erg veel trainingsvoorbeelden nodig, zodat het model de informatie uit de data kan halen over, in het ideale geval, alle relevante aspecten van het probleem dat wordt gemodelleerd. Dit komt omdat de modellen in principe geen "voorkennis" of "algemene kennis" hebben over de wereld ("common sense").

Om de hoeveelheid noodzakelijke voorbeelden te verminderen is een voor de hand liggende methode om niet geheel nieuwe modellen te trainen, maar om in plaats daarvan reeds (deels) getrainde modellen te "updaten" met nieuwe relevante informatie. Bijvoorbeeld, een model kan getraind zijn om planten te herkennen (heeft dus wat common sense over planten, "weet" dat deze vaak een steel hebben, en bladeren etc), en zo'n model kan in theorie met veel minder voorbeelden worden aangepast om twee soorten rozen van elkaar te onderscheiden dan er nodig zouden zijn om een geheel nieuw model voor die taak te maken.

Het maken van het "juiste" soort "grondmodellen", en methodes om deze dan met weinig data breed in te kunnen zetten, staat in principe nog in de kinderschoenen. DARPA's challenge zou hier best wat verandering in kunnen brengen.
Aangenaam. :+

Zelf werk ik momenteel niet met transfer learning, maar een collega van me is ondertussen wel aan het proberen transfer learning toe te passen op sentimentanalyse. Interesting stuff, maar hier ben ik geen expert in.

Echter stel ik me wel de vraag die ik altijd stel als het om algoritmes gaat (ik ben redelijk naief-pessemistisch :P): bij transfer learning staat de herbruikbaarheid van (de kennis van) modellen voorop. Deze kennis kan gedeeld en uitgebreid worden door andere systemen. Als systeem B dus kennis X overneemt van systeem A, dan zal B de originele X niet meer hoeven te verifiëren door een teststap (= het voordeel van transfer learning). B kan dan X zo uitbreiden of modificeren tot Y. Mijn vraag is dan, als je model X niet accuraat genoeg is, dan waterfallen al je fouten toch door het hele systeem? Als je basismodel een schroef mist, staat het hele uiteindelijke model wankel.

Heb je enig idee hoe transfer learning hier in normale scenario's mee omgaat? Nemen ze de foutmarge mee over, compenseren ze die foutmarge in een initiële activeringsfunctie?
Aangenaam indeed!

Het gevaar van error propagation bestaat natuurlijk altijd. Dit moet altijd worden ondervangen door het aangepaste model iig te verifieren tegen een test-set van B, gezien X op het punt dat de transfer reeds geschied is niet per se meer relevant is voor de taak B, maar daar slechts een ondersteunende rol in speelt.

Een interessante vraag en vergelijking is altijd natuurlijk die tussen een model getraind op een een grote set B++ vs. het model X geaugmenteerd met een kleine set B. Dat is dan ook een goeie benchmark om de prestaties van de transfer te vergelijken.

Hoe dat in de praktijk gaat hangt enorm af van het soort algoritme, mate van de abstractie van het model, en het soort taak waar het e.e.a. op wordt toegepast.

Voor vision-taken zijn er b.v. reeds truucjes zoals twee parallele CycleGAN netwerken die al indirect transfer learning gebruiken qua hun eigenlijke opzet, door gebruik te maken van het feit dat ze beide soortgelijke taken modelleren onder de aanname dat dit soortgelijke topologien oplevert.

Aan de totaal andere kant heb je b.v. Bayesiaanse beslissingsmodellen toegepast op b.v. sentiment analyse, waar een algemeen taalmodel aan een taak wordt aangepast d.m.v. een gemodificeerde Expectation Maximization algoritme, die voor de initiele expectations met een bepaalde schaalfactor de NIEUWE, taakspecifieke data gebruikt, en daar de waarschijnlijkheden van het oorspronkelijke "algemene" taalmodel op aanpast.

Het is dus enorm breed en lang, maar het is zeker zo dat er bepaalde fundamentele wetmatigheden lijken te zijn die het best beschreven kunnen worden in termen van informatie (entropie), waardoor er i.i.g. harde maten zijn waarmee candidaatoplossingen gerankeerd kunnen worden op hun effectiviteit.

Ik vind het enorm spannend! :)
Ik heb geen achtergrond in AI :) , maar is een oplossing voor kortere of zelfs geen trainingstijden niet hergebruik? Stel ik heb een AI die herkent rechte lijntjes, Een tweede gebruikt de rechte lijntjes AI om vierkanten te herkennen. Een kleur AI herkent kleuren. Voor iedere letter en cijfer is er een AI die weer lijntjes AI's hergebruikt.

Als ik nu een herkenKruiswoordRaadselsAI moet maken, ga ik die geen 1 miljoen plaatjes met kruiswoordraadsels met ja en nee voeren, maar die geef ik direct de opdracht om aaneengesloten structuren met zwarte en witte vierkanten te zoeken waarbij in de witte vierkantjes een letter of cijfer mag staan. Je hoeft dan de AI alleen maar te valideren en wellicht een andere AI de opdracht aan laten passen om de prestaties te optimaliseren.

Mijn herkenKruiswoordRaadselsAI + herkenBoekAI kunnen samen puzzelboekjes vinden en zo verder. Als die eenmaal goed werkt, hoeft geen enkele andere AI dit wiel opnieuw uit te vinden.

Is dat een hele stomme gedachte of werkt het tegenwoordig al op zo'n dergelijke manier?
Zeker een terechte opmerking. Voor een heleboel problemen zijn modewoorden zoals neurale netwerken totaal overroepen en zijn er alternatieven die even goed (soms zelfs beter!) presteren.

In jouw geval hangt het wel van het formaat van de input af. Ik bedoel maar, als je input een foto is ga je al sneller naar computer vision algoritmes moeten overschakelen alleen al om het effect van ruis op je kruiswoordraadsel weg te halen (is een 'lijn' nog een 'lijn' als er door fotoruis een pixel meer zwart tegen de lijn aanleunt?). Als je met iets als SVG of XML werkt (aanneembare digitale 100%-accurate informatie) is dat niet nodig en kan je je algoritme gewoon daarop loslaten. In zulke gevallen is deep learning vaak al niet meer nodig en kan je relatief eenvoudige functies gebruiken in een decision-tree formaat (als-dit-dan-dat, recursief). Omdat je dan met 100% zekerheid werkt in je functies (omdat er geen twijfel is aan de accuraatheid van je SVG) kan je je dus wel iets inbeelden als:

- zoek in de input code (SVG/XML) naar lijn-elementen
- verifieer dat er hoeken van 90 graden worden gevormd
- zoek letters als input

enzovoort. Het grote voordeel hier is inderdaad dat je geen enkele training nodig hebt!

Als je dat allemaal niet hebt, en op fotomateriaal moet werken, dan wordt het allemaal heel wat ingewikkelder en wordt er vaak teruggegrepen naar neurale netwerken. De voornaamste reden hiervoor is omdat je input een heel stuk onvoorspelbaarder wordt. Een foto is maar een verzameling van pixels, een hele hoop pixels oftewel vectors met RGB-waarden. Je wilt dus zo veel mogelijk training data om je accuraatheid over de hele lijn omhoog te krijgen (incl. uitzonderingen, hoewel NNs hier vaak een beetje té enthousiast mee omgaan). Hier kan je dus niet onder de training uit want: als je systeem je input niet juist interpreteert omdat het het niet herkent (wegens slechte training) propageren alle fouten door naar je eindresultaat. Des te hoger de rots begint te rollen, des te groter de lawine en ravage!
Dit heeft allemaal nog weinig met intelligentie te maken. Het is meer hergebruik van code. Artificiële intelligentie bestaat voor een groot deel uit dit soort trucjes. Daarbij komen ook nog trucjes om zelf verbanden te kunnen leggen en die weer te gebruiken. In het boven genoemde voorbeeld kan de oorspronkelijke code van het herkennen van zwart/wit rasters naar rasters van willekeurige kleuren gaan en daarbij voldoende contrast eisen.
Intelligentie heeft ook te maken met het maken van totaal nieuwe verbanden, waar weinig tot geen voorkennis van is. De fantasie en creativiteit die daarvoor nodig is zal een computer nooit bezitten. Echte intelligentie voor computers zal er nooit van komen.
Van het herkennen van een kruiswoordpuzzel zal het programma misschien nog wel leren hoe een doorloper of een sudoku werkt. Oplossen zal het ook nog kunnen leren, maar zet je het op een karretje in een doolhof, dan weet je dat het niet gaat lukken om de input van de sensoren te gebruiken en de motoren aan te sturen en uiteindelijk de weg naar buiten te kunnen vinden.
Als je daarentegen een kind leert om kruiswoordpuzzels op te lossen en je zet het uiteindelijk in een rolstoel in het doolhof, dan zal het even duren, maar dat kind komt binnen afzienbare tijd uit het doolhof gerold, zelfs als je dat niet eens als opdracht hebt meegegeven.
Volledig akkoord, maar dat ligt volgens mij meer aan de hype rond de modewoorden AI en neurale netwerken. Nogmaals, dat zijn concepten die eigenlijk al meer dan zestig jaar bestaan!

Artificiële intelligentie op zich heeft maar weinig te maken met wat wij heden ten dage intelligentie noemen. Maar denk eens aan de jaren 50, wanneer de term ontstaan is. Toen een simpele computer die rekensommen kon oplossen zo groot of groter als je huiskamer was! Toen konden de onderzoekers zich niet voorstellen waar de maatschappij in 2018 allemaal toegang tot heeft. Een telefoon, waar je de rekensommen van hierboven mee kan uitvoeren en die toch in je broekzak past, en die op de koop toe ook nog eens je stem gehoorzaamt wanneer je ertegen praat?! Wauw, wat een intelligent apparaat!

Toch blijft het voor ons vandaag niets dan algoritmes, codes, programmatuur. Het is iets dat we zelf hebben uitgevonden, en toch verwachten we meer. We verwachten intelligentie die zelf initiatief neemt, die geen fouten maakt of alleszins menselijke fouten. Aan de andere kant van de media heeft de commercialisering er ook voor gezocht dat mensen die deze details niet kennen, een enorme schrik hebben voor AI. Dan bedoel ik niet schrik voor 'AI is going to take our jobs!' maar 'AI is going to take our lives!'. Zo een intelligentie (?) met keuzes voor zelfbehoud en creativiteit zullen wij noch de volgende paar generaties meemaken.
Juist, patroonherkenning is nog geen AI. Dit wordt al jaren gedaan voor b.v. synthetische radar. Deze radar is nu al beter dan menselijke waarnemers voor een ruwe radar scherm.
Wat is een Manama ?
Ik heb het aangepast naar de Engelse term, advanced master's degree. Dat is, zoals @LeonM zegt een master-na-master, oftewel een master die je pas kan voltooien wanneer je een andere vereiste master ook hebt afgelegd.

[Reactie gewijzigd door BramVroy op 9 september 2018 21:06]

De terminologie is allemaal maar verwarrend vind ik. Ikzelf ben Belg, wij noemen het een MaNaMa (master-na-master). In het Engels heet het een Advanced Master's degree, secondary Master's, of ...

In Nederland lijken jullie een tweede master inderdaad een postdoctorale opleiding te noemen. In mijn oren klinkt dat erg vreemd omdat post-doctoraal me eerder doet denken aan een post-doc positie, dewelke je pas kan beoefenen na het behalen van een doctoraat - alleszins in Vlaanderen.

Terminologie :)
Moest het ook even googlen, maar het betekend 'master na master', zie: https://nl.wikipedia.org/wiki/Master_na_master
Een perceptron is in wezen niets meer dan een enkele functie die uit een gegeven input een classificatie kan opmaken.
Interessant maar ik kan me er niet zo veel bij voorstellen, zou je dat nader willen uitleggen? Hoe moet ik de input en de classificatie zien. Worden er een soort modale klassen gevormd uit gegevens? Ik neem aan dat het een soort van patroonvorming/herkenning moet simuleren?
Ik verwijs je graag door naar de test bench van Tensorflow. Er staat ook wat uitleg over de ins-and-outs van een neuraal netwerk, en deze uitleg is redelijk toegankelijk ook. Je kan met het model spelen om te kijken hoe de output (classificatie) verandert.

https://playground.tensorflow.org
Dit is zoiets waarbij het enorm interessant is om te zien wat de mens technologisch kan bereiken, maar het tegelijk ook eng is dat een superAI in handen van een enkel land/leger/persoon kan komen. Of misschien nog erger, juist niet in iemands handen, maar zelfsturend (rogue).
Het leuke van AI is dat iedere simpelton zich iets kan voorstellen wat hij denkt dat AI is. Dus je kunt veel makkelijker funding (aka grote bakken geld) los krijgen bij geldschieters. Daarom zal er altijd wel geld beschikbaar blijven komen naar "generiek onderzoek naar AI". Of naar (nog beter!) SuperAI.

Ik denk dat het voorlopig wel gaat meevallen met die superAI.
Kijk bijvoorbeeld eens naar Google.
Die hebben echt bakken met geld. Het is ongelofelijk te zien wat die kunnen, waar ze in investeren, wat ze allemaal zelf bouwen.

Maar kijk eens naar iets simpels als vertalen.
Gewoon een tekstje omzetten van de ene taal naar de andere.
Google heeft het opgegeven.
Ze doen niet meer echt vertalen.

Wat Google Translate doet is statistisch analyse. Ze hebben heel veel tekst in verschillende talen. Ze kijken hoe vaak een bepaald woord in een ander woord wordt vertaald. Of een bepaalde zin. Ze kijken hoe vaak andere woorden voorkomen vlak voor of vlak achter de zin de je wilt vertalen. Etc, etc. Pure statistiek. En als Google Translate dan een zinnetje moet vertalen, dan kiezen ze een vertaling waarvan ze denken dat die statistisch de beste kans heeft juist de zijn.

Dat heeft heeft helemaal niets te maken met vertalen zoals een AI dat zou moeten doen.
De vertalingen van Google Translate zijn daarom nog steeds bedroevend slecht.

Het gaat nog lang duren, voor we die "Super AI" gaan hebben.
Ik ga het niet meer meemaken. Dat weet ik zeker.
Google heeft het opgegeven? Google zet juist veel meer in op translate 2.0 met GNMT: https://en.wikipedia.org/...eural_Machine_Translation

Het simpele vertaalwerk, woordje voor woordje, is binnen enkele jaren deprecated.
En nog kakt Google translate de meest bizarre zinnen eruit.
Dat is onzin, het grootste deel van de teksten die je door Google translate haalt levert leesbare tekst op. Mooi voorbeeld: een collega IT'ers moest op afstand een russisch werkstation overnemen om iets te fixen. Russisch is niet zijn sterkste kant dus hij richtte zijn telefoon op het beeldschem, waarbij de russische teksten live werden vertaald in het engels. Niet perfect, maar het "got the job done".
Geef het een paar jaar en het is gewoon praktisch bruikbaar in de meeste situaties.
Dat is onzin, het grootste deel van de teksten die je door Google translate haalt levert leesbare tekst op. Mooi voorbeeld: een collega IT'ers moest op afstand een russisch werkstation overnemen om iets te fixen. Russisch is niet zijn sterkste kant dus hij richtte zijn telefoon op het beeldschem, waarbij de russische teksten live werden vertaald in het engels. Niet perfect, maar het "got the job done".
Geef het een paar jaar en het is gewoon praktisch bruikbaar in de meeste situaties.
Ik durf dit te betwijfelen. Een workstation is zeer technisch en volgt een bepaalde structuur dus dat is makkelijk. Zodra ik Google Translate ook maar een simpele, door een mens geschreven zin, in het Japans voer, komt er toch echt heel regelmatig heel erg brak Engels uit, terwijl dit talenpaar toch echt in GNMT zit.
Vandaag had ik nog een voorbeeld tussen deze talen in tegenovergestelde richting. Ik zocht het woord voor reisadvies. Het resultaat bij het Nederlandse woord leek nergens op, dus voer ik in het Engels "travel advice" en "foreign travel advice" in. Beiden vertaalden, net zoals het Nederlandse "reisadvies" naar 旅行のアドバイス en respectievelijk 外国旅行のアドバイス. Ik wist al dat beiden knetterfout zijn en als je met zo'n woord of uitdrukking iemand opbelt of e-mailt, moeten ze aan de andere kant eerst flink nadenken voordat ze begrijpen wat je bedoelt. Het meest irritante van allemaal: Japanners sturen je vaak geen bericht terug als ze het maar half begrijpen, omdat ze de fout eerst bij zichzelf zoeken.

Uiteindelijk vond ik het juiste woord (海外安全) gewoon in een ouderwets woordenboek van papier en dit is ook het woord dat het Japanse ministerie van buitenlandse zaken gebruikt op hun website. Zij noemen het "overzeese veiligheid". Gooi echter in de omgekeerde richting "overseas security" in Google Translate en je krijgt er "海外の安全保障" uit, wat net zoveel betekent als "de verzekering van overzeese rust".

Een stom woordenboek van 15 jaar oud heeft de correcte vertaling, maar ondanks alle gigabytes, zo niet, terabytes aan training-data en onderzoeksgelden en tijd faalt Google Translate hier hopeloos.
Dat snap ik allemaal wel, en ik neem meteen van je aan dat het vertalen van Japans naar Engels en vv nog lastig is. Nu heb je daar denk ik wel twee talen te pakken die ver uit elkaar liggen maar goed. En je beschrijft de huidige situatie. Ik had het over een paar jaar in de toekomst. Ik kan me dan simpelweg niet voorstellen dat deze ontwikkeling tot stilstand zou komen. M.a.w. ik geloof er heilig in dat deze ontwikkeling door zal gaan en uiteindelijk geintegreerd zal raken in ons leven. Dan kunnen we nog steggelen over de tijdsspanne. Ik denk dat we over een jaar of vijf, maximaal tien, een vrijwel foutloze vertaling mogen verwachten van alle veelgesproken talen.
Dat snap ik allemaal wel, en ik neem meteen van je aan dat het vertalen van Japans naar Engels en vv nog lastig is. Nu heb je daar denk ik wel twee talen te pakken die ver uit elkaar liggen maar goed. En je beschrijft de huidige situatie. Ik had het over een paar jaar in de toekomst. Ik kan me dan simpelweg niet voorstellen dat deze ontwikkeling tot stilstand zou komen.
Het heeft niets te maken met wat er nog gaat komen en/of hoe lastig Japans naar Engels vertalen is.
Waar het mij hier om gaat, is dat dit zo'n beetje het meest eenvoudige voorbeeld is dat men kan bedenken, nanmelijk: zoek een enkel woord op in een woordenboek.

Het vullen van een database met 1 op 1 vertaalde woorden, is één van de eerste dingen die ik zou doen bij een dergelijk vertaalsysteem. Sterker nog: Er is al een open-source Japans -> en,de,fr,nl,es woordenboek waar deze vertaling gewoon in staat. Mind you: dit woordenboek wordt uitgegeven in XML-formaat! Google zou dit woordenboek alleen maar in hoeven laden om mijn casus van vandaag af te kunnen vangen. Dit hebben zij dus duidelijk niet gedaan en hierdoor zet ik grote vraagtekens bij de competentie van de onderzoekers, de diepte van de gedane analyse en de snelheid waarmee de vertalingen gaan verbeteren.
Dan kunnen we nog steggelen over de tijdsspanne. Ik denk dat we over een jaar of vijf, maximaal tien, een vrijwel foutloze vertaling mogen verwachten van alle veelgesproken talen.
Google Translate bestaat al sinds 2006 en zelfs dit elementaire geval dat al in open woordenboeken staat, zit er na 12 jaar nog steeds niet in! Dit geeft duidelijk aan dat er een paar "gekken" bezig zijn met techniek die "cool en hip" is, maar dat de vereiste analytische vaardigheden nog steeds ver te zoeken zijn.
Als dit het tempo is, dan is Google er over 10 jaar dus nog steeds niet uit. Misschien bereiken ze het niveau "Oké, ik begrijp wat er ongeveer staat en het is nu genoeg", maar de visie die u voor ogen heeft, zie ik zeker geen realiteit worden in de komende 10 jaar.
En wordt vooral onzin zodra mensen de resultaten klakkeloos overnemen.... Maar als je Google Translate en menselijke intelligentie combineert is het geweldig. Iets wat we niet meer hebben gehad sinds Genesis 11:1-9
Meestal wil je iets vertalen naar een taal die je niet meester bent. Hoe ga je de onzin van Google translatie corrigeren? Translatie heeft nog steeds veel moeite om nuances van een taal te vertalen. Vertaal eens een willekeurig stukje tekst naar een willekeurige taal en vertaal de output terug naar het Nederlands. Ik garandeer dat je niet dezelfde tekst terug krijgt en de tekst sonsens word door woorden die meerdere betekenissen hebben afhankelijk van de context
Het simpele vertaalwerk, woordje voor woordje, is binnen enkele jaren deprecated.
"verouderd" :P
Maar kijk eens naar iets simpels als vertalen.
Gewoon een tekstje omzetten van de ene taal naar de andere.
Google heeft het opgegeven.
Ze doen niet meer echt vertalen.

Wat Google Translate doet is statistisch analyse. Ze hebben heel veel tekst in verschillende talen. Ze kijken hoe vaak een bepaald woord in een ander woord wordt vertaald. Of een bepaalde zin. Ze kijken hoe vaak andere woorden voorkomen vlak voor of vlak achter de zin de je wilt vertalen. Etc, etc. Pure statistiek. En als Google Translate dan een zinnetje moet vertalen, dan kiezen ze een vertaling waarvan ze denken dat die statistisch de beste kans heeft juist de zijn.

Dat heeft heeft helemaal niets te maken met vertalen zoals een AI dat zou moeten doen.
De vertalingen van Google Translate zijn daarom nog steeds bedroevend slecht.
Weet je het zeker? Je beweer het met grote stelligheid, maar heb je het recent nog wel eens geprobeerd?
But look at something as simple as translating.
Simply convert a text from one language to another.
Google has given it up.
They do not really translate anymore.

What Google Translate does is statistical analysis. They have a lot of text in different languages. They watch how often a particular word is translated into another word. Or a certain sentence. They look at how often other words occur just before or immediately behind the sentence you want to translate. Etc, etc. Pure statistics. And if Google Translate has to translate a sentence, then they choose a translation that they think has the best chance of being the best.

That has nothing to do with translation like an AI should do.
The translations of Google Translate are therefore still badly bad.
Google vertaalt zelfs je stijlfouten voor je.
Ik ga akkoord met de andere kritische antwoorden op jouw bericht.

Statistische vertaling (SMT) wordt uitgefaseerd en gaat alsmaar meer naar neurale machinevertaling (NMT), vaak nog aangedikt met enkele rules (rule-based MT). Ik voer zelf onderzoek naar (N)MT en ik kan je verzekeren dat er niémand is die opgeeft. Er is net meer strijd aan de gang dan vroeger. Kijk maar naar DeepL, die onlangs Google en co van de troon stootten ("15 times fewer languages but 3 times more efficient").

"Dat heeft heeft helemaal niets te maken met vertalen zoals een AI dat zou moeten doen." Gegeven dat het nu vertalen voor vele talen nu via een NMT systeem gaat (dus, neuraal) is dit per definitie hoe een AI dat doet. Hoe denk jij dan dat een AI het zou moeten doen?

Overigens is je voorstelling van SMT wel écht simplistisch. Er zijn een heleboel meer variabelen die erbij komen kijken dan simpelweg een probability estimation. Verder wel akkoord dat "SuperAI" allemaal nog wel zal meevallen en dat ze in een paar jaar tijd geen gigantische vorderingen gaan maken.
Statistische vertaling (SMT) wordt uitgefaseerd en gaat alsmaar meer naar neurale machinevertaling (NMT), vaak nog aangedikt met enkele rules (rule-based MT).
Het ziet er naar uit dat google's nieuwe manier nu nog niet eens 2 jaar oud is. Ik loop dus een beetje achter.
"Dat heeft heeft helemaal niets te maken met vertalen zoals een AI dat zou moeten doen." Gegeven dat het nu vertalen voor vele talen nu via een NMT systeem gaat (dus, neuraal) is dit per definitie hoe een AI dat doet. Hoe denk jij dan dat een AI het zou moeten doen?
Ik ben het met je eens, een neuraal netwerk lijkt veel meer op de menselijke hersenen dan andere manieren van AI.
Overigens is je voorstelling van SMT wel écht simplistisch. Er zijn een heleboel meer variabelen die erbij komen kijken dan simpelweg een probability estimation. Verder wel akkoord dat "SuperAI" allemaal nog wel zal meevallen en dat ze in een paar jaar tijd geen gigantische vorderingen gaan maken.
De "oude" manier van vertalen, eigenlijk de oude manier van AI doen, was om de machine kennis te laten hebben van wat er gezegd of gedaan werd. En met die kennis niet alleen een sytactische, maar ook een semantische interpretatie te laten maken van wat er vertaald moest worden. Als een machine dan "begreep" wat er gezegd werd, dan wist het beter hoe te vertalen. Bv uit de context van de zin kunnen opmaken of een bank een zetel, een financieel instituut of een hoop zand in de zee was. Als AI eenmaal kennis kon opnemen, opslaan, en meer leren, dan zou AI ook op andere terreinen kunnen worden gebruikt. Echte algemene intelligentie in een computer.

Ik had begrepen, 10 jaar geleden of zo, dat Google deze manier van vertalen had opgegeven. Eerst "begrijpen" wat er gezegd werd, en daarna een vertaling maken. Hun methode was puur statistisch. Er kwam misschien een redelijke vertaling uit, maar de machine "wist" nog steeds niet wat er nou gezegd werd. Leuk als automatische vertaler, maar het brengt je geen stap dichterbij echte AI, waar je ook andere problemen in het veld mee kunt oplossen.

Neurale netwerken werken beter. En lijken meer op de menselijke hersenen. Maar nog steeds heb je er flikker aan om AI in de algemene zin dichterbij te brengen. Een neuraal netwerk dat getraind is om te vertalen, kun je nog steeds geen visuele patroonherkenning laten doen. Je kunt de techniek van neurale netwerken zelf steeds opnieuw gebruiken. Maar je zal zo'n netwerk steeds opnieuw moeten trainen. Het blijft heel specifiek. En het lijkt niet op de AI waar onderzoekers in de jaren 60, 70, 80 en 90 van droomden.

Vandaar dat ik nog steeds niet bang ben voor een "super AI".
Weet je het zeker?
Traditional machine-translation systems break sentences into words and phrases, and translate each individually. In September, Google Translate unveiled a new system that uses a neural network to work on entire sentences at once, giving it more context to figure out the best translation. This system is now in action for eight of the most common language pairs on which Google Translate works
https://www.google.com.vn...ge-to-translate-with/amp/
Watson van IBM al weer vergeten en zijn deelname aan Jeopardy, dat was indrukwekkend en dit was allemaal toen in 2011! Ondertussen is het 8 jaar later en vast generaties verder! En dit was vast niet alleen voor de show bedoeld.

https://www.youtube.com/watch?v=WFR3lOm_xhE
Het leuke van AI is dat iedere simpelton zich iets kan voorstellen wat hij denkt dat AI is. Dus je kunt veel makkelijker funding (aka grote bakken geld) los krijgen bij geldschieters. Daarom zal er altijd wel geld beschikbaar blijven komen naar "generiek onderzoek naar AI". Of naar (nog beter!) SuperAI.
Dit heeft ook een groot nadeel. Er worden veel verwachtingen geschept over wat een AI zou moeten kunnen, waardoor er te hoge verwachtingen kunnen ontstaan die niet waargemaakt kunnen worden met als gevolg dat er een AI winter plaats vind met verminderde interesse in AI zoals er ook is geweest in de jaren 70 en 90.
Het gaat nog lang duren, voor we die "Super AI" gaan hebben.
Ik ga het niet meer meemaken. Dat weet ik zeker.
Ik weet heel zeker dat je dit zeker mee gaat maken in je leven (of je hebt slecht nieuws van je dokter gehoord :+(wat niet te hopen is voor je))
gallery: gryz
Mijn profiel zegt dat ik in 1916 geboren ben. Ik ben iets ouder dan gemiddelde tweakert. :)
Maar geen 102 jaar oud zegt mijn korte analyse.
Ik weet nog dat heel Nederland verbonden was aan het Internet via een enkel 128 Kbps lijntje.
Als je "host -l nl." deed, dan kreeg je 20 domeinnamen.
En 5 daarvan hadden enkel een MX-record.
Ik ben echt heel erg oud.
Nog relatief weinig gezien het totale defensiebudget van de VS. Ik had eigenlijk verwacht dat ze er wel meer in zouden investeren gezien het de toekomst van oorlogsvoering is.
Strategisch gezien kan een persbericht als deze ook bedoeld zijn om andere partijen op het verkeerde been te zetten.

Onderzoek naar AI is zeker al tijden gaande. Ook kun je ervan uitgaan dat eventuele afspraken/conventies worden genegeerd, zoals dat eigenlijk altijd het geval is met de VS.

Het enige verschil: de FED bank rolt die niet-bestaande dollars zo uit de pers in ruil voor obligaties die ook uit een pers komen. Andere landen kunnen dat weer niet.

[Reactie gewijzigd door Mocro_Pimp® op 9 september 2018 14:26]

Ze zullen absoluut niet vast nu gestart zijn. Dit geeft eerder aan dat ze al aardig gevorderd zijn en op een bepaald punt zijn beland dat ze het technologie aan het publiek willen verkopen om het inzetbaar te maken.
op sommige gebieden werkt "meer geld" niet om iets sneller te laten gaan. Er zijn maar een beperkt aantal bedrijven en mensen (de ironie) die dit soort opdrachten kunnen aannemen en die gaan niet plots sneller werken als hun loon x10 wordt gedaan.
Als ik de documentaire Do You Trust This Computer https://youtu.be/nEP02sreGpA goed interpreteer, is er niet werkelijke sprake van een keuze. Onderzoek naar AI is overal, ook op het gebied van defensie en meedoen is een must, omdat achterblijven geen optie is.

[edit: typo]

[Reactie gewijzigd door bousix op 9 september 2018 14:53]

Inderdaad, dit is een docu die je gezien MOET hebben, heb hem gisteravond gezien, er staat ons nog heel wat te wachten, binnen 5 jaar is de computer slimmer dan de mens!
Wat wij met elkaar afspreken in deze 5 jaar over deze technologieën, is bepalend voor de toekomst hoe en onder wie wij leven..
AI kan heel mooi en goed worden, maar zoals altijd word het (eerst) gebruikt om dood en verderf te zaaien.
"Field-tested" heet het dan. ;)

LOL. Philips had ooit een reclameslogan voor hun radiootjes: "Tested on humans!".
Die hebben ze niet lang gehouden...
Zolang ze er een wapen van kunnen maken, stoppen ze er geld in.
Tja, dat is toch wel logisch? Het is niet voor niets een onderdeel van Defensie. :?

Desondanks kan er nog iets uitkomen dat nuttig is voor heel de wereld, zoals de ontwikkeling van het internet en GPS ook ooit bij het amerikaanse leger begonnen is.
Of de oorlog in Afghanistan en Iraq, ook bij het amerikaanse leger begonnen ;)
Dit was goed voor de ontwikkeling van deze landen :)
Als ze de AI skynet noemen heb ik er geen probleem mee ;)
Het was immers de USA die skynet ontwikkeld zou hebben.
https://en.wikipedia.org/wiki/Skynet_(Terminator)

Beetje self fulfilling prophecy op deze manier.
Mede dankzij de Amerikanen en hun investeringen in Defensie kun jij nu in genieten van je vrijheid. We zouden best wat dankbaarder mogen zijn, overigens zonder dat we stoppen met extreme Trumpiaanse ideeën en ontwikkelingen aan de kaak te stellen.
Hoezo dan? Maken zij de wereld juist niet gevaarlijker door overal oorlogjes te beginnen door zogenaamd de vrijheid overal te gaan brengen? Voor zo'n enorm arm land dat Amerika is (40 miljoen leeft in armoede) zou je best een andere bestemming voor 2 miljard kunnen vinden.
Het is te complex om alle conflicten waar de VS bij betrokken zijn over 1 kam te scheren, maar we leven in het Westen in de veiligste tijd sinds mensenheugenis en dat is mede te danken aan samenwerkingsverbanden zoals de NAVO, VN en zelfs de EU. Dat blijkt uit alle veiligheidsstudies. De VS spelen een voortrekkersrol en investeren ook het meeste geld.
Of dat geld niet beter in eigen land besteed kan worden, is een ander verhaal. Ik vind het bijvoorbeeld treurig dat veel Amerikaanse veteranen in armoede leven, terwijl ze hun leven in de waagschaal hebben gelegd voor de vrijheid.
Maar goed. Samenvatting: vrijheid is niet gratis.
"Niet gratis" is, in tegenstelling tot vrijheid, iets wat mensen hebben bedacht.

Vrijheid is altijd al gratis geweest, totdat mensen grond wilden veroveren. Eerst alleen voor eigen huis en tuin, later ook voor macht. En bovendien ben je nooit helemaal vrij. Dat is maar goed ook, want anders waren moordenaars dat ook. Vrijheid, hoe basaal we dat tegenwoordig ook kennen, is een illusie.

Het is, zoals je zelf ook zegt, inderdaad te complex. Neem je eigen conclusies daarom ook met een korrel zout. De VS beleidmakers verdienen absoluut geen vredesprijs. Niet als je andere perspectieven meetelt. Of zijn niet-westerse mensen opeens geen onderdeel van de mensheid?
Ik heb het niet over Westerse of niet-Westerse mensen, dus waar dat ineens vandaan komt?

Afkomst is irrelevant, iedereen heeft wmb dezelfde grondrechten: alle mensen worden vrij en gelijk in waardigheid en rechten geboren. Zij zijn begiftigd met verstand en geweten, en behoren zich jegens elkander in een geest van broederschap te gedragen.
Klopt, ik bedoelde het ook ter aanvulling. Niet als tegenstelling. :)
40 mln op een bevolking van ruim 350mln.
Nederland doet het er niet veel beter op waarbij de voedselbank zelfs een geaccepteerd fenomeen is waarbij de overheid officieel niet bij betrokken is. Volgens officieel beleid moet je met bijstand en toeslagen toekomen en is dat de absolute ondergrens.
Dan kan je iedereen die in armoede leeft eenmalig 50 euro geven.... Dat zet echt zoden aan de dijk (not).
Voor wat de geallieerden (en dat zijn dus niet alleen Amerikanen) gedaan hebben tijdens de tweede wereldoorlog om Europa te bevrijden ben ze eeuwig dankbaar. Maar alles wat daarna is gebeurd zeer zeker niet. Mede door het zwart / wit kijken van de Amerikanen en de Russen is er heel veel kapot gegaan de afgelopen decennia.

[Reactie gewijzigd door Webgnome op 10 september 2018 09:53]

" Worldwide Deaths in World War II
Military Deaths / Total Civilian and Military Deaths
Soviet Union 8,800,000-10,700,000 / 24,000,000
United Kingdom 383,600 / 450,700
United States 416,800 / 418,500 (64.000 in Pacific theater)
France 217,600 / 567,600
Yugoslavia 446,000 / 1,000,000
Romania 300,000 / 833,000
Poland 240,000 / 5,600,000
Germany 5,533,000 / 6,600,000-8,800,000
Hungary 300,000 / 580,000
Italy 301,400 / 457,000"

bron: https://www.nationalww2mu...orldwide-deaths-world-war

Cijfers zijn wat aan de lage kant, zie ook wel hogere hier en daar maar het idee is het zelfde.
Als het op het verslaan van Nazi Duitsland aan komt hebben de Russen dat grotendeels voor hun rekening genomen. Al kunnen we op zich de Amerikanen dankbaar zijn dat zij, met de Britten, Fransen en andere bontgenoten West-Europa hebben bevrijd. Aangezien het in de decennia daarna hier een stuk relaxter was om te leven als in de Sovjet Unie.
Misschien om het brein van Trump te vervangen, wie weet. Als ze het maar niet weer in auto's gaan proppen.
Jij hebt wel hele pacifistische ideeën over het Amerikaanse defensie apparaat.. :o
Macht corrumpeert, maakt niet uit welke ideologie je volgt.


Dat is ook de reden dat je het onderverdeelt over verschillende instituten. De vraag is hoe dat kan en zal gebeuren bij AI.
Bijvoorbeeld wanneer je dit soort systemen gaat leren om buiten reguliere paden te handelen, wat kun je dan.
Zeg, het is maar 2 miljard hoor! Jij legt de lat onrealistische hoog :-)
Precies, 2 miljard is niks in zo een groot land als America, ook al bedoel jij het sarcastisch.
Alsof dat malle land gaat vertellen aan de wereld waar zij in gaan investeren. Vertrouw de overheid nooit, zeker niet de Amerikaanse overheid.
Alle wapens aan koppelen en op een dag dat het de mens als vijand ziet en een paar nuclaire wapens op afvuurt

Skynet has just born

Terminator is geen sci film meer bijna
Als ik eerlijk ben, krijg ik een klein beetje een "terminator-gevoel" achter in mijn hoofd

Op dit item kan niet meer gereageerd worden.


Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True