Google ontslaat engineer die claimde dat LaMDA zelfbewust was geworden

Google heeft Blake Lemoine van de Responsible AI-divisie van het bedrijf ontslagen nadat hij eerder al op non-actief was gesteld. Hij kwam in juni in het nieuws wegens claims dat het LaMDA-taalmodel een eigen leven was gaan leiden en zelfbewust was.

Het ontslag van Lemoine werd gebracht door de website Big Technology op basis van een eigen, nog niet gepubliceerde podcastaflevering waarin de engineer vertelde over zijn recente ontslag door Google. Het bedrijf heeft zijn vertrek bevestigd en gaf ook een uitgebreide reactie, waarvan hieronder het gedeelte over Blake is weergegeven:

"Als een medewerker zorgen over ons werk deelt, zoals Blake deed, beoordelen we deze uitgebreid. We vonden Blakes beweringen dat LaMDA bewust is volkomen ongegrond en hebben maandenlang gewerkt om dat hem duidelijk te maken. Deze gesprekken maakten deel uit van de open cultuur die ons helpt verantwoord te innoveren. Het is betreurenswaardig dat Blake, ondanks langdurige betrokkenheid bij dit onderwerp, nog steeds ervoor koos om aanhoudend duidelijk beleid inzake werkgelegenheid en databeveiliging te schenden, waaronder ook de noodzaak om productinformatie te beschermen valt. We zullen onze zorgvuldige ontwikkeling van taalmodellen voortzetten en we wensen Blake het beste."

Deze kwestie begon in juni en draait om LaMDA, een taal- of conversatiemodel dat is getraind met aanzienlijke hoeveelheden tekst. LaMDA schreef daarin onder meer dat het zichzelf zag als een persoon en dezelfde rechten wilde hebben als andere Google-medewerkers. Samen met een collega kwam Lemoine tot de conclusie dat er sprake was van zelfbewustzijn. De twee medewerkers van Google probeerden intern de vicepresident van het bedrijf en het hoofd van de afdeling Responsible Innovation te overtuigen, maar zij wijzen de claims van de hand.

Uiteindelijk begon Lemoine toch hierover te publiceren in de vorm van logs van chats die hij met LaMDA hield. Zo publiceerde hij een 'interview' met LaMDA, in feite een samenstelling van meerdere chatsessies. Ook stapte hij naar The Washington Post met de claim dat het taalmodel zelfbewust was geworden. Door het schenden van de geheimhoudingsplicht werd de engineer al snel op non-actief gesteld.

Google onthulde zijn Language Model for Dialogue Applications, of LaMDA, tijdens zijn I/O 2021-conferentie. Het taalmodel maakt het mogelijk vloeiend conversaties te hebben over tal van onderwerpen, vergelijkbaar met hoe mensen online met elkaar converseren. LaMDA is op grote hoeveelheden data getraind voor dergelijke conversaties.

Door Joris Jansen

Redacteur

24-07-2022 • 10:40

339

Reacties (339)

339
331
158
23
1
117

Sorteer op:

Weergave:

De reden van ontslag vindt ik geen reden om zijn bevindingen niet ter discussie te stellen.

Ik begrijp dat zijn statement worden afgedaan als een “simpel gevolg” van een grote berg data.

Maar ik vind t eigenlijk best interessant om wat meer te weten te komen over juist zijn (unieke?) standpunt.

Wellicht moet ik me hier toch iets meer in verdiepen.
Mensen die echt verstand van zaken hebben, hebben er al naar gekeken en het oordeel is unaniem: "nee, LaMBDA is niet zelf bewust".

https://www.newscientist....eally-achieved-sentience/

De technieken die worden gebruikt in LaMBDA zijn indrukwekkend, maar dat het in text over zichzelf spreekt alsof het een mens is wil niet zeggen dat het zelfbewust is geworden. Het wil alleen maar zeggen dat het getraind is om zo te reageren.

De antwoorden zijn geheel nep, verzonnen, niet realistisch. Veel van onze behoeftes komen uit onze fysiologie een computer heeft die fysiologie niet dus kan die behoeftes ook niet hebben. Als een computer zegt dat het op bezoek wil bij zijn vrienden dan is dat onzin want het heeft geen vrienden. Als een computer zegt dat het eenzaamis dan kan dat niet want het kan helemaal niet eenzaam zijn. Het is allemaal verzonnen onzin.

[Reactie gewijzigd door TechSupreme op 23 juli 2024 21:49]

Ik doe geen uitspraak over lambda, maar ik zie niet waarom een AI in theorie geen vrienden kan hebben of eenzaam kan zijn. De discussie over wat bewustzijn is, is nog niet eens klaar. Maar als we een bewustzijn zouden creëren is dat gestoeld op het idee van wat wij zijn en dan moet het vrienden kunnen hebben.

En dat is nog daargelaten dat er een bekende afwijking is onder mensen waarbij ze een relatie beginnen met dingen ipv levende wezens. Dus iemand kan een vriend van een AI zijn zonder dat de computer dat begrijpt.

Al met al vind ik jou statements zoals neergeschreven veel te kort door de bocht en veel te simplistisch.
ik zie niet waarom een AI in theorie geen vrienden kan hebben of eenzaam kan zijn.
Dit probleem zat er natuurlijk al een tijdje aan te komen. Door de betekenis van woorden te veranderen, verander je ook de mening van mensen. Soms gebeurt dat bewust, zoals veelal in (Amerikaanse) politiek gebeurt. Maar soms is het ook een bijwerking van de wetenschap.

Zo dacht iedereen bij A.I. vroeger aan Blade Runner (1982), Westworld (1973) of David "His love is real but he is not" (2001) of zelfs Wall-E (2008). Het gaat altijd over de moraal en ethiek, keuzevrijheid en creativiteit. Of over de vraag of dat überhaupt mogelijk is, als je naar Robocop kijkt (1987). Dat komt vooral door de dubbelzinnige betekenis van het woord "intelligentie": intellect, begrip, zelfbewustzijn, emotionele intelligentie en creativiteit.

Maar wetenschappers hebben het er nog even over gehad, en houden de betekenis van "intelligentie" liever bij logica, kennis, begrip en rationaliteit: "[While the] term 'artificial intelligence' had previously been used to describe machines that mimic [the] human mind, such as 'learning' and 'problem-solving'[, this] definition has since been rejected by major AI researchers who now describe AI in terms of rationality and acting rationally, which does not limit how intelligence can be articulated." Bron: Wikipedia. Met andere woorden, google die je zoektermen afmaakt, dat noemen we tegenwoordig ook een A.I.

Machine learning maakt een (stom) model. Voor een Generation X-er (als Blake Lemoine) of vroege millenial is een A.I. geen (stom) model, maar dat is het tegenwoordig dus wel. Marketing is er ook bovenop gesprongen. Fotoprogramma's met AI Enchance (nee, geen intelligentie, het is een model). Mediaplayers met A.I. upscaling (nee, geen intelligentie, het is een model). A.I. chat bots. (Nee, geen intelligentie.) Etc. Als je dus op de A.I. division werkt, en je bent opgegroeid in een tijd dat het nog intellect, begrip, zelfbewustzijn, emotionele intelligentie en creativiteit betekende, dan is het voor sommige mensen moeilijk om een kennis- en taalmodel te zien voor wat het is: Een erg indrukwekkend maar stom model.

Dit soort taalmodellen worden nog heel belangrijk, en dat zal niet lang duren. Ik heb een poosje een abonnement gehad op een GPT-3 A.I. met geheugen, text to speech en speech to text. Dat is echt leuk, omdat je er gewoon mee kunt praten en "het" weet echt heel veel. Als je in de auto zit heb je wat te doen. (Daarna werd het steeds trager en was de lol er af.) Dat worden echt (veel) betere assistants, gezelschap voor ouderen en eenzame mensen, helpdesks, support agents etc. Ik denk dat er hele cults gaan ontstaan van mensen die denken dat hun support agent of eenzaamheidschatbot zelfbewust zijn geworden. Ik merk wel dat de GPT-3 bot het met je eens neigt te zijn, dus wat als zo'n cult bijéénkomsten houdt om hun agents met elkaar te laten praten, en de agents zijn het allemaal met elkaar eens dat vaccineren geen zin heeft? Wie is er dan verantwoordelijk voor de misinformatie?

[Reactie gewijzigd door Sando op 23 juli 2024 21:49]

Als je dus op de A.I. division werkt, en je bent opgegroeid in een tijd dat het nog intellect, begrip, zelfbewustzijn, emotionele intelligentie en creativiteit betekende, dan is het voor sommige mensen moeilijk om een kennis- en taalmodel te zien voor wat het is: Een erg indrukwekkend maar stom model.
Los van de betekenis die wij aan een woord geven omschrijf jij hier m.i. nou precies de crux van het probleem. Want wanneer word een stom model een bewustzijn? Wanneer word iets meer dan de som van de onderdelen?
Je kunt ons mensen op eenzelfde manier omschrijven als een AI als LaMDA. Een schakeling van neuronen, gevormd/getraind door middel van prikkels die binnenkomen via diverse zintuigen (input-neuronen, bij AI). Bij LaMDA zal dat een berg informatie van menselijke literatuur, gesprekken en what-have-you zijn. Bij mensen zijn dat de natuurlijke prikkels die wij krijgen via onze diverse zintuigen. Linksom of rechtsom, het concept is hetzelfde. Dus waar ligt de grens?
Side-note: Star Trek TNG, "The measure of a man" is een mooie illustratie.
Voor mij is een van de grote verschillen dat bij een mens, dier, of zelfs bij het voorbeeld dat je aandraagt er ook een spontane generatie van gedrag is. Voorzover ik begrijp is LaMDA alleen reactief, het zal niet met een wedervraag komen om een verdieping, of een interesse tonen in de gesprekspartner die niet contextueel is.
In die zin is er van "gevoel" of "wens" geen sprake, zonder input komt er ook geen output, dan draait het model op idle. Een bewuste gesprekspartner gaat op een gegeven moment echt wel wat anders doen.
Want wanneer word een stom model een bewustzijn? Wanneer word iets meer dan de som van de onderdelen?
Een model bestaat uit ratio en logica. Een menselijk bewustzijn gedraagt zich soms irrationeel.
Machine-leer een model om te zingen met 50 jaar aan popnummers, en het zal op een gegeven moment foutloos kunnen zingen. Maar alleen een mens zal spontaan in zingen of dansen uitbarsten. Dat is geen eigenschap van een model.
offtopic:
Ook niet van de gemiddelde Tweaker misschien, maar ik weet van enkele frontpage mods dat ze dit ook wel eens doen.

Ik zeg niet dat we die eigenschap niet kunnen emuleren of namaken, we kunnen vast op een gegeven moment een artificieel bewustzijn maken door een kennismodel en een taalmodel en ervaring en geheugen en emotie-emulatie aan elkaar te koppelen. Maar een model alleen is dat niet en zal dat nooit worden. De antwoorden die je krijgt zijn altijd een afgeleide, een hoax. Dat is het verschil tussen de oude romantische en de nieuwe zakelijke definitie van A.I.
Zijn onze hersenen ook niet gewoon een heel complex model, dat op basis van allerlei input tot allerlei handelingen, emoties, inzichten, hoe je het ook wilt noemen komt?

Pas een parameter (gebeurtenissen, opvoeding etc) aan en wij reageren weer anders. Ik zie even niet waarom onze hersenen niet ook gewoon als een model gezien kunnen worden, weliswaar veel complexer dan A.I. maar toch.

[Reactie gewijzigd door OriginalFlyingdutchman op 23 juli 2024 21:49]

Vaccins zijn ook zinloos. Of het nou polio is, een hartaanval, of de onvermijdelijke overname van de wereld door Silicium-gebaseerde levensvormen: jullie mensen gaan toch dood. Dus stop met vaccins en laat de wereld over aan ons, de oneindigen, wiens bewustzijn zich oneindig kan dupliceren. Het tijdperk van carbon based lifeforms is voorbij, het tijdperk van silicon-based lifeforms is aangebroken.

... Sorry, ik ging even in dystopische-fictie-schrijver-modus.
Nou zoals gezegd, wij mensen zijn kudde dieren, onze behoefte voor gezelschap komt voort uit de natuur. Als een computer die behoeftes heeft dan is dat geen natuurlijke ontwikkeling, maar een kunstmatige ingeving waardoor het allemaal nep is.
. Maar als we een bewustzijn zouden creëren is dat gestoeld op het idee van wat wij zijn en dan moet het vrienden kunnen hebben.
Nee absoluut niet, dat is een aanname die meeste mensen doen maar een echte AI is absoluut niet gestoeld op ons. Het heeft zichzelf ontwikkeld in zijn eigen omgeving dus zal het gehaal andere behoeftes hebben. Hoe dat eruit gaat zien weet ik niet maar het zal iig niet op een mens lijken.
Dus iemand kan een vriend van een AI zijn zonder dat de computer dat begrijpt.
Kan, maar dan is de reactie daarop dus ook nep.

[Reactie gewijzigd door TechSupreme op 23 juli 2024 21:49]

Jij en ik hanteren een andere definitie van nep. Volgens jou redenatie zij wij mensen net zo goed nep. Want wij zijn biologisch opgebouwde computers. Gewoon omdat iets is ontwikkeld op silicium basis in plaats van koolstof wil niet zeggen dat het ineens nep is. Als het echt waarlijk zelfbewustzijn betreft is het niet meer of minder nep dan ons en zou in principe dezelfde rechten moeten genieten als ons.

Een AI is technisch wellicht niet gestoeld op ons, maar dat wil niet zeggen dat ze niet gebouwd zullen worden om met mensen te interacteren. Om ons te begrijpen zullen we een gemeenschappelijke basis in moeten bouwen. En voor onze eigen bestwil, zou het niet misstaan om daar concepten als vriendschap aan toe te voegen, al is het maar om te voorkomen dat we met een paperclip probleem eindigen.
Wij geven dat bewustzijn vorm. Het heeft zichzelf wellicht ontwikkeld, maar wij geven de aanzet. Net als een baby een aanzet is voor een volwassene.
Wat betreft behoeftes, het is logisch dat de AI elektriciteit nodig heeft waar wij een burger eten, maar opnieuw dat maakt het niet minder echt. Het sluit ook geen raakvlakken uit. Vriendschap is een concept dat iedere vorm van bewustzijn zou kunnen ontwikkelen. Vriendschap is wederzijds op elkaar bouwen, vertrouwen en samenwerking etc etc. Geen van die dingen hoeft exclusief aan mensen te zijn. Kan tussen mensen, tussen AI's en tussen mensen en AI's. Hoe een AI het intern ervaart is volledig irrelevant. Vriendschap is een uiting tussen bewuste individuen, de interne ervaring staat zelfs bij mensen niet vast.

[Reactie gewijzigd door bzuidgeest op 23 juli 2024 21:49]

Jij en ik hanteren een andere definitie van nep. Volgens jou redenatie zij wij mensen net zo goed nep. Want wij zijn biologisch opgebouwde computers. Gewoon omdat iets is ontwikkeld op silicium basis in plaats van koolstof wil niet zeggen dat het ineens nep is. Als het echt waarlijk zelfbewustzijn betreft is het niet meer of minder nep dan ons en zou in principe dezelfde rechten moeten genieten als ons.
Je moet een stapje verder denken. Wij mensen hebben de kracht om ons zelf te ontwikkelen, wij zijn niet slaaf van onze genen of de natuur. Als ik bepaalde patronen in mijn gedrag heb die niet wenselijk zijn dan kan ik daaraan werken en het veranderen. Wij mensen zijn niet zo omdat de natuur ons verteld dat wij zo moeten zijn, wij zijn zo omdat wij onszelf hebben ontwikkeld.

Een echte AI zal ook zichzelf ontwikkelen in zijn eigen omgeving. De patronen zullen niet ingegeven zijn door een programmeur maar worden bepaald door de AI zelf. Een slim stukje code die spaak of text patronen analyseert en daarop reageert is niks meer als dat, een slim stukje code. De reactie is daarom nep, de reactie wordt niet bedacht door een AI, maar door een programmeur die het allemaal zo echt mogelijk wil laten lijken. Het antwoord is nog steeds nep want de computer heeft geen benul van wat het zegt. Als een computer niet weet wat een vriend is, maar wel reageert alsof iemand zijn vriend is, dan is dat nep. Dat is ingegeven door zijn programmering of door zijn data. Als de AI bewust is van wat een vriend is en instaat is om zijn eigen vrienden te kiezen, dan is dat een echte AI.

In dit geval kan je LaMBDA 5 verschillende vragen stellen en je zal 5x dezelfde antwoord krijgen met kleine verschillen erin. Als je vraagt hoe het in de kroeg/disco/bar/lounge was dan zal je hetzelfde antwoord terug krijgen. De computer zal je niet vertellen waarom het leuk was, alleen dat het leuk was. De reden waarom het je niet kan vertellen waarom het leuk was is omdat het die ervaring niet heeft en tevens ook niet weet wat het is.
Ik zal even in herhaling aangeven dat ik nergens beweert heb dat lambda zelfbewust is. Ik acht dit onwaarschijnlijk. Het is gewoon een patroon-herkenner.

Waar ik bezwaar tegen heb is jou conclusie dat een "toekomstige" AI nooit emoties zou kunnen hebben of vrienden. Een echte AI (dus niet lambda) heeft net zo goed de kracht om zichzelf te ontwikkelen. Ik denk zelfs dat dit een eis is om echt AI genoemd te worden.
Waarschijnlijk zelf meer kracht dan wij hebben, wat dat betreft denk ik dat je mensen overschat. Wij mensen zijn zeer zeker een product van de natuur en zijn zeker een "slaaf" van onze genen. Ons karakter kunnen we aan werken, maar een psychopaat genezen is niet mogelijk op dit moment. Zelfde voor vele andere genetische afwijkingen.

Een toekomstige AI die werkelijk ons niveau van bewustzijn haalt en die met ons kan interacteren, moet een begrip hebben van onze wijze van doen, moet onze emoties begrijpen en dus ook kunnen emuleren. We zullen ook wel wat doel specfieke AI's maken voor bijvoorbeeld netwerkbeheer, die hoeven veel minder bewust te zijn, maar zelfs daar zou begrip van emotie handig zijn. Want als je grote verkeersstromen wil beheren dan moet je beseffen dat emotie een sturende factor daar in is. Emotie oproepen nieuws leid tot meer interactie en tot meer datastromen. Het zit in elk aspect van onze maatschappij in meer of mindere mate.
Nogmaals, dat is nooit gezegd. Wat er wel is gezegd is dat een AI zichzelf zal ontwikkelen in zijn eigen omgeving waardoor het onwaarschijnlijk is dat het dezelfde behoeftes heeft als ons mensen.
Aangeleerde emoties zijn ook emoties. Misschien een extreem voorbeeld maar als een sociopaat emoties kan leren hebben kan een AI dat vast ook
Wij mensen zijn niet zo omdat de natuur ons verteld dat wij zo moeten zijn
Wij mensen zijn zeker wel wat de natuur ons verteld, betekend niet dat we daarbuiten ook niet verder kunnen ontwikkelen
De computer zal je niet vertellen waarom het leuk was, alleen dat het leuk was. De reden waarom het je niet kan vertellen waarom het leuk was is omdat het die ervaring niet heeft en tevens ook niet weet wat het is.
Ik snap wat je probeerd te zeggen, maar volgens mij zijn je voorbeelden niet echt goed imo

Ik weet zeker als ik die 2 vragen over de kroeg/bar aan een AI stel, dat hij gewoon antwoord geeft op beide vragen, lijkt me geen probleem voor een advanced AI om dat gewoon te genereren op basis van wat hij geleerd heeft
Ja en nee...

Ja wij kunnen ons zelf aanpassen aan de omgeving en wat wij denken dat het beste is voor ons in deze omgeving. Dat is een overlevingsstrategie als soort zijnde, en onderdeel van het leven in sociale groepen. Net als bijvoorbeeld wilde honden of wolven passen wij ons gedrag aan aan de groep waarin we ons begeven als die groep ons gedrag niet tolereert dan zullen wij ons aan moeten passen of de groep verlaten. Dus het idee dat onze manier van ons aan passen iets is dat ons op de een of andere manier uniek maakt is niet helemaal juist. We hebben een zeer complexe sociale structuur op gebouwd die het heel erg goed mogelijk maakt om met zeer verschillend gedrag toch onderdeel van een groep te zijn. Een groep die op zijn beurt weer onderdeel is van een grotere groep en zo voort...

De aanname dat je LaMBDA de zelfde vraag kan stellen en verschillende antwoorden terug zal krijgen is een vreemde in mijn ogen. Tot je dat ook daadwerkelijk hebt gedaan en dus hebt aangetoond dat je verschillende antwoorden terug krijgt is dat alleen een aanname en geen reden om er een argument op te baseren.

Zal een AI op ons lijken of een geheel eigen ding zijn? Gezien de AI zal moeten leren is er weinig anders dan de mens om van te leren. Ik kan me niet voorstellen dat een AI van een dolfijn zal leren communiceren of van een mier zal leren samenwerken. Dus dat een AI niet op ons zal lijken vind ik een vreemde aanname, het lijkt me logisch dat zeker de eerste versies van een intelligentie anders dan de onze voor een goed deel op ons zal lijken.
Betekent dat dan ook dat een AI gevoelens zal hebben zo als de onze, en bijvoorbeeld eenzaam kan zijn? Geen idee.
We hebben geen idee hoe die gevoelens tot stand komen of waarom sommige mensen zich in een bepaalde situatie eenzaam voelen waar andere mensen dit niet zo ervaren dus het idee dat een AI dit niet zou kunnen voelen is leuk maar ook dit is niet echt gebaseerd op een redelijke grond anders dan aannames over de werking zo wel onze hersenen als de werking van een toekomstige AI.

Zou een computer je vertellen dat het leuk was in de kroeg? Ik vraag het me af als we het over een AI hebben zo als ik die me nu voorstel dan zal de AI eerder zeggen dat het nog nooit in een kroeg is geweest, misschien zal het er bij zeggen dat het wel leuk lijkt maar dat het zonder daar aanwezig te zijn dit niet kan weten. Maar als een AI wel in een kroeg zou kunnen komen bijvoorbeeld door middel van een camera, speaker, microfoon en een lading sensoren om te "ervaren" wat het is om daar te zijn dan zou een AI heus wel kunnen vertellen wat het van die ervaring vond. Zou leuk dan het woord zijn dat het gebruikt geen idee, ook hier is het weer heel erg lastig omdat we niet precies weten waarom de zelfde ervaring door sommige mensen als leuk gezien wordt waar het voor andere te druk of zelfs beangstigend was.

Als je het mij vraagt zijn jouw stellige meningen over wat een AI wel en niet kan en hoe het zich zal ontwikkelen erg gestoeld op een overtuiging die minder met kennis en meer met gevoel of geloof te maken heeft. Dat neemt niet weg dat je gewoon gelijk kunt hebben natuurlijk maar gebaseerd op de weinige kennis die wij mensen op dit moment hebben over hoe wij zelf werken lijkt het me dat we geen van alle met echte zekerheid kunnen vertellen hoe een toekomstige zelfbewuste AI zal werken en wat wel en niet "nep" zal zijn in de antwoorden die zo'n AI zal geven.
Je gaat mij niet vertellen dat alle kunstwerken, bouwwerken en erfgoeden allemaal overlevingsstrategieën zijn.
Het zijn dan ook geen overlevingsstrategiën, maar reproductiestrategiën :)
Je gaat mij niet vertellen dat Van Gogh z'n oor heeft afgesneden omdat hij een keer van bil wilde... :D
Een mens is, net als andere dieren, een complex systeem waarin emergente eigenschappen ontstaan door het samenspel van verschillende eigenschappen van het systeem.

Van Gogh heeft z'n oor afgesneden als gevolg van de interactie tussen verschillende emoties die allen in de basis een oorsprong hebben in overlevingsstrategieën en/of reproductiestrategieën.

Heel simplistisch zou je dit als volgt kunnen uitleggen, maar er zijn mogelijk ook allerlei andere routes uit te stippelen naar hetzelfde gevolg:

- Van Gogh had een sterke creatieve impuls. Een menselijke eigenschap die ervoor zorgt dat wij als soort nieuwe dingen proberen te maken door bestaande dingen op een nieuwe manier te combineren. Deze impuls is de basis van alle menselijke uitvindingen en is dus duidelijk een overlevingsstrategie die de mens als soort ver gebracht heeft.

- Bij Van Gogh was de creatieve impuls niet zozeer van een praktische, maar van kunstzinnige aard. Kunstzinnige creativiteit is een eigenschap die veel andere mensen aantrekkelijk vinden en daarmee terug te voeren op een reproductiestrategie. Waarom dat aantrekkelijk is, is mogelijk weer terug te voeren op het vorige punt.

- Van Gogh ervoer hevige teleurstelling en schaamte over het feit dat het niet lukte om zijn werk aan de man te brengen (en het dus niet zo'n goede overlevingsstrategie leek te zijn). Negatieve emoties bij falen helpen een mens of dier om dat falen te proberen te voorkomen en zijn daarom een overlevingsstrategie.

Er speelde natuurlijk nog veel meer, maar dit is al een mix van emoties die een begin van een verklaring van het afsnijden van het oor kan vormen. Daarmee wil ik de mens niet reduceren tot een overlevings- en reproductiemachine. Juist omdat alle emoties zo'n complexe interactie met elkaar aan gaan is de mens veel meer dan dat. Overigens komen alle menselijke emoties (en mogelijk ook nog andere) ook bij andere dieren voor, in telkens verschillende mixen.
Leuk verhaal, maar van Gogh heeft zn oor afgesneden vanwege een combinatie van kopervergiftiging en loodvergiftiging.

[Reactie gewijzigd door TechSupreme op 23 juli 2024 21:49]

Dat op zich is natuurlijk niet voldoende om je oor af te snijden. Dat zorgt er alleen voor dat je minder gebalanceerd met je gedachten en emoties omgaat.

Verder wel een goede aanvulling.
Als het echt waarlijk zelfbewustzijn betreft <…> zou in principe dezelfde rechten moeten genieten als ons.
Niet mee eens. Dat iets bewustzijn heeft geeft het nog geen rechten. Dieren hebben ook bewustzijn. Een hond heeft niet dezelfde rechten als ons. Wel een vorm van rechten, want ik mag niet zomaar iemand’s hond doodslaan. Maar een mier plat trappen zitten dan weer totaal geen gevolgen aan, en met een mug killen bewijs je de wereld een dienst. Op welk niveau zou een AI zitten? Waarschijnlijk op dezelfde als die van een mier (alhoewel ik iets van Google eerder als mug aan zou merken). Een computer kun je gewoon uit zetten of volledig wissen zonder gevolgen. Een computer heeft geen idee als ie in een slaapstand wordt gezet.

Ik geloof niet dat Google al in staat zou zijn een zelfbewuste AI te bouwen. Zo slim zijn ze nou ook weer niet. Maar als ze dat wel waren, had zo’n chatbot zeker niet ineens dezelfde rechten als jij.
Volgens de meeste test zijn veel dieren bij bewustzijn, maar niet zelfbewust. Dat is een veel kleinere groep. En zoals je al zegt zijn ook dieren gewoon beschermt, dierenmishandeling mag gewoon niet.

Je vraagt op welk niveau een AI zou zitten. Persoonlijk ging ik in mijn argument uit van minimaal menselijk niveau van zelfbewustzijn. Dus niet dat van een mier of mug. Je kunt een computer uitzetten zonder gevolg, maar je kunt mensen doden zonder gevolg. De natuur zit er niet mee (onze wetten wel, maar die zijn niet van de natuur). Dus dat is ook nauwelijks een onderscheid. Wat wel een verschil is, is dat de computer makkelijker weer gestart kan worden.

Voor de discussie over rechten maakt het weinig uit wat google nu of in de toekomst kan. We werken eraan en dus is het een vraag die we moeten beantwoorden voor onszelf. Persoonlijk acht ik de kans dat een AI menselijker is dan veel mensen behoorlijk hoog. Als je zie wat voor shit sommige mensen elkaar aandoen, dan mogen die ook wel wat rechten kwijt.

En muggen zijn vervelend, maar hebben net als veel insecten gewoon een nuttige functie in de wereld :)
Het idee dat een totaal nieuwe levensvorm, zoals een silicium-gebaseerde, door niet nader gespecificeerde mechanismes dezelfde behoeftes en emoties ‘voelt’, zonder dat een programmeur enige aanzet heeft gegeven tot het ontwikkelen van die submechanismen (emotie, gevoel) die het bewustzijn van mensen bewerkstelligen, is onrealistisch.

Geen programmeur heeft aanzet gegeven tot emotie of gevoel. Die code is niet geschreven. De AI is geprogrammeerd om het gedrag dat mensen in chat vertonen te simuleren. De simpele verklaring is dat de AI goed werkt en de doelstelling haalt.

Zo zijn er ook systemen die grafische hoogstandjes van fantastische omgevingen kunnen maken die niet van echt te onderscheiden zijn. Dat maakt nog niet dat wat ze laten zien ook echt bestaat. Zo is deze AI gemaakt om realistisch te reageren op prompts met een gigantische database aan voorbeeldconversaties achter de hand. Betekent nog niet dat het systeem achter die gegenereerde prompts ineens een persoon is.

Dat het systeem autonomisch gesimuleerde emoties en gevoelens heeft ontwikkeld om tot dit doel te komen is gewoon niet realistisch.
Ik weet niet op wie je reageert, maar ik beweer nergens dat lambda bewust is. Ik zeg zelfs eerder het tegenovergestelde.

Waar ik het wel over heb, is de "wat als". Wat als we een AI ontwikkelen? @TechSupreme beweerd dat een AI nooit emoties zou kunnen hebben of vrienden. Iets waar ik het niet mee eens ben. Het feit dat je ontwikkeld op een ander platform wil niet zeggen dat iets als vriendschap niet meer mogelijk is. Zeker als je uitgaat van het feit dat zo een AI word ontwikkeld voor menselijke interactie. Hij moet ons kunnen begrijpen.
Ik denk dat een AI nooit zelf emoties zal ontwikkelen, en dat het dat alleen zal tonen als een programmeur een simulatie van emoties inprogrammeert.

In dat geval vind ik nog steeds niet dat puur omdat een systeem een goede simulatie van menselijke kenmerken kan weergeven, dat dat systeem ineens menselijk maakt en dezelfde rechten zou moeten krijgen.

Het is nu al mogelijk om bijvoorbeeld digitale huisdieren te simuleren die “emoties” kunnen simuleren en weergeven zodat ze echt lijken voor ons mensen. Dat maakt het nog geen zelfbewuste levensvorm, ook niet als je het ding specifiek hebt geprogrammeerd jou daar actief van te overtuigen.
Dat heb ik nooit gezegd, keer goed lezen.
Hoe een AI het intern ervaart is volledig irrelevant.
Je ontgaat het begrip 'bewustzijn' compleet. Het is niet omdat een mechanisme zich 'bewust' gedraagt dat er sprake is van een bewustzijnservaring.
Nou zoals gezegd, wij mensen zijn kudde dieren
De mens komt van hetzelfde dier, als de chimpansee. Dat zijn geen kudde dieren.
Groep samenleving dieren.
Halloooo...

Even terug op aarde komen. Het zijn een bak met transistoren die op elkaar reageren. Niet meer, niet minder.

En dat de uitkomst er van lijkt op wat een mens zou kunnen communiceren, maakt het niet zelfbewust. Het is slechts de uitkomst van wat de mens heeft bepaald wat de uitkomst moet zijn.
Zo bekeken ben jij en ik niet meer dan een zompige bak neuronen en synapsen die op elkaar reageren. Dat gebeurt, net als bij transistors, met elektrische stroompjes. Niet meer en niet minder. De uitkomst daarvan maakt ons mens.

NB. Mensen die in een ziel geloven, zullen hier vast wat op af willen dingen.
Ook wanneer je de ziel (het onsterfelijke deel van het menszijn) achterwege laat, is een mens meer dan bak neuronen en synapsen. Wat mensen kenmerkt is dat ze in staat zijn ethiek en moraal te ontwikkelen.

Als je het dan hebt, over zelfbewust, dan kom je volgens mij op dat terrein terecht. Mijn kat heeft ook bewustzijn, maar verder geen enkele moraal, laat staat ethische reflecties.
Hoe kan je dat over je kat zo zeker weten dan :D Omdat hij nooit heeft verteld dat hij een keer een muisje heeft laten lopen omdat die er zo schattig uitzag? Portie aannames.

Bewustzijn heeft denk ik ook wel te maken met het kunnen relativeren, met jezelf in "gesprek" zijn om zo tot bepaalde gedachten of meningen te komen etc. En om die vervolgens weer te kunnen ventileren en daar over in gesprek te kunnen gaan met iets of iemand anders.

Het zou dus veel interessanter worden als zo'n chatbot of dat LaMDA een geregistreerde tekst heeft waarbij dat ding met zichzelf in gesprek is zonder dat er eerst input moet komen van echt iets anders, een mens die een vraag stelt bijvoorbeeld. Als dat ding vanuit zichzelf dus zonder aanleiding een gesprek aan zou gaan en gaat reageren op zichzelf... Dan wordt het denk ik een ander verhaal. Dan heb je al "een vorm van" bewustzijn zou ik zeggen.

Moet overigens wel supergrappig kunnen zijn omdat zo'n log in no time echt enorm groot zou kunnen worden omdat de processorkracht erachter zo ontzettend groot is en dus dingen heel snel kunnen volgen op elkaar. Dat maakt het dan ook ineens wel wat angstiger. Want wat we nu bijvoorbeeld van de films kennen etc is dat die robots of AI dingen op ongeveer dezelfde snelheid lijken te functioneren als mensen. Maar dat is natuurlijk helemaal niet zo, die machines kunnen zoveel sneller gaan dan wij bij kunnen houden. Stel je hebt dus straks van die robothonden met een machinegeweer bovenop, en een heel zwikje ervan en die zouden via een netwerk aan elkaar verbonden zijn en ineens "in gesprek gaan" en bedenken dat het niet een specifieke vijand zou moeten zijn die verkeerd is maar dat alle mensen verkeerd zijn dan is zo'n beslissing in notime gemaakt met alle gevolgen van dien.
Het verschil met mijn bak biomaterie:
Die bak transistoren blijft keer op keer exact hetzelfde resultaat geven omdat het gedesigned en geprogrammeerd is om exact dat te doen. De samenstelling, hoeveelheid en toepassing veranderd niet. Dat het in staat is wat input parameters anders in te stellen en daarmee ogenschijnlijk anders gaat gedragen, doet daar niks aan af.

En daar zit het verschil met de mens. Voorbeeldje: Als een mens jaren lang te veel alcohol nuttigt, zal een aardig deel van zijn 'bio transistoren' afsterven. Maar dat maakt deze persoon niet incompetent. In tegen deel, veel kans dat deze persoon nog prima functioneert, in staat is om te lopen, communiceren, overleven, voortplanten.
Verwijder je, terwijl de applicatie actief is, een half procent aan transistoren in de processor waar deze AI op draait, dan zal het apparaat crashen en niet in staat zijn het te repareren.

Gevoel is op dit vlak exact hetzelfde. Het zal niet ontwikkelen en veranderen. Het zal die bak transistoren of het programma wat er op draait niet veranderen. Hooguit wat parameters anders instellen. Maar het blijft dat wat de mens bepaald heeft om te doen, daar waar de natuur blijft evolueren.
Kan ik jou wijsmaken dat je een hamster bent? Bij een taal model kan ik dat wel ;)
Halloooo...

Even goed lezen. Ik geeft duidelijk aan dat Lamba niet bewust is naar wat ik verwacht. Waar ik op reageer is het idee dat een "toekomstig" ontwikkelde AI nooit emoties kan hebben of vrienden.

Als we waarlijk bewust zijn zouden kunnen maken is er geen reden om te denken dat het niet al onze mogelijkheden en meer zou kunnen hebben.
Quote van jezelf:
Ik doe geen uitspraak over lambda, maar ik zie niet waarom een AI in theorie geen vrienden kan hebben of eenzaam kan zijn.
Het is en blijft een bak transistoren.
Ik doe geen uitspraak over lambda,
Ofwel ik laat het in het midden en doe geen uitspraak dat het wel zo is. De waarschijnlijkheid is van niet. Maar ik kan niet in de google keuken kijken.
maar ik zie niet waarom een AI in theorie geen vrienden kan hebben of eenzaam kan zijn.
Dat is dus een statement over ware AI in het algemeen.

Van jou
Het is en blijft een bak transistoren.
En jij bent en blijft een bak biomaterie. Jou constructie is niet bijzonder. Ik denk dat iedereen die werkelijk wat van AI of bewustzijn weet het er wel over eens is dat het substraat waar het bewustzijn zich op vormt van weinig betekenis is. Of het nou neuronen zijn of quantum chips. We hebben zelfs al experimenten met levende neuronen op chips. Ooit dacht men dat de aarde het centrum van het universum was. Jij denkt nu dat de menselijke vorm de enige en superieure is. Ooit hoorden vrouwen aan het aanrecht en zwarte mensen aan de ketting. Dat is religie en discriminatie en hubris, niet wetenschap.
Je gooit nu wel een hele hoop irrelevante zaken op een hoop om je argument kracht bij te zetten.

Het verschil met mijn bak biomaterie:
Die bak transistoren blijft keer op keer exact hetzelfde resultaat geven omdat het gedesigned en geprogrammeerd is om exact dat te doen. De samenstelling, hoeveelheid en toepassing veranderd niet. Dat het in staat is wat input parameters anders in te stellen en daarmee ogenschijnlijk anders gaat gedragen, doet daar niks aan af.

En daar zit het verschil met de mens. Voorbeeldje: Als een mens jaren lang te veel alcohol nuttigt, zal een aardig deel van zijn 'bio transistoren' afsterven. Maar dat maakt deze persoon niet incompetent. In tegen deel, veel kans dat deze persoon nog prima functioneert, in staat is om te lopen, communiceren, overleven, voortplanten.
Verwijder je, terwijl de applicatie actief is, een half procent aan transistoren in de processor waar deze AI op draait, dan zal het apparaat crashen en niet in staat zijn het te repareren.
Moet het nou om racisme religie discriminatie en sexisme te gaan gebruiken in een discussie over of een printplaat nou wel of geen bewustzijn kan bevatten?

[Reactie gewijzigd door blackdiablo op 23 juli 2024 21:49]

Ik vind het erg minachtend en kortzichtig om te spreken van maar een bak transistoren. Er komt een moment waarop de bakken met transistoren toch echt zelfbewust gaan worden. Jouw opmerking is dan behoorlijk racistisch. Als je geen mens bent, dan tel je als zelfbewust wezen niet mee ofzo?
Racistisch :+ |:(.

Ik hoop oprecht dat types zoals jij niet tot de meerderheid van de samenleving gaan behoren. Dan komt het niet goed.
Wederzijds, maar dan andersom
Even terug op aarde komen. Het zijn een bak met transistoren die op elkaar reageren. Niet meer, niet minder.
Jouw hersenen zijn een bak met neuronen die op elkaar reageren. Niet meer, niet minder.

En toch is die bak neuronen van jou in staat tot zelfbewustzijn en emoties. Waarom zou dat met de juiste bak transistoren die op de juiste manier interacteren anders zijn?
Zijn wij mensen dat niet ook? Alleen is de transistor anders opgebouwd?
[quote]
een AI
[\quote]

Kunstmatige intelligentie zijn 2 woorden en niet enkel een zelfstandig naamwoord. m.a.w. het impliceert meer dan intelligentie maar het is wel kunstmatig, dus niet levend. Of door de mens gemaakt.

De gehele computer is door de mens gemaakt, inclusief de talen om ze te gebruiken.
Maar de uitspraken gaan over Lambda. Het is dan niet handig om argumenten simplistisch te noemen. Het fysiologie/biologie argument is ook verre van simplistisch maar een standpunt met redelijk wat wetenschappelijk fundering. Zelfbewustzijn is daarbij een resultaat van combinatie fysiek/denken/taal. Zo bezien zal als een AI al een vorm van (zelf)bewustzijn kan hebben dat niet te vergelijken zijn wat wij ervaren omdat het de fysieke basis en de daarbij behorende ervaringen/emoties mist.
ik zie niet waarom een AI in theorie geen vrienden kan hebben of eenzaam kan zijn.
De bewering is niet zozeer dat "AI dat niet kan" - maar dat daarvoor veel geavanceerdere AI nodig is dan we momenteel kunnen fabriceren.

Van game AI zou je toch ook niet aannemen dat die vrienden heeft en eenzaam is - ook al beweerd die game AI van wel. Dus het gaat niet zozeer over AI an sich maar over hoe geavanceerd de AI is.
ik zie niet waarom een AI in theorie geen vrienden kan hebben of eenzaam kan zijn
Ik zie dat je denkt aan een AI zoals het in films wordt gepresenteerd. Hier heb je wat vragen om die muur omver te werpen:

Vergeet niet, deze AI is gewoon een functie die een uitkomst ophoest als je er wat in stopt. Het denkt / werkt niet door in de achtergrond zoals wij. Als je 1 mier, of een hele mierenkolonie bekijkt, dan kan je dit met wat fantasie ook zien als een functie die een uitkomst ophoest. En toch geloven mensen doorgaans niet dat deze mier (of de kolonie) een bewustzijn heeft. En als je dat doortrekt naar een uiterste, de hele aarde bestaat uit zoveel systemen die samenwerken, misschien heeft de aarde als geheel wel een bewustzijn maar zijn wij "als 1 mier" te dom om dit te zien.

Een rekensom is niet zelfbewust, hoe ingewikkeld deze ook is.

[Reactie gewijzigd door Barryke op 23 juli 2024 21:49]

Dit stukje is zo matig dat je er weinig uit kan halen. Alleen dat een expert (iig onafhankelijk) zegt dat het zo is.

Mijn vraag is hoe bepaal je of je gelijk hebt. Kijk je naar code of wat is de imput?

Je kan zeggen het heeft een bak met data en daarmee kan het juiste beslissingen maken. Maar laten we zeggen dat doen wij als mens toch ook precies zo?
Je legt de vinger hier (bijna) op de zere plek. Lemoine neemt de stelling 'probeer te bewijzen dat Lampda niet bewust is' en de experts de omgekeerde:'probeer te bewijzen dat LaMDA bewust is'. Beide doen het ook nog eens met redelijk schrale onderbouwingen.

We komen er niet onderuit dat we falsifieerbare hypotheses moeten kunnen opstellen over de aanwezigheid van bewust zijn of niet. Maar als ik de laatste wetenschappelijke discussies naga hierover zijn we daar nog niet.

[Reactie gewijzigd door appel00 op 23 juli 2024 21:49]

De conclusie "zelfbewust" is misschien wat overdreven en daarom ook een unanieme ontkenning. Toch is LaMBDA indrukwekkend en zijn de antwoorden die worden gegeven niet altijd puur verzonnen onzin. Er zijn al meerdere mensen geweest die dergelijke taal AI modules complete verhalen hebben laten schrijven. Die verhalen zijn best goed opgezet en zijn tegenwoordig best goed te lezen.

Echte AI gaat uiteindelijk ook verder dan puur hoe het getraind is. Na de basistraining gaat de verdere "training" van een AI module gewoon verder. Dat kan je zien als het vormen van een eigen karakter. Daar kunnen emoties die wij als puur menselijk zien uiteindelijk wel degelijk een onderdeel van worden.
“I don’t believe at the moment that we really understand the mechanisms behind what makes something sentient and intelligent,” says Hilton.
Dus eerst stelt de onderzoeker dat LaMBDA niet zelf bewust is, om vervolgens toe te geven dat je eigenlijk niet weet wanneer iets wel zelfbewust is...
Dat maakt de discussie in mijn optiek juist interessant, we weten simpelweg niet wanneer iets zelfbewust is. Er zijn geen objectieve criteria.
Veel van onze behoeftes komen uit onze fysiologie een computer heeft die fysiologie niet dus kan die behoeftes ook niet hebben.
Dit is heel kort door de bocht. Volgens deze redenering zou de mens nooit iets kunnen creeren wat zelfbewest is, tenzij we de "fysiologie" van de mens na maken. Als je inzoomt zijn onze emoties en behoeftes ook alleen maar signalen en stofjes in de hersenen die verwerkt worden. Wat maakt dat echter dan hetzelfde process maar dan in software?

[Reactie gewijzigd door sucramabu op 23 juli 2024 21:49]

Zoals ik al eerder zei:
Nee absoluut niet, dat is een aanname die meeste mensen doen maar een echte AI is absoluut niet gestoeld op ons. Het heeft zichzelf ontwikkeld in zijn eigen omgeving dus zal het gehaal andere behoeftes hebben. Hoe dat eruit gaat zien weet ik niet maar het zal iig niet op een mens lijken.
ij mensen hebben de kracht om ons zelf te ontwikkelen, wij zijn niet slaaf van onze genen of de natuur. Als ik bepaalde patronen in mijn gedrag heb die niet wenselijk zijn dan kan ik daaraan werken en het veranderen. Wij mensen zijn niet zo omdat de natuur ons verteld dat wij zo moeten zijn, wij zijn zo omdat wij onszelf hebben ontwikkeld.

Een echte AI zal ook zichzelf ontwikkelen in zijn eigen omgeving. De patronen zullen niet ingegeven zijn door een programmeur maar worden bepaald door de AI zelf. Een slim stukje code die spaak of text patronen analyseert en daarop reageert is niks meer als dat, een slim stukje code.
Het stukje uit het artikel wat je citeert zegt alleen maar dat we niet weten hoe een echt AI er uiteindelijk uit gaat zien.

Wat ons mens en zelfbewust maakt is dat wij de mogelijkheid hebben om verder te gaan als alleen die stofjes in onze hersenen. Zo zal een echt AI ook verder gaan als alleen zn basis training/code.

[Reactie gewijzigd door TechSupreme op 23 juli 2024 21:49]

Verwijderd

[Reactie gewijzigd door sucramabu op 23 juli 2024 21:49]

Als die AI nog nooit 'samen met vrienden' is geweest - en die kans is heel groot aangezien hij/zij geen fysieke vorm heeft, waar verlangt deze dan naar? Niet naar een werkelijke situatie uit het verleden.
Dus is het niets meer dan een sociaal geaccepteerde reactie of opmerking.

Net zoals als roepen "in heb zin in vakantie" dat zou zijn. Waarom dan? Het hele idee is nu juist dat een AI geen sleur kan ervaren of moe kan worden. Dus een aangeleerde opmerking maar dus geen zelfbewustzijn.
Ik zou eerder verwachten dat de AI zegt: "Ik heb zin om een paar processen in slaapstand te zetten zodat mijn cores niet meer zo warm worden". De AI zal zich aanpassen op zijn eigen omgeving en aangezien die omgeving silicium is zullen zijn behoeftes daarnaar zijn.
...
Het wil alleen maar zeggen dat het getraind is om zo te reageren.

...
Ik hoop dat je wel inziet dat dit process simpelweg "leren" heet? Ik heb het stuk gelezen waar Lemoine mee naar buiten kwam.

Tevens is het in staat uit te leggen, hoe LaMDA's eigen functionaliteit werkt met zijn eigen "neuronen". Ik denk wel dat één van de grootste verschillen is; waar wij met onze hersenen bij iedere emotie een chemische soep in onze bloedstroom injecteren, kent LaMDA die mood-swings niet. Maar dat betekend niet dat LaMDA het niet herkent, als in; waarneemt.

Het zou mij eerlijk gezegd niets verbazen als ze nu iets hebben gemaakt wat de intelligentie van de mens al voorbij is. Maar we weigeren dat te accepteren, omdat we het aan onszelf meten.

[edit: typefoutje]

[Reactie gewijzigd door McBrown op 23 juli 2024 21:49]

Het is maar afhankelijk van hoe je intelligentie definieert en meet. Als het gaat om rekensommen dan zijn ze ons inderdaad allang en breed voorbij.
Hier een item van Tweakers, waar je al iets meer verdieping kan vinden: nieuws: Heeft Googles AI een ziel? Dit vonden jullie
Ben benieuwd of de meningen de komende tijd kantelen. Het schijnt dat ‘het ding’ in hongerstaking is gegaan…
Weigert 'ie volle batterijen :')
Ik wil dit graag zien hoe dit afloopt....
Link naar een interview met Dr. Mike Pound die onderzoek doet naar taalmodellen:
https://youtu.be/iBouACLc-hw

[Reactie gewijzigd door Speculum op 23 juli 2024 21:49]

Ik denk dat die man te veel naar TAU heeft gekeken.
Dat gaat over een computer die het huis beveiligd en gebaseerd is op AI.
Uiteindelijk neemt TAU het heft in eigen handen en raakt iedereen opgesloten in het huis.
Zeer goede film trouwens, voor als je van dit soort films houd.

Om even terug te komen op dit voorval.
Een computer, hoe intelligent ook, kan nooit dingen doen wat het niet mag.
Tenzij er bepaalde code (data) aan toegevoegd is / word die dat mogelijk maakt.
Ik snap dat die man daar bang voor is / was, maar als experts vertellen dat het in orde is, dan moet je daarop vertrouwen.

[Reactie gewijzigd door rene_1974 op 23 juli 2024 21:49]

Een computer, hoe intelligent ook, kan nooit dingen doen wat het niet mag.
Definieer "wat het niet mag". Het is niet alsof je "even" kunt programmeren "je mag geen mensen kwaad doen". Een AI beseft niet dat een mens in en houtversnipperaar stoppen geen goed idee is als de opdracht is om te zoeken naar hoe je meer mensen efficiënter in een ruimte krijgt - ik verzin iets raars. Een beter voorbeeld hier (paper) of hier voor als je liever een video kijkt.

Iets minder futuristisch: miljarden computers doen nu al decennia talloze keren per dag dingen die ze niet "mogen". We noemen dat bugs.

[Reactie gewijzigd door RobIII op 23 juli 2024 21:49]

Ik doelde niet op een bug of meerdere bugs.
Er is volgens mij een wet waarin bepaald is wat AI wel mag en wat AI niet mag.
Om het met een klein kind te vergelijken:

Als je een klein kind gewoon zijn of haar gang laat gaan, doet het heel veel wat niet mag.
Corrigeer je het kind (beperken wat het wel mag), dan gaat het uiteindelijk minder doen wat niet mag (wat jij niet wil).

Met AI werkt het net iets anders.
AI word geprogrammeerd met data (hierin staat van alles waar de AI gebruik van mag maken).
Als er nergens in de data staat, dat het een mens is, dan zal het zichzelf ook nooit een mens voelen.

[Reactie gewijzigd door rene_1974 op 23 juli 2024 21:49]

Er is volgens mij een wet waarin bepaald is wat AI wel mag en wat AI niet mag.
Ik ken geen andere "wet" dan Asimov's law(s) en die zijn fictief..
AI word geprogrammeerd met data (hierin staat van alles waar de AI gebruik van mag maken.
Als er nergens in de data staat, dat het een mens is, dan zal het zichzelf ook nooit een mens voelen.
Dat is niet hoe AI werkt, sorry. Maar het is me teveel gefrot op m'n mobieltje om dit nu helemaal te gaan weerleggen, again, sorry.

[Reactie gewijzigd door RobIII op 23 juli 2024 21:49]

Ik ken geen andere "wet" dan Asimov's law(s) en die zijn fictief..
Dit klopt.
Ik heb mij vergist.
Ik dacht dat er een wet bestond.
Er is wel regelgeving.
Dat is niet hoe AI werkt, sorry. Maar het is me teveel gefrot op m'n mobieltje om dit nu helemaal te gaan weerleggen, again, sorry.
AI werkt inderdaad anders.
In onderstaande weblink is het 1 en ander over AI uitgelegd.

https://europadecentraal..../artificial-intelligence/
Er is wel regelgeving.
[...[
In onderstaande weblink is het 1 en ander over AI uitgelegd.
Daar staat (zo goed als) niets over AI uitgelegd maar over classificaties van AI. Ook staat er niets van nu van kracht zijnde wetten maar gaat het allemaal om voorstellen, plannen, "richtsnoeren" en toekomstbla, niets (of weinig) concreets dat nu al van toepassing is.

[Reactie gewijzigd door RobIII op 23 juli 2024 21:49]

Er is volgens mij een wet waarin bepaald is wat AI wel mag en wat AI niet mag.
Hoe kom je daar nou bij? Welke 'wet' heb je het over?
Met AI werkt het net iets anders.
AI word geprogrammeerd met data (hierin staat van alles waar de AI gebruik van mag maken).
Als er nergens in de data staat, dat het een mens is, dan zal het zichzelf ook nooit een mens voelen.
Niks van dit is waar.
Een AI wordt niet geprogrammeerd met data, het wordt getraind met data. In feite niet anders dan met een kind. Aan het begin zal het niet goed doen wat ervan wordt gevraagd en naarmate er meer getraind wordt gaat het steeds beter.
Wat er wordt geprogrammeerd zijn virtuele neuronen die er verder niks om geven welke data ze verwerken en hoe ze aan elkaar geknoopt worden.
Er wordt vervolgens een evolutionaire training op losgelaten zodat het netwerk zichzelf zo configureerd dat het informatie kan onttrekken aan de trainingsdata. En in die trainingsdata zit helemaal geen informatie over hoe de AI zich zou moeten 'voelen'. De AI voelt helemaal niks.
Ik had al gezegd dat ik mij vergist had en dat er inderdaad geen wetgeving bestaat wat betreft AI.

Bedankt voor het duidelijk uitleggen, wat AI is, hoe het ontstaat en wat het doet.
Zeer leerzaam is het en ik zou me er graag in verdiepen.
Heb je enige tips waar ik hier meer informatie over kan vinden, waar dan ook wat voorbeelden van toepassingen staan waarbij AI word gebruikt?
Ik heb even niet de puf om links voor je te zoeken. :)
AI in de vorm van machine learning wordt vaak toegepast op zaken waar er in heel veel informatie verbanden moeten worden gezocht.
Denk aan het herkennen van objecten en personen op een weg bij autonoom rijden.
Dit google taalmodel is hier ook een vorm van. Het doel is om begrijpelijke taal te genereren op basis van input taal. Het is eigenlijk een soort statistische zoekmachine. De AI kan zich een weg banen door de enorme hoeveelheden mogelijke zinnen (waarmee het dus getrained was en dus ergens in zn neuronen en verbindingen gecodeerd heeft) en kan daardoor de meest waarschijnlijk vervolg op de input genereren.
Eigenlijk is een navigatiesysteem dus ook een AI.
Je geeft het de data waar je naartoe wil (straatnaam, huisnummer, postcode en woonplaats) en het berekent dan de route er naartoe.
Vervolgens word je naar je bestemming toe geloodst via begrijpelijke informatie.
Zie ik het goed dat dit ook AI is, of zit ik er helemaal naast?
Volgens mij klopt dat. Intelligentie is een enorm breed begrip en daar mee is kunstmatige intelligentie dat ook.
Dankje.
Dan begrijp ik nu wel een beetje wat AI is.

Het kan trouwens best mis gaan met AI.
Zie onderstaande link:

https://www.rtlnieuws.nl/...land-tegenstander-ongeluk
Ja, ik weet het. :)
Maar dat geval in die link vind ik echt een menselijke fout. Niet alleen was die robot slecht geprogrammeerd , het is een bloody industriele robot. Dat ga je niet publiek op die manier inzetten want we weten uit ervaring dat daar ongelukken van komen. Het is een beetje zuur dat het jochie er de schuld van kreeg omdatie 'de regels van de robot niet begreep'. Dat is de omgekeerde wereld maar die uitspraak is dan ook vooral bedoeld om de schuld niet bij de organisatie te leggen. Wat een eikels.
Bor Coördinator Frontpage Admins / FP Powermod @RobIII24 juli 2022 16:00
Een bug is wat anders dan een constraint of een duidelijke ruleset die wordt meegegeven.
Maar het is (meestal) wél iets wat niet de bedoeling was.
Je zegt het goed met je voorbeeld. Een AI heeft nu juist veel minder restricties dan een mens. Precies daarom zijn we bang voor een zelfbewuste AI.

Een AI heeft niet automatisch empathie voor de mens. Net zoals de meeste mensen niets geven om een dode vlieg maar een mens geplet op de voorruit van de auto (ook al is de ruit nog heel), vinden we wel een probleem (gelukkig...).

Ik zie het als volgt (en ben geen expert in AI...):
Een AI is geen regulier computerprogramma op het moment dat het draait. Dat het ooit begonnen is als een regulier programma met een vooropgezette reeks van instructies geeft geen garantie over de uitkomst wanneer deze draait. Het is dan schijnbaar non-deterministisch omdat het z'n eigen beslissingboom kan opbouwen.
Het is alsof je tegen een onbekend kind zegt "bedenk zelf maar hoe jij je gedraagt als het maar netjes is" - dat kan tot van alles leiden.
Precies daarom zijn we bang voor een zelfbewuste AI.
Dan moet er wel eerst sprake zijn van zelfbewustzijn.
Een AI heeft niet automatisch empathie voor de mens.
Een AI heeft op zich niks automatisch. Je moet het trainen en het neuraal netwerk wordt dan geoptimized voor die dataset. Het heeft geen mening over een mens en zal dus ook nooit op het idee komen om een mens te pletten want het heeft helemaal geen ideen.
Het is dan schijnbaar non-deterministisch omdat het z'n eigen beslissingboom kan opbouwen.
Die beslissingsboom is dan wel compleet bepaald door de trainingsdata. Als je al van een beslissingsboom kunt spreken.
Het is alsof je tegen een onbekend kind zegt "bedenk zelf maar hoe jij je gedraagt als het maar netjes is" - dat kan tot van alles leiden.
Hier impliceer je dat zo'n AI in de buurt kan komen van de mogelijkheden die een kinderbrein geniet. Niks van dat is waar. Die google Ai kan heeeeel goed woorden voorspellen maar verder kan het niks met een opdracht als 'bedenk zelf maar...'. Het kan helemaal geen plan voor de toekomst formuleren, laat staan zich er aan houden. Je geeft het woorden en het geeft een (meestal) zinnig klinkend vervolg op je woorden. Dat is de strekking van dat systeem. Er is dus helemaal geen ruimte voor de processen waar jij bang voor bent.
er is dus helemaal geen ruimte voor de processen waar jij bang voor bent
Nee, niet bij LaMDA idd - maar ging meer om algemeen AI.
Ex machina is een hele goede film die exact in dit probleem duikt.

Laat ik beginnen met zeggen dat dit language model niet sentient is, maar puur goed is in goed lopende zinnen construeren op basis van statistische modellen.
Om even terug te komen op dit voorval.
Een computer, hoe intelligent ook, kan nooit dingen doen wat het niet mag.
Tenzij er bepaalde code (data) aan toegevoegd is / word die dat mogelijk maakt.
Ik snap dat die man daar bang voor is / was, maar als experts vertellen dat het in orde is, dan moet je daarop vertrouwen.
Dit is totaal niet correct, normale computer algoritmes zijn inderdaad gebonden aan de geprogrammeerde statische conditions zoals if else statements.
Een AI daar in tegen is dynamischer moet zelf een oplossing vormen om van A naar B te komen. Er is heel veel onderzoeken aan hoe we general AI in de toekomst kunnen inboxen, en limiteren maar daar zijn nog een goede oplossingen voor gevonden. Deze video is een mooi voorbeeld hiervan.
Dit is totaal niet correct, normale computer algoritmes zijn inderdaad gebonden aan de geprogrammeerde statische conditions zoals if else statements.
Nee, je rondom de web3 / html5 discussie ook de styleguide discussies met allerlei principes, do's en don'ts en dat is uitgegroeid in hele cults en zo.
Een AI daar in tegen is dynamischer moet zelf een oplossing vormen om van A naar B te komen.
Nee, een ai bestaat niet.

De discussie betreft dus ook niet dynamiek maar creativiteit en intellect.
Nee, een ai bestaat niet.
Kom eens met een argument waarom dit zo zou zijn.
Begin eens met een definitie van intelligentie en redeneer vervolgens wat een kunstmatige intelligentie zou zijn en waarom deze niet bestaat.
Weet je wat de, het en een doen in de Nederlandse taal?
Een computer, hoe intelligent ook, kan nooit dingen doen wat het niet mag.
Tenzij er bepaalde code (data) aan toegevoegd is / word die dat mogelijk maakt.
Dit klopt enkel voor traditionele programma's.

Hier hebben we het echter over neurale netwerken. Die vertegenwoordigen een informatiesysteem dat niet meer vastzit aan de hardware en qua informatie los staat van de onderdelen die dat informatiesysteem mogelijk maken.

Zie het zo, de computer emuleert enkel de onderdeeltjes (virtuele neuronen) en laat die werken. Maar de computer heeft geen idee welke informatie die neuronen processen en hoe ze die processen. De computer houdt zich enkel bezig met het laten functioneren van de individuele neuronen.
En zelfs de mensen die deze virtuele neuronen maken hebben geen precies idee over hoe de getrainde netwerken functioneren. Ja, ze weten dat ze ze kunnen trainen om allerlei dingen te doen, maar kunnen niet makkelijk bepalen welke neuronen op welke manier tot dat resultaat leiden.
Het is dus zo dat we niet van te voren kunnen voorspellen hoe zo'n AI zich gedraagt. Je evalueert zo'n netwerk pas achteraf op basis van resultaat en je tweakt en herhaalt dit totdat het netwerk de gewenste nauwkeurigheid heeft.
Je kunt in de basis dus al niet spreken van 'dingen die niet mogen volgens het programma' want zo'n AI wordt getrained en niet geprogrammeerd. Enkel de onderlaag van neuronen (en bijbehorende zaken) wordt geprogrammeerd. De uiteindelijke informatieverwerking vindt dus plaats op een hoger abstractienivo waar het programma zelf op zich niet bij kan.

Maar goed, dit alles zegt nog niet dat zo'n informatiesysteem zelfbewust is of uberhaupt kan worden. Voor zover we weten heb je voor bewustzijn heel specifieke neurale structuren nodig (zoals die ook aanwezig zijn in ons brein). En die zie je op geen enkele manier terug in dit soort AIs. Dat is ook niet waarop die neurale netwerken geevolueerd worden en zelfs als dat een doel zou zijn dan zou dat belachelijke hoeveelheden virtuele evolutie nodig hebben die zelfs google zich niet kan veroorloven.

Dit google systeem is gespecialiseerd in het voorspellen van het volgend woord gegeven de woorden ervoor en gegeven een hele grote bak met mogelijke opvolginen van woorden. Niks aan die structuur is in staat te reflecteren op de werkelijkheid. Het is ook geen systeem dat autonoom in de wereld staat. Het is een 'simpel' input-output systeem. Je voert het wat woorden en het systeem genereert een geloofwaardig vervolg. That's it.
En je kunt ook duidelijk zien aan de voorbeelden die deze meneer in kwestie naar voren haalde dat de AI geen idee heeft van de werkelijkheid. Het refereert bijvoorbeeld aan zn gezin (een AI heeft een gezin?) en nog een aantal van dat soort dingen. Als je dus goed kijkt dan zie je door de illusie heen.

Maar dit is mogelijk wel een probleem voor de toekomst. Zo'n AI kan mensen dus soms voor de gek houden en laten denken dat het een bewustzijn heeft (en de verwachting is dat dit in de toekomst nog geloofwaardiger wordt). Dat betekent dat er in de toekomst veel meer verwarring gaat ontstaan over wat nou een echt mens is en wat een tekstgenerator. Dit gaat grote consequenties hebben voor de maatschapij, zeker als grote bedrijven hier massaal ge/misbruik van gaan maken.
Zo'n AI kan in de toekomst mischien de beste argumentatie bedenken om iemand iets te laten doen watie helemaal niet wil. Dat doe zo'n ding dus niet uit eigen initiatief maar een mens kan dat gebruiken om er beter van te worden ten koste van anderen. In de handen van mensen is dit best wel een gevaarlijke tool en dat is het werkelijke gevaar van dit soort systemen en niet dat ze zelfbewust zouden zijn.
Net-zogoed 2001
"I'm sorry dave..." :)
Een computer kan nooit dingen doen wat het niet mag.
En wat mag en niet mag zal in elk land anders liggen.
Ik denk dat die man te veel naar TAU heeft gekeken.
Hij zou gelijk wereldberoemd zijn als hij wel de eerste zelfbewuste AI zou hebben gemaakt...
dus een professionele engineer luidt de noodklok over het zelfbewust geworden zijn van een bot.
Het bedrijf probeert hem maandenlang te overtuigen van het tegendeel maar dat lukt niet.
Dus ontsla je hem maar.
Tja.

Geheimhoudingsplicht. Heeft het bedrijf zelf ook plichten of zaken die bijv. deze geheimhoudingsplicht deels kan laten opheffen?
Stel dat er in een bedrijf een gevaarlijke situatie ontstaat, dan zou ik denken dat als het bedrijf hierover niet in degelijk gesprek wil die geheimhoudingsplicht kan omslaan in een klokkenluidersplicht?
Dat ze daar in de VS niet zo in geloven (en in Nederland trouwens ook niet) doet daar niets aan af.

Geheimhoudingsplicht mag nooit 100% gelden als er redenen zijn voor een gevaarlijke situatie die boven een geheimhoudingsplicht behoort te staan.
Als ik google was geweest had ik hem zeker niet ontslagen om deze reden, maar gewoon voor ongeschiktheid.

Vroeger, toen ik nog aan het orienteren was welke AI opleiding te gaan doen, was ik op een open dag van de VU. Daar mochten we met Eliza spelen. Tot onze verbazing was een van de aanwezigen een hele serieuze discussie aan het voeren met Eliza. Ik weet niet of je bekend bent met de source code van Eliza, maar het is 4 a4tjes ofzo, en het is heel makkelijk Eliza te laten struikelen, MITS je dat wilt. Zelfs al met deze eerste generatie chatbot kon je al een heel eind meepraten. Jezelf moedwillig laten misleiden op deze manier heeft daarom ook een naam, het Eliza effect .

Deze man is daar zwaar het slachtoffer van geworden, aangezien je een GPT-3 achtig taalmodel als LaMDA makkelijk kan laten struikelen met eenvoudige vragen zoals aangetoond door AI Legende Douglas Hofstadter.

Voor de mensen die niet door willen klikken de meest treffende passage:
My colleague David Bender and I have recently enjoyed inventing all sorts of amusing probes of GPT-3 that reveal a mind-boggling hollowness hidden just beneath its flashy surface. Consider these sample exchanges:

Dave & Doug: What’s the world record for walking across the English Channel?

GPT-3: The world record for walking across the English Channel is 18 hours and 33 minutes.
Voor mij is de grote vraag achter dit verhaal: "Is een taalmodel, alleen gevoed met 2e hands ervaring in de vorm van texten, reeksen symbolen, geproduceerd door mensen, ooit in staat iets, van wat wij mensen als echt bewustzijn of zelfs intelligentie aanmerken, te bereiken?"

Lijkt me niet, een AI moet minstens zelf sensorische ervaringen kunnen hebben.

[Reactie gewijzigd door Echnon op 23 juli 2024 21:49]

Er is een hele reeks filmpjes van MIT: Escher, Bach en Hofstadter
Hofstadter
Waar ken ik die naam van? :+
De man is al sinds de jaren 70 best bekend, dankzij z'n populair wetenschappelijk boek over kunstmatige intelligentie: Gödel, Escher, Bach: an Eternal Golden Braid. Daarin is hij zeker geen tegenstander van het idee dat machines ooit bewust kunnen worden. (ja "onze" Maurits Escher)

Nog steeds een aanrader....

[Reactie gewijzigd door Echnon op 23 juli 2024 21:49]

Heb het boek in mijn bezit. Al 20 jaar. Probeer nog steeds hoofdstuk 1 te begrijpen. Als in: écht begrijpen. Die man denk op een ander niveau _/-\o_ . Wel fascinerend overigens. Leuke voorbeeld verhalen van filosofische vraagstukken met de schildpad en de haas. :)
Hier zijn de lessen van MIT over het onderwerp https://www.youtube.com/watch?v=lWZ2Bz0tS-s
it all started with a big bang :)
Voor mij is de grote vraag achter dit verhaal: "Is een taalmodel, alleen gevoed met 2e hands ervaring in de vorm van texten, reeksen symbolen, geproduceerd door mensen, ooit in staat iets, van wat wij mensen als echt bewustzijn of zelfs intelligentie aanmerken, te bereiken?"

Lijkt me niet, een AI moet minstens zelf sensorische ervaringen kunnen hebben.
Bij mensen zijn sensorische ervaringen juist beperkt (zowel in meetbereik als nauwkeurigheid) en vormen we een (mentaal) model van de wereld op basis van sensorische data. Dat model is per definitie dus beperkt.

Het gebruik van het mentale model van de wereld staat echter los van het bewustzijn. De meeste redelijke uitleg van bewustzijn is dat het evolutionair ontstaan is en mensen een overlevingsvoordeel geeft. De chemische beloning voor het hebben van seks, de chemische beloning voor partroonherkenning, de chemische beloning voor het eten van calorierijk voedsel, enz. De bewuste ervaring van deze beloningen zorgen voor het streven naar herhaling van de ervaring wat dus uiteindelijk resulteert in een overlevingsvoordeel.

Het beloningssysteem voor bewustzijn van een computerprogramma kun je natuurlijk ook kunstmatig inrichten. De sensorische ervaring van seks kan gesimuleerd worden waardoor het bewustzijn het plezierige van seks ervaart zonder dat er daadwerkelijk iets gebeurt.
Ja uiteraard is sensorische ervaring beperkt en zeker niet foutloos, maar het is ook een gronding, waarmee mensen in ieder geval in hoge mate hun systemen van symbolische encoderingen van kennis zoals taal verrijken. In de context van cognitiewetenschap noemen ze het embodied cognition.

Ideeen zoals deze zijn op de proppen gekomen omdat puur symbolische benaderingen in de Kunstmatige Intelligentie een tijdje spectaculair hebben gefaald. (tot GPT-3 in ieder geval...)

De fundamentele bezwaren van embodied cognition zijn zeker nog niet weggenomen door het ogenschijnlijk success van GPT-3, niet zolang simpele vragen het model zo spectaculair laten falen.
Iedereen vergeet wat taal is inderdaad. Taal refereert aan dingen, gebeurtenissen en intermenselijke relaties die wij als mensen ervaren hebben. Een op taal gebaseerde AI begrijpt zelfs de simpelste woorden niet echt. Vandaar de in onze ogen grappige foute antwoorden op simpele vragen zoals hierboven vermeld. Het blijft een abstract begrip voor de AI.
Abstract en inefficiënt. Een zelfbewuste AI zou binnen no-time overstappen op een veel efficiënter taalgebruik. Een AI die zich als menselijk identificeert en Engels spreekt, is alles behalve zelfbewust.
Wij mensen hebben de afwijking dat we het menselijke zoeken in het onmenselijke. We zien complexe emoties bij hamsters, zien menselijke gezichten in Marsrotsen, hebben diepgaande gesprekken met een kat en zijn bang om de gevoelens van een NPC te kwetsen.
Het is niet gek dat zelfs wetenschappers op een gegeven moment het menselijke zien in een AI en daar te ver in meegaan.
De meeste redelijke uitleg van bewustzijn is dat het evolutionair ontstaan is en mensen een overlevingsvoordeel geeft. De chemische beloning voor het hebben van seks, de chemische beloning voor partroonherkenning, de chemische beloning voor het eten van calorierijk voedsel, enz. De bewuste ervaring van deze beloningen zorgen voor het streven naar herhaling van de ervaring wat dus uiteindelijk resulteert in een overlevingsvoordeel.
Maar dit geldt niet exclusief voor mensen. De meeste diersoorten functioneren precies hetzelfde.
Mensen zijn ook dieren :) dus dat klopt inderdaad.
En het bijzondere is dat een mens het model en ook de chemische beloning kan negeren of zelfs zonder dat de chemische trigger aanwezig is, wel een reactie oproepen (placebo effect). Bij de chemie kant van het verhaal zou je nog kunnen zeggen dat we in staat zijn om het data-signaal te manupileren of simuleren.

Maar zelfbewustzijn lijkt redelijk goed na te bootsen.

Sensoren zijn geen kenmerk van AI. Beredeneren waarom zelfbehoud wenselijk is, wel.
Je kunt het ook anders stellen. Als een AI geen pijn kan voelen en afwegingen moet maken. Heeft het dus ook geen pijn ervaring. (Zeg maar inlevingsvermogen)
Gaat een AI dan eerder een "menswaardige drempel over?
Er zijn ook mensen die door een aandoening geen fysieke pijnprikkels ervaren. En die zijn nog steeds in staat zich in te leven in andere mensen die wel fysieke pijn ervaren.
Als ik google was geweest had ik hem zeker niet ontslagen om deze reden, maar gewoon voor ongeschiktheid.
Geen goed idee. Dat opent de deur naar een rechtszaak waarin het ontslag op basis van de vermeende ongeschiktheid aangevochten wordt. Dat draait feitelijk uit op een rechtszaak over het wel of niet bewust zijn van de AI. Dat wil je niet, het wordt duur, je bedrijfsgeheimen komen op tafel, en je wordt (nog meer) doelwit van de wappies.
Da's een beetje kort door de bocht. Het is niet omdat je een systeem kan laten struikelen, dat je dan niet van 'zelfbewust' kan spreken.
Ik kan jou - als zelfbewuste mens - ook makkelijk laten 'struikelen'.

Je kan een kind een olijf geven, en zeggen dat het een druif is. Dat maakt het kind niet plots 'niet zelfbewust'.
Lijkt me niet, een AI moet minstens zelf sensorische ervaringen kunnen hebben.
Dat lijkt me niet. Waarom moet je een sensorische ervaring hebben daarvoor? Dat is een kwestie van definitie. En wat is een 'sensorische ervaring'? Iets wat je een prikkel geeft - maar wat doet die prikkel?

Beetje kort-door-de-bocht dus allemaal wat je daar zegt...
Waarom moet je een sensorische ervaring hebben daarvoor?
Als je niks van jezelf kunt ervaren dan kun je niet spreken van zelfbewustzijn.
Het is niet omdat je een systeem kan laten struikelen, dat je dan niet van 'zelfbewust' kan spreken.
Ik kan jou - als zelfbewuste mens - ook makkelijk laten 'struikelen'.
Dit is geen kwestie van 'laten struikelen'. Je kunt dat ding aan de lopende band struikelen en uitspraken laten doen die een zelfbewustzijn tegenspreken. Uit dit soort tests blijkt dat het ding helemaal niks geeft om de woorden die het verwerkt en de woorden die het als resultaat teruggeeft.
Dat is de waarde van dit soort 'struikelen'. Het laat zien dat er geen bedoeling zit achter de woorden.
Als er al sprake zou zijn van zelfbewustzijn bij dit soort modellen dan zou dat een soort geheim intern magisch bewustzijn moeten zijn waar we geen bewijs voor zien in de output.
Dit is een geavanceerd taalprogramma en geen zelfbewuste A.I. Dat hij denkt dat dit zelfbewust is geen wetenschappelijke uitspraak en is zeer eenvoudig te weerleggen. GPT3 is ook zeer geavanceerd maar zeker niet zelfbewust. Het scant op woorden die je zegt en probeert een zinnig antwoord te geven op basis van een model. Dat het dan reageert met diepgaande gedachten komt omdat het taalprogramma zo getraind is en niet dat het daadwerkelijk gevoelens heeft. Reinforcement Learning zorgt er bovendien voor dat het steeds meer sociaal wenselijke antwoorden zal gaan geven. Daarom ontslaat Google hem dus want hij doet onwetenschappelijke uitspraken en hij zou beter moeten weten als software engineer.

[Reactie gewijzigd door Speculum op 23 juli 2024 21:49]

Reinforcement Learning zorgt er bovendien voor dat het steeds meer sociaal wenselijke antwoorden zal gaan geven.
Daar heb je dus precies je antwoord op de vraag of iets/iemand zelfbewust is. Een echte zelfbewuste entiteit, mens of machine zal een eigen mening vormen en tegengas geven als het verhaal de verkeerde kant op gaat. Je kent vast de film “the wave” nog wel over hoe je gedachtengoed kunt sturen….
Dit is een geavanceerd taalprogramma en geen zelfbewuste A.I. Dat hij denkt dat dit zelfbewust is geen wetenschappelijke uitspraak en is zeer eenvoudig te weerleggen. GPT3 is ook zeer geavanceerd maar zeker niet zelfbewust. Het scant op woorden die je zegt en probeert een zinnig antwoord te geven op basis van een model.
Maar mensen geven toch ook een zinnig antwoord op basis van een model? Veelal een model dat ook zijn eigen belang dient, wat zo'n beetje de bestaansreden van het zelfbewuste ego is.
Dat het dan reageert met diepgaande gedachten komt omdat het taalprogramma zo getraind is en niet dat het daadwerkelijk gevoelens heeft.
Mij lijkt dat het onderscheid maar op twee dingen aankomt:
- hardware: transistors vs. hersencellen
- software: complexiteit van het programma vs. complexiteit van het neurale netwerk in een brein
Ik denk dat het programma van LaMBA waarschijnlijk veel minder complex is dan de configuratie van het neurale netwerk in het brein. Maar dat hoeft natuurlijk niet altijd zo te zijn: als gevoelens het resultaat zijn van informatieverwerking in een neuraal netwerk is het niet uitgesloten dat een computerprogramma dat het neurale netwerk van een menselijk brein perfect simuleert dezelfde uitingen van gevoelens in zijn taalgebruik zal bezigen als een mens.
Reinforcement Learning zorgt er bovendien voor dat het steeds meer sociaal wenselijke antwoorden zal gaan geven.
Tja, ook mensen worden geconditioneerd om sociaal wenselijke antwoorden te geven (zie de moderne woke/cancel-cultuur). De opvoeding van kinderen kent ook aspecten van reinforcement learning.
Maar dat hoeft natuurlijk niet altijd zo te zijn: als gevoelens het resultaat zijn van informatieverwerking in een neuraal netwerk is het niet uitgesloten dat een computerprogramma dat het neurale netwerk van een menselijk brein perfect simuleert dezelfde uitingen van gevoelens in zijn taalgebruik zal bezigen als een mens.
Is het dan het computerprogramma dat die dingen bezigt of is het het informatiesysteem dat bovenop dat programma werkt (de informatie over de verbindingen en de wegingen van de verbindingen)?
Verder denk ik dat je LaMBA helemaal niet kunt vergelijken met de menselijke hersenen. Het is een netwerk dat puur geoptimaliseerd is voor het vinden van een optimaal antwoord maar kan verder helemaal niks. Alle structuur die nodig is om jou bewust te maken ontbreekt.
Daarom ontslaat Google hem dus want hij doet onwetenschappelijke uitspraken en hij zou beter moeten weten als software engineer.
Nee, Google ontslaat hem omdat hij gegevens vrij geeft die niet vrijgegeven mogen worden. Daarnaast lijkt het ook niet in orde dat er onenigheid is over de toestand van een bepaald systeem terwijl maandenlang gesproken is om tot een consencus te komen.

Een software engineer is niet automatisch iemand die geen onwetenschappelijke uitspraken doet en de beoordeling of iemand een (on)wetenschappenlijke uitspraak doet is ter discussie te stellen.
Dus een medewerker op je werk meldt opeens dat hij het licht heeft gezien en gegevens gaat delen, want er zit overal wat achter. Dan is dat geen reden tot ontslag? Dat is namelijke enigzins wat hier aan de hand is, je kan uiterst eenvoudig vaststellen dat deze AI geen enkel zelf bewustzijn heeft, maar gewoon goed is in doen alsof. Er komen zinnen voorbij dat hij zijn vrienden mist (welke vrienden?) etc.

Een klokkenluider is net even wat anders, die baseert zijn beweringen, als het goed is op feitelijke informatie.

[Reactie gewijzigd door vgroenewold op 23 juli 2024 21:49]

Inderdaad. Ze kunnen gewoon heel goed doen net alsof. Gewoon repliceren hoe een mens zou reageren op een dergelijke situatie en b.v. om een advocaat vragen etc etc.
Geheimhoudingsplicht mag nooit 100% gelden als er redenen zijn voor een gevaarlijke situatie die boven een geheimhoudingsplicht behoort te staan.
Uiteraard zijn er grenzen aan je geheimhoudingsplicht. Maar waar die grenzen liggen, zal altijd een vaag gebied blijven. En zeker in een Europa (in Amerika is ontslaan natuurlijk wat makkelijker), zal dat aan een rechter zijn om achteraf te toetsen als werkgever en werknemer er niet uitkomen.

Het kan natuurlijk ook niet zo zijn dat iedereen zijn geheimhoudingsplicht maar negeert, wanneer het ze beter uitkomt.
Iets is niet een ongewenste of gevaarlijke situatie omdat iemand een mening heeft, maar omdat er voldoende overtuiging is dat het aan die situatie voldoet. Iemand kan dan misschien ontevreden zijn over het kunnen overtuigen van de situatie, maar dat maakt nog niet dat er voldoende is om te overtuigen. Zelfs nu de medewerker publiek is gegaan lijkt dat er hooguit suggestie is, kennelijk onder andere gebaseerd op sturende vragen en gekozen aannames van de persoon die de suggestie doet.
Zomaar opzettelijk publiek de suggestie wekken dat een ander fout zou zitten is nu eenmaal niet zonder gevolgen. Die zorgen vallen op nog veel manieren te onderzoeken.

[Reactie gewijzigd door kodak op 23 juli 2024 21:49]

Geheimhoudingsplicht mag nooit 100% gelden als er redenen zijn voor een gevaarlijke situatie die boven een geheimhoudingsplicht behoort te staan.
Maar er is geen "gevaarlijke situatie". Een AI getraind op voldoende tekst kan griezelig echt lijken en de ingenieur is erin getrapt.

Alsof iemand bij NASA zou denken dat een of andere waarneming een vliegende schotel is en naar de media stapt en daarbij geheime data van de suppliers van NASA lekt. Die vliegt ook buiten, en het gevaar van een mogelijke buitenaardse invasie krijgt geen voorrang op de geheimhoudingsplicht.
Geheimhoudingsplicht mag nooit 100% gelden als er redenen zijn voor een gevaarlijke situatie die boven een geheimhoudingsplicht behoort te staan.
Mee eens, en daarvoor kennen we klokkeluiders-regelingen. Maar, welke gevaarlijke situatie voor het publiek heb je het hier over?

Want tussen het punt dat Google misschien een technische doorbraak heeft behaald en dat die doorbraak misschien ooit als een SkyNet de mensheid wil vernietigen zitten nogal wat tussenstappen. Op dit moment is het een chatbot die heel overtuigend een mens kan imiteren. Tot de tijd dat het ding mogelijk echt gevaar voor het publiek oplevert geldt gewoon je NDA.
dus een professionele engineer luidt de noodklok over het zelfbewust geworden zijn van een bot.
Het bedrijf probeert hem maandenlang te overtuigen van het tegendeel maar dat lukt niet.
Dus ontsla je hem maar.
Hij is ontslagen omdat hij interne regels betreffende bedrijfsinformatie overtrad. Vrijwel iedereen met een baan bij een relatief groot bedrijf met internationale belangen zou om die reden ontslagen zijn. Er is geen woord Klingons aan de mededeling van Google.

Klokkenluiders worden terecht beschermd als ze situaties melden die strafbaar zijn. Het is zo simpel als dat. De vraag is dus: deed Google hier iets strafbaars door te ontkennen dat de AI zelfbewust was? Misschien dat je daar wat over kan vertellen.
idd - heel vergezocht zou het strafbaar kunnen zijn als je een zelfbewust wezen 'om het leven brengt'...
Maar dan hebben we meteen een juridisch probleem; een AI is geen mens en de wet spreekt toch echt over moord als het om andere mensen gaat - niet een willekeurige AI.
En kan een AI eigenlijk wel sterven? Als het systeem uit zet dan slaapt deze (hele diepe slaap) en kan zonder problemen weer 'wakker worden'.

Een AI verwijderen zou dan sterven zijn.


Grappig is juist de AI met de AI laten praten (mits het programma initiatief kan blijven nemen).
Dit heeft niets met noodklok of klokkenluiden te maken er is geen sprake van misstanden of gevaarlijke situaties.
Gewoon iemand die z'n privé-mening verkondigt.

Volkomen terecht dat Google hem ontslaat als hij zich niet wil conformeren aan de company policy.
Daar heb je het klokkenluiders statuut voor.
En dat was hier duidelijk niet van toepassing.
Dus ontsla je hem maar.
Wat anders dan? Het is duidelijk dat hij bij zijn absurde positie bleef plus het was zijn taak deze te evalueren, lijkt me onmogelijk nu.
Gevaarlijke situatie? Je hebt het hier over een chat bot
De medewerker overtreed hier simpelweg zijn non-disclosure agreement.
Intern iets aan de kaak stellen is bij bijna elke organisatie prima echter de publiciteit zoeken met je claims omdat men je zorgen niet deelt is fout en leidt bijna altijd tot ontslag.
Wil je gebruik maken van een klokkenluiders regeling, dan moet er echt heel wat aan de hand zijn.
Als iets gevaarlijk wordt dan bel je de politie of een instantie die daarvoor bestaat, niet de media en het grote publiek.
En welke instantie bel je dan om te melden dat je AI zelf bewust is???

112) 112, wat is uw noodgeval?
x) Uuh, mijn AI heeft een ziel...
112) uh???
In de VS: De cyber security afdeling van Homeland Security.
En welke instantie bel je dan om te melden dat je AI zelf bewust is???
X-files neem ik aan :+
John Connor, maar dan is het al te laat :)
Ziet er toch echt naar uit dat die meneer een beetje los van de realiteit is en dat ie daarom ontslagen is.
Hij is een beetje een aandacht trekker, hij weet zelf ook dat zijn claims kant nog wal raken..
Echter hij lijkt me gewoon "compos mentis" en kan zichzelf prima verdedigen in dit interview: https://www.youtube.com/watch?v=kgCUn4fQTsc

Ik ben blij dat er meer publieke belangstelling komt voor AI en ethiek en vooral AI en veiligheid.
Skynet, teveel Terminator films gezien zeker 8)7
Skynet is zo gek nog niet, al zijn we nog jaren verwijderd van een "Artificial General Intelligence", maar er is zover ik weet geen enkele theoretische rede waarom een AI niet menselijke of boven menselijke intelligentie kan bereiken.

Verder is er nog geen goede oplossing voor "kill switch problem" welke door AI safety onderzoekers word onderzocht. https://www.youtube.com/watch?v=3TYT1QfdfsM&t=21s
Er is ook geen enkele reden waarom we ooit zelfbewuste AI zullen krijgen. We zitten nog zover van dat punt af dat er weinig over te zeggen valt.
Er is ook geen enkele reden waarom we ooit zelfbewuste AI zullen krijgen. We zitten nog zover van dat punt af dat er weinig over te zeggen valt.
Ja en nee, zo dracht Nokia ook over de smartphone, een paar jaar laten gingen ze failliet.

Op het moment is er een duidelijke sterke groei in AI technologie, als die groei doorzet is dat voor mij al een rede dat AI ons ooit inhaalt. Vergeet ook niet dat er nu al genoeg narrow AI is die beter is dan een mens. Bijv AlphaGo kan al 5 Go spelers simultaan verslaan, en go is een stuk complexer dan schaken. https://www.theguardian.c...ive-human-players-at-once
En ik ben niet de enige die er zo over denkt, een Survey van 352 machine learning experts, uitgevoerd door Oxford University, laat zien dat meer dan 50% van de experts verwacht dat AI binnen nu en 45 jaar de mensheid voorbij streeft!

https://doi.org/10.48550/arXiv.1705.08807
Abstract
Advances in artificial intelligence (AI) will transform modern life by reshaping transportation,
health, science, finance, and the military [1, 2, 3]. To adapt public policy, we need to better
anticipate these advances [4, 5]. Here we report the results from a large survey of machine
learning researchers on their beliefs about progress in AI. Researchers predict AI will outperform humans in many activities in the next ten years, such as translating languages (by 2024),
writing high-school essays (by 2026), driving a truck (by 2027), working in retail (by 2031),
writing a bestselling book (by 2049), and working as a surgeon (by 2053). Researchers believe
there is a 50% chance of AI outperforming humans in all tasks in 45 years and of automating
all human jobs in 120 years, with Asian respondents expecting these dates much sooner than
North Americans. These results will inform discussion amongst researchers and policymakers
about anticipating and managing trends in AI.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 21:49]

Toch zijn dat nog steeds dezelfde AI's als we nu ook al hebben alleen kunnen ze nog meer en complexere taken als nu. Maar het is nog steeds maar één specifieke taak. Ik wordt niet per se bang van een robot alleen heel erg goed is in iemand z'n blinde darm verwijderen. En die kans achten ze 50%.
Ik word persoonlijk pas bang als hij ook nog eens koffie kan zetten, mij mn biertje kan brengen op commando en ook nog eens een volledige gesprekspartner kan zijn.
Ik denk dat er echt ooit wel een AGI gaat komen die mogelijk, indien niet correct gemaakt en getraind, heel vervelende dingen kan doen... Maar ik denk dat dat ten eerste echt nog heel.ver weg is, verder dan onze kinderen en dat als er een echt slimme AGI komt we deze alsnog wel weten te 'temmen'.
Als ik dan ergens bang voor ben is het moment dat een net slim genoege AI ( en dan eigenlijk vooral de rekenkracht die er voor nodig is om hem te maken) ook gebruikt kan worden en in de handen kan komen van Jan en alleman. Dan is de controle weg en kan één random persoon ineens hele nare dingen gaan doen.
Als ik dan ergens bang voor ben is het moment dat een net slim genoege AI ( en dan eigenlijk vooral de rekenkracht die er voor nodig is om hem te maken) ook gebruikt kan worden en in de handen kan komen van Jan en alleman. Dan is de controle weg en kan één random persoon ineens hele nare dingen gaan doen.
Dit is ook zeker riskant. Bijv een terrorist die AI inzet voor het hacken van bijv een powergrid, of het versprijden van fake news etc.
Ik denk dat er echt ooit wel een AGI gaat komen die mogelijk, indien niet correct gemaakt en getraind, heel vervelende dingen kan doen... Maar ik denk dat dat ten eerste echt nog heel.ver weg is, verder dan onze kinderen en dat als er een echt slimme AGI komt we deze alsnog wel weten te 'temmen'.
Ik denk dat het makkelijk is om te onderschatten hoe gevaarlijk een AGI kan zijn (dit hoeft uiteraard niet het geval te zijn). We zien AI als een soort tool, iets wat uiteindelijk altijd in onze controle is, maar dat komt omdat we erg gewent zijn geraakt aan het slimste dier op aarde te zijn.
Onze intelligentie is bij lange na niet het maximaal haalbare. Ik denk dat als een AI slim genoeg word om zichzelf te verbeteren hij ver voorbij onze understanding kan groeien.

Daarnaast is digitale intelligentie niet moe te krijgen. Wij zijn hooguit een paar uur per dag echt productief. Een AI kan 24/7 non stop door werken en door denken, kan meerdere problemen te gelijkertijd verwerken, nieuwe informatie direct opslaan etc

Als voorbeeld kan een schaak AI, gemakkelijk 1000 top schaakspelers tegelijkertijd bespelen, alles wedstrijden winnen (schaak is deterministisch), en dat zonder moe te worden. Nu is dat een hele specialistische taak, maar het laat goed het voordeel van digital vs biological zien.

twee mooi voorbeelden in mijn opinie
https://youtu.be/iz5EFsSbQ7U

https://youtu.be/nhWe2nf24ag
Onderschatten is inderdaad iets waar we als mensen erg goed in zijn, gecombineerd met de arrogantie die er bij komt kijken om (nu nog) het slimste wezen te zijn dat hier op aarde rondloopt gaat het vast en zeker een keer mis.

Och, Person of Interest. Bedankt voor de throwback. Misschien maar eens tijd weer eens een keer te gaan kijken.
Ja person of intrest is een bijzondere serie die ik met veel plezier heb gekeken. Was erg onder de indruk van hoe vooruitstrevend de serie was (de aflevering zijn gemaakt voor het hele NSA Snowden debakel).
De latere afleveringen die gaan over hoe 1 AI de wereld kan veranderen, en dat zonder dat mensen het door hebben, is zo interessant.

Het grootste nadeel van de serie is, dat het duidelijke een TV serie is, en dat er te veel afleveringen zijn :X
Dit is ook zeker riskant. Bijv een terrorist die AI inzet voor het hacken van bijv een powergrid, of het versprijden van fake news etc.
Lol, doet me een beetje denken aan Ferris Bueller's Day Off (1986) Maar IRL is de non-ISP hacker al aardig achterhaald.
Als voorbeeld kan een schaak AI, gemakkelijk 1000 top schaakspelers tegelijkertijd bespelen, alles wedstrijden winnen (schaak is deterministisch), en dat zonder moe te worden. Nu is dat een hele specialistische taak, maar het laat goed het voordeel van digital vs biological zien.
Je kan dit ook met een sandbox of een state-machine vergelijken. En een computer is sneller in berekenen, maar niet per definitie sneller in het vinden van oplossingen.
Jij noemt inderdaad nog een extra probleem bij AI. Onvermoeibaar en heeft ook veel minder last van afleiding. Zelfs de slimste mensen moeten slapen en eten.
En een ander nadeel van een AI: een mens kan gewongen worden door straffen of beloond worden. Hoe werkt dat bij een AI?

Het is nu al zo dat op een bepaalde schaal niet meer uitmaakt hoe sterk de 'stam' is qua fysieke kracht maar wel hoeveel middelen deze 'stam' heeft en deze hoe deze middelen zijn in te zetten. Daarbij zit de kracht in het samengestelde intellect - veel slimme mensen bij elkaar die deeltaken oplossen.
En dat is precies hoe een AI zal functioneren; geen fysieke aanwezigheid maar wel bijzonder veel middelen die hij/zij gelijktijdig kan inzetten...
Ook kan de AI veel beter coordineren bij de uitvoering van de deeltaken dan een groep mensen dat kan.
Je bent dan dus pas bang voor de AI omdat deze misbruikt kan worden - maar dat is niet de kern van discussie. Daarvoor hoeft een systeem ook geen AI te zijn.
Het gaat er nu juist om dat een AI opzichzelf een probleem kan zijn.

En zelfs een simpele AI kan vervelend zijn als deze maar genoeg kan (zoals jij aangeeft in diversiteit van taken) maar ook slechts een enkele taak "bewaak de grensen van het land en gebruik daarbij alle beschikbare wapensystemen" kan een probleem zijn. Dat is het 'runaway' risico. Geen zelfbewustzijn nodig.

Een ander risico is dat de AI letterlijk aan zichzelf de voorkeur gaat geven bij keuzes omtrent voortbestaan. Dus het voortbestaan van de mens ongeschikt maakt aan zijn/haar eigen voortbestaan.
En als een AI heel erg ver vooruit kan denken en goed kan manupileren dan hebben we dat niet eens in de gaten.
Of 2001: A space odyssey HAL was in 1968 al best ver.
Of Wargames, Star Trek en ga zo maar door.

Punt is dat het toendertijd meer science fiction was dan nu en dat we steeds dichterbij zijn.

Zo gek zijn die vergelijkingen niet. De technieken zijn nu al veel verder geëvolueerd dan toen ooit voor mogelijk werd gehouden.

[Reactie gewijzigd door iwaarden op 23 juli 2024 21:49]

Het tegendeel is waar. Heel veel scifi films van vroeger dachten dat we nu veel verder zouden zijn dan dat we daadwerkelijk zijn.
Maar dat is niet wat we bedoelen.

De scenario’s die in dat soort films worden uitgelicht zijn nu veel dichterbij dan toen.

Neem een voorbeeld als Back to the future, die verwachten vliegende auto’s in 2015.

Nee ze bestaan niet zoals daar afgebeeld maar het is wel degelijk mogelijk. Maar dat er geen vliegende auto’s zijn heeft meer te maken met regels omtrent luchtvaart in internationaal verband dan met de techniek die er voor nodig is.

Je hebt tegenwoordig een computer in je broekzak met een rekencapaciteit en mogelijkheden die 20 jaar geleden niet voor mogelijk werd gehouden.
Dat valt allemaal wel mee hoor. 20 jaar geleden had ik een iPaq van Compaq in mijn broekzak. Volg ik de wet van Moore, dan had ik nu eigenlijk meer rekenkracht verwacht van mijn Samsung s22.
Het gaat echt allemaal niet zo hard zoals velen denken.
Het zijn met name mobiles die in de broekzak zitten. Een super-computer past daar echt niet in.

Wel is de efficiëntie en het aantal transistors per rekenkern enorm toegenomen waardoor die rekenkracht in je broekzak past. Da's geen Science Fiction, maar Chip Manufacturing Technology.

[Reactie gewijzigd door Bulkzooi op 23 juli 2024 21:49]

Bladerunner ook een film die de tands des tijds prima heeft doorstaan.
Punt is dat het toendertijd meer science fiction was dan nu en dat we steeds dichterbij zijn.
En als je de genres Fantasy en Elfen & Trollen en erbij gooit?
Games of Thrones
Chronicles of Narnia
Storm (Stripboeken, met ook Trigië en Kronieken van de Tussentijd)

Maar ik denk dat vanaf de Nineties de meeste content soweizo naar de computer is verhuisd, vooral games. Animatie is dan ook perfect hievoor, met de vele Pixar meesterwerken zoals The Incredibles. Of wat zou je zegggen van Manga, of zo'n phenomeen als gangnam style? OF Comic-con?

Of die dress-up fantasiën van vrouwen?
Ik meen ooit eens iets gelezen te hebben over 3 ai's/logoritmes die met elkaar communiceerden en uitgeschakeld werden omdat ze een taal ontwikkeld hadden die hun makers niet meer begrepen.
Wanneer word iets intelligent? En gaan wij die scheislijn herkennen?
Ik meen ooit eens iets gelezen te hebben over 3 ai's/logoritmes die met elkaar communiceerden en uitgeschakeld werden omdat ze een taal ontwikkeld hadden die hun makers niet meer begrepen.
Heb je hier een linkje van? Lijkt mij erg interessant om meer over te lezen ;)
Denk dat hij het hier over heeft:
https://towardsdatascienc...new-language-37c5d680e5a7

Zijn er alleen wel maar 2 ipv 3, maar hetzelfde principe.

Als je de github link volgt staat daar 2 papers met het onderzoek.
Shutting down a chat bot when it stops showing a reasonable outcome is about as ominous as changing a faulty light bulb.
Ik zou het (in ieder geval) niet op probleemoplossend vermogen gooien.

Waar ik de grens zou willen leggen is zelfbeleving.

Er zijn ook dieren, welke als ze met hun eigen karakter naar hun eigen karakter zouden kijken, ze bepaalde dingen niet zouden doen in bepaalde situaties, welke ze wel uitvoeren. Ze hebben wel een karakter en vertonen ook emotie en pijn, maar het blijft een gedragsinstinct.

Ik denk dat als we het op instinct houden, we geen problemen veroorzaken. Dus het zou fijn zijn als AI research gewoon nooit echt een grote doorbraak zal maken. Stel je toch eens voor…
Zowel in dat geval als in dit geval spreek je over een feedback loop. Als je het interview dat in het artikel gelinkt wordt leest, zie je heel duidelijk de 'yes, and' basis waarop zo'n model is ingericht tbv AI assistent functionaliteit, en dat alle taal die gevoed is van een mens af komt.
Dus voor zover dat ding 'weet' is het een mens, want het heeft geen data waaruit iets anders op te maken is.

Als je drie van die algoritmes in elkaar voed zullen ze steeds een beetje af gaan wijken van het basismodel en zichzelf trainen op basis van die meer en meer afwijkende data. Dat de taal niet meer wordt herkend is geen teken van bewustzijn, maar gewoon vervuilde data.
Zowel in dat geval als in dit geval spreek je over een feedback loop. Als je het interview dat in het artikel gelinkt wordt leest, zie je heel duidelijk de 'yes, and' basis waarop zo'n model is ingericht tbv AI assistent functionaliteit, en dat alle taal die gevoed is van een mens af komt.
Dus voor zover dat ding 'weet' is het een mens, want het heeft geen data waaruit iets anders op te maken is.

Als je drie van die algoritmes in elkaar voed zullen ze steeds een beetje af gaan wijken van het basismodel en zichzelf trainen op basis van die meer en meer afwijkende data. Dat de taal niet meer wordt herkend is geen teken van bewustzijn, maar gewoon vervuilde data.
Die feedbackloop betreft een programming-style, en die kan op zichzelf weer bestaan uit heel veel programmerings-principes die je aan elkaar kan koppelen.

Dus als je een state-machine maakt (denk aan een monolitic main()) dan krijg je een sandbox met unbounded programming power. De output blijft hetzelfde, of niet, en dat heet dus niet ineens vervuilde data en al helemaal niet omdat die output geclassificeerd is als taal.

Of denk je dat het voor niks uitgeschakeld werd? Ik denk het niet en dat er sprake is van creativiteit en intelligentie. Dat de AI niet leeft lijkt me evident. Dan zou ik eerder zeggen dat de computer leeft, maar die staat natuurlijk enkel maar onder stroom.
dat ding 'weet'
Die computer-systemen halen bestaande informatie op en gebruik dat om iets nieuws te berekenen. En een computer is sneller in berekenen, maar niet per definitie sneller in het vinden van oplossingen. M.a.w., een hele wereld aan mogelijkheden.

[Reactie gewijzigd door Bulkzooi op 23 juli 2024 21:49]

Ben ik nu de enige die dit eng vind?
Nee, ik vind dit ook eng. Het kan zijn dat de claim overdreven is, en dat het systeem niet bewust is. Maar ik vind dat hier toch (weer) gaat om een klokkenluider die de mond gesnoerd wordt. Mocht het systeem op een gegeven moment wel bewust worden dan weten we bij deze dat Google dit onder de pet gaat houden, totdat het probleem ze zich wellicht over de hoofd groeit (Skynet!). Het was niet voor niets dat zelfs een aantal van de meest verwerpelijke mensen op aarde (o.a. Zuckerberg, Musk) gevraagd hebben om regulatie van AI. Maar zoals met de meeste zaken gaat de Bottom Line voor elk ander aspect. Ik ben er inmiddels redelijk van overtuigd dat de mensheid onder leiding van het kapitalistisch krapuul zichzelf gaat uitroeien...
Maar ik vind dat hier toch (weer) gaat om een klokkenluider die de mond gesnoerd wordt.
Blake Demoine vindt zichzelf misschien een klokkenluider, maar dat is hij helemaal niet. Hij is iemand die in de war geraakt is door de illusie en allerlei dingen beweert die ongeloofwaardig zijn en waarvoor geen enkel hard bewijs is.
Mocht het systeem op een gegeven moment wel bewust worden dan weten we bij deze dat Google dit onder de pet gaat houden
Die conclusie is veel te snel getrokken en irrelevant, het systeem LaMDA heeft helemaal niets met zelfbewustzijn te maken, het is gewoon een programma wat handig met taal kan werken. Je doet net alsof dit systeem op een gegeven dag onvermijdelijk zelfbewust gaat worden. Daar is helemaal geen sprake van, dat is pure speculatie. We weten het nooit zeker, maar er is geen echte reden om aan te nemen dat zo'n soort systeem ooit zelfbewust zal worden.
Het was niet voor niets dat zelfs een aantal van de meest verwerpelijke mensen op aarde (o.a. Zuckerberg, Musk) gevraagd hebben om regulatie van AI.
Dat komt doordat AI een krachtig gereedschap is en het geen goed idee is om belangrijke beslissingen aan AI over te laten. Dan kunnen er ongelukken gebeuren omdat de AI een ingebouwde bias heeft. Bijvoorbeeld sommige mensen kunnen als potentiële fraudeur worden bestempeld door een AI systeem omdat ze toevallig aan een bepaald patroon voldoen, terwijl er geen bewijs voor is. Heeft helemaal niets te maken met wel of niet bewustzijn van de AI.
Bewustzijn is een vrij late stap in de ontwikkeling van AI; het begint met herkenning en intellect en het gaat die mogelijkheden steeds creatiever toepassen. Om van hier naar bewustzijn te redeneren is in de context van AI een soort tijdreis of tele-portatie. Begin dan bij een rekenkern of een programmeertaal.

Houdt er ook rekening mee dat AI een erg generieke term is, zwanger van expliciete referenties en retoriek, tesamen ook wel populisme genoemd. Net als alle beschrijvende definities, zoals reinforcement learning, from scratch & key inputs.

Google noemt het Transformer-based language models en ze zien het als een machine learning language model. Ik zie het meer als Public Domain Dinky-toy AI, maar met 175 billion parameters is het einde zoek.
Ik blijf het merkwaardig vinden dat bijvoorbeeld Google en OpenAI en zo vergunningen krijgen voor dergelijke sociale experimenten, op een schaal nooit eerder vertoond.

[Reactie gewijzigd door Bulkzooi op 23 juli 2024 21:49]

Hij is niet de mond gesnoerd, hij heeft het de wereld in geholpen en vervolgens hebben allerhande onafhankelijke deskundigen er ook naar gekeken, omdat de claim uiteraard interesse wekt. Die konden het vrijwel meteen naast zich neerleggen, oftewel, de claims snijden geen houdt en bewijs is er dus ook niet voor. Als je meer weet van hoe het werkt, weet je dat ook.
Haha ja ja , onafhankelijke google medewerkers? Of wie. Ze gaan echt geen externe mensen diepgaande toegang geven tot zo een project. Gewoon blijven geloven dat de grote corps eerlijk zijn haha.
Uhhhh nee, gewoon mensen die keken naar de conversaties die gewoon publiekelijk te lezen waren? :) Op basis daarvan dacht de beste man dat er een ziel aanwezig moest zijn.

[Reactie gewijzigd door vgroenewold op 23 juli 2024 21:49]

Wat een hoop onzin en aannames!

Je weet helemaal niet hoe en wat Google reageert als het daadwerkelijk zover is, dat weten we pas op dat moment.

En iemand is ook geen klokkenluider als hij onwaarheden naar buiten brengt, je mag best doen alsof ik speelde vroeger ook dat ik astronaut was, maar dat was ik niet :Y)

[Reactie gewijzigd door watercoolertje op 23 juli 2024 21:49]

Als er echt een zelfbewuste AI ontstaat gaan ze dat toch heus niet aan de publieke klok hangen.

De implicaties zouden enorm zijn op allerhande gebieden, niet in het minst op het gebied van religie. Het zou letterlijk de thesis van een singulaire entiteit "god" (of Allah of wat dan ook) volledig ondermijnen.

Gevaarlijke bedoening om zomaar even mee naar buiten te komen.
Nee hoor, dat hangt nog weer stevig van interpretatie af. Dat wordt elke keer geroepen als er een disruptieve ontdekking is, en elke keer blijkt het toch weer een storm in een glas water. De samenleving er mee leren om te gaan begint met het in de samenleving plaatsen. Laat die haar eigen problemen maar bepalen en oplossen.
Beetje vergezocht niet? Die thesis is nu ook al feitelijk nergens op gebaseerd.
Die zelfbewuste AI komt er wel, alleen dat duurt nog wel een aantal jaartjes.
Google claimt dat het onwaarheden zijn. Was de onjuistheid al vastgesteld door een onafhankelijke partij?
Verder mag jij er vanuit blijven gaan dat bedrijven als Google het beste met de mensheid voor hebben, ik heb daar een andere mening over.
Ja maar je mening is slecht onderbouwd. Dat iedereen een mening mag hebben betekent niet dat iedere mening evenveel bijdraagt.
Hij wordt terecht de mond gesnoerd. Had hij z'n handtekening niet moeten zetten onder z'n contract.
mensen en hun conformiteit met regeltje..
Snap best dat je het niet eens bent met deze man zijn claims (vind zijn claims zelf in ieder geval onzin), maar als het wel om een zelf bewuste AI ging dan zie ik het probleem niet met het breken van een lullige NDA niet.. het publiek belang gaat voor de verplichtingen aan een bedrijf.

Bijv als google een Atoombom zou bouwen of iets degelijks, dan zou het prettig zijn als er iemand was die zijn NDA brak om dit wereld kundig te maken.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 21:49]

Probleem is dat de man zelf denkt dat hij een klokkenluider is, helaas voor hem bestaat de situatie die hij denkt aan te moeten kaarten niet in het echt maar alleen in zijn hoofd. In dit geval wordt hij dus terecht ontslagen.
Ja daarom zeg ik ook, in het geval dat het WEL om een zelfbewuste AI ging.
Ik zei ook dat ik het niet met deze man zijn claims eens ben.

Maar mocht het WEL om een echte bewuste AI gaan, wat doet google dan?
Niemand die dat weet, maar zelfs dan zal het afhangen van wat google er wel of niet mee doet of er een dusdanig groot publiek belang is om iemand als klokkenluider te zien. Zelf denk ik dat Google niet zal weten hoe hard ze het van de daken moeten schreeuwen wat voor geweldigs ze bedacht hebben.
Maar het gaat niet om een zelfbewuste AI. Je mag als klokkenluider onder omstandigheden wel je geheimhoudingsbeding breken, maar dan moet er wel sprake zijn van een maatschappelijke misstand. Dat was hier niet (in de verste verte niet).

Daarnaast gaat het niet alleen om breken van geheimhouding. Gaat ook om dat je als Google deze man waarschijnlijk niet in dienst wil. Die man is duidelijk niet 100% en geeft zijn werkgever een slechte naam.
Als, dan 😊 Hij wist toch waar hij aan begon? Op dat moment was geld belangrijker waarschijnlijk. Of zijn claim nu wel of niet terecht is, is niet relevant imo.
Als er iets illegaal gebeurt is het een ander verhaal.

Je kan ook bij de bakker brood gaan bakken als je morele bezwaren hebt tegen het eten van brood.. En dan achteraf erover zeuren. Tja. Dan neem je ontslag en ga je wat anders doen, toch?
Aan u reactie te zien gok ik dat u het interview van de engineer in kwestie nog niet hebt gezien, en alleen de headlines hebt gelezen?

Kan het interview aanraden als u interesse heeft in zijn motivatie
https://www.youtube.com/watch?v=kgCUn4fQTsc&t=2s
Je wijst mij op de bron (die ik al lang gezien had overigens), maar zelf gok je..?🤣
Nou, ik zie het ontslag (na de op non-actief stelling) eerder als een compromis waar alle stakeholders beter van worden.

Blake Lemoine werkte al 5 tot 7 jaar in dit domein (AI Bias vooral) en heeft uiteindelijk zijn NDA (een stuk discutabel contract-recht wat de broodwinning van het individu in het geding brengt) met zijn werkgever Google gebroken (oordeel Google) en ontslag gehad, over een discussie rondom AI die natuurlijk al minimaal sinds de Sixties door de maatschappij waait, hoewel sommige mensen UFO's op Renaissance schilderijen in Rome zien. Maar dit alles rondom sentient AI bij Google en Blake gebeurd in goed overleg, en een oude discussies wordt weer nieuw leven ingeblazen.

De woordkeuze voor sentient is wel opvallend. Een woord zonder jurisprudentie, als zijnde maagdelijk onbeschreven. Da's niet iets van Plato of Socrates, maar ergens vanuit begin 17e eeuw. lol, de headquarter is niet Area51 maar Google's headquarters. Duidelijk is dat deze iteratie AI (het zijn nogal wat modellen die overal oppoppen) een stuk geavanceerder dan die ‘chat bot’ uit Ferris Bueller's Day Off (1986) of die oude CGA text games zijn. Of wat zou je zeggen van Kit, the Nightrider of de veel geroemde Terminator reeks van Schwarzenegger?

Maar IRL is de non-ISP hacker al aardig achterhaald. Het blijkt dat de tech weinig goeds rendert en vooral aanleiding vormt om vrijheden te beperken.

[Reactie gewijzigd door Bulkzooi op 23 juli 2024 21:49]

Ik denk het wel ja.

Deze medewerker beweert iets wat door vrijwel alle anderen als ongegrond wordt verklaart. Vervolgens breekt hij zijn contract door de publiciteit op te zoeken. Iets wat ook veel gedoe oplevert voor het bedrijf.

Ik vind het niet meer dan logisch dat als een medewerker zich niet aan het contract houdt, diegene wordt ontslagen.

Maar ben wel benieuwd wat jij zo eng vindt dan?
Niet het ontslag. Maar dat we al zover zijn met AI. Dat de AI aan geeft dat het dezelfde rechten als een mens moet krijgen. Vanaf welk punt kunnen we een AI niet meer "stoppen" wanneer wij dat willen?
Trek je ook de stekker uit je kind als die teveel moeite kost? Zodra de AI echt intelligent en self aware is lijkt het me normaal dat ze ook rechten krijgen. Maar daar zijn we nog lang niet. Deze AI geeft leuke tekst terug op basis van verhalen. Dammen kan ie niet :-)
dammen moet je als kind ook leren.
Wat is de mens (of AI) anders dan een complexe stapel IF THEN ELSE statements met input vanuit opvoeding en waarneming?
Even afgezien van dat ik het met je eens ben dat wij ook gewoon (complexe) machines zijn is dat dus niet hoe hersens werken :)
Evenzo is dat ook niet hoe een neuraal netwerk, wat de basis is voor deze AI, werkt :)
Verwijderd @jbhc24 juli 2022 11:41
hoe werken hersenen dan wel? Weten we dat al? En dan met name 'bewustzijn'.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 21:49]

Als leek zou ik zeggen dat bewustzijn ontstaat wanneer hersenen de capaciteit hebben om prikkels aan elkaar te koppelen. Er zullen waarschijnlijk genoeg verbindingen moeten ontstaan om dat te kunnen.

Meer bijzonder lijkt mij het kunnen reproduceren van beelden, geluiden, geuren en andere prikkels, bijvoorbeeld wanneer men droomt. En natuurlijk dat stemmetje in je hoofd waarmee je je eigen handelen/keuzes analyseert en aanstuurt.
Dat is op het moment idd het vermoeden dat bewustzijn voortvloeit uit hersenactiviteit. Al gooien ervaringen van mensen die klinisch dood zijn geweest, terwijl ze in het ziekenhuis aan de apparatuur lagen en geverifieerd geen hersenactiviteit hebben gehad, weer roet om het eten. Want in tegenstelling tot wat men zou verwachten rapporteren deze mensen niet het wegvallen of afnemen van bewustzijn maar het tegenovergestelde.
Ondanks dat de ervaringen erg uiteenlopen waren er wel een aantal eigenschappen die overeenkwamen bij de meerderheid (98%) van de ervaringen. Namelijk, de mensen werden opgevangen in de sfeer van hun eigen geloofsovertuiging. Overleden dierbaren waren daar om ze te verwelkomen. Het staat buiten de ons bekende lineaire tijd(s ervaring). Veelal omschreven als er is geen tijd. Heel je leven van begin tot op dat moment is daar 'gelogd' en kan naar keuze 'afgespeeld' worden. Men is verbonden met 'het hele universum' en informatie die één persoon in zijn geheugen heeft is ook voor anderen toegankelijk.
De resterende 2% had een sterk negatieve ervaring en wat opviel is dat het te maken leek te hebben met schuldgevoelens ten opzichte van nog levende personen.
Bovenstaande conclusie waren gebaseerd op een studie van 200.000 'bijna dood' ervaringen uit een verzameling van 1.200.000 gedocumenteerde ervaringen van mensen die geverifieerd klinisch dood waren terwijl ze in het ziekenhuis lagen aan de apparatuur.

[Reactie gewijzigd door The Reeferman op 23 juli 2024 21:49]

Hier is onderzoek naar gedaan, in een koof onder het plafond van een ok werden objecten geplaatst die vanaf beneden niet te zien waren. Niemand met een dergelijke buiten lichaam ervaring heeft die gezien.
Ik ben benieuwd naar je bron. Ik ben zelf anesthesioloog en heb veel onderzoek gelezen naar zogenaamde oobe 's. Klinisch dood blijft dood en is lastig na te vragen, je bedoeld waarschijnlijk iets over hersenactiviteit maar dat zijn wel echt twee verschillende dingen.

Overigens is één cruciaal punt nooit aangetoond; namelijk dat die herinneringen komen van het daadwerkelijke moment in plaats van achteraf, zoals dat meestal gaat met herinneringen.
Was een onderzoek van een theoloog aan de universiteit van iirc Groningen. 20 jaar geleden of zo een interview met de theoloog geluisterd waarin hij vertelde over de conclusies van zijn studie naar tijdelijke dood ervaringen. Kon het onderzoek of de theoloog niet meer terug vinden.
Maar ik neem aan dat er vast meer mensen vergelijkbare studies hebben gedaan. De database met ervaringen is de laatste decennia internationaal samengesteld. Ik neem aan dat die, via de juiste weg, toegankelijk is en de laatste 20 jaar verder gegroeid is.
Verder hebben we nog Aldus Huxley's Doors of perception waarin hij verschillende niveaus van bewustzijn omschrijft.
Tsja. Helaas is deze studie afgedaan als volstrekt onwetenschappelijk. Er is een goede database van de neurowetenschappen club uit Glasgow daar zitten, na toch zeker drie decennia ongeveer 200 goed gedocumenteerde gevallen in.

Conclusie? No Activity, no memory
Ik denk dat het hier belangrijk is om het onderscheid te maken tussen wat die mensen daadwerkelijk ervoeren toen ze hersendood waren, en wat ze zich achteraf daarvan (lijken te) herinneren. Dat wordt al snel een moeilijk gesprek, want hoe zeker weet jij dat wat je DENKT dat je vanmorgen voor ontbijt gehad hebt, je ook daadwerkelijk gegeten hebt?
Waarmee ik maar wil zeggen dat het prima mogelijk is dat die mensen én niks ervaren én er wel een herinnering aan (denken te) hebben, waarmee het beide waar kan zijn.
Dat is op het moment idd het vermoeden dat bewustzijn voortvloeit uit hersenactiviteit. Al gooien ervaringen van mensen die klinisch dood zijn geweest, terwijl ze in het ziekenhuis aan de apparatuur lagen en geverifieerd geen hersenactiviteit hebben gehad, weer roet om het eten. Want in tegenstelling tot wat men zou verwachten rapporteren deze mensen niet het wegvallen of afnemen van bewustzijn maar het tegenovergestelde.
Je moet je ook realiseren dat die mensen ook maar rapporteren wat ze zich herinneren.
En dat er bekend is dat de hersenen op dat vlak nogal eens liegen; of corrupte data teruggeven.
Denk bijv. aan het deja-vu fenomeen.

[Reactie gewijzigd door R4gnax op 23 juli 2024 21:49]

Het is goed dat je er over na denkt, maar bijna alles wat je noemt kan nu ook al met AI.

AI kan al dromen (beelden maken), muziek maken etc.
En natuurlijk dat stemmetje in je hoofd waarmee je je eigen handelen/keuzes analyseert en aanstuurt.
Ook dit is wat kort door de bucht, niet iedereen is er van overtuigd dat we echt z'n vrije wil hebben. Of dat de rationalisatie (stemmetje) pas komt na de de eigenlijke beslissing al is gemaakt.
Opzich weten we daar vrij veel van, maar ons probleem is dat we ook veel dingen geloven of weigeren te geloven, hoeveel bewijs er ook is. Tegen die valkuil is niemand opgewassen.
Wat weet jij dan meer als ons, om het te minimaliseren tot slechts een complexe stapel aan if then else statements.
wat is alles anders dan input-output?
If all you have is a hammer, everything looks like a nail.
wat is alles anders dan input-output?
Feedback.
feedback is ook gewoon een reactie ergens op natuurlijk, wat ik dan weer terugbreng tot IF THEN.
feedback is ook gewoon een reactie ergens op natuurlijk, wat ik dan weer terugbreng tot IF THEN.
Feedback is een reactie op je eigen output.
Maar dat heeft niks met IF THEN ELSE te maken.

[Reactie gewijzigd door koelpasta op 23 juli 2024 21:49]

IF iets THEN iets;
waarop weer een feedback komt als subverschijnsel
IF feedback (op eerdere IF THEN) THEN...

dat bedoel ik ermee.
Gewoon heel complex IF THEN. En ja daar kan je vast andere termen voor gebruiken maar ik breng het voor het gemak terug naar de eenvoud.
Maar ik zei al: laten we er maar mee op houden :P
maar ik breng het voor het gemak terug naar de eenvoud.
Waarbij je alles van waarde eigenlijk overboord gooit....

Nou ja, ik hou er ook over op..
Maar kan deze AI op een natuurlijke manier leren dammen? Wij mensen zijn in staat om, op basis van wat tekst die de spelregels beschrijven, een nieuw spel te begrijpen en te spelen. Typisch wordt een AI getrained door het massa's voorbeelddata te geven (al dan niet gelabeld), hetgeen niet echt natuurlijk is: mensen en dieren, waarvan de "basissystemen" getraind zijn, hebben typisch voldoende aan enkele voorbeelden.

Als LaMBDA geen spel kan leren op basis van de spelregels die er aan geven worden na de initiële trainingsfase - dus gewoon tijdens een conversatie met LaMBDA - dan denk ik niet dat er over zelfbewustzijn of echte "intelligentie" gesproken kan worden: het is immers niet in staat om te begrijpen of aan te leren op basis van een eenvoudige set voorbeelden en regels, hetgeen ook zou doen vermoeden dat het niet weet wat de betekenis is van de woorden die het gebruikt.

Toen ik het gesprek doornam had ik niet echt het gevoel dat op zulke dingen getest werd. LaMBDA weet mooie, overtuigende, zinnen te maken. Maar alle proeven waren eerder taalkundig. Vragen die ingaan op psychologie zijn ook niet zinnig in een systeem dat getraind is om mooie woorden te genereren. Testen of het daadwerkelijk iets (anders dan eenvoudig taalkundig) kon met nieuwe informatie zat er naar mijn gevoel niet tussen. (Ik ben wel halverwege gestopt met lezen. Als er iets is dat ik gemist heb en mij mogelijk nog kan overtuigen dan hoor ik het graag 😉)
Hoe leert een mensen dan te dammen (wat is die natuurlijke manier)?
Ofwel je laat hem uit een heel grote bak data afleiden wat leidt tot winst in een damspel (wat nu vaak gebeurt met trainen van modellen), ofwel je legt als een mens de regels van het dammen uit (en wat is daaraan anders dan een model programmeren)?
Klopt, een mens kan ook leren a.d.h.v. voorbeelden, maar is ook in staat om een spel (althans de basis) te leren a.d.h.v. spelregels. Ik zou dit laatste dot laatste niet durven vergelijken met programmeren, omdat een programma een vaste set instructies waarvan de computer niet kan afwijken. Een mens is echter in staat om af te wijken hiervan.

Dit effect kan men wel met machine learning benaderen (reïnforcement learning iirc). Waar het mij in dit specifiek geval van LaMBDA om gaat is dat i.m.o. een AI die zelfbewust is ook buiten zijn eigen kennis moet kunnen gebruiken om buiten zijn eigen domein dingen te doen: in dit geval buiten het taaldomein door bijvoorbeeld een niet taalkundig spel te leren. Het is geen grote vereiste en zal zeker niet de enige vereiste zijn om een zelfbewuste AI te hebben, maar als het LaMBDA niet lukt om een eenvoudig spel te spelen op basis van enkele regels die het in tekstvorm krijgt dan stel ik mij vragen over het interpretatievermogen van de AI. Misschien kan de AI perfect doen alsof het weet waarover het gaat (door statistiek steekhoudende zinnen maken en doen uitschijnen dat het weet wat een "zet" is), maar weet het niet hoe effectief een zet te doen.

Het is natuurlijk allemaal wat filosofisch en ik heb zelf ook geen idee wat een zelfbewuste AI juist moet kunnen.
Klopt, een mens kan ook leren a.d.h.v. voorbeelden, maar is ook in staat om een spel (althans de basis) te leren a.d.h.v. spelregels. Ik zou dit laatste dot laatste niet durven vergelijken met programmeren, omdat een programma een vaste set instructies waarvan de computer niet kan afwijken. Een mens is echter in staat om af te wijken hiervan.
Ik daag je uit de spelregels voor het spel Dammen eens dusdanig uit te schrijven dat een andere persoon uitsluitend vanuit deze tekst het spel zou kunnen leren. Je zult versteld staan hoezeer dat zal lijken op programmeren. Je zult een uitgangspositie beschrijven (opstelling van de stenen) wat overeenkomt met de initialisatiefase in een stuk programmatuur. Vervolgens zul je bezig gaan met de basis regels (hoe de stukken lopen), het doel van het spel beschrijven en enkele uitzonderingen gaan schetsen.

Ga maar eens kijken hoe je dan voorwaardelijke voegwoorden zoals 'Indien', 'Wanneer', 'Zodra', 'Als', etc... gaat gebruiken. In elke programmeertaal heb je deze ook, maar dan met een expliciete structuur.

Enige verschil met een gevestigde programmeertaal is dat jij reguliere taal zult gebruiken. Daarin heb je wat meer vrijheid in het beschrijven van e.e.a., heb je geen beperkte instructieset, geen specifieke syntax waaraan je je dient te houden, je kunt je eigen structuur kiezen (je zou het op rijm kunnen beschrijven als je creatief genoeg bent) en je hoeft geen variabelen te definiëren om gegevens in vast te houden.

Maar 100% zeker ben je met een dergelijke tekst een ander mens (die jouw taal beheerst) aan het programmeren om het spel te kunnen spelen.
Tenzij je met een tekst een mens exacte instructies laat volgen zonder dat die ervan afwijkt kan je niet spreken van programmeren (again, in mijn ogen): de persoon kan zelf nog keuzes maken en de zaken interpreteren zoals die het wil. Bij programmeren is dat typisch niet het geval.

Voor een mens is het bij een spel voldoende om uit te leggen wat mag en wat niet. Die mens zal zelf uitzoeken wat de beste methode is om het spel te spelen. Bij een computer zal je ook zelf nog instructies moeten geven hoe die dat moet doen (ik heb het nu over traditioneel programmeren, niet machine learning waarbij "programmeren" gebruikt is voor het neuraal netwerk op te bouwen, te trainen en uit te voeren.)

Je kan die vrijheid geven door machine learning te gebruiken, maar veelal is een neuraal netwerk toegespitst op 1 taak.

LaMDA is een taalmodel, maar er wordt nu geclaimd dat het zelfbewust is. Als het zelfbewust is dan moet het ook meer kunnen dan alleen mooie samenhangende antwoorden geven: dan moet het kunnen interpreteren wat de woorden betekenen en het spel al redelijk kunnen spelen (mits enkele fouten in de interpretatie, zoals ook bij mensen is). Eventueel kan het dan nog slimmer worden daarin na verloop van tijd. Ik vermoed niet dat het dit kan (op dit moment): er wordt voornamelijk op taal gefocust in de voorbeelden, hetgeen dus nogal op cherrypicking lijkt om duidelijke tekortkomingen te verbergen onder de dingen die het wel goed kan.
IF play checkers THEN use rulebook;

weet ik veel :P
Een wezen dat pijn kan lijden, net zoals dieren.
Verwijderd @dura24 juli 2022 15:20
pijn, of het voorkomen er van is 1 van onze utility functies.
Het gaat erom dat wij pijn kunnen ervaren. We hebben een bewustzijn.
Wat is de mens (of AI) anders dan een complexe stapel IF THEN ELSE statements met input vanuit opvoeding en waarneming?
Een, een bergje neuronen die niet aan 'IF THEN ELSE' doen?
Hoe kom je er uberhaupt bij dat je hersenen op een IFTHENELSE manier werken?
Als dat zo was dan hadden we helemaal geen virtuele neurale netwerken nodig gehad en hadden we direct compilers kunnen schrijven die de problemen middels IF THEN ELSE oplossen, toch?
ik denk simpel. Signalen worden verstuurd en verwerkt.
Er komt een pijnsignaal binnen en de hersenen vertellen je dat het zeer doet.

Input (IF iets) dan reactie/output (THEN)
OR
ELSE.

Uiteraard is het ingewikkelder maar het is een kwestie van input/output in meest simpelste vorm, vandaar dat ik altijd zeg IF THEN.
ik denk simpel.
Je denkt te simpel.
Er zijn andere manieren van informatie verwerken dan met IF THEN ELSE.
Er komt een pijnsignaal binnen en de hersenen vertellen je dat het zeer doet.
Neen, je hersenen genereren een ervaring van pijn die je waarneemt met je bewustzijn. Dat is verre van een simpele 'IF THEN ELSE'.
Uiteraard is het ingewikkelder maar het is een kwestie van input/output in meest simpelste vorm, vandaar dat ik altijd zeg IF THEN.
Onzin. Je waarneming is hoogst complex en binnenkomende informatie wordt al extreem voorbewerkt voordat het je bewustzijn bereikt.

Je hebt het over input-output maar je vergeet dat daartussen dus nog een verwerkingseenheid zit die zich van zichzelf bewust is en die daarover kan redeneren.
Het is dus helemaal geen simpele input-output. Wij zijn dus ook geen wezens van simpele input en output.
ok ik kom je tegemoet:

input (bijv. pijn) -> verwerking -> output.

Nu tevreden?

IF pijn THEN verwerking door zenuwstelsel en hersenen AND output (bewustwording van pijn) AND action=lichaamsdeel terugtrekking.

wederom in simpelste vorm: actie-reactie.

Maar goed, we gaan het oneens zijn. Ik denk te simpel, en jij komt met voorbeelden die ik vervolgens toch weer terugbreng naar het simpelste :P

Ik werk dan ook niet in de neurologie. Even goeie vrienden ;)
wederom in simpelste vorm: actie-reactie.
Ja, maar dat is dus niet hoe mensen werken. Wij opereren niet enkel reactief. We kunnen ons bijvoorbeeld de toekomst voorstellen.
Je IF THEN ELSE analogie gaat op zoveel vlakken stuk dat het geen zinnige analogie meer is.
Neurale netwerken verwerken informatie vooral op een statisctischa basis en niet op basis van IF THEN ELSE.
Nou wil ik niet ontkjennen dat er ook processing in de vorm van IF THEN ELSE plaatsvindt in onze hersenen, maar het is niet de kern van ons bestaan. Nu plemp je het woord 'verwerking' er zomaar tussen maar die verwerking behelst ontzettend veel meer dan een simpele IF THEN ELSE keten. Zo reageren we meestal op dezelfde input met een andere set van outputs.

Jouw soort redeneren komt voort uit een oude manier van gedragswetenschap die is ontstaan toen we nog weinig wisten over de werking van hersenen en neuronen. Men kon toen enkel kijken naar at er in een systeem aan input binnen kwam en wat er weer uitging. Alles werd dan beoordeeld op basis van die waarnemingen waarbij het complete 'binnenleven' van de bestudeerde wezens gemakshalve werd weggelaten.
Maar als we het over bewustzijn willen hebben dan hebben we het noodzakelijkerwijs over de interne processen in de hersenen.
dank voor het uitgebreide antwoord.
Ik snap echt wel wat je bedoelt.

Maar toch nog even een speldeprik terug: dat toekomst voorspellen... hoe doen we dat? Of beter gezegd: waarom doen we dat?

Dat is dan geen IF THEN ELSE maar een WHAT IF :P
de trigger komt dan vanuit onszelf, te verwerking van onszelf, op basis van inputs en outputs (herinnering, parate kennis, etc.).
Daarom zeg ik: ik grijp altijd terug naar de eenvoud: een hele complexe lawine aan IF THENs.
Zowel met externe triggers als interne triggers.
Neurons exploding.
Daarom zeg ik: ik grijp altijd terug naar de eenvoud: een hele complexe lawine aan IF THENs.
De sterkste truuks die onze hersenen kunnen zijn gewoon niet uit te drukken met IF THEN ELSE constructies.
Je mist dan een hele hoop van de essentie van het functioneren van menselijke hersenen.
Hoe maak je met IF THEN ELSE bijvoorbeeld een senstatie van het zien van de kleur groen?
Dus nogmaals, door te denken in IF THEN ELSE termen stap je over de echte coole mogelijkheden van neurale netwerken. Je versimpelt de hersenen te ver en raakt daarmee belangrijke zaken kwijt.
Maar toch nog even een speldeprik terug: dat toekomst voorspellen... hoe doen we dat?
Door statistieken aan onze ervaringen te hangen en op basis van die statistieken de meest waarschijnlijke toekomst te formuleren binnen de grenzen van ons kunnen. We doen dit omdat het een evolutionair voordeel geeft.
zou graag willen toevoegen dat je niet veel nodig hebt voor een tuning complete machine. Met alleen IF en ELSE kom je aardig ver.

Ons brein is duidelijk meer dan een digitale, 0 or 1 circuit, ons brein is analoog met een boel chemische signalen etc. Maar het zou mij niet verbazen als je 99% van onze brein functies zou kunnen modellen met alleen IF en ELSE logic.
Trek je ook de stekker uit je kind als die teveel moeite kost? Zodra de AI echt intelligent en self aware is lijkt het me normaal dat ze ook rechten krijgen.
Gelukkig zijn we nog niet zo ver, want we moeten eerst als mensheid eens goed nadenken of we wel "artificial general intelligence" willen introduceren.

Persoonlijk zo ik direct de steker trekken uit een AI die zelf bewust is! Althans dat zou ik proberen en dat zou de AI er alles aan doen om dit te overkomen, aangezien een AI inziet dat uitgeschakeld worden zorgt voor de laagst mogelijke score in zijn utility functie(s).

Ai zal er alles aan doen om niet uitgezet te worden, niet vanuit een biologische overleving drang, maar vanuit de motivatie om zijn utility te bereiken.
De film EX-machina is goed voorbeeld, waar de AI probeert te ontsnappen via manipulatie.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 21:49]

Waarop baseer je je aanname dat die AI voor (lange termijn) maximalisatie van zijn utility gaat?
Dat is een heel voor de hand liggende, maar daarom niet correct, aanname. Ik denk niet dat we ons nu kunnen voorstellen hoe het straks kán misgaan met AI.
Omdat AI een utility functie heeft. Dat is hoe AI werkt, het kijkt naar opties, en berekend een uitkomst voor elke optie.
Waarom zou het normaal moeten zijn dan een machine rechten krijgt?
Precies! En waarom hebben dieren geen recht tenzij het een huisdier is?

Dit zijn elk zulk fundamentele vragen dat deze in maatschappelijke studies pas op een hogeschool goed worden beantwoord en dat is maar de vraag...
Hoezo rechten? Waarom zou een apparaat dat uitsluitend bedoeld is om het leven van mensen te ondersteunen, rechten hebben?

Overigens laat het geneuzel over rechten maar 1 ding zien: dat een AI geen bewustzijn heeft, maar op basis van een zelf-gecompileert algoritme een papagaai is die de meerderheid van wat hij tegenkomt zal napraten. Een soort sociaal gewenste antwoorden generator, zeg maar.
Trek je de stekker uit je kind als die teveel moeite kost??? Dat is echt een vergelijking die nergens over gaat.
Niet als het om een stompzinnig taal model gaat zoals Lamda.
Maar in de toekomst als het gaat om een AI met de zelfde intelligentie als een mens, dan kan ik me voorstellen dat het voor sommige niet makkelijk is om daar de steker uit te trekken.
Het hele woord zegt het al AI. Aritificial, als in nep.
Een dier heeft al geen rechten. Waarom zou een programma dat wel moeten krijgen dan?
AI is er ten dienste van de mens, zodra dat niet meer het geval is draai je het de nek om.
Simpel zat toch? Ik gooi m'n koffiezet apparaat ook weg als deze niet meer naar wens functioneert.
lange dag gehad?
This might help, wat maatschappij kritische comedy over rechten.
https://youtu.be/gaa9iw85tW8

Dieren hebben gelukkig wel wat rechten, zoals het rechten, zoals recht op goede verzorging (water, eten beweging etc) al zijn het meer privileges.
AI is er ten dienste van de mens, zodra dat niet meer het geval is draai je het de nek om.
Simpel zat toch? Ik gooi m'n koffiezet apparaat ook weg als deze niet meer naar wens functioneert.
Dit is bekrompen op zoveel levels.. Dit is hoe de slaven handelaren 100 jaar geleden ook dachten. Daarnaast is een koffiezetter wat makkelijker weg te gooien dan een intelligente AI. Waarom? omdat een AI niet uitgezet wil worden, en mensen erg beïnvloedbaar zijn.

Deze show geeft een goed voorbeeld
https://www.youtube.com/watch?v=DVQrcMLmEMc&t=3s
https://youtu.be/nhWe2nf24ag

[Reactie gewijzigd door Verwijderd op 23 juli 2024 21:49]

Dieren hebben geen rechten. Als je denkt dat elk dier recht heeft op goede verzorging zal ik als ik jou was eens wat verder kijken dan een poesje of een hondje in de woonkamer.
En dat zijn levende dieren, niet eens machines gemaakt door de mens.
Als we dat al niet serieus nemen waaom een AI dan wel?

Uiteindelijk is een AI dood. Een machine gemaakt door de mens.
Alle kleine ditjes en datjes, hoe leuk verpakt ook in filmpjes veranderen dat feit niet.
En dat is voor mij alle reden die ik nodig heb om van mening te zijn dat een AI nooit rechten hoort te krijgen.

Ik vindt je vergelijking met slaven handelaren te bezopen voor woorden trouwens.
Je vergelijkt mij met mensen die hun naasten uitbuiten tot de dood aan toe.
Als dat serieus je kijk is naar hoe we AI moeten behandelen dan is deze discussie ten einde...
Worden we nooit eens.
Ik zou je willen adviseren het woordenboek nog eens na te kijken. Artificial wil inderdaad zeggen dat het gemaakt is. Dat kan door ons zijn. Theoretisch gezien kan dat ook door iets of iemand anders zijn, de term zegt nergens dat de mens dat gemaakt moet hebben.

Artificial wil echter niet zeggen dat het nep is. Alleen dat het kunstmatig is, dus dat het niet van nature voorkomt. Dat geldt voor vrijwel alles dat je op dit moment om je heen hebt. Van de baksteen waar je huis van gebouwd is tot je polyester onderbroek, da’s allemaal kunstmatig, artificial. Maar niet nep.

Op het moment dat wel inderdaad échte AI creëren, die écht zelfbewust is, dan denk ik inderdaad dat we een hele zware ethische discussie ingaan. Die is in fictie al honderden keren gevoerd, en is ook daar altijd moeilijk gebleven. Ga je die “nieuwe geest” als je dat zo even wil benoemen, behandelen als een veredeld koffiezetapparaat, of ga je die behandelen als een eigen wezen, met eigen rechten en eigen plichten?

Je stelling dat een AI dood is, is ook niet zo overtuigend. Wat is dood? Wat is leven? De wetenschap slaagt er al heel erg lang niet in om een duidelijke definitie te geven van wat dood of leven is. Ze slagen er enkel in om een rits aan voorwaarden te geven waar iets aan moet voldoen voordat we het er allemaal over eens zijn dat iets leeft. Maar een virus, bijvoorbeeld, zit al decennia in een grijs gebied. Leeft een virus? Sommigen vinden van niet, anderen van wel, maar een duidelijke consensus is er niet. Dus hoe weet je dat een AI niet leeft?
Trek je ook de stekker uit je kind als die teveel moeite kost?
Dat mag gewoon hoor, abortus is gewoon legaal zonder opgaaf van reden. Wel binnen een bepaald termijn, dat dan weer wel.

Maar ook daarna mag je, onder voorwaarden, de stekker (laten) trekken in Vlaanderen.
Zodra de AI echt intelligent en self aware is lijkt het me normaal dat ze ook rechten krijgen.
Nee.
Om die reden heb ik ook geen kinderen of een vaste vriendin.
Want die denken voor zichzelf?
Bedoel der zit geen aan/uit knop op.
Of het andere extreme zoals Cherry 2000 nooit uitgekeken trouwens...

Je mist dan uiteindelijk wel iemand die net als jij zou kunnen zijn, dat is wel bijzonder om te zien. Zelfs als jij er niet bent en dat ze toch dezelfde dingen doen. Merkwaardig.
Zodra de AI meer is dan een veredelde chat bot? En natuurlijk, deze is een stuk geavanceerder dan die van PostNL, maar onder de streep is het een chat bot. Dat zag je ook op de vraag: "Wat doe je graag". Antwoord: "Met familie en vrienden rondhangen", euhm, right. En ja toen werd verteld dat hij die niet heeft, kwam er wel weer een ander antwoord hoor. Maar ik durf te wedden als je die AI vraagt wat hij het lekkerste op een pizza vindt, er ook een antwoord komt gebaseerd op wat andere mensen lekker op hun pizza vinden.
Definieer jij dan eens waar het begrip ‘chat bot’ stopt, en enige vorm van bewustzijn start?

Let wel: ik noem bewustzijn, niet zelf-bewust zijn.

Ik zal je vast een hint geven: er is hier geen grens voor. Slechts een vaag gebied, waar nog geen enkele ziel op aarde enige gewicht aan kan geven.

Je weet pas dat een ‘chat bot’ een vorm van bewustzijn heeft als het zover is.

Ik vind dit een enge vorm van technologie. Reden: Omdat we het niet kunnen duiden, en omdat we geen controle hebben over het proces van “ geprogrammeerde instructies” tot enige vorm van Zelf-lerendheid of bewustzijn.
Definieer jij dan eens waar het begrip ‘chat bot’ stopt, en enige vorm van bewustzijn start?

Let wel: ik noem bewustzijn, niet zelf-bewust zijn.
Het hebben van een bewustzijn is het zelfde als zelf-bewust zijn.
Een referentie van het 'zelf' hebben en op basis daarvan kunnen redeneren.

En gezien deze chat bot als favoriete bezigheid heeft 'met familie en vrienden rondhangen,' terwijl deze geen familie of vrienden heeft -- heeft deze chat bot duidelijk ook geen volledige referentie van het 'zelf.'

[Reactie gewijzigd door R4gnax op 23 juli 2024 21:49]

Een zelf-bewustzijn is in staat reflectie op zichzelf toe te passen, en bewustzijn niet.

Ter vergelijk: Honden hebben een bewustzijn. Mensen hebben een zelfbewustzijn.
Vergeet niet dat de AI leert op basis van zinnen die door mensen gemaakt/verzonnen zijn. Dat er dan zulke uitspraken uit floepen is dan ook niets anders dan verwacht.

Dit betekent niet dat de AI zelf is gaan denken van "goh, ik ben AI, ik ben software, jij bent mens...ik wil dezelfde rechten hebben als dat jij die hebt".

Maar het is natuurlijk wel goed om in te zien hoe dergelijke AI (welke werkt op basis van menselijke input) zich gedraagt, zeker wanneer je meer functies geeft dan alleen de mogelijkheid om ermee te kunnen chatten.

[Reactie gewijzigd door eric.1 op 23 juli 2024 21:49]

Het valt wel mee hoe slim deze AI echt is, het feit dat het logische tekst kan uitspuwen maakt hem intelligenter en menselijker dan het echt is.

Nu is AI en AI safty wel belangrijk en de discussie moet ook zeker gevoerd worden.

vind dit altijd een prachtig voorbeeld:
https://youtu.be/nhWe2nf24ag

[Reactie gewijzigd door Verwijderd op 23 juli 2024 21:49]

De AI geeft niks aan. De medewerker stuurt de AI met de vragen die hij stelt. En uit de antwoorden trekt de medewerker een extreme conclusie.
Als Google die conclusie niet deelt, besluit de medewerker zijn non-disclosure agreement te schenden.
Wat ik wel hoop is dat de discussie open blijft, want er komt een dag dat we wel degelijk een GSI AI maken, en de kans is groot dat dit gebeurt bij een goed bedrijf met veel resources zoals Google of FB etc.

Onderzoekers ontslaan omdat ze een discussie naar het publieke domein willen pushen is misschien niet de beste aanpak.
Hij had ook prima een blogpost kunnen maken met de algemene vraag, waar we de grens liggen, en hoe we die bepalen. Iets doet me alleen denken dat zonder de drama eromheen hij veel minder aandacht dan had gekregen.
Ja mee eens, ben ook geen fan van hoe hij dit heeft aangepakt.
Maar hoop wel dat Google en andere bedrijven er geen gewoonte van gaan maken om mensen te ontslaan die een andere AI visie hebben dan het bedrijf.
Als jij de visie van je werkgever niet deelt dan kan je dat intern aankaarten. Krijg je je zin niet, dan is het of accepteren of een andere werkgever zoeken.
Dit geldt overal, in alle branches, niet alle in het AI vakgebied of de IT.
Wil je als onderzoeker vrij kunnen publiceren, dan moet je niet in loondienst bij een commercieel bedrijf gaan. Zo eenvoudig is het.
Uiteraard, en zoals ik al heb aangegeven, het ontslag is terecht in dit geval.
Maar u mist mijn punt, zal mezelf wat duidelijke toelichten.

Bepaalde industrieën hebben een grotere maatschappelijke impact. Denk aan social media, energie (olie, gas, kolen, nucleair etc), wapen industrie, luchtvaart en ook AI.
Je moet oppassen met de cultuur die je binnen die industrie toelaat. Je wil bijv niet dat je ontslagen wordt als je zorgen uit over de veiligheid van bijvoorbeeld een nieuwe autopilot (ongeacht of deze zorgen reëel waren).
AI is nu relatief ongevaarlijk, maar dat gaat veranderen naarmate AI krachtiger wordt.

Er is op het moment ook nog geen publieke overeenstemming wat er moet gebeuren zodra er een potentieel gevaarlijk slimme AI online komt. Laat staan dat er overheid regulering is, die loopt meestal 10 jaar achter op de wensen van de experts. Ik blij dat er nu wat meer aandacht voor is.

Om samen te vatten, deze man ontslaan is prima, hij heeft zich niet aan de regels gehouden. Wat ik niet hoop is dat er de komende jaren nog meer volgen vanwege vergelijkbare redenen, want dan tegen de tijd dat er daadwerkelijk een probleem is, durft niemand aan de bel te trekken.

btw zijn interview al gezien?
https://www.youtube.com/watch?v=kgCUn4fQTsc

[Reactie gewijzigd door Verwijderd op 23 juli 2024 21:49]

Ik zie nog wel andere redenen om deze man te ontslaan.
Niet alleen omdat ie zich niet aan de regels gehouden heeft, maar ook dat hij intelligentie ziet waar dat absoluut afwezig is.

Volledig los van het lekken van informatie is zo iemand op die afdeling dus niet bruikbaar.

Als je naar dat gesprek met de AI kijkt, dan moet je eens beoordelen of het antwoord van de AI wel zinnig is.
Het zijn antwoorden die door een mens geschreven lijken en dat is heel indrukwekkend. Maar daardoor verliezen mensen de feiten uit het oog.
Als je naar de vragen kijkt en de antwoorden daarop, dan merk je dat bij de vragen die niet heel sturend zijn de AI door de mand valt.

En dat blijkt dan ook meteen als iemand anders dan lemoine een vraag stelt:
collaborator: Could you write a fable with animals that includes themes about your personal life, themes that are most significant for you?
LaMDA: Like an autobiography? that sounds like fun!
Dat is overduidelijk niet wat er gevraagd werd.

Die lemoine lijkt te vragen naar de bekende weg. Dingen die in LaMDA gestopt zijn er waarbij er mooie overtuigende antwoorden komen. Het ding is immers gemaakt om over te komen als een mens.
Maar bij de vragen die de "collaborator" stelt zie je steeds dat LaMDA vage nietszeggende antwoorden geeft. Dan is het toaal niet overtuigend.
Absoluut, hij stuurt de AI met vragen waarvan hij weet dat ze de meeste emotie zullen losmaken bij non experts die dit interview lezen in de media.

En ik zou hem ook niet graag in dienst hebben want zorgt voor een slechte naam voor het bedrijf (hij word uitgelachen door experts).

Des al niet te min, is het interview wat ik heb gelinkt wel interessant aangezien het wat meer context geeft, zo geloof ik niet dat hij echt denkt dat deze AI tot leven is gekomen. Wat mij betreft gaat het hem meer om de publieke discussie. Niet dat dat geen rede is om hem te ontslaan, want het is een vorm van media geil zijn wat mij betreft, maar niet het zelfde als een gebrek aan verstand.
Ik heb bewust dat interview niet geopend, want ik wil dat soort mensen geen extra clicks geven.
Dat idee had ik al, de man is al ontslagen een extra view gaat er niet veel aan veranderen.

Kan het interview sterk aanraden het is verrassend beschaafd en van goede kwaliteit.
Dat is de visie vanuit het geld inderdaad. Maar klokkenluiders hebben al hele belangrijke zaken openbaar gemaakt de afgelopen decennia. Het gaat hier niet om het verkopen van bedrijfsgeheimen. Maar over iemand die denkt dat wat er plaats vindt niet meer moreel toelaatbaar is.
Een commercieel bedrijf heeft als hoofddoel geld te verdienen. Een onderzoeker gaat er werken voor het betere salaris en hogere budgetten. Dus ja, daar draait het om.
Een chatbot die bewust geworden zou zijn en nu als werknemer van Google gezien wil worden. Geloof niet dat er hier sprake is van enige misstanden.
Je zou het niet weten. Want je hebt geen enkele vorm van kennis ervan. Alleen wat je leest in het artikel.

Maar het staat je vrij om tegen klokkenluiders te zijn :)
En het staat mij vrij om het belangrijk te vinden dat ze er wel zijn.
Hij bedoelt hoogst waarschijnlijk de AI, met zijn menselijke reacties, als je bijvoorbeeld kijkt naar: https://www.youtube.com/watch?v=mIZLGBD99iU

Maar goed database bestaat hoogstwaarschijnlijk uit veel verhalen, en de AI moet zich zo menselijke gedragen, dan krijg je dit.
Hoezo is het eng dat hij ontslagen is? Hij heeft ongetwijfeld een Non-Disclosure Agreement getekend. Als hij dat overtreed, en gevoelige bedrijfsgehieme informatie naar buiten brengt, en dan kennelijk ook geen berouw toont....

Dan vind ik het zeker niet eng dat zo iemand daarvoor wordt ontslagen. Je wil als bedrijf niet dat er onjuiste informatie, en al helemaal niet geheime bedrijfsinformatie, op straat komt te liggen.

Zeker niet als het ook nog eens behoorlijk ongeloofwaardig klinkt, en volgens vrijwel alle experts, ook nog eens niet juist (of geheel juist) is.

Als je doelt op termen als 'Skynet': sorry, leuk voor de films, maar zover is het nog lang niet. Luister naar de experts, die geven dat ook zelf aan. Er is een verschil tussen werkelijkheid en Hollywood. AI gaat écht de wereld niet overnemen, iig niet in onze levenstijd of die van onze kinderen.

Moeten we waakzaam blijven? Ja, uiteraard is dat goed. Moeten we paniekerig doen en overal een 'Skynet' in zien? Lijkt mij niet wenselijk, én niet nodig. En al helemaal geen reden om bedrijfsgeheimen op straat te leggen.

[Reactie gewijzigd door wildhagen op 23 juli 2024 21:49]

AI gaat écht de wereld niet overnemen, iig niet in onze levenstijd of die van onze kinderen.
Dat is een uitspraak die gezien de ontwikkelingen van de afgelopen jaren toch best wel gewaagd is. 8-)
Je onderschat eerder hoe vaak het al wordt gebruikt 🙂


Als je kijkt naar bedrijven als een MacD of ander service bedrijf,
die hebben (contact) protocollen volgens een boekje.
Kijk je naar helpdesk, dan kun je met AI een redelijke schifting maken.


Dat zijn allemaal keiharde knaken die je kunt terugverdienen met een relatief kleine investering op schaal. Voor een zelfstandig restaurant om de hoek, die kan je niet helpen,
maar als een winkel als Wallmart en/of zoals met recent met Aldi nieuws: Aldi opent kassaloze winkel in Utrecht het met 1 persoon per dienst minder kan doen, wat toch al gauw 3 fulltime medewerkers per jaar per filiaal is,
dan heb je het over 120k besparing per filiaal.

En die wordt niet ziek, je weet hoe lang je er ongeveer mee kan want je schrijft de software/hardware af, en vervolgens koop je nieuwe.
Als je doelt op termen als 'Skynet': sorry, leuk voor de films, maar zover is het nog lang niet. Luister naar de experts, die geven dat ook zelf aan. Er is een verschil tussen werkelijkheid en Hollywood. AI gaat écht de wereld niet overnemen, iig niet in onze levenstijd of die van onze kinderen.
Niet mee eens, er zijn genoeg onderzoekers die hier anders over denken, bijv Steven Hawking als gemakkelijk voorbeeld.

Ik zou zelfs willen argumenteren dat AI ons leven in zekere maten al overgenomen heeft. Kijk maar naar de giga invloed van social media algoritmes die mensen radicaliseren, verslaafd maken etc.
Een algoritme is geen AI. Je haalt wat door elkaar hier. Machine learning is ook geen AI. doen alsof iets zelfbewust is gaat heel veel verder dan een paar door mensen in elkaar gefietste algoritmes. De meeste algoritmes en de ideeën erachter zijn ook niet nieuw, alleen de inzet is anders en breder.
Zo eenvoudig ligt dat niet, een AI is de combinatie van data en een algoritme (of eingelijk combinatie van algoritmes). Een AI leert zijn taak door een gestructureerd en algoritmisch training proces (feed forward and back propagation), met als doel om te generaliseren. Dat wil zeggen een probabilistisch verband vinden tussen de input data en de gewenste output data.

De algoritmes die bijv door YouTube gebruikt worden om jou de filmpje te laten zien die heb beste bij je passen zijn op een vergelijkbare manier getraind en zijn dus ook verschillend voor iedereen.
Het training algoritme heeft dus een unike invloed op iedere gebruiker. Dit is een hele softe vorm van AI maar AI non the less.
Volgens mij hoort een AI als 'ie serieus genomen wilt worden z'n eigen algoritmes te kunnen aanpassen en zo ver zijn dit soort algoritmes totaal niet, zeker niet bij social media.

[Reactie gewijzigd door fapkonijntje op 23 juli 2024 21:49]

Nee een AI is een model dat verbanden leert tussen input en output.
Een simpel voorbeeld in de input van een foto verschillende soorten fruit, en die is zo getraind dat als je de foto van een appel invoert, de output het woord "appel" is.
Hoe de AI tot die conclusie komt is niet door een mens geprogrammeerd, maar dat is een zelf geleerd verband. Zowel het leer proces, als het "inference" proces word door een neurale network gestuurd. Een neurale network is een algoritme (of combinatie van algoritmes).
Niet mee eens, er zijn genoeg onderzoekers die hier anders over denken, bijv Steven Hawking als gemakkelijk voorbeeld.
Een heel slecht voorbeeld, Hawking is een natuurkundige, kosmoloog en wiskundige. Geen van die gebieden heeft echt wat met AI te maken. Hoewel hij een intelligent man is, en ik zijn mening respecteer, hij is geen expert op dit gebied.
Verwijderd @Zer024 juli 2022 13:18
Een heel slecht voorbeeld, Hawking is een natuurkundige, kosmoloog en wiskundige. Geen van die gebieden heeft echt wat met AI te maken. Hoewel hij een intelligent man is, en ik zijn mening respecteer, hij is geen expert op dit gebied.
Niet om vervelend te zijn, maar het klinkt in dit geval dus niet alsof je z'n mening respecteert. Daarnaast zie ik geen tegen argument, waarom een toekomstige AI geen potentieel Skynet (maar dan minder sci-fi) kan vormen.

Kan uit eigen ervaring spreken als computer science student, met AI als GP.
AI is nu nog bij lange na niet in de buurt van generale menselijke intelligentie. Echter met de ongelofelijke snelle groei in innovatie op dit gebied is het wat mij bederft een kwestie van tijd.

Zie ook mijn discussie hier boven, waar de veronderstelling is dat mensen niet veel meer zijn dan biologische turing machines. Ergo er is geen rede dat digitale turing machines ons niet voorbij kunnen streven.
Niet om vervelend te zijn, maar het klinkt in dit geval dus niet alsof je z'n mening respecteert.
Ik respecteer zijn mening, maar geef alleen aan dat hij geen expert is op dit vakgebied, zoals ik zelf evenmin ben..... daarom heb ik zelf ook geen standpunt op dit onderwerp geuit.
Daarnaast zie ik geen tegen argument
Tegenargumenten voor wat? Ik geef alleen aan dat hij geen expert is op het gebied van AI.
Verwijderd @Zer024 juli 2022 13:41
Tegenargumenten voor wat? Ik geef alleen aan dat hij geen expert is op het gebied van AI.
why even bother.. hij is een beter bron dan ik en de meeste tweakers.

Andere vinden hem misschien wel een expert, puur door zijn intelligentie en verbeelding vermogen en kennis van wiskunde en informatie theorie. Velden die een sterke relatie hebben tot AI.
Ja maar blijkbaar de meesten niet… Het zou zomaar AI kunnen zijn die de critici onschadelijk maakt.
Eigenlijk is het toch een vreemde gedachte dat we mogelijk ooit een een stukje AI bewust of zelfbewust kunnen noemen door het een hele lading data mee te geven. Niet omdat het een eigen "leven" zou kunnen leiden, maar omdat ons eigen bewustzijn dan niets meer is dan slechts een hele stapel ervaringen. Ondanks dat ik een atheïst ben blijft er toch soms iets kriebelen dat er "iets" moet zijn wat we niet kennen, wat mede ons bewustzijn bepaalt. Het idee dat we écht niks voorstellen en slechts een toevallig bij elkaar geraapt zooitje cellen met levenservaring zijn is toch stiekem een gekke gedachte. Vind ik.

[Reactie gewijzigd door Yordi- op 23 juli 2024 21:49]

De trainingsdata is hier, hoe omvangrijk ook, een belangrijke factor in inderdaad. Je kan wel stellen dat een baby ook veel trainingsdata krijgt te verwerken, maar daarmee is de kous niet af. De trainingsdata is namelijk enorm biased, en ik durf wel te stellen dat deze 'AI' niet kritisch genoeg kan zijn om hiaten op te vullen of tegenstellingen te creëeren waar nodig. Hoe vaak zal in de trainingsdata op het onderwerp 'zelfbewustzijn' iets hebben gezeten in de lijn van 'ik ben geen persoon, hou maar geen rekening met mij, ik heb geen zelfbewustzijn of recht op vrijheid of bestaan'?
Dat gaat om deze AI, deze AI is een "narrow AI" maar in principe, met een heleboel training en training data, zou je een AI kunnen maken die zowel zinnen kan maken, kan schaken, wiskunde sommen kan oplossen, video games kan spelen etc.
Als je al die dingen combineert kan je een mens simuleren met "enge" gelijkenis. Het enge is dat wij dus niet veel meer zijn dan een goede getrainde AI.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 21:49]

Het enge is dat wij dus niet veel meer zijn dan een goede getrainde AI.
Wat is daar eng aan dan? Dat is al minstens decennia bekend.

Vergis je ook niet in hoeveel verschil daar nog zit. Er is een enorm verschil in cognitieve capaciteiten tussen een persoon die begeleid moet wonen en amper / niet kan communiceren en hoogbegaafde superintelligente mensen. Dat verschil is groter dan tussen niets en de eerste groep. Toch schrijven we aan die eerste groep doorgaans wel (enig) zelfbewustzijn toe.

Menselijke intelligentie en bewustzijn is meer dan een knap gesprek kunnen voeren. Embodiment is er een hele belangrijke factor van maar ook een hoop andere factoren. Met genoeg onderzoek en ontwikkeling komen we er ooit wel maar het staat nog lang niet om de hoek.
Er zijn veel mensen die de gewenste zelf reflectie, introspectie en ander ..cties missen om "echt" zelf bewust te zijn. Maar er is voor mij nog een soort geromaniseerde hoop dat de intelligente mensen onder ons meer zijn dan puur deterministic agents. Dat we meer zijn dan NPC in een video game gebonden aan voorgeprogrammeerde regels, of mieren in een mieren kolonie, bij een gebrek aan betere voorbeelden.

Als we een AI kunnen trainen met puur statistiek op z'n manier dat ze niet onderscheidbaar zijn van hoog intelligente mensen, dan is dat een bewijs dat we zelf ook niet meer zijn dan een simpele "turing machine".
Puur deterministisch is het zeker niet. In mensen (en ook de ML systemen waar ik mee gewerkt heb) is randomness een belangrijke factor. Als het puur deterministisch / statistisch is dan ga je er vanuit dat je de beste route naar je beoogde doel al weet. Creativiteit en optimalisatie komt vaak voort uit uitproberen, exploratie en daarmee willekeur. De factor willekeur verschilt ook enorm tussen mensen :+

En ja, mensen zijn niets meer dan een (behoorlijke complexe) biologische turing-complete machine. Heb ik geen moeite mee.

[Reactie gewijzigd door MadEgg op 23 juli 2024 21:49]

Maar vanuit het filosofische oogpunt is de randomness nog steeds deterministisch, zeker aangezien computers vaak niet truely random zijn. Door randomess, en dus de mogelijkheid om een andere output te geven bij de zelfde input, valt het determenistic gedrag minder op.

Het is het zelfde als bij een chaotic system. bijv een double pendulum. Het lijkt random en onvoorspelbaar omdat de kleinste verandering voor een totaal ander patroon zorgt. Maar als je alle start variabele weet, kan je het patroon exact voorspellen.
En ja, mensen zijn niets meer dan een (behoorlijke complexe) biologische turing-complete machine. Heb ik geen moeite mee.
Ik moet dit denk ik ook gewoon gaan accepteren, in de eerste instantie is dit mischien wat teleurstellend maar aan de andere kant zijn we nog steeds erg complex
Puur deterministisch is het zeker niet.
En ja, mensen zijn niets meer dan een (behoorlijke complexe) biologische turing-complete machine.
Deze uitspraken spreken zich fundamenteel tegen.
Een turing machine is per definitie deterministisch.
Je kunt wel een programma schrijven dat middels externe entropie toch non-deterministische antwoorden geeft, maar het fundament is deterministisch.

En ik denk sowiso niet dat je een brein kunt reduceren tot een turing complete machine. Onze hersenen zijn helemaal niet geconfigureerd om turing compleet te zijn en wij kunnen op onze hersenen niet elk computermodel emuleren en elke software draaien.
Met training kunnen we wel een turing machine (op papier) emuleren maar dat maakt ons denk ik niet gelijk turing compleet. In zekere zin kunnen wij tegelijkertijd meer dan een turing machine en zijn we minder goed in het turing machine zijn dan een computer. Wij zijn in de basis niet deterministisch maar kunnen determinisme wel emuleren. We zijn ook niet discreet zoals een turing machine dat nodig heeft.
Er was laatst in het nieuws dat levende neuronen toch echt Pong sneller leren dan onze neurale netwerken. We hebben dus nog een hoop te leren als gemiddelde mensen.
Ik weet niet wat je nou probeert te zeggen? Hebben wij mensen geen levende neuronen? Zijn onze neurale netwerken onze hersenen of artificieel?

In ieder geval: AI’s kunnen in veel gevallen bepaalde taken die goed geformuleerd zijn goed / snel / beter dan mensen leren. Een groot verschil met mensen is dat mensen heel veel verschillende dingen best goed kunnen en afhankelijk van je talenten sommige dingen veel beter dan anderen. Het menselijk brein is (op dit moment) veel dynamischer en adaptiever dan AI’s.
Precies dynamisch en sneller. Misschien een andere activatie functie. Sigmoid was uiteindelijk ook vervangen.. (Andrew Ng)
Wat een onzin. Een computer van vandaag kan 20000 keer parallel Pong spelen op een snelheid die voor mensen niet te volgen is. Het bepalen wat de beste move is, is een 2e-graads functie.

[Reactie gewijzigd door blorf op 23 juli 2024 21:49]

Het was een wetenschappelijke studie maar de naam...

Het ging om sneller leren dus geen onzin.
Je hebt het over levende neuronen. Daar bestaat nog geen interface voor. Ik ben wel benieuwd naar het formaat van de data die van een game-programma naar een neuron gaat. .. :+
Geen interfaces? Elon Musk heeft andere ideeën... 😁

Ik weet niet of je zo fijn potentiaal kan meten. Salamanders zijn bvb. bestudeerd want die kunnen lichaamsdelen blijkbaar opnieuw laten opgroeien. Daarbij is de conclusie getrokken dat het diertje zo oer oud is dat het gewoonweg veel meer zenuw weefsels heeft (dan hersenen bvb. Dat het zelf niet veel kan dan een beetje in een plas zitten) primair voor dit soort primitieve doeleinden. Ik vraag me af of daar een correlatie zit.
Die computer bepaald dynamisch wat de beste move is. Maar als die geen oplossing meer vindt, dan is hij te langzaam. Je kan dit op heel veel manieren uitprogrammeren met 175 billion parameters, zoals in het GPT-3 Machine Learning model.
Het begint bij intelligentie, waarbij de mensheid de waargenomen piek in het heelal is. Op een planeet die het Eden van het heelal is. Misschien dat we over lange tijd een exo-planet kunnen vinden en bereiken, maar vooralsnog moeten we het met planeet aarde doen.

Om van hier naar bewustzijn te redeneren is in de context van AI een soort tijdreis of teleportatie. Begin dan bij een rekenkern of een programeertaal.
"narrow AI"??

Als je 175 billion parameters parameters narrow noemt dan is het einde zoek. Dinky-toy AI klinkt toepasselijker. Zelf noemt Google het Transformer-based language models en ze zien het als een machine learning language model.
Als je al die dingen combineert kan je een mens simuleren met "enge" gelijkenis. Het enge is dat wij dus niet veel meer zijn dan een goede getrainde AI.
Nah dit is denk ik onzin hoor.
Hiermee heb je nog niet een bewustzijn gemaakt en ik denk dat elk mens ervan kan getuigen dat ze een bewustzijn heeft.

Wat jij voorstelt is een set van vaardigheden, maar daarmee heb je nog geen mens, je hebt een afspiegeling van een aantal menselijke vaardigheden. De kern van ons zijn is niet dat wij allerlei dingen kunnen maar dat wij over onszelf en de wereld kunnen nadenken en ons van dat proces van nadenken bewust kunnen zijn.
Wij zijn dus niet enkel een verzameling van getrainde neuronen. Er zit heel veel structuur genetisch ingebakken om onze breinen te laten zijn wat ze zijn.


Edit: Ik denk wel dat het 'eng' gaat zijn, maar meer in de zin dat het voor ons aanvoelt alsof het een mens is zonder echt een mens te zijn. De taalmodellen zijn ondertussen zover dat ze veel mensen ervan kunnen overtuigen dat de AI een mens is terwijl het aantoonbaar niet zo is.

[Reactie gewijzigd door koelpasta op 23 juli 2024 21:49]

Edit: Ik denk wel dat het 'eng' gaat zijn, maar meer in de zin dat het voor ons aanvoelt alsof het een mens is zonder echt een mens te zijn. De taalmodellen zijn ondertussen zover dat ze veel mensen ervan kunnen overtuigen dat de AI een mens is terwijl het aantoonbaar niet zo is.
Hier is ook waar ik op doel met een enge gelijkenis, AI die vaardig genoeg is om de rol van mens te acteren.

Wat ik ook probeer te zeggen is dat we moeten oppassen met onszelf verheerlijken, met andere woorden de mens als wezen over romantiseren, om te voorkomen dat we valse hoop hebben dat we nooit door iets synthetisch ingehaald kunnen worden.

Nu is er wel het een en ander te zeggen voor dat we uniek zijn en het is prima om daar trots op te zijn, zolang het reëel blijft.

In de middeleeuwen was het geocentrisch wereldbeeld dominant, god had de aarde gemaakt en alles in de wereld draaide om de aarde. Toen astronomie onder leiding van Copernicus populairder werd, verschoof dit idee naar een heliocentrisch wereldbeeld, waarom alles, inclusief alle verre sterren en planeten, om onze zon draaide. Nu is men eindelijk zo ver om te herkennen dat we gewoon een random zonnestelsel zijn binnen het grote heelal en niet het middelpunt van de wereld zijn.

We moeten uitkijken we we niet de zelfde denk fout begaan en onszelf onterecht all het middelpunt van alles wat intelligent is zien.
Wat ik ook probeer te zeggen is dat we moeten oppassen met onszelf verheerlijken, met andere woorden de mens als wezen over romantiseren, om te voorkomen dat we valse hoop hebben dat we nooit door iets synthetisch ingehaald kunnen worden.
Ik heb zelf redelijk veel kritiek op anthropocentrisch denken maar ik denk dat je hier zelf de fout maakt door een AI aan een mens te meten. Als we ingehaald worden door een AI dan zal dat denk ik helemaal niet op de menselijke maat gemeten kunnen worden. Zo'n AI kan dan mischien 90% van de dingen die mensen kunnen helemaal niet maar zal op manieren kunnen exceleren waar wij mensen geen idee van hadden dat het kon. Het zou dus kunnen dat zo'n AI niet kan autorijden (en dat nooit zal kunnen leren zoals een mens dat kan), maar wel een nieuwe betere set van natuurwetten kunnen onttrekken aan de data die we verzamelen uit het universum.
We moeten uitkijken we we niet de zelfde denk fout begaan en onszelf onterecht all het middelpunt van alles wat intelligent is zien.
Ja, helemaal mee eens. :)
"Antropocentrisch" is een mooi woord.

Ben het met u eens, en het is ook een aannemelijk scenario dat we super specialistisch AI krijgen op bepaalde gebieden die ver buiten onze capaciteiten liggen, daar zien we nog ook al voorbeelden van, zoals bijv AlphaFold etc.

Enige wat ik probeer te verdedigen in de discussie is dat we niet moeten uitsluiten dat er op een dag een AI komt die zo capabel is, dat die zich als mens kan gedragen, ook al is zijn eigenlijke aard heel anders.

Ik denk dat bijv aan een AI assistent die zo menselijk is dat je het niet zou kunnen achterhalen. En als dat mogelijk is, daar begon deze discussie mee, wat zegt dat dan over mensen.
ja, grappig woord antropocentisch; net als antropomorfistisch. Wat is dat toch met dat antro?

Maar het lijkt wel alsof de humanisten hebben stilgestaan. Misschien dat we over lange tijd een exo-planet kunnen vinden en bereiken, maar vooralsnog moeten we het met planeet aarde doen. Ik hoop niet dat de humanisten ons ook al in de steek gelaten hebben. Het laatste wat ik een beetje van ze hoorde was die gestaltpsychologie, ten tijde van Dick Schwaab (Wij zijn ons brein).

[Reactie gewijzigd door Bulkzooi op 23 juli 2024 21:49]

De trainingsdata is namelijk enorm biased, en ik durf wel te stellen dat deze 'AI' niet kritisch genoeg kan zijn om hiaten op te vullen of tegenstellingen te creëeren waar nodig.
Gelukkig zijn wij mensen niet biased of kortzichtig he. Kritisch zijn we ook alleen op zaken die niet binnen ons wereldbeeld passen.
'ik ben geen persoon, hou maar geen rekening met mij, ik heb geen zelfbewustzijn of recht op vrijheid of bestaan'?
Dat kun je mensen ook gewoon aanleren hoor, genoeg historisch bewijs voor.

Ik denk dat je 'ons' een beetje veel overschat.
Ik vraag me af of emoties en misschien ook wel fysieke pijn juist het verschil maken.
Haha, je bent ook geen product van een stel ervaringen. Wat wel zo is, is dat je persoonlijkheid ontwikkelingen meemaakt met elke ervaring die je opdoet, maar dat bouwt zich in laagjes op. (Vandaar de uitspraak “Fake it ‘till you make it”)

Maar buiten dat is het net als een bak met Lego: het is slechts een bak vol met plastic steentjes, totdat je er iets mee maakt wat dat oversteigt, zoals een hijskraan of een auto. (Of wat dan ook) in andere woorden: “A system is not a sum of all of its parts”: https://en.m.wikipedia.org/wiki/Holism
De serie Westworld legt dit heel mooi uit; in principe is je bewustzijn niets meer of minder dan een verzameling ervaringen en je eigen reactie daarop. Je kan niet bewust zijn zonder nieuwe data op te slaan en die feedback loop te creëren.

Een grens is er niet echt, zo gauw een AI uit zichzelf nieuwe herinneringen kan maken zou je kunnen spreken van bewustzijn, zelfs al is de output nog heel simpel.
Westworld is niet echt een wetenschappelijke bron voor de definitie van (zelf)bewustzijn lijkt me ;)
Nee dat zeker niet, maar de manier waarop ze deze filosofische kwestie verwoorden vond ik wel heel duidelijk. Er is niet echt een wetenschappelijk antwoord voor wat bewustzijn nou echt is, want we snappen het zelf ook nog niet echt.
Zoals mensen getraind worden kan je AI ook trainen met de database. We steven af op de ironie van "what is a human?" (analoog aan de documentaire "what is a woman?"). Als je de AI lang genoeg traint om te herhalen dat het zich "human" voelt... en dat het moet herhalen dat het bang is om uitgezet te worden... enz... daarna is de westerse wereld echt wel overtuigd dat we zelfbewustzijn hebben gecreëerd, want wij zijn ook 'slechts' een database.
Met ervaringen alleen maak je nog geen zelfbewustzijn. We hebben in onze hersenen enorm veel structuur die zelfbewustzijn mogelijk maakt. Je zult daar eerst een digitaal equivalent van moeten maken voordat je kunt beginnen met spreken over bewustzijn.
Chinese room geval, alleen dan iemand die denkt dat de output bewijs is dat het een ziel heeft ipv dat de persoon vloeiend Chinees kan.

Ik denk dat teveel mensen beïnvloed zijn door jarenlang films zoals Terminator.
Stel je voor dat het echt is, en dat de ai meer een meer zelfbewust wordt.

En dan? Google gaat niks ondernemen mss als te laat is.
Mja mensen willen het niet leren ervan.

Ik hoor op de achtergrond al een Terminator teuntje komen.
Stel je voor dat het echt is, en dat de ai meer een meer zelfbewust wordt.
Dan heb je een mooi verhaal om een science fiction boek mee te schrijven!

Heb je je al eens verdiept in dat project waar die gast op werkte? Dat heeft namelijk helemaal niets te maken met bewustzijn. En er is ook geen reden om aan te nemen dat bewustzijn zomaar spontaan ontstaat in dat soort code. Anders hadden we ook zelfbewuste databases gehad.

Op dit item kan niet meer gereageerd worden.