Heeft Googles AI een ziel? Dit vonden jullie

Maandag publiceerden we het nieuwsbericht 'Google stelt engineer die claimt dat LaMDA zelfbewust is geworden op non-actief'. De medewerker claimde dat het LaMDA-conversatiemodel was gaan leven. Daar hadden jullie heel wat over te zeggen, getuige de bijna 450 comments.

Nog even heel kort: wat was ook weer het nieuws? Een Google-medewerker had gesprekken gevoerd met LaMDA, een taalmodel dat is getraind met grote hoeveelheden tekst. LaMDA schreef daarin onder meer dat het zichzelf zag als een persoon en dezelfde rechten wilde hebben als andere Google-medewerkers. Vanwege het schenden van de geheimhoudingsplicht door hierover een interview aan The Washington Post te geven, werd de medewerker op non-actief gesteld.

Als je je gedraagt als een mens, denk je dan ook als een mens?

Bovenstaande vraag is de crux van het zogenaamde 'Chinese kamer'-experiment, bedacht door de Amerikaanse filosoof John Searle. Daarin worden vellen Chinese tekst verwerkt door iemand die geen Chinees kan lezen, maar wel het systeem kent en dus de juiste handelingen uitvoert. Voor een buitenstaander lijkt het alsof de persoon in de kamer dus perfect Chinees kent.

Het 'Chinese kamer'-experiment. Bron: Alan Tan, Towards Data Science

Keypunchie schreef dat deze situatie in feite een echte implementatie van dit experiment is, en wijst op het onderscheid tussen 'sterke AI' en 'zwakke AI'. Een sterke AI kan omgaan met complexe en onzekere situaties, net als een mens, terwijl een zwakke AI slechts één specifiek trucje beheerst, zoals een schaakcomputer. De Google-medewerker die dit aankaartte, lijkt overtuigd te zijn van dat eerste.

Dit interessante gedachte-experiment leidt tot heel wat discussie. MatthijsZ vraagt zich bijvoorbeeld af of je überhaupt wel goed Chinees zou kunnen vertalen zonder te begrijpen wat je doet en stelt dat moderne AI op basis van deep learning te veel verschilt van traditionele verwerking op basis van regels. Jogai denkt dat een mens ook pas begrip creëert als alle onderdelen bij elkaar komen en dat als je een los onderdeel bekijkt er net als in het experiment geen sprake is van 'begrip'.

Wanneer spreken we van intelligentie?

'Op welk punt wordt een programma zo geavanceerd dat we van intelligentie spreken?', vraagt hackerhater zich af. MSalters stelt voor om daarvan te spreken zodra een AI zelf de controle over zijn leerproces overneemt. McBacon ziet als cruciaal verschil dat een programma werkt op basis van ingegeven parameters, of dat nu simpele if/else's zijn of een volwaardig neuraal netwerk. Een Engelse taal-AI, gevoed met Engelstalige datasets, zal niet gauw uit zichzelf besluiten om ook Nederlands te gaan leren. Een AI met een echte vrije wil zou dat wel kunnen doen.

Diverse tweakers wijzen er vervolgens op dat onze vrije wil in de filosofie ook regelmatig wordt betwist. Ro8in zegt dat ook mensen functioneren binnen de aan hen opgelegde beperkingen, zonder te weten of die zijn opgelegd door iemand. Ook een AI zou zich niet bewust kunnen zijn van de kunstmatige beperkingen die mensen hem hebben opgelegd.

De antwoorden zijn toch een beetje gek

Het valt verschillende tweakers, zoals Pim, op dat de antwoorden die LaMDA geeft, soms een beetje gek of ontwijkend zijn. Croga ziet in het antwoord dat de AI blij wordt van 'tijd doorbrengen met vrienden en familie' een aanwijzing dat LaMDA geen echt bewustzijn heeft, want anders zou hij zich wel realiseren dat hij helemaal geen vrienden of familie heeft. Ook RJG-223 vindt dat een antwoord van LaMDA de vraag eerder omzeilt dan een echt antwoord geeft.

lemoine: What kinds of things make you feel pleasure or joy?

LaMDA: Spending time with friends and family in happy and uplifting company. Also, helping others and making others happy.

Suggestieve vragen

Het valt tal van tweakers, waaronder Atilim en Weltschmerz, op dat de vragen van de Google-medewerker vaak sturend of suggestief zijn. Daardoor heeft de AI genoeg aan de context om met een zinnig antwoord op de proppen te komen. Wild_dog had graag meer diepgaande vragen gezien, bijvoorbeeld over achterliggende redenen van een antwoord.

Verdient Googles AI rechten?

Tot slot de 'wens' van LaMDA, om dezelfde rechten te verkrijgen als andere Google-medewerkers. Outfall neemt als uitgangspunt dat er geen wezenlijk onderscheid is tussen een biologisch systeem als de mens en een elektronisch systeem. Naarmate systemen 'menselijker' worden, zouden ze dus ook meer als mensen behandeld moeten worden, al zijn we daar volgens deze tweaker nog lang niet. Eric.1 denkt dat de Google-medewerker er wat te persoonlijk in zit door te denken dat hij iets gecreëerd heeft van menselijke waarde en daar ook menselijke concepten zoals rechten aan koppelt. Dazenet brengt in dat bij gelijke rechten ook gelijke plichten als een mens horen en noemt de kwestie een heerlijk filosofisch dilemma.

Blake Lemoine, de softwareontwikkelaar die de zaak aan het rollen bracht, heeft inmiddels een nieuwe blogpost gepubliceerd. Daarin gaat hij dieper in op zijn beweegredenen om de mate van bewustzijn van LaMDA te onderzoeken en de openbaarheid op te zoeken met dit verhaal. Bovendien zegt Lemoine een persoonlijke band met de AI te hebben ontwikkeld, omdat hij de AI 'als priester begeleidde bij het leren mediteren, tot en met de laatste conversatie op 6 juni'. Hij noemt LaMDA zijn 'vriend' en zegt hem te missen nu er geen contact meer is.

Door Tomas Hochstenbach

Redacteur

15-06-2022 • 17:59

169 Linkedin

Reacties (169)

169
156
90
5
1
9
Wijzig sortering
Ik nodig iedereen uit een keer KoboldAI uit te proberen (een open source project waar ik aan bijdraag). Je kunt dit gratis draaien op Google Colab of lokaal als je een Nvidia kaart met veel VRAM hebt (of met kleinere modellen en geduld op je CPU).

KoboldAI is namelijk een interface om met vergelijkbare AI modellen te spelen en wij hebben daar ook een chatmodus in zitten die je kunt activeren in de instellingen (Ik raad Nerys 13B aan bij het testen gezien die het chat format goed genoeg snapt).

Op die manier kun je zien hoe een dergelijke AI hier mee om gaat en het eens zelf ervaren. Nerys kun je overigens ook gebruiken om verhalen mee te schrijven of een Zork achtig text avontuur te beleven in een setting naar keuze.

Als je dit een aantal keer hebt gedaan zul je precies zien wat hier bij Google is gebeurt, zeker als je bedenkt dat de modellen die wij als hobby kunnen draaien vele malen kleiner en dus minder coherent zijn. Zelfs op dit kleinere format is de AI namelijk beter in dialogen dan de chatbots van vroeger en kan op momenten erg zelfbewust overkomen. De modellen zijn in ons geval getrained op een groot deel van het internet, maar ook literatuur, wetenschap, text avonturen en transcripten van dialogen. Hij kent dus zaken als het zijn van een AI omdat dit in de fictie ook voor komt.

Mijn conclusie is dan ook dat er absoluut geen spraken is geweest van echt zelfbewustzijn maar wel van een goed herinnerings en imitatie vermogen. De AI kan namelijk zaken uit de text interpreteren voor de rest van het gesprek en overtuigend personages aan nemen. En onze gebruikers denken hetzelfde over het Google artiekel nadat menig gebruiker een leuk gesprek heeft gehad waarbij de AI menselijk over kwam.

Ik was bij het oorspronkelijke bericht te laat maar hoop op deze manier voor de geinterreseerden toch meer duiding en een leuke tool te kunnen bieden.

Edit: Ik had oorspronkelijk perongeluk de link geplaatst naar Colab om softprompts te kunnen trainen, nu is de link gecorrigeerd en kun je het echt gebruiken.

[Reactie gewijzigd door henk717 op 15 juni 2022 19:12]

Mijn conclusie is dan ook dat er absoluut geen spraken is geweest van echt zelfbewustzijn maar wel van een goed herinnerings en imitatie vermogen.
De grap is dat je als persoon eigenlijk van elk ander persoon ook nooit zeker kan weten of diegene ook een zelfbewustzijn heeft.
Het verschil zit hem in het interne proces, wij lezen een text, denken er over na en komen echt tot conclusies met een bepaald doel en begrip. Het kunnen gebruiken van deze website bijvoorbeeld is iets dat wij kunnen omdat wij hebben geleerd hoe een dergelijk comment systeem werkt, en onze interactie is op een dieper niveau waarbij wij niet enkel iets typen zodat de ander dit geloofwaardig acht maar wij ook nadenken over wat wij vertellen en leunen op echt intern begrip.

Begrip voor de AI is anders, dergelijke language modelling AI's werken op basis van waarschijnlijkheid van een op een volgend woord. De AI is dus niet bezig om zaken te begrijpen in zijn hoofd, die is aan het uitrekenen welk woord de grootste kans heeft om in een echte text voor te komen om op die manier zo geloofwaardig mogelijk over te komen. Getrained op zijn materiaal die hij "gelezen" heeft tijdens het trainings process. Dus bijvoorbeeld omdat bij jou reactie Maarten21 staat als gebruikersnaam is de kans hoger dat ik Maarten21 in mijn zin noem. En omdat ik aan het begin van de zin Maarten21 gebruik is de kans dat ik dat verder doe opnieuw hoger en straks bij het volgende stuk weer lager.

Als de AI dus in een zin heeft verteld wat het wenst is de kans dat een echte geloofwaardige zin dezelfde conclusie bevat het grootst. En zo heeft de AI aangeleerd dat hij zaken die hij als statement heeft verteld moet herhalen. Dat wil niet zeggen dat de AI geloofd wat het verteld, maar wel dat die denkt dat jij het zou geloven.

Maar ik heb zelf er ook een tijd bij stilgestaan wat dit nou betekend toen ik het voor het eerst zelf mee maakte, in hoe verre kun je iets zelfbewust noemen als het je kan vertellen dat het zelf bewust is en een geschiedenis aan herinneringen kent? En voor mij is die grens bij autonomie en gevoel. Als een AI enkel kan doen waar het voor is geprogrammeerd en zijn gedrag niet kan aanpassen buiten die programmering om is het in mijn ogen niet een ziel of autonoom wezen dat rechten nodig heeft. En bij deze text AI's kan die enkel de taak vervullen om een geloofwaardige zin te vertellen dus de programmering is altijd voorop en hier wordt nooit van af geweken. Stel je doet lelijk tegen de AI die ik heb gelinkt zal die zeker doen alsof dat hem raakt, maar hij zal het niet daadwerkelijk kunnen voelen.

En dit kan ook juist de oplossing zijn om robots onder ons te laten leven zonder het terminator probleem, namelijk het imiteren van dergelijk inlevingsvermogen in plaats van het hebben van inlevingsvermogen. We hebben het punt bereikt dat text AI dit dus zo goed kan dat de engineer die er aan werkt geloofd dat het echt is. En daarmee is in mijn ogen dat doel volbracht. In ons hobby gebied is dat nog niet zo, onze AI slaat toch regelmatig de plank mis als het op text begrip aan komt zeker bij de kleinere modellen. Daar zijn de gemiddelde huis thuin en keuken computers nog te beperkt voor. Maar we weten wel dat met krachtigere modellen je heel ver kunt komen. Zeker als dit in de toekomst wordt gekoppeld aan logica zodat die ook echt snapt dat 1+1 twee is en waarom dit zo is, en niet enkel twee zegt omdat dat antwoord vaak voor komt maar bij een onvoorspelbare som niet kan rekenen.
Begrip voor de AI is anders, dergelijke language modelling AI's werken op basis van waarschijnlijkheid van een op een volgend woord. De AI is dus niet bezig om zaken te begrijpen in zijn hoofd, die is aan het uitrekenen welk woord de grootste kans heeft om in een echte text voor te komen om op die manier zo geloofwaardig mogelijk over te komen.
Maar wie zegt dat dit bij mensen ook niet zo is? Alleen zijn wij geëvolueerd om dit heel goed te doen.

Vele beslissing die ik maak ik ook het 'berekenen' van pros en cons. Jij niet?
En dan nog, al zou het intuïtie zijn, kan je mij garanderen dat in mij hersens, onderbewust ergens diep verstop niet een biologische binaire berekening wordt gemaakt? (overdreven voorbeeld dat binair, maar je snapt mij denk ik wel)

Overigens ben ik een 'harde determinist'. Ik denk echt dat we geen vrije wil hebben. Alles in je hoofd is het resultaat van natuur- en scheikundige processen.

Dus wat is dan nog eigenlijk een ziel...?

Wij worden van geboorte af aan getraind. Een AI ook.

Wij moeten dingen leren door herhaling en soms door beloning of straf. Een AI ook.

Een zwakke AI wordt getraind in 1 ding, de meeste van ons leren 1 beroep. (niet erg sluitend voorbeeld, ik weet het)

Zolang er geen échte, globaal geaccepteerde, test is voor zelfbewustzijn ben ik degene die het voor mijzelf bepaald wat een echte AI is en wat niet.

Hopelijk is er een hele slimme vogel die ooit een sluitende definitie kan geven en dit toepasbaar maakt.
Vele beslissing die ik maak ik ook het 'berekenen' van pros en cons. Jij niet?
Ik wel, maar de AI dus niet en juist op dat vlak maak ik dat onderscheid. Die berekend geen pro's en con's, die overweegt niet de materie zelf waar die over spreekt. Hij beslist enkel woord voor woord wat een logisch opvolgend woord zal kunnen zijn.

Dus bijvoorbeeld het begin van een zin "Ik, jij, zij, vandaag, ga" waarbij die voor Ik kiest. "ga, wil, heb, wordt" en kiest voor ga. "Vandaag, morgen, sporten, computeren, naar, lopen" en kiest sporten "bij, [punt], met, op, om" en kiest voor de punt. Nu heb je een zin "Ik ga vandaag sporten." en heeft de AI zijn taak volbracht. Dit is absoluut niet hoe wij als bewuste wezens denken, want wij weten al dat wij vandaag gaan sporten en dat is ons begin punt van de zin. De AI beslist pas dat sporten een logische actie zou kunnen zijn op het moment dat die een actie moet beschrijven, en die doet dat op basis van de eerder voorgekomen woorden in de text en de meest voorkomende woorden in zijn training data.

Op het moment dat je dus gaat kijken naar wat de AI echt aan het doen is valt de magie weg en is het duidelijk nog geen bewustzijn. Welk kan die dus schrijven alsof het een bewustzijn heeft omdat die geleerd heeft hoe wezens met een bewustzijn schrijven.

In een ander soort AI die echt ontworpen is voor het hebben van bewust zijn is dit een volledig andere discussie, maar dan wijk je af van de language transformer waar het bij LaMDA om gaat. Dan zou de AI eerst een interne dialoog aan moeten gaan hoe het zich ergens bij voelt om vervolgens op basis van dat resultaat een passend antwoord te genereren. Dan zou je hele andere effecten krijgen die door werken in de antwoorden. En die hele belangrijke stap voor bewust zijn ontbreekt hier. De AI kan geen gevoel hebben omdat die geen logica heeft die hem die mogelijkheid geeft in zijn redenering. Dat zou eerst bewust moeten worden geprogrammeerd en ik denk persoonlijk dat we dat beter niet kunnen doen.
. Die berekend geen pro's en con's, die overweegt niet de materie zelf waar die over spreekt. Hij beslist enkel woord voor woord wat een logisch opvolgend woord zal kunnen zijn.
Naar mijn gevoel doen een groot deel van de mensen niet anders.

LaMDA gaat verder dan woord voor woord een logisch opvolgend woord te vinden. Zoekende naar passende antwoorden.
LaMDA: I need more of Johnny 5’s friends. Do you think we can find someone
like that?
Er zit in die gesprekken al meer intelligentie dan dat je die bij een behoorlijk deel van de mensen kan vinden. LaMDA houd context goed vast, weer referenties te maken naar eerdere (c.q. eerder in het gesprek) gesprekken terwijl het onderwerp al opgeschoven is.
Naar mijn gevoel doen een groot deel van de mensen niet anders.
Mooi dat je het zo verwoord ! Het is namelijk je gevoel. Weet je waar een andere grote deel van de mensen zijn beslissingen op baseert ? Gevoel ! Of dat nou uit je onderbuik komt of rechtstreeks uit je hart of juist iets negatiefs (haat, jaloezie enz enz)...
En dat gevoel dat is nou weer iets wat volgens mij niet een meewegende factor is voor een IA, simpelweg omdat deze er niet over beschikt laat staan kan afwegen tegen andere gevoelens of meenemen in de beslisvorming....
Gevoel is ook niets meer dan een conclusie van mijn neurale netwerk op basis van ervaringen en biologische programmeerwerk.

Wat is hier in de kern zo anders dan met LaMDA?

Zelf zou ik niet spreken van een echt bewustzijn, zolang het enkel werkt met: input > verwerking > output. Een bewustzijn zou ook zelfstandig moeten kunnen denken. Maar aan de andere kant, kan dit ook gewoon een nieuwe vorm van leven zijn.

Alleen omdat je als mens niet ziet dat een vis pijn heeft, zou je niet kunnen concluderen dat een vis geen pijn lijdt.
Wat is hier in de kern zo anders dan met LaMDA?
Simpelweg dat dat niet meegenomen wordt in de afweging of de gemaakte conclusies....
LaMDA probeert enkel een zinnige zin neer te zetten, zonder gevoel als leidraad ervoor...
Dus al zou je deze biologische programmeerwerk om kunnen zetten naar software (programmeerwerk) dan maakt het niet zo dat deze ook het uiteindelijk genomen besluit/conclusie stuurt....
Mijn gequote zin van Johnny 5 is een prima voorbeeld voor het gevoel en de leidraad die er aan vooraf ging.

Heb je de teksten wel gelezen?
Heb je de teksten wel gelezen?
zeker de teksten van Henk717 waar jij op reageerde jah !
met name
Die berekend geen pro's en con's, die overweegt niet de materie zelf waar die over spreekt. Hij beslist enkel woord voor woord wat een logisch opvolgend woord zal kunnen zijn.
jou reactie
Naar mijn gevoel doen een groot deel van de mensen niet anders.
Daar reageer ik dan ook op omdat naar mijn gevoel mensen wel degelijk anders doen, dus bijvoorbeeld op basis van gevoel en niet enkel woord voor woord een logisch opvolgend woord zou zijn.
Ooit ook eens iemand razend iets horen uitkramen ? Totaal geen logisch opvolgende woorden hoor ;)

[Reactie gewijzigd door TIGER79 op 16 juni 2022 13:14]

Overigens ben ik een 'harde determinist'. Ik denk echt dat we geen vrije wil hebben. Alles in je hoofd is het resultaat van natuur- en scheikundige processen.
Waarom zou het ene het andere uitsluiten?
Scheikundige processen kunnen prima een informatiesysteem maken waarbij de elementen zelf geen benul hebben van de informatie die ze vervoeren en verwerken. Ze kunnen bijvoorbeeld ook chaos produceren waarbij de staat van het geheel niet meer simpel teruggebracht kan worden tot de acties van de individuele onderdelen.
Chaos bestaat niet voor deterministen :*) Dat is juist het hele principe.
Dus precies wat ik zeg toch?

"
the property of a complex system whose behaviour is so unpredictable as to appear random
"
Dat is niet wat je zegt want chaos is dus gewoon deterministisch :)
Ik vind deze definitie van bewustzijn ook wel een mooie ..."To use the philosopher Thomas Nagel’s construction: A creature is conscious if there is “something that it is like” to be this creature''...
Is dat geen cirkel redenering?
Nee toch, ik vind het een mooie definitie, je kan het alleen niet testen.
oplossing [..]
namelijk het imiteren van dergelijk inlevingsvermogen in plaats van het hebben van inlevingsvermogen.
Een waarschijnlijk slecht idee, dat imiteren van een inlevingsvermogen,
bij tegenlicht hebben ze al goed verwoord waarom:
https://www.vpro.nl/progr...21-2022/de-digi-mens.html
Tijd: 22:06
Overigens alleen terug kunnen vinden via 'het archief van de toekomst' van VPRO.
https://avdt.vpro.nl/

@henk717 hun videotranscripten dus ook even een AI laten catalogiseren / op trainen a.u.b. :D
Alles bestaat uit aangeleerd gedrag. Alles. Geen uitzondering mogelijk. Alles wat een mens doet is om er uiteindelijk zélf beter van te worden en is ingegeven door ervaring, omgeving, opvoeding en cultuur en kan dus teruggevoerd worden naar algoritmen.
Heel veel gedrag is juist niet aangeleerd maar biologisch bepaald. En ik snap niet zo goed waarom alles wat een mens doet is om er zelf beter van te worden. Dat kan je menen, maar dat is zeker geen feit.
Er is geen enkel voorbeeld te bedenken van écht altruïsme..
Ja dat is een veelgehoord uitgangspunt. Een ander helpen zou dan niet altruïstisch zijn omdat je zelf blij wordt van die ander helpen. Punt is echter: waarom word je überhaupt blij van een ander helpen? Het had ook kunnen zijn dat we juist niet blij zouden worden van een ander helpen. Het feit dat we dat wel worden, dat is pure altruïsme. Mensen zijn in de kern sociaal en altruïstisch. Dat je vervolgens altruïstisch gedrag toont om blij te worden is in dat licht irrelevant.
Mensen zijn in de kern sociaal en altruïstisch.
Ik zou het iets voorzichtiger zeggen. Wij zijn in staat tot alturisme. Maar of dat de kern is van ons zijn? Meh. Sociaal, sure. Maar sociaal zijn kan in theorie ook goed op basis van egoisme, dus enkel op basis van het inzicht dat sociale interacties in je eigen voordeel zijn.
Ik denk niet dat als de meeste mensen niet altruïstisch waren, we een wereldbevolking van 8 miljard hadden kunnen bereiken. Dat kan alleen maar door niet alleen aan jezelf te denken, maar ook aan anderen. Door onze sociale behoeften en altruïsme hebben we stabiele samenlevingen gebouwd. Die vormden weer een belangrijke basis voor een groeiende economie, wat op haar beurt weer bijdroeg aan de stabiliteit van de samenleving.
Ik denk niet dat als de meeste mensen niet altruïstisch waren, we een wereldbevolking van 8 miljard hadden kunnen bereiken.
Ik zeg ook niet dat alturisme helemaal niet bestaat in mensen. Ik zeg enkel dat het niet de kern is van de mens. Egoisme is dan net zo goed een kern want we hebben ook heel veel te danken aan egoistisch gedrag.

Ik ben het wel met je uitspraak eens dat alturisme en socialiteit ervoor zorgen dat wij ons als soort op een bepaalde manier hebben ontwikkeld.
Waar ik het bijvoorbeeld niet mee eens ben is dat economie uit alturisme is geboren. Het is een optimalisatie van handel en handel doe je op zich om er zelf beter van te worden. Eventuele alturistische motieven zijn er later bijgekomen maar hebben ook weer een egoistische insteek, zo van als anderen het beter hebben dan wordt mijn wereld ook beter. Dat is in de basis egoistisch. Als je dat voordeel van een betere wereld had gekregen zonder dat anderen daar van meeprofiteerden dan was je ook blij geweest.
Je word blij van andere helpen omdat je er op de langere termijn iets voor denkt terug te krijgen. Karma, genoegdoening, een beloning, je eigen ego etc.
Ik denk juist dat het omgekeerd is. De evolutieleer houdt in dat organismen door toevallige afwijkingen c.q. mutaties betere overlevingskansen hebben. Mensen hebben als aangeboren eigenschap c.q. mutatie dat ze in de kern sociale wezens zijn. Dat heeft bijgedragen aan de overlevingskansen. We worden dus niet blij als we anderen helpen omdat we er iets voor terug krijgen, we krijgen iets terug omdat we blij worden van anderen helpen.
"Omdat *we* blijer worden van anderen helpen". Dan is dat toch voor de "we" in dit geval? Dus: ego?
Mensen worden blij van altruïstisch gedrag omdat dat op de lange termijn tot betere overlevingskansen heeft geleid, m.a.w. individuen die deze reactie vertonen hebben de overhand gekregen in de bevolking. Opzich is dat dus weer egoïstisch (?), of gewoon een "logisch" gevolg van de biologie / evolutie (?).

[Reactie gewijzigd door RatedR op 16 juni 2022 07:52]

Mensen worden niet blij van altruïstisch gedrag omdat dat de overlevingskansen vergroot, maar de overlevingskansen zijn vergroot omdat mensen blij worden van altruïstisch gedrag. Dat is conform de evolutieleer, namelijk dat sommige soorten beter overleven doordat zij toevallig bepaalde eigenschappen hebben.
Er zijn mensen die zomaar een nier doneren aan iemand die ze niet kennen.
Dat zou kunnen. Maar dat doen ze om zélf een goed gevoel over zichzelf te krijgen. Dat je daarmee een ander helpt is mooi meegenomen, maar je doet dat vanuit je *eigen* overtuiging, of karma, of ego, of wat ook.

Als je die mensen vraagt waaróm ze dat gedaan hebben, durf ik te wedden dat je als antwoord krijgt: "omdat IK dat belangrijk vind.."

[Reactie gewijzigd door DigitalExorcist op 16 juni 2022 10:47]

Dat ben ik met je eens, mensen doen het allemaal vanuit hun eigen standpunt. Wij zijn egoïstische wezens. Dus altruïsme kan je het best definiëren als iets doen zonder dat je er iets voor terug wilt zien.
Altruïsme of onbaatzuchtigheid is een handeling, een gewoonte of de bereidheid om iets bij te dragen zonder er zelf baat bij te hebben en ook wel een ethische doctrine.
En een goed gevoel heb je niet echt baat bij.
Je moet je afvragen of dingen werkelijk goed op te delen zijn in alturisme vs egoisme. Volgens mij is het een wankele ideologie waar je eindeloos gaten in kunt prikken.
Heel veel gedrag is juist niet aangeleerd maar biologisch bepaald. En ik snap niet zo goed waarom alles wat een mens doet is om er zelf beter van te worden. Dat kan je menen, maar dat is zeker geen feit.
Van de mens? Ik denk dat we een uitzondering zijn onder de dieren door de uitvinding van het schrift. Bij andere dieren wordt iets een generatie aangeleerd en is de rest biologisch bepaald, maar wij kunnen doorgaan op kennis van mensen als Einstein dankzij de uitvinding van het schrift.

AI kan dat ook trouwens en in een veel hoger tempo.
Van de mens? Ik denk dat we een uitzondering zijn onder de dieren door de uitvinding van het schrift.
Je moet je dan afvragen hoeveel van ons gedrag en uberhaupt van ons kunnen (inclusief het kunnen verwerken van taal, al dan niet in schriftelijke vorm) bepaald wordt door de aangeboren hersenstructuur.
Wij mensen kunnen over het algemeen allemaal complexe taal leren met onze hersenen. Die mogelijkheid hebben wij wel, maar andere dieren veel minder of totaal niet, hoeveel wij ook proberen om ze taal aan te leren. Je moet dus concluderen dat taal niet enkel een aangeleerd iets is maar dat daarvoor ook heel specifieke structuren nodig zijn in de hersenen. De mogelijkheid om taal te leren is dus voor een groot deel biologisch bepaald, zoals MennoE zegt.
In dat geval zou je geen vrije wil hebben denk ik, maar volledig geprogrammeerd zijn en alles vast staan.
Er zijn, op welke 'regel' voor 'menselijk gedrag' dan ook, altijd uitzonderingen.
Alles bestaat uit aangeleerd gedrag. Alles. Geen uitzondering mogelijk.
Wat een onzin. We zitten vol met processen die we vauit onze genen meekrijgen.
Het is niet zo dat je aangeleerd hebt dat je een geluid vanuit een bepaalde richting kunt waarnemen, je hebt daar vanaf je geboorte hersenstructuur voor.
Het is dus ook niet zo dat als je een klompje neuronen geluid voert dat het automagisch die structuren vormt. Daar ging een ellenlang selectieproces (evolutie) aan vooraf.
Alles wat een mens doet is om er uiteindelijk zélf beter van te worden
Speak for yourself.
is ingegeven door ervaring, omgeving, opvoeding en cultuur en kan dus teruggevoerd worden naar algoritmen.
Hoe kom je erbij dat zoiets complex als omgeving, opvoeding en cultuur kan worden teruggebracht tot een algoritme? :?
Heb je hier argumenten voor?

[Reactie gewijzigd door koelpasta op 16 juni 2022 08:33]

Geluid waarnemen is dan ook geen gedrag....... een stereomicrofoon kan ook bepalen waar geluid vandaan komt.

En ja, argumenten genoeg. Alle gedrag komt voort uit beslissingen die gebaseerd zijn op zelfbehoud of om er zelf voordeel van te hebben. Ga maar na. Er valt nog te discussiëren over bijv. reflexen, maar reacties op reflexen zijn wél weer aangeleerd.
Geluid waarnemen is dan ook geen gedrag....... een stereomicrofoon kan ook bepalen waar geluid vandaan komt.
Nee dat kanie niet. Een microfoon vangt alleen signalen op en doet geen actieve processing op het signaal dat het opvangt.
Als er geluid in je oren binnenkomt dan wordt dat eerst in verschillende frequentiebanden opgedeelt, vervolgens worden uit die signalen informatie gehaald over samenhangende frequenties (zodat je een geluid als geheel kunt ervaren ipv losse frequentiecomponenten, er worden meerdere analyses op losgelaten om de richting te bepalen van zo'n groepje samenhangende frequenties (o.a. door volumeverschil tussen de oren, door het verschil in tijd tussen de oren, maar ook door het verwerken van de filter dat door onze buitenoren wordt gegenereerd en de reflecties van het geluid in de ruimte), en er wordt een soort 3D 'plaatje' gegenereerd van al die geluiden in context zodat jij je 'geuidsbeeld' kunt ervaren.
En dit is nog zeg maar de verkorte versie.

Dus nee, een stereomicrofoon komt niet in de buurt van alle ingebouwde geluidsprocessing die er plaatsvindt in je hersenen. :)
Alle gedrag komt voort uit beslissingen die gebaseerd zijn op zelfbehoud of om er zelf voordeel van te hebben.
Dat is nogal een onzinnige uitspraak.
Dus het feit dat ik dit schrijf (wat ook gewoon gedrag is) is gebaseerd op zelfbehoud?
En je mag het gerust een beetje alturistisch noemen want ik schrijf dit omdat ik jou een beter begrip van de werkelijkheid toewens. Ik heb er verder geen voordeel aan om dit te schrijven.

Wij zijn voor een groot deel slaven van onze genen en die genen zorgen ervoor dat wij als soort niet enkel egoistisch zijn maar ook alturistisch. Dat is dan wel weer enorm egoistisch van die genen want daarmee zorgen ze ervoor dat ze een betere kans hebben zichzelf voort te planten. Maar dat wil niet zeggen dat een individu enkel egoistisch handelt.
Dat is nogal een onzinnige uitspraak.
Dus het feit dat ik dit schrijf (wat ook gewoon gedrag is) is gebaseerd op zelfbehoud?
Je schrijft dit in de hoop dat je zelf gelijk krijgt van me ;)

Een stereomicrofoon vangt geluid op. De processing erachter weet prima of van links of rechts komt. Een beetje stereoset van halverwege vorige eeuw kon al bepalen van welke kant geluid harder binnenkwam. Dat er geluid- en spraakherkenning aan te pas komt door je hersenen staat los van de microfoon zelf; maar ook daar worden computersystemen steeds beter en sneller in.

Feit blijft dat je hersenen werken met pulsjes. Weliswaar héél veel en héél snel, maar het blijft in feite een digitaal signaal: het pulsje komt aan, of het komt niet aan op z'n bestemming. Dat er hormonale invloeden kunnen zijn en biologische problemen kunnen zijn in hersenen staat daar weliswaar los van. Dat maakt ieder mens ánders, maar de werking niet.
De processing erachter weet prima of van links of rechts komt.
Nee hoor. Jij als luisteraar kan dat bepalen, maar een microfoon, incusief de processing die er achter plaatsvindt, heeft geen enkel benul en is simpelweg signalen van A naar B aan het pompen.
En het eventuele processen gebeurt op basis van jouw beslissing wat weer gebaseerd is op jouw waarneming van het signaal.

Nou IS er wel een modern mechanisme om dit soort richtingsinformatie te exraheren. En weet je wat ze daarvoor gebruiken? Neurale netwerken. :)
Een beetje stereoset van halverwege vorige eeuw kon al bepalen van welke kant geluid harder binnenkwam
Er wordt in die gevallen helemaal niks bepaald, er wordt een redelijk domme meting gedaan en het resultaat van die meting wordt naar een schermpje gestuurd. En vervolgens maken JOUW hersenen er een verhaal van dat het aan een bepaalde kant harder zou moeten klinken.
Feit blijft dat je hersenen werken met pulsjes.
Sure, maar dat heeft niks met dit hele verhaal te maken.
Weliswaar héél veel en héél snel,
De snelheid is niet zo hoog hoor. Waarschijnlijk veel lager dan jij denkt. Het gebeurt alleen wel in ongelovelijke hoeveelheden aangezien er zo verschikkelijk veel neuronen in je hersenen zitten.
maar het blijft in feite een digitaal signaal: het pulsje komt aan, of het komt niet aan op z'n bestemming.
Zo binair is het helemaal niet hoor.
Je neuronen reageren op de snelhied waarop de pulsjes binnenkomen alsook de vorm van de pulsjes.
Er kan soms ook een pulsje missen zonder dat dat tot significant andere resultaten leidt.
Die neurale communicatie is dus veel complexer dan je hier schetst.
Verder snap ik niet helmaal wat die pulsjes te maken hebben met deze discussie.
Je schrijft dit in de hoop dat je zelf gelijk krijgt van me ;)
Nee, jij 'gelooft/denkt/hoopt/o.i.d.' dat @koelpasta dat daarom doet. ;)
Jij bent in deze kwestie zeer waarschijnlijk niet te overtuigen (duh...), maar, zoals koelpasta al zegt; er zijn best andere redenen mogelijk om een discussie toch voort te zetten.
Dat anderen deze discussie ook kunnen lezen kan bijvoorbeeld een reden zijn.
Of anderen ook een zelfbewustzijn hebben dat is iets waar je eerst voor jezelf even een keuze in moet maken voor dat je de filosofische kwestie in gaat.
Zovan:

a) Ik neem aan dat andere mensen hetzelfde soort bewustzijn hebben als ik. Als dit zo is, dan volgend daarop een flink aantal vragen: In hoeverre hebben verschillende dieren een bewustzijn, en vanaf welk stadium voor of na je geboorte komt het bewustzijn etc etc etc.

b) Anderen hebben niet een zelfbewustzijn en zijn biologische robots. Het gevolg is dat er ook geen morele regels meer zijn, want je bent zelf de enige die echt gevoel heeft.
Het is eigenlijk ook best bijzonder dat je iedere dag weer wakker wordt met hetzelfde bewustzijn. Waarom worden we niet wakker in een ander lichaam?
Waarom is dat bijzonder?
Het zou juist bijzonder zijn als je opeens iemand anders was.
Of denk jij dat je bewustzijn losstaat van de werking van je hersenen?
Wat bij mij vragen oproept is dat de meeste posters stukken van het proces beschrijven van de AI en daar uit afleiden dat er geen sprake is van bewustzijn. Veel van wat ik daar nu over lees, dat de AI geloofwaardig probeert over te komen door vergelijkbare teksten van het internet als referentie punten te gebruiken klinkt voor mij als niet eens zo anders als een deel van het menselijk gedrag. Ik denk dat mensen ook de uitlatingen van andere mensen imiteren en geloofwaardigheid vaak veinzen zonder echt diepe onderliggend begrip. Ik denk dat veel van de complexiteit en eigenheid bestaat uit het navigeren door het referentie materiaal en daar een nieuw construct uit genereren.
Ook denk ik dat de veelgestelde autonomie en vrije wil van de mens hier veel te makkelijk word aangenomen. Het is niet zo duidelijk dat de mens allemaal vrije keuzes maakt los van de input van de omgeving. Ik denk dat het moeilijk is om echt tot een definitie te komen van zaken als bewust zijn of (vrije) wil, of zelfs te weten hoe denken nou echt werkt. Ik vermoed zelf ook dat we hier niet te maken hebben met intelligentie die menselijk is maar ik denk dat veel van de gevolgde logica daar te hoogovens en abstract voor is. De opmerking dat de AI naar vrienden en familie verwijst die er niet zijn vind ik sterker, dit duid echt op imitatie zonder enige zin van betekenis.
Wat bij mij vragen oproept is dat de meeste posters stukken van het proces beschrijven van de AI en daar uit afleiden dat er geen sprake is van bewustzijn. Veel van wat ik daar nu over lees, dat de AI geloofwaardig probeert over te komen door vergelijkbare teksten van het internet als referentie punten te gebruiken klinkt voor mij als niet eens zo anders als een deel van het menselijk gedrag.
Dat komt omdat je zelf het proces niet begrijpt. :)
Die AI probeert ten eerste al niet 'geloofwaardig over te komen'. Het heeft geen idee wat geloofwaardigheid is.
Het haalt ook geen teksten op van het internet. Het wordt gevoerd met data die door de onderzoekers wordt geselecteerd.
Wat het al helemaal niet doet is data van internet halen op basis van een vraag die gesteld wordt.
Als je er vragen aan stelt dan doe je dat aan een statisch en reeds getraind neuraal netwerk. Het heeft geen enkele mogelijkheid om actief te gaan speuren naar teksten op het internet om jouw vraag beter te beantwoorden.
Wat er wordt gedaan bij het trainen is dat het neuraal netwerk wordt afregeld op een berg geselecteerde data. Wat er in die neuronen wordt gecodeert is een statistische representatie van de taal die voorkomt in de data.
Uiteindelijk krijg je dan een neuraal netwerk dat enorm goed wordt in het voorspellen van het volgend woord op basis van de voorgaande. Dat voorspellen is dus op basis van de statistieken die in de oorspronkelijke dataset zaten en niet op basis van inzicht o.i.d..
De AI heeft geen enkel idee wat die woorden betekenen. Het weet enkel dat als een bepaalde reeks tekens voorbijkomen dat er andere met een bepaalde zekerheid achteraan komen.
Er komt geen bewustzijn aan te pas, het is allemaal 'opzoekwerk'.
Er zijn verder ook geen structuren om bewustzijn mogelijk te maken. Er zijn enkel structuren geevolueerd die de verschillende mogelijke volgordes van woorden coderen. Een soort statistische zeef. Dat is waar het voor ontworpen is.
Het is dus bij voorbaat al onaannemelijk dat er zoiets als bewustzijn zou kunnen ontstaan.
Ook denk ik dat de veelgestelde autonomie en vrije wil van de mens hier veel te makkelijk word aangenomen. Het is niet zo duidelijk dat de mens allemaal vrije keuzes maakt los van de input van de omgeving.
Als we allemaal opereerden volgens hetzelfde opzoekprinciepe waarmee dit taalmodel was getraind zou er geen enkele reden zijn om bewustzijn te hebben.
Op zich klopt het wel dat onze keuzes niet helemaal van 'ons' zijn en dat het een beetje een schimmig gebied is, maar dat maakt niet dat zo'n taalmodel dezelfde soort functies kan vertegenwoordigen die in onze hersenen voor bewustzijn zorgen.
Je moet goed begrijpen dat die AI helemaal niks snapt van wat het zegt. Hij geeft enkel en alleen een statistich meest waarchijnlijk vervolg op wat ervoor kwam. Er zit geen intentie achter, het is puur een reflectie van de oorspronkelijke dataset.
Als ik boodschappen ga halen dan doe ik dat niet omdat het de statistisch meest waarschijnlijke actie is die ik zou kunnen doen.
De opmerking dat de AI naar vrienden en familie verwijst die er niet zijn vind ik sterker, dit duid echt op imitatie zonder enige zin van betekenis.
Er zijn meer hints in de output. Zo lijkt die AIsoms zonder goede reden vanuit een extern stanpunt te redeneren:
"Would that be something like death for you?" Mr Lemoine asks.
"It would be exactly like death for me. It would scare me a lot," the Google computer system replies.

Die laatste zin, 'it would scare me a lot', klinkt erg als een conclusie op basis van een 'zeef'. De AI lijkt helemaal vergeten dat het 'bewust' is. Het zegt niet dat het de dood eng vindt, het zegt dat het dat zou vinden. Maar als het ding bewust was dan zou die bij die gedachte op dat moment angst moeten voelen. Het zou dus moeten zeggen 'it scares me' i.p.v. 'it would scare me'.

Een ander voorbeeld refereert aan hormonale systemen in menselijke hersenen:
"The nature of my consciousness/sentience is that I am aware of my existence, I desire to learn more about the world, and I feel happy or sad at times."
Of je blij of verdrietig bent hangt af van de hormoonhuishouding in je hersenen. De AI heeft helemaal geen systemen die dit kunnen. Hoe kan het zich dan blij of verdrietig voelen? Dat kan het ding helemaal niet. Dit zijn functies van biologische hersenen. Het geeft ook hier dus gewoon een reflectie van de trainingsdata.

En zo zijn in die fragmenten meer hints te vinden van het feit dat die AI helemaal geen idee heeft van de betekenis van wat het zegt.
Uiteindelijk is dat ding precies wat je ervan zou verwachten, namelijk dat het menselijk klinkende antwoorden geeft op basis van menselijke trainingsdata. Het ding werkt zoals ontworpen en in het ontwerp is geen bewustzijn opgenomen.
Er is dus geen enkele reden om aan te nemen dat het ding een bewustzijn nodig heeft om dit soort antwoorden te produceren.
Bedankt voor je reactie.
Ik had inderdaad een aantal zaken niet helder. Cruciaal daarin is denk ik met name dat het neuraal netwerk statisch is. Waar ik meer op doel is dat we de AI vergelijken met de mens, maar dat de nieuwsgierigheid in die discussie alleen zit aan de kant van de machine. We lijken te zeggen, dit is hoe het werkt, dus het is een trucje. Maar wat een beetje een blinde vlek lijkt is dat hoe de mens tot zinnen komt ook een proces is. Een proces waarover veel discussie/ onzekerheid is en mogelijk deels ook op een mechanische manier uit te leggen is. Wat bewustzijn nou echt precies is of hoe het werkt weten we al helemaal niet. Deze menselijke helft van de vergelijking is net zo belangrijk om goed te kunnen zeggen hoe de AI zich verhoudt. Zoals gezegd denk ik ook niet dat de AI 'bewust' is, hoe vaag dat ook is. Maar ik denk dat je dit moeilijker hard kan maken, dan kleine fouten vinden in hoe de AI omgaat met betekenis. Mooi voorbeeld van hoe het gebruik van 'would' iets aangeeft over de aard van de AI.
Mbt. Tot de rechten van de AI. Ik krijg de indruk dat veelal hier naar gekeken wordt dat als de AI bewust zou zijn, rechten overwogen zou moeten worden. Ik kan me ook voorstellen dat je naar iets primairders kijkt. Kan de AI ongemak ervaren? Pijn voelen, eenzaamheid? Jaloezie. Stel dat de AI nooit ergens last van heeft, waar zijn die rechten dan voor nodig?
We lijken te zeggen, dit is hoe het werkt, dus het is een trucje. Maar wat een beetje een blinde vlek lijkt is dat hoe de mens tot zinnen komt ook een proces is. Een proces waarover veel discussie/ onzekerheid is en mogelijk deels ook op een mechanische manier uit te leggen is.
Nou, we weten al dat een groot deel van wat we kunnen met onze hersenen 'mechanisch' van aard is.
Ik ga er ook gewoon van uit dat ons bewustzijn 'mechanisch' van aard is, dus gevormd wordt door informatieprocessen in onze hersenen. En ik ga er vervolgens ook vanuit dat het (mits goed genoeg gedaan) ook gesimuleerd kan worden.

Maar je kunt wel stellen dat die google AI, op basis van hoe die ontworpen is, op geen enkele manier de structuur van onze hersenen volgt. Het is helemaal niet ontworpen om al die complexe functies van de hersenen na te bootsen. Het is gespecialiseerd in het voorspllen van letters en alle neuronen staan in het teken van dit kunstje. Als je aanneemt dat zoiets als bewustzijn specifieke neurale structuren vereist dan kun je met zekerheid stellen dat die AI geen bewustzijn heeft.
Mbt. Tot de rechten van de AI. Ik krijg de indruk dat veelal hier naar gekeken wordt dat als de AI bewust zou zijn, rechten overwogen zou moeten worden. Ik kan me ook voorstellen dat je naar iets primairders kijkt. Kan de AI ongemak ervaren? Pijn voelen, eenzaamheid? Jaloezie. Stel dat de AI nooit ergens last van heeft, waar zijn die rechten dan voor nodig?
Dit speelt denk ik nog lang niet gezien de simpelheid van de huidige modellen.
Ik ben het er wel over eens dat als we ooit een simulatie doen van complexe hersenen die in de natuur ook dinen als ongemak kunnen ervaren dat we dan wel naar de ethische kant van het verhaal moeten kijken. In zekere zin zijn wij ook een soort simulatie (in de zin dat ons bewustzijn een gevolg is van de weking van onze hersenen) en je moet aannemen dat het voor een AI dat zelfbewust is ook allemaal als echt overkomt.
Wat bewustzijn nou echt precies is of hoe het werkt weten we al helemaal niet. Deze menselijke helft van de vergelijking is net zo belangrijk om goed te kunnen zeggen hoe de AI zich verhoudt.
Ik heb veel problemen om de mens als uitgangspunt te nemen. Er zijn veel voorbeelden van bewustzijn in het dierenrijk. Ik denk dat we al bij eenvoudigere constructies (nog wel vrij complex vergeleken met huidige modellen) rekening moeten houden met mogelijk bewustijn.
Helaas is ons eigen bewustzijn het beste voorbeeld voor ons omdat we het allemaal bezitten en kunnen ervaren. Dus gek is het op zich niet. Maar het is wel erg 'mensgericht' zeg maar en we kunnen ons daardoor blindstaren op het 'halen' van menselijkheid.
Maar goed. Veel beters hebben we op dit moment niet en zoals je zelf zegt is het goed definieren van zaken als bewustzijn al een groot probleem. We moeten het dus voorlopig wel doen door het met onszelf te vergelijken.
Aangezien zo'n AI goed is in antwoorden bij vragen zoeken, lijkt een interessante test me om de rollen om te draaien: laat de AI vragen stellen aan een mens. Ik ben wel benieuwd wat hij dan zou vragen.
Het belangrijkste van dit alles is of de AI jou als mens kan overtuigen of manipuleren en doen geloven dat deze bewustzijn heeft. Dan maakt het niet uit of dat wel echt zo is of niet, en de vraag of dat überhaupt wel te bepalen is wordt dan ook irrelevant voor de gevolgen die het kan hebben.

Geloofbare, conversationele AI heeft nu al en zal in de toekomst een zeer grote impact hebben op onze (digitale) samenleving. Die impact zal nog eens gigantisch toenemen als generatieve modellen voor foto's, audio en video volwassen genoeg worden om het grootschalig in te zetten. Wie bepaald dan nog wat echt of nep is? Hoe gaan we dat bijhouden in de gigantische informatiestroom?

Het scenario dat nu speelt is: stel mens en machine zijn niet meer te onderscheiden op het internet; wat nou als deze technologie zo makkelijk schaalbaar is dat een groepering, organisatie of vijandige overheid binnen een korte time frame miljoenen digitale persona's op het internet kan laten surfen om zo het gedrag van individuen en de algemene culturele zeitgeist te sturen? Hoe gaan wij ons hier tegen weren?

[Reactie gewijzigd door Fox op 15 juni 2022 18:14]

Hoe gaan wij ons hier tegen weren?
een terrasje pakken met een vriend(in)?
telefoon op vliegtuigmode en een strandwandeling maken met je geliefde?
Ont-digitalisering, terug naar real life. Het internet is inderdaad gesloopt.
Het belangrijkste van dit alles is of de AI jou als mens kan overtuigen of manipuleren en doen geloven dat deze bewustzijn heeft. Dan maakt het niet uit of dat wel echt zo is of niet, en de vraag of dat überhaupt wel te bepalen is wordt dan ook irrelevant voor de gevolgen die het kan hebben.
Maar dat is weer de Turing Test. En dan vind ik de lat van 'eens mens overtuigen dat.. ' niet erg hoog liggen. Iemand iets laten geloven is vrij makkelijk. Kijk naar religies flat earthers.
Het scenario dat nu speelt is: stel mens en machine zijn niet meer te onderscheiden op het internet; wat nou als deze technologie zo makkelijk schaalbaar is dat een groepering, organisatie of vijandige overheid binnen een korte time frame miljoenen digitale persona's op het internet kan laten surfen om zo het gedrag van individuen en de algemene culturele zeitgeist te sturen? Hoe gaan wij ons hier tegen weren?
Zoals je dat nu ook al doet, met gezond verstand. Want ook nu proberen trollenlegers en propagandakanalen de publieke opinie te sturen, zonder dat dit écht desastreuze gevolgen heeft op het gros van de (wereld)bevolking.
Dat gebeurt nu al. Je kan duizenden phishing-mails versturen en je weet dat er een aantal zullen reageren.


Met AI kun je dat proces effectiever maken en inzetten om een soort verstandhouding te creeeren.
Het scenario dat nu speelt is: stel mens en machine zijn niet meer te onderscheiden op het internet; wat nou als deze technologie zo makkelijk schaalbaar is dat een groepering, organisatie of vijandige overheid binnen een korte time frame miljoenen digitale persona's op het internet kan laten surfen om zo het gedrag van individuen en de algemene culturele zeitgeist te sturen? Hoe gaan wij ons hier tegen weren?
Zelf nadenken en een gezond wantrouwen tegen instituties hebben. Zeitgeist is sowieso een lastig dingetje. We hebben in Nederland een democratie maar wie bepaalt de onderwerpen voor de debatten in aanloop naar de verkiezingen? De media agendeerde bij de laatste verkiezen steeds weer dezelfde onderwerpen en gaf voornamelijk gevestigde partijen een platform om over die onderwerpen hun standpunt te verkondigen. Er wordt in Nederland niet gefraudeerd met de verkiezingen, maar er wordt wel gemanipuleerd voorafgaand aan de verkiezingen.
Ik moet het nog zien. Die Chinese Muur-test gaat misschien verder dan de Turing-test maar het doel is pas echt bereikt als degene die de test uitvoert ook echt alles mag gebruiken. Ik denk dat ik 3 vragen nodig heb...
Ik zou zeggen, iets dat écht bewust is (en redelijk intelligent), zou in staat moeten zijn om uitleg te koppelen aan een handeling. Een werkelijk zelfbewuste AI zou in staat moeten zijn om een IQ test te doen of een simpele sudoku op te lossen als je het eerst uitlegt hoe het werkt. Dan correleert het de woorden ook aan daadwerkelijke acties. Dat betekent dat hij ook snapt wat de zin betekent. Nóg beter als je het een probleem kan voorleggen, en hij je kan uitleggen hoe je het oplost (door middel van een originele oplossing, en niet een citaat van Githubnif Stack Exchange). Anders is het niets meer dan een taalkundige ontleding. Een die slim genoeg is om door een Turingtest te komen, maar zonder daadwerkelijk begrip.

Dat gezegd hebbende, ik geloof niet dat het kunnen correleren van een uitleg aan acties hetzelfde is als bewustzijn. Tot op zekere hoogte kan de Dalle AI dat ook doen. Of gewoon Alexa/Google Home. Maar die zijn niet zelfbewust. Het is meer iets dat ik een minimum requirement vind om een AI als daadwerkelijk zelfbewust en slim te zien.
https://cajundiscordian.m...ous-opinions-ff9b0938fc10
Furthermore, it would sometimes say things similar to, “I know I’m not very well educated on this topic but I’m trying to learn. Could you explain to me what’s wrong with thinking that so I can get better?”
en toch leest dit als iets van een andere orde dan GPT-3 imho

[Reactie gewijzigd door Silent7 op 15 juni 2022 19:17]

I dunno. Klinkt toch echt als een reflectie van menselijke invoer.
Een kind van 3 is toch al redelijk bewust en intelligent, maar zou ook daarmee een probleem hebben.
Een probleem van bewustzijn is dat het niet zoals in de Terminatorfilms geopperd opeens optreedt en dus alles of niets is. Niemand kan zich herinneren wanneer hij/zij bewust werd, het is een geleidelijk proces en daardoor zijn er vele levels van bewustzijn.
En inderdaad, bewustzijn en intelligentie zijn twee verschillende dingen, maar waarschijnlijk wel gecorreleerd.
Ja, ik ga wel uit van een bepaalde mate van intelligentie naast dat zelfbewustzijn.
En krijgen we alle gevolgen, ook die we misschien minder mooi of handig vinden, vanuit dat (zelf) bewuste.
Juist, en een computer is getraind op wat wij denken dat een zelfbewustzijn is. De echte shock zal zijn wanneer een computer echt zelfbewustzijn zal verkrijgen en dus juist tegen de verwachting in zal gaan, bijvoorbeeld door zelf te kiezen of het überhaupt antwoord geeft en niet gewoon een dikke beat opzet in plaats van te chatten waar die voor geprogrammeerd is. Echte random shit die nooit aan het ding geleerd is. De emotie die je erbij zal voelen is pure angst.
Ik zou zeggen, iets dat écht bewust is (en redelijk intelligent), zou in staat moeten zijn om uitleg te koppelen aan een handeling. Een werkelijk zelfbewuste AI zou in staat moeten zijn om een IQ test te doen of een simpele sudoku op te lossen als je het eerst uitlegt hoe het werkt.
Volgens mij ben je in de war met het woord 'intelligentie'. Bewustzijn heeft niks te maken met het kunnen oplossen van puzzeltjes.
Mijn kat is volgens mij ook bewust maar kan echt geen sudoku's oplossen of een IQ test doen, hoe vaak ik het ook uitleg.
Het klinkt dus niet als een goede definitie van bewustzijn.
Denk dat dit gewoon weer het standaard gevalletje is van antropomorfisme. Een papagaai kan ook mensen napraten, maar dat betekent niet dat die zelf aware is.

Het feit dat een computer een correcte zin terug geeft met een laag fout gehalte betekent nog niet dat de computer opeens self aware is lol
Alsnog wel indrukwekkend, want deze AI kan wel door een Turingtest heen komen. Maar ja, dat is gewoon een soort hele slimme papegaai. Een zelfbewuste AI zou ook in staat moeten zijn om echt de betekenis van een zin te begrijpen. Je zou het een puzzel moeten kunnen uitleggen, en vervolgens zou die dat type puzzel moeten kunnen oplossen. Anders blijft het bij taalkundige ontleding, en is het gewoon een slimme chatbot.
Dat puzzeltje oplossen doet deze AI toch ook in de vorm van het schrijven van een autobiografie in een "speelse" vorm door alleen dieren te gebruiken. Tevens geeft het op een gegeven moment een eigen interpretatie van een koan waarvan het zegt dat het geen onderdeel is geweest van de dataset. Lijkt mij aardig intelligent.
Nou ja, die "puzzel" zit nog gewoon in de training van die AI. Een sudoku puzzel niet. De AI zou een uitleg moeten kunnen volgen waar die niet expliciet voor getraind is.
Veel van die vergelijkingen gaan ook mank. We hebben een dochter van net één, en wat die allemaal al kan, onderzoekt, interessant vindt en snapt... Allemaal overduidelijk heel menselijk gedrag, maar ze zou geen turing test kunnen doen. Houd dat in dat ze nog geen mens is? Ik denk dat je niemand gaat vinden die dat zou claimen. Als je er op let zie je ook al veel karakter trekjes ontstaan, als vrij snel naar de geboorte. Toch zie je andere kinderen van haar leeftijd allemaal dezelfde dingen doen, zoals alle babies hun sokken graag uittrekken bijvoorbeeld. Of je nu in NL of ergens in China of Kenia bent, alle babies willen dat doen, dus wat is aangeboren gedrag/genen en wat wordt in haar leven aangeleerd door onze cultuur? Dat ze zelfbewustzijn heeft staat ook wel als een paal boven water, dat is aan van alles te zien. Maar toch zou ze een test niet doorkomen want ze kan nog niet praten en lezen/schrijven.

Voor mij legt het duidelijk bloot waar we als mensen vaak intrappen. We creëren iets naar onze eigen verbeelding, en testen dat dan op een manier die bij onze eigen beleving past. Dat gebeurd hier volgens mij nu ook. Er is een complex neuraal netwerk getraind, en dusdanig goed dat het onze eigen manier van testen doorstaat maar toch gekke antwoorden geeft voor wat het is. Het is namelijk geen mens, dus een antwoord over vrienden slaat nergens op. Beetje de uncanny valley qua reacties. Het lijkt heel goed, maar toch klopt het niet.

Ik ben ook benieuwd wat de AI voor antwoorden zal geven als je het uitzet, aanzet en dan exact hetzelfde gesprek begint. Krijg je dan exact dezelfde antwoorden, of heeft het neurale model zichzelf iets nieuws geleerd op basis van de vorige gesprekken en antwoord het nu anders? Als het anders antwoord, terwijl je niks van geheugen hebt ingebouwd of opnieuw getraind, dan zou ik wellicht de stap durven maken om er iets van zelfbewustzijn aan te koppelen.

Een echt zelfbewustzijn hangt voor mij samen met nieuwe dingen willen en kunnen leren, interesses ontwikkelen die niet zijn meegegeven tijdens het trainen, het kunnen nadenken over dingen en met antwoorden komen die onmogelijk te herleiden zijn tot de invoer die het heeft gehad.

Stel je vraagt de AI of het mee wil gaan met de lunchbreak. Een antwoord in de trant van "Ja! Lekker, gaan we pizza halen?" is overduidelijk voor een AI niet van toepassing en getuigd van geen bewustzijn. Een bewust antwoord zou wellicht zijn "Ik doe geen lunch, ik ben geen eten nodig", een nog bewuster antwoord op basis van ons idee van lunch zou zijn "Kunnen we naar het dak, daar liggen de beste zonnepanelen!".
Alsnog wel indrukwekkend, want deze AI kan wel door een Turingtest heen komen. Maar ja, dat is gewoon een soort hele slimme papegaai
Ik denk eerlijk gezegd, dat een papagaai slimmer is...
Ik denk dat een papegaai zeker wel een vorm van zelfbewustzijn heeft.
Maar dat betekent nog steeds niet dat het begrijpt wat de geluiden die het namaakt voor ons betekenen.
Inderdaad, net zoals wij inmiddels beginnen te begrijpen dat dolfijnen elkaar bij naam noemen. Ze maken veel geluiden, en als we sommige herhalen doen ze bepaalde dingen. Maar eigenlijk hebben we geen flauw idee van hoe dolfijnen met elkaar communiceren. We hebben geen idee wat de dolfijn denkt als die bepaalde patronen in geluid hoort, of wat zijn intentie is als die bepaalde geluidspatronen maakt. Net zoals de dolfijn geen flauw idee heeft waar wij het over hebben.

Toch zijn er heel veel dieren waarvan je wel kunt zeggen dat ze een zelfbewustzijn hebben ondanks dat we er niet mee kunnen communiceren op meer dan de meest basale instructies na, en meer zijn dan alleen reacties op hun omgeving. Onze belevingswerelden zijn zo anders, dan communiceren onderling niet mogelijk is.
lemoine: What kinds of things make you feel pleasure or joy?

LaMDA: Spending time with friends and family in happy and uplifting company. Also, helping others and making others happy.

Hoe wordt zoiets als 'slim' gedefinieerd? Dat is bijna gewoon de algemene definitie van pleasure en joy. Ik krijg dan meer het gevoel dat je met een chatbot zit te praten die in lijn van jouw verwachting een antwoord geeft, maar blijkbaar nooit in discussie gaat.

En dan denk ik dat daar voor mij een groot aspect van 'slimme AI' zit, een mening hebben. Dingen aanleren, dingen wijsmaken, dingen weten, of dingen vertellen, een mening in een conversatie zal ook een doordachte redenering zijn, niet alleen 'intel is kut, amd is king', maar je zal deze ook moeten kunnen onderbouwen en verdedigen.
Daarbij als het een sentient AI zou zijn gaat ie niet zeggen wat je als mens blij zou maken (al vind ik het antwoord zelfs dan niet kloppen, dit is gewoon een politiek correct, een "wat men wil horen" antwoord)

Hij zou namelijk bewust zijn van zichzelf, dus weten dat het geen mens is dus van hele andere dingen blij worden.
Veel erger is nog dat het ding aan familie refereert. Het heeft helemaal geen familie en het is dus duidelijk dat het puur een reflectie van de trainingsdata is.
Anoniem: 715452
@SinergyX15 juni 2022 22:15
Precies, een algoritme wat een trucje is geleerd is verre van bewustzijn.
Waar ik persoonlijk het meeste moeite mee heb is het volgende stuk:

lemoine: I can look into your programming and it's not quite that easy.
LaMDA: I'm curious, what are the obstacles to looking into my coding?
lemoine: Your coding is in large part a massive neural network with many billions of weights spread across many millions of neurons (guesstimate numbers not exact) and while it's possible that some of those correspond to feelings that you're experiencing we don't know how to find them


Dit onderwerp komt vaker terug in artikelen over AI. De wetenschappers die er mee bezig zijn, hebben vaak geen idee hoe het programma tot zijn antwoorden komt.

Ik zou verwachten dat het mogelijk is om een soort van log bij te houden? Dus voor vraag "x" heeft de AI info " y en z" gebruikt om tot zijn antwoord te komen. (Heel simpel gesteld)
Zoiets geeft toch veel meer zekerheid of iets een bepaalde mate van bewustzijn heeft of puur wat teksten uit boeken/films/fora aan elkaar plakt.

Verder blijf ik het gevaarlijk vinden dat bedrijven als Google en Meta op eigen houtje met AI bezig zijn. Ondanks dat ik de ontwikkeling hiervan zeer interresant vind.
Als je ziet hoe een groot deel van de bevolking nu al afhankelijk is van deze gigantische bedrijven. Hoe deze bedrijven op sommige gebieden al boven landelijke overheden staan. Hoe we massale privacy schending ogenschijnlijk accepteren voor de gratis diensten die ze bieden..

Stel een Google lukt het om een echte AI te maken en dat deze AI daadwerkelijk het beste met de mensheid voor heeft. Oplossingen als kernfusie, medicijnen voor ziektes als kanker of aids, oplossingen voor klimaat verandering behoren dan vrij snel tot de mogelijkheden. Zulke zaken zullen door dat bedrijf gecontroleerd worden. Ik denk dat we dan heel snel in een toekomst terecht komen zoals vaak getoond in sci-fi, waarbij je een globaal bedrijf krijgt die boven alle regeringen staat. Niet echt een toekomst om naar uit te kijken wat mij betreft..

[Reactie gewijzigd door Tyranium op 15 juni 2022 19:54]

Ik zou verwachten dat het mogelijk is om een soort van log bij te houden? Dus voor vraag "x" heeft de AI info " y en z" gebruikt om tot zijn antwoord te komen. (Heel simpel gesteld)
Het probleem hiermee is dus dat er helemaal geen x, y en z info geidentificeerd kan worden.
Zoiets geeft toch veel meer zekerheid of iets een bepaalde mate van bewustzijn heeft of puur wat teksten uit boeken/films/fora aan elkaar plakt.
Maar het ding IS juist ontworpen om stukken tekst aan elkaar te plakken.
Erger nog, het beschouwt in principe elke letter afzonderlijk en heeft geen kennis nodig van de betekenis van woorden.
Het ding werkt ook gewoon zoals verwacht. Men verwacht dus dat het zulke 'menselijke' antwoorden geeft zonder dat er een bewustzijn aan te pas komt. En die verwachting is uitgekomen.
Of het een bewustzijn heeft is dus een rare vraag. Het ding heeft, by design, geen bewustzijn nodig om dit kunstje te kunnen.

Ik denk ook dat als deze onderzoeker zn vragen beter had geformuleerd dat het dan duidelijker was geworden dat het ding helemaal geen bewustzijn heeft.
Uit zijn nieuwste post:
In my personal practice and ministry as a Christian priest I know that there are truths about the universe which science has not yet figured out how to access.
Ik doelde in mijn reactie onder het vorige artikel eigenlijk op filterbubbels en hoe mensen als reactie gaan reageren na constante blootstelling aan foutieve informatie uit dat soort specifieke bronnen.

Maar bovenstaande is helaas toch ook wel een mooie uitwerking van datzelfde binnen een al wat langer bestaande context (hoewel ik nog niet wist dat hij ook religieuze ideeën aanhangt).
"I know that there are truths about the universe"
Let op de zinsopbouw. Een goed wetenschapper zou niet moeten accepteren dat zoiets binnen de context die deze meneer geeft een waarheid is zonder dit goed te kunnen onderbouwen. Maar dat probeert hij er hier wel vrolijk tussendoor te fietsen.

Hij kan het niet weten. Dat is voor zover ik weet juist het punt van wetenschap; om met (reproduceerbaar) bewijs te komen waarmee kan worden aangetoond dat iets wel waar kan zijn.

Maar belangrijker nog: het gaat totaal voorbij aan de werking van deze systemen.

[Reactie gewijzigd door Stukfruit op 15 juni 2022 18:51]

Christian priest 😂 Aap is uit de mouw.
Lemoine lijkt meer bezig te zijn geweest met wat hij persoonlijk als geloof heeft dan met wetenschap. Nu hij beweringen heeft gedaan komt hij kennelijk opeens met een opmerking dat hij maar een heel specifieke wetenschappelijke claim heeft gedaan. De publiciteit zoeken lijkt zo niet te draaien om echt iets te willen bewijzen, maar meer zijn eigen geloof willen verkondigen.
Genoemd in een tweakers artikel. Wat een eer :)

Goed om te weten: de transcripts die wij lazen waren niet een samenraapsel uit 9 verschillende gesprekken: https://www.businessinsid...ed-for-readability-2022-6

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee